Microsoft упразднила комиссию по этике и обществу, которая курировала соблюдение компанией принципов ответственного использования искусственного интеллекта. В частности, в ее задачи входило выявление возможных проблем, которые могли бы возникнуть в будущем из-за внедрения ИИ. По некоторым данным, деятельность группы инженеров, дизайнеров и философов, негативно сказывалась на скорости вывода ИИ-продуктов компании на «разогретый» ChatGPT рынок. Под давлением высшего руководства Microsoft команда сперва была зачищена, а спустя полгода и вовсе ликвидирована.
Ликвидированная команда осуществляла контроль за соблюдением принципов ответственного подхода к использованию ИИ, сформулированных Microsoft, при разработке собственных программных продуктов на базе нейросетей.
Несколько лет назад команда подготовила специальную настольную ролевую игру под названием Judgement Call («Спорное решение»), которая призвана помочь разработчикам сформировать представление о том, какой вред потенциально способен нанести искусственный интеллект и учесть возможные негативные последствия в процессе создания конкретного продукта на его основе. В последствии игра была включена в состав «инструментария ответственных инноваций» (Responsible Innovation Toolkit), опубликованного командой.
Как отмечает The Verge, конфликт в Microsoft иллюстрирует противоречивое отношение технологических гигантов к созданным ими же самими подразделениям по вопросам этики и общества. С одной стороны, эксперты такого рода обладают навыками прогнозирования сценариев злонамеренного использования создаваемых компанией технологий, помогая разработчикам избавиться от «узких мест» в сервисах и ПО до их выхода на рынок. С другой, они способны и «тормозить» или вовсе блокировать вывод продуктов на рынок, обозначая риски, которые могут обернуться головной болью для юридического отдела компании в среднесрочной и долгосрочной перспективе.
Говорить о полном отказе Microsoft от принципов ответственного использовании ИИ не приходится.
Следует иметь в виду, что ликвидированная команда все же была не единственной структурой, занятой вопросами этичного ИИ. В строю, согласно официальному сайту Microsoft, остаются ORA (Office of Responsible AI), RAISE (Responsible AI Strategy in Engineering и Aether Committee. Первая, к примеру, сформулировала шесть основных принципов ответственного использования ИИ:
справедливость (fairness);
надежность и защита (reliability & safety);
конфиденциальность и безопасность (privacy & security);
доступность (inclusiveness);
прозрачность (transparency);
подотчетность (accountability).