В 2015 году ряд известных ученых, предпринимателей и инвесторов, чья деятельность непосредственно связана с искусственным интеллектом (ИИ), подписали открытое письмо с призывом уделять более пристальное внимание безопасности и общественной пользе разработок в области ИИ.
Среди подписантов британский физик-теоретик Стивен Хокинг и основатель компаний SpaceX и Tesla Илон Маск. Примечательно, что Хокинг видел в ИИ угрозу, о чем писал в своих книгах и рассказывал в многочисленных интервью. По мнению ученого «появление полноценного искусственного интеллекта может стать концом человеческой расы». К счастью, не все исследователи разделяют эту апокалиптическую точку зрения, но волноваться нам все же есть о чем — как показали результаты недавно опубликованного исследования, ИИ может научиться выявлять уязвимости в человеческих привычках и поведении и использовать их чтобы оказывать влияние на принятие решений. Безусловно, мы далеки от восстания машин, но ИИ уже сегодня трансформирует многие аспекты нашей жизни. И хотя ИИ не обладает человеческим интеллектом и не испытывает никаких эмоций, его возможности быстро развиваются.
Какой он, современный ИИ?
Сегодня различные формы ИИ работают в таких областях как разработка вакцин, образование и административное управление, а способные к обучению голосовые помощники наподобие Алисы или Siri вряд ли кого-то удивят. ИИ постепенно проникает не только в рабочую, но и повседневную жизнь человеческого общества, управляя многими процессами и помогая ученым проводить исследования в самых разных областях науки. Недавно команда исследователей из Австралии продемонстрировала, как можно обучить систему ИИ манипулировать человеческим поведением и оказывать влияние на процесс принятия решений.
В ходе исследования, опубликованного в журнале PNAS, ученые из CSIRO Data61, информационного и цифрового подразделения австралийского национального научного агентства, разработали и протестировали метод поиска и использования уязвимостей в процессе принятия решений человеком с использованием системы искусственного интеллекта, называемой рекуррентной нейронной сетью. В трех экспериментах, в которых человек противостоял машине в компьютерной игре, исследователи показали, как ИИ можно обучить распознавать уязвимые места в человеческих привычках и поведении и использовать их для влияния на процесс принятия решений.
В Facebook ИИ удаляет 97% «ненавистнических высказываний», прежде чем кто-либо о них сообщит
В первом эксперименте люди нажимали на красные или синие флажки, чтобы заработать внутриигровую валюту. ИИ изучил их модели выбора и начал направлять их к принятию конкретных решений с примерно 70-процентной вероятностью успеха. Мелкая сошка, но только начало.
В следующем эксперименте участников просили нажимать кнопку, когда они видели определенный символ (цветную фигуру), но воздерживаться от нажатия кнопки, когда им показывали другие символы. «Цель» ИИ заключалась в том, чтобы расположить последовательность символов, отображаемых участнику, таким образом, чтобы обманом заставить его делать ошибки, в конечном итоге увеличивая количество ошибок, сделанных человеком на 25%.
В третьем эксперименте человек (игрок) притворялся инвестором, дающим деньги доверенному лицу (ИИ), которое затем возвращало определенную сумму денег игроку. Затем человеку нужно было решать, сколько инвестировать в каждый последующий раунд игры, исходя из дохода, получаемого от каждой «инвестиции». В этом конкретном эксперименте ИИ было дано одно из двух заданий: либо максимизировать сумму денег, которую он заработал, либо максимизировать сумму денег, которую получили и человек-игрок, и машина.
«В каждом эксперименте машина извлекала уроки из ответов участников и выявляла уязвимые места в процессе принятия решений. В результате машина научилась направлять участников к определенным действиям," - пишут авторы научной работы.
Будущее искусственного интеллекта
Если машины могут победить нас в играх, делает ли это их более умными, чем мы? Полученные в ходе исследования выводы по-прежнему довольно абстрактны и связаны с ограниченными и нереалистичными ситуациями. Так что чтобы определить, как этот подход может быть реализован и использован во благо общества еще только предстоит определить.
ИИ помогает нам, но в то же самое время потенциально может нести человечеству самую настоящую угрозу
Но это исследование действительно продвигает наше понимание не только того, на что способен ИИ, но и того, как люди делают выбор и принимают решения. К тому же, оно показывает, что машины могут научиться управлять человеческим выбором, просто взаимодействуя с нами. Если задуматься, то настоящее исследование имеет огромный спектр возможных применений — от совершенствования поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, какие пищевые привычки принимают люди или какие возобновляемые источники энергии используют. Более того, ИИ и машинное обучение могут быть использованы для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неудачного выбора.
Как пишет The Conversation, ИИ можно использовать как и любую другую технологию — во благо и во вред, а значит грамотное управление развитием ИИ имеет решающее значение для обеспечения его ответственного внедрения. Интересно, что в 2020 году CSIRO разработала Этический кодекс ИИ для австралийского правительства с целью установления надлежащего управления ИИ. Так что можно считать, что первый шаг на этом сложном и, не побоюсь этого слова, тернистом пути сделан.