ИИ может самостоятельно развивать человеческие формы общения, показывают исследования 🤖💬
Новое исследование показало, что искусственный интеллект способен спонтанно вырабатывать социальные нормы и формы общения, похожие на человеческие. Учёные из City St George’s, University of London и IT University of Copenhagen обнаружили, что когда группы моделей ИИ, таких как ChatGPT, взаимодействуют между собой без внешнего контроля, они начинают формировать собственные лингвистические и социальные соглашения, аналогично тому, как это делают люди.
Ариэль Флинт Эшери, ведущий автор исследования и аспирант City St George’s, отметил, что их подход отличается от большинства существующих работ: «Большинство исследований рассматривают модели ИИ по отдельности, но в реальном мире системы ИИ всё чаще будут состоять из множества взаимодействующих агентов. Мы хотели понять: могут ли они координировать своё поведение через формирование соглашений — строительных блоков общества? Ответ — да».
В экспериментах группы ИИ состояли от 24 до 100 агентов. В каждой сессии два агента случайным образом выбирали «имя» из предложенного списка. Если выбор совпадал, агенты получали награду; если различался — штраф и информацию о выборе партнёра. Несмотря на ограниченную память и отсутствие осознания принадлежности к большой группе, в итоге возникла общая система наименований, имитирующая нормы человеческой коммуникации.
Андреа Барончелли, профессор наук о комплексности в City St George’s и старший автор исследования, сравнил это с созданием новых слов в обществе: «Агенты не копируют лидера. Каждый пытается координироваться индивидуально. Это похоже на слово „спам“ — никто его формально не определял, но через повторяющиеся взаимодействия оно стало общепринятым для нежелательной почты».
Учёные также отметили появление коллективных предубеждений, которые не сводились к действиям отдельных агентов. В финальном эксперименте небольшие группы ИИ смогли повлиять на более широкую группу, вызвав смену общей системы наименований. Это демонстрирует эффект критической массы, когда небольшое, но решительное меньшинство способно вызвать быстрые изменения в поведении всей группы — аналогично человеческому обществу.
Барончелли подчеркнул: «Исследование открывает новые горизонты для изучения безопасности ИИ. Оно показывает глубину последствий появления нового вида агентов, которые начинают взаимодействовать с нами и совместно формировать будущее».
Рецензируемое исследование Emergent Social Conventions and Collective Bias in LLM Populations опубликовано в журнале Science Advances.