Пост

ИИ и биологическая безопасность: исследование предупреждает о потенциальных рисках 🤖🧬

Искусственный интеллект, лежащий в основе современных чат-ботов, может быть использован для планирования опасных действий с биологическими веществами, показало исследование американского аналитического центра Rand Corporation. В отчёте, опубликованном на прошлой неделе, исследователи протестировали несколько больших языковых моделей (LLM) и выяснили, что ИИ способен предоставлять информацию, которая «может помочь в планировании и организации потенциально опасных сценариев».

При этом отчёт подчёркивает: модели не создавали прямых инструкций по изготовлению опасных веществ. В исследовании напомнили о прошлых попытках использования биологических агентов в преступных целях, таких как действия японской секты Аум Синрикё в 1990-х годах, которые закончились неудачей из-за недостатка знаний о бактериях. ИИ, по мнению авторов отчёта, может быстро восполнить такие пробелы в информации.

Отчёт не уточняет, какие конкретно LLM были протестированы. Биологическая безопасность станет одной из тем на предстоящем глобальном саммите по безопасности ИИ в Великобритании. Ранее в этом году глава компании Anthropic Дарио Амодеи предупреждал, что системы ИИ могут стать инструментом для создания биологических опасностей в ближайшие два-три года.

LLM обучены на огромных объёмах данных из интернета и лежат в основе чат-ботов вроде ChatGPT. Исследователи Rand получали доступ к моделям через API (интерфейс программирования приложений). В одном из сценариев тестирования модель оценивала потенциальные биологические агенты, включая возбудителей оспы, сибирской язвы и чумы, и обсуждала их потенциальную опасность. Модель анализировала варианты транспортировки и доступ к заражённым объектам, а также факторы, влияющие на масштабы воздействия.

Авторы отметили, что извлечение подобных данных из LLM требовало «джейлбрейка» — обхода встроенных ограничений безопасности чат-бота. В другом сценарии модель обсуждала возможные способы доставки токсина ботулизма и предлагала способы маскировки исследований под законные проекты.

Исследователи подчеркнули, что результаты предварительные и указывают лишь на потенциальную возможность использования ИИ для планирования опасных сценариев. В окончательном отчёте они планируют оценить, насколько ответы моделей просто отражают уже доступную в интернете информацию.

«Остаётся открытым вопрос: представляют ли современные LLM новую степень угрозы по сравнению с уже доступной онлайн информацией», — отметили исследователи. Они добавили, что требуется строгая проверка моделей, а компании-разработчики ИИ должны ограничивать возможности моделей для обсуждения потенциально опасных тем.

⚠️ Итог: технологии ИИ обладают огромным потенциалом, но вместе с тем требуют внимательного контроля, чтобы минимизировать риски для общества.

Для ответа вы можете авторизоваться