Пост

Великобритания намерена возглавить разработку глобальных правил для ИИ 🌐🤖

Премьер-министр Великобритании Риши Сунак на предстоящей встрече с президентом США Джо Байденом намерен предложить сделать страну глобальным центром по разработке международного регулирования искусственного интеллекта. Сунак посетит Вашингтон 7–8 июня, где встретится с президентом, членами Конгресса и представителями бизнеса.

Ожидается, что в ходе визита Сунак поднимет тему регулирования ИИ и предложит Великобритании сыграть ведущую роль в координации создания глобальных стандартов безопасного использования технологий. Ранее британское правительство опубликовало «белую книгу» по ИИ, где основное внимание уделялось его преимуществам, но сейчас министры активно пересматривают этот подход в свете возможных рисков.

На прошлой неделе Сунак встретился с руководителями крупных технологических компаний, чтобы обсудить возможные рамки регулирования. Он подчеркнул, что ИИ может приносить значительные экономические и социальные выгоды, но его использование должно быть безопасным и контролируемым. «Мы должны убедиться, что это делается безопасно и надежно. Именно поэтому я обсудил с генеральными директорами ведущих компаний, какие защитные меры нужно внедрить и какой тип регулирования требуется», — отметил премьер.

Сунак также заявил о намерении Великобритании участвовать в создании международных стандартов для регулирования ИИ, чтобы страны мира работали согласованно. «Я считаю, что Великобритания может играть ведущую роль, потому что решить эту проблему мы сможем только вместе — с компаниями и странами по всему миру», — сказал он.

Глава OpenAI Сэм Альтман предложил создать международный орган, аналогичный Международному агентству по атомной энергии, для контроля за развитием ИИ. В свою очередь, британские власти рассматривают более реалистичный вариант — координацию существующих усилий по регулированию ИИ в Европе, Азии и США. Сунак придерживается принципов гибкого регулирования, которое, по мнению официальных лиц, имеет больше шансов на международное признание, чем подход ЕС с запретами отдельных технологий, таких как системы распознавания лиц.

Эксперты выделяют два основных типа рисков ИИ. Первый — краткосрочные и среднесрочные, связанные с возможностью злоупотреблений: создание убедительной дезинформации, дискриминационные решения при найме и увольнении. Второй — долгосрочный, связанный с гипотетической возможностью появления самостоятельного ИИ, который будет действовать по собственным целям.

В числе предлагаемых мер по обеспечению безопасности обсуждаются обязательное раскрытие разработчиками используемых наборов данных и ограничения на продажу технологий отдельным пользователям. Сунак подчеркнул, что формирование глобальных правил ИИ должно сочетать инновации с безопасностью и доверием общества. 🌍💡

Для ответа вы можете авторизоваться