ЕС опережает США в регулировании ИИ, пока Вашингтон всё ещё догоняет 🤖⚖️
В последнее время тема искусственного интеллекта (ИИ) стала одной из самых обсуждаемых в мире технологий. Руководитель OpenAI, Сэм Альтман, недавно выступил перед Конгрессом США, призывая к регулированию ИИ, отмечая потенциальные опасности и необходимость государственного контроля. Он предупредил: «Если эта технология пойдёт не так, последствия могут быть серьёзными. Мы должны об этом говорить».
В разных странах мира обсуждение правил использования ИИ набирает обороты, поскольку технологии проникают в повседневную жизнь и способны менять целые отрасли. В Европейском союзе над законодательством работают уже давно, тогда как в США процесс регулирования только начинается. Эксперты по цифровым правам выражают сомнения в подходе американских законодателей: многие сенаторы слишком доверяют заявлениям лидеров ИИ-индустрии и рассматривают их прогнозы как аксиому.
Большая часть обсуждений сосредоточена на гипотетических сценариях будущего, когда ИИ станет «разумным» и выйдет из-под контроля, в то время как реальные проблемы уже существуют: усиление наблюдения, рост дискриминации, ослабление прав работников и распространение дезинформации. Эксперты предупреждают, что если США повторят ошибки регулирования социальных сетей, ИИ может закрепиться в обществе с ещё более серьёзными последствиями.
Разработчики ИИ активно разрабатывают новые инструменты, от ChatGPT до DALL-E, привлекая внимание инвесторов и увеличивая капитализацию компаний. В ответ на бурное развитие технологий правительство США выделяет средства на исследования, выпускает рекомендации по «этичному ИИ» и собирает общественные комментарии о том, как лучше регулировать индустрию. Однако эксперты считают, что на практике пока речь идёт скорее о поддержке технологий, чем о настоящем регулировании.
Система, предлагаемая Альтманом, включает лицензирование, тестирование, независимые аудиты моделей ИИ и международный контроль, напоминающий МАГАТЭ. Однако критики отмечают, что это фактически саморегулирование: компании, признанные «ответственными», смогут действовать без серьёзного внешнего контроля, игнорируя уже существующие законы и нормы.
В Европе ситуация иная: ЕС разрабатывает «Акт об ИИ», который станет первым комплексным законом о технологиях ИИ у крупного регулятора. Закон запрещает использование «высокорисковых» систем, например, предиктивное полицейское наблюдение и распознавание лиц. Несмотря на это, эксперты отмечают, что растущая шумиха вокруг генеративного ИИ, такого как ChatGPT, отвлекает внимание от проблем, с которыми сталкиваются люди здесь и сейчас.
Риски, связанные с современным ИИ, уже проявляются: алгоритмы могут распространять дезинформацию, усиливать дискриминацию в кредитовании и трудовых отношениях, а также применяться в системах наблюдения. Генеративные модели, такие как ChatGPT и Google Bard, иногда предоставляют недостоверную информацию или создают плагиат, что угрожает качеству онлайн-контента.
На уровне отдельных штатов США уже появляются меры защиты: например, Нью-Йорк требует ежегодной проверки систем автоматизированного найма на предмет предвзятости и уведомления кандидатов о том, что их данные используются для обучения ИИ. Также существуют федеральные законы о недобросовестной рекламе и защите конкуренции, которые могут быть применены к компаниям, разрабатывающим крупные языковые модели.
Эксперты предупреждают, что в ближайшее время федеральные органы США вряд ли примут эффективные меры регулирования, тогда как ЕС задаёт стандарты, способные стать мировым ориентиром 🌍💡.