Сэм Альтман и OpenAI: почему власть над ИИ вызывает тревогу 🤖⚠️
Сэм Альтман, генеральный директор OpenAI, быстро стал одной из самых влиятельных фигур в мире технологий. Его решения могут влиять на развитие искусственного интеллекта, а значит, и на жизни миллионов людей. Но действительно ли можно полностью доверять компании, возглавляемой им?
В мае 2023 года Альтман и автор статьи присутствовали на слушаниях в подкомитете Сената США по ИИ. На тот момент ChatGPT уже завоевал мир, а сам Альтман, 38-летний выпускник Стэнфорда, стал «лицом AI-бумы». В публичных выступлениях он казался искренним, альтруистичным и заинтересованным в благе человечества. Он призывал к регулированию ИИ и предупреждал о потенциальных рисках технологии.
Однако за пределами камер ситуация была сложнее. Со временем выяснилось, что OpenAI не всегда действует прозрачно. Например, Альтман утверждал, что не имеет акций OpenAI, хотя косвенно он имел долю через Y Combinator. Впоследствии компания заключила сделки с фирмами, где он также имел интересы, что ставило под сомнение заявленную «бескорыстность».
Что касается регулирования ИИ, публично Альтман поддерживал меры безопасности, но за кулисами лоббисты OpenAI работали над ослаблением законов и правил, включая европейский AI Act. Эти действия вызвали критику со стороны журналистов и исследователей ИИ, которые усомнились в честности и прозрачности руководства компании.
Особое внимание вызвали вопросы этики и безопасности ИИ. OpenAI использует данные для обучения своих моделей, включая работы художников и авторов, без их компенсации. Некоторые сотрудники покидали компанию, заявляя, что обещания по безопасности и ответственности не выполняются. Бывшие исследователи отмечали, что компания сосредоточена на хайпе и внешней привлекательности продуктов, а не на надёжности и безопасности.
Экологический аспект также вызывает беспокойство: модели генеративного ИИ потребляют огромные объёмы энергии, что создаёт нагрузку на электросети и увеличивает выбросы. Если компании продолжат расширять свои модели без контроля, последствия могут быть серьёзными.
Альтман остаётся влиятельным: он по-прежнему управляет OpenAI и участвует в советах по безопасности ИИ. Его решения сегодня будут иметь долгосрочные последствия для всего общества. С учётом потенциала ИИ в распространении дезинформации и влиянии на социальные процессы, эксперты призывают к осторожности и усиленному государственному контролю.
Мнение автора статьи: доверие к большим частным компаниям ИИ, сосредоточенным на прибыли и влиянии, крайне ограничено. Для безопасного развития технологий необходимо международное сотрудничество, прозрачность и акцент на интересы всего общества, а не только избранных корпораций.
ИИ обладает огромным потенциалом для медицины, науки и экологии 🌱, но путь к безопасному и полезному искусственному интеллекту требует контроля, прозрачности и коллективной ответственности. Без этого технологии могут стать опасными, несмотря на все обещания их создателей.