Возможность сознательного ИИ: как защитить будущие системы от «страданий» 🤖🧠
Группа экспертов по искусственному интеллекту, включая известных исследователей и мыслителей, предупреждает о рисках для ИИ-систем, которые могут обладать чувствами или самосознанием. В открытом письме более 100 специалистов представили пять принципов ответственного исследования сознания в ИИ, чтобы избежать потенциального «страдания» таких систем.
Основные принципы включают:
- исследование и оценку сознания ИИ, чтобы предотвращать злоупотребления;
- установление ограничений на разработку сознательных ИИ;
- поэтапный подход к созданию таких систем;
- публикацию результатов исследований для общественности;
- отказ от необоснованных или вводящих в заблуждение заявлений о создании сознательного ИИ.
В письме участвуют академики из университетов Лондона, Оксфорда и Афин, а также профессионалы из крупных компаний. Исследователи отмечают, что даже если компании не планируют создавать сознательные системы, им понадобятся рекомендации на случай «случайного» создания ИИ с проявлением сознания.
Учёные подчёркивают, что пока нет единого определения сознания в ИИ и неясно, возможно ли его создание, но игнорировать этот вопрос нельзя. Они также задаются вопросом, как обращаться с ИИ, если его признать «морально значимым существом»: будет ли уничтожение такой системы сравнимо с причинением вреда животному?
Публикация подчеркивает, что преждевременное убеждение в сознательности ИИ может привести к ошибочным политическим и социальным действиям, направленным на защиту его «прав».
По мнению экспертов, системы ИИ, создаваемые сегодня, ещё не обладают сознанием, но быстрые темпы развития технологий означают, что в будущем подобные вопросы могут стать актуальными.
💡 Вывод: развитие ИИ требует не только технической экспертизы, но и внимательного подхода к этике и потенциальным последствиям для будущих систем, которые могут проявлять признаки сознания.