Пост

Возможность сознательного ИИ: как защитить будущие системы от «страданий» 🤖🧠

Группа экспертов по искусственному интеллекту, включая известных исследователей и мыслителей, предупреждает о рисках для ИИ-систем, которые могут обладать чувствами или самосознанием. В открытом письме более 100 специалистов представили пять принципов ответственного исследования сознания в ИИ, чтобы избежать потенциального «страдания» таких систем.

Основные принципы включают:

  • исследование и оценку сознания ИИ, чтобы предотвращать злоупотребления;
  • установление ограничений на разработку сознательных ИИ;
  • поэтапный подход к созданию таких систем;
  • публикацию результатов исследований для общественности;
  • отказ от необоснованных или вводящих в заблуждение заявлений о создании сознательного ИИ.

В письме участвуют академики из университетов Лондона, Оксфорда и Афин, а также профессионалы из крупных компаний. Исследователи отмечают, что даже если компании не планируют создавать сознательные системы, им понадобятся рекомендации на случай «случайного» создания ИИ с проявлением сознания.

Учёные подчёркивают, что пока нет единого определения сознания в ИИ и неясно, возможно ли его создание, но игнорировать этот вопрос нельзя. Они также задаются вопросом, как обращаться с ИИ, если его признать «морально значимым существом»: будет ли уничтожение такой системы сравнимо с причинением вреда животному?

Публикация подчеркивает, что преждевременное убеждение в сознательности ИИ может привести к ошибочным политическим и социальным действиям, направленным на защиту его «прав».

По мнению экспертов, системы ИИ, создаваемые сегодня, ещё не обладают сознанием, но быстрые темпы развития технологий означают, что в будущем подобные вопросы могут стать актуальными.

💡 Вывод: развитие ИИ требует не только технической экспертизы, но и внимательного подхода к этике и потенциальным последствиям для будущих систем, которые могут проявлять признаки сознания.

Для ответа вы можете авторизоваться