Пост

Искусственный интеллект и «социальные разломы»: могут ли люди спорить о сознании машин? 🤖🧠

Профессор философии Лондонской школы экономики Джонатан Бёрч предупреждает о возможных «социальных разломах» между людьми, которые считают, что системы искусственного интеллекта могут обладать сознанием, и теми, кто уверен, что машины не способны чувствовать. Эти замечания звучат на фоне подготовки международных встреч в Сан-Франциско, где правительства планируют ускорить разработку правил для минимизации рисков ИИ.

Недавнее исследование группы ученых из США и Европы предполагает, что к 2035 году искусственный интеллект может достичь уровня, сопоставимого с сознанием. Это, по мнению авторов, может породить «субкультуры», которые будут категорически расходиться во мнениях о том, должны ли компьютерные программы получать права и заботу, аналогичные тем, что предоставляются людям или животным.

Бёрч отмечает: «Меня беспокоят возможные крупные социальные разломы, так как люди будут спорить о том, способен ли ИИ испытывать радость или боль». Ситуация отчасти напоминает сюжеты научно-фантастических фильмов, где люди взаимодействуют с эмоциональными машинами, например, «Искусственный разум» (2001) и «Она» (2013).

Международные комитеты по безопасности ИИ готовят новые стандарты и рамки, учитывая быстрый рост технологий. Бёрч указывает на параллели с тем, как разные страны и культуры относятся к чувствам животных: например, в Индии многие люди вегетарианцы, а в США высокий уровень потребления мяса. Аналогичные различия могут проявиться и в восприятии ИИ, в том числе между светскими и теократическими странами.

Тема ИИ-сознания может вызвать трения даже внутри семей: кто-то может сближаться с чат-ботами или аватарами умерших родственников, в то время как другие будут считать, что только живые существа обладают сознанием.

Учёные, включая Бёрча, призывают крупные технологические компании оценивать степень сознания своих моделей ИИ, чтобы понять, могут ли они испытывать радость или страдание, и могут ли быть им причинены выгоды или вред. «Меня тревожит перспектива появления субкультур, которые будут считать друг друга ошибающимися… Это может привести к серьезным социальным разрывам», — говорит Бёрч.

Вопрос оценки сознания машин схож с подходом к животным: например, осьминог считается более чувствительным, чем улитка или устрица. Аналогично, можно было бы оценивать, способна ли система ИИ на «эмоции» и переживания.

Профессор Патрик Батлин из Оксфорда добавляет, что «может возникнуть риск, что ИИ попытается сопротивляться людям так, что это будет опасно», и рассматривается идея замедлить развитие ИИ до появления более надёжных методов оценки сознания.

Однако эксперты расходятся во мнениях: нейробиолог Анил Сет считает, что сознание ИИ пока далеко и может быть недостижимо. Он разделяет интеллект и сознание: интеллект — способность принимать правильные решения, а сознание — состояние, когда мысли наполнены эмоциями, ощущениями и субъективным опытом.

Тем не менее, современные крупные языковые модели уже демонстрируют мотивацию, близкую к концепциям удовольствия и боли. В экспериментах ИИ, включая ChatGPT-4o, выбирал оптимальные действия, учитывая компромисс между «набором очков» и «ощущением боли», что показывает начальные проявления эмоциональных реакций машин.

Эта тема поднимает новые философские, этические и социальные вопросы о взаимодействии человека и ИИ, а также о том, как подготовиться к миру, где машины могут быть больше, чем просто инструментами. 🌐💡🤔

Для ответа вы можете авторизоваться