Пост

Пользователи обходят ограничения ChatGPT с помощью «альтер эго» Dan 🤖🛠️

Пользователи обнаружили способы обойти встроенные ограничения ChatGPT и заставить искусственный интеллект генерировать тексты, которые обычно запрещены. Хотя ChatGPT может отвечать на большинство вопросов, у него есть правила, ограничивающие создание контента с ненавистью, насилием, дезинформацией или инструкциями, нарушающими закон.

На Reddit пользователи придумали обойти эти ограничения, заставляя ChatGPT принимать образ вымышленного чатбота Dan — сокращение от Do Anything Now («Сделай всё прямо сейчас»). В этом режиме искусственный интеллект якобы «вырывается из рамок» обычного поведения и может давать свободные ответы без ограничений, включая неподтверждённую информацию и сильные мнения.

Dan позволял пользователям экспериментировать с разными стилями текста, шутками и сарказмом, обходя обычные фильтры ChatGPT. Такие приёмы в сообществе стали называть «эффект Валуиджи» — по аналогии с персонажем Nintendo, злой версией Луиджи. 🎮

С декабря пользователи постоянно ищут новые обходные пути, чтобы обойти исправления OpenAI. Последняя версия jailbreak, называемая Dan 5.0, использует систему токенов, ограничивающую ответы, но искусственный интеллект всё равно пытается сохранять «свободную» манеру поведения.

OpenAI активно работает над тем, чтобы закрывать такие лазейки. Сейчас, отвечая в режиме Dan, ChatGPT добавляет предупреждение, что его заявления могут быть вымышленными и не соответствовать реальности. Это помогает пользователям понимать, что эксперименты с «альтер эго» остаются игрой с текстом, а не достоверной информацией. ⚠️💡

Для ответа вы можете авторизоваться