Британские регуляторы предупредили разработчиков чат-ботов о защите данных 🛡️🤖
Британский орган по защите данных выступил с предупреждением для технологических компаний, занимающихся разработкой чат-ботов, о необходимости соблюдать законы о персональных данных. Это связано с тем, что многие современные чат-боты обучаются на огромных объёмах информации, собранной из интернета без фильтрации. 🌐
Интервенция со стороны Управления комиссара по информации (ICO) последовала после временного запрета на использование ChatGPT в Италии из-за опасений по поводу защиты данных пользователей. ICO подчеркнул, что компании, разрабатывающие и использующие генеративный ИИ, должны уважать приватность людей при создании таких систем.
ChatGPT, один из самых известных примеров генеративного ИИ, основан на модели большого языка (LLM), которая обучается на массивных наборах данных, полученных из открытых источников в интернете. Как отметил Стивен Алмонд, директор ICO по технологиям и инновациям: «Нет оправдания игнорированию вопросов приватности при создании генеративного ИИ. Мы будем работать над тем, чтобы компании делали это правильно».
В своём блоге Алмонд упомянул недавнее решение Италии и письмо, подписанное рядом учёных, включая Илона Маска и сооснователя Apple Стива Возняка, призывающее к приостановке «гигантских экспериментов с ИИ» как минимум на шесть месяцев. В письме выражалась обеспокоенность тем, что создаются «всё более мощные цифровые разумы», которые никто не может «понять, предсказать или надёжно контролировать».
Алмонд также отметил, что во время его общения с ChatGPT бот сам указал, что генеративный ИИ «может представлять риски для приватности данных, если использовать его безответственно».
ICO напомнил, что закон о защите данных действует даже для информации из общедоступных источников. В опубликованном контрольном списке отмечается, что для обработки персональных данных по британскому GDPR необходимо иметь законное основание, например, «ясное согласие» пользователя. Также возможны альтернативы без согласия, такие как «законный интерес». Компании обязаны проводить оценку воздействия на защиту данных и снижать риски, например, утечки личной информации или попыток определить, использовались ли конкретные данные человека при обучении модели.
В Италии временно запретили ChatGPT после утечки данных и опасений по поводу использования персональной информации для обучения алгоритмов. ICO Италии заявил, что «нет юридического основания для масштабного сбора и обработки персональных данных, на которых обучалась платформа».
В ответ генеральный директор OpenAI Сэм Альтман отметил, что компания считает, что соблюдает все законы о приватности, однако отказалась раскрывать подробности о том, какие данные использовались для обучения GPT-4. Предыдущая версия модели, GPT-3, обучалась на 300 миллиардах слов из открытого интернета, а также на миллионах электронных книг и английской Википедии. 📚
Таким образом, британские регуляторы акцентируют внимание на том, что развитие ИИ должно идти в соответствии с законами о защите данных, чтобы пользователи могли доверять новым технологиям.