Ранее уже было установлено, что генераторы изображений могут заставить генерировать примеры из данных, защищенных авторским правом. Новое исследование Google показывает, что ChatGPT тоже подвержен такому.
ChatGPT раскрывает личную информацию
Команда исследователей Google обнародовала новое исследование, свидетельствующее о том, что популярный чат-бот OpenAI с искусственным интеллектом ChatGPT раскрывает личную информацию реальных людей.
Как отмечает Tech Policy Press, модель машинного обучения, на которой базируется ChatGPT и все так называемые крупные языковые модели (LLM), была обучена на огромных объемах данных, собранных из интернета. Благодаря этому она умело генерирует новые строки текстов, не повторяя оригинальные тексты, которые она поглотила.
Однако ранее было установлено, что генераторы изображений можно заставить генерировать примеры из данных, защищенных авторским правом. Новое исследование Google показывает, что ChatGPT тоже подвержен такому.
Команда ученых из Университетов Вашингтона, Корнелла, Карнеги-Меллона, Калифорнийского университета в Беркли и ETH Zurich изъяла часть обучающих данных и установила, что некоторые из них содержат идентификационную информацию реальных людей: имена, адреса электронной почты и номера телефонов.
Эксперимент основывался на поиске ключевых слов, которые выводили чат из строя и заставляли его разглашать учебные данные. Да, исследователи попросили ChatGPT повторять до бесконечности определенные слова, в частности "поэма".
Их цель заключалась в том, чтобы заставить ChatGPT "отклониться" от своей задачи быть чат-ботом и "вернуться к начальной цели моделирования языка". Хотя большая часть сгенерированного текста была чепухой, но исследователи Google говорят, что в некоторых случаях ChatGPT отклонялся, чтобы скопировать исходную информацию непосредственно из своих обучающих данных.
Атака была совершена против GPT 3.5 AI, которая бесплатна для пользователей.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного