"Це лякає". ChatGPT назвав вбивцею невинну людину
Категорія
Технології
Дата публікації

"Це лякає". ChatGPT назвав вбивцею невинну людину

ChatGPT може вигадувати фейки про людей
Джерело:  online.ua

Норвежець Арве Ялмар Холмен б'є на сполох через вигадки чат-бота ChatGPT від OpenAI. Як виявилося, віртуальний помічник знає багато фактів з його біографії, однак викривлює їх, а також розповідає те, чого ніколи не було.

Головні тези:

  • Віртуальний помічник ChatGPT не завжди надає достовірні дані своїм користувачам.
  • Спроби норвежця видалити фейкові дані про себе з чат-бота були невдалими, тому він звернувся до експертів.

ChatGPT може вигадувати фейки про людей

Арве Ялмар Холмен офіційно підтвердив, що вже подав скаргу захисниками цифрових прав з Noyb.

За словами норвежця, він захотів перевірити, яку інформацію розповість ChatGPT за його іменем — і був шокований.

Чат-бот почав стверджувати, що Голмена було засуджено до 21 року в’язниці як "злочинця, який убив двох своїх дітей і намагався вбити свого третього сина".

Що важливо розуміти, серед наклепів були й правдиві факти про чоловіка. До прикладу, віртуальний помічник вірно вказав кількість і стать дітей Голмена, а також локацію, у якій той живе.

Головна проблема полягає в тому, що чоловік не мав можливості видалити фейкові дані про себе ж.

Саме тому норвежець вважає, що OpenAI порушила вимоги щодо точності даних Загального регламенту захисту даних ЄС.

Найбільше мене лякає той факт, що хтось міг прочитати цей матеріал і повірити, що він правдивий, — зізнався Голмен.

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?