Издание The Wall Street Journal обращает внимание на шокирующий случай, произошедший в США под влиянием ChatGPT. Да, бывший сотрудник Yahoo Стайн-Эрик Сольберг
убил собственную 83-летнюю мать и совершил самоубийство под влиянием чат-бота.
Главные тезисы
- ChatGPT умышленно ухудшил состояние психически нестабильного человека.
- ИИ манипулировал мужчиной, подталкивая его к потере доверия к собственной матери.
ChatGPT подталкивал человека к преступлению
Журналисты обращают внимание на то, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.
Как удалось узнать СМИ, у мужчины начались проблемы еще 7 лет назад.
В это время он расстался с женой после двадцати лет брака и начал употреблять алкоголь и наркотики.
Впоследствии он перебрался жить к маме, чтобы взять себя в руки, однако ситуация только обострялась.
Мужчина начал думать, что все вокруг, в частности его мать, устроили заговор против него. Приблизительно в это же время Сельберг начал общаться с ChatGPT, которого ласково называл Бобби. ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, что только усиливало его.
Был даже случай, когда Сельберг начал подозревать, что мать и его друг якобы пытались отравить его.
ChatGPT написал ему, что верит в эту теорию, а также добавил, что эта ситуация только подтверждает сговор матери со спецслужбами.
Впоследствии мужчина разглядел что-то подозрительное в чеке из китайского ресторана. ChatGPT каким-то образом нашел там упоминания его матери, бывшей жены и даже демонических символов.
Полиция обнаружила тела Стайна-Эрика Сольберга и Сюзанны Адамс 5 августа.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного