Штучний інтелект стає все більш схильним до "галюцинацій"
Категорія
Технології
Дата публікації

Штучний інтелект стає все більш схильним до "галюцинацій"

Що не так з окремими моделями ШІ
Джерело:  The New York Times

Результати нових масштабних досліджень вказують на те, що новітні великі мовні моделі ШІ з функцією міркування — зокрема o3 від OpenAI — почали дедалі частіше вигадувати інформацію, тобто фактично брехати своїм користувачам.

Головні тези:

  • Використання ШІ-моделей від Google та китайського DeepSeek може призвести до поширення фейкової інформації.
  • “Галюцинації” у ШІ - проблема, яку вирішити майже неможливо.

Що не так з окремими моделями ШІ

Найчастіше з проблемами можна зіткнутися під час використання ШІ-моделей від Google та китайського DeepSeek.

Аналітики не заперечують той факт, що їх математичні здібності суттєво вдосконалилися, однак кількість помилок в інших запитах у них тільки більшає.

Що важливо розуміти, насамперед йдеться про так звані "галюцинації", коли моделі просто вигадують інформацію.

На переконання Амра Авадалла — генерального директора стартапу Vectara — такі “галюцинації” будуть завжди, тому що усунути цю проблему просто неможливо.

Прикладом подібної галюцинації став ШІ-бот технічної підтримки інструмента Cursor. Він неправдиво повідомив, що інструмент можна буде використовувати лише на одному комп’ютері. Це спричинило хвилю скарг і навіть видалення акаунтів користувачами. Згодом з’ясувалося, що компанія не вносила жодних таких змін — усе це бот вигадував сам.

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?