Результати нових масштабних досліджень вказують на те, що новітні великі мовні моделі ШІ з функцією міркування — зокрема o3 від OpenAI — почали дедалі частіше вигадувати інформацію, тобто фактично брехати своїм користувачам.
Головні тези:
- Використання ШІ-моделей від Google та китайського DeepSeek може призвести до поширення фейкової інформації.
- “Галюцинації” у ШІ - проблема, яку вирішити майже неможливо.
Що не так з окремими моделями ШІ
Найчастіше з проблемами можна зіткнутися під час використання ШІ-моделей від Google та китайського DeepSeek.
Аналітики не заперечують той факт, що їх математичні здібності суттєво вдосконалилися, однак кількість помилок в інших запитах у них тільки більшає.
Що важливо розуміти, насамперед йдеться про так звані "галюцинації", коли моделі просто вигадують інформацію.
На переконання Амра Авадалла — генерального директора стартапу Vectara — такі “галюцинації” будуть завжди, тому що усунути цю проблему просто неможливо.
Прикладом подібної галюцинації став ШІ-бот технічної підтримки інструмента Cursor. Він неправдиво повідомив, що інструмент можна буде використовувати лише на одному комп’ютері. Це спричинило хвилю скарг і навіть видалення акаунтів користувачами. Згодом з’ясувалося, що компанія не вносила жодних таких змін — усе це бот вигадував сам.
Більше по темі
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного