Искусственный интеллект становится все более склонным к "галюцинациям"
Категория
Технологии
Дата публикации

Искусственный интеллект становится все более склонным к "галюцинациям"

Что не так с отдельными моделями ШИ
Источник:  The New York Times

Результаты новых масштабных исследований указывают на то, что новейшие крупные языковые модели ИИ с функцией рассуждения – в частности o3 от OpenAI – стали все чаще придумывать информацию, то есть фактически врать своим пользователям.

Главные тезисы

  • Использование ШИ-моделей от Google и китайского DeepSeek может привести к распространению фейковой информации.
  • "Галлюцинации" в ИИ – проблема, которую решить почти невозможно.

Что не так с отдельными моделями ШИ

Чаще всего с проблемами можно столкнуться при использовании ШИ-моделей от Google и китайского DeepSeek.

Аналитики не отрицают тот факт, что их математические способности существенно усовершенствовались, однако количество ошибок в других запросах у них только увеличивается.

Что важно понимать, прежде всего речь идет о так называемых "галлюцинациях", когда модели просто придумывают информацию.

По убеждению Амра Авадалла — генерального директора стартапа Vectara — такие "галюцинации" будут всегда, потому что устранить эту проблему просто невозможно.

Примером подобной галлюцинации стал ШИ-бот технической поддержки инструмента Cursor. Он ложно сообщил, что инструмент можно будет использовать только на одном компьютере. Это повлекло за собой волну жалоб и даже удаление аккаунтов пользователями. Впоследствии выяснилось, что компания не вносила никаких подобных изменений — все это бот придумывал сам.

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?