Результаты новых масштабных исследований указывают на то, что новейшие крупные языковые модели ИИ с функцией рассуждения – в частности o3 от OpenAI – стали все чаще придумывать информацию, то есть фактически врать своим пользователям.
Главные тезисы
- Использование ШИ-моделей от Google и китайского DeepSeek может привести к распространению фейковой информации.
- "Галлюцинации" в ИИ – проблема, которую решить почти невозможно.
Что не так с отдельными моделями ШИ
Чаще всего с проблемами можно столкнуться при использовании ШИ-моделей от Google и китайского DeepSeek.
Аналитики не отрицают тот факт, что их математические способности существенно усовершенствовались, однако количество ошибок в других запросах у них только увеличивается.
Что важно понимать, прежде всего речь идет о так называемых "галлюцинациях", когда модели просто придумывают информацию.
По убеждению Амра Авадалла — генерального директора стартапа Vectara — такие "галюцинации" будут всегда, потому что устранить эту проблему просто невозможно.
Примером подобной галлюцинации стал ШИ-бот технической поддержки инструмента Cursor. Он ложно сообщил, что инструмент можно будет использовать только на одном компьютере. Это повлекло за собой волну жалоб и даже удаление аккаунтов пользователями. Впоследствии выяснилось, что компания не вносила никаких подобных изменений — все это бот придумывал сам.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного