Искусственный интеллект ChatGPT снова оказался в центре внимания после того, как пользователи заметили странное поведение языковой модели. Компания OpenAI уже выступила с официальным заявлением на этот счет.
Главные тезисы
- ChatGPT начал упоминать "гоблинов" на 175% чаще, чем раньше, а "гремлинов" – на 52%.
- Команда OpenAI признала свою вину в происходящем.
Что снова не так с ChatGPT?
Много вопросов у пользователей возникает во время работы с языковыми моделями серии GPT-5.
Главная проблема заключается в том, что в беседах они все чаще стали использовать метафоры с "гоблинами", "гремлинами" и другими вымышленными существами.
На этом фоне пользователи начали жаловаться на чрезмерную "фамильярность" ответов.
Команда OpenAI наконец решила объяснить, что на самом деле произошло.
По словам представителей компании, главной причиной такого поведения бота стал алгоритм обучения моделей под специфические типы личности, которые пользователи затем могли выбирать для общения с ChatGPT.
Особенно ярко проблема проявилась у бота с типом личности Nerdy (сленговой "ботаник"). Хотя на личность Nerdy приходилось только 2,5% ответов ChatGPT, именно эта версия оказалась ответственной за 66,7% всех упоминаний гоблинов.
Как отмечают разработчики, когда тренировали версию Nerdy под специфическую "ботанскую" манеру общения, ей безотчетно прописали особо высокую приоритетность использования "метафор с существами".
Оттуда и пошли гоблины, — официально признала компания OpenAI.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Наука и медицина
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного