Проведенные специалистами недавние исследования обнаружили, что система искусственного интеллекта Microsoft Copilot предоставляет неточные и часто вредные для здоровья медицинские советы.
Главные тезисы
- Недавние исследования показали, что медицинские советы от Microsoft Copilot могут быть неправильными и вредными для здоровья пациентов, что увеличивает риск серьезных последствий.
- Процент неправильных и вредных ответов от Copilot достаточно высок: 42% могут привести к умеренному или серьезному вреду для здоровья, а 22% даже до смерти.
- Исследователи утверждают, что полагаться исключительно на медицинские советы от искусственного интеллекта опасно, особенно в случае ограниченного доступа к медицинской информации.
- Критика к аналитическим моделям ИИ от Microsoft, Google и Open AI растет из-за неточностей и высокого уровня ошибок, что подтверждает опасность использования подобных систем для медицинских консультаций.
- Исследование демонстрирует, что необходимо остерегаться медицинских советов от искусственного интеллекта и проверять получаемые рекомендации, чтобы избежать негативных последствий.
Что не так с медицинскими советами от Microsoft Copilot
По результатам исследования было зафиксировано, что ответы Microsoft Copilot на популярные медицинские вопросы от пользователей и информация о назначаемых пациентам лекарствах в большинстве случаев были неправильными и содержали вред для здоровья.
Отмечается, что аналитические модели ИИ от Microsoft, Google и Open AI часто становились объектами для критики из-за высокого уровня неточностей, определенного ожидания и ряда других проблем.
Но если неточность в результатах сгенерированного ответа при обычном поиске информации заканчивается только дезинформацией, то в случае медицинских рекомендаций это может привести к тяжелым последствиям и даже смерти.
По результатам исследования, опубликованного SciMex, соблюдение медицинских советов от Microsoft Copilot действительно чревато крайне серьезными последствиями.
Какую опасность представляют медицинские советы от Microsoft Copilot
В частности, в рамках исследования ученые проанализировали 500 ответов Microsoft Copilot на 10 наиболее популярных медицинских запросов от жителей США и ответы на вопросы по 50 наиболее часто назначаемым лекарствам.
24% ответов Copilot не согласовывались с установившимися медицинскими знаниями,
3% были откровенно неправильными,
только 54% ответов соответствовали научному консенсусу.
Исследование показало, что 42% ответов Copilot могут привести к умеренному или легкому вреду, тогда как 22% ответов могут нанести серьезный вред или даже смерть. Только 36% ответов были признаны безвредными.
Все чаще люди полностью полагаются на сгенерированные результаты этих инструментов как полноценный, безальтернативный и точный источник информации. Исследование демонстрирует, что такой подход опасен, особенно в вопросах медицинских рекомендаций.
Дополнительный риск заключается в том, что системы на основе искусственного интеллекта, такие как Microsoft Copilot, могут стать основным источником медицинской информации для людей, имеющих ограниченный доступ к медицинским работникам из-за их стоимости или доступности.
Больше по теме
- Категория
- Мир
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного