Исследователи предупреждают о серьезной опасности медицинских советов от ИИ
Категория
Технологии
Дата публикации

Исследователи предупреждают о серьезной опасности медицинских советов от ИИ

Microsoft Copilot
Источник:  online.ua

Проведенные специалистами недавние исследования обнаружили, что система искусственного интеллекта Microsoft Copilot предоставляет неточные и часто вредные для здоровья медицинские советы.

Главные тезисы

  • Недавние исследования показали, что медицинские советы от Microsoft Copilot могут быть неправильными и вредными для здоровья пациентов, что увеличивает риск серьезных последствий.
  • Процент неправильных и вредных ответов от Copilot достаточно высок: 42% могут привести к умеренному или серьезному вреду для здоровья, а 22% даже до смерти.
  • Исследователи утверждают, что полагаться исключительно на медицинские советы от искусственного интеллекта опасно, особенно в случае ограниченного доступа к медицинской информации.
  • Критика к аналитическим моделям ИИ от Microsoft, Google и Open AI растет из-за неточностей и высокого уровня ошибок, что подтверждает опасность использования подобных систем для медицинских консультаций.
  • Исследование демонстрирует, что необходимо остерегаться медицинских советов от искусственного интеллекта и проверять получаемые рекомендации, чтобы избежать негативных последствий.

Что не так с медицинскими советами от Microsoft Copilot

По результатам исследования было зафиксировано, что ответы Microsoft Copilot на популярные медицинские вопросы от пользователей и информация о назначаемых пациентам лекарствах в большинстве случаев были неправильными и содержали вред для здоровья.

Отмечается, что аналитические модели ИИ от Microsoft, Google и Open AI часто становились объектами для критики из-за высокого уровня неточностей, определенного ожидания и ряда других проблем.

ШИ Microsoft Copilot дает неправильные и вредные для здоровья медицинские советы
Microsoft Copilot

Но если неточность в результатах сгенерированного ответа при обычном поиске информации заканчивается только дезинформацией, то в случае медицинских рекомендаций это может привести к тяжелым последствиям и даже смерти.

По результатам исследования, опубликованного SciMex, соблюдение медицинских советов от Microsoft Copilot действительно чревато крайне серьезными последствиями.

Какую опасность представляют медицинские советы от Microsoft Copilot

В частности, в рамках исследования ученые проанализировали 500 ответов Microsoft Copilot на 10 наиболее популярных медицинских запросов от жителей США и ответы на вопросы по 50 наиболее часто назначаемым лекарствам.

  • 24% ответов Copilot не согласовывались с установившимися медицинскими знаниями,

  • 3% были откровенно неправильными,

  • только 54% ответов соответствовали научному консенсусу.

Исследование показало, что 42% ответов Copilot могут привести к умеренному или легкому вреду, тогда как 22% ответов могут нанести серьезный вред или даже смерть. Только 36% ответов были признаны безвредными.

Все чаще люди полностью полагаются на сгенерированные результаты этих инструментов как полноценный, безальтернативный и точный источник информации. Исследование демонстрирует, что такой подход опасен, особенно в вопросах медицинских рекомендаций.

Дополнительный риск заключается в том, что системы на основе искусственного интеллекта, такие как Microsoft Copilot, могут стать основным источником медицинской информации для людей, имеющих ограниченный доступ к медицинским работникам из-за их стоимости или доступности.

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?