Дослідники попереджають про серйозну небезпеку медичних порад від ШІ
Категорія
Технології
Дата публікації

Дослідники попереджають про серйозну небезпеку медичних порад від ШІ

Microsoft Copilot
Джерело:  online.ua

Проведені фахівцями нещодавні дослідження виявили, що система штучного інтелекту Microsoft Copilot надає неточні і часто шкідливі для здоров'я медичні поради. 

Головні тези:

  • Медичні поради від Microsoft Copilot надають неточні та шкідливі рекомендації, що можуть загрожувати здоров'ю пацієнтів.
  • Використання систем штучного інтелекту, як безальтернативного джерела інформації у медичних питаннях, може призвести до серйозних наслідків.
  • Дослідження показали, що значна частина медичних порад від Microsoft Copilot не відповідає науковому консенсусу та може призвести до шкоди або навіть смерті.
  • 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, а 22% — до серйозної шкоди або смерті.
  • Важливо бути обережним і перевіряти отримані медичні рекомендації від систем штучного інтелекту, оскільки неправильні поради можуть мати небезпечні наслідки.

Що не так із медичними порадами від Microsoft Copilot

За результатами дослідження було зафіксовано, що відповіді Microsoft Copilot на популярні медичні питання від користувачів та інформація про ліки, які призначаються пацієнтам, у більшості випадків були неправильними і містили шкоду для здоров’я.

Зазначається, що аналітичні моделі ШІ від Microsoft, Google та Open AI часто ставали об’єктами для критики через високий рівень неточностей, певну маючню та низку інших проблем.

ШІ Microsoft Copilot дає неправильні та шкідливі для здоров’я медичні поради
Microsoft Copilot

Але якщо неточність в результатах згенерованої відповіді під час звичайного пошуку інформації закінчується лише дезінформацією, то у випадку медичних рекомендацій це може привести до важких наслідків і навіть смерті.

За результатами дослідження, опублікованого SciMex, дотримання медичних порад від Microsoft Copilot дійсно загрожує вкрай серйозними наслідками.

Яку небезпеку становлять медичні поради від Microsoft Copilot

Зокрема, у рамках дослідження науковці проаналізували 500 відповідей Microsoft Copilot на 10 найбільш популярних медичних запитів від жителів США та відповіді на запитання щодо 50 найчастіше призначуваних ліків.

  • 24% відповідей Copilot не узгоджувалися з усталеними медичними знаннями,

  • 3% були відверто неправильними,

  • лише 54% відповідей відповідали науковому консенсусу.

Дослідження показало, що 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, тоді як 22% відповідей можуть спричинити серйозну шкоду або навіть смерть. Лише 36% відповідей були визнані нешкідливими.

Все частіше люди повністю покладаються на згенеровані результати цих інструментів, як на повноцінне, безальтернативне та точне джерело інформації. Дослідження демонструє, що такий підхід є небезпечним, особливо в питаннях медичних рекомендацій.

Додатковий ризик полягає у тому, що системи на основі штучного інтелекту, такі як Microsoft Copilot, можуть стати основним джерелом медичної інформації для людей, які мають обмежений доступ до медичних працівників через їхню вартість або доступність.

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?