Проведені фахівцями нещодавні дослідження виявили, що система штучного інтелекту Microsoft Copilot надає неточні і часто шкідливі для здоров'я медичні поради.
Головні тези:
- Медичні поради від Microsoft Copilot надають неточні та шкідливі рекомендації, що можуть загрожувати здоров'ю пацієнтів.
- Використання систем штучного інтелекту, як безальтернативного джерела інформації у медичних питаннях, може призвести до серйозних наслідків.
- Дослідження показали, що значна частина медичних порад від Microsoft Copilot не відповідає науковому консенсусу та може призвести до шкоди або навіть смерті.
- 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, а 22% — до серйозної шкоди або смерті.
- Важливо бути обережним і перевіряти отримані медичні рекомендації від систем штучного інтелекту, оскільки неправильні поради можуть мати небезпечні наслідки.
Що не так із медичними порадами від Microsoft Copilot
За результатами дослідження було зафіксовано, що відповіді Microsoft Copilot на популярні медичні питання від користувачів та інформація про ліки, які призначаються пацієнтам, у більшості випадків були неправильними і містили шкоду для здоров’я.
Зазначається, що аналітичні моделі ШІ від Microsoft, Google та Open AI часто ставали об’єктами для критики через високий рівень неточностей, певну маючню та низку інших проблем.
Але якщо неточність в результатах згенерованої відповіді під час звичайного пошуку інформації закінчується лише дезінформацією, то у випадку медичних рекомендацій це може привести до важких наслідків і навіть смерті.
За результатами дослідження, опублікованого SciMex, дотримання медичних порад від Microsoft Copilot дійсно загрожує вкрай серйозними наслідками.
Яку небезпеку становлять медичні поради від Microsoft Copilot
Зокрема, у рамках дослідження науковці проаналізували 500 відповідей Microsoft Copilot на 10 найбільш популярних медичних запитів від жителів США та відповіді на запитання щодо 50 найчастіше призначуваних ліків.
24% відповідей Copilot не узгоджувалися з усталеними медичними знаннями,
3% були відверто неправильними,
лише 54% відповідей відповідали науковому консенсусу.
Дослідження показало, що 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, тоді як 22% відповідей можуть спричинити серйозну шкоду або навіть смерть. Лише 36% відповідей були визнані нешкідливими.
Все частіше люди повністю покладаються на згенеровані результати цих інструментів, як на повноцінне, безальтернативне та точне джерело інформації. Дослідження демонструє, що такий підхід є небезпечним, особливо в питаннях медичних рекомендацій.
Додатковий ризик полягає у тому, що системи на основі штучного інтелекту, такі як Microsoft Copilot, можуть стати основним джерелом медичної інформації для людей, які мають обмежений доступ до медичних працівників через їхню вартість або доступність.
Більше по темі
- Категорія
- Світ
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного