Соціальна мережа Facebook вкотре опинилися в епіцентрі гучного скандалу після того, як її алгоритм на базі штучного інтелекту визначив відео з темношкірими людьми, як відео з приматами. Користувачі соцмережі неабияк обурилися та зажадали пояснень після того, як помітили, що система пропонує їм "дивитися відео про приматів", хоча у цих роликах були просто темношкірі люди.
Джерело: New York Times
Facebook уже відреагувала на цей скандальний інцидент
Керівництво компанії стверджує, що вже ініціювало службове розслідування щодо цього інциденту, а також перепросило, визнавши той факт, що це "неприпустима помилка".
Представники соцмережі публічно пообіцяли розібратися та зробити все можливе, щоб у майбутньому уникнути аналогічних ситуацій. Окрім того, відомо, що вони вже призупинили механізм, який надає рекомендації ШІ-алгоритму, щодо маркування відео.
"Як ми вже зазначали, попри те, що ми працюємо над поліпшенням штучного інтелекту, ми знаємо, що він недосконалий і нам ще належить багато роботи. Ми просимо вибачення в усіх, хто міг побачити ці образливі рекомендації", - заявив нещодавно речник Facebook Дені Левер.
Що відомо про скандал навколо Facebook
Ще в червні цього року сторінці у профілі The Daily Mail був опублікований ролик, у якому демонструються сутички темношкірих чоловіків з цивільними особами та поліцейськими. Відео не мало жодного стосунку до приматів.
Скриншот відео з помилкою ШІ-алгоритму Facebook (фото - скриншот)
Не можна не звернути увагу на те, що технологічні гіганти Google, Amazon та інші компанії дуже багато років поспіль перебувають під пильним спостереженням через упередженість своїх алгоритмів, особливо у расових питаннях.
Читайте також:
Microsoft представить щонайменше сім версій Windows 11;
Instagram повідомив про серйозні зміни у своїй роботі: цікаві подробиці читайте в нашому матеріалі.
Telegram оголосив конкурс з призовим фондом у розмірі 50 тис. доларів.