Социальная сеть Facebook в очередной раз оказались в эпицентре громкого скандала после того, как ее алгоритм на базе искусственного интеллекта определил видео с темнокожими людьми, как видео с приматами. Пользователи соцсети возмутились и потребовали объяснений после того, как заметили, что система предлагает им "смотреть видео о приматах", хотя в этих роликах были просто темнокожие люди.
Источник: New York Times
Facebook уже отреагировала на этот скандальный инцидент
Руководство компании утверждает, что уже инициировало служебное расследование по данному инциденту, а также извинилось, признав тот факт, что это "недопустимая ошибка".
Представители соцсети публично пообещали разобраться и сделать все возможное, чтобы в будущем избежать подобных ситуаций. Кроме того, известно, что они уже приостановили механизм, который дает рекомендации ИИ-алгоритма, по маркировке видео.
"Как мы уже отмечали, несмотря на то, что мы работаем над улучшением искусственного интеллекта, мы знаем, что он несовершенен и нам еще предстоит много работы. Мы просим прощения у всех, кто мог увидеть эти оскорбительные рекомендации", - заявил недавно представитель Facebook Дени Левер.
Что известно о скандале вокруг Facebook
Еще в июне этого года на странице в профиле The Daily Mail был опубликован ролик, в котором демонстрируются схватки темнокожих мужчин с гражданскими лицами и полицейскими. Видео не имело никакого отношения к приматам.
Скриншот видео с ошибкой ИИ-алгоритма Facebook (фото - скриншот)
Нельзя не обратить внимание на то, что технологические гиганты Google, Amazon и другие компании очень много лет находятся под пристальным наблюдением из-за предвзятости своих алгоритмов, особенно в расовых вопросах.
Читайте также:
Microsoft представит как минимум семь версий Windows 11;
Instagram сообщил о серьезных изменениях в своей работе;
Telegram объявил конкурс с призовым фондом в размере 50 тыс. долларов.