Компанія Meta планує масштабний перегляд власної політики модерації контенту у соцмережах Facebook, Instagram та Threads, відмовляючись від надмірного контролю за інформацією і натомість пропонуючи функцію Community Notes.
Головні тези:
- Meta відмовляється від програми фактчекінгу і запускає функцію Community Notes для користувачів у Facebook, Instagram та Threads.
- Компанія послаблює правила модерації контенту, сприяючи спільному створенню та оцінці приміток користувачами.
- Meta переглядає використання автоматичних систем модерації, зосереджуючись на боротьбі з тероризмом та іншим небезпечним контентом.
- Meta планує підвищити видимість політичних публікацій з більш персоналізованим підходом, враховуючи вподобання та перегляди користувачів.
Що відомо про зміну політики Meta стосовно інформації у Facebook, Instagram та Threads
Таким чином Meta відмовиться від програми фактчекінгу інформації, запущеної у 2016 році. Ця програма передбачала співпрацю з незалежними організаціями для перевірки на наявність фейкових повідомлень та дезінформації.
У компанії визнали, що програма стала елементом цензури замість надання користувачам додаткової інформації.
Замість цієї програми почне діяти функція Community Notes, схожа на ту, яка діє у соцмережі Ілона Маска X.
Community Notes дозволить користувачам додавати контекст до публікацій, які можуть вводити в оману.
При цьому представники компанії підкреслили, що не контролюватимуть інформацію, яка публікуватиметься користувачами у Community Notes і не визначатимуть, які саме коментарі мають з’являтись у соцмережах.
Користувачі спільно створюватимуть та оцінюватимуть примітки для забезпечення їх точності та неупередженості.
Програма спочатку буде запущена в США протягом найближчих місяців, і користувачі вже можуть подати заявку на участь у її тестуванні.
Користувачі платформ Meta можуть попередньо зареєструватися, щоб першими випробувати новий інструмент. Долучитися до списку очікування можна через Facebook, Instagram та Threads.
Які інші зміни Meta планує у своїх соцмережах
Окрім цього в компанії переглядають використання автоматичних систем для модерації контенту.
У Meta визнали, що через автоматичну модерацію щодня видаляються мільйони публікацій. Замість цього у компанії зосередяться на публікаціях, які містять контент, пов’язаний з тероризмом, сексуальною експлуатаціэю дітей та шахрайством.
Компанія поступово відмовиться від надмірного зниження видимості контенту та запровадить вищі пороги впевненості перед видаленням публікацій.
Meta також перемістить свої команди з довіри та безпеки з Каліфорнії до Техасу та інших регіонів США для забезпечення більшої різноманітності в політиці модерації.
Щоб прискорити процес оскарження рішень про модерацію, Meta розширює команди модераторів і використовує великі мовні моделі (LLMs) для додаткової перевірки контенту перед прийняттям рішень про видалення.
Компанія також досліджує використання технології розпізнавання облич для спрощення процесу відновлення акаунтів.
З 2021 року компанія зменшила видимість публікацій, пов’язаних із виборами, політикою та соціальними питаннями, на основі відгуків користувачів.
Однак тепер Meta планує знову підвищити видимість такого контенту з більш персоналізованим підходом.
Компанія буде ранжувати політичні публікації від користувачів та сторінок так само як і будь-який інший контент у стрічці новин. Для цього Meta враховуватиме явні сигнали (наприклад, вподобання) та неявні сигнали (перегляди постів), щоб прогнозувати, що є важливим для користувачів.
Більше по темі
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного