У компанії Apple запланували розгортання спеціальної технології, яка відстежуватиме на гаджетах користувачів наявність матеріалів, які вказують на жорстоке ставлення з дітьми.
Джерело: Financial Times
За оприлюдненими даними, в компанії підтвердили такі наміри напередодні у четвер, 5 серпня. Девайси безпосередньо у Сполучених Штатах отримуватимуть автоматизований алгоритм, який скануватиме всі світлини користувачів перед завантаженням їх до iCloud.
У зашифрованому вигляді їх надалі звірятимуть з базою даних, яку курує американський “Національний центр з дітей, які зникли чи зазнають експлуатації”. В цілому вона містить до 200 тисяч світлин жорстокого ставлення до дітей.
Назвали цю технологію neuralMatch. У разі виявлення будь-яких схожих матеріалів, в Apple з’явиться санкція на розшифрування відзначеної інформації та перевірку контенту мануально. Якщо буде виявлено на цьому етапі своєю чергою якісь порушення, акаунт користувача заблокують, а дані передадуть далі до NCMEC і правоохоронні органи.
Водночас у разі помилки (на думку користувача) блокування можна буде оскаржити відповідне рішення апеляцією.
Відзначається, що імплементація технологій, які скануватимуть всі світлини на пристроях від Apple, може призвести до порушень конфіденційності. Це може стати початком тенденції до відстежування трафіку даних, вважають в Університеті Джона Гопкінса.
“В кінцевому підсумку це може стати ключовим елементом для впровадження спостереження за системами зашифрованих повідомлень. Можливість впровадження подібних систем сканування до систем обміну повідомленнями E2E є серйозною проблемою для правоохоронних органів у всьому світі”, - цитують медіа професора Метью Гріна.
Одночасно з цим це погроза у використанні системи для фальсифікації ні в чому невинних людей.
“Це абсолютно жахлива ідея - вона відкриває дорогу до масового спостереження за нашими смартфонами і комп'ютерами”, - коментує розробку професор Росс Андерсон, фахівець з кібербезпеки Кембриджського університету.
Читайте також: