Apple скануватиме фотографії всіх користувачів на ознаки насилля над дітьми
Компанія Apple тестує технологію neuralMatch, яка скануватиме фотографії користувачів на iPhone і шукатиме ознаки сексуального насилля та домагання над дітьми.
Про це пише AP.
Як це працюватиме?
Функція neuralMatch перевірятиме фотографії до того, як вони потраплятимуть в iCloud.
Технологія порівнюватиме фото користувачів із зображеннями у реєстрі Національного центру пошуку зниклих та експлуатованих дітей США та інших організацій. Наразі таких фото понад 200 тисяч.
Якщо збіги знайдуть в одному фото, то до перевірки підключать живого модератора. Якщо у декількох фото – всю інформацію передадуть правоохоронним органам.
Apple «побачить» знімки в «хешах», числових кодах, а при частих збігах розшифровуватиме їх. Розпізнає ця технологія і звичайні, і відредаговані фото.
«Система має надзвичайно високий рівень точності і гарантує менше одного невірного розпізнавання з трильйона операцій зі знімками за рік», — заявили в Apple.
Є одне АЛЕ
Експерти зазначають, що з часом технологія neuralMatch зможе сканувати не лише фотографії, але й телефони загалом і знаходити заборонений контент різного роду. Тому вона є потенційно цікавою для авторитарних урядів, які стежать за своїми громадянами.
Водночас у Apple додають, що нові iOS і iPadOS матимуть нові криптографічні розробки, які допомагають обмежити поширення зображень з насильством в інтернеті, але при цьому забезпечують конфіденційність.
Також продукти Apple розмиватимуть фотографії із сексуальним контентом і повідомлятимуть батькам про те, що їх діти надсилають сексуальні знимки. А Siri вчитиме дітей безпеки в Інтернеті.