Спецпроєкти

Apple скануватиме фотографії всіх користувачів на ознаки насилля над дітьми


Компанія Apple тестує технологію neuralMatch, яка скануватиме фотографії користувачів на iPhone і шукатиме ознаки сексуального насилля та домагання над дітьми.

Про це пише AP.

Як це працюватиме?

Функція neuralMatch перевірятиме фотографії до того, як вони потраплятимуть в iCloud.

Технологія порівнюватиме фото користувачів із зображеннями у реєстрі Національного центру пошуку зниклих та експлуатованих дітей США та інших організацій. Наразі таких фото понад 200 тисяч.

Якщо збіги знайдуть в одному фото, то до перевірки підключать живого модератора. Якщо у декількох фото – всю інформацію передадуть правоохоронним органам.

Apple «побачить» знімки в «хешах», числових кодах, а при частих збігах розшифровуватиме їх. Розпізнає ця технологія і звичайні, і відредаговані фото.

«Система має надзвичайно високий рівень точності і гарантує менше одного невірного розпізнавання з трильйона операцій зі знімками за рік», — заявили в Apple.

Є одне АЛЕ

Експерти зазначають, що з часом технологія neuralMatch зможе сканувати не лише фотографії, але й телефони загалом і знаходити заборонений контент різного роду. Тому вона є потенційно цікавою для авторитарних урядів, які стежать за своїми громадянами.

Водночас у Apple додають, що нові iOS і iPadOS матимуть нові криптографічні розробки, які допомагають обмежити поширення зображень з насильством в інтернеті, але при цьому забезпечують конфіденційність.

Також продукти Apple розмиватимуть фотографії із сексуальним контентом і повідомлятимуть батькам про те, що їх діти надсилають сексуальні знимки. А Siri вчитиме дітей безпеки в Інтернеті.

#bit.ua
Читайте нас у
Telegram
Ми в Телеграмі
підписуйтесь

Долучайтеся до нашого Telegram-каналу з тестами! 😎