Компанія Apple на своєму сайті повідомила про розширення програми по захисту дітей. Відповідно до неї, в США на iOS 15, iPadOS 15, watchOS 8 і macOS Monterey з’явиться система, що сканує контент на наявність CSAM, тобто сексуального насильства над дітьми.
Сканування буде відбуватися за допомогою нейромереж на самому пристрої, а не в iCloud. Apple підкреслює, що це зроблено заради конфіденційності. Фотографії будуть звірятися з хешем зображень, наданих Національним центром зниклих без вести і експлуатованих дітей (NCMEC), а також іншими організаціями.
Що таке хеш зображень?
Це зображення, яке було переведено в послідовний набір символів, зрозумілий машинам. Ці символи допомагають нейромереж визначати, що саме зображено на ілюстрації. Тобто, по суті, порівнюються не дві фотографії, а закодована інформація цих фотографій.
Виглядає це так: h24Klsa6hpas6y3I91POSj7. Погодьтеся, не дуже схоже на зображення. Це називається цифровими відбитками фото.
Що буде далі з фотографіями?
Всі хештеги будуть зберігатися на самому пристрої. У кого будуть ключі дешифрування, невідомо. Але перевести цю інформацію назад в фотографії неможливо.
Фотографії будуть завантажуватися в iCloud разом з цим хештегом, захищеним неназваними криптографічними методами. Тут Apple підкреслює, що не зможе розшифрувати цей ваучер безпеки, якщо не буде досягнуто порогове значення відомого вмісту CSAM. За словами компанії, це свідчення високої точності.
Якщо система виявляє перевищення цього граничного значення, то Apple вручну буде інтерпретувати вміст ваучерів безпеки. У разі підтвердження обліковий запис в iCloud буде заблокована, а звіт буде відправлений у NCMEC, яка співпрацює з правоохоронними органами США.
Якщо користувач вважає, що система помилилася, він зможе подати апеляцію. У початковому тексті не уточнюється, скільки разів до цього користувачеві доведеться поговорити з представниками правоохоронних органів, а також як до цього поставиться його оточення.
Критика
Питання є до роботи самої системи: наприклад, як вона визначить вік людини на фотографії? Тобто ми можемо подивитися в паспорт людини і сказати, що йому або їй менше або більше 18 років. Тим більше що є безліч прикладів, коли підлітки виглядають старше багатьох повнолітніх людей.
Якщо Apple дає доступ до цієї інформації таким організаціям, як NCMEC, то що буде, якщо до компанії прийде авторитарний уряд і поставить умову: або ви даєте нам доступ і не лізете, або йдіть з ринку? За допомогою системи цілком можна аналізувати вміст на момент опозиційного контенту, якщо знати, як саме її налаштувати. Саме про це говорить Метью Грін, професор криптографії з Університету Джона Хопкінса:
Інше питання: на якій підставі Apple взагалі лізе в смартфони користувачів, аналізуючи їх контент? Я-то розумію, що без цього неможливий пошук по галереї айфона, але в цьому випадку система не йде з самого смартфона. А тут в хмарі буде зберігатися хеш фотографій, неправильна інтерпретація якого цілком може привести до того, що інтимні фотографії сексуальних відносин двох дорослих людей можуть переглядатися іншими людьми з боку компанії і навіть правоохоронних органів.
Якщо ж система буде виключати ті випадки, коли незрозуміло, дорослий це чи дитина, то що тоді говорити про сексуальне насильство над неповнолітніми, яких система буде позначати як спірні?
Поки технологія, представлена Apple, викликає дуже багато питань. В першу чергу вони стосуються конфіденційності – того, на чому компанія робить особливий акцент.