Компанія Apple на своєму сайті повідомила про розширення програми по захисту дітей. Відповідно до неї, в США на iOS 15, iPadOS 15, watchOS 8 і macOS Monterey з’явиться система, що сканує контент на наявність CSAM, тобто сексуального насильства над дітьми.
Сканування буде відбуватися за допомогою нейромереж на самому пристрої, а не в iCloud. Apple підкреслює, що це зроблено заради конфіденційності. Фотографії будуть звірятися з хешем зображень, наданих Національним центром зниклих без вести і експлуатованих дітей (NCMEC), а також іншими організаціями.
Це зображення, яке було переведено в послідовний набір символів, зрозумілий машинам. Ці символи допомагають нейромереж визначати, що саме зображено на ілюстрації. Тобто, по суті, порівнюються не дві фотографії, а закодована інформація цих фотографій.
Виглядає це так: h24Klsa6hpas6y3I91POSj7. Погодьтеся, не дуже схоже на зображення. Це називається цифровими відбитками фото.
Всі хештеги будуть зберігатися на самому пристрої. У кого будуть ключі дешифрування, невідомо. Але перевести цю інформацію назад в фотографії неможливо.
Фотографії будуть завантажуватися в iCloud разом з цим хештегом, захищеним неназваними криптографічними методами. Тут Apple підкреслює, що не зможе розшифрувати цей ваучер безпеки, якщо не буде досягнуто порогове значення відомого вмісту CSAM. За словами компанії, це свідчення високої точності.
Якщо система виявляє перевищення цього граничного значення, то Apple вручну буде інтерпретувати вміст ваучерів безпеки. У разі підтвердження обліковий запис в iCloud буде заблокована, а звіт буде відправлений у NCMEC, яка співпрацює з правоохоронними органами США.
Якщо користувач вважає, що система помилилася, він зможе подати апеляцію. У початковому тексті не уточнюється, скільки разів до цього користувачеві доведеться поговорити з представниками правоохоронних органів, а також як до цього поставиться його оточення.
Питання є до роботи самої системи: наприклад, як вона визначить вік людини на фотографії? Тобто ми можемо подивитися в паспорт людини і сказати, що йому або їй менше або більше 18 років. Тим більше що є безліч прикладів, коли підлітки виглядають старше багатьох повнолітніх людей.
Якщо Apple дає доступ до цієї інформації таким організаціям, як NCMEC, то що буде, якщо до компанії прийде авторитарний уряд і поставить умову: або ви даєте нам доступ і не лізете, або йдіть з ринку? За допомогою системи цілком можна аналізувати вміст на момент опозиційного контенту, якщо знати, як саме її налаштувати. Саме про це говорить Метью Грін, професор криптографії з Університету Джона Хопкінса:
Інше питання: на якій підставі Apple взагалі лізе в смартфони користувачів, аналізуючи їх контент? Я-то розумію, що без цього неможливий пошук по галереї айфона, але в цьому випадку система не йде з самого смартфона. А тут в хмарі буде зберігатися хеш фотографій, неправильна інтерпретація якого цілком може привести до того, що інтимні фотографії сексуальних відносин двох дорослих людей можуть переглядатися іншими людьми з боку компанії і навіть правоохоронних органів.
Якщо ж система буде виключати ті випадки, коли незрозуміло, дорослий це чи дитина, то що тоді говорити про сексуальне насильство над неповнолітніми, яких система буде позначати як спірні?
Поки технологія, представлена Apple, викликає дуже багато питань. В першу чергу вони стосуються конфіденційності – того, на чому компанія робить особливий акцент.
Наразі плани TSMC у Сполучених Штатах залежать від поточної політичної ситуації. Як повідомляє Digitimes, компанія…
Любителі мобільних пристроїв чекають чергових флагманських смартфонів, і на черзі апарати Samsung Galaxy S. Їхня…
Google випустила безкоштовний застосунок чат-бота Gemini для користувачів iPhone - тепер його можна завантажити в…
Чесно кажучи, я теж час від часу беру телефон у ліжко, хоча знаю, що це…
Компанія 01.ai представила нову модель ШІ Yi-Lightning, схожу з GPT-4. Для навчання моделі використовувалося 2000…
Стартап OpenAI офіційно оголосив про вихід загальнодоступної версії застосунку ChatGPT для користувачів ПК під управлінням…