Apple передумала запускати функцію виявлення заборонених фото в iPhone в 2021 році

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Компанія Apple відклала запуск нової функції безпеки дітей, яка повинна була сканувати фотографії користувачів iPhone на наявність дитячої порнографії (CSAM).

Слідом за анонсом цієї функції, вона піддалася критиці з боку дослідників безпеки, оскільки система виявлення забороненого контенту може дати помилкові спрацьовування. Крім того, громадськість висловилася проти запровадження функції сканування iCloud Фото, через побоювання з приводу того, що влада різних країн зможуть налаштовувати фільтри під себе і використовувати систему в корисливих цілях. Apple обіцяє доопрацювати алгоритм і почати його використання пізніше.

«Минулого місяця ми оголосили про плани по створенню функцій, призначених для захисту дітей від злочинців, які використовують комунікаційні інструменти для їх вербування та експлуатації, а також для обмеження поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, громадських груп, дослідників безпеки та інших осіб, ми вирішили виділити додатковий час в найближчі місяці, щоб зібрати дані і внести поліпшення, перш ніж запускати ці критично важливі функції безпеки дітей », – заявили представники Apple.

Спочатку Apple планувала почати його використання в США до кінця 2021 року. Ймовірно, компанія допрацює її до середини 2022 року.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.