Apple передумала запускати функцію виявлення заборонених фото в iPhone в 2021 році

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: < 1 хв.

Компанія Apple відклала запуск нової функції безпеки дітей, яка повинна була сканувати фотографії користувачів iPhone на наявність дитячої порнографії (CSAM).

Слідом за анонсом цієї функції, вона піддалася критиці з боку дослідників безпеки, оскільки система виявлення забороненого контенту може дати помилкові спрацьовування. Крім того, громадськість висловилася проти запровадження функції сканування iCloud Фото, через побоювання з приводу того, що влада різних країн зможуть налаштовувати фільтри під себе і використовувати систему в корисливих цілях. Apple обіцяє доопрацювати алгоритм і почати його використання пізніше.

«Минулого місяця ми оголосили про плани по створенню функцій, призначених для захисту дітей від злочинців, які використовують комунікаційні інструменти для їх вербування та експлуатації, а також для обмеження поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, громадських груп, дослідників безпеки та інших осіб, ми вирішили виділити додатковий час в найближчі місяці, щоб зібрати дані і внести поліпшення, перш ніж запускати ці критично важливі функції безпеки дітей », – заявили представники Apple.

Реклама

Спочатку Apple планувала почати його використання в США до кінця 2021 року. Ймовірно, компанія допрацює її до середини 2022 року.

Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ