Компанія Apple відклала запуск нової функції безпеки дітей, яка повинна була сканувати фотографії користувачів iPhone на наявність дитячої порнографії (CSAM).
Слідом за анонсом цієї функції, вона піддалася критиці з боку дослідників безпеки, оскільки система виявлення забороненого контенту може дати помилкові спрацьовування. Крім того, громадськість висловилася проти запровадження функції сканування iCloud Фото, через побоювання з приводу того, що влада різних країн зможуть налаштовувати фільтри під себе і використовувати систему в корисливих цілях. Apple обіцяє доопрацювати алгоритм і почати його використання пізніше.
«Минулого місяця ми оголосили про плани по створенню функцій, призначених для захисту дітей від злочинців, які використовують комунікаційні інструменти для їх вербування та експлуатації, а також для обмеження поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, громадських груп, дослідників безпеки та інших осіб, ми вирішили виділити додатковий час в найближчі місяці, щоб зібрати дані і внести поліпшення, перш ніж запускати ці критично важливі функції безпеки дітей », – заявили представники Apple.
Спочатку Apple планувала почати його використання в США до кінця 2021 року. Ймовірно, компанія допрацює її до середини 2022 року.
Apple планує розширити свою присутність в індустрії розумного будинку шляхом розробки нової камери з програмним…
Компанія Nothing представила лімітовану версію смартфона Phone (2a) Plus Community Edition наприкінці жовтня. Що ще…
Компанія OpenAI готує до запуску нового агента зі штучним інтелектом під кодовою назвою "Оператор", який…
WhatsApp має купу корисних функцій, про які не всі знають, і які можуть реально зробити…
Напередодні Різдва компанія Sony оголосила про тимчасове зниження ціни на PlayStation 5. З 24 грудня…
Компанія додала на смартфони Pixel нову функцію безпеки в рамках сервіс Play Protect. Вона захищає…