Компанія Apple відклала запуск нової функції безпеки дітей, яка повинна була сканувати фотографії користувачів iPhone на наявність дитячої порнографії (CSAM).
Слідом за анонсом цієї функції, вона піддалася критиці з боку дослідників безпеки, оскільки система виявлення забороненого контенту може дати помилкові спрацьовування. Крім того, громадськість висловилася проти запровадження функції сканування iCloud Фото, через побоювання з приводу того, що влада різних країн зможуть налаштовувати фільтри під себе і використовувати систему в корисливих цілях. Apple обіцяє доопрацювати алгоритм і почати його використання пізніше.
«Минулого місяця ми оголосили про плани по створенню функцій, призначених для захисту дітей від злочинців, які використовують комунікаційні інструменти для їх вербування та експлуатації, а також для обмеження поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, громадських груп, дослідників безпеки та інших осіб, ми вирішили виділити додатковий час в найближчі місяці, щоб зібрати дані і внести поліпшення, перш ніж запускати ці критично важливі функції безпеки дітей », – заявили представники Apple.
Спочатку Apple планувала почати його використання в США до кінця 2021 року. Ймовірно, компанія допрацює її до середини 2022 року.
Популярний виробник пристроїв Huami випустив новий смарт-годинник Amazfit Bip 6 , призначений для любителів активного…
Qualcomm опублікувала тизер майбутнього анонсу чіпсету, запланованого на 2 квітня. Аналітики припускають, що компанія представить…
На форумі Reddit у гілці BlackBerry користувач під ніком coldheartedsigma заявив, що один британський стартап…
Довгоочікуване оновлення One UI 7 дуже швидко дістанеться до безлічі гаджетів під брендом Galaxy. У…
Apple працює над розширенням своєї функції виявлення падінь, спочатку розробленої для Apple Watch, на інші…
Microsoft готує радикальну зміну екрану смерті у новому оновленні Windows 11. Замість звичного синього екрану…