Компанія Apple відклала запуск нової функції безпеки дітей, яка повинна була сканувати фотографії користувачів iPhone на наявність дитячої порнографії (CSAM).
Слідом за анонсом цієї функції, вона піддалася критиці з боку дослідників безпеки, оскільки система виявлення забороненого контенту може дати помилкові спрацьовування. Крім того, громадськість висловилася проти запровадження функції сканування iCloud Фото, через побоювання з приводу того, що влада різних країн зможуть налаштовувати фільтри під себе і використовувати систему в корисливих цілях. Apple обіцяє доопрацювати алгоритм і почати його використання пізніше.
«Минулого місяця ми оголосили про плани по створенню функцій, призначених для захисту дітей від злочинців, які використовують комунікаційні інструменти для їх вербування та експлуатації, а також для обмеження поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, громадських груп, дослідників безпеки та інших осіб, ми вирішили виділити додатковий час в найближчі місяці, щоб зібрати дані і внести поліпшення, перш ніж запускати ці критично важливі функції безпеки дітей », – заявили представники Apple.
Спочатку Apple планувала почати його використання в США до кінця 2021 року. Ймовірно, компанія допрацює її до середини 2022 року.
Очікується, що Samsung представить серію Galaxy S25 вже в січні. Імовірно, це станеться 22 січня…
У запеклій конкуренції з Google компанія OpenAI зняла обмеження на доступ до ChatGPT Search для…
The Wall Street Journal стверджує, що ця модель не буде дорожчою за iPhone 17 Pro…
Нове опитування фахівців з компанії SellCell показує, що більшість функцій Apple Intelligence не несуть ніякої…
Ілон Маск підтвердив, що його команда соціальної мережі X (Twitter) працює над створенням фірмового сервісу…
Компанія Apple готує до виходу Macbook монструозних розмірів. Про це пише MacRumors. Що відомо Згідно…