Час читання: < 1 хв. Передісторія:
Apple відклала плани сканувати зображень користувачів на предмет матеріалів про сексуальне насильство над дітьми перед завантаженням їх у хмару.
Реклама
Як зазначається, подібне рішення слідує за негативною реакцією з боку груп конфіденційності.
В компанії заявили, що “ґрунтуючись на відгуках клієнтів, правозахисних груп, дослідників та інших осіб, ми вирішили в найближчі місяці виділити додатковий час, щоб зібрати інформацію та внести покращення, перш ніж випускати ці критично важливі функції безпеки дітей”.
- У серпня з’явилася інформація, що Apple просканує зображення та зашифровані повідомлення в iPhone в США на предмет сексуального насильства над дітьми.
- Як повідомлялося, останні зміни з’являться в цьому році як частина оновлень операційного програмного забезпечення для iPhone, Mac і Apple Watch.
- Для цього мали використати інструмент neuralMatch. Він призначений для виявлення відомих зображень сексуального насильства над дітьми і скануватиме зображення перед їх завантаженням в iCloud. Якщо neuralMatch знайде збіг, зображення перегляне людина. У разі підтвердження наявності дитячої порнографії обліковий запис користувача відключать і повідомлять Національний центр зниклих безвісти і експлуатованих дітей. Система виявлення відзначатиме тільки ті зображення, які вже є в базі даних центру відомої дитячої порнографії.
- Також Apple планує сканувати зашифровані повідомлення користувачів на предмет відвертого сексуального змісту як захід безпеки для дітей.
Реклама