Компания Apple планирует установить на айфонах американских пользователей программное обеспечение, позволяющее сканировать хранящиеся на самом устройстве и в iCloud фотографии на предмет жестокого обращения с детьми. Об этом пишет «Дождь» со ссылкой на Financial Times.
Apple уже использует специальное программное обеспечение для сканирования на предмет жестокого обращения с детьми изображений, хранящихся в iCloud. Отличие новой системы в том, что она предоставляет централизованный доступ к локальному хранилищу изображений, отмечает The Verge.
Apple объявит о внедрении системы сканирования фотографий под названием neuralMatch на этой неделе. Фотографии пользователей, преобразованные в строку чисел посредством технологии хеширования, будут сравниваться со снимками в базе данных известных изображений сексуального насилия над детьми, пишет газета.
По словам источников издания, каждой фотографии, загруженной в iCloud в США, будет выдан «ваучер безопасности» с указанием, является ли изображение подозрительным. После того, как определенное число фотографий будет помечено как подозрительное, Apple позволит расшифровать снимки и, если они окажутся незаконными, передать их в правоохранительные органы.
О том, что Apple готовится внедрить такую функцию, также сообщил доцент Института информационной безопасности Джонса Хопкинса Мэтью Грин, он назвал это «плохой идеей». «Такой инструмент может оказаться полезным для поиска детской порнографии в телефонах. Но представьте, что он может сделать в руках авторитарного правительства?» — написал Грин в своем твиттере.
Он отметил, что алгоритмы хеширования ненадежны и могут приводить к ложному срабатыванию. Грин пояснил, что злоумышленники могут выдать безобидные изображения пользователей за незаконные, а власти смогут использовать систему для подавления политической активности.