🕵️ Apple начнёт проверять фото в айфонах и айпадах на материалы с детской порнографией
Корпорация Apple планирует протестировать в США новую технологию для операционных систем iOS и iPadOS, позволяющую обнаружить в iCloud изображения с сексуальным насилием над детьми и ограничить распространение таких материалов,
сообщается на сайте Apple.
В компании подчеркнули, что технология разработана с учетом конфиденциальности пользователей, поэтому фотографии в iCloud не будут сканировать, а станут сопоставлять хэш-суммы (цифровые отпечатки) изображений с базой данных известных изображений сексуального насилия над детьми.
Соответствующую базу компании предоставили национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC) и другие организации, занятые в сфере безопасности детей.
В Apple отметили, что компания не сможет интерпретировать эти данные, пока учетная запись не пересечет пороговое значение по количеству изображений с насилием над детьми.
Затем Apple вручную проверит каждый отчет, чтобы подтвердить совпадение, отключит учетную запись пользователя и передаст полученные данные в NCMEC.
Пользователь сможет оспорить решение, если посчитает, что его аккаунт отметили по ошибке.
Эксперты уже назвали разработку «действительно плохой идеей», уточнив, что инструмент может стать «благом для поиска детской порнографии в телефонах людей», также оружием «в руках авторитарного правительства». Также они заметили, что «Apple отступает от приватности, чтобы сделать возможным 1984 год».