«Метод Apple обнаружения известных CSAM (материалов с признаками сексуального насилия над детьми) разработан с учетом конфиденциальности пользователей», - говорится в заявлении Apple. «Вместо сканирования изображений в облаке система выполняет сопоставление на устройстве с использованием базы данных известных изображений CSAM, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей и другими организациями, занимающимися безопасностью детей.
Apple также преобразует эту базу данных в нечитаемый набор кодов, который будет храниться на устройствах пользователей», - отмечают в компании. Согласно заявлению, система обнаружения CSAM использует порог, «установленный для обеспечения чрезвычайно высокого уровня точности и
.