Пользователь Reddit с ником AsuharietYgvar смог рассекретить алгоритм NeuralHash, с помощью которого Apple будет искать у пользователей iPhone и iPad детскую порнографию и изображения жестокого обращения с детьми. Этот алгоритм будет активирован с выпуском iOS 15, но выяснилось, что он уже есть в iOS 14.3.
В текущем состоянии NeuralHash сигнализирует о полном соответствии фотографии, хранящейся у пользователя в iCloud с информацией о снимке, хранящейся в специальной базе изображений, на которых запечатлено жестокое обращение с детьми. Алгоритм очень легко обмануть: он сигнализирует о находке только при полном совпадении снимков, даже если фотография была пережата или изменён её размер, но бессилен в тех случаях, когда исходная картинка обрезана, перевёрнута или зеркалирована. Не исключено, что Apple доработает алгоритм с учётом этих недостатков, иначе педофилы смогут легко обходить эту проверку.
Внедрение алгоритма NeuralHash в iOS вызвало обеспокоенность пользователей и правозащитных организаций. Они опасаются, что Apple обкатает эту технологию на детской порнографии, а в дальнейшем сможет контролировать любой пользовательский контент как в iCloud, так и на самих устройствах.