
На этой неделе в iOS 14.3 был обнаружен код алгоритма NeuralHash, который будет использоваться для поиска детского порно у пользователей iPhone. Выяснилось, что этот алгоритм легко обойти — достаточно перевернуть или кадрировать фотографию, и он не сможет сопоставить её с запрещённым контентом из своей базы.
Компания Apple прокомментировала эту находку. По её словам, NeuralHash лишь часть алгоритма для поиска детского порно, а весь механизм будет гораздо сложнее и надёжнее, поэтому обмануть его не удастся. Она также обозначила лимит запрещённых снимков: если у пользователя будет обнаружено более 30 фотографий, на которых изображено насилие над детьми, информация об этом человеке будет передана правоохранительным органам.
Компания Apple также подчеркнула, что в iOS 14.3 содержится не финальная версия алгоритма NeuralHash, а его тестовый вариант (который, к тому же, не активирован). К выпуску iOS 15 этот алгоритм будет значительно усовершенствован, а многоуровневая проверка снимков исключит ложные срабатывания и ошибки при сравнении снимков с базой запрещённого CSAM-контента.

А новый iPhone и многое другое вы можете купить у наших друзей из Big Geek.
Скидка по промокоду iGuides