Антипедофильский алгоритм Apple рассекречен. Он оказался примитивным и неэффективным

Александр

iPhone

Пользователь Reddit с ником AsuharietYgvar смог рассекретить алгоритм NeuralHash, с помощью которого Apple будет искать у пользователей iPhone и iPad детскую порнографию и изображения жестокого обращения с детьми. Этот алгоритм будет активирован с выпуском iOS 15, но выяснилось, что он уже есть в iOS 14.3.

AsuharietYgvar провёл реверс-инжиниринг кода NeuralHash, воссоздал его на языке Python и выяснил, как работает этот алгоритм. Код выложен на GitHub, ознакомиться с ним может любой желающий.

В текущем состоянии NeuralHash сигнализирует о полном соответствии фотографии, хранящейся у пользователя в iCloud с информацией о снимке, хранящейся в специальной базе изображений, на которых запечатлено жестокое обращение с детьми. Алгоритм очень легко обмануть: он сигнализирует о находке только при полном совпадении снимков, даже если фотография была пережата или изменён её размер, но бессилен в тех случаях, когда исходная картинка обрезана, перевёрнута или зеркалирована. Не исключено, что Apple доработает алгоритм с учётом этих недостатков, иначе педофилы смогут легко обходить эту проверку.

Внедрение алгоритма NeuralHash в iOS вызвало обеспокоенность пользователей и правозащитных организаций. Они опасаются, что Apple обкатает эту технологию на детской порнографии, а в дальнейшем сможет контролировать любой пользовательский контент как в iCloud, так и на самих устройствах.




4
iGuides в Яндекс.Дзен —  zen.yandex.ru/iguides.ru
iGuides в Telegram — t.me/igmedia

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

Seagull
–631
Чтобы научить алгоритм научить выявлять детское порно этому алгоритму нужно скормить терабайты этого самого детского порно, притом разным и разнообразным. Это так на подумать …..
18 августа 2021 в 23:02
#
+1703
Ну так такие конторы, которые собирают и анализируют подобные файлы, давно работают… Где-то полиция собирает, но в основном — независимые конторы. Масштаб библиотек должен быть огромным, да. Первоначальный замысел был — по фото найти ребенка и спасти его, или найти педофила и привлечь к ответственности. Это на самом деле работает, пусть и не так эффективно, как хотелось.
18 августа 2021 в 23:27
#
Seagull
–631
Ну вы же понимаете, что смысл это просто благовидный предлог 😉

Педофильское лобби смогло замылить всё в ватикане, а тут и подавно смогут, всё делается точно не для блага детей
18 августа 2021 в 23:40
#
SithV
+1549
Через пол года на сайте Эпл: «В команду разработчиков алгоритма поиска детской порнографии требуются требуются работники в возрасте до 14 лет. Оплата — 5 тысяч леденцов в месяц.»
19 августа 2021 в 07:58
#
+163
Леденцы в форма 
19 августа 2021 в 09:04
#
kardigan
+2658
Да какие блага детей?! Это ведь лапша очередная от корпораций, подконтрольных государству и работающих исключительно в политических целях
18 августа 2021 в 23:55
#
Alll
+3732
Ясный пень. Пусть тогда огородят детей от лгбт извращенцев. Мне просто интересно с чего вдруг этот вопрос стал настолько важным и актуальным? Есть какая-то статистика, что резко возросло количество преступлений на этой почве? Или это просто возможность контролировать и сливать данные под красивым соусом.
19 августа 2021 в 10:27
#
Oskarr
+369
Детьми прикрываются, чтобы все сказали, что вон они какие, о детях заботятся, и разрешали им усыновлять тех же детей.
19 августа 2021 в 07:26
#
+34
Заголовок, конечно убойный. Желтит аж глаза режет. Комментаторы тоже радуют. Что вы несёте? Кто в здравом уме реально считает что кто-то там прикрывается детьми, покрывает кого-то, причём тут лгбт, какие конторы и педофильское лобби? Кровь из глаз.
19 августа 2021 в 10:53
#