+4506
Apple: наш антипедофильский алгоритм не обманешь
Александр Кузнецов
—
На этой неделе в iOS 14.3 был обнаружен код алгоритма NeuralHash, который будет использоваться для поиска детского порно у пользователей iPhone. Выяснилось, что этот алгоритм легко обойти — достаточно перевернуть или кадрировать фотографию, и он не сможет сопоставить её с запрещённым контентом из своей базы.
Компания Apple прокомментировала эту находку. По её словам, NeuralHash лишь часть алгоритма для поиска детского порно, а весь механизм будет гораздо сложнее и надёжнее, поэтому обмануть его не удастся. Она также обозначила лимит запрещённых снимков: если у пользователя будет обнаружено более 30 фотографий, на которых изображено насилие над детьми, информация об этом человеке будет передана правоохранительным органам.
Компания Apple также подчеркнула, что в iOS 14.3 содержится не финальная версия алгоритма NeuralHash, а его тестовый вариант (который, к тому же, не активирован). К выпуску iOS 15 этот алгоритм будет значительно усовершенствован, а многоуровневая проверка снимков исключит ложные срабатывания и ошибки при сравнении снимков с базой запрещённого CSAM-контента.
iGuides в Дзене — dzen.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK — vk.com/iguides
iGuides в Ok.ru — ok.ru/iguides
Рекомендации
Рекомендации
Комментарии
+306
+4506
Описался, не законом конечно.
И наверное лучше бы этот алгоритм был законом, потому что правоприменительная практика даёт хотя бы шанс на оправдание, а вот этот алгоритм сразу ставит клеймо которое не смыть.
И наверное лучше бы этот алгоритм был законом, потому что правоприменительная практика даёт хотя бы шанс на оправдание, а вот этот алгоритм сразу ставит клеймо которое не смыть.
Мляя, эта вся история превращается в какой-то анекдот XDD
Эпл: Мы вас всех возьмем под колпак!
Юзеры: Бууу, Эпл шпионит за нами!
Эпл: Мы не шпионим, и вообще это другое!
Юзеры: Ааа, ну тогда ваш алгоритм го..но!
Эпл: Вообще все очень серьезно и не уйдет никто!
Цирк на колесах…))
Эпл: Мы вас всех возьмем под колпак!
Юзеры: Бууу, Эпл шпионит за нами!
Эпл: Мы не шпионим, и вообще это другое!
Юзеры: Ааа, ну тогда ваш алгоритм го..но!
Эпл: Вообще все очень серьезно и не уйдет никто!
Цирк на колесах…))
+226
Хмм.. интересно сколько родителей пострадает от этого алгоритма? У меня (к примеру) есть 2 маленьких ребёнка, предположим с разницей в год, и я как родитель снимаю для памяти своих чадо как те плещутся впервые в бассейне на своей даче, они смеются и веселятся, по замыслу эпл я получается педофил? Интересно сколько судов проиграет по такой схеме компания? Вроде как и полезно, но при этом это же и защитит педофилов от полиции «мол мне дочка скинула видео внуков».
+50
+50
Может имеются виду не снимки голых детей, а если с ними что-то делают?... иначе и я педофилом окажусь ))))
Тоже фотки моих малых есть и в ванне и в бассейне на даче и дома голожопые ))))
Тоже фотки моих малых есть и в ванне и в бассейне на даче и дома голожопые ))))
+614
А что твои дети делают в базе фото с которыми их сравнивают. Внимательнее причитай.
В этой, а также в параллельных статьях есть все подробности работы алгоритма.
Собственных голых детей в ванне Apple, естественно, учли, это же очевидный нюанс.
Собственных голых детей в ванне Apple, естественно, учли, это же очевидный нюанс.
Если бы эта фича работала раньше, то педофила от Едра из Кёника поймали и осудили бы раньше. А возможно и ещё большее количество подобных персонажей. А так. Они сейчас все разбегутся по Андроид платформам. Надо было годик не афишировать эту опцию на весь мир. А пересажать ярых у€бков, а потом типа у нас есть такой алгоритм.
+991
Такое адское количество селфачей у молодежи даже Легиону проверить не под силу…)