
Компания Apple отложила запуск системы, которая должна сканировать фотографии пользователей iPhone в поисках изображения сцен насилия над детьми. Изначально планировалось, что эта система будет запущена одновременно с выпуском iOS 15 и обновлениями других операционных систем этой осенью.
Компания указывает, что прислушалась к мнениям пользователей, правозащитных организаций, ИБ-исследователей и других заинтересованных лиц и решила не спешить с запуском технологии. В ближайшие месяцы Apple соберёт ещё больше откликов и мнений, после чего доработает технологию таким образом, чтобы ни у кого не осталось сомнений в том, что она будет использоваться только с благой целью и никак иначе.
И хотя Apple не собиралась рассматривать фотографии, а лишь хотела сличать их хэш-суммы с базой известного нелегального контента, пользователи всё равно забили тревогу. Они увидели в этом зачатки контроля над тем, какой контент им разрешено хранить на устройстве, а какие запрещено. Такого же мнения придерживаются некоторые правозащитные организации. В сети даже была запущена петиция с требованием не внедрять технологию поиска детского порно — её подписали тысячи людей. И необязательно педофилы, среди них были и те, кто боится, что в дальнейшем власти надавят на Apple и будут использовать созданный этой компанией алгоритм для установления тоталитарного контроля за смартфонами.

А новый iPhone и многое другое вы можете купить у наших друзей из Big Geek.
Скидка по промокоду iGuides