Apple спрятала со своего сайта упоминания о скандальной функции. Но мы-то всё помним

Олег

Apple


С официального сайта Apple пропали любые упоминания о функции поиска CSAM-контента на устройствах пользователей. Об этом сообщает The Verge.

Уточним, что страница, посвященная защите детей от откровенного контента, осталась на сайте. На ней Apple подробно рассказывает, что, начиная с iOS 15.2, iPadOS 15.2, watchOS 8.3 и macOS 12.1 «яблочные» устройства несовершеннолетних пользователей будут «заблюривать» изображения с обнаженным телом в iMessage. Кроме того, Siri, Spotlight и поиск в Safari тоже были переработаны, чтобы предупреждать детей и их родителей о недопустимом контенте.

Однако с этой страницы исчезли любые упоминания о том, что компания собирается (или собиралась) сканировать личные устройства и содержимое iCloud на предмет обнаружения CSAM-контента — то есть изображений и видео, демонстрирующих эксплуатацию детей и жестокое обращение с ними. Об этой функции впервые стало известно в середине 2021 года — Apple собиралась развернуть ее вместе с выходом iOS 15. Однако общественность взбунтовалась и компания получила огромный негативный фидбэк, поэтому от внедрения сканирования на предмет CSAm пришлось отказаться.

При этом Apple уточняет — это всего лишь отсрочка, а не полный отказ. Компания продолжит работать над внедрением этого метода защиты юных пользователей, но, вероятно, хочет сделать это попозже. Возможно, Apple собирается провести новую, более успешную, информационную кампанию, чтобы пользователи лучше понимали механизмы работы новой фишки и не беспокоились о своей приватности. Стоит признать, что в этот раз работа с общественностью была проведена крайне неудачно — «яблочная» компания выпустила пару пресс-релизов, а потом несколько раз оправдывалась и стыдливо отвечала на вопросы разъяренной публики.

Всё, что нужно знать на тему «детской защиты» от Apple, можно найти на нашем сайте по тегу CSAM

-5

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии