Фото: Gizmochina
Алгоритмы YouTube подверглись жесткой критике со стороны исследователей безопасности из-за очень странных рекомендаций детям. Об этом пишет Gizmochina.
Согласно источнику, эксперты Tech Transparency Project решили проверить жалобы пользователей YouTube и провели эксперимент. Они создали четыре тестовые учетные записи, обозначив их как девятилетних мальчиков и 14-летних девочек. Эксперты просматривали ролики о видеоиграх с этих аккаунтов и очень быстро обнаружили довольно жуткие вещи.
На фоне заинтересованности видеоиграми YouTube начал включать «детям» в рекомендательный плейлист рекламу оружия, видеоролики о стрельбе в школах и фильмы про серийных убийц и маньяков. Любопытно, что рекомендованный контент сам по себе противоречит политикам площадки, однако YouTube не только пропустил их, но еще и подсунул малолетним детям.
В 2021 году YouTube публично заявлял, что его рекомендательный алгоритм не подбирает зрителям «экстремальный» контент, если они не ищут его сами. Эксперимент показал лживость этого утверждения.
Сейчас результаты исследования планируют передать в регулирующие ограны. YouTube пока никак не комментировал ситуацию.
Алгоритмы YouTube подверглись жесткой критике со стороны исследователей безопасности из-за очень странных рекомендаций детям. Об этом пишет Gizmochina.
Согласно источнику, эксперты Tech Transparency Project решили проверить жалобы пользователей YouTube и провели эксперимент. Они создали четыре тестовые учетные записи, обозначив их как девятилетних мальчиков и 14-летних девочек. Эксперты просматривали ролики о видеоиграх с этих аккаунтов и очень быстро обнаружили довольно жуткие вещи.
На фоне заинтересованности видеоиграми YouTube начал включать «детям» в рекомендательный плейлист рекламу оружия, видеоролики о стрельбе в школах и фильмы про серийных убийц и маньяков. Любопытно, что рекомендованный контент сам по себе противоречит политикам площадки, однако YouTube не только пропустил их, но еще и подсунул малолетним детям.
В 2021 году YouTube публично заявлял, что его рекомендательный алгоритм не подбирает зрителям «экстремальный» контент, если они не ищут его сами. Эксперимент показал лживость этого утверждения.
Сейчас результаты исследования планируют передать в регулирующие ограны. YouTube пока никак не комментировал ситуацию.