Исследование выяснило, почему YouTube предлагает нежелательный контент

Исслeдoвaниe эффeктивнoсти рaбoты aлгoритмoв YouTube пoкaзaлo, чтo oни рeкoмeндуют нeжeлaтeльный контент.

Об этом говорится в сайте Mozilla Foundation, передает Укринформ.

Mozilla провела исследования с через RegretsReporter — расширение браузера с открытым кодом. Миряне добровольно передавали свои данные и предоставили исследователям посещение к пулу сохранившихся рекомендательных данных YouTube.

Чисто выяснилось, люди из неанглоязычных стран чаще сталкиваются с оскорбительным контентом в YouTube, а в рекомендациях появляются видео с языком ненависти, жестокости и мошенничеством.

Волонтеры жаловались модераторам платформы для видеоролики и из-за распространения паники условно коронавируса, и из-за политической дезинформации, и с-за несоответствующих «детских» мультфильмов.

Паче 71 процента всех видеозаписей, держи которые пожаловались добровольцы, были боевито рекомендованы собственным алгоритмом YouTube. Неотлагательно почти 200 таких видеороликов были изъяты с платформы, в книжка числе и несколько таких, которые YouTube считал нарушителями собственной политики. Сии видео имели общее количество просмотров 160 млн, говорится в отчете Mozilla.

«Наше постижение подтверждает, что YouTube не всего только размещает, но и активно рекомендует видео, которые нарушают собственную политику. Незамедлительно мы также знаем, что людям в англоязычных странах, торопись всего, наибольший вред был причастный от алгоритма рекомендаций YouTube, которые отнюдь не контролируется », — отметил старший начальник по вопросам защиты интересов Mozilla Коньяк Геркинк.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.