Компанія Google розробила і запустила програму-бота, який знаходить і блокує відео з шокуючим контентом на головній сторінці сайту й додатка YouTube.
Про це в четвер, 23 травня, повідомляє Лента, посилаючись на Bloomberg.
За даними співрозмовників видання, програма, відома в компанії як trashy video classifier, працює на базі штучного інтелекту.
Як пояснив Bloomberg колишній співробітник YouTube, класифікатор почали тестувати ще в 2015 році, однак запустили його тільки після серії інцидентів Elsagate в 2017 році, коли на відеохостингу з’явилася велика кількість низькоякісних роликів для дітей, які містили сцени насильства, порушували авторське право і при цьому не блокувалися за допомогою фільтрів батьківського контролю.
Тоді масова поява подібного контенту викликала невдоволення рекламодавців і призвело до бойкотування YouTube з їхнього боку.
Представник Google підтвердив, що компанія дійсно використовує спеціальний класифікатор, який переглядає ролики на домашній сторінці YouTube і панелі з рекомендаціями.
Програма аналізує скарги користувачів на відео, а також інші дані, зокрема кількість лайків і дизлайків під роликами. В результаті впровадження системи відеохостинг отримав можливість регулювати поширення шокуючого контенту, зазначає Bloomberg.
При цьому, пише видання, багато колишніх і нинішніх співробітників YouTube вважають, що компанія звертає увагу на подібні проблеми, тільки коли їй починають загрожувати фінансові втрати або під зовнішнім тиском (як у випадку з поширенням роликів екстремістського характеру).
У січні повідомлялося, що адміністрація YouTube заборонила публікувати на платформі ролики з загрозливими для життя пранками і челленджами.
Крім того, відеохостинг заборонив використовувати в якості мініатюр до відео картинки кричущого змісту, наприклад порнографію або сцени насильства, а також розміщувати в роликах зовнішні посилання на сайти з порнографією і насильством.