Instagram блокуватиме контент про самогубства і каліцтво

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Нещодавно у Facebook та Instagram прийняли рішення видаляти зображення, на яких люди калічать самі себе. Правила модерації контенту щодо самогубства, нанесення людьми собі травм та розладів харчування стали більш жорсткими.

А днями у Instagram повідомили, що розширять блокування такого контенту й на мультфільми, меми, фото та інший контент, що публікується у соцмережі. Про це повідомляє The Guardian.

Виданню у Instagram підтвердили, що видаляють контент, який завдає шкоди ментальному здоров’ю користувачів. Один із приводів до такого рішення — смерть 14-річної британки Моллі Рассел. Вона наклала на себе руки у 2017 році після переглядів постів в соцмережі, у яких люди калічать самі себе, постів про депресією і самогубство.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Близькі Моллі вважають, що алгоритми соцмережі показували дівчині небезпечний контент, і частина провини за смерть підлітка лежить на корпорації Facebook, якій належить соцмережа Instagram.

Ситуація з Моллі — не єдиний подібний випадок. Так, у 2019 році 16-річна дівчина з Малайзії наклала на себе руки після того, як провела опитування в своєму Instagram, чи варто їй жити.

Після трагічних випадків представники соцмережі заявили, що поcилили контроль над зображеннями, малюнками, аніме і мемами, які зображують самоушкодження або самогубство.

Глава Instagram Адам Моссері прокоментував BBC: «Для повного впровадження потрібен час, але це не буде останнім кроком, який ми зробимо».

Раніше цього року на платформі запустили «екрани чутливості», які розмивають потенційно «небезпечні» зображення (наприклад, це стосуєтсья медичної етматики). Хоча такі зображення все ж можуть бути показані, якщо користувачі захочуть їх переглянути. Також у соцмережі вже блокують хештеги, облікові записи та цілеспрямовані пошукові терміни, пов’язані з самоушкодженням і самогубством.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.