Алгоспийк: Как страхът от алгоритмите ражда нов език и самоцензура в социалните мрежи?

Потребителите в социалните мрежи все по-често използват кодирани думи. „Unalived“ („умъртвен“, „убит“) заменя „killed“ („убит“). „Pew pews“ („пиф-паф“, „оръжия“) замества „guns“ („оръжия“). „Seggs“ („секс“) замества „sex“. Хората осъзнават, че звучат нелепо, но вярват, че алгоритмите санкционират видеа с „чувствителни“ думи. Тази практика се нарича algospeak („алгоспийк“, „алгоритмичен жаргон“) – език, изграден върху убеждението, че алгоритмите наказват определени термини.

YouTube, Meta и TikTok твърдят, че „забранени дума“ няма. Говорител на YouTube заявява пред BBC, че платформата няма списък със забранени изрази и че контекстът е ключов. Според компаниите алгоритмите насърчават разнообразие от теми и гледни точки.

Истината е по-сложна.

Манипулират ли платформите съдържанието?

Историята показва, че социалните мрежи са манипулирали видимостта на съдържанието. Това често влиза в противоречие с публичните им обещания за прозрачност. Такива решения са трудни за проследяване, защото потребителите не знаят защо дадено видео „умира“ в алгоритъма. Резултатът е масова самоналожена цензура, пише BBC.

Страхът от алгоритъма променя създателите на съдържание

Пример е Алекс Пърлман – популярен създател с милиони последователи. Той твърди, че алгоритмичната цензура е част от ежедневната му работа. Избягва да казва „YouTube“ в TikTok, защото според него видеата му се представят по-слабо.

По-опасни за него са теми като Джефри Епстийн. През август няколко негови видеа за Епстийн са премахнати само в TikTok. Апелите са отхвърлени. Платформата не посочва точното нарушение. След това Пърлман започва да нарича Епстийн „Островния човек“, за да избегне санкции. Част от публиката не разбира кодираното име.

Позицията на TikTok

TikTok отказва коментар по конкретния случай. Компанията обаче твърди, че потребителите се заблуждават за работата на алгоритмите.

Миналото ѝ разказва друга история:

– През 2019 г. изтича вътрешен документ, в който се казва, че „грозни“, бедни, хора с увреждания и ЛГБТ потребители трябва да бъдат ограничавани.
– Същите документи показват забрана за критика срещу правителства в някои региони.
– През 2023 г. TikTok призна, че разполага с тайна функция „heating“, която изстрелва избрани видеа към милиони гледания.

Други примери за ограничавано съдържание

YouTube също е подложен на критика. През 2019 г. група ЛГБТ създатели съди платформата заради предполагаема цензура на думи като „gay“ и „trans“. Делото е отхвърлено, а YouTube твърди, че такава политика никога не е съществувала.

Facebook и Instagram са критикувани за ограничаване на палестинско съдържание след атаките на „Хамас“ от 7 октомври 2023 г. Meta признава грешки, но отрича целенасочена цензура.

Култура на скритите правила

Проф. Сара Т. Робъртс от UCLA обяснява, че социалните мрежи прилагат правила, които не са ясни дори за опитните потребители. Това подхранва „народни теории“ за алгоритмите. Поведението на потребителите се адаптира. Кодиран език става част от културата.

Фалшивият музикален фестивал

През август 2025 г. хиляди потребители публикуват за измислен музикален фестивал в Лос Анджелис. Това е код за протести срещу миграционните рейдове на ICE. Идеята се ражда от убеждението, че платформите крият информация за протестите.

Шегата се превръща в код. Съдържанието става вирусно. Това усилва убеждението, че цензура наистина има, въпреки че лингвистът Адам Алексич казва, че няма доказателства за потискане на тези клипове.

„Алгоритмичната въобразеност“

Изследователите наричат това явление algorithmic imaginary. Хората променят поведението си въз основа на вярвания за алгоритмите, независимо дали те са верни. Така те самите оформят алгоритмите.

Илюзия или реалност?

Социалните мрежи твърдят, че не потискат теми като Епстийн, Газа или убийства. Ако думата „killed“ беше забранена, казват те, то „unalived“ също щеше да бъде санкционирана.

Създателите на съдържание обаче усещат друго. Те виждат резки колебания в гледанията. Някои смятат, че кодираният език помага. Други го правят, „за всеки случай“.

Алгоритмите следват парите

Според проф. Робъртс ключът е прост: платформите защитават бизнеса си. Алгоритмите и модерацията са насочени към максимален престой на потребителите в приложението, комфорт за рекламодателите и избягване на регулаторен натиск. Понякога това означава потискане на съдържание, което изглежда „рисково“.

Накъде оттук?

Социалните мрежи оформят публичния разговор. Те могат да го разширят или ограничат. Алгоспийк е симптом на недоверие в системите, които определят кой какво вижда.

Въпросът е дали обществото може да разчита на платформи, които работят преди всичко в интерес на собствената си печалба.

 

Източник: frognews

Видеа по темата

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини