Digitalna doba je spodbudila nov, skrivni besednjak. Uporabniki družbenih omrežij so v strahu pred nevidnimi cenzorji namreč razvili »algogovor«, jezik, v katerem se resne teme skrivajo za otročjimi evfemizmi, resnica pa postaja talka dobičkonosnosti.
Če bi v zadnjih nekaj mesecih brskali po tiktoku ali instagramu, bi morda dobili občutek, da se je svet vrnil v vrtec. Odrasli ljudje, ki razpravljajo o geopolitičnih konfliktih, spolnem nasilju ali pandemijah, nenadoma uporabljajo besednjak, ki bi bil bolj primeren za risanke. Orožje je, denimo, postalo pokpok. Ljudje ne umrejo ali niso ubiti, temveč so odživljeni (»unalived«). Spolni odnosi so se prelevili v »seggs«.
To ni nova oblika najstniškega slenga, ki bi organsko zrasla iz želje po uporu. To je algogovor (angl. algospeak) – preživetvena strategija v digitalnem panoptiku, je te dni poročal BBC. Uporabniki so namreč prepričani, da tehnološki velikani s pomočjo umetne inteligence in avtomatiziranih moderatorjev sistematično dušijo vsebine, ki vsebujejo »prepovedane« besede. Posledica? Množična avtocenzura, ki spreminja način, kako kot družba komuniciramo o najtežjih temah našega časa.
In takšen odnos ni omejen zgolj na angleški jezik, pač pa algoritmi omejujejo tudi druge jezike, čeprav, sodeč po izkušnjah uporabnikov, vendarle manj rigorozno kot angleške izraze.
Nevidna roka
Uradno stališče Silicijeve doline je jasno in usklajeno: teorije zarote o seznamih prepovedanih besed so mit. Predstavniki Youtuba, Mete (facebook, instagram) in Tiktoka v en glas zatrjujejo, da njihovi sistemi razumejo kontekst. »Naši pravilniki odražajo razumevanje, da imajo besede različne pomene in namene,« je za BBC povedal predstavnik Youtuba Boot Bullwinkle. Trdijo, da ne obstaja skrivni leksikon, ki bi avtomatično obsodil vašo objavo na digitalni izbris.
Vendar pa zgodovina in preiskovalno novinarstvo rišeta drugačno sliko, sliko, v kateri sta transparentnost in nevtralnost pogosto marketinški floskuli.
Strokovnjaki opozarjajo, da čeprav morda ne obstaja dobeseden seznam posameznih besed, ki sprožijo alarm, platforme nedvomno manipulirajo z dosegom vsebin. Leta 2019 so pricurljali dokumenti, ki so razkrili, da je Tiktok svojim moderatorjem naročil, naj omejujejo doseg videoposnetkov uporabnikov, ki so grdi, revni ali invalidni, z utemeljitvijo, da takšna vsebina ustvarja manj privlačno okolje za nove uporabnike. Čeprav je podjetje kasneje trdilo, da je šlo za zastarel ukrep proti ustrahovanju, je izguba zaupanja ostala. Še bolj skrb zbujajoče je bilo razkritje o gumbu za »segrevanje« (heating button), orodju, ki zaposlenim omogoča, da ročno izberejo videoposnetke in jih naredijo viralne, pogosto z namenom iskanja poslovnih partnerstev.
»Če imajo gumb za segrevanje, imajo zagotovo tudi gumb za hlajenje,« je nedavno komentiral Alex Pearlman, ustvarjalec vsebin z milijoni sledilcev, ki je na lastni koži občutil moč nevidnega urejanja.
Znan je po svojih komičnih, vendar ostrih političnih komentarjih. Postal pa je študija primera za to, kako algoritmična nejasnost vodi v absurdnost. Ko je lani poleti objavljal vsebine o Jeffreyju Epsteinu, pokojnem finančniku in spolnem prestopniku, je opazil nenavaden vzorec. Njegovi videoposnetki na tiktoku so bili množično odstranjeni brez jasnega pojasnila, medtem ko so na drugih platformah ostali nedotaknjeni.
Soočen s črno skrinjico, ki ne daje odgovorov, ampak samo kazni, se je Pearlman zatekel k šifriranju. Epstein je postal »mož z otoka« (The Island Man). Njegova publika je razumela namig, algoritem pa je bil – vsaj začasno – pretentan.
Težava kodiranega jezika
Toda ta zmaga je pirova. »Težava kodiranega jezika je v tem, da velik del občinstva ne bo vedel, o čem govorite,« je opozoril Pearlman. Ko postanejo novice o spolnih zlorabah ali politični korupciji zavite v uganke, se izgubi jasnost, ki je nujna za informirano javnost. V svetu, kjer družbena omrežja za mnoge predstavljajo glavni vir informacij, to pomeni, da nekatere ključne ideje in novice nikoli ne dosežejo širše javnosti.
Najbolj fascinanten – in morda najnevarnejši – vidik tega pojava ni nujno tehnološka cenzura sama po sebi, temveč psihološki odziv uporabnikov nanjo, svarijo strokovnjaki. Raziskovalci to imenujejo »algoritemski imaginarij«. Uporabniki na podlagi drobcev informacij, govoric in lastnih izkušenj gradijo teorije o tem, kako sistem deluje, in temu prilagajajo svoje vedenje.
Včasih ta kolektivna paranoja ustvari popolne fikcije.
Avgusta 2025 so družbena omrežja preplavili posnetki navdušenih obiskovalcev novega glasbenega festivala v Los Angelesu. Omenjali so nastope zvezdnikov in svetlobne šove. Toda festivala sploh ni bilo. »Glasbeni festival« je bila šifra za proteste proti racijam ameriške imigracijske službe (ICE).
Aktivisti so bili prepričani, da tehnološka podjetja namerno skrivajo novice o protestih, zato so uporabili lažni kontekst, da bi prevarali algoritem.
Kje so meje
Nekateri strokovnjaki opozarjajo, da razlogov ne gre iskati v zarotah. Družbena omrežja so v svojem bistvu namreč oglaševalske platforme. Njihov cilj ni spodbujanje svobode govora ali politični aktivizem, temveč ustvarjanje okolja, ki je varno in prijetno za oglaševalce. Besede, kot so smrt, posilstvo in genocid, niso nujno politično nevarne za platformo, so pa slabe za posel. Nobena blagovna znamka pijač ali avtomobilov ne želi, da se njihov oglas vrti tik ob razpravi o vojnih zločinih.
Zaradi tega so pravila moderiranja pogosto nevidna in težka. Uporabniki, ki se znajdejo v tem kolesju, redko vedo, kje so meje. Posledica je kultura strahu, kjer se ljudje preventivno cenzurirajo bolj, kot bi bilo morda treba.
Dolgoročne posledice tega pojava pa so vendarle lahko globoke. Jezik se spreminja. Resne teme postajajo trivializirane, ker moramo o njih govoriti, kot da so igra. Ko aktivistka za človekove pravice pravi, da, prevedeno iz angleščine, »metanje vsega v steno in opazovanje, kaj se prime« postaja edina strategija komuniciranja, kaže na popoln razpad zaupanja v digitalno javno sfero.