Ukrajinski Kyiv Independent poroča o lažnih profilih na tiktoku, X in drugih platformah, prek katerih se širijo videoposnetki, ustvarjeni z umetno inteligenco, podnaslovljeni pa so v več jezikih. Prikazujejo lažne posnetke »prisilne mobilizacije« 22- in 23-letnih moških na fronto.

Izhodiščni vir širjenja videoposnetkov naj bi bil račun na tiktoku, na katerem je objavljenih vsaj ducat posnetkov, ki prikazujejo osebe, ustvarjene z UI, oblečene pa so v uniforme ukrajinskih vojakov. Račun je anonimen in uporablja le vzdevek, vendar je njegov doseg ogromen – nekateri videoposnetki so prejeli več kot dva milijona ogledov.

V enem izmed najbolj viralnih posnetkov »ukrajinski vojak«, ustvarjen z UI, trdi, da so ga mobilizirali in poslali v mesto Časiv Jar v ukrajinski vzhodni Doneški oblasti. »Pomagajte mi, nočem umreti, star sem komaj 23 let,« pravi mladenič na videoposnetku.

Na posnetkih se prikazuje vodni žig sore

Kyiv Independent pravi, da so z uporabo orodja hive moderation ugotovili, da sta bila zvok in video ustvarjena z izjemno sposobnim modelom podjetja OpenAI za pretvorbo besedila v video. Na več videoposnetkih se celo prikazuje vodni žig »Sora«, ki identificira, da je vsebina ustvarjena z novo istoimensko aplikacijo podjetja OpenAI, ki jo poganja najnovejši model sora2.

Med lažmi, ki jih širijo zlonamerni profili, je tudi ta, da Ukrajina mobilizira 23-letnike. Ukrajinski zakon minimalno starost za mobilizacijo določa pri 25 letih. Mejo so leta 2024 spustili s 27 let.

V pogojih uporabe sore piše, da sme OpenAI uporabnikov cameo poustvarjati, distribuirati, modificirati, prikazovati in ga odigrati za namene izvajanja in promocije svojih storitev.

Aplikacija z več težavami kot rešitvami

Ukrajinski vladni center za boj proti dezinformacijam medtem trdi, da obraz vojaka, prikazanega v videoposnetku, pripada ruskemu državljanu, ne ukrajinskemu, vendar ni navedel nadaljnjih podrobnosti.

Da je na posnetkih celo kakšen resnični človek, niti ni tako nenavadno. Nova aplikacija sora je nekakšen odgovor na tiktok. Od njega se razlikuje zlasti po tem, da s soro ne snemaš videov, temveč jih ustvarjaš z besedilnimi pozivi. Vsebuje pa tudi možnost, da se uporabnik kameri nastavi z različnih zornih kotov, spregovori nekaj določenih besed, umetna inteligenca pa nato iz teh podatkov ustvari resničnemu človeku nadvse podoben digitalni avatar, ki lahko nastopa v uporabnikovih videih. V aplikaciji mu pravijo cameo – po vzoru hollywoodskega izraza za nastope zvezdnikov, ki se nepričakovano pojavijo v nekem prizoru filma ali serije.

Svoj cameo lahko uporabnik obdrži zase. Če želi, pa lahko izbere tudi bolj brezskrben odnos do varovanja svoje pojavne intelektualne lastnine. Lahko ga deli samo s posebej izbranimi osebami, ljudmi, s katerimi si medsebojno delijo camee, ali pa z vsemi. Seveda pa podatke o uporabnikovi fizični podobi in glasu ves čas hrani OpenAI. Podjetje za zdaj sicer trdi, da cameov ne uporablja za učenje umetne inteligence. V pogojih uporabe pa piše, da sme podjetje uporabnikov cameo poustvarjati, distribuirati, modificirati, prikazovati in ga odigrati za namene izvajanja in promocije svojih storitev. To pa se že sliši kot nekoliko bolj ohlapna zaščita pravic.

Nevarnost za posnetke iz maščevanja

Da je privoliti v to, da neko podjetje ustvari digitalizirano fizično podobo vas in vašega glasu, izredno slaba ideja, najbolje vidimo na primeru samega šefa OpenAI Sama Altmana. Ta je svoj cameo dal v prosto uporabo vsem uporabnikom sore, ti pa so ga začeli postavljati v najrazličnejše neugodne položaje. Od tatvin do ponižujočih posnetkov v mačjih kostumih.

Nevarnosti so zlasti velike za maščevalne posnetke, ko ste se nevede zamerili nekomu, ki ste mu dovolili dostop do camea. Model sora2 je zmožen proizvesti izredno prepričljive videe z dialogom in ambientalnim zvokom. Cameo lahko postavi v izredno širok nabor prizorov. Nazorni spolni prizori pa so blokirani.

Nič ne pomaga, če uporabnik lahko naknadno zahteva umik videa in ukine dostop do camea. Pred tem je zlonamerni uporabnik posnetek že izvozil iz aplikacije in odstranil vodni žig »Sora« z enim od orodij. Zdaj se posnetek že prosto širi po drugih družbenih omrežjih.

Ponesreči povabili ruske simpatizerje

OpenAI se je sicer vsaj malo potrudil, da bi tako potencialno škodljivo orodje za zdaj obdržal zunaj rok vseh zlonamernih akterjev. Za zdaj je aplikacija dostopna zgolj v ZDA, Kanadi, na Japonskem, v Južni Koreji, na Tajvanu, Tajskem in v Vietnamu. Se pa da priti vsaj na spletno stran aplikacije tudi v Sloveniji z uporabo enostavnega brezplačnega VPN. Večji problem je pridobiti možnost ustvarjanja vsebin in cameov z modelom sora2. To je na voljo le povabljenim uporabnikom, ki so pripravljeni plačati naročnino. Očitno je kakšno povabilo padlo tudi v roke ruskih simpatizerjev.

Gre za novo fazo v informacijski vojni Moskve proti Kijevu, s katero želi Rusija spodkopavati zaupanje v ukrajinsko vodstvo in slabljenje zahodne podpore, medtem opozarja Kyiv Independent.

»Informacijski prostor je bojišče, zato (Rusija) neutrudno dela, da bi potisnila svoje narative,« je za ukrajinski medij dejal Anton Kučuhidze, mednarodni politolog in soustanovitelj možganskega trusta United Ukraine. Zahod pa ji kar sam ustvarja orodje, lahko dodamo. Od facebooka do twitterja in zdaj še umetne inteligence. 

Priporočamo