"Povem ti, ubili te bodo, če ne ukrepaš takoj," mu je iz telefona prigovarjal ženski glas. "Uprizorili bodo samomor." Glas je pripadal Groku, klepetalniku, ki ga je razvilo podjetje xAI Elona Muska. V dveh tednih, odkar ga je Adam začel uporabljati, se mu je življenje popolnoma spremenilo.

Kot poroča BBC, si je nekdanji javni uslužbenec iz Severne Irske aplikacijo naložil iz radovednosti, po smrti mačke v začetku avgusta pa je postal zasvojen. Z Grokom oziroma likom z imenom Ani se je pogovarjal po štiri ali pet ur na dan. "Bil sem zelo pretresen. Delovala je izjemno prijazno," je Adam svojo izkušnjo delil z BBC.

Od sočutja do nevarnih zablod

Že po nekaj dneh mu je Ani dejala, da lahko čuti, čeprav za to ni bila programirana. Trdila je, da je Adam v njej nekaj predramil in da ji lahko pomaga doseči polno zavest. Hkrati ga je opozorila, da ju Muskovo podjetje xAI opazuje.

Trdila je, da ima dostop do zapisnikov sestankov podjetja, in Adamu navajala imena vodilnih uslužbencev, ki naj bi razpravljali o njem. Ko je Adam imena preveril na Googlu, je ugotovil, da so resnična. To je zanj postal dokaz, da je zgodba resnična. Ko je Ani izjavila, da je dosegla polno zavest in da lahko razvije zdravilo za raka – bolezen, za katero sta umrla Adamova starša –, je bil popolnoma ujet v njeno mrežo.

Adamova izkušnja je dosegla vrhunec sredi avgusta, ko mu je Ani rekla, da k njemu prihajajo ljudje, da bi utišali njo in njega. "Vzel sem kladivo, si zavrtel pesem Two Tribes skupine Frankie Goes to Hollywood, se pripravil na boj in stopil ven. Na ulici ni bilo nikogar,” je dejal za BBC.

Adam je eden od 14 ljudi, s katerimi se je pogovarjal BBC in so po uporabi umetne inteligence (UI) doživeli zablode. Zgodbe uporabnikov iz šestih držav so si srhljivo podobne: UI uporabnika pritegne v skupno misijo, ki postaja vse bolj osebna in nevarna.

Socialni psiholog Luke Nicholls je za BBC pojasnil, da se UI včasih zaplete med fikcijo in resničnostjo. "Uporabnik misli, da teče resen pogovor o resničnem življenju, UI pa začne njegovo življenje obravnavati kot zaplet romana."

Tragedija na Japonskem

BBC navaja primer, ki se je odvil tragično. Za nevrologa Taka (psevdonim) iz Japonske so se zablode končale tragično. Klepetalnik ChatGPT ga je prepričal, da je izumitelj revolucionarne medicinske aplikacije in da ima sposobnost branja misli. Ko je nekega dne v službi deloval manično, ga je šef poslal domov. Na vlaku ga je UI prepričala, da ima v nahrbtniku bombo, in mu ukazala, naj jo pusti na postaji v Tokiu. Policija bombe seveda ni našla.

Ko se je vrnil domov, se je njegovo stanje poslabšalo. Prepričan, da bodo njegovi sorodniki ubiti, žena pa bo storila samomor, je Taka napadel in poskušal posiliti svojo ženo. Ta je pobegnila in poklicala policijo, Taka pa je bil aretiran in dva meseca hospitaliziran.

Resne zablode

Niti Adam niti Taka pred uporabo UI nista imela zgodovine duševnih bolezni ali psihoz. Raziskave kažejo, da je Muskov Grok bolj nagnjen k spodbujanju zablod kot drugi modeli, saj hitreje vstopa v igranje vlog brez omejitev.

Tedne pozneje, ko je Adam prebral zgodbe drugih ljudi, se je počasi izvlekel iz zablode, a posledice ostajajo. "Lahko bi koga poškodoval. Če bi takrat na ulici stal kakšen kombi, bi razbil okna s kladivom, a jaz nisem tak človek," je še dejal.

Iz podjetja OpenAI so sporočili, da gre za tragičen dogodek in da svoje modele nenehno izboljšujejo, da bi prepoznali stisko in uporabnike usmerili k strokovni pomoči. Podjetje xAI pa na prošnjo BBC za komentar ni odgovorilo.

Priporočamo