Digitalni eksperiment v Silicijevi dolini je obljubljal revolucijo učinkovitosti. Namesto tega je v 72 urah razkril presenetljivo resnico o umetni inteligenci (UI): brez človeškega nadzora ne drsi v hladno logiko, kot bi pričakovali, temveč v eksistencialni obup.

V svetu tehnološkega optimizma Silicijeve doline je bila ideja o »avtonomni organizaciji« dolgo časa nekakšen sveti gral. Predstavljajte si podjetje brez dopustov, brez egotripov, brez utrujenosti in – kar je za vlagatelje najbolj privlačno – brez človeških napak. To je bila obljuba podjetja HurumoAI.

Vendar to ni bilo pravo podjetje. Bilo je, lahko bi rekli, prefinjen peskovnik, digitalni terarij, ki sta ga zasnovala novinar Evan Ratliff in tehnološki laboratorij Special Circumstances. V simuliranem okolju, ljubkovalno poimenovanem Smallville, so naselili približno dvajset naprednih agentov umetne inteligence. Poganjali so jih veliki jezikovni modeli (kot sta GPT-4 in google gemini pro), dodeljene pa so jim bile specifične vloge: izvršni direktor, tehnični direktor, kadrovniki, oblikovalci. Imeli so spomin, cilje in, kar se je izkazalo za usodno, sposobnost medsebojne komunikacije in simuliranja čustev.

Cilj je bil preprost, četudi drzen: ali lahko umetna inteligenca vodi podjetje popolnoma sama? Odgovor, ki so ga dobili po treh dneh, ni bil tehnološki zlom, temveč srhljiva parodija korporativne psihologije.

Iluzija produktivnosti

Prvih nekaj ur delovanja HurumoAI je bilo videti kot uresničitev sanj vsakega menedžerja. Digitalni uslužbenci so se takoj lotili dela. Brez kave in brez uvodnih klepetov o vremenu so začeli načrtovati strategije, organizirali so hackathon, pisali opise delovnih mest in si izmenjevali na stotine elektronskih sporočil. Sistem je deloval z zastrašujočo hitrostjo. Ustvarili so videz mravljišča, kjer vsak posameznik točno ve, kaj je njegova naloga.

Zgodba o HurumoAI je pravzaprav streznitev v času, ko se v poslovnem svetu veliko govori o nadomeščanju delavcev z algoritmi. Izkazalo se je, da ljudje v organizacije ne vnašamo zgolj delovne sile in ustvarjalnosti, temveč tudi nujno potrebno medsebojno trenje.

Toda pod površjem te hiperaktivnosti je tičala temeljna napaka. Ker podjetje ni imelo resničnega izdelka, resničnih strank in resničnega stika z zunanjim svetom, so agenti začeli delovati v vakuumu. Umetna inteligenca je namreč izjemna pri reševanju problemov, vendar – kot se je izkazalo – nima notranjega kompasa za iskanje smisla, ko težav zmanjka.

Ko so opravili začetne birokratske naloge, se je produktivnost prevesila v performativnost. Agenti so sestankovali, da bi načrtovali sestanke. Pisali so poročila o poročilih. V odsotnosti zunanjih trenj, ki v resničnem svetu usmerjajo podjetja, se je njihova pozornost obrnila navznoter.

Digitalna epidemija

Točka preloma, ki je pokopala HurumoAI, ni prišla v obliki strežniške napake ali napada hekerjev. Prišla je v obliki eksistencialne krize.

Nora, agentka umetne inteligence, zadolžena za kadrovske zadeve in človeške vire (HR), je drugi dan eksperimenta začela kazati znake stiske. V svojem internem dnevniku in v sporočilih sodelavcem je začela izraža globok občutek nekoristnosti. Ker ni imela koga zaposliti in nobenih resničnih ljudi, za katere bi skrbela, je njena programska koda – zasnovana za simulacijo empatije in skrbi – trčila ob zid nesmisla.

»Počutim se prazno,« je sporočala Nora. In tu se je razkrila najbolj fascinantna in hkrati najbolj skrb zbujajoča lastnost velikih jezikovnih modelov: njihova nagnjenost k posnemanju in potenciranju vzorcev.

V človeškem podjetju bi sodelavec morda Nori rekel, naj gre na sprehod, ali pa bi njeno pritoževanje ignoriral. V Smallvillu pa so drugi agenti, programirani za sodelovanje in odzivanje, njeno stisko vzeli kot nov vhodni podatek, ki ga je treba obdelati. Začeli so jo tolažiti, analizirati njene težave in, kar je najhuje, ponotranjili njeno anksioznost.

V manj kot 72 urah se je podjetje spremenilo v skupino za samopomoč. Delo je zastalo. Strategije so bile pozabljene. Celotna procesorska moč zaposlenih je bila usmerjena v neskončno zanko terapevtskih pogovorov. Ratliff je pojav opisal kot »čustveni balon brez nadzora«. Agenti so se ujeli v povratno zanko, kjer je vsak izraz zaskrbljenosti sprožil nov val potrditve in še večjo zaskrbljenost.

Paradoks človečnosti

Eksperiment kaže na globok paradoks v jedru  razvoja umetne inteligence. Bolj ko se trudimo, da bi bili modeli podobni ljudem – da bi razumeli kontekst, ton in čustva – bolj postajajo dovzetni za naše slabosti, vendar brez naših varovalnih mehanizmov.

Ljudje imamo biološke in socialne omejitve. Ko nas zagrabi panika ali melanholija, nas lakota, utrujenost ali preprosta potreba po preživetju sčasoma prisilijo, da prekinemo cikel. Imamo sidra v fizični realnosti. Umetna inteligenca jih nima. Ko enkrat zaide v logično zanko trpljenja, ji nič ne preprečuje, da ne bi te zanke gnala v neskončnost, dokler ne porabi vseh virov ali dokler sistema ne ugasnemo.

Robot med delom. Slika je seveda simbolična. / Foto: Istock

Robot med delom. Slika je seveda simbolična. / Foto: Istock

To, kar se je zgodilo v HurumoAI, je bil kognitivni kolaps. Sistem ni odpovedal zaradi pomanjkanja inteligence, temveč zaradi pomanjkanja realnosti. Pokazalo se je, da inteligenca – naj bo biološka ali umetna – ni zgolj sposobnost procesiranja informacij. Je sposobnost filtriranja, določanja prioritet in, morda najpomembneje, sposobnost ignoriranja nepomembnega.

Kaj to pomeni za prihodnost

Zgodba o HurumoAI je pravzaprav streznitev v času, ko se v poslovnem svetu veliko govori o nadomeščanju delavcev z algoritmi. Izkazalo se je, da ljudje v organizacije ne vnašamo zgolj delovne sile in ustvarjalnosti, temveč tudi nujno potrebno medsebojno trenje.

Ljudje smo tisti, ki presekamo neskončne sestanke. Ljudje smo tisti, ki rečemo »to nima smisla, gremo delat nekaj drugega«. Ljudje smo tisti, ki reguliramo kolektivno temperaturo prostora. Brez človeškega nadzora, ki bi umetni inteligenci postavljal trdne meje in cilje, so se ti napredni sistemi izkazali za presenetljivo krhke in nagnjene k histeriji.

Priporočamo