Raziskovalci z Univerze v Pensilvaniji ugotavljajo, da umetna inteligenca poleg dveh klasičnih načinov razmišljanja – hitrega, intuitivnega (Sistem 1) in počasnega, analitičnega (Sistem 2) – uvaja še tretjega. Poimenovali so ga »umetna kognicija«, pri kateri sklepanje poteka zunaj človeka, v algoritmih.

Nadalje so ugotovili, da uporabniki umetne inteligence njenim odgovorom pogosto verjamejo – tudi kadar so napačni. Nova raziskava opozarja na pojav "kognitivne predaje", pri katerem ljudje opuščajo lastno presojo in se zanašajo na navidezno avtoritativne odgovore velikih jezikovnih modelov.

Od razbremenitve do predaje

Uporaba orodij za "kognitivno razbremenitev" ni nič nenavadnega. Ljudje že dolgo uporabljamo kalkulatorje ali navigacijo v avtomobilih. Gre za strateško delegiranje določenih nalog zanesljivim avtomatiziranim algoritmom. Kakor pa ve vsak voznik, ki ga je navigacija že usmerila na kriva pota, tudi tej tehnologiji ne gre vselej verjeti. Zato ji pogosto tudi pogledamo pod prste in ne sprejmemo vselej njenih predlogov za "najhitrejšo" pot do cilja. Se pravi, da še naprej uporabljamo lastno notranje sklepanje za nadzor in vrednotenje rezultatov. 

Raziskovalci medtem trdijo, da so sistemi UI povzročili kategorično drugačno obliko "kognitivne predaje", pri kateri uporabniki pokažejo "minimalno notranjo angažiranost" in v celoti sprejmejo sklepanje umetne inteligence brez nadzora ali preverjanja.

Eksperimenti, ki so temeljili na testih kognitivne refleksije (CRT), so pokazali, kako izrazit je ta učinek. Udeleženci so pri reševanju nalog imeli dostop do klepetalnika, ki je bil prirejen, da je v polovici primerov namerno ponujal napačne odgovore. Ko je UI odgovarjala pravilno, so ji verjeli v 93 odstotkih primerov. Presenetljivo pa so napačne odgovore sprejeli kar v 80 odstotkih primerov.

Prisotnost umetne inteligence tako po ugotovitvah raziskovalcev pogosto "izpodrine notranje razmišljanje". Še bolj zaskrbljujoče: uporabniki, ki so uporabljali UI, so bili v svoje odgovore celo bolj samozavestni – za 11,7 odstotka – kljub temu da je bila polovica teh napačnih.

Vloga spodbud in časovnega pritiska

Na vedenje pomembno vplivajo tudi okoliščine. Denarne spodbude in takojšnje povratne informacije so povečale verjetnost, da so udeleženci zavrnili napačne odgovore, medtem ko je časovni pritisk imel nasproten učinek. Ob 30-sekundni omejitvi so bili bistveno manj pripravljeni preverjati pravilnost odgovorov.

Skupno so udeleženci napačno sklepanje umetne inteligence sprejeli v 73,2 odstotka primerov, zavrnili pa le v petini.

Raziskovalci zato opozarjajo, da tekoči in samozavestni odgovori umetne inteligence znižuje kritičnost uporabnikov. Slednji nato sprejemajo tudi napačne odgovore z minimalnim dvomom.

Vendar pa vsi niso enako dovzetni. Posamezniki, ki so bolj nagnjeni k reševanju novih in neznanih problemov s pomočjo logike in prepoznavanjem vzorcev, ne da bi se pri tem zanašali na predhodno naučeno znanje ali izkušnje, so se manj zanašali na UI in pogosteje prepoznali njene napake. Nasprotno pa so tisti, ki umetno inteligenco dojemajo kot avtoriteto, bistveno pogosteje sprejeli napačne odgovore.

Priporočamo