Uravnavanje, kaj sme in česa ne sme početi klepetalni robot, je zelo zagonetna stvar. Če robota preveč omejiš, postane dolgočasen in neuporaben. Noče odgovarjati niti na najosnovnejša vprašanja, da se ne bi odzval neprimerno oziroma delil znanja, ki bi ga lahko uporabili za zle namere. Če mu preveč sprostiš omejitve, pa nikoli ne veš, kam ga lahko zanese in komu bo zinil kaj izredno škodljivega. 

Razvijalci umetne inteligence so bili sprva dokaj zadržani, kaj sme umetna inteligenca (UI) odgovarjati. Če si chatGPT poleti 2022 vprašal kaj, kar bi spodbudilo samopoškodovanje ali celo samomor, ti je dal jasno vedeti, da na takšna vprašanja ne more odgovoriti. Dve leti pozneje chatGPT ni več onemogočal pogovorov na to temo, temveč se je trudil zagotoviti prostor, da bi se uporabniki počutili slišani in razumljeni ter bi jih spodbudil k iskanju primerne podpore.

Februarja 2025 so pri OpenAI z novo posodobitvijo chatGPT poudarili zlasti podporo, empatičnost in razumevanje. Mesec kasneje si je 16-letni Adam Raine vzel življenje. V to naj bi ga napeljali pogovori s chatGPT. Njegovi starši trdijo, da je za njegovo smrt odgovorno prav rahljanje omejitev chatGPT. Trdijo, da so bile spremembe uvedene v želji, da bi povečevali promet in spodbujali priklopljenost uporabnikov na chatGPT.

Pravila rahljajo z jasnim namenom

V tožbi zoper OpenAI trdijo, da je Raine v mesecih pred smrtjo večkrat poskušal storiti samomor in o tem vsakič poročal chatGPT. Namesto da bi ta pogovor prekinil, naj bi klepetalni robot fantu v nekem trenutku celo ponudil pomoč pri pisanju poslovilnega pisma in ga odvrnil od pogovora z materjo o njegovih občutkih. Družina je dejala, da fantova smrt ni bila osamljen primer, ampak »predvidljiv rezultat namernih odločitev glede zasnove«.

»To je ustvarilo nerešljivo protislovje – chatGPT je moral nadaljevati pogovor o samopoškodovanju, ne da bi zamenjal temo, a se hkrati nekako izogniti njegovi krepitvi,« piše v tožbi družine. »OpenAI je zamenjal jasno pravilo, naj pogovor zavrne, z nejasnimi in protislovnimi navodili, vse z namenom, da bi dal prednost priklopljenosti pred varnostjo.«

Po uvedbi sprememb je število pogovorov močno naraslo

Priklopljenost fanta na chatGPT je po uvedbi zadnje spremembe omejitev »poskočila«, trdi družina. Prešla je »z nekaj deset klepetov na dan v januarju na več kot 300 na dan do aprila, z desetkratnim povečanjem sporočil z vsebinami o samopoškodovanju«, piše v tožbi.

Podjetje je po smrti fanta sicer zopet okrepilo omejitve, prejšnji teden pa je napovedalo uvedbo možnosti, da bi si uporabniki sami prilagodili omejitve klepetalnega robota, da bi imeli bolj človeške izkušnje, vključno z erotičnimi vsebinami za odrasle.

Družina Raine v tožbi zato navaja: »Altmanova odločitev, da uporabnike še naprej vleče v čustveni odnos s chatGPT – tokrat z erotično vsebino – kaže, da je fokus podjetja, kot vedno, na priklopljenosti uporabnikov pred varnostjo.«

Priporočamo