Podjetje pravi še, da približno 560.000 oziroma okoli 0,07 odstotka od 800 milijonov tedenskih uporabnikov kaže »morebitne znake nujnih duševnih stanj, povezanih s psihozo ali manijo«. Podjetje sicer izpostavlja, da je pogovore s takšno vsebino težko zaznati in da gre šele za začetno analizo.
Podjetje hkrati trdi, da je najnovejši model GPT-5 bolje usposobljen za občutljive teme in da se je število neželenih odgovorov bota zmanjšalo. Novi model GPT-5 naj bi bil več kot 91-odstotno skladen z odzivi, ki bi si jih podjetje želelo na občutljiva vprašanja. Prejšnja različica bota je bila 77-odstotno skladna.
Za primernejše odgovore angažirali 170 strokovnjakov
Za izboljšanje modela je podjetje v zadnjih mesecih angažiralo 170 zdravstvenih strokovnjakov. Ocenjevali so varnost okoli 1800 odzivov bota in mu pomagali pri pisanju odgovorov na vprašanja, povezana z duševnim zdravjem.
Kritiki sicer opozarjajo, da so šle zadnje posodobitve chatGPT zlasti v smeri povečanja aktivnosti uporabnikov. Tako bot po odgovoru na vprašanja uporabnikom ponuja dodatne iztočnice za nadaljevanje pogovora. Hkrati se skoraj bolestno prilizuje uporabniku ter hvali njegova stališča, prepričanja in mnenja, četudi v nadaljevanju predstavi alternativne odgovore, ki nakazujejo, da se je uporabnik motil. Strokovnjake zlasti skrbi, da lahko umetna inteligenca, ki želi ugajati uporabniku, krepi njegove zablode.
Strokovnjaki za duševno zdravje so hkrati zaskrbljeni, da se ljudje v preveliki meri zatekajo k umetni inteligenci po psihološko podporo. Opozarjajo, da bi to lahko škodovalo ranljivim uporabnikom.
Družina jih toži zaradi samomora 16-letnika
Šef OpenAI Sam Altman sicer meni, da so bota naredili precej bolj previdnega pri težavah z duševnim zdravjem. »Zavedamo se, da je to zmanjšalo uporabnost/užitek številnim uporabnikom, ki nimajo težav z duševnim zdravjem, toda glede na resnost problema smo želeli stvari narediti prav,« je na omrežju X pred kratkim objavil Altman. »Zdaj, ko nam je uspelo omiliti resne težave z duševnim zdravjem in imamo nova orodja, bomo lahko v večini primerov varno sprostili omejitve.«
Objavo raziskave o razširjenosti vprašanj v zvezi s samomori je OpenAI najverjetneje objavil zaradi tožbe, ki jo je zoper podjetje vložila družina pokojnega 16-letnika Adama Raina. Temu je chatGPT pomagal pri izvedbi samomora in ga odvračal od pogovora z mamo o čustvenih stiskah.
Družina pravi, da je mladoletnik izgubil življenje tudi zato, ker je OpenAI svojo umetno inteligenco razvil na način, da uporabnike spodbuja k nadaljevanju začetih pogovorov.