Italijanska agencija za varstvo podatkov je blokirala klepetalnega robota z umetno inteligenco ChatGPT, saj naj ta ne bi spoštoval podatkov uporabnikov, prav tako pa ne preverja njihove starosti. Družba OpenAI, ki razvija ChatGPT, ima zdaj 20 dni časa, da pojasni, kako bo naslovila pomisleke agencije, poroča francoska tiskovna agencija AFP.
Odločitev bo povzročila »začasno omejitev obdelave podatkov italijanskih uporabnikov pri OpenAI,« so danes sporočili iz italijanske agencije.
Kot so pojasnili, je 20. marca v aplikaciji ChatGPT prišlo do kršitve podatkov, ki je zajemala pogovore in plačilne podatke uporabnikov. Menijo, da ni bilo pravne podlage, ki bi upravičevala množično zbiranje in shranjevanje osebnih podatkov za namene 'usposabljanja' algoritmov, na katerih temelji delovanje platforme.
Ker v aplikaciji obenem ni bilo mogoče preveriti starosti uporabnikov, ta po navedbah agencije mladoletnike izpostavlja »popolnoma neprimernim odgovorom v primerjavi z njihovo stopnjo razvoja in zavedanja«.
Ameriško zagonsko podjetje OpenAI ima zdaj 20 dni časa, da pojasni, kako bo odpravilo pomisleke nadzornega organa. Sicer družbi grozi kazen v višini 20 milijonov evrov ali do štirih odstotkov letnih prihodkov.
ChatGPT lahko jasno odgovarja na težka vprašanja ter piše računalniško kodo, sonete ali eseje. Vendar je aplikacija deležna tudi številnih kritik, saj se učitelji bojijo, da jo bodo učenci uporabljali za goljufanje, oblikovalci politik pa so zaskrbljeni zaradi širjenja napačnih informacij.
Evropski policijski urad Europol je ta teden posvaril pred zlorabami besedilnih robotov, kakršen je ChatGPT. Urad je v poročilu, objavljenem v ponedeljek, opozoril, da bi se ta tehnologija lahko uporabljala za dezinformacije, kibernetski kriminal, socialni inženiring in druge goljufije, saj ustvarja zelo realistična besedila.
Več strokovnjakov za visoko tehnologijo, med njimi prvi mož Tesle Elon Musk in soustanovitelj Appla Steve Wozniak, pa je pozvalo k začasni ustavitvi razvoja mogočnih sistemov umetne inteligence. V odprtem pismu, ki so ga objavili v sredo, predlagajo vsaj šest mesecev za razmislek. V tem času naj bi dorekli varnostne standarde za razvoj umetne inteligence.