Podjetje OpenAI je pred dobrim letom javnosti prvič predstavilo svoj model umetne inteligence »sora«, ki zmore iz zapisanih navodil ustvariti zelo prepričljive videoposnetke. Širša javnost je lahko do nedavnega zgolj opazovala posamezne izdelke, ustvarjene s to umetno inteligenco, prejšnji teden pa je za kratek čas postala dostopna vsem, ki so bili dovolj hitri.
Skupina umetnikov, ki je imela dostop do sore, je namreč na spletu objavila dostop do modela. Družbena omrežja so hitro preplavili posnetki dojenčkov v vodi, psov na rolkah in mnogih, mnogih mačk v različnih scenarijih. Nekaj ur kasneje je bilo zabave konec. Podjetje OpenAI je opazilo nepooblaščeni dostop in zamrznilo testni dostop do sore.
Razlog za »zgodnji dostop« je bil spor med OpenAI in skupino umetnikov, ki so imeli dostop do modela. Ameriško podjetje je namreč takoj po javni predstavitvi sore lani najavilo testni program za umetnike, ki so lahko preizkusili delovanje modela in OpenAI s tem pomagali najti razsežnosti zmogljivosti modela in težav, ki bi zaradi modela lahko nastale. Umetniki, združeni v skupino PR Puppets, zdaj trdijo, da so jih pri OpenAI s testnim programom zlorabili kot neplačane preizkuševalce umetne inteligence.
Sora že ima konkurenco
»Ne nasprotujemo umetni inteligenci kot orodju v umetnosti (če bi, nas verjetno ne bi povabili v ta program),« so v obrazložitvi poteze zapisali v PR Puppets. »Ne strinjamo pa se s tem, kako je bil program za umetnike izpeljan in kakšno obliko dobiva pred morebitnim javnim dostopom. To delimo s svetom v upanju, da bi OpenAI postal bolj odprt, bolj prijazen do umetnikov in da bi podpiral umetnike tudi onkraj PR-akcij.« Motilo naj bi jih zlasti, da mora OpenAI odobriti vsako objavo izdelkov, ki so jih ustvarili s soro, in da večina umetnikov od dela z modelom ne bo imela nobene koristi.
Pri OpenAI medtem pravijo, da je sodelovanje v programu prostovoljno in da od umetnikov tudi ne zahtevajo nobenih povratnih podatkov ali uporabe orodij, ki so jih pri OpenAI razvili. Ob tem izpostavljajo, da je sora še vedno v fazi preizkušanja in da še ni primerna za javni dostop. Zlasti želijo preveriti vse težave, ki jih lahko povzroči, in omejiti škodljive učinke tehnologije. Ustvarjanje izredno realističnih videoposnetkov je namreč še bolj nevarno za širjenje dezinformacij, kot velja za širjenje z umetno inteligenco ustvarjenih ali prirejenih fotografij.
Čeprav je bila pred dobrim letom sora najbolj zanimiva novost na področju umetne inteligence, ki zna iz besedila narediti videoposnetke, je danes na voljo že več izdelkov. Med drugim kitajski minimax, ki omogoča omejeno brezplačno ustvarjanje videoposnetkov. Svoja modela imata tudi Google in Meta, ki pa v Sloveniji še nista dostopna. Kdaj bo sora uradno javno dostopna, za zdaj še ni znano.