Hiperrealistični videozapisi generirani s pomoću AI izazivaju krizu povjerenja na internetu

Foto: Pixabay

Neprekidni niz hiperrealističnih, kratkih videa koje stvara umjetna inteligencija prosječnom korisniku ispočetka djeluje zapanjujuće i hipnotizirajuće. No, ta poplava AI uradaka pokreće i novu potrebu za preispitivanjem svakog sadržaja kao stvarnog ili lažnog.

Aplikacija Sora prešla je milijun preuzimanja u manje od tjedan dana nakon njezina lansiranja, nadmašivši tako početni rast ChatGPT-a. Sora je također dosegla vrh App Storea u SAD-u. Zasad je aplikacija dostupna samo korisnicima iOS-a u Sjedinjenim Državama i ljudi joj ne mogu pristupiti osim ako nemaju pozivni kod.

Da bi koristili aplikaciju, ljudi moraju skenirati svoja lica i pročitati tri broja prikazana na zaslonu kako bi sustav snimio glasovni potpis. Nakon što to učine, korisnici mogu upisati prilagođeni tekstualni upit i stvoriti hiperrealistične 10-sekundne videozapise s pozadinskim zvukom i dijalogom.

Putem značajke pod nazivom “Cameos”, korisnici mogu umetnuti svoje lice ili lice prijatelja u bilo koji postojeći videozapis. Iako svi konačni proizvodi aplikacije nose vidljivi vodeni žig koji ukazuje da je materijal generiran s pomoću AI-a, sve je više web stranica koje nude uklanjanje vodenog žiga za Sora videozapise.

Prilikom lansiranja aplikacije, tvrtka OpenAI površno je pristupila provođenju ograničenja autorskih prava i dopustila je ponovno stvaranje materijala zaštićenog autorskim pravima prema zadanim postavkama. Tako su korisnici počeli generirati AI videozapise s likovima iz naslova poput “SpongeBob SquarePants”, “South Park” i “Breaking Bad”, te videozapise stilizirane prema kvizu “The Price Is Right” i humorističnoj seriji iz 90-ih “Friends”.

Zatim je uslijedila rekonstrukcija mrtvih slavnih osoba, uključujući Tupaca Shakura koji luta ulicama Kube, Hitlera koji se suočava s Michaelom Jacksonom i remikse velečasnog Martina Luthera Kinga Jr. koji drži svoj kultni govor “I Have A Dream” – ali pozivajući na oslobađanje osramoćenog repera Diddyja.

„Molim vas, samo mi prestanite slati AI videozapise tate“, objavila je Zelda Williams, kći pokojnog komičara Robina Williamsa, na Instagramu. „Ne stvarate umjetnost, stvarate odvratne, preobrađene hrenovke od života ljudskih bića, od povijesti umjetnosti i glazbe, a zatim ih gurate u nečije grlo, nadajući se da će vam dati mali palac gore i da će vam se svidjeti. Odvratno.“

Druge rekonstrukcije mrtvih slavnih osoba – uključujući Kobea Bryanta, Stephena Hawkinga i predsjednika Kennedyja – stvorene na Sori objavljene su na društvenim mrežama, prikupivši milijune pregleda.

Hollywoodske agencije za talente i sindikati počeli su optuživati ​​OpenAI za nepravilnu upotrebu likova. Središnja napetost svodi se na kontrolu nad korištenjem likova glumaca i licenciranih likova – i pravednu naknadu za njihovo korištenje u AI videozapisima.

Nakon zabrinutosti Hollywooda oko autorskih prava, glavni izvršni direktor OpenAI-a Sam Altman podijelio je objavu na svom blogu, obećavajući veću kontrolu za nositelje prava da odrede kako se njihovi likovi mogu koristiti u AI videozapisima, ali i spremnost da se istraže načine dijeljenja prihoda s nositeljima prava.

Također je rekao da studiji sada mogu “pristati” na korištenje svojih likova u AI rekonstrukcijama, što je obrat od izvornog stava OpenAI-a o režimu isključivanja.

Budućnost, prema Altmanu, ide prema stvaranju personaliziranog sadržaja za publiku od svega nekoliko ili tek jednog krajnjeg korisnika.

“Kreativnost bi mogla proći kroz kambrijsku eksploziju, a uz nju, kvaliteta umjetnosti i zabave može se drastično povećati”, napisao je Altman, nazivajući ovaj žanr angažmana “interaktivnom fanfikcijom.

U međuvremenu je CMG Worldwide – agencija koja zastupa ostavštine preminulih slavnih osoba – sklopila partnerstvo s tvrtkom za detekciju lažnih profila Loti AI kako bi zaštitili popis CMG-ovih klijenata i njihovu ostavštinu od neovlaštene digitalne upotrebe. Tako će Loti AI stalno pratiti lažne imitacije 20 osoba koje predstavlja CMG, uključujući Burta Reynoldsa, Christophera Reevea, Marka Twaina i Rosu Parks.

Čak i uz sve veću zaštitu likova slavnih osoba, kritičari upozoravaju da bi ležerno “prisvajanje likova” i bilo koje obične osobe ili situacije moglo dovesti do javne zbunjenosti, pojačati dezinformacije i narušiti javno povjerenje.

„Najveći rizik sa Sorom je taj što onemogućuje prevladavanje uvjerljivog poricanja i što narušava povjerenje u našu sposobnost razlikovanja autentičnog od sintetičkog“, izjavio je za Los Angeles Times Sam Gregory, stručnjak za deepfakeove i izvršni direktor WITNESS-a, organizacije za ljudska prava. „Pojedinačni lažni videozapisi su važni, no prava šteta koja nastaje je magla sumnje koja se neminovno nadvija nad svime što vidimo.“

A u međuvremenu, ovu tehnologiju koriste i loši akteri – pa čak i neke vlade – radi propagande i promocije određenih političkih stavova. Pojedini ljudi na vlasti mogu se skrivati ​​iza poplave lažnih vijesti tvrdeći da je čak i stvarne dokaze generirala umjetna inteligencija, rekao je Gregory. “Zabrinut sam zbog mogućnosti stvaranja lažnih snimaka prosvjeda, insceniranja lažnih zločina ili umetanja likova stvarnih ljudi i riječi koje nisu izrekli u kompromitirajuće scenarije”, rekao je.

Gordana Ilić Ostojić