Stručnjaci za sigurnost upozoravaju na rastuću sofisticiranost tehnologije deepfakea i njezin potencijalni utjecaj na zemlje, društva i pojedince, jer alati umjetne inteligencije postaju sve dostupniji i sve ih teže ih je otkriti.
Deepfakeovi – vrlo uvjerljive digitalne krivotvorine stvorene korištenjem umjetne inteligencije za manipuliranje zvukom, slikama i videozapisima stvarnih ljudi – posljednjih se godina strelovito razvijaju i predstavljaju značajne izazove za organizacije i pojedince.
Deepfakeovi su značajna prijetnja jer se mogu koristiti za zlonamjerno stvaranje uvjerljivih lažnih medija, širenje dezinformacija, narušavanje ugleda, počinjenja prijevara i utjecaja na izbore. Manipulacije slikama, zvukom i videozapisima mogu narušiti javno povjerenje i manipulirati javnim raspoloženjem. Druge prijetnje uključuju lažno predstavljanje, ucjenu i elektroničko nasilje, što može imati ozbiljne financijske, reputacijske i posljedice po mentalno zdravlje pojedinaca i organizacija.
Tehnologija deepfakea napredovala je impresivnim tempom posljednjih godina, uglavnom zahvaljujući probojima u generativnoj umjetnoj inteligenciji. (AI)] i strojnom učenju. Nekada viđena kao alat za eksperimentiranje, sada je sazrela u moćno sredstvo za proizvodnju audio, video i slikovnog sadržaja koji je gotovo nemoguće razlikovati od autentičnog materijala.
Taj brzi napredak tehnologije transformirao je ono što je nekada bila zanimljiva novost u potencijalnu prijetnju tvrtkama, vladinim institucijama i pojedincima diljem svijeta.
Danas se deepfakeovi više ne ograničavaju na jednostavne i nezgrapne zamjene lica ili promjene videozapisa. Sada obuhvaćaju složene manipulacije slikom i tonom – poput sinkronizacije usana, gdje umjetna inteligencija doslovno može staviti riječi u nečija usta ili vjerno prenijeti pokrete tijela i mimiku.
Kvaliteta takvih manipulacija dramatično se poboljšala posljednjih godina i svakim je danom sve bolja. Još nedavno je deepfakeove bilo relativno lako prepoznati po detaljima poput zamućenja oko ušiju ili nosnica, loše izvedenim šakama ili ‘trzavoj’ kvaliteti slike. No, napredni deepfakeovi sada se realistično prilagođavaju promjenama osvjetljenja i koriste manipulaciju glasom u stvarnom vremenu. Došli smo do točke u kojoj će se čak i stručnjaci namučiti s identificiranjem deepfakeova samo vizualnim metodama.
U dijelovima svijeta gdje se inicijative za digitalnu transformaciju brzo šire, zabrinutosti oko deepfake tehnologije posebno su relevantne. Najveća prijetnja koju predstavljaju deepfakeovi je njihov potencijal da stvore porast prijevara, i istovremeno oslabe društveno povjerenje u digitalne medije – što je zabrinjavajuće s obzirom na to da digitalne platforme dominiraju komunikacijama i medijima diljem svijeta. Brzorastuća, demokratizirana AI tehnologija je sofisticirane alate učinila dostupnima i zlonamjernim akterima koji požele manipulirati javnom percepcijom ili izvesti prijevaru, stvarajući značajne sigurnosne probleme za sve nas.
Najneposrednija prijetnja društvu leži u tome da je visokokvalitetna deepfake tehnologija široko dostupna, što omogućuje prevarantima i organiziranim kriminalnim skupinama da poboljšaju svoje taktike prijevare. Prevaranti mogu jeftino i jednostavno poboljšati sofisticiranost svojih pokušaja, čineći ih naoko legitimnijim i povećavajući vjerojatnost njihova uspjeha.
Raspravama o deepfakeovima često dominiraju teme političke manipulacije, no stručnjaci naglašavaju da se gotovo svaki sektor suočava s potencijalnim prijetnjama od ove tehnologije. Industrije poput financija, zdravstva, energetike i korporativnih poduzeća – sve su u opasnosti da postanu meta napada.
Primjerice, u financijskom sektoru se deepfakeovi koriste za lažno predstavljanje, što dovodi do prijevarnih transakcija ili trgovanja povlaštenim informacijama. Financijske usluge poput bankarstva, digitalnih novčanika i kreditiranja oslanjaju se na provjeru identiteta kupaca, što ih čini glavnim metama za prevarante. Zdravstvene ustanove mogu se suočiti s rizicima ako se deepfakeovi koriste za manipuliranje medicinskim kartonima ili lažno predstavljanje medicinskih stručnjaka, što potencijalno ugrožava skrb o pacijentima.
Kako tehnologija deepfakea nastavlja napredovati, metode detekcije tih lažnih sadržaja bore se da održe korak, stvarajući tehnološku utrku između sigurnosnih sustava i onih koji te tehnologije pokušavaju iskoristiti. Tehnologije detekcije osmišljene za borbu protiv deepfakea napreduju, ali su u stalnoj utrci protiv prijetnje koja se neprestano razvija. Kako generativni alati umjetne inteligencije postaju sve dostupniji i moćniji, deepfakeovi rastu u realizmu i opsegu.
Iako postoje sustavi detekcije sposobni otkriti suptilne nedosljednosti u glasovnim obrascima, pokretima lica i metapodacima, zlonamjerni akteri i dalje pronalaze načine da ih nadmaše. Izazov deepfakeova tek se počinje rješavati. Suzbijanje prijevara generiranih umjetnom inteligencijom – uključujući deepfakeove – zahtijeva rješenja temeljena na umjetnoj inteligenciji koja mogu razlikovati stvarne ljude od deepfakeova.
Uloga tvrtki društvenih medija u rješavanju deepfake sadržaja ostaje sporno pitanje, a stručnjaci pozivaju na snažnije mjere za identifikaciju i ograničavanje širenja zlonamjernih sintetičkih medija.
Platforme društvenih medija nose ključnu odgovornost u suzbijanju širenja zlonamjernih deepfakeova. Kao primarni kanali putem kojih milijarde ljudi konzumiraju informacije, one su ujedno i prva crta gdje manipulirani sadržaj sve više dobiva na značaju. Neki tehnološki divovi, uključujući Metu, Google i Microsoft, počeli su uvoditi mjere za jasno označavanje sadržaja generiranog umjetnom inteligencijom – što su koraci u pravom smjeru. Međutim, nedosljednosti i dalje postoje. S druge strane, X (bivši Twitter) ukinuo je mnoge svoje zaštitne mjere za provjeru 2023. godine, što je potez koji je javne osobe učinio ranjivijima na lažno predstavljanje i dezinformacije. To naglašava dublji problem: dezinformacije i senzacionalizam su se, za neke platforme, ugrađeni u njihove poslovne modele.
Iako platforme društvenih medija nisu odgovorne za porast deepfakeova ili zlonamjerne umjetne inteligencije, one mogu imati značajnu ulogu u rješavanju tog problema, jer suradnja putem inicijativa za dijeljenje podataka između financijskih, telekomunikacijskih i tvrtki društvenih medija može značajno poboljšati napore u sprječavanju prijevara.
Posebno zabrinjavajući aspekt prijetnje deepfakea je ograničena sposobnost šire javnosti da identificira manipulirani sadržaj. Kako se korištenje deepfakea širi, prosječni korisnik interneta ostaje alarmantno nespreman prepoznati takav sadržaj. Tamo gdje sintetički mediji postaju sve realističniji, jednostavno vjerovanje onome što vidimo ili čujemo na internetu više nije opcija.
Stručnjaci se slažu da regulatorni okviri koji se bave tehnologijom deepfakea ostaju globalno nerazvijeni, unatoč rastućoj prijetnji. Pravni okviri oko deepfakea uvelike se razlikuju ovisno o geografskim područjima i jurisdikcijama, ponekad stvarajući sivo područje između neetičnih manipulacija i kriminalnih aktivnosti. Nijedan globalni regulator još nije implementirao pravni ili regulatorni okvir za rješavanje prijetnje deepfakea.
Unatoč ozbiljnoj prirodi deepfake prijetnji, napredne AI tehnologije uz potencijal za štetu imaju i korisne, legitimne primjene. Nisu svi deepfakeovi loši i imaju svoje mjesto u društvu jer pružaju zabavu, igre i proširenu stvarnost. Međutim, kao i kod svakog tehnološkog napretka, neki ljudi iskorištavaju ove alate u zlonamjerne svrhe.
Ipak, ignoriranje prijetnje deepfakeova kao pretjeranih ili nebitnih podcjenjuje jednu od najrazornijih ugroza s kojima se danas suočavamo. Deepfake sadržaj nekada bio zanimljiva novost, no brzo se razvio u alat sposoban za ozbiljnu štetu – ciljajući ne samo pojedince ili brendove, već i sam koncept istine.
Gordana Ilić Ostojić



























