U nedavnoj kratkoj video objavi, jedna influencerica se uzrujava zbog televizijske vijesti iz Kalifornije. Slike koje se emitiraju iza nje izgledaju autentično – od voditeljice koja poziva gledatelje na akciju, žrtava, pa do CNN-ova logotipa. “Žrtve nesreće u Kaliforniji dobivaju lude isplate”, govori voditeljica s ekrana na kojem stoji natpis “PRIJELOMNA VIJEST”
No, video koji prikazuje zvijezdu društvenih mreža uzbuđenu zbog lokalnih vijesti zapravo je oglas koji privlači ljude da se prijave za – pravne usluge. A veći dio te reklame generirala je umjetna inteligencija.
Botovi ne kloniraju samo televizijske vijesti. Sve češće, vrišteće naslove u vijestima generira umjetna inteligencija u ime oglašivača.
Unatoč rastućim kritikama, brojne tvrtke nastavljaju lansirati sve moćnije alate za realistično generiranje AI videa, olakšavajući stvaranje sofisticiranih lažnih vijesti i emisija. A s mnoštvom novih AI video alata i novih načina njihovog dijeljenja pokrenutih posljednjih mjeseci, granica između vijesti i prodajne prezentacije počinje se gubiti. Meta je nedavno predstavila Vibes, namjensku aplikaciju za stvaranje i dijeljenje kratkih videa generiranih umjetnom inteligencijom. Nekoliko dana kasnije, i OpenAI je lansirao vlastitu aplikaciju za dijeljenje AI videa, s ažuriranim modelom generiranja videa i zvuka.
Izrada videa s pomoću takvih aplikacija traje tek nekoliko sekundi.
Ono što se trenutno događa je pojava nove klase sintetičkih platformi društvenih medija koje korisnicima omogućuju stvaranje, dijeljenje i otkrivanje sadržaja generiranog umjetnom inteligencijom u prilagođenom feedu, krojenog prema ukusu pojedinca. Zamislite stalan protok videa koji su jednako zarazni i viralni kao oni na TikToku, ali često je nemoguće reći jesu li stvarni.
Opasnost, kažu stručnjaci, leži u tome kako se ovi moćni novi alati – sada dostupni gotovo svima – mogu koristiti. Sve češće se spominje kako određeni akteri u pojedinim zemljama koriste vijesti i priče generirane s pomoću AI za širenje dezinformacija. Stručnjaci za online sigurnost kažu da umjetna inteligencija koja izbacuje upitne priče, propagandu i oglase u nekim slučajevima utapa sadržaj koji su generirali stvarni ljudi, te zagađuje informacijski ekosustav.
YouTube je morao izbrisati stotine AI generiranih videozapisa s poznatim osobama koji su promovirali prijevare. Spotify je uklonio milijune glazbenih uradaka generiranih umjetnom inteligencijom.
FBI procjenjuje da su Amerikanci od 2020. godine izgubili 50 milijardi dolara zbog deepfake prijevara.
Novi AI alati uspješno su privukli milijune običnih korisnika, no OpenAI potiče i tvrtke i developere da i oni koriste njegove alate za razvoj i promociju svojih proizvoda i usluga.
“Nadamo se da ćete sada, uz Sora 2 video generirati iste visokokvalitetne videozapise izravno unutar svojih proizvoda, uz realističan i sinkroniziran zvuk, te pronaći sve vrste sjajnih novih stvari za izradu”, poručio je izvršni direktor OpenAI-a Sam Altman developerima.
“Online oglasi za robu i usluge koriste ljude generirane umjetnom inteligencijom i replike influencera kako bi promovirali svoj brend, ne odajući pri tome umjetno stvorenu prirodu ljudi predstavljenih u tim reklamama”, rekao je za Los Angeles Times Alexios Mantzarlis, direktor povjerenja, sigurnosti i zaštite na Cornell Techu
Američki odvjetnici specijalizirani za odštete zbog tjelesnih ozljeda zloglasni su zbog pretjeranih reklama kojima oglašavaju svoje usluge. Koriste sve metode – radio, televiziju, besplatne info brojeve, plakate, oglasne prostore na autobusnim stanicama i infomercijale – kako bi urezali svoje brendove u svijest potrošača. A od nedavno koriste i umjetnu inteligenciju kako bi stvorili novi val oglasa koji su uvjerljiviji, privlačniji i lokalniji.
Jedan pionir u tom području je Case Connect AI. Ta tvrtka objavljuje sponzorirane reklame na YouTubeu i Facebooku, ciljajući ljude uključene u prometne i druge nesreće koje rezultiraju tjelesnim ozljedama. Umjetnu inteligenciju koriste kako bi potencijalnim klijentima dali do znanja koliku bi odštetu mogli dobiti od sudskog postupka.
U jednom njihovom oglasu, ono što se čini kao uzbuđeni influencer na društvenim mrežama kaže da osiguravajuća društva pokušavaju ugasiti Case Connect jer njihov “kalkulator naknada” previše košta osiguravajuća društva. Oglas se zatim prebacuje na ono što se čini kao petosekundni isječak vijesti o isplatama koje korisnici dobivaju. Zatim se ponovno pojavljuje influencer, pokazujući na još jedan kratki video parova koji drže predimenzionirane čekove i slave.
“Svi oni koristili su aplikaciju i primili ogromnu isplatu”, kaže influencer u oglasu. “A sada je red na vama.”
Prema podacima web stranice Google Ads Transparency, smo u rujnu je desetak YouTube kratkih oglasa Case Connecta prikazivalo voditelje vijesti ili svjedočanstva generirana umjetnom inteligencijom, s ljudima koji nisu stvarni. Case Connect ne koristi uvijek ljude generirane umjetnom inteligencijom. Za širenje svoje poruke ponekad koristi robote ili čak majmune generirane s pomoću AI. Iz tvrtke su izjavili da koriste Googleov model Veo 3 za izradu videa, no nije podijelili koji su dijelovi njihovih reklama bili generirani umjetnom inteligencijom.
Gordana Ilić Ostojić






















