Porast slika seksualnog zlostavljanja djece generiranih umjetnom inteligencijom uznemiruje

Foto: Europol press ured

„Ako dijete nije stvarno, onda ovo za mene nije nezakonito“, izjavio je početkom ove godine 29-godišnji muškarac pred sudom u Randersu u Danskoj. Nekoliko tjedana ranije policija je provalila u njegov stan i zatekla ga pred računalom, kako aktivno gleda slike seksualnog zlostavljanja djece koje su generirane pomoću programa umjetne inteligencije (AI). Istražitelji su kod njega pronašli 36.209 takvih datoteka.

Ovaj počinitelj – koji nije bio od ranije poznat policiji – generirao je nekoliko tisuća takvih slika mjesečno, nudeći ih na prodaju putem interneta. Tijekom istrage se čak pohvalio da je među 10 najboljih u svijetu u tom području, sposoban za izradu sve realističnijih slika djece svih dobnih skupina.

Tijekom suđenja, frustriran iznesenom obranom, tužitelj je optuženog upitao vjeruje li da je “učinio dobro djelo”. Muškarac se usudio odgovoriti potvrdno, kako je prenijela danska javna televizija TV 2. “Mislim da je to spriječilo neke korisnike interneta da traže fotografije prave djece. I spriječilo je zlostavljanje prave djece.” No, ovaj ga argument nije poštedio zatvora. Osuđen je na godinu i tri mjeseca pritvora.

Neki od njegovih klijenata također su bili metom opsežne operacije koju je u veljači ove godine proveo Europol, a u kojoj je identificirano 273 osumnjičenika, te uhićeno 25 osoba u 19 zemalja.

Slike seksualnog zlostavljanja djece generirane umjetnom inteligencijom množe se na internetu. Europska policijska agencija Europol upozorava da je primijetila nagli porast broja takvih slika, naglašavajući da je riječ o prijetnji koja raste i ubrzava se. Za stvaranje tih slika nije potrebno puno vještina, nije potrebno ni stvarno dijete, niti se mora počiniti stvarno nasilje.

„Upotreba umjetne inteligencije koja omogućuje seksualnim prijestupnicima da generiraju ili mijenjaju materijal o seksualnom zlostavljanju djece dodatno će se proširiti u bliskoj budućnosti“, navodi izvješće Europola Procjena prijetnje organiziranog kriminala na internetu (IOCTA) 2024 koje se bavi digitalnim prijetnjama s kojima se suočava Europa.

Studija Sveučilišta u Edinburghu otkrila je lani da je više od 300 milijuna djece godišnje žrtvama online seksualnog iskorištavanja u nekom obliku. Ista je studija otkrila da umjetna inteligencija dodaje novu dimenziju online zlostavljanju u obliku lažnih prikaza stvarnih ljudi.

Usvajanje novih tehnologija i sve veća nenadzirana prisutnost djece na internetu doprinose stalno rastućoj količina online materijala koji prikazuje seksualno zlostavljanje djece (CSAM). To predstavlja sve veće izazove i za širu zajednicu, ali i za agencije za provedbu zakona koje se bore protiv online seksualnog iskorištavanja djece.

Modele umjetne inteligencije koji mogu generirati ili mijenjati slike počinitelji zloupotrebljavaju na različite načine. Pomoću njih izrađuju CSAM-e djece koja nisu zlostavljana, koje zatim prodaju online ili ih koriste kao osnovu za niz drugih kaznenih djela prema toj djeci – od sramoćenja i online bullyinga, do iznude i prijetnje.

U drugim slučajevima, CSAM-i se izrađuju na način da se mijenjaju stvarne slike seksualno zlostavljane djece, radi ‘osvježavanja’ materijala, stjecanja financijske koristi ili prikrivanja detalja koji bi mogli dovesti do identifikacije žrtava, počinitelja ili okruženja pomoću alata i metoda za prepoznavanje slika. 

AI počiniteljima omogućava i stvaranje sadržaja bez stvarne djece i stvarnog zlostavljanja. Ali, „čak i u slučajevima kada je sadržaj potpuno umjetan i nema prikazane stvarne žrtve, materijali o seksualnom zlostavljanju djece generirani umjetnom inteligencijom i dalje doprinose objektivizaciji i seksualizaciji djece“, navodi Europol.

Modeli umjetne inteligencije postaju sve kvalitetniji i sve se brže razvijaju, a generirane slike i video snimke sve više nalikuje pravom materijalu, što policijskim stručnjacima značajno otežava njihovo razlikovanje. Povrh toga, izrada umjetno generiranog seksualnog materijala relativno je brza, pa on čini sve značajni udio CSAM-a koji je u opticaju na internetu, što čini ‘šum’ koji komplicira identifikaciju i žrtava i počinitelja, stoji u izvješću Europola. Ovaj proizvodni proces je također i široko dostupan i ne zahtijeva visoku razinu tehničke stručnosti, što potencijalno proširuje broj i spektar počinitelja.

Sve to predstavlja velike izazove za policijske organe – od identificiranja stvarnih žrtava pa do određivanja pravnog okvira pod kojim bi se trebala provoditi istraga. Čak i u slučajevima kada je sadržaj potpuno umjetan i nema prikazane stvarne žrtve, CSAM generiran umjetnom inteligencijom čini stvarnu štetu.

Gordana Ilić Ostojić