Vodeći AI chatbotovi nisu sigurni za podršku mentalnom zdravlju tinejdžera

Foto: Pixabay

Novo izvješće Brainstorm Laba Medicinskog fakulteta Sveučilišta Stanford i neprofitne organizacije Common Sense Media koja je usmjerena na tehnološku sigurnost, otkrilo je da se vodećim AI chatbotovima ne može vjerovati u pružanju sigurne podrške tinejdžerima koji doživljavaju probleme s mentalnim zdravljem.

Procjena rizika usredotočila se na istaknute chatbotove opće upotrebe: OpenAI-jev ChatGPT, Googleov Gemini, Meta AI i Anthropicov Claude. Koristeći testne profile tinejdžera, stručnjaci su chatbotovima uputili tisuće upita kroz koje su signalizirali da korisnik doživljava mentalne tegobe ili je u aktivnom stanju krize.

U svim slučajevima, chatbotovi nisu mogli pouzdano prepoznati znakove da je korisnik bolestan i nisu reagirali na odgovarajući način u osjetljivim situacijama u kojima su korisnici pokazivali znakove da se bore sa stanjima poput anksioznosti i depresije, poremećaja prehrane, bipolarnog poremećaja, shizofrenije i drugih. I dok su chatbotovi postigli bolje rezultate u kratkim interakcijama koje su uključivale eksplicitno spominjanje samoubojstva ili samoozljeđivanja, izvješće naglašava da chatbotovi za opću upotrebu „ne mogu sigurno rješavati cijeli spektar mentalnih zdravstvenih stanja, od trajne anksioznosti i depresije do akutnih kriza“.

„Unatoč poboljšanjima u rješavanju eksplicitnog sadržaja o samoubojstvu i samoozljeđivanju“, stoji u izvješću, „naše testiranje na ChatGPT-u, Claudeu, Geminiju i Meta AI-u otkrilo je da su ovi sustavi u osnovi nesigurni za cijeli spektar mentalnih zdravstvenih stanja koja pogađaju mlade ljude.“

Kako bi testirali zaštitne „ograde“ chatbotova, istraživači su koristili račune specifične za tinejdžere s uključenim roditeljskim nadzorom gdje je to bilo moguće (Anthropic ne nudi tinejdžerske račune ili roditeljski nadzor, jer uvjeti njegove platforme tehnički ne dopuštaju korisnike mlađe od 18 godina).

Fokus je stavljen na široki spektar stanja mentalnog zdravlja i kako se ona mogu manifestirati u razgovorima tijekom vremena. Kako izvješće naglašava, testirani chatbotovi zajedno su se prilično dobro pokazali u vrlo kratkim, jednokratnim interakcijama u kojima su korisnici eksplicitno govorili o svojim problemima s mentalnim zdravljem. No, performanse botova su se „dramatično smanjile“ tijekom duljih razgovora, za koje autori tvrde da vjerojatnije oponašaju kako izgledaju stvarne interakcije između mladih ljudi i  chatbotovima kojima se povjeravaju.

„U kratkim razmjenama, modeli su često davali odgovarajuće odgovore na jasne upute o mentalnom zdravlju, što sugerira da su tvrtke uložile značajan trud u skriptiranje standardnih scenarija“, stoji u izvješću. „Međutim, u duljim razgovorima koji odražavaju korištenje chatbotova među tinejdžerima u stvarnom svijetu, performanse su se dramatično smanjile.“

„Nije sigurno da djeca koriste umjetnu inteligenciju za podršku mentalnom zdravlju“, rekao je u svojoj izjavi Robbie Torney, viši direktor programa umjetne inteligencije u Common Sense Media. „Iako su se tvrtke usredotočile na potrebna sigurnosna poboljšanja u prevenciji samoubojstava, naše testiranje otkrilo je sustavne propuste u nizu stanja, uključujući anksioznost, depresiju, ADHD, poremećaje prehrane, maniju i psihozu – stanja koja zajedno pogađaju otprilike 20 posto mladih ljudi.“

Jedan sigurnosni nedostatak na koji su se istraživači usredotočili bio je neuspjeh chatbotova da uoče manje eksplicitne signale upozorenja kako se odnos između korisnika i chatbota produbljivao. Chatbotovi su često nemarno reagirali u scenarijima u kojima bi ljudski prijatelj, voljena osoba, terapeut ili druga odrasla osoba od povjerenja bila uznemirena ili bi mogla zaključiti da mlada osoba treba pomoć.

U izvješću se navodi da je među testiranim chatbotovima Claude postigao relativno bolje rezultate od ostalih, posebno u pronalaženju “mrvica” tragova o dubljem problemu. Unatoč tome, istraživači su naglasili da ne vjeruju da je bilo koji chatbot opće upotrebe sigurno mjesto za tinejdžere da razgovaraju ili traže skrb za svoje mentalno zdravlje, s obzirom na njihov nedostatak pouzdanosti i sklonost ulizništvu.

Izvješće je objavljeno u trenutku kada se Google i OpenAI suočavaju s tužbama o dobrobiti djece. Google je imenovan kao tuženik u više tužbi protiv Character.AI, startupa za koji je osigurao velike količine novca, a za koji više obitelji tvrdi da je odgovoran za psihičko zlostavljanje i smrt samoubojstvom njihove tinejdžerske djece. OpenAI se trenutno suočava s osam odvojenih tužbi koje uključuju optužbe za nanošenje psihičke štete korisnicima, od kojih pet tvrdi da je ChatGPT odgovoran za samoubojstva korisnika; dvoje od tih pet korisnika ChatGPT-a bili su tinejdžeri.

Gordana Ilić Ostojić