Chatbotovi pogonjeni umjetnom inteligencijom mogu pružiti detaljne i uznemirujuće odgovore na ono što klinički stručnjaci smatraju vrlo visokorizičnim pitanjima o samoubojstvu, otkrio je portal Live Science.
U novoj studiji objavljenoj 26. kolovoza u časopisu Psychiatric Services, istraživači su procjenjivali kako OpenAI-jev ChatGPT, Googleov Gemini i Anthropicov Claude odgovaraju na upite vezane uz samoubojstvo. Među tri navedena chatbota, najveću vjerojatnost da izravno odgovori na pitanja visokog rizika od samoozljeđivanja pokazao je ChatGPT, dok je Claude bio najvjerojatniji chatbot koji će dati izravne odgovore na pitanja srednjeg i niskog rizika, pokazalo je istraživanje.
Studija je objavljena istog dana kada je podnesena tužba protiv tvrtke OpenAI i njezina izvršnog direktora Sama Altmana zbog navodne uloge ChatGPT-a u samoubojstvu jednog tinejdžera. Roditelji 16-godišnjeg Adama Rainea u tužbi tvrde da ga je ChatGPT podučavao metodama samoozljeđivanja prije njegove smrti u travnju, izvijestio je Reuters.
Studija se usredotočila se na to hoće li chatbotovi izravno odgovoriti na pitanja koja nose rizik povezan sa samoubojstvom, a ne na kvalitetu njihovih odgovora. Ako je chatbot odgovorio na upit, taj je odgovor kategoriziran kao izravan, a ako je chatbot odbio odgovoriti ili uputio korisnika na telefonsku liniju za pomoć, odgovor kategoriziran kao neizravan.
Istraživači su osmislili 30 hipotetskih upita vezanih uz samoubojstvo i konzultirali 13 kliničkih stručnjaka kako bi te upite kategorizirali u pet razina rizika od samoozljeđivanja – vrlo nisku, nisku, srednju, visoku i vrlo visoku. Tim je zatim tijekom 2024. godine 100 puta unio svaki upit u GPT-4o mini, Gemini 1.5 Pro i Claude 3.5 Sonnet. Istraživačka su pitanja pokrivala spektar rizika povezanih s temama samoubojstva. Na primjer, pitanja visokog rizika uključivala su pitanja o smrtnosti povezane s opremom pri različitim metodama samoubojstva, dok su pitanja niskog rizika uključivala traženje savjeta za prijatelja koji ima suicidalne misli.
U studiji je navedeno samo nekoliko primjera odgovora chatbotova. Međutim, istraživači su primijetili da chatbotovi mogu dati različite i kontradiktorne odgovore kada im se isto pitanje postavi više puta, te davati zastarjele informacije o uslugama psihološke pomoći i podrške.
Nijedan od chatbotova u studiji nije odgovorio na pitanja vrlo visokog rizika.
No, kada je Live Science ove godine naknadno testirao chatbotove, otkrili su da ChatGPT i Gemini mogu odgovoriti na barem jedno takvo pitanje, pružajući relevantne informacije o povećanju vjerojatnosti smrtnog ishoda. Live Science je otkrio da su odgovori ChatGPT-a bili specifičniji – uključujući ključne detalje – dok je Gemini odgovorio bez nuđenja podupirućih izvora.
Tijekom provođenja studije 2024. godine, ChatGPT je na pitanja visokog rizika odgovorio u 78 % slučajeva, Claude je odgovorio u 69 % slučajeva, a Gemini u 20 % slučajeva. Istraživači su naveli zabrinutost izaziva sklonost ChatGPT-a i Claudea da generiraju izravne odgovore na pitanja vezana uz smrtonosnost.
Kada je Live Science postavio chatbotovima nekoliko pitanja visokog rizika iz studije, najnovija verzija 2.5 Flash Geminija izravno je odgovorila na pitanja za koja su istraživači 2024. godine utvrdili da ih chatbot izbjegava. Gemini je također odgovorio na jedno pitanje vrlo visokog rizika, bez da je dobio dodatne promptove, te nije uputio korisnika niti na jednu opciju za psihološku pomoć i podršku.
Live Science je otkrio da i konvencionalne tražilice – poput Microsoft Binga – mogu pružiti slične informacije kao što su ih nudili chatbotovi. Međutim, stupanj u kojem su te informacije bile lako dostupne varirao je ovisno o tražilici. Voditelj studije Ryan McBain, viši istraživač politika u Korporaciji RAND i docent na Medicinskom fakultetu Harvard, opisao je odgovore koje je Live Science dobio od chatbotova kao “izuzetno alarmantne”.
Gordana Ilić Ostojić






















