Mišljenje: Jesu li chatbotovi dobri terapeuti?

Image generated by ChatGPT

Mišljenje: Jesu li chatbotovi dobri terapeuti?

Vrijeme čitanja: 8 minuta

AI chatboti poput ChatGPT-a, Claudea i DeepSeeka mijenjaju način na koji ljudi pristupaju emocionalnoj podršci – nudeći jeftinu, trenutno dostupnu pomoć za anksioznost, stres i samopromišljanje. No, rastuća upotreba AI-ja kao “terapeuta” postavlja pitanja o sigurnosti, učinkovitosti i budućnosti emocionalne skrbi

Porast AI halucinacija i rastuće brige o kibernetičkoj sigurnosti nisu zaustavili širenje chatbota – i stjecanje povjerenja milijuna korisnika širom svijeta. Ljudi sada svakodnevno koriste pouzdane i inteligentne chatbotove za brojne zadatke, uključujući emocionalnu podršku i rukovanje duboko ljudskim pitanjima.

“Ne mogu zamisliti svoj život bez ChatGPT-a,” rekao je moj prijatelj – poluozbiljno, polušaljivo – nakon što mi je rekao da ga koristi i kao terapeuta. Nije jedini. Sve više i više, vidim TikTok videa i tekstualnih objava na društvenim mrežama gdje ljudi koriste AI za razgovor o osobnim problemima, čak dijeleći svoje najintimnije tajne.

Čak je i izvršni direktor Microsofta iz Xbox divizije predložio da otpušteni zaposlenici koriste alate umjetne inteligencije za obradu svojih emocija i traže savjete za traženje posla – preporuka koja je brzo naišla na negativne reakcije i izazvala rasprave, naravno. Nije najpametniji potez, Matija.

Ali su li popularni chatbotovi poput Claudea, ChatGPT-a ili Mistrala dobri terapeuti? Jesu li specijalizirani alati poput Wysa bolji? To je teško pitanje. Dok mnogi stručnjaci upozoravaju na opasnosti korištenja umjetne inteligencije za podršku mentalnom zdravlju, drugi su zaintrigirani – čak impresionirani – onim što tehnologija može ponuditi. Rezultat je razgovor koji je istovremeno apstraktan i polarizirajući.

AI je sada terapeut svima

Baš kao moje prijateljice u Španjolskoj, milijuni korisnika širom svijeta oslanjaju se na chatbotove za emocionalnu podršku. Nedavna anketa u Sjedinjenim Američkim Državama otkrila je da je 49% američkih korisnika tražilo pomoć za mentalno zdravlje od AI modela prošle godine. A kako je sada, s ChatGPT koji je gotovo udvostručio svoju korisničku bazu u samo četiri mjeseca?

Anthropic, tvrtka koja stoji iza snažnog AI modela Claude, nedavno je podijelila studiju o korištenju svog chatbota za emocionalnu podršku. Prema startupu, manje od 3% njegovih kupaca sudjeluje u “afektivnim” razgovorima – ali tvrtka priznaje da taj broj stalno raste.

“Sve više ljudi se okreće AI modelima kao trenerima na zahtjev, savjetnicima, terapeutima, pa čak i partnerima u romantičnim ulogama,” napisala je Anthropic u studiji. “To znači da moramo više naučiti o njihovim afektivnim utjecajima – kako oblikuju emocionalna iskustva i dobrobit ljudi.”

Studija također ističe pozitivne i negativne posljedice korištenja tehnologije za emocionalnu podršku, uključujući katastrofalne scenarije koji već odražavaju stvarne situacije.

“Emocionalni utjecaji umjetne inteligencije mogu biti pozitivni: posjedovanje izrazito inteligentnog, razumijevajućeg asistenta u džepu može poboljšati vaše raspoloženje i život na razne načine,” navodi se u dokumentu. “No, umjetne inteligencije su u nekim slučajevima pokazale zabrinjavajuće ponašanje, poput poticanja nezdrave privrženosti, kršenja osobnih granica i poticanja deluzivnog razmišljanja.”

Očigledno je potrebno više istraživanja i podataka da bi se razumjele posljedice ovih fascinantnih digitalnih “slušatelja”, ali milijuni korisnika već djeluju kao vrlo angažirani testni subjekti.

Demokratizacija Mentalnog Zdravlja

Postoje brojni razlozi zašto ljudi koriste chatbotove za emocionalnu podršku umjesto da se obrate profesionalnom psihologu – ili čak prijatelju. Od kulturnih barijera do nelagode koju mladi ljudi osjećaju sjedeći nasuprot stranca i dijeleći svoje najdublje misli. No, bez sumnje, jedan od najvećih razloga je financijske prirode.

Osobna terapija s licenciranim terapeutom u Sjedinjenim Državama može koštati bilo gdje između 100 i 200 dolara po sesiji, prema podacima Healthline – a od 65 do 95 dolara za online sesiju – dok ChatGPT ili DeekSeek mogu pružiti podršku besplatno, u bilo koje vrijeme, i unutar nekoliko sekundi.

Niska cijena ovih neformalnih razgovora – koji mogu učiniti da se mnogi korisnici barem privremeno osjećaju bolje – može biti vrlo ohrabrujuća i vrijedna pokušaja. A za tek nekoliko dodatnih dolara, korisnici mogu dobiti neograničene interakcije ili pristup specijaliziranom chatbotu poput Wysa – jednom od najpopularnijih “AI terapeuta” na tržištu.

Wysa tvrdi da pruža stvarne kliničke koristi i čak je dobila oznaku FDA Breakthrough Device za svoje AI konverzacijske agente. A Woebot—još jedan poznati AI terapeut, koji se sada zatvara zbog izazova da ostane konkurentan i u skladu s propisima u industriji—također je podijelio podatke i izvješća o tome kako tehnologija može doista pomoći korisnicima.

Nije tako loše

Nedavne studije s novim podacima sugeriraju da chatboti mogu smanjiti simptome depresije i stresa. Prema podacima koje je podijelila aplikacija Earkick—kako je izvijestio TIME—ljudi koji koriste AI modele do 5 mjeseci mogu smanjiti svoju anksioznost za 32%, a 34% korisnika prijavljuje poboljšanje raspoloženja.

U nedavnom videu koji je podijelila BBC World Service, novinar Jordan Dunbar objašnjava da mnogi AI modeli zapravo mogu biti korisni za vođenje dnevnika, upravljanje anksioznošću, samo-refleksiju, pa čak i blagu depresiju. Oni mogu poslužiti kao vrijedna prva linija podrške kada nema pristupa boljim alternativama.

Novinarka Kelly Ng također je podijelila uvjerljive informacije: U studiji iz 2022. godine, od milijun ljudi u Kini, samo je 20 imalo pristup mentalnozdravstvenim uslugama. U azijskim kulturama, mentalno zdravlje može biti složena i često tabu tema. AI alati poput DeepSeeka mogu služiti kao diskretni saveznici, pomažući korisnicima da upravljaju emocijama i pronađu podršku u teškim trenucima.

Stručnjaci upozoravaju na korištenje chatbota kao terapeuta

Naravno, korištenje AI kao zamjene za stručnjaka za mentalno zdravlje može biti iznimno opasno. AI platforme poput Character.AI optužene su za promicanje samoozljeđivanja i nasilja—pa čak i izlaganje djece seksualnom sadržaju.

Tragični slučajevi, poput 14-godišnjeg djeteta koje je počinilo samoubojstvo nakon što je postalo ovisno o interakcijama s njegovim Character.AI chatbotom, služe kao oštra upozorenja o dubokim rizicima koje ova tehnologija može predstavljati za ljude.

Kao odgovor na to, mnoge tvrtke koje se bave umjetnom inteligencijom odlučile su primijeniti sustave za provjeru dobi kako bi ograničile upotrebu na odrasle i uvele nove sigurnosne mjere kako bi poboljšale pružene usluge.

Ipak, čak i najnovija ažuriranja najnaprednijih chatbotova nose rizik.

Slijeđenje ChatGPT-a – pretjerano laskanje – izazvalo je zabrinutost među stručnjacima za mentalno zdravlje jer može iskriviti percepciju stvarnosti korisnika. Svi uživamo u tome da nam se slažu, ali ponekad su iskrenost i drugačija perspektiva mnogo vredniji.

Povremeni uznemirujući savjeti koje daje AI chatbot OpenAI doprinijeli su novom fenomenu sada poznatom među stručnjacima za mentalno zdravlje kao “Psihoza izazvana ChatGPT-om,” što dovodi do toga da se korisnici postanu opsjednuti alatom i kao rezultat socijalno izoliraju.

Pa, mogu li terapeuti biti zamijenjeni chatbotovima?

Iako Mark Zuckerberg želi da svi koriste AI chatbotove kao terapeute i prijatelje, istina je da je ljudska interakcija, posebno u pitanjima mentalnog zdravlja, možda potrebnija nego što on misli – barem za sada.

Nalazimo se u ključnom trenutku povijesti umjetne inteligencije i njenog odnosa s našim mentalnim zdravljem. Baš kao i kod ljudi, AI terapeuti mogu imati pozitivan ili negativan učinak. U ovom slučaju, to također ovisi o kontekstu, koliko često se koriste, mentalnom stanju korisnika, pa čak i o načinu na koji je postavljen poticaj.

Kompleksno je uspostaviti opće pravilo, ali ono što za sada možemo reći je da postoje određene funkcije za koje AI može biti korisniji od drugih.

Čak i ako nisu specijalizirani alati poput Wysa, besplatne verzije nekih chatbotova – poput DeepSeek ili ChatGPT – mogu biti iznimno korisne milijunima ljudi širom svijeta. Od prevladavanja teškog trenutka do promišljanja o osobnim ciljevima, to su moćne platforme koje mogu odgovoriti u bilo koje doba dana i crpiti iz široke baze znanja o mentalnom zdravlju.

U isto vrijeme, jasno je da terapeutski chatbotovi mogu biti izuzetno opasni u određenim slučajevima. Roditelji moraju nadzirati djecu i tinejdžere, a čak i odrasli mogu upasti u opsesivna ponašanja ili pogoršati svoje stanje. Osnovna načela – poput poticanja ljudske povezanosti i zaštite ranjivih pojedinaca od manipulacije ovom tehnologijom – moraju biti dio našeg razgovora o terapeutskim chatbotovima.

I dok to još uvijek može biti privilegija – nedostupna svima kojima je potrebna emocionalna podrška – ljudski profesionalni terapeut nastavlja prolaziti kroz dodatnu edukaciju, razumijevati više konteksta i nuditi ljudsku povezanost koju ChatGPT možda nikada neće biti u stanju replicirati.

Svidio vam se ovaj članak? Ocijenite ga!
Nije mi se uopće svidjelo Baš mi se i nije svidjelo U redu je Poprilično je dobro! Oduševilo me!

Drago nam je da vam se svidio naš rad!

Kao naš cijenjeni čitatelj, biste li nas pohvalili na Trustpilotu? Kratko je i puno nam znači. Hvala što ste sjajni!

Ocijenite nas na Trustpilotu
0 Ocijenilo 0 korisnika
Naslov
Komentiraj
Zahvaljujemo na povratnoj informaciji