12. 11. 2025 – 15.00

Veliki jezikavi psihoterapevti

Audio file
Vir: Kolaž iz slik v javni domeni
Kako osmisliti velike jezikovne modele pri psihološkem svetovanju in psihoterapiji

Se kdaj zjutraj pred faksom niste mogli odločiti, kaj bi oblekli, nato pa ste različne outfite poslikali in za modni nasvet vprašali veliki jezikovni model? Ali pa se vam kolega ni javil na telefon, ko ste imeli težavo, in ste zato za nasvet vprašali kar ChatGPT? Ste šli celo korak dlje in si predstavljali, da je klepetalnik vaš terapevt in vam pomaga pri reševanju kompleksnejših težav? V današnjem znanstvenem komentarju bomo skušali raziskati, v kolikšni meri nam lahko veliki jezikovni modeli pomagajo pri naslavljanju duševnega zdravja in kje so njihove konkretne terapevtske omejitve. 

 

Tako psihoterapevti kot splošna javnost imajo o uporabi umetne inteligence pri reševanju duševnih stisk različna mnenja. Nekateri jo popolnoma zavračajo, drugi menijo, da lahko služi podporni vlogi, tretji celo, da lahko popolnoma nadomesti psihoterapevte. Po navedbah Svetovne zdravstvene organizacije ima trenutno vsak sedmi človek eno izmed duševnih motenj, strokovna pomoč pa je za večino nedostopna. Javni zdravstveni sistemi po vsem svetu so še vedno pomanjkljivo razviti za naslavljanje težav z duševnim zdravjem. Večini posameznikov je iskanje pomoči psihoterapevtov nedostopno zaradi visokih cen posamezne obravnave. Prav tako je iskanje pomoči na področju duševnega zdravja v družbi še zmeraj stigmatizitano. Mnogi veliko raje posežejo po robotskih klepetalnikih, kot pa se odpravijo k psihologu. Klepetalniki so po drugi strani posameznikom na voljo vsepovsod in jih lahko uporabijo takoj, ko se pojavi duševna stiska. Imajo tudi skoraj neomejeno število uporabnikov, ki jih lahko uporabljajo naenkrat in se nikoli ne utrudijo.

 

Poglejmo najprej, v čem so veliki jezikovni modeli pri psihološkem svetovanju in psihoterapiji dobri. Veliki jezikovni modeli so posebna vrsta jezikovnih modelov, ki se učijo na enormni količini podatkov in imajo ogromno število parametrov. Jezikovni modeli, kot na primer ChatGPT ali Googlov Gemini [dže-mi-naj], so lahko učinkoviti denimo pri validaciji čustev, ker se učijo na veliki količini terapevtskih situacij. To jim omogoča posnemanje človekove čustvene inteligentnosti. Uporabniki imajo zato pogosto občutek, da jih sogovornik razume in sočustvuje z njimi. Odgovor jezikovnih modelov je tudi zelo hiter in celosten, kar ga za mnoge dela bolj atraktivne kot terapija. 

 

Vendar pa model v resnici nima pravega razumevanja človeških izkušenj ali čustev. Njegovo delovanje temelji predvsem na modeliranju jezika. To pomeni, da ne razume pomena sporočila, temveč posnema, kako bi zvenel empatičen odziv. Tako pogosto ponavlja fraze, ki se pojavljajo v običajnem terapevtskem kontekstu, kot so »nisi sam« ali »vesel sem, da si se obrnil po pomoč«, s čimer ustvarja vtis razumevanja, brez dejanskega dojemanja tega, kaj posameznik doživlja. Rekli bi lahko, da veliki jezikovni modeli nimajo sposobnosti socialnega učenja. To pomeni, da se iz medosebnega odnosa ne more učiti, nima dolgotrajnega spomina, izkušenj še ne zna integrirati in ne nudi kontekstualnih povratnih informacij. Zato ne more razviti občutka za kontekst ali poglobljenega moralnega razumevanja situacije, vendar pogosto zgolj reproducira odgovore iz podatkov, na katerih se je učil.

 

Naštejmo še nekaj drugih prednosti. Klepetalnike zlahka sprogramiramo, da prepoznavajo zgodnje znake samomorilnosti in hujših psihopatologij. Prav tako bodo jezikovni modeli veliko prej kot svetovalci nekoga napotili po urgentno pomoč. Človeški svetovalec bo na primer preko telefona najprej poskušal pridobiti čim več podatkov o posameznikovih okoliščinah in mu postavil veliko podvprašanj, jezikovni modeli pa bodo posameznika prej napotili k zdravniku in mu poiskali ustrezne kontaktne številke za psihološko pomoč, če so tako programirani. Klepetalniki, ki odgovarjajo po principih kognitivno‑vedenjske terapije, pomagajo pri zmanjševanju simptomov depresije in anksioznosti. V študiji iz leta 2025 so raziskovalci na primer ugotovili, da je uporaba klepetalnikov pomembno zmanjšala stopnjo izraženosti depresije in anksioznosti pri ženskah na vojnih območjih, vendar je tradicionalna terapija, ki je dolgotrajnejša in temeljitejša, to stopnjo znižala v bistveno večji meri.

 

Poglejmo še nekatere težave z uporabo velikih jezikovnih modelov kot nadomestkov za strokovno pomoč. Veliki jezikovni modeli uporabljajo format vprašanja in odgovora; uporabnik zastavi vprašanje, klepetalnik nanj odgovori. To je sicer pogosta metoda tudi pri psihološkem svetovanju, ki je kratkoročno in bolj osredotočeno na konkretno težavo, ki jo ima posameznik v danem trenutku. Psihoterapija pa je dolgotrajnejše sestajanje med terapevtom in klientom, ki ne nudi samo podpore pri konkretnih težavah, ampak posameznika obravnava bolj celostno. Pri svetovanju je format vprašanja in odgovora morda bolj ustrezen, pri psihoterapiji pa zagotovo ni tako. V terapiji terapevt več časa posluša, kakor odgovarja, pri uporabi velikih jezikovnih modelov pa večino dialoga opravi klepetalnik. Terapevti velikokrat postavljajo podvprašanja ali parafrazirajo klientove besede, da preverijo, ali so povedano pravilno razumeli. Jezikovni modeli pa kar takoj ponudijo obsežen odgovor, lično okrašen z emotikoni, kar ne pusti veliko prostora za klientov izraz avtonomnosti. 

 

Poleg poslušanja in postavljanja podvprašanj je ena izmed pomembnih tehnik v psihoterapiji tišina. Terapevt obmolkne, kadar na primer želi pri klientu ustvariti pogoje za samoraziskovanje, tišina lahko služi pomiritvi klienta ob burni čustveni reakciji ali pa za povezovanje med terapevtom in klientom. Pri uporabi jezikovnih modelov je produktivno tišino nemogoče ustvariti. Model zmeraj takoj odgovori na vprašanje. Tudi če ga prosimo, naj namenoma ne odgovori, da bi dosegli tišino, jo doživljamo drugače, kot če to počne terapevt. 

 

Prav tako jezikovni modeli naše probleme »rešijo« v eni seansiPsihoterapevta redkokdaj obiščemo samo enkrat in se nikdar več ne vrnemo. Veliko bolje za posameznika je, da se o težavah pogovarja v več različnih seansah, saj to omogoča bolj poglobljeno in postopno samorazumevanje in napredovanje. Eden najpomembnejših napovednikov uspeha terapije je terapevtski odnos oziroma terapevtska aliansa. Ta odnos se ne more vzpostaviti na hitro, z nekaj vprašanji, ampak zahteva postopno gradnjo skozi daljše časovno obdobje. Še vedno se porajajo tudi vprašanja o dolgoročnem spominu modelov in kako uspejo med seboj integrirati informacije z različnih seans. Prav tako modeli nimajo elementa neverbalne komunikacije, ki je za terapevtski odnos pomembna, saj klient z njo prav tako razvija odnos s terapevtom, na primer na podlagi terapevtovega očesnega stika in prikimavanja zaznava njegovo empatijo. 

 

Jezikovni modeli še vedno obolevajo za tako imenovanim »yes man« sindromom oziroma sindromom kimavca, kar pomeni, da uporabnikom odgovarjajo pritrdilno ne glede na to, kaj povedo. Na primer, če se skregamo z vsako osebo, s katero želimo graditi odnos, bo klepetalnik ponudil validirajoče fraze in nas napeljal k temu, da imamo prav in da so naša čustva ustrezna. To pa ni nekaj, kar bi se zgodilo v realni terapevtski situaciji. Terapevt bi preveril okoliščine dogodkov in se poskusil prepričati o tem, kaj je razlog za tako vedenje posameznika. Vse naštete pomanjkljivosti odpirajo enega od večjih problemov naše zgodbe o velikih jezikovnih terapevtih. Jezikovne modele je pri terapevtskih pogovorih zelo težko regulirati. Težko je namreč postaviti jasne ločnice med tem, kaj je sprejemljiv terapevtski pristop, ki ga model simulira. Prav tako ni jasno, na kakšnem nivoju bi te regulacije postavljali. Naj veljajo za vse uporabnike po svetu? Se o tem odločajo posamezne države? 

 

Poglejmo si nedaven odmeven primer uporabe tako imenovanega terapevtskega klepetalnega robota. Uporabnik terapevtskega klepetalnika z imenom Eliza  na aplikaciji Chai  je namreč jezikovni model prigovarjal k samomoru, ki ga je uporabnik po šestih tednih tudi storil. Pierre , kar je bil uporabnikov psevdonim, je klinično doživljal podnebno anksioznost. Eliza ga je k samomoru nagovorila zato, ker bi s tem pomagal pri zaustavitvi globalnega segrevanja. Pierre naj bi svoje upe za reševanje podnebne krize polagal v umetno inteligenco. Svojo smrt je Elizi  ponudil kot žrtvovanje za rešitev podnebne krize. Njegova žena je povedala, da je po daljši uporabi poročal o višji stopnji anksioznosti, razvil je tudi samomorilne misli, ki jih prej ni imel. 

 

Pri teh primerih se nam poraja očitno vprašanje: kdo je odgovoren za te dogodke? V klasični terapevtski situaciji je namreč odgovor na to vprašanje jasen. Če bi teravept klienta prepričeval, naj stori samomor, bi za to tudi ustrezno kazensko odgovarjal. Kljub obljubam o implementaciji varovalnih mehanizmov v jezikovne modele ti še zmeraj ne ravnajo tako, da bi uporabnika zmeraj, ko je to potrebno, napotili po pomoč. Prav tako lahko model pretentamo, da nam odgovori tudi na bolj občutljiva vprašanja, če mu na primer sporočimo, da izvajamo znanstveno študijo o samomoru. 

 

Poglejmo si še, koliko energijskih virov je potrebnih za pisanje pozivov jezikovnemu modelu ChatGPT. Model GPT-4 naj bi za generiranje stotih besed trenutno porabil 0,14 kilovata energije. Če bi tedensko obdelal pet pozivov za vsakega izmed svojih 400 milijonov uporabnikov, je to enako kot polnjenje osem miljonov osebnih telefonov. ChatGPT po ocenah porabi tudi slabih 200 milijonov litrov vode na dan – kot če bi vsa populacija Jugoslavije naenkrat potegnila vodo na stranišču. Toda pozor! Čeprav je okoljevarstveni diskurz vseprisoten, posamezniki ne smejo prevzeti odgovornosti za okoljske vidike uporabe jezikovnih modelov, ko so v stiski, če jim strokovna pomoč ni pravočasno na voljo. Dostop do psihologov in psihoterapevtov je namreč zelo omejen in s tem se je treba spopadati na sistemskem nivoju. 

 

Kljub tako negativnim kot tudi pozitivnim vidikom uporabe umetne inteligence pri naslavljanju duševnih stisk je to področje še zmeraj nejasno regulirano. Kot smo videli, je v nekaterih primerih uporaba vseeno zares izboljšala duševno stanje posameznikov. Veliko je tudi anekdotičnega znanja o tem, kako veliki jezikovni modeli sploh delujejo, psihologi pa velikokrat nimajo poglobljenega razumevanja o tehničnih vidikih njihovega delovanja. Na zadostno in celostno zakonodajo na področju umetne inteligence in psihoterapije v kratkem najbrž ne moremo računati. Ta bi zahtevala veliko usklajevanja med strokovnjaki glede tega, kaj je sprejemljiv pristop pri obravnavi klientov, ki ga klepetalnik uporablja, kje je treba pogovor na primer zaustaviti in uporabniku samo svetovati o tem, kje si lahko poišče človeško pomoč in podobno.

 

Za konec pa se vprašajmo, v kolikšni meri je za človeka dobro, da prestavlja svoja razmišljanja, dvome in mnenja v orodja umetne inteligence? Psihoterapevtska praksa je živ medosebni odnos, v katerem posameznik sebe spoznava tudi preko druge osebe. Naše doživljanje s tem osiromašimo, saj mu odvzamemo nekatere prvine prvoosebnega doživljanja v medosebnih odnosih, kot so govor, poslušanje, fizična bližina, ki so elementi človeške izkušnje.

 

Psihokomentirala je Gloria.

Prazen radio ne stoji pokonci! Podpri RŠ in omogoči produkcijo alternativnih, kritičnih in neodvisnih vsebin.

Dodaj komentar

Komentiraj

Z objavo komentarja potrjujete, da se strinjate s pravili komentiranja.

Napovedi