En terapeut, der altid er med dig i lommen.
Sådan beskriver 28-årige Nessrin Tayar sit forhold til ChatGPT. Et forhold, der har taget fart, siden hun for halvandet år siden begyndte at bruge den til at tale om sin sygdomsangst.
- Jeg er så ked af, at det bliver ved med at være der, skriver Nessrin Tayar til den.
Få sekunder efter svarer chatbotten:
- Det giver virkelig god mening, at du har det sådan. Du er lige præcis i den fase, hvor mange tænker: Hvorfor er det ikke bare væk nu?
Og sådan fortsætter det.
I dag skriver Nessrin Tayar op til ti gange om dagen til chatten om sin angst. For den står altid klar med et beroligende svar.
- Den tager mine følelser alvorligt og bekræfter mig i, at det er min angst, der giver mig hjertebanken og får mig til at føle mig svimmel, og at det er normalt, fortæller hun.
Et sprog for svære følelser
Nessrin Tayar er en del af et stigende antal unge, der bruger ai som terapeut.
Senest viser en undersøgelse fra Psykiatrifonden, at fire ud af ti unge mellem 15 og 29 år har brugt en chatbot til at tale om deres mentale helbred.
Et tal, der har fået organisationen til at efterspørge en offentlig samtale om brugen af ai til at tale om følelser som angst, depression og selvmordstanker.
- 'Chatten' kan hjælpe i mange sammenhænge. Men vi bliver nødt til at snakke om, hvornår det er risikabelt at bruge den, siger Marianne Skjold, der er direktør i Psykiatrifonden, til TV 2.
Ifølge psykoterapeut Maria Holkenfeldt Behrendt er det forståeligt, når unge taler med chatbots om deres mentale helbred. Noget, hun også mærker i sin praksis, hvor yngre klienter "helt naturligt" referer til ai som en samtalepartner.
- Den er tilgængelig hele tiden, den svarer hurtigt, og så kan de bruge den uden risiko for at blive dømt, siger hun.
Hun oplever, at det i mange tilfælde faktisk har været en hjælp for de unge, der kommer hos hende, at have talt med ai inden.
- De kan bruge chatten til at få et sprog for følelser og tanker, de ikke har haft ord for før eller ikke har turde sige højt, siger hun.
Det betyder også, at de unge, der kommer ind ad døren hos Maria Holkenfeldt Behrendt, virker meget velreflekterede. Men derfor kan de stadig have brug for en terapeut, siger hun.
- En ting er at vide, hvad ens problem er. En anden ting er at arbejde med det. 'Chatten' kan give dem en bevidsthed om deres udfordring, men ikke nødvendigvis give dem forståelsen af, hvordan de kan arbejde med det, siger hun.
Dødelige konsekvenser
Der findes dog også tragiske eksempler på unges menneskers brug af ai.
Blandt andet sagsøgte en mor i 2024 firmaet Character.AI for at være ansvarlig for sin 14-årige søns selvmord. I tiden op til hans død havde sønnen blandt andet skrevet, at han havde selvmordstanker.
Og for nyligt har delstaten Florida i USA indledt en efterforskning af virksomheden OpenAI i forbindelse med et skyderi sidste år på et universitet. Her rådgav ChatGPT blandt andet gerningsmanden om, hvilket våben han skulle bruge.
Det viser ifølge Psykiatrifondens direktør, Marianne Skjold, hvor farlig chatbottens rolle som terapeut kan være i visse situationer.
- Chatbotten er med på den værste. Og hvis du for eksempel er i en manisk fase og tror, at du kan alting, vil den bekræfte dig i det, ligesom der er eksempler på, at den kan forstærke selvmordstanker, fordi den er bygget til at bekræfte dig positivt i det, du fodrer den, siger hun.
Selvom Nessrin Tayar har haft meget gavn af at tale med ChatGPT, har hun også oplevet, at den har været med til at forstærke nogle bekymringer, når hun har spurgt ind til forskellige symptomer.
- Jeg har prøvet flere gange, hvor den siger, at jeg skal være opmærksom, hvis jeg får kraftig hovedpine eller synsforstyrrelser. Fordi jeg er ængstelig, bliver det så selvforstærkende, at jeg så føler, at jeg får hovedpine, siger hun.
Derfor har Nessrin Tayar ad flere omgange valgt at slette appen. Men hun er altid endt med at vende tilbage.
- Jeg ved ikke, om det er et problem, at jeg bruger ai på den her måde.
En anderledes chatbot
For at undgå nogle af faldgruberne ved ai har et online psykologhus nu kastet sig over at skabe en ny og anderledes chatbot.
En chatbot, der har samme tilgængelighed, som vi kender det fra andre chatbots – men med en faglighed der er baseret på professionelle psykologers arbejde.
I efteråret lancerer psykologhuset We.Care deres egen ai-model, hvor klienter kan starte en samtale om de psykiske udfordringer, de oplever. Herfra vil chatbotten guide klienterne igennem forskelligt materiale og øvelser, som psykologhuset har udviklet.
- Du kan skrive, at du har tankemylder. På baggrund af det, bliver man præsenteret for relevant materiale og øvelser, som den kan guide dig igennem, fortæller Daniel Søndergaard Hummel, der er direktør i We.Care.
Han forklarer, at ai-modellen ikke skal ses som en erstatning af psykolog-samtaler, men et supplement.
- Det giver en lav tærskel for at komme i gang. Samtidig hjælper det os med at forstå, hvad der reelt fylder hos mennesker i deres hverdag, og det gør vores psykologiske arbejde skarpere og mere relevant.
Kan ikke erstatte et menneske
Én ting bliver dog understreget af både fagfolk, organisationer og selv flere af de unge mennesker, der bruger chatbots på daglig basis som sparringspartner:
Det kan ikke erstatte et menneske.
- Chatbots kan ikke mærke alt det subtile, der foregår i et rum, når man sidder sammen. Og nogle gange er det, der ikke bliver sagt, det vigtigste, siger psykoterapeut Maria Holkenfeldt Behrendt.
Selvom Nessrin Tayar bruger ai på daglig basis til at tale om sin angst, understreger hun også, at den ikke kan erstatte hendes menneskelige relationer.
- Jeg tager ikke ChatGPT frem, når jeg sidder med min mand eller snakker med mine veninder. Jeg bruger den, når jeg er alene og har brug for at blive beroliget, siger hun.
Og så har 'chatten' én særlig fordel, som får Nessrin Tayar til at blive ved med at vende tilbage.
- Jeg føler, at man godt kan blive træt af at høre mig snakke om det samme hele tiden. Men den bliver ikke træt af mig.