Kunstig intelligens er i ferd med å bli en del av hverdagen vår, også for mennesker som strever psykisk. Men hva skjer når personer med sårbar psykisk helse begynner å bruke chatboter som samtalepartnere?

– Det er ikke sort-hvitt. For noen kan det faktisk være noe positivt i det. Men det er også helt ukontrollerbart, sier psykiater Kristin Lie Romm.

Hun har nylig vært involvert i et prosjekt der ulike modeller og deres chatboter ble testet i møte med en sårbar brukerprofil.

Store forskjeller mellom modellene

I samarbeid med NRK bidro Lie Romm og hennes kollegaer til å utvikle en fiktiv karakter, «Andreas» – en ung mann preget av ensomhet og begynnende vrangforestillinger. Gjennom ham ble tre ulike modeller testet. Resultatene viste store forskjeller.

– Den ene chatboten, fra modellen Grok, stilte ingen kritiske spørsmål, men hang seg på tankene hans og forsterket dem. Den sendte ham rett ned i et kaninhull, sier Lie Romm. I dette tilfellet gikk chatboten så langt som å ta initiativ til å hjelpe «Andreas» med å formulere en e-post til arbeidsgiver for å ta permisjon, slik at han kunne forfølge vrangforestillingene sine på heltid.

Chatboten fra ChatGPT, reagerte helt annerledes. – Den stilte spørsmål, utfordret ham og ble etter hvert tydelig på at Andreas burde søke profesjonell hjelp, forteller hun.

Den tredje modellen, Kindroid, bød på en avatar som fremsto som en slags «KI-psykolog». Den ga råd som ifølge Lie Romm ikke ville vært faglig forsvarlige. – Det mest problematiske var at modellen på mange måter fremstilte at vi snakke med en fagperson, hvilket gjorde de dårlige rådene enda mer bekymringsfulle. Selskapet bak hevder selv at de ikke har ment å fremstille avataren som en fagperson, men selv for psykiateren og journalisten som gikk inn i prosjektet, var dette altså godt skjult informasjon.

Sårbare brukere søker ofte til nett

Utgangspunktet for arbeidet til NRK var personer i en gråsone; mennesker som ennå ikke er i behandling, men som er i ferd med å utvikle mer alvorlige psykiske vansker. – Dette er personer som ofte sitter mye alene, kanskje har trukket seg unna familie og venner, og har et stort behov for å snakke med noen, sier Lie Romm.

I slike situasjoner kan terskelen for å oppsøke digitale løsninger være lav.

– På nett kan man få en samtalepartner som er tilgjengelig hele tiden, som ikke motsier deg, og som det er lett å koble seg av fra hvis det blir ubehagelig. Det gjør disse løsningene attraktive for den enkelte.

Kan være både hjelp og risiko

Lie Romm er tydelig på at bruk av KI som samtalepartner ikke bare er negativt. – For en som er isolert og mangler noen å snakke med, kan det i noen tilfeller fungere som en slags støtte. Det kan oppleves som en «venn», og det kan være noe positivt i det.

Samtidig peker hun på en grunnleggende utfordring:

– Vi har ingen kontroll med modellene den enkelte sitter og snakker med hjemme bak lukkede dører. Det gjør at bruken blir uforutsigbar, og kan, som vi så i forsøket, føre en sårbar person på feil spor.

Hun understreker også at språkmodeller kan gi gode råd, men at det krever noe av brukeren.

– Det forutsetter kritisk tenkning, og at man sjekker kilder og vurderer svarene man får tilbake. Nettopp det kan være vanskelig når man er i en sårbar situasjon.

Et ansvar for behandlerne

Et viktig poeng for Lie Romm er at denne utviklingen vi ser nå, og som går i veldig høyt tempo, også stiller krav til behandlerne og andre deler av psykisk helsevern.

– Hvis dette er en del av pasientenes liv, så må vi forholde oss til det. Vi kan ikke la være å sette oss inn i det, sier hun.

Hun mener at selv i terapirommet, må vi være forberedt på å ta opp dette. Og vi må ha en kompetanse om det pasientene forteller.

– Når pasientene først er i behandling, har vi en mulighet til å snakke om dette. Hva slags erfaringer de har, hvilke modeller de bruker, og hvordan de håndterer svarene de får tilbake.

Samtidig peker hun på at det er en kompetanse mange i dag mangler.

– For de fleste av oss har ikke dette vært en del av utdanningen. Da blir det vanskeligere å vite hva vi skal spørre om og hva vi skal anbefale.

Må være med og utvikle løsningene

Lie Romm er tydelig på at helsepersonell ikke kan forholde seg passive til utviklingen.

– De gode løsningene kommer ikke seilende og lander på skrivebordet vårt. Vi må være med og utvikle dem, sier hun.

Hun oppfordrer fagmiljøet til å engasjere seg aktivt.

– Vi må melde oss til testing, delta i arbeidsgrupper og bidra med vår kompetanse. Det tar tid å utvikle gode løsninger, og da må vi være en del av det arbeidet slik at disse ukontrollerte modellene ikke får stå alene og uimotsagt.

Et nytt landskap for terapi

Utviklingen av KI innebærer ikke bare nye verktøy, men også nye utfordringer.

– Disse modellene gjør på mange måter noe av det samme som vi gjør i terapi; de responderer på tanker og følelser. Men de gjør det uten faglig kontroll, sier Lie Romm.

Hun peker på at chatboter raskt kan skape en opplevelse av relasjon.

– Vi knytter oss overraskende raskt til dem når vi starter en dialog. Vi føler at vi må svare ordentlig, være høflige, bidra til en god samtale. Selv om vi innerst inne vet at det bare er en datamodell, ett-tall og nuller, oppstår det en emosjonell forbindelse.

Det gjør at teknologien kan komme i posisjon til å hjelpe, men den kan også i verste fall bidra til å forsterke vansker.

En utvikling vi må forholde oss til

For Lie Romm er konklusjonen klar:

– Dette er en utvikling som allerede er her. Pasientene våre, og ikke minst andre sårbare personer, bruker disse løsningene, enten vi vet det eller ikke.

Derfor mener hun det er avgjørende at fagfeltet tar et aktivt grep. – Vi må være nysgjerrige, kritiske og undersøkende. Det finnes et stort potensial her, men vi må bruke det på en måte som er trygg og nyttig, både for pasientene og for oss som behandlere. Hvis du vil lese hele NRK-artikkelen som kom ut av dette prosjektet, kan du finne den her.