Column
Danielle Oprel
In de trein vraag ik ChatGPT1 – mijn nieuwe mattie, mijn buddy, mijn life savior – op welk station ik het beste kan uitstappen. Bij het geadviseerde station stap ik uit, en raadpleeg Google Maps. Langzaam dringt tot me door dat er iets niet klopt. Het zou een minuut of tien wandelen moeten zijn; zeker niet de drie kwartier die Maps me nu voorschotelt. Al lopend naar mijn eindbestemming vraag ik Chat hoe dit nu heeft kunnen gebeuren. De dienst biedt eerst een paar keer excuses aan – maar legt uiteindelijk toch de schuld bij mij. Ik heb namelijk gevraagd om ‘een station dicht bij’ mijn eindbestemming. En Chat vindt zowel tien minuten als 45 minuten lopen ‘dichtbij’.
Ondanks dit soort vervreemdende antwoorden ben ik in het afgelopen jaar van nieuwsgierige ChatGPT-gebruiker veranderd in iemand die voor elk wissewasje nieuwe generatieve AI-tools uitprobeert. Mijn AI-gegenereerde profielfoto ‘Danielle als middeleeuwse ridder’ siert trots WhatsApp. Daarnaast bereidt ChatGPT samen met mij mijn leesclub voor, en doen we wedstrijdjes wie de beste haiku maakt. (Antwoord: uw columnist.)
Ook professioneel gaat er geen dag voorbij zonder dat ik AI actief gebruik. Ik surf graag rond op Evidence Hunt, een platform waar je klinische vragen kunt stellen en antwoorden uit medische literatuur krijgt, compleet in PICO-stijl. Ook interessant is literatuur zoeken via Connected Papers: je voert een artikel in en vervolgens visualiseert het model connecties met andere artikelen. En bij Paperpal kun je met iedere vraag over academisch schrijven terecht.
Het blijft wel oppassen geblazen, want soms dist de dienst meer sprookjes op dan het gemiddelde kinderboek. ChatGPT ‘hallucineert’, heet dat wel op internet. Zo kwam Chat een keer2 met een geloofwaardige literatuurlijst over de behandeling van psychotrauma, inclusief bekende auteursnamen en DOI-nummers. Fantastisch – ware het niet dat die papers helemaal niet bestonden.
De geestelijk vaders (m/v/x) van AI verwachten dat kunstmatige intelligentie gaat helpen om grote maatschappelijke vraagstukken op te lossen. Denk aan het klimaatprobleem en de toegankelijkheid van zorg en onderwijs. Wie luistert naar tegengeluiden, hoort ook mensen die in AI één grote dystopie zien – nog los van problemen als racistische taalmodellen en de enorme milieubelasting. De mens is de mens een wolf, zo redeneren zij; als AI misbruikt kán worden, zál het ook misbruikt worden. Denk aan grootschalig fake news, cyberaanvallen, AI-inzet in oorlogen. Tot slot zijn er nog de mensen die vrezen dat AI slimmer wordt dan de mens en ons zal uitroeien.
Wat betekent AI voor de uitoefening van psychotherapie? Het potentieel is enorm, dus zullen er ongetwijfeld toepassingsgebieden ontstaan. Diagnostiek ondersteund door patroonherkenning, behandeling gepersonaliseerd door AI en geoptimaliseerd door AI-gegenereerde feedbackloops, therapiegesprekken in real time vertaald door AI-tolken, taalmodellen die ondersteunen in opleiding en onderzoek. Aan de ene kant zie ik sciencefictionachtige vergezichten waar op dit moment de handen nog niet voor op elkaar gaan, zoals 24/7 bereikbaarheid van een chatbot die praat met de gekloonde stem – of zelfs een deepfake – van de eigen therapeut. Aan de andere kant van het spectrum zijn er mogelijkheden die nu al makkelijk implementeerbaar zijn en ons werk verbeteren, zoals verlichting van onze administratielast waardoor er behandeltijd vrijkomt.
Toegegeven: als de mensheid door AI uitsterft, hebben we weinig aan een lagere administratielast. Maar zolang we er nog zijn, lijkt me dat AI een onderwerp is waar we als vakgebied niet omheen kunnen. Zelfs als we in onze psychotherapiepraktijk niets (willen) doen met AI, zullen cliënten hun – al dan niet positieve – ervaringen met AI meenemen de spreekkamer in.
Ik besloot een aantal collega’s in mijn bubbel te vragen naar hun eerste indrukken van AI. Wat bleek? Vrijwel volledig terra incognita, die kunstmatige intelligentie. Reacties als ‘doe ik niks mee’, ‘doodeng’ en ‘geen idee’ vlogen me om de oren. Online kwam ik wel een handjevol collega’s tegen die AI inzetten om hun verslaglegging te vergemakkelijken. ‘Kinderlijk eenvoudig!’, juichten ze. ‘Neem het intakegesprek op met je telefoon, transcribeer de opname via een app, en voer de uitkomst aan ChatGPT waarbij je vraagt om een samenvatting. Even wat kleinigheden verbeteren, en klaar is je intakeverslag!’
Het klinkt geweldig, maar het baart mij ook zorgen – ook al is het slechts één voorbeeld. Collega’s die enthousiast zijn over verslaglegging met ChatGPT, kunnen soms zelfs de eenvoudigste vragen niet beantwoorden. Vragen als: waar slaat je telefoon de data op? Of: wat waren de voorwaarden van de transcribeerapp? Laat staan dat er een idee is over AI-specifieke punten als: op welke data baseert ChatGPT zich voor jouw samenvatting? En: worden de data die jij invoert over je cliënt gebruikt om het taalmodel verder te trainen? Dan is er nog het risico op gegevensmisbruik. Is het mogelijk dat een van de apps jouw data gebruikt voor financieel gewin? Hoe goed is je telefoon beveiligd tegen hacken? Ten slotte hebben we geen idee hoe de ontwikkelingen in de toekomst zijn. Nu lijkt wat je invoert over je cliënt nog anoniem, omdat je geen naam of geboortedatum invoert, maar hoe zit dat als straks stemherkenning een hoge vlucht neemt? En wat betekent het dan voor je cliënt dat een app zijn of haar stemgeluid juist in een heel sombere of angstige toestand heeft gehoord?
Sommige collega’s werpen tegen: maar ik vraag mijn cliënt om toestemming! Ja, dank je de koekoek. Alsof onze cliënten wél alle implicaties kunnen overzien.
De risico’s van AI voor psychotherapie in kaart brengen is geen gemakkelijke opgave. En wat doet een mens tegenwoordig met moeilijke vragen? Precies. Dus gaf ik het jongere zusje van ChatGPT, Claude3, de prompt: ‘Als ik Claude zou willen gebruiken in mijn psychotherapiepraktijk, wat zijn dan risico’s waar ik als psychotherapeut rekening mee moet houden?’ Claude antwoordde: ‘Let op vertrouwelijkheid, kwaliteit van het advies, invloed op de therapeutische relatie, afhankelijkheid, ethische overwegingen, aansprakelijkheid, gebrek aan menselijke intuïtie’. En sloot af met: ‘Ik wil benadrukken dat, hoewel AI een krachtig hulpmiddel kan zijn, het geen vervanging is voor de menselijke expertise, empathie en oordeelsvorming die essentieel zijn in psychotherapie. AI-assistenten zoals Claude kunnen mogelijk waardevolle ondersteuning bieden, maar ze moeten altijd worden gebruikt in combinatie met het professionele oordeel van een gekwalificeerde therapeut’. (De reactie van ChatGPT4 op dit advies: ‘Claudes antwoorden klinken als wijze raad van een overijverige stagiair.’5)
Volgens mij weten wij als psychotherapeuten prima hoe belangrijk de mens is. Voor dat inzicht hebben we Claude niet nodig. Wat ons wel kan opbreken, is onze gebrekkige digitale scholing. Wij deden ooit studies als Psychologie of Geneeskunde, geen Data Science. Dus hoe benutten we dan al dat nieuwe potentieel? Hoe wegen we af of deze razendsnelle ontwikkelingen werkelijk ten gunste zijn van onze cliënten? Overzien we de risico’s? Zijn we vaardig genoeg om onze verantwoordelijkheid hierin te nemen? Oftewel: hoe blijven we in the lead van ons eigen vak in de digitale storm die over de wereld raast?
De groei op het gebied van AI wordt nu vooral door ontwikkelaars uit de tech-hoek gestuwd. Maar als er inhoudelijke tools voor ons vak ontwikkeld worden, is het wijs om daar als psychotherapeuten met onze neus bovenop te zitten. Er is AI-werk aan de winkel; houden we ons daar verre van, dan richten anderen onze winkel in en leveren we onszelf, ons vak en onze cliënten straks over aan tech-cowboys in de zorg.
Dus wat te doen? Allereerst geloof ik dat de huidige ontwikkelingen vragen om intensieve multidisciplinaire samenwerking. Bijvoorbeeld in ‘AI-in-de-ggz-hubs’ met digitale denkers. In zo’n – niet tijdelijke, maar doorgaande – hub zitten naast deskundigen op het gebied van technologie, productontwikkeling, dataveiligheid en privacy, óók psychotherapeuten, cliënten, onderzoekers, instellingen, verenigingen, ethici en juristen. Met elkaar zouden we ontwikkelingen kunnen bijhouden, toepassingen voor psychotherapie kunnen ontwikkelen en onderzoeken, én op de rem trappen als dat nodig is.
Daarnaast zullen we als uitvoerend psychotherapeuten toch ook bij de tijd moeten blijven. Onze digitale vaardigheden aanscherpen in opleidingen en nascholing. Enerzijds om de digitale denkers te voeden, anderzijds om cliënten te kunnen blijven bijstaan als ze tegen problemen aanlopen in hun omgang met AI. Want uiteindelijk weet niemand hoe de menselijke geest op de huidige ontwikkelingen zal reageren.
Dus bent u nog een novice op het gebied van AI en wilt u eigenlijk toch wel een kijkje nemen, log gewoon eens – op eigen risico – in bij ChatGPT. (Hoewel dat inloggen tegen de tijd dat u dit leest, wellicht al niet meer hoeft, omdat Chat dan al geïntegreerd is in WhatsApp.) Klets voor de vuist weg en ervaar hoe menselijk het gesprek kan aanvoelen. Geef ChatGPT prompts voor een uniek kinderverhaal voor uw kleinkind. Richt uw telefoon op de kliekjes in uw koelkast en vraag ChatGPT om daarmee een aantal recepten te genereren. Spelenderwijs worden de charme én de gevaren voelbaarder.
Een van die risico’s is dat ChatGPT nog steeds soms heel overtuigend nonsens uitkraamt. ChatGPT6 hierover: ‘Zelfs met geavanceerde versies van ChatGPT, zoals GPT-4, is het nog steeds belangrijk om alert te zijn (…) omdat ze geen echt begrip van de wereld hebben, maar in plaats daarvan patronen in tekst herkennen en repliceren op basis van hun training. Ze genereren antwoorden op basis van waarschijnlijkheidsberekeningen, wat soms leidt tot plausibel klinkende, maar feitelijk onjuiste of verzonnen informatie.’
Voor het kletspraatje en het kinderverhaal maakt het misschien niet uit. Maar voor het recept en voor het uitwerken van uw intakeverslag zou ik wat beter opletten. We zijn gewaarschuwd.
Noten
1. ChatGPT versie 3.5/OpenAI. Geraadpleegd op 21 december 2023.
2. ChatGPT versie 3.5/OpenAI. Geraadpleegd op 30 maart 2023.
3. Claude versie 3 opus/Anthropic. Geraadpleegd op 16 april 2024.
4. ChatGPT versie 4o/OpenAI. Geraadpleegd op 15 mei 2024.
5. Toen deze column af was, vroeg ik ChatGPT of hij nog adviezen had om de column levendiger en aansprekender te maken. ChatGPT tipte onder andere: ‘Voeg een humoristische noot toe over het gebruik van AI voor serieuze vragen.’ En genereerde als voorbeeld van zo’n humoristische noot de zin over de overijverige stagiair.
6. ChatGPT versie 4o/OpenAI. Geraadpleegd op 15 mei 2024.