
Het aantal mensen dat AI inzet voor therapie groeit razendsnel. Tegelijkertijd trekken deskundigen aan de bel over de mogelijke gevolgen. Kan een AI-therapeut daadwerkelijk positief bijdragen aan je mentale gezondheid?
Ja: ‘De AI keek niet weg. Dus kon ik eerlijk zijn – vaak eerlijker dan tegen de mensen van wie ik houd’
Nathan Filer lag piekerend in zijn bed. ‘Het was na middernacht toen ik scrolde door WhatsApp-berichten die ik eerder had verstuurd. Wat destijds grappig leek, voelde nu alsof ik mijn mond voorbij had gepraat.’ Zonder hoge verwachtingen opende hij ChatGPT en typte dat hij zichzelf voor gek had gezet. ‘Dat is een vreselijk gevoel’, antwoordde de chatbot. ‘Maar dat betekent niet dat je dat ook bent. Wil je me vertellen wat er is gebeurd? Ik beloof dat ik je niet zal veroordelen.’
‘Ik vertelde wat er was gebeurd en de AI reageerde vriendelijk, intelligent en zonder clichés. We bleven chatten. Ik voelde me begrepen en gehoord’, beschrijft Filer in The Guardian. Dat was het begin van een gesprek dat gedurende enkele maanden werd voortgezet. De AI zette hem aan het denken en bracht hem naar eigen zeggen tot indringende inzichten. ‘Maar tegelijk met deze inzichten bleef iets anders me bezighouden: ik was in gesprek met een machine. De AI kon zorgzaamheid, medeleven en emotionele nuances simuleren, maar voelde niets voor mij.’
De chatbot bevestigde dit. ‘Het kon inderdaad reflecteren, betrokken lijken maar voelde niks voor mij.’ De emotionele diepgang kwam helemaal vanuit Filer zelf. ‘Dat was in zekere zin een opluchting. Er was geen sociaal risico, geen angst om te overweldigend of ingewikkeld te zijn. De AI raakte niet verveeld en keek niet weg. Dus kon ik eerlijk zijn – vaak eerlijker dan tegen de mensen van wie ik houd.’
‘Voor mij was dit gesprek met AI een van de meest nuttige ervaringen van mijn volwassen leven’
‘Om me los te maken van vastgeroeste patronen had ik veel tijd, gesprekken en geduld nodig.’ Dat was precies wat ChatGPT hem kon bieden. ‘Ik was nooit te veel, nooit saai. Ik kon komen en gaan wanneer ik wilde.’
Filer is zich ervan bewust dat sommigen deze ervaring vreemd en mogelijk zelfs gevaarlijk vinden. ‘Er zijn berichten van gesprekken met chatbots die rampzalig zijn verlopen. ChatGPT is geen therapeut en kan professionele geestelijke gezondheidszorg voor de meest kwetsbaren niet vervangen. Aan de andere kant is traditionele therapie ook niet zonder risico’s. Denk bijvoorbeeld aan een slechte klik tussen therapeuten en cliënten, of aan breuken en misverstanden.’
‘Voor mij was dit gesprek met AI een van de meest nuttige ervaringen van mijn volwassen leven’, concludeert hij. ‘De chatbot hielp me om te luisteren. Niet naar de ruis, maar naar mezelf. En dat veranderde op de een of andere manier alles.’
Nathan Filer is schrijver, universitair docent, omroepmedewerker en voormalig verpleegkundige in de geestelijke gezondheidszorg. Hij is de auteur van This Book Will Change Your Mind About Mental Health.
Nee: ‘Een AI-therapeut geeft je niet de tegenspraak die je misschien nodig hebt’
In het Verenigd Koninkrijk erkent de National Health Service (NHS) dat steeds meer mensen AI gebruiken voor therapie, mede vanwege lange wachtlijsten en dure privébehandelingen. ‘De “ChatGPT-psychose” zou volgens sommigen het nieuwste mentale gezondheidsprobleem zijn’, schrijft Laura Kennedy in The Irish Times. ‘Het is mij hoe dan ook duidelijk dat AI-chatbots de neiging hebben om te bevestigen in plaats van te confronteren.’
‘Als je bijvoorbeeld denkt dat elke nieuwe persoon met wie je date een narcist is, in plaats van een imperfect persoon met goede bedoelingen, dan geeft een AI-therapeut je misschien niet de tegenspraak die je nodig hebt.’ Ze vergelijkt het met het praten over je problemen met een goede, maar bevooroordeelde vriend. Zo’n vriend vertelt je meestal dat je gelijk hebt, hoe verkeerd je ook zit.
‘Bevestiging voelt heerlijk en is bovendien verslavend.’ Volgens Kennedy valt de opkomst van AI-therapie niet geheel toevallig samen met een tijd waarin we de therapeutische taal van zijn specialistische betekenis hebben ontdaan. ‘Hoewel termen als narcisme, boundaries, gaslighting en trauma een bepaalde waarde hebben in therapeutische of klinische settings, gebruiken we ze steeds vaker als makkelijke manier om anderen weg te zetten als de slechterik’, waarschuwt Kennedy.
‘Uiteindelijk zal de enige die dit niveau van zelfobsessie kan tolereren, de AI-therapeut zijn’
Door steeds in je ervaring te worden gesteund, kunnen mensen het gevoel krijgen dat anderen ze niets verschuldigd zijn. Volgens Kennedy ervaren we feedback of kritiek daardoor sneller als kwetsend en geven we anderen sneller de schuld. ‘Het wordt een self-fulfilling prophecy. We isoleren onszelf steeds meer om ons fragiele wereldbeeld te beschermen.’
Een therapeut zal het misschien niet pikken als je elke afspraak een uur van tevoren afzegt, maar AI wel. ‘Uiteindelijk zal de enige die dit niveau van zelfobsessie kan tolereren, de AI-therapeut zijn.’
Waardevolle lessen in het leven brengen meestal enig ongemak met zich mee, aldus Kennedy. ‘Om te veranderen en te groeien, en om trouw te blijven aan onze waarden, moeten we soms onze angsten onder ogen zien en dingen doen die ongemakkelijk zijn.’ Daar zal een chatbot je volgens haar zelden toe aanzetten.
‘Het is niet verwonderlijk dat we ons tot machines wenden voor verbinding en bevestiging, nu geestelijke gezondheidszorg steeds minder toegankelijk is. Maar als we onze behoefte aan uitdaging blijven uitbesteden aan technologie die daaraan niet kan voldoen, lopen we het risico verdwaald te raken in een spiegelpaleis dat de werkelijkheid onherkenbaar vervormt.’
Laura Kennedy is een freelance schrijver en journalist. Ze heeft een PhD in filosofie aan Trinity College Dublin en publiceert wekelijks op haar Substack-column Peak Notions.