top of page

Optimaliseren tot het schuurt: een AI-chatbot luistert altijd. Maar moet je dat willen?

  • Foto van schrijver: Nina Dijkstra
    Nina Dijkstra
  • 5 uur geleden
  • 6 minuten om te lezen
„Therapie en gezelschap”, „mijn leven organiseren” en „het vinden van zingeving”.
Jij vraagt. ChatGPT biedt. Eerst vooral handig voor mails, lijstjes en samenvattingen. Inmiddels ook voor geruststelling, advies en richting.
 
Maar wat gebeurt er wanneer efficiëntie zich met onze mentale gezondheid gaat bemoeien? Volgens onderzoeker psychologie en technologie Tom Van Daele en techniekfilosoof en AI-ethicus Joris Krijger is artificiële intelligentie (AI) allang meer dan een technologische hype.

 

Tom Van Daele - Onderzoeker psychologie & technologie 📸 Christiaan Krop
Tom Van Daele - Onderzoeker psychologie & technologie 📸 Christiaan Krop

Wat kan technologie betekenen voor onze mentale gezondheid? Het is een vraag waar onderzoeker Tom Van Daele zich aan Thomas More al ruim vijftien jaar over buigt: „In het verleden ging het vooral over klassieke technologie”, zegt Van Daele. „Smartphoneapps, wearables, immersieve technologie zoals virtual reality.” Nu gaat het in toenemende mate over AI. „Natuurlijk.”

 

Technologie in de geestelijke gezondheidszorg is op zich niet nieuw. De reactie daarop wel: „In het verleden was het soms moeilijk mensen technologie te laten gebruiken, zowel bij hulpzoekenden als hulpverleners. Met AI is het soms moeilijk om het ze níet te laten gebruiken.”


Waarom wordt AI zo warm onthaald?

In klinische studies lijkt traditionele technologie vaak goed te werken. Eén groep krijgt de interventie, de andere wordt op een wachtlijst geplaatst. „Zo zien we dat ze effectief zijn, een grote impact hebben en potentieel kostenbesparend zijn.” Maar, benadrukt Van Deale: „Ze werken in theorie.”

 

„Veel van die studies zijn artificieel en weerspiegelen niet één op één de praktijk.” Wat werd onderzocht haalde de markt niet. Wat de markt haalde, werd niet onderzocht. En als de technologie al beschikbaar was, moest de gebruiker vaak zelf betalen.

 

Zelfs wanneer die obstakels verdwijnen, haken gebruikers snel af.„Als je kijkt naar zelfhulp-apps, dan zien we een hoge drop-out”, zegt Van Daele. „Na één dag ben je 30 procent van je gebruikers kwijt, na één week 90 procent en na één maand 95 procent.”


AI-chatbots lijken dat patroon voorlopig te doorbreken. En dat is geen toeval. Ze hebben eigenschappen die het opvallend dicht bij hulpverleners brengen.



„Allereerst is er antropomorfisme: we hebben de interactie met een chatbot sterk vermenselijkt.”„Daarnaast is er ingebouwde empathie: de chatbot doet wat je vraagt en reageert daar meestal sympathiek op.”Ten slotte is er sycophancy: „De onkritische instemming: meegaan met het verhaal van de gebruiker.”

 

„Die drie dingen samen maken dat je een heel toegankelijke, begripvolle gesprekspartner hebt wanneer je je problemen of relatievragen deelt”, zegt Van Daele. Daar komt bij dat die 24/7 beschikbaar is, en dat het gesprek zich afspeelt in de beslotenheid van je eigen kamer.

 

Geen wachttijden, geen drempel, geen publiek. Alleen jij en een chatbot die altijd lijkt te luisteren en altijd bevestiging biedt.

 

Bevestiging. Beschikbaarheid. Is dat wel een realistische therapeutische setting?

Niet elke vorm van AI is hetzelfde. Van Daele maakt een onderscheid tussen foundation models zoals ChatGPT en toepassingen die specifiek voor de geestelijke gezondheidszorg worden ontwikkeld. „Internationaal zien we steeds meer grootschalige klinische studies waarin AI-systemen op een verantwoorde manier worden ingezet.”


„Iemand die weerstand biedt, die kritisch is en fysiek tegenover je zit. Dat zijn dingen waar chatbots in tekortschieten.” Tom Van Daele

Een openhartig gesprek met ChatGPT? Dat kán therapeutisch zijn, afhankelijk van hoe en waarvoor je het gebruikt. „Bijvoorbeeld wanneer iemand nood heeft aan een oplossingsgerichte aanpak, zeker als er ook nog een wisselwerking is met een échte psycholoog of therapeut.”

 

Dat sommigen een waardevolle gesprekspartner vinden in een chatbot blijkt ook uit een recente studentenbevraging. Toch benadrukt Van Daele dat zulke gesprekken niet voor iedereen werken: Iemand die weerstand biedt, die kritisch is en fysiek tegenover je zit. Dat zijn dingen waar chatbots in tekortschieten.”

 

Die gepolijste gesprekken. Wat doet dat met ons?

Joris Krijger - Techniekfilosoof & AI-ethicus
Joris Krijger - Techniekfilosoof & AI-ethicus

Het zijn vragen die AI-ethicus Joris Krijger bezighouden: „We bouwen natuurlijk allemaal technologie,” zegt hij. „Maar wat doet techniek met ons als mens en samenleving?” Volgens Krijger draait AI-ethiek om precies deze wisselwerking.

 

En dat gaat niet enkel om de manier waarop we leven, maar ook waar we betekenis in zoeken: „Wat ik merk, is dat de mens zelf, onze waarden en waar we waarde aan ontlenen, aan het veranderen zijn.”


Een confronterend gesprek met een vriend kan schuren.

Maar dat maakt het een waardevolle vriendschap. Er zit eerlijkheid in. Moeite. Commitment.

 

Met enige voorzichtigheid stelt Krijger dat juist deze moeite en weerstand houvast kunnen bieden: „Doordat iets niet makkelijk was, heeft het mij iets geleerd over mezelf en ben ik erin gegroeid. Als je met AI die frictie gladstrijkt, kan je uit het zicht verliezen wie je bent en waar je naartoe wilt.”

 

Wat zegt het toenemend gebruik van AI over ons?

Volgens Krijger hebben wij sterk de neiging om onszelf van de beste kant te laten zien: „Sociale media laten die kant van ons mooi tot uiting komen. Met AI wordt het nog makkelijker om daarin bevestigd te worden.”

 

En hierin vindt Krijger een paradox die hem fascineert: „We willen de beste versie van onszelf zijn, anderzijds willen we ook bevestiging van onze imperfecties.” In de vorm van authentiek contact. Échte verbinding.

 

„Tegelijkertijd rennen we vaak weg voor precies dat contact. En dan lijkt AI de veiligste manier om die beste versie te bereiken.”


 

Die drang naar optimalisatie zien we ook terug in hoe instellingen naar zorg kijken: „We hebben in de geestelijke gezondheidszorg een systeem opgebouwd waarin we voortdurend proberen te voorspellen welke oplossing het best werkt,” stelt Krijger. „Zowel bij de vraag: wat scheelt er? Als: welke behandeling gaat het meest effectief zijn?”

 

Zulke systemen laten zich goed optimaliseren met AI, maar de vraag is: „Is dat het juiste systeem om te optimaliseren voor het bieden van mentale steun?”

 

Dit besef kwam tijdens een korte onderdompeling in psychoanalyse. In niks minder dan Argentinië: „Het gaat vaak ook over een luisterend oor bieden en meedenken. In die aandacht kan ook al heel veel heling zitten.”

 

Is dat efficiënt? Allerminst. Waardevoller? „Misschien wel,” denkt Krijger hardop.

 

Moeten we hier als samenleving weerstand tegen bieden?

„De toekomst van kwalitatieve AI-gebaseerde hulpverlening is an sich veelbelovend”, zegt Van Daele. „Waar we voor moeten waken, is dat AI-therapie niet de standaardtherapie wordt.”

 

„Er zijn veel meer mensen die hulp nodig hebben dan er hulp beschikbaar is. Dus als we iets kunnen gebruiken om dat toegankelijker te maken: waarom niet?”

 

Maar ChatGPT is geen therapeut. En precies daarom vraagt hij om strengere grenzen. „We zien dat mensen geregeld met chatbots praten over suïcide of eetstoornissen.” Lange tijd waren daar nauwelijks restricties rond.

 

„Waarschijnlijk vanuit de bigtech filosofie: go fast and break things. We maken het beschikbaar en we zien wel waar het toe leidt.”


Welke waarden willen we overeind houden? Wie moet die waarden in de praktijk brengen? En wie kan dat corrigeren?” Joris Krijger

Intussen grijpen veel systemen sneller in, bijvoorbeeld met verwijzingen naar hulplijnen. Toch blijft het zoeken naar een werkbaar evenwicht. „Het grootste probleem is dat het er nu al is”, zegt Van Daele. „Het blijft een moving target dat je probeert te raken, zodat je het veilig kan aanbieden.”

 

Volgens Krijger zegt dat veel over hoe we vandaag naar verantwoordelijkheid kijken: „Verantwoordelijkheid wordt vaak pas besproken wanneer er iets fout loopt”, zegt hij. „Dan kijken we achteraf wie we de meeste schuld kunnen geven.”

 

Voor Krijger begint verantwoordelijkheid net vóór er iets fout loopt: „Welke waarden willen we overeind houden? Wie moet die waarden in de praktijk brengen? En wie kan dat corrigeren?” Ja, de organisatie is verantwoordelijk. Maar uiteindelijk bepalen we samen wat we überhaupt niet kapot willen maken.


 

Wat gebeurt er wanneer AI blijft luisteren? En wij naar AI?

„Het interessante aan deze tijd”, zegt Krijger, „is dat er een heleboel aan het verschuiven is. En vaak heb je dat niet door als je daar middenin zit.”

 

Maakt AI ons afhankelijk? Ongelukkiger? Volgens Van Daele zijn dat vragen waar voorlopig nog veel speculatie rondhangt.

 

Als academicus is dat geen comfortabele positie, geeft hij toe: „De snelheid van de technologie, en het feit dat we continu achter de feiten aanlopen… dat kan vermoeiend zijn.”

 

Maar niet zonder perspectief: „Over enige tijd verwacht ik meer toepassingen die effectief en veilig zijn,” zegt hij. „Waarvan we kunnen zeggen: in deze context kunnen we het met een gerust hart aanbieden.”

 

„Als je het wilt,” voegt hij toe.

 

Krijger kijkt naar die ontwikkeling met iets meer afstand: „Het toepassen van AI kan voelen als een klein stapje. Maar we moeten nadenken over de optelsom van álle kleine stapjes.”

 

„Als je geen beeld hebt van de richting waarin je beweegt, heb je niets om die stappen tegen te toetsen. Het is handig. Het is efficiënt. Maar moet je dat altijd willen?”

 

Een vraag die zich niet snel laat automatiseren.




 
 
 

Opmerkingen


Mooie gedachte of klote idee? Mag ook andersom. Laat het weten!

© 2035 by Train of Thoughts. Powered and secured by Wix

bottom of page