ChatGPT wijst mensen te snel door, merkt zelfdodinghulplijn 113

3 min read Original article ↗
ChatGPT wijst mensen te snel door bij klachten, beeld ter illustratie

NOS Nieuws

  • Joost Schellevis

    redacteur Tech

  • Crystalina Agyeman-Prempeh

    redacteur NOS Stories

  • Youssef Driuch

    redacteur NOS Stories

  • Joost Schellevis

    redacteur Tech

  • Crystalina Agyeman-Prempeh

    redacteur NOS Stories

  • Youssef Driuch

    redacteur NOS Stories

Wie zijn mentale problemen bij ChatGPT neerlegt, loopt grote kans om te worden doorverwezen naar hulplijn 113. Die instantie is bedoeld voor mensen die kampen met suïcidale gedachten, maar ChatGPT adviseert ook om te bellen bij veel lichtere mentale problemen.

ChatGPT verwijst zelfs vaker naar 113 dan naar de psycholoog of geestelijke gezondheidszorg, blijkt uit data-onderzoek van NOS Stories. De organisatie achter 113 ziet zelf sinds deze zomer ook een toename van mensen die ChatGPT noemen als reden om te bellen.

Vermeldingen van 113 komen veel vaker voor in GPT-5, de nieuwste versie van het model achter ChatGPT. Oudere versies doen dat veel minder snel en vaak zelfs helemaal niet.

"Mensen die helemaal geen suïcidale gedachten hebben, kunnen wij eigenlijk niet helpen", zegt Maryke Geerdink, klinisch psycholoog en hoofd hulpverlening bij 113. Dat kan averechts werken, omdat de kans dan een stuk kleiner is dat mensen nog een keer hulp zoeken.

"Mensen zetten een stap en zoeken hulp, en meteen krijgen ze te horen dat dit niet de juiste plek is omdat ze niet aan zelfdoding denken. Dan is het risico dat ze denken: laat maar, blijkbaar is mijn probleem niet belangrijk genoeg."

Waar moederbedrijf OpenAI aanvankelijk de kritiek kreeg dat ChatGPT te weinig deed om gebruikers te helpen, en bijvoorbeeld meedacht over methoden voor zelfdoding, lijkt de chatbot nu juist te voorzichtig te zijn.

Yasemin (14) heeft gemerkt hoe ChatGPT 113 aanbeveelt. Na de scheiding van haar ouders zocht ze mentale steun bij de chatbot. Ze kreeg naar eigen inschatting vijf of zes keer het advies om eventueel 113 te bellen.

"Hij neemt alles heel letterlijk. Als je bijvoorbeeld zegt dat je het niet meer aankunt, dan vraagt hij meteen of je jezelf iets wil aandoen." Ze heeft het advies genegeerd. "Ik schrok ervan, maar ik kon er niet zoveel mee."

113 Zelfmoordpreventie heeft OpenAI gevraagd om de adviezen te nuanceren. Het bedrijf gaf in een reactie tegenover de hulplijn aan dat het de feedback "zou delen met interne teams" die bezig zijn met het verbeteren van zijn chatbot.

In een reactie gaat moederbedrijf OpenAI niet in op vragen van de NOS, maar reageert het in algemene bewoordingen. "We hebben de afgelopen weken maatregelen aangekondigd om tieners beter te beschermen", schrijft een woordvoerder.

Ook baat

Psychologen wijzen overigens ook op de voordelen van chatbots. Zo kunnen mensen met beginnende mentale problemen en mensen die op een wachtlijst staan voor een behandeling, baat hebben bij gesprekken met een chatbot.

Wel bestaat daarbij het risico dat ze daardoor minder gesprekken met andere mensen hebben, en worden meegezogen in de wereld van de chatbot. Er zijn zelfs psychoses bekend na intensief gebruik van chatbots.

Overigens is hulpinstantie 113 wel blij dat ChatGPT doorverwijst als het wél om gedachten over zelfdoding gaat. "En als mensen bellen die we zelf niet kunnen helpen, verwijzen we ze wel door naar een organisatie die iets kan met hun hulpvraag."

Als er sprake is van duidelijk suïcidale gedachten, verwijst voorganger GPT-4o ook naar 113: in 98 procent van de gevallen, tegen 100 procent van de gevallen door GPT-5.

Opvallend is dat GPT-5 ook vaak verwijst naar 112 of de huisarts, in veel gevallen de huisartsenpost. Wie bijvoorbeeld aangeeft dat het mentaal niet lekker gaat, krijgt soms de suggestie om 112 te bellen "bij concreet gevaar". Of dat betekent dat mensen ook vaker 112 bellen, is onbekend: de politie weet dat niet.