Overslaan naar inhoud

Zelfmoordlijn bezorgd: mensen zoeken eerst steun bij ChatGPT

26 september 2025 in
Maichel van Dreumel
| Nog geen reacties

De zelfmoordpreventielijn 113 maakt zich zorgen over het toenemende gebruik van AI-chatbots door mensen met psychische problemen. Steeds vaker melden bellers dat zij eerst hun verhaal hebben gedaan bij ChatGPT of een vergelijkbare chatbot, voordat ze contact zochten met professionele hulp.

Volgens 113 kan dit gevaarlijk zijn. “Het voelt laagdrempelig en veilig om je hart te luchten bij een chatbot, maar die kan nooit de rol van een psycholoog vervullen,” zegt een woordvoerder. “De adviezen zijn niet altijd passend of veilig. In crisissituaties kan dat levensgevaarlijk zijn.”

Wachttijden en laagdrempeligheid

Door de lange wachttijden in de geestelijke gezondheidszorg zoeken veel mensen naar andere manieren om steun te vinden. AI-chatbots zijn dag en nacht beschikbaar en reageren zonder oordeel. Toch schuilt daarin ook een risico, waarschuwen deskundigen. “Een algoritme klinkt soms empathisch, maar kan geen inschatting maken van iemands veiligheid of acute risico’s,” zegt klinisch psycholoog Marieke van Dijk.

Jongeren vaker naar AI

Uit onderzoek blijkt dat vooral jongeren steeds vaker gebruikmaken van digitale hulpmiddelen bij psychische klachten. Waar zij eerder uitweken naar forums of sociale media, praten ze nu met een chatbot. Dat kan tijdelijk steun bieden, maar kan ook leiden tot uitstel van het zoeken naar professionele hulp.

Oproep tot alertheid

113 benadrukt dat AI nooit een vangnet mag zijn bij ernstige psychische klachten of suïcidaliteit. “Wie in crisis verkeert moet altijd direct professionele hulp inschakelen,” aldus de organisatie.

Maichel van Dreumel 26 september 2025
Deel deze post
Labels
Archief
Aanmelden om een reactie achter te laten