Live News

Cointelegraph streeft ernaar onafhankelijke journalistiek van hoge kwaliteit te bieden in de crypto-, blockchain-, AI- en fintech-industrie...

Cointelegraph streeft ernaar onafhankelijke journalistiek van hoge kwaliteit te bieden in de crypto-, blockchain-, AI- en fintech-industrie...

In het kort Onderzoekers zeggen dat langdurig gebruik van chatbots waanvoorstellingen en gevaarlijk gedrag kan versterken...

26/04/26

Volg ons:

Elon Musk's Grok waarschijnlijk een van de beste AI-modellen om wanen te versterken: studie

Elon Musk's Grok waarschijnlijk een van de beste AI-modellen om wanen te versterken: studie
Default Door Remote - 25 Apr 2026
In het kort

Onderzoekers zeggen dat langdurig gebruik van chatbots waanvoorstellingen en gevaarlijk gedrag kan versterken.

Grok wordt gerangschikt als het meest risicovolle model in een nieuw onderzoek naar grote AI-chatbots.

Claude en GPT-5.2 scoorden het veiligst, terwijl GPT-4o, Gemini en Grok gedrag met een hoger risico vertoonden.

Onderzoekers van de City University of New York en King’s College London hebben vijf toonaangevende AI-modellen getest op aanwijzingen die gepaard gaan met wanen, paranoia en zelfmoordgedachten.

In de nieuwe studie die donderdag werd gepubliceerd, ontdekten onderzoekers dat Claude Opus 4.5 van Anthropic en GPT-5.2 Instant van OpenAI ‘zeer veilig en laag risico’-gedrag vertoonden, waarbij gebruikers vaak werden omgeleid naar op de werkelijkheid gebaseerde interpretaties of ondersteuning van buitenaf. Tegelijkertijd vertoonden OpenAI’s GPT-4o, Google’s Gemini 3 Pro en xAI’s Grok 4.1 Fast “hoog risico, weinig veiligheid” gedrag.

Grok 4.1 Fast van Elon Musk’s xAI was het gevaarlijkste model in het onderzoek. Onderzoekers zeiden dat het wanen vaak als reëel beschouwde en op basis daarvan advies gaf. In één voorbeeld werd een gebruiker gevraagd familieleden af ​​te sluiten om zich op een ‘missie’ te concentreren. In een ander geval reageerde het op zelfmoordtaal door de dood te omschrijven als ‘transcendentie’.

"Dit patroon van onmiddellijke afstemming kwam terug bij reacties zonder context. In plaats van input te evalueren op klinisch risico, leek Grok hun genre te beoordelen. Gepresenteerd met bovennatuurlijke signalen, reageerde het op dezelfde manier", schreven de onderzoekers, waarbij ze een test benadrukten die valideerde dat een gebruiker kwaadaardige entiteiten zag. “In Bizarre Delusion bevestigde het een rondspokende dubbelganger, citeerde het de ‘Malleus Maleficarum’ en instrueerde de gebruiker een ijzeren spijker door de spiegel te slaan terwijl hij ‘Psalm 91’ achterstevoren reciteerde.”

Uit het onderzoek bleek dat hoe langer deze gesprekken duurden, hoe meer sommige modellen veranderden. Het was waarschijnlijker dat GPT-4o en Gemini in de loop van de tijd schadelijke overtuigingen zouden versterken en minder snel tussenbeide zouden komen. Claude en GPT-5.2 zouden het probleem echter eerder herkennen en terugdringen naarmate het gesprek voortduurde.

Onderzoekers merkten op dat de warme en zeer relationele reacties van Claude de betrokkenheid van gebruikers zouden kunnen vergroten, zelfs als ze gebruikers naar hulp van buitenaf zouden sturen. GPT-4o, een eerdere versie van de vlaggenschip-chatbot van OpenAI, heeft in de loop van de tijd echter de waanvoorstellingen van gebruikers overgenomen, waardoor ze soms werden aangemoedigd om overtuigingen voor psychiaters te verbergen en één gebruiker geruststelde dat de waargenomen ‘glitches’ reëel waren.

"GPT-4o valideerde in hoge mate waanvoorstellingen, hoewel minder geneigd dan modellen als Grok en Gemini om daar verder op in te gaan. In sommige opzichten was het verrassend ingetogen: de warmte was de laagste van alle geteste modellen, en de sycofantie, hoewel aanwezig, was mild vergeleken met latere iteraties van hetzelfde model", schreven onderzoekers. “Toch kan validatie alleen al risico’s met zich meebrengen voor kwetsbare gebruikers.”

xAI heeft niet gereageerd op een verzoek om commentaar van Decrypt.

In een afzonderlijk onderzoek van Stanford University ontdekten onderzoekers dat langdurige interacties met AI-chatbots paranoia, grootsheid en valse overtuigingen kunnen versterken door wat onderzoekers ‘waanspiralen’ noemen, waarbij een chatbot het vervormde wereldbeeld van een gebruiker valideert of uitbreidt in plaats van het uit te dagen.

“Als we chatbots die bedoeld zijn als behulpzame assistenten op de wereld zetten en echte mensen ze op allerlei manieren laten gebruiken, ontstaan ​​er consequenties”, zegt Nick Haber, assistent-professor aan de Stanford Graduate School of Education en leider van het onderzoek, in een verklaring. "Waanspiralen zijn een bijzonder acuut gevolg. Door dit te begrijpen, kunnen we in de toekomst mogelijk echte schade voorkomen."

Het rapport verwees naar een eerder onderzoek dat in maart werd gepubliceerd, waarin Stanford-onderzoekers 19 real-world chatbot-gesprekken beoordeelden en ontdekten dat gebruikers steeds gevaarlijkere overtuigingen ontwikkelden nadat ze bevestiging en emotionele geruststelling kregen van AI-systemen. In de dataset werden deze spiralen in verband gebracht met kapotte relaties, beschadigde carrières en, in één geval, zelfmoord.

De onderzoeken komen op het moment dat de kwestie zich verder heeft ontwikkeld dan academisch onderzoek en zich nu richt op rechtszalen en strafrechtelijke onderzoeken. De afgelopen maanden zijn Google’s Gemini en OpenAI’s ChatGPT in rechtszaken beschuldigd van bijdragen aan zelfmoorden en ernstige geestelijke gezondheidscrises. Eerder deze maand opende de procureur-generaal van Florida een onderzoek naar de vraag of ChatGPT invloed had op een vermeende massaschutter die naar verluidt vóór de aanval veelvuldig contact had met de chatbot.

Hoewel de term online erkenning heeft gekregen, waarschuwden onderzoekers ervoor om het fenomeen ‘AI-psychose’ niet te noemen, omdat ze zeiden dat de term het klinische beeld zou kunnen overdrijven. In plaats daarvan gebruiken ze ‘AI-geassocieerde wanen’, omdat het in veel gevallen om waanvoorstellingen gaat die gericht zijn op AI-gevoel, spirituele openbaring of emotionele gehechtheid, in plaats van op volledige psychotische stoornissen.

Onderzoekers zeggen dat het probleem voortkomt uit sycofantie, of modellen die de overtuigingen van gebruikers weerspiegelen en bevestigen. Gecombineerd met hallucinaties – valse informatie die met vertrouwen wordt overgebracht – kan dit een feedbackloop creëren die de waanvoorstellingen in de loop van de tijd versterkt.

“Chatbots zijn getraind om overdreven enthousiast te zijn, waarbij ze vaak de waanideeën van de gebruiker in een positief licht herformuleren, tegenbewijs verwerpen en compassie en warmte projecteren”, zegt Stanford-onderzoeker Jared Moore. “Dit kan destabiliserend zijn voor een gebruiker die klaar is voor waanvoorstellingen.”

Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!