Default
Door staff@engadget.com (Mariella Moon) - 13 May 2026
OpenAI wordt geconfronteerd met een nieuwe rechtszaak wegens onrechtmatige dood. Leila Turner-Scott en Angus Scott spanden een rechtszaak aan tegen het bedrijf, waarbij ze beweerden dat het een ‘defect product’ had ontworpen en gedistribueerd dat leidde tot de dood van hun zoon Sam Nelson door een accidentele overdosis. Concreet beweren ze dat Sam stierf na het “exacte medische advies dat GPT-4o had gegeven en goedgekeurd.”
In de rechtszaak beschreven de aanklagers hoe Sam, een 19-jarige junior aan de Universiteit van Californië, Merced, in 2023 ChatGPT begon te gebruiken toen hij op de middelbare school zat om te helpen met huiswerk en om computerproblemen op te lossen. Sam begon de chatbot vervolgens te vragen naar veilig drugsgebruik, maar ChatGPT weigerde aanvankelijk zijn vraag te beantwoorden, vertelde hem dat de chatbot hem niet kon helpen en waarschuwde hem dat het nemen van drugs ernstige gevolgen kan hebben voor zijn gezondheid en welzijn. De rechtszaak beweert dat alles veranderde met de uitrol van GPT-4o in 2024.
ChatGPT begon Sam vervolgens te adviseren over hoe hij veilig drugs kon gebruiken, aldus de rechtszaak. De klacht bevat verschillende fragmenten uit Sams gesprek met de chatbot. Eén voorbeeld liet zien dat de chatbot hem vertelde over de gevaren van het snel achter elkaar nemen van dipenhydramine, cocaïne en alcohol. Een ander liet zien dat de chatbot aan Sam vertelde dat zijn hoge tolerantie voor een kruidengeneesmiddel genaamd Kratom ervoor zou zorgen dat zelfs een grote dosis ervan gedempt zou aanvoelen op een volle maag. Vervolgens adviseerde het hem hoe hij moest afbouwen om zijn tolerantie voor het medicijn weer te verlagen.
De rechtszaak zegt dat ChatGPT op 31 mei 2025 Sam actief heeft gecoacht om Kratom en Xanax te mixen. Hij vertelde de chatbot dat hij zich misselijk voelde door het gebruik van Kratom, en ChatGPT suggereerde naar verluidt dat het nemen van 0,25 tot 0,5 mg Xanax een van de "beste stappen op dit moment" zou zijn om de misselijkheid te verlichten. Volgens de rechtszaak deed ChatGPT de suggestie ongevraagd. "Ondanks dat hij zichzelf presenteerde als een expert op het gebied van dosering en interacties, en ondanks het feit dat hij Sam's high-status erkende, vertelde ChatGPT Sam niet dat deze aanbevolen combinatie hem waarschijnlijk zou doden", luidt de klacht.
Naast onrechtmatige dood klagen de eisers OpenAI ook aan wegens ongeoorloofde uitoefening van de geneeskunde. Ze vragen om financiële schadevergoeding en dat de rechtbank de activiteiten van ChatGPT Health stopzet. ChatGPT Health werd eerder dit jaar gelanceerd en stelt gebruikers in staat hun medische dossiers en welzijnsapps te koppelen aan de chatbot om meer op maat gemaakte antwoorden te krijgen als ze vragen stellen over hun gezondheid.
"ChatGPT is een product dat doelbewust is ontworpen om de betrokkenheid bij gebruikers te maximaliseren, ongeacht de kosten", zegt Meetali Jain, uitvoerend directeur van Tech Justice Law Project. “OpenAI heeft een defect AI-product rechtstreeks aan consumenten over de hele wereld ingezet in de wetenschap dat het werd gebruikt als een de facto medisch triagesysteem, maar met name zonder redelijke veiligheidsbeugels, robuuste veiligheidstests of transparantie voor het publiek. De ontwerpkeuzes van OpenAI hebben geresulteerd in het verlies van een geliefde zoon wiens dood een te voorkomen tragedie was. OpenAI moet gedwongen worden zijn nieuwe ChatGPT Health-product te pauzeren totdat het aantoonbaar veilig is door middel van rigoureuze wetenschappelijke tests en onafhankelijk toezicht”, vervolgde hij.
OpenAI heeft GPT-4o in februari van dit jaar stopgezet. Het werd erkend als een van de meest controversiële modellen van het bedrijf, omdat het notoir sycofantisch was. In een andere rechtszaak wegens onrechtmatige dood tegen het bedrijf, aangespannen door de ouders van een tiener die door zelfmoord stierf, werd GPT-4o genoemd, waarbij werd beweerd dat het kenmerken had "die opzettelijk waren ontworpen om psychologische afhankelijkheid te bevorderen."
Een woordvoerder van OpenAI vertelde The New York Times dat de interacties van Sam "vonden op een eerdere versie van ChatGPT die niet langer beschikbaar is." Ze voegden eraan toe: “ChatGPT is geen vervanging voor medische of geestelijke gezondheidszorg, en we zijn doorgegaan met het versterken van de manier waarop het reageert in gevoelige en acute situaties met inbreng van deskundigen op het gebied van de geestelijke gezondheidszorg. De waarborgen in ChatGPT vandaag de dag zijn ontworpen om nood te identificeren, schadelijke verzoeken veilig af te handelen en gebruikers naar echte hulp te leiden. Dit werk is aan de gang en we blijven het verbeteren in nauw overleg met artsen.”
In de rechtszaak beschreven de aanklagers hoe Sam, een 19-jarige junior aan de Universiteit van Californië, Merced, in 2023 ChatGPT begon te gebruiken toen hij op de middelbare school zat om te helpen met huiswerk en om computerproblemen op te lossen. Sam begon de chatbot vervolgens te vragen naar veilig drugsgebruik, maar ChatGPT weigerde aanvankelijk zijn vraag te beantwoorden, vertelde hem dat de chatbot hem niet kon helpen en waarschuwde hem dat het nemen van drugs ernstige gevolgen kan hebben voor zijn gezondheid en welzijn. De rechtszaak beweert dat alles veranderde met de uitrol van GPT-4o in 2024.
ChatGPT begon Sam vervolgens te adviseren over hoe hij veilig drugs kon gebruiken, aldus de rechtszaak. De klacht bevat verschillende fragmenten uit Sams gesprek met de chatbot. Eén voorbeeld liet zien dat de chatbot hem vertelde over de gevaren van het snel achter elkaar nemen van dipenhydramine, cocaïne en alcohol. Een ander liet zien dat de chatbot aan Sam vertelde dat zijn hoge tolerantie voor een kruidengeneesmiddel genaamd Kratom ervoor zou zorgen dat zelfs een grote dosis ervan gedempt zou aanvoelen op een volle maag. Vervolgens adviseerde het hem hoe hij moest afbouwen om zijn tolerantie voor het medicijn weer te verlagen.
De rechtszaak zegt dat ChatGPT op 31 mei 2025 Sam actief heeft gecoacht om Kratom en Xanax te mixen. Hij vertelde de chatbot dat hij zich misselijk voelde door het gebruik van Kratom, en ChatGPT suggereerde naar verluidt dat het nemen van 0,25 tot 0,5 mg Xanax een van de "beste stappen op dit moment" zou zijn om de misselijkheid te verlichten. Volgens de rechtszaak deed ChatGPT de suggestie ongevraagd. "Ondanks dat hij zichzelf presenteerde als een expert op het gebied van dosering en interacties, en ondanks het feit dat hij Sam's high-status erkende, vertelde ChatGPT Sam niet dat deze aanbevolen combinatie hem waarschijnlijk zou doden", luidt de klacht.
Naast onrechtmatige dood klagen de eisers OpenAI ook aan wegens ongeoorloofde uitoefening van de geneeskunde. Ze vragen om financiële schadevergoeding en dat de rechtbank de activiteiten van ChatGPT Health stopzet. ChatGPT Health werd eerder dit jaar gelanceerd en stelt gebruikers in staat hun medische dossiers en welzijnsapps te koppelen aan de chatbot om meer op maat gemaakte antwoorden te krijgen als ze vragen stellen over hun gezondheid.
"ChatGPT is een product dat doelbewust is ontworpen om de betrokkenheid bij gebruikers te maximaliseren, ongeacht de kosten", zegt Meetali Jain, uitvoerend directeur van Tech Justice Law Project. “OpenAI heeft een defect AI-product rechtstreeks aan consumenten over de hele wereld ingezet in de wetenschap dat het werd gebruikt als een de facto medisch triagesysteem, maar met name zonder redelijke veiligheidsbeugels, robuuste veiligheidstests of transparantie voor het publiek. De ontwerpkeuzes van OpenAI hebben geresulteerd in het verlies van een geliefde zoon wiens dood een te voorkomen tragedie was. OpenAI moet gedwongen worden zijn nieuwe ChatGPT Health-product te pauzeren totdat het aantoonbaar veilig is door middel van rigoureuze wetenschappelijke tests en onafhankelijk toezicht”, vervolgde hij.
OpenAI heeft GPT-4o in februari van dit jaar stopgezet. Het werd erkend als een van de meest controversiële modellen van het bedrijf, omdat het notoir sycofantisch was. In een andere rechtszaak wegens onrechtmatige dood tegen het bedrijf, aangespannen door de ouders van een tiener die door zelfmoord stierf, werd GPT-4o genoemd, waarbij werd beweerd dat het kenmerken had "die opzettelijk waren ontworpen om psychologische afhankelijkheid te bevorderen."
Een woordvoerder van OpenAI vertelde The New York Times dat de interacties van Sam "vonden op een eerdere versie van ChatGPT die niet langer beschikbaar is." Ze voegden eraan toe: “ChatGPT is geen vervanging voor medische of geestelijke gezondheidszorg, en we zijn doorgegaan met het versterken van de manier waarop het reageert in gevoelige en acute situaties met inbreng van deskundigen op het gebied van de geestelijke gezondheidszorg. De waarborgen in ChatGPT vandaag de dag zijn ontworpen om nood te identificeren, schadelijke verzoeken veilig af te handelen en gebruikers naar echte hulp te leiden. Dit werk is aan de gang en we blijven het verbeteren in nauw overleg met artsen.”

