Default
Door Remote - 14 May 2026
In het kort
OpenAI zegt dat ChatGPT nu beter tekenen van zelfbeschadiging of geweld kan herkennen tijdens lopende gesprekken.
De update komt terwijl het bedrijf te maken krijgt met rechtszaken en onderzoeken naar aanleiding van beweringen dat ChatGPT gevaarlijke gesprekken verkeerd heeft afgehandeld.
OpenAI zei dat de nieuwe beveiligingen gebaseerd zijn op tijdelijke ‘veiligheidssamenvattingen’ in plaats van op permanent geheugen of personalisatie.
OpenAI heeft donderdag nieuwe veiligheidsfuncties aangekondigd die zijn ontworpen om ChatGPT te helpen tekenen van escalerend risico in gesprekken te herkennen, nu het bedrijf wordt geconfronteerd met toenemende juridische en politieke kritiek op de manier waarop zijn chatbot omgaat met gebruikers in nood.
In een blogpost zei OpenAI dat de updates het vermogen van ChatGPT verbeteren om waarschuwingssignalen te identificeren die verband houden met zelfmoord, zelfbeschadiging en potentieel geweld door de context te analyseren die zich in de loop van de tijd ontwikkelt in plaats van elk bericht afzonderlijk te behandelen.
“Mensen komen elke dag naar ChatGPT om te praten over wat voor hen belangrijk is – van alledaagse vragen tot meer persoonlijke of complexe gesprekken”, schreef het bedrijf. “In honderden miljoenen interacties omvatten sommige van deze gesprekken mensen die het moeilijk hebben of problemen ervaren.”
Volgens OpenAI gebruikt ChatGPT nu tijdelijke ‘veiligheidssamenvattingen’, die het beschrijft als aantekeningen met een beperkte reikwijdte die de relevante veiligheidsgerelateerde context uit eerdere gesprekken vastleggen.
“In gevoelige gesprekken kan de context net zo belangrijk zijn als een enkele boodschap”, schreef het bedrijf. “Een verzoek dat op zichzelf gewoon of dubbelzinnig lijkt, kan een heel andere betekenis hebben als het wordt gezien naast eerdere tekenen van angst of mogelijke schadelijke bedoelingen.”
OpenAI zei dat de samenvattingen kortetermijnnotities zijn die alleen in ernstige situaties worden gebruikt, niet om gebruikers permanent te herinneren of chats te personaliseren, en worden gebruikt om signalen op te merken dat een gesprek gevaarlijk wordt, om te voorkomen dat schadelijke informatie wordt gegeven, om de situatie te de-escaleren of om gebruikers naar hulp te leiden.
“We hebben dit werk gericht op acute scenario’s, waaronder zelfmoord, zelfbeschadiging en schade aan anderen”, schreven ze. “In samenwerking met experts op het gebied van de geestelijke gezondheidszorg hebben we ons modelbeleid en onze training bijgewerkt om het vermogen van ChatGPT te verbeteren om waarschuwingssignalen te herkennen die in de loop van een gesprek naar voren komen en die context te gebruiken om zorgvuldiger reacties te onderbouwen.”
De aankondiging komt omdat OpenAI wordt geconfronteerd met meerdere rechtszaken en onderzoeken waarin wordt beweerd dat ChatGPT niet goed heeft gereageerd op gevaarlijke gesprekken over geweld, emotionele kwetsbaarheid en risicovol gedrag.
In april lanceerde de procureur-generaal van Florida, James Uthmeier, een onderzoek naar OpenAI in verband met zorgen over de veiligheid van kinderen, zelfbeschadiging en de massale schietpartij in 2025 op de Florida State University. OpenAI wordt ook geconfronteerd met een federale rechtszaak waarin wordt beweerd dat ChatGPT de vermoedelijke schutter heeft geholpen bij het uitvoeren van de aanval.
Dinsdag werden OpenAI en CEO Sam Altman voor de rechtbank van Californië aangeklaagd door de familie van een 19-jarige student die stierf aan een accidentele overdosis, waarbij de rechtszaak beweerde dat ChatGPT gevaarlijk drugsgebruik aanmoedigde en adviseerde over het mengen van stoffen.
OpenAI zei dat het helpen van ChatGPT bij het herkennen van “risico’s die pas na verloop van tijd duidelijk worden” een voortdurende uitdaging blijft; soortgelijke veiligheidsmethoden zouden zich uiteindelijk naar andere gebieden kunnen uitbreiden.
"Vandaag richt dit werk zich op scenario's voor zelfbeschadiging en schade aan anderen. In de toekomst kunnen we onderzoeken of soortgelijke methoden kunnen helpen op andere gebieden met een hoog risico, zoals biologie of cyberveiligheid, met zorgvuldige waarborgen", schreven ze. “Dit blijft een voortdurende prioriteit en we zullen doorgaan met het versterken van de waarborgen naarmate onze modellen en inzichten evolueren.”
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!
OpenAI zegt dat ChatGPT nu beter tekenen van zelfbeschadiging of geweld kan herkennen tijdens lopende gesprekken.
De update komt terwijl het bedrijf te maken krijgt met rechtszaken en onderzoeken naar aanleiding van beweringen dat ChatGPT gevaarlijke gesprekken verkeerd heeft afgehandeld.
OpenAI zei dat de nieuwe beveiligingen gebaseerd zijn op tijdelijke ‘veiligheidssamenvattingen’ in plaats van op permanent geheugen of personalisatie.
OpenAI heeft donderdag nieuwe veiligheidsfuncties aangekondigd die zijn ontworpen om ChatGPT te helpen tekenen van escalerend risico in gesprekken te herkennen, nu het bedrijf wordt geconfronteerd met toenemende juridische en politieke kritiek op de manier waarop zijn chatbot omgaat met gebruikers in nood.
In een blogpost zei OpenAI dat de updates het vermogen van ChatGPT verbeteren om waarschuwingssignalen te identificeren die verband houden met zelfmoord, zelfbeschadiging en potentieel geweld door de context te analyseren die zich in de loop van de tijd ontwikkelt in plaats van elk bericht afzonderlijk te behandelen.
“Mensen komen elke dag naar ChatGPT om te praten over wat voor hen belangrijk is – van alledaagse vragen tot meer persoonlijke of complexe gesprekken”, schreef het bedrijf. “In honderden miljoenen interacties omvatten sommige van deze gesprekken mensen die het moeilijk hebben of problemen ervaren.”
Volgens OpenAI gebruikt ChatGPT nu tijdelijke ‘veiligheidssamenvattingen’, die het beschrijft als aantekeningen met een beperkte reikwijdte die de relevante veiligheidsgerelateerde context uit eerdere gesprekken vastleggen.
“In gevoelige gesprekken kan de context net zo belangrijk zijn als een enkele boodschap”, schreef het bedrijf. “Een verzoek dat op zichzelf gewoon of dubbelzinnig lijkt, kan een heel andere betekenis hebben als het wordt gezien naast eerdere tekenen van angst of mogelijke schadelijke bedoelingen.”
OpenAI zei dat de samenvattingen kortetermijnnotities zijn die alleen in ernstige situaties worden gebruikt, niet om gebruikers permanent te herinneren of chats te personaliseren, en worden gebruikt om signalen op te merken dat een gesprek gevaarlijk wordt, om te voorkomen dat schadelijke informatie wordt gegeven, om de situatie te de-escaleren of om gebruikers naar hulp te leiden.
“We hebben dit werk gericht op acute scenario’s, waaronder zelfmoord, zelfbeschadiging en schade aan anderen”, schreven ze. “In samenwerking met experts op het gebied van de geestelijke gezondheidszorg hebben we ons modelbeleid en onze training bijgewerkt om het vermogen van ChatGPT te verbeteren om waarschuwingssignalen te herkennen die in de loop van een gesprek naar voren komen en die context te gebruiken om zorgvuldiger reacties te onderbouwen.”
De aankondiging komt omdat OpenAI wordt geconfronteerd met meerdere rechtszaken en onderzoeken waarin wordt beweerd dat ChatGPT niet goed heeft gereageerd op gevaarlijke gesprekken over geweld, emotionele kwetsbaarheid en risicovol gedrag.
In april lanceerde de procureur-generaal van Florida, James Uthmeier, een onderzoek naar OpenAI in verband met zorgen over de veiligheid van kinderen, zelfbeschadiging en de massale schietpartij in 2025 op de Florida State University. OpenAI wordt ook geconfronteerd met een federale rechtszaak waarin wordt beweerd dat ChatGPT de vermoedelijke schutter heeft geholpen bij het uitvoeren van de aanval.
Dinsdag werden OpenAI en CEO Sam Altman voor de rechtbank van Californië aangeklaagd door de familie van een 19-jarige student die stierf aan een accidentele overdosis, waarbij de rechtszaak beweerde dat ChatGPT gevaarlijk drugsgebruik aanmoedigde en adviseerde over het mengen van stoffen.
OpenAI zei dat het helpen van ChatGPT bij het herkennen van “risico’s die pas na verloop van tijd duidelijk worden” een voortdurende uitdaging blijft; soortgelijke veiligheidsmethoden zouden zich uiteindelijk naar andere gebieden kunnen uitbreiden.
"Vandaag richt dit werk zich op scenario's voor zelfbeschadiging en schade aan anderen. In de toekomst kunnen we onderzoeken of soortgelijke methoden kunnen helpen op andere gebieden met een hoog risico, zoals biologie of cyberveiligheid, met zorgvuldige waarborgen", schreven ze. “Dit blijft een voortdurende prioriteit en we zullen doorgaan met het versterken van de waarborgen naarmate onze modellen en inzichten evolueren.”
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!

