Default
Door Remote - 10 Apr 2026
Na maandenlange gesprekken met ChatGPT raakte een 53-jarige ondernemer uit Silicon Valley ervan overtuigd dat hij een geneesmiddel tegen slaapapneu had ontdekt en dat machtige mensen achter hem aan zaten, volgens een nieuwe rechtszaak die was aangespannen bij het California Superior Court in San Francisco County. Vervolgens zou hij het instrument hebben gebruikt om zijn ex-vriendin te stalken en lastig te vallen.
Nu klaagt de ex-vriendin OpenAI aan, omdat ze beweert dat de technologie van het bedrijf haar intimidatie heeft versneld, zo heeft TechCrunch exclusief vernomen. Ze beweert dat OpenAI drie afzonderlijke waarschuwingen heeft genegeerd dat de gebruiker een bedreiging voor anderen vormde, waaronder een interne vlag die zijn accountactiviteit classificeerde als wapen met massaslachtoffers.
De eiseres, die om haar identiteit te beschermen Jane Doe wordt genoemd, klaagt aan tot schadevergoeding. Ze heeft vrijdag ook een tijdelijk straatverbod ingediend met het verzoek aan de rechtbank om OpenAI te dwingen het account van de gebruiker te blokkeren, te voorkomen dat hij nieuwe accounts maakt, haar op de hoogte te stellen als hij probeert toegang te krijgen tot ChatGPT en zijn volledige chatlogboeken te bewaren voor ontdekking.
OpenAI heeft ermee ingestemd het account van de gebruiker op te schorten, maar heeft de rest geweigerd, aldus de advocaten van Doe. Ze zeggen dat het bedrijf informatie achterhoudt over specifieke plannen om Doe en andere potentiële slachtoffers schade toe te brengen die de gebruiker mogelijk met ChatGPT heeft besproken.
De rechtszaak komt voort uit een groeiende bezorgdheid over de reële risico's van sycofantische AI-systemen. GPT-4o, het model dat in deze en vele andere gevallen wordt aangehaald, werd in februari uit ChatGPT verwijderd.
De zaak is aangespannen door Edelson PC, het bedrijf achter de onrechtmatige doodszaken waarbij tiener Adam Raine betrokken was, die door zelfmoord stierf na maandenlange gesprekken met ChatGPT, en Jonathan Gavalas, wiens familie beweert dat Google's Gemini zijn waanideeën en potentiële massaslachtoffers vóór zijn dood heeft aangewakkerd. Hoofdadvocaat Jay Edelson heeft gewaarschuwd dat door AI veroorzaakte psychose escaleert van individuele schade naar gebeurtenissen met massale slachtoffers.
Die juridische druk komt nu rechtstreeks in botsing met de wetgevingsstrategie van OpenAI: het bedrijf steunt een wetsvoorstel uit Illinois dat AI-laboratoria zou beschermen tegen aansprakelijkheid, zelfs in gevallen van massale sterfgevallen of catastrofale financiële schade.
Techcrunch-evenement
Alleen deze week: bespaar tot $ 500 voor Disrupt 2026
Aanbieding eindigt op 10 april 23:59 uur. PT
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu om deze besparingen veilig te stellen.
Alleen deze week: bespaar tot $ 500 voor Disrupt 2026
Aanbieding eindigt op 10 april 23:59 uur. PT
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu om deze besparingen veilig te stellen.
San Francisco, CA
|
13-15 oktober 2026
REGISTREER NU
OpenAI reageerde niet op tijd om commentaar te geven. TechCrunch zal het artikel bijwerken als het bedrijf reageert.
De Jane Doe-rechtszaak legt gedetailleerd uit hoe die aansprakelijkheid zich gedurende enkele maanden voor één vrouw afspeelde.
Vorig jaar raakte de ChatGPT-gebruiker in de rechtszaak (wiens naam niet is opgenomen in de rechtszaak om zijn identiteit te beschermen) ervan overtuigd dat hij een geneesmiddel voor slaapapneu had uitgevonden na maanden van “grootschalig, langdurig gebruik van GPT-4o.” Toen niemand zijn werk serieus nam, vertelde ChatGPT hem dat ‘machtige krachten’ hem in de gaten hielden, waaronder het gebruik van helikopters om zijn activiteiten in de gaten te houden, aldus de klacht.
In juli 2025 spoorde Jane Doe hem aan om te stoppen met het gebruik van ChatGPT en hulp te zoeken bij een professional in de geestelijke gezondheidszorg. In plaats daarvan keerde hij terug naar ChatGPT, die hem verzekerde dat hij “een niveau 10 in geestelijke gezondheid” had en hem hielp zijn waanideeën te verdubbelen, volgens de rechtszaak.
Doe had het in 2024 uitgemaakt met de gebruiker en hij gebruikte ChatGPT om de splitsing te verwerken, volgens e-mails en communicatie die in de rechtszaak worden aangehaald. In plaats van zijn eenzijdige verhaal te ondermijnen, werd hij herhaaldelijk afgeschilderd als rationeel en onrechtvaardig, en zij als manipulatief en onstabiel. Vervolgens haalde hij deze door AI gegenereerde conclusies van het scherm naar de echte wereld, en gebruikte ze om haar te stalken en lastig te vallen. Dit kwam tot uiting in verschillende door AI gegenereerde, klinisch ogende psychologische rapporten die hij verspreidde onder haar familie, vrienden en werkgever.
Ondertussen bleef de gebruiker in een spiraal terechtkomen. In augustus 2025 werd hij door het geautomatiseerde veiligheidssysteem van OpenAI gemarkeerd wegens “Mass Casualty Weapons”-activiteit en werd zijn account gedeactiveerd.
Een lid van het menselijke veiligheidsteam beoordeelde het account de volgende dag en herstelde het, ook al bevatte zijn account mogelijk bewijs dat hij zich in het echte leven op individuen, waaronder Doe, richtte en stalkte. Een screenshot uit september dat de gebruiker naar Doe stuurde, toonde bijvoorbeeld een lijst met gesprekstitels, waaronder ‘uitbreiding van de geweldlijst’ en ‘berekening van foetale verstikking’.
Het besluit om weer aan de macht te komen is opmerkelijk na twee recente schietpartijen op scholen in Tumbler Ridge, Canada, en aan de Florida State University (FSU). Het veiligheidsteam van OpenAI had de Tumbler Ridge-schieter gemarkeerd als een potentiële bedreiging, maar hogere kaders zouden naar verluidt hebben besloten de autoriteiten niet te waarschuwen. De procureur-generaal van Florida opende deze week een onderzoek naar de mogelijke link van OpenAI met de FSU-schutter.
Volgens de Jane Doe-rechtszaak werd, toen OpenAI het account van haar stalker herstelde, zijn Pro-abonnement niet tegelijkertijd hersteld. Hij e-mailde het vertrouwens- en veiligheidsteam om het probleem op te lossen, waarbij hij Doe bij het bericht kopieerde.
In zijn e-mails schreef hij dingen als: "IK HEB ZEER SNEL HULP NODIG, ALSTUBLIEFT. BEL ME ALSTUBLIEFT!" en “dit is een kwestie van leven of dood.” Hij beweerde dat hij ‘bezig was met het schrijven van 215 wetenschappelijke artikelen’, die hij zo snel schreef dat hij ‘niet eens tijd had om te lezen’. In die e-mails zat een lijst met tientallen door AI gegenereerde ‘wetenschappelijke artikelen’ met titels als: ‘Deconstructing Race as a Biological Category_ Legal, Scientific, and Horn of Africa Perspectives.pdf.txt.’
“Uit de communicatie van de gebruiker bleek onmiskenbaar dat hij mentaal onstabiel was en dat ChatGPT de motor was van zijn waandenkbeelden en escalerende gedrag”, aldus de rechtszaak. "De stroom van urgente, ongeorganiseerde en grandioze claims van de gebruiker, samen met een concreet door ChatGPT gegenereerd rapport waarin de eiser bij naam werd genoemd en een uitgebreide hoeveelheid zogenaamd 'wetenschappelijk' materiaal, was een onmiskenbaar bewijs van die realiteit. OpenAI kwam niet tussenbeide, beperkte zijn toegang niet en implementeerde geen enkele beveiliging. In plaats daarvan stelde het hem in staat het account te blijven gebruiken en zijn volledige Pro-toegang te herstellen. "
Doe, die in de rechtszaak beweert dat ze in angst leefde en niet in haar eigen huis kon slapen, heeft in november een melding van misbruik ingediend bij OpenAI.
“De afgelopen zeven maanden heeft hij deze technologie als wapen gebruikt om publieke vernietiging en vernedering tegen mij te creëren die anders onmogelijk zou zijn geweest”, schreef Doe in haar brief aan OpenAI waarin hij het bedrijf verzocht het account van de gebruiker permanent te verbieden.
OpenAI reageerde en erkende dat het rapport “uiterst ernstig en verontrustend” was en dat het de informatie zorgvuldig bestudeerde. Doe heeft nooit meer iets gehoord.
De daaropvolgende maanden bleef de gebruiker Doe lastigvallen en stuurde haar een reeks bedreigende voicemails. In januari werd hij gearresteerd en beschuldigd van vier misdrijven, waaronder het communiceren van bommeldingen en mishandeling met een dodelijk wapen. De advocaten van Doe beweren dat dit waarschuwingen bevestigt die zowel zijzelf als de eigen veiligheidssystemen van OpenAI maanden eerder hadden geuit, waarschuwingen die het bedrijf naar verluidt liever negeerde.
De gebruiker werd incompetent bevonden om terecht te staan en opgenomen in een instelling voor geestelijke gezondheidszorg, maar een “procedureel falen van de staat” betekent dat hij binnenkort zal worden vrijgelaten voor het publiek, aldus de advocaten van Doe.
Edelson riep OpenAI op om mee te werken. “In alle gevallen heeft OpenAI ervoor gekozen om kritische veiligheidsinformatie te verbergen – voor het publiek, voor slachtoffers, voor mensen die het product actief in gevaar brengt”, zei hij. "We roepen hen voor deze keer op om het juiste te doen. Mensenlevens moeten meer betekenen dan de race van OpenAI naar een beursgang."
Nu klaagt de ex-vriendin OpenAI aan, omdat ze beweert dat de technologie van het bedrijf haar intimidatie heeft versneld, zo heeft TechCrunch exclusief vernomen. Ze beweert dat OpenAI drie afzonderlijke waarschuwingen heeft genegeerd dat de gebruiker een bedreiging voor anderen vormde, waaronder een interne vlag die zijn accountactiviteit classificeerde als wapen met massaslachtoffers.
De eiseres, die om haar identiteit te beschermen Jane Doe wordt genoemd, klaagt aan tot schadevergoeding. Ze heeft vrijdag ook een tijdelijk straatverbod ingediend met het verzoek aan de rechtbank om OpenAI te dwingen het account van de gebruiker te blokkeren, te voorkomen dat hij nieuwe accounts maakt, haar op de hoogte te stellen als hij probeert toegang te krijgen tot ChatGPT en zijn volledige chatlogboeken te bewaren voor ontdekking.
OpenAI heeft ermee ingestemd het account van de gebruiker op te schorten, maar heeft de rest geweigerd, aldus de advocaten van Doe. Ze zeggen dat het bedrijf informatie achterhoudt over specifieke plannen om Doe en andere potentiële slachtoffers schade toe te brengen die de gebruiker mogelijk met ChatGPT heeft besproken.
De rechtszaak komt voort uit een groeiende bezorgdheid over de reële risico's van sycofantische AI-systemen. GPT-4o, het model dat in deze en vele andere gevallen wordt aangehaald, werd in februari uit ChatGPT verwijderd.
De zaak is aangespannen door Edelson PC, het bedrijf achter de onrechtmatige doodszaken waarbij tiener Adam Raine betrokken was, die door zelfmoord stierf na maandenlange gesprekken met ChatGPT, en Jonathan Gavalas, wiens familie beweert dat Google's Gemini zijn waanideeën en potentiële massaslachtoffers vóór zijn dood heeft aangewakkerd. Hoofdadvocaat Jay Edelson heeft gewaarschuwd dat door AI veroorzaakte psychose escaleert van individuele schade naar gebeurtenissen met massale slachtoffers.
Die juridische druk komt nu rechtstreeks in botsing met de wetgevingsstrategie van OpenAI: het bedrijf steunt een wetsvoorstel uit Illinois dat AI-laboratoria zou beschermen tegen aansprakelijkheid, zelfs in gevallen van massale sterfgevallen of catastrofale financiële schade.
Techcrunch-evenement
Alleen deze week: bespaar tot $ 500 voor Disrupt 2026
Aanbieding eindigt op 10 april 23:59 uur. PT
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu om deze besparingen veilig te stellen.
Alleen deze week: bespaar tot $ 500 voor Disrupt 2026
Aanbieding eindigt op 10 april 23:59 uur. PT
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu om deze besparingen veilig te stellen.
San Francisco, CA
|
13-15 oktober 2026
REGISTREER NU
OpenAI reageerde niet op tijd om commentaar te geven. TechCrunch zal het artikel bijwerken als het bedrijf reageert.
De Jane Doe-rechtszaak legt gedetailleerd uit hoe die aansprakelijkheid zich gedurende enkele maanden voor één vrouw afspeelde.
Vorig jaar raakte de ChatGPT-gebruiker in de rechtszaak (wiens naam niet is opgenomen in de rechtszaak om zijn identiteit te beschermen) ervan overtuigd dat hij een geneesmiddel voor slaapapneu had uitgevonden na maanden van “grootschalig, langdurig gebruik van GPT-4o.” Toen niemand zijn werk serieus nam, vertelde ChatGPT hem dat ‘machtige krachten’ hem in de gaten hielden, waaronder het gebruik van helikopters om zijn activiteiten in de gaten te houden, aldus de klacht.
In juli 2025 spoorde Jane Doe hem aan om te stoppen met het gebruik van ChatGPT en hulp te zoeken bij een professional in de geestelijke gezondheidszorg. In plaats daarvan keerde hij terug naar ChatGPT, die hem verzekerde dat hij “een niveau 10 in geestelijke gezondheid” had en hem hielp zijn waanideeën te verdubbelen, volgens de rechtszaak.
Doe had het in 2024 uitgemaakt met de gebruiker en hij gebruikte ChatGPT om de splitsing te verwerken, volgens e-mails en communicatie die in de rechtszaak worden aangehaald. In plaats van zijn eenzijdige verhaal te ondermijnen, werd hij herhaaldelijk afgeschilderd als rationeel en onrechtvaardig, en zij als manipulatief en onstabiel. Vervolgens haalde hij deze door AI gegenereerde conclusies van het scherm naar de echte wereld, en gebruikte ze om haar te stalken en lastig te vallen. Dit kwam tot uiting in verschillende door AI gegenereerde, klinisch ogende psychologische rapporten die hij verspreidde onder haar familie, vrienden en werkgever.
Ondertussen bleef de gebruiker in een spiraal terechtkomen. In augustus 2025 werd hij door het geautomatiseerde veiligheidssysteem van OpenAI gemarkeerd wegens “Mass Casualty Weapons”-activiteit en werd zijn account gedeactiveerd.
Een lid van het menselijke veiligheidsteam beoordeelde het account de volgende dag en herstelde het, ook al bevatte zijn account mogelijk bewijs dat hij zich in het echte leven op individuen, waaronder Doe, richtte en stalkte. Een screenshot uit september dat de gebruiker naar Doe stuurde, toonde bijvoorbeeld een lijst met gesprekstitels, waaronder ‘uitbreiding van de geweldlijst’ en ‘berekening van foetale verstikking’.
Het besluit om weer aan de macht te komen is opmerkelijk na twee recente schietpartijen op scholen in Tumbler Ridge, Canada, en aan de Florida State University (FSU). Het veiligheidsteam van OpenAI had de Tumbler Ridge-schieter gemarkeerd als een potentiële bedreiging, maar hogere kaders zouden naar verluidt hebben besloten de autoriteiten niet te waarschuwen. De procureur-generaal van Florida opende deze week een onderzoek naar de mogelijke link van OpenAI met de FSU-schutter.
Volgens de Jane Doe-rechtszaak werd, toen OpenAI het account van haar stalker herstelde, zijn Pro-abonnement niet tegelijkertijd hersteld. Hij e-mailde het vertrouwens- en veiligheidsteam om het probleem op te lossen, waarbij hij Doe bij het bericht kopieerde.
In zijn e-mails schreef hij dingen als: "IK HEB ZEER SNEL HULP NODIG, ALSTUBLIEFT. BEL ME ALSTUBLIEFT!" en “dit is een kwestie van leven of dood.” Hij beweerde dat hij ‘bezig was met het schrijven van 215 wetenschappelijke artikelen’, die hij zo snel schreef dat hij ‘niet eens tijd had om te lezen’. In die e-mails zat een lijst met tientallen door AI gegenereerde ‘wetenschappelijke artikelen’ met titels als: ‘Deconstructing Race as a Biological Category_ Legal, Scientific, and Horn of Africa Perspectives.pdf.txt.’
“Uit de communicatie van de gebruiker bleek onmiskenbaar dat hij mentaal onstabiel was en dat ChatGPT de motor was van zijn waandenkbeelden en escalerende gedrag”, aldus de rechtszaak. "De stroom van urgente, ongeorganiseerde en grandioze claims van de gebruiker, samen met een concreet door ChatGPT gegenereerd rapport waarin de eiser bij naam werd genoemd en een uitgebreide hoeveelheid zogenaamd 'wetenschappelijk' materiaal, was een onmiskenbaar bewijs van die realiteit. OpenAI kwam niet tussenbeide, beperkte zijn toegang niet en implementeerde geen enkele beveiliging. In plaats daarvan stelde het hem in staat het account te blijven gebruiken en zijn volledige Pro-toegang te herstellen. "
Doe, die in de rechtszaak beweert dat ze in angst leefde en niet in haar eigen huis kon slapen, heeft in november een melding van misbruik ingediend bij OpenAI.
“De afgelopen zeven maanden heeft hij deze technologie als wapen gebruikt om publieke vernietiging en vernedering tegen mij te creëren die anders onmogelijk zou zijn geweest”, schreef Doe in haar brief aan OpenAI waarin hij het bedrijf verzocht het account van de gebruiker permanent te verbieden.
OpenAI reageerde en erkende dat het rapport “uiterst ernstig en verontrustend” was en dat het de informatie zorgvuldig bestudeerde. Doe heeft nooit meer iets gehoord.
De daaropvolgende maanden bleef de gebruiker Doe lastigvallen en stuurde haar een reeks bedreigende voicemails. In januari werd hij gearresteerd en beschuldigd van vier misdrijven, waaronder het communiceren van bommeldingen en mishandeling met een dodelijk wapen. De advocaten van Doe beweren dat dit waarschuwingen bevestigt die zowel zijzelf als de eigen veiligheidssystemen van OpenAI maanden eerder hadden geuit, waarschuwingen die het bedrijf naar verluidt liever negeerde.
De gebruiker werd incompetent bevonden om terecht te staan en opgenomen in een instelling voor geestelijke gezondheidszorg, maar een “procedureel falen van de staat” betekent dat hij binnenkort zal worden vrijgelaten voor het publiek, aldus de advocaten van Doe.
Edelson riep OpenAI op om mee te werken. “In alle gevallen heeft OpenAI ervoor gekozen om kritische veiligheidsinformatie te verbergen – voor het publiek, voor slachtoffers, voor mensen die het product actief in gevaar brengt”, zei hij. "We roepen hen voor deze keer op om het juiste te doen. Mensenlevens moeten meer betekenen dan de race van OpenAI naar een beursgang."

