Live News

Hong Kong heeft zijn eerste licenties voor het uitgeven van stablecoins uitgegeven, waarbij Anchorpoint Financial en de Hongkong and Shanghai Banki...

Mede-oprichter van Binance Changpeng “CZ” Zhao zei dat hij hoopt dat cryptocurrencies en blockchain in 2031 eenvoudigweg een onzichtbaar onderdeel...

De Japanse regering heeft vrijdag de Financial Instruments and Exchange Act gewijzigd om crypto-activa als financiële instrumenten te classificeren...

10/04/26

Volg ons:

OpenAI plant een geavanceerd cyberbeveiligingsproduct, alleen met 'vertrouwde toegang'

OpenAI plant een geavanceerd cyberbeveiligingsproduct, alleen met 'vertrouwde toegang'
Default Door Remote - 09 Apr 2026
In het kort

Volgens een nieuw rapport sluit OpenAI zich aan bij Anthropic bij het vergrendelen van de krachtigste cyber-AI.

Grensmodellen en producten lijken nu te riskant om publiekelijk vrij te geven.

AI van het hoogste niveau verschuift naar gecontroleerde toegang op uitnodiging.

OpenAI bouwt momenteel een cyberbeveiligingsproduct dat het exclusief wil uitbrengen via zijn "Trusted Access for Cyber" -programma, aldus Axios. Het programma werd eerder in februari aangekondigd en het is bedoeld als een gecontroleerde uitrol die bepaalde producten weghoudt van het grote publiek en alleen in handen blijft van defensieve beveiligingsbedrijven.

OpenAI lanceerde het programma na de release van GPT-5.3-Codex, momenteel het meest capabele aanbod op het gebied van cyberbeveiliging, en ondersteunt de toegang van deelnemers met $10 miljoen aan API-credits.

Het nieuws komt te midden van de groeiende zorgen onder cybersecurity-experts over het potentieel dat steeds krachtigere AI-producten bestaande systemen zullen overweldigen. Eerder deze week maakte Anthropic zichzelf bang met zijn eigen creatie, Claude Mythos.

Anthropic zei dat Mythos het meest capabele AI-model van het bedrijf is en zo effectief bleek te zijn in het vinden van beveiligingskwetsbaarheden (zero-days in elk groot besturingssysteem en elke browser) dat het besloot dat alleen een zorgvuldig uitgekozen groep organisaties er toegang toe mocht hebben.

Nu doet OpenAI naar verluidt iets soortgelijks.

Anthropic voert momenteel een juridische strijd nadat het Pentagon het als een risico voor de toeleveringsketen bestempelde nadat het bedrijf weigerde de gebruiksbeperkingen voor Claude op te heffen voor surveillance en autonome wapentoepassingen. Federale instanties onderzoeken sinds begin april de veiligheidsprotocollen van AI-bedrijven met toenemende intensiteit.

Tot nu toe heeft OpenAI geen openbare informatie gedeeld die de rapporten officieel bevestigt of ontkent.

De reden voor de beperkingen is niet subtiel. Anthropic's Mythos Preview, die lekte vóór de officiële uitrol, bleek in staat om "tienduizenden kwetsbaarheden" te identificeren die zelfs geavanceerde menselijke bugjagers moeilijk zouden kunnen lokaliseren. Het model wordt beschreven als "extreem autonoom" en redeneert met de verfijning van een senior veiligheidsonderzoeker. Dat soort mogelijkheden, beschikbaar voor iedereen met een API-sleutel, is iets dat beveiligingsteams 's nachts wakker houdt.

Het antwoord van Anthropic was Project Glasswing – een initiatief voor gecontroleerde toegang dat Mythos Preview alleen aan doorgelichte organisaties geeft: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, de Linux Foundation, Microsoft, Nvidia, Palo Alto Networks en ongeveer veertig anderen die betrokken zijn bij het onderhoud van kritieke infrastructuur.

Het besluit van OpenAI om producten als deze af te sluiten, lijkt op een poging om die regeldruk voor te zijn. Door vrijwillig de toegang te beperken voordat een overheidsinstantie dat zegt, positioneert OpenAI zichzelf als de verantwoordelijke actor in een ruimte waar Anthropic onder druk wordt gezet.

De beperkingen weerspiegelen ook iets dat dieper gaat dan voorzichtigheid ten aanzien van één specifiek model. Anthropic's eigen veiligheidsrapport erkende dat Cybench, de maatstaf die wordt gebruikt om te beoordelen of een AI een ernstig cyberrisico met zich meebrengt, "niet langer voldoende informatief is over de huidige mogelijkheden van grensmodellen" - omdat Mythos dit volledig heeft gewist. Het instrument dat is gebouwd om het gevaar te meten, is niet langer geschikt voor wat er wordt gebouwd. Anthropic voegde eraan toe dat zijn algemene veiligheidsbepaling “oordeelsvragen met zich meebrengt” en dat veel evaluaties “meer fundamentele onzekerheid” achterlaten.

Anthropic heeft als onderdeel van de uitrol tot $100 miljoen aan gebruikskredieten en $4 miljoen aan directe donaties aan open-source beveiligingsorganisaties toegezegd. OpenAI heeft geen vergelijkbare toezegging aangekondigd naast zijn toegangsprogramma, hoewel beide bedrijven hun beperkte programma's inlijsten als een netto voordeel voor de defensieve veiligheid. Het idee is dat het geven van betere tools aan verdedigers voordat aanvallers ze krijgen, de afweging waard is van het beperken van de algemene toegang.

Het patroon dat in de frontier-AI-industrie naar voren komt, is dat de meest capabele modellen niet langer als brede productlanceringen zullen verschijnen. Ze zullen meer als geheim onderzoek worden gedistribueerd – selectief, in overleg, onder organisaties die over de infrastructuur beschikken en de intentie hebben om ze op verantwoorde wijze te gebruiken.

Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!