Live News

Er zijn maar weinig durfkapitaalbedrijven die agressiever op AI hebben ingezet dan Sequoia Capital, en de ontwikkeling daarvan vertraagt ​​niet...

Circle Internet Group wordt geconfronteerd met een class action-rechtszaak onder leiding van een Drift Protocol-investeerder, die beweert dat het e...

Bitcoin (BTC) lijkt op koers om de komende weken $90.000 te bereiken, aangezien walvissen de afgelopen weken ongeveer 20 keer het dagelijkse nieuwe...

17/04/26

Volg ons:

Claude Opus 4.7 is er: het nieuwste model van Anthropic levert resultaat, maar het is een symbolische eetmachine

Claude Opus 4.7 is er: het nieuwste model van Anthropic levert resultaat, maar het is een symbolische eetmachine
Default Door Remote - 16 Apr 2026
In het kort

Anthropic heeft zojuist zijn meest capabele Opus-model tot nu toe uitgebracht, Claude Opus 4.7.

Het model levert sterke benchmarkwinsten op op het gebied van coderen en redeneren, maar is niet het controversiële Mythos-model dat Anthropic aan geselecteerde partners aanbiedt.

Claude Opus 4.7 toont een zichtbare gedachtegang en een ongewoon hoog tokengebruik.

Anthropic heeft vandaag Claude Opus 4.7 verzonden en noemt dit het meest capabele Opus-model van het bedrijf tot nu toe. We hebben het getest en de marketing komt overeen met de resultaten.

"Ons nieuwste model, Claude Opus 4.7, is nu algemeen verkrijgbaar." zei het bedrijf in zijn officiële aankondiging. "Gebruikers melden dat ze hun zwaarste codeerwerk (het soort werk dat voorheen nauw toezicht nodig had) met vertrouwen kunnen overdragen aan Opus 4.7."

Het model komt na wekenlange klachten van gebruikers dat Opus 4.6 zijn voorsprong zou verliezen. Ontwikkelaars van GitHub, Reddit en X documenteerden wat zij 'AI-krimpflatie' noemden: het gevoel dat het model waarvoor ze hadden betaald stilletjes slechter was geworden. Zoals we gisteren meldden, was Anthropic 4.7 al aan het voorbereiden terwijl het op iets veel krachtigers zat dat het niet publiekelijk kan uitbrengen: Claude Mythos.

Toen de aankondiging vanochtend uitkwam, reageerden X-gebruikers die zich het luidst hadden uitgesproken over de degradatie van 4.6 al snel met sarcasme: Opus 4.7, zo grapten sommigen, voelde aan als "vroege Opus 4.6" - de versie die mensen eigenlijk leuk vonden, voordat ze geloofden dat Anthropic stilletjes de knoppen naar beneden draaide. Anthropic heeft uiteraard steeds degraderende modelgewichten ontkend om de computervraag te beheersen.

Welkom terug opus 4.6 pic.twitter.com/hpwNkrq1tD

— Ontwikkelaar Ed (@developedbyed) 16 april 2026

Benchmarks ondersteunen de beweringen van Anthropic. Op SWE-bench Multilingual, een benchmark die codeervaardigheden meet, scoorde Opus 4.7 80,5%, tegenover 4.6's 77,8%.

Op GDPVal-AA, een externe evaluatie van economisch waardevol kenniswerk op financieel en juridisch gebied, scoorde 4.7 1.753 Elo tegen 1.674 van GPT-5.4 – een duidelijke marge ten opzichte van de naaste concurrent.

Documentredenering via OfficeQA Pro liet de grootste sprong zien: 80,6% voor 4.7 versus 57,1% voor 4.6, waarbij GPT-5.4 en Gemini 3.1 Pro achterbleven met respectievelijk 51,1% en 42,9%. Langetermijncoherentie op Vending-Bench 2, een maatstaf die meet hoe goed modellen zijn bij lange context- en redeneringstaken zoals het bezitten van een verkoopautomaat, kwam uit op een geldsaldo van $10.937 versus $8.018 voor 4,6 – een maatstaf voor hoe goed het model bruikbaar gedrag over lange autonome runs volhoudt.

Cybersecurity is het enige gebied waarop Anthropic zich opzettelijk terughoudend heeft opgesteld. Opus 4.7 wordt gelanceerd met geautomatiseerde beveiligingen die verboden of risicovolle cyberbeveiligingsverzoeken detecteren en blokkeren. Anthropic bevestigde dat het tijdens de training "experimenteerde met pogingen om de cybercapaciteiten van 4.7 op verschillende manieren te verminderen".

Beveiligingsprofessionals kunnen zich aanmelden voor een nieuw Cyber ​​Verificatieprogramma voor toegang tot deze functies. Dit is de testrun van het bedrijf voor de veiligheidsmaatregelen die het uiteindelijk op schaal zal moeten implementeren met Mythos-klasse modellen.

Opus 4.7 is het krachtigste model dat publiekelijk beschikbaar is. Mythos Preview, het echte grensmodel van Anthropic, blijft beperkt tot doorgelichte beveiligingsbedrijven. Zoals het Britse AI Security Institute vorige week evalueerde, was Mythos de eerste AI die 'The Last Ones' voltooide, een 32-staps aanvalssimulatie op bedrijfsnetwerken die menselijke rode teams doorgaans 20 uur kost.

Opus 4.7 is dat niet. Maar het is het publiekgerichte model dat Anthropic zal gebruiken om te leren hoe die veiligheidsrails zich in het wild staande houden voordat het iets enger durft los te laten.

Aan de tokenkant gebruikt Opus 4.7 een bijgewerkte tokenizer die dezelfde invoer kan toewijzen aan ongeveer 1,0x–1,35x meer tokens, afhankelijk van het inhoudstype. Het model redeneert ook meer op hogere inspanningsniveaus, vooral bij latere beurten in agentische workflows. Anthropic heeft een migratiegids gepubliceerd voor ontwikkelaars die van plan zijn te upgraden vanaf 4.6.

We hebben onze eigen test uitgevoerd, dezelfde prompt voor het bouwen van games die we hebben gebruikt om elke grote modelrelease te evalueren. Opus 4.7 produceerde het beste resultaat dat we ooit met welk model dan ook hebben behaald. Het meest visueel gepolijste spel, de meest werkelijk uitdagende moeilijkheidsgraad, de beste mechanica en de meest creatieve win- en verliesschermen. Het leek procedureel niveaus te genereren, en geen van hen voelde onmogelijk – een evenwicht dat andere modellen herhaaldelijk heeft laten struikelen.

Je kunt het spel hier testen

Emerge: The Game, gemaakt door Claude Opus 4.7Het was geen nulschot. Opus 4.6 had dezelfde test zonder enige oplossing doorstaan. Opus 4.7 had één ronde bugfixes nodig. Dat kan pech zijn – een enkele iteratie is een magere steekproef – maar het is het vermelden waard. Wat ons meer opviel, was hoe het model die ronde afhandelde: het ontdekte zelf meer bugs, zonder ernaartoe te worden geleid. Opus 4.6 wachtte doorgaans tot er werd gezegd waar hij moest kijken.

Xiaomi MiMo v2 Pro was tot nu toe het model met de beste resultaten, maar in tegenstelling tot Opus leverde het een werkend resultaat op zonder dat er meer dan één iteratie nodig was. Sommigen beweren misschien dat het visueel aantrekkelijker was en een soundtrack had, wat een voordeel was, maar de logica en fysica van het spel schoten tekort tegen Opus na een enkele ronde van bugfixes.

Emerge: The Game, gemaakt door Xiaomi MiMo v2 ProOok levert het Xiaomi-model deze resultaten op tegen een fractie van de kosten die door Anthropic in rekening worden gebracht, wat een belangrijk ding zou kunnen zijn om te overwegen voor serieuze projecten.

Het gedachteketengedrag was op het eerste gezicht ook anders. In tegenstelling tot 4.6, waarin de redenering in een apart denkkader werd gestopt (wat betekent dat het geen deel uitmaakte van het uiteindelijke antwoord), bracht Opus 4.7 zijn gedachtegang naar boven als onderdeel van de hoofdtekst. De redenering was zichtbaar en traceerbaar en niet verborgen achter een UI-abstractie, wat een pluspunt is voor degenen die transparantie waarderen. Of Anthropic dat gedrag zal behouden of uiteindelijk weer in een verborgen blok zal samenvouwen, is onduidelijk.

Het tokengebruik was anders dan alles wat we eerder hadden gezien. Voor het eerst tijdens onze tests heeft een enkele sessie ons volledige tokenquotum uitgeput. Toen we het model aan het werk zagen, zagen we dat het een volledige versie voltooide en vervolgens wat leek op het hele spel opnieuw helemaal opnieuw schreef onder het label 'Herschrijf Emerge met bugfixes en verbeteringen', gevolgd door een tweede passage met het label 'Maak een herschreven Emerge met bugfixes en verbeteringen'.

Dit betekent dat als je van serieus coderen houdt, je gedwongen wordt om je abonnement te upgraden, veel te betalen voor API-tokens, of lang te wachten totdat Anthropic je gebruiksquota opnieuw instelt. Of u kunt gewoon een vergelijkbaar model gebruiken dat een stuk minder kost

Opus 4.6 had dit nog nooit gedaan. Het komt echter overeen met wat Anthropic waarschuwt in de migratiegids: meer outputtokens, vooral voor agenttaken met hogere inspanningsniveaus.

Opus 4.7 is vandaag beschikbaar op Claude.ai, de Claude API, Amazon Bedrock, Google Cloud Vertex AI en Microsoft Foundry. De prijzen zijn ongewijzigd ten opzichte van 4.6: $5 per miljoen inputtokens, $25 per miljoen outputtokens. Ontwikkelaars hebben er toegang toe via de string claude-opus-4-7.

Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!