Default
Door Remote - 10 Apr 2026
“Ja mensen, het zal in de toekomst moeilijker worden om ervoor te zorgen dat OpenClaw nog steeds werkt met Anthropic-modellen”, plaatste OpenClaw-maker Peter Steinberger vrijdagochtend vroeg op X, samen met een foto van een bericht van Anthropic waarin stond dat zijn account was opgeschort wegens “verdachte” activiteit.
Het verbod duurde niet lang. Een paar uur later, nadat het bericht viraal ging, zei Steinberger dat zijn account was hersteld. Onder de honderden commentaren – waarvan vele in het land van complottheorieën, gezien het feit dat Steinberger nu in dienst is van de antropische rivaal OpenAI – was er één van een antropische ingenieur. De ingenieur vertelde de beroemde ontwikkelaar dat Anthropic nog nooit iemand heeft verbannen voor het gebruik van OpenClaw en heeft aangeboden om te helpen.
Ja mensen, het zal in de toekomst moeilijker worden om ervoor te zorgen dat OpenClaw nog steeds werkt met Anthropic-modellen. pic.twitter.com/U6F8GZvPcH
— Peter Steinberger 🦞 (@steipete) 10 april 2026
Het is niet duidelijk of dat de sleutel was waarmee het account werd hersteld. (We hebben Anthropic ernaar gevraagd.) Maar de hele reeks berichten was op veel niveaus verhelderend.
Om de recente geschiedenis samen te vatten: dit verbod volgde op het nieuws van vorige week dat abonnementen op Claude van Anthropic niet langer “harnassen van derden, waaronder OpenClaw”, zouden dekken, aldus het AI-modelbedrijf.
OpenClaw-gebruikers moeten nu afzonderlijk voor dat gebruik betalen, op basis van verbruik, via de API van Claude. In wezen rekent Anthropic, dat zijn eigen agent Cowork aanbiedt, nu een ‘klauwbelasting’ aan. Steinberger zei dat hij deze nieuwe regel volgde en zijn API gebruikte, maar werd toch verbannen.
Anthropic zei dat het de prijswijziging heeft doorgevoerd omdat abonnementen niet waren gebouwd om met de ‘gebruikspatronen’ van klauwen om te gaan. Claws kunnen rekenintensiever zijn dan prompts of eenvoudige scripts, omdat ze continue redeneerlussen kunnen uitvoeren, automatisch taken kunnen herhalen of opnieuw proberen, en kunnen aansluiten bij veel andere tools van derden.
Steinberger geloofde dat excuus echter niet. Nadat Anthropic de prijzen had gewijzigd, postte hij: "Grappig hoe timings overeenkomen, eerst kopiëren ze een aantal populaire functies naar hun gesloten harnas, en daarna sluiten ze open source uit." Hoewel hij dit niet specificeerde, verwees hij mogelijk naar functies die zijn toegevoegd aan de Cowork-agent van Claude, zoals Claude Dispatch, waarmee gebruikers agenten op afstand kunnen besturen en taken kunnen toewijzen. Dispatch werd een paar weken uitgerold voordat Anthropic zijn OpenClaw-prijsbeleid veranderde.
De frustratie van Steinberger over Anthropic was vrijdag opnieuw te zien.
Eén persoon suggereerde dat een deel hiervan aan hem te wijten is omdat hij een baan bij OpenAI heeft aangenomen in plaats van bij Anthropic, door te posten: "Je had de keuze, maar je ging naar de verkeerde." Waarop Steinberger antwoordde: “Eén heette mij welkom, één stuurde juridische bedreigingen.”
Au.
Toen meerdere mensen hem vroegen waarom hij Claude gebruikt in plaats van de modellen van zijn werkgever, legde hij uit dat hij deze alleen gebruikt om te testen, om ervoor te zorgen dat updates van OpenClaw geen problemen opleveren voor Claude-gebruikers.
Hij legde uit: "Je moet twee dingen scheiden. Mijn werk bij de OpenClaw Foundation, waar we OpenClaw geweldig willen laten werken voor *elke* modelaanbieder, en mijn baan bij OpenAI om hen te helpen met toekomstige productstrategieën."
Meerdere mensen wezen er ook op dat de noodzaak om Claude te testen is omdat dat model een populaire keuze blijft voor OpenClaw-gebruikers boven ChatGPT. Dat hoorde hij ook toen Anthropic zijn prijzen veranderde, waarop hij antwoordde: “Daar wordt aan gewerkt.” (Dus dat is een idee van wat zijn baan bij OpenAI inhoudt.)
Steinberger reageerde niet op een verzoek om commentaar.
Het verbod duurde niet lang. Een paar uur later, nadat het bericht viraal ging, zei Steinberger dat zijn account was hersteld. Onder de honderden commentaren – waarvan vele in het land van complottheorieën, gezien het feit dat Steinberger nu in dienst is van de antropische rivaal OpenAI – was er één van een antropische ingenieur. De ingenieur vertelde de beroemde ontwikkelaar dat Anthropic nog nooit iemand heeft verbannen voor het gebruik van OpenClaw en heeft aangeboden om te helpen.
Ja mensen, het zal in de toekomst moeilijker worden om ervoor te zorgen dat OpenClaw nog steeds werkt met Anthropic-modellen. pic.twitter.com/U6F8GZvPcH
— Peter Steinberger 🦞 (@steipete) 10 april 2026
Het is niet duidelijk of dat de sleutel was waarmee het account werd hersteld. (We hebben Anthropic ernaar gevraagd.) Maar de hele reeks berichten was op veel niveaus verhelderend.
Om de recente geschiedenis samen te vatten: dit verbod volgde op het nieuws van vorige week dat abonnementen op Claude van Anthropic niet langer “harnassen van derden, waaronder OpenClaw”, zouden dekken, aldus het AI-modelbedrijf.
OpenClaw-gebruikers moeten nu afzonderlijk voor dat gebruik betalen, op basis van verbruik, via de API van Claude. In wezen rekent Anthropic, dat zijn eigen agent Cowork aanbiedt, nu een ‘klauwbelasting’ aan. Steinberger zei dat hij deze nieuwe regel volgde en zijn API gebruikte, maar werd toch verbannen.
Anthropic zei dat het de prijswijziging heeft doorgevoerd omdat abonnementen niet waren gebouwd om met de ‘gebruikspatronen’ van klauwen om te gaan. Claws kunnen rekenintensiever zijn dan prompts of eenvoudige scripts, omdat ze continue redeneerlussen kunnen uitvoeren, automatisch taken kunnen herhalen of opnieuw proberen, en kunnen aansluiten bij veel andere tools van derden.
Steinberger geloofde dat excuus echter niet. Nadat Anthropic de prijzen had gewijzigd, postte hij: "Grappig hoe timings overeenkomen, eerst kopiëren ze een aantal populaire functies naar hun gesloten harnas, en daarna sluiten ze open source uit." Hoewel hij dit niet specificeerde, verwees hij mogelijk naar functies die zijn toegevoegd aan de Cowork-agent van Claude, zoals Claude Dispatch, waarmee gebruikers agenten op afstand kunnen besturen en taken kunnen toewijzen. Dispatch werd een paar weken uitgerold voordat Anthropic zijn OpenClaw-prijsbeleid veranderde.
De frustratie van Steinberger over Anthropic was vrijdag opnieuw te zien.
Eén persoon suggereerde dat een deel hiervan aan hem te wijten is omdat hij een baan bij OpenAI heeft aangenomen in plaats van bij Anthropic, door te posten: "Je had de keuze, maar je ging naar de verkeerde." Waarop Steinberger antwoordde: “Eén heette mij welkom, één stuurde juridische bedreigingen.”
Au.
Toen meerdere mensen hem vroegen waarom hij Claude gebruikt in plaats van de modellen van zijn werkgever, legde hij uit dat hij deze alleen gebruikt om te testen, om ervoor te zorgen dat updates van OpenClaw geen problemen opleveren voor Claude-gebruikers.
Hij legde uit: "Je moet twee dingen scheiden. Mijn werk bij de OpenClaw Foundation, waar we OpenClaw geweldig willen laten werken voor *elke* modelaanbieder, en mijn baan bij OpenAI om hen te helpen met toekomstige productstrategieën."
Meerdere mensen wezen er ook op dat de noodzaak om Claude te testen is omdat dat model een populaire keuze blijft voor OpenClaw-gebruikers boven ChatGPT. Dat hoorde hij ook toen Anthropic zijn prijzen veranderde, waarop hij antwoordde: “Daar wordt aan gewerkt.” (Dus dat is een idee van wat zijn baan bij OpenAI inhoudt.)
Steinberger reageerde niet op een verzoek om commentaar.

