Default
Door Remote - 21 Apr 2026
In het kort
Onderzoekers vonden een kwetsbaarheid voor snelle injectie in het Antigravity AI-coderingsplatform van Google.
Door de fout kunnen aanvallers opdrachten uitvoeren, zelfs als de veilige modus van het platform is ingeschakeld.
Google heeft het probleem op 28 februari opgelost nadat onderzoekers het in januari hadden onthuld, aldus Pillar Security.
Google heeft een kwetsbaarheid in zijn Antigravity AI-coderingsplatform gepatcht waarvan onderzoekers zeggen dat het aanvallers in staat zou kunnen stellen opdrachten uit te voeren op de machine van een ontwikkelaar via een snelle injectie-aanval.
Volgens een rapport van Cybersecurity-bedrijf Pillar Security was de fout te wijten aan de bestandszoekfunctie find_by_name van Antigravity, die gebruikersinvoer rechtstreeks doorgaf aan een onderliggend opdrachtregelhulpprogramma zonder validatie. Hierdoor kon kwaadaardige invoer een bestandszoekopdracht omzetten in een opdrachtuitvoeringstaak, waardoor uitvoering van externe code mogelijk werd.
“Gecombineerd met de mogelijkheid van Antigravity om bestanden te creëren als toegestane actie, maakt dit een volledige aanvalsketen mogelijk: voer een kwaadaardig script uit en activeer het vervolgens via een schijnbaar legitieme zoekopdracht, allemaal zonder extra gebruikersinteractie zodra de promptinjectie landt”, schreven onderzoekers van Pillar Security.
Antigravity, gelanceerd afgelopen november, is de AI-aangedreven ontwikkelomgeving van Google, ontworpen om programmeurs te helpen code te schrijven, testen en beheren met de hulp van autonome softwareagenten. Pillar Security maakte het probleem op 7 januari aan Google bekend en Google bevestigde het rapport dezelfde dag en markeerde het probleem op 28 februari als opgelost.
Google heeft niet onmiddellijk gereageerd op een verzoek om commentaar van Decrypt.
Prompt-injectieaanvallen vinden plaats wanneer verborgen instructies die in de inhoud zijn ingebed, ervoor zorgen dat een AI-systeem onbedoelde acties uitvoert. Omdat AI-tools vaak externe bestanden of tekst verwerken als onderdeel van normale workflows, kan het systeem deze instructies interpreteren als legitieme opdrachten, waardoor een aanvaller acties op de machine van een gebruiker kan activeren zonder directe toegang of extra interactie.
De dreiging van snelle injectie-aanvallen voor grote taalmodellen kwam afgelopen zomer opnieuw onder de aandacht toen ChatGPT-ontwikkelaar OpenAI waarschuwde dat zijn nieuwe ChatGPT-agent in gevaar zou kunnen komen.
“Wanneer u de ChatGPT-agent op websites aanmeldt of connectoren inschakelt, heeft deze toegang tot gevoelige gegevens uit die bronnen, zoals e-mails, bestanden of accountinformatie”, schreef OpenAI in een blogpost.
Om het Antigravity-probleem aan te tonen, creëerden de onderzoekers een testscript in een projectwerkruimte en activeerden dit via de zoekfunctie. Toen het script werd uitgevoerd, opende het de rekenmachinetoepassing van de computer, wat aantoonde dat de zoekfunctie kon worden omgezet in een mechanisme voor het uitvoeren van opdrachten.
“Het is cruciaal dat deze kwetsbaarheid de Secure Mode van Antigravity omzeilt, de meest restrictieve beveiligingsconfiguratie van het product”, aldus het rapport.
De bevindingen benadrukken een bredere beveiligingsuitdaging waarmee AI-aangedreven ontwikkelingstools te maken krijgen nu ze taken autonoom beginnen uit te voeren.
"De industrie moet verder gaan dan op sanitatie gebaseerde controles en zich richten op uitvoeringsisolatie. Elke native toolparameter die een shell-commando bereikt, is een potentieel injectiepunt", aldus Pillar Security. “Het controleren op deze klasse van kwetsbaarheden is niet langer optioneel, maar een voorwaarde voor het veilig kunnen gebruiken van scheepsagentfuncties.”
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!
Onderzoekers vonden een kwetsbaarheid voor snelle injectie in het Antigravity AI-coderingsplatform van Google.
Door de fout kunnen aanvallers opdrachten uitvoeren, zelfs als de veilige modus van het platform is ingeschakeld.
Google heeft het probleem op 28 februari opgelost nadat onderzoekers het in januari hadden onthuld, aldus Pillar Security.
Google heeft een kwetsbaarheid in zijn Antigravity AI-coderingsplatform gepatcht waarvan onderzoekers zeggen dat het aanvallers in staat zou kunnen stellen opdrachten uit te voeren op de machine van een ontwikkelaar via een snelle injectie-aanval.
Volgens een rapport van Cybersecurity-bedrijf Pillar Security was de fout te wijten aan de bestandszoekfunctie find_by_name van Antigravity, die gebruikersinvoer rechtstreeks doorgaf aan een onderliggend opdrachtregelhulpprogramma zonder validatie. Hierdoor kon kwaadaardige invoer een bestandszoekopdracht omzetten in een opdrachtuitvoeringstaak, waardoor uitvoering van externe code mogelijk werd.
“Gecombineerd met de mogelijkheid van Antigravity om bestanden te creëren als toegestane actie, maakt dit een volledige aanvalsketen mogelijk: voer een kwaadaardig script uit en activeer het vervolgens via een schijnbaar legitieme zoekopdracht, allemaal zonder extra gebruikersinteractie zodra de promptinjectie landt”, schreven onderzoekers van Pillar Security.
Antigravity, gelanceerd afgelopen november, is de AI-aangedreven ontwikkelomgeving van Google, ontworpen om programmeurs te helpen code te schrijven, testen en beheren met de hulp van autonome softwareagenten. Pillar Security maakte het probleem op 7 januari aan Google bekend en Google bevestigde het rapport dezelfde dag en markeerde het probleem op 28 februari als opgelost.
Google heeft niet onmiddellijk gereageerd op een verzoek om commentaar van Decrypt.
Prompt-injectieaanvallen vinden plaats wanneer verborgen instructies die in de inhoud zijn ingebed, ervoor zorgen dat een AI-systeem onbedoelde acties uitvoert. Omdat AI-tools vaak externe bestanden of tekst verwerken als onderdeel van normale workflows, kan het systeem deze instructies interpreteren als legitieme opdrachten, waardoor een aanvaller acties op de machine van een gebruiker kan activeren zonder directe toegang of extra interactie.
De dreiging van snelle injectie-aanvallen voor grote taalmodellen kwam afgelopen zomer opnieuw onder de aandacht toen ChatGPT-ontwikkelaar OpenAI waarschuwde dat zijn nieuwe ChatGPT-agent in gevaar zou kunnen komen.
“Wanneer u de ChatGPT-agent op websites aanmeldt of connectoren inschakelt, heeft deze toegang tot gevoelige gegevens uit die bronnen, zoals e-mails, bestanden of accountinformatie”, schreef OpenAI in een blogpost.
Om het Antigravity-probleem aan te tonen, creëerden de onderzoekers een testscript in een projectwerkruimte en activeerden dit via de zoekfunctie. Toen het script werd uitgevoerd, opende het de rekenmachinetoepassing van de computer, wat aantoonde dat de zoekfunctie kon worden omgezet in een mechanisme voor het uitvoeren van opdrachten.
“Het is cruciaal dat deze kwetsbaarheid de Secure Mode van Antigravity omzeilt, de meest restrictieve beveiligingsconfiguratie van het product”, aldus het rapport.
De bevindingen benadrukken een bredere beveiligingsuitdaging waarmee AI-aangedreven ontwikkelingstools te maken krijgen nu ze taken autonoom beginnen uit te voeren.
"De industrie moet verder gaan dan op sanitatie gebaseerde controles en zich richten op uitvoeringsisolatie. Elke native toolparameter die een shell-commando bereikt, is een potentieel injectiepunt", aldus Pillar Security. “Het controleren op deze klasse van kwetsbaarheden is niet langer optioneel, maar een voorwaarde voor het veilig kunnen gebruiken van scheepsagentfuncties.”
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!

