Default
Door Remote - 28 Apr 2026
Volgens meerdere nieuwsberichten heeft Google het Amerikaanse ministerie van Defensie toegang verleend tot zijn AI voor geheime netwerken, waardoor in wezen alle wettige toepassingen zijn toegestaan.
Deze deal volgt op het publieke standpunt van Anthropic tegen de regering-Trump nadat de modelmaker weigerde het DoD dezelfde voorwaarden te verlenen. Het Pentagon wilde onbeperkt gebruik van AI, terwijl Anthropic vangrails wilde om te voorkomen dat zijn AI zou worden gebruikt voor binnenlandse massabewaking en autonome wapens.
Omdat Anthropic deze gebruiksscenario's weigerde, bestempelde het DoD de modelmaker als een 'toeleveringsketenrisico' - een aanduiding die normaal gesproken voorbehouden is aan buitenlandse tegenstanders. Anthropic en het Ministerie van Defensie zijn nu verwikkeld in een rechtszaak, waarbij een rechter Anthropic vorige maand een bevel tegen de aanwijzing heeft verleend terwijl de zaak voortduurt.
Google is het derde AI-bedrijf dat probeert het verlies van Anthropic om te zetten in eigen gewin. OpenAI tekende onmiddellijk een deal met het Ministerie van Defensie, net als xAI. De overeenkomst van Google bevat een taal waarin wordt gezegd dat het niet de bedoeling is dat zijn AI wordt gebruikt voor binnenlandse massasurveillance of in autonome wapens, meldt The Wall Street Journal, wat vergelijkbaar is met contracttaal met OpenAI. Maar het is onduidelijk of dergelijke bepalingen juridisch bindend of afdwingbaar zijn, aldus de WSJ.
Google is deze deal aangegaan, ook al hebben 950 van zijn werknemers een open brief ondertekend waarin ze worden gevraagd het voorbeeld van Anthropic te volgen en geen AI aan het ministerie van Defensie te verkopen zonder soortgelijke vangrails. Google heeft niet gereageerd op een verzoek om commentaar.
Deze deal volgt op het publieke standpunt van Anthropic tegen de regering-Trump nadat de modelmaker weigerde het DoD dezelfde voorwaarden te verlenen. Het Pentagon wilde onbeperkt gebruik van AI, terwijl Anthropic vangrails wilde om te voorkomen dat zijn AI zou worden gebruikt voor binnenlandse massabewaking en autonome wapens.
Omdat Anthropic deze gebruiksscenario's weigerde, bestempelde het DoD de modelmaker als een 'toeleveringsketenrisico' - een aanduiding die normaal gesproken voorbehouden is aan buitenlandse tegenstanders. Anthropic en het Ministerie van Defensie zijn nu verwikkeld in een rechtszaak, waarbij een rechter Anthropic vorige maand een bevel tegen de aanwijzing heeft verleend terwijl de zaak voortduurt.
Google is het derde AI-bedrijf dat probeert het verlies van Anthropic om te zetten in eigen gewin. OpenAI tekende onmiddellijk een deal met het Ministerie van Defensie, net als xAI. De overeenkomst van Google bevat een taal waarin wordt gezegd dat het niet de bedoeling is dat zijn AI wordt gebruikt voor binnenlandse massasurveillance of in autonome wapens, meldt The Wall Street Journal, wat vergelijkbaar is met contracttaal met OpenAI. Maar het is onduidelijk of dergelijke bepalingen juridisch bindend of afdwingbaar zijn, aldus de WSJ.
Google is deze deal aangegaan, ook al hebben 950 van zijn werknemers een open brief ondertekend waarin ze worden gevraagd het voorbeeld van Anthropic te volgen en geen AI aan het ministerie van Defensie te verkopen zonder soortgelijke vangrails. Google heeft niet gereageerd op een verzoek om commentaar.

