Google heeft een nieuwe overeenkomst getekend met het Pentagon om de toegang tot zijn eigen AI-tools open te stellen voor zijn geheime netwerken, waardoor bijna elk ‘legaal gebruik’ wordt toegestaan nadat Anthropic een verzoek van het Amerikaanse ministerie van Defensie om gevoelig gebruik toe te staan had afgewezen. In meerdere mediaberichten werd gesteld dat deze regeling betekent dat het ministerie van Defensie de AI van Google breder kan inzetten in geheime omgevingen voor inlichtingenanalyse, besluitvormingsondersteuning en andere scenario's.

Het incident werd aangewakkerd door het publieke standpunt van Anthropic tegen de regering-Trump. Voorheen wilde het Pentagon de modellen van Anthropic met weinig beperkingen gebruiken, waaronder het gebruik van AI voor binnenlandse massabewaking en autonome wapensystemen, maar Anthropic stond erop duidelijke ‘vangrails’ toe te voegen aan het contract dat dergelijk gebruik verbiedt. Omdat Anthropic weigerde mee te werken aan deze gebruiksscenario's, plaatste het ministerie van Defensie het modelbedrijf vervolgens op een lijst met 'toeleveringsketenrisico's', een label dat doorgaans is voorbehouden aan entiteiten die als 'buitenlandse tegenstanders' worden beschouwd.
Anthropic heeft een rechtszaak aangespannen rond de aanwijzing. In maart van dit jaar willigde een rechter het verzoek van Anthropic in om een tijdelijk bevel uit te vaardigen over de vaststelling van het “toeleveringsketenrisico” terwijl de zaak aanhangig was, waardoor de verspreiding van de daarmee samenhangende administratieve gevolgen tijdelijk werd voorkomen.
Te midden van dit conflict grepen andere grote AI-bedrijven snel hun kans en probeerden de ‘verliezen’ van Anthropic om te zetten in hun eigen ‘winsten’. OpenAI tekende zo snel mogelijk een overeenkomst met het ministerie van Defensie. Later kreeg xAI ook toegang tot vertrouwelijke netwerken, waardoor sommige leden van het Amerikaanse Congres de besluitvorming van het Pentagon in twijfel trokken. Nu is Google het derde bedrijf geworden dat een soortgelijke regeling heeft getroffen met het leger, en de samenwerking heeft de reeks grote modellen die beschikbaar zijn voor het Amerikaanse defensiesysteem verder uitgebreid.
Volgens de Wall Street Journal bevatte de tekst van de overeenkomst van Google met het Pentagon ook tekst waarin stond dat het bedrijf “niet van plan is” zijn AI te laten gebruiken voor binnenlandse massabewaking of autonome wapens, vergelijkbaar met delen van het OpenAI-contract. Het rapport wees er echter ook op dat er nog steeds onzekerheid bestaat over de vraag of deze bepalingen werkelijk juridisch bindend zijn en hoe ze zullen worden gecontroleerd en ter verantwoording zullen worden geroepen bij de daadwerkelijke implementatie.
Het is vermeldenswaard dat Google deze grote militaire orde bevordert, terwijl de interne oppositie niet is afgenomen. Tot nu toe hebben 950 Google-werknemers een open brief ondertekend waarin ze het bedrijf oproepen het voorbeeld van Anthropic te volgen en geen AI-mogelijkheden aan het ministerie van Defensie te verkopen zonder duidelijke en afdwingbare gebruiksbeperkingen. Google heeft nog niet gereageerd op de gezamenlijke brief en de specifieke inhoud van het nieuwe contract, noch op verzoeken van de media om commentaar.
In de context van de snelle penetratie van kunstmatige intelligentie op het gebied van de openbare veiligheid en het leger weerspiegelt dit incident een steeds acuut waardenconflict tussen technologiegiganten, overheden en hun eigen werknemers. Aan de ene kant probeert het leger het gebruik van geavanceerde AI-instrumenten te maximaliseren om de capaciteiten te vergroten; aan de andere kant proberen sommige technologiebedrijven en hun werknemers door middel van contractvoorwaarden en druk van de publieke opinie een basis te leggen voor de militaire en veiligheidstoepassingen van AI. De keuze van Google om de samenwerking met het Pentagon uit te breiden in plaats van het harde standpunt van Anthropic te volgen, heeft de controverse rond ‘wie de rode lijnen moet trekken voor het gebruik van AI’ verder geïntensiveerd.