De regering-Trump in de Verenigde Staten overweegt een pakket administratieve maatregelen aan te nemen om de controle op geavanceerde kunstmatige-intelligentiemodellen te verscherpen om de escalerende nationale veiligheidsrisico's het hoofd te kunnen bieden. Discussies binnen het Witte Huis over nieuwe regelgeving, waaronder het opzetten van een formeel beoordelings- en vrijgavemechanisme voor geavanceerde AI-modellen, zijn al een tijdje aan de gang, aldus zeven vertegenwoordigers van de technologie-industrie en beleidsadviseurs die anonimiteit kregen.

Meerdere mensen die bekend zijn met de zaak zeiden dat in recente achter gesloten deuren communicatie met de industrie een van de door het Witte Huis voorgestelde ideeën was om een beoordelingssysteem op te zetten in de vorm van een uitvoerend bevel om de potentiële impact van zogenaamde ‘geavanceerde AI-modellen’ te evalueren. Een AI-beleidsdeskundige en een bron uit de sector zeiden dat bedrijven in het kader van deze regeling mogelijk “groen licht” moeten krijgen van de federale overheid voordat ze modellen met hoge capaciteit vrijgeven. De New York Times had eerder bekendgemaakt dat het Witte Huis een soortgelijke beoordelingsstructuur overwoog.
Een woordvoerder van het Witte Huis zei dat elk formeel beleid persoonlijk door president Donald Trump zou worden aangekondigd, en dat de huidige discussies over mogelijke uitvoerende bevelen nog steeds 'speculatie' zijn. Tegelijkertijd werken steeds meer technologiebedrijven vrijwillig samen met de overheid en dienen ze actief nieuwe modellen ter beoordeling in voordat ze online gaan. Dinsdag bereikte de regering-Trump een overeenkomst met Microsoft, xAI en Google DeepMind om de regering in staat te stellen een nationale veiligheidsrisicobeoordeling uit te voeren op een nieuwe generatie modellen voordat deze openbaar worden gemaakt.
Deze reeks acties komt omdat het wijdverbreide publieke onbehagen over AI blijft toenemen, inclusief zorgen over de veiligheid van de technologie zelf en vragen over de enorme investeringen van de industrie in politieke campagnes. Uit een POLITICO-enquête die eerder deze maand werd gepubliceerd, bleek dat Amerikaanse kiezers in het algemeen aanzienlijk sceptisch staan tegenover kunstmatige intelligentie. In deze context is een formeel beoordelingsmechanisme vóór de implementatie van AI slechts een van de reeks administratieve maatregelen die momenteel door het Witte Huis worden overwogen. Andere ideeën zijn onder meer een hardere aanpak van de veiligheidsrisico’s die AI met zich meebrengt en het beperken van de ruimte voor de technologie-industrie om de veiligheids- en beleidsvereisten van de overheid tegen te gaan.
De regering bereidt een 16 pagina's tellend ontwerp van uitvoeringsbesluit voor dat de particuliere sector zou verbieden zich te 'bemoeien' met het gebruik van AI-modellen door de overheid, aldus vier mensen die bekend zijn met de zaak. Het ontwerp is ook van plan om de federale aanbestedings- en contractnormen aan te scherpen en de overheid meer zeggenschap te geven bij het werken met AI-leveranciers. De bepalingen worden algemeen gezien als een directe reactie op een recente impasse tussen het Witte Huis en AI-bedrijf Anthropic, dat heeft geweigerd het leger zijn model Claude te laten gebruiken om Amerikaanse burgers te monitoren of autonome wapens aan te drijven, wat aanleiding gaf tot verontwaardiging bij het ministerie van Defensie.
Als reactie hierop classificeerde minister van Defensie Pete Hegseth Anthropic in maart als een ‘veiligheidsrisico voor de toeleveringsketen’, een zeldzame zet die onmiddellijk de mogelijkheden van federale agentschappen beperkte om de producten van het bedrijf te gebruiken. Veel waarnemers wezen erop dat de huidige beleidsronde rond AI een belangrijke verschuiving markeert in het regelgevingsdenken van de regering-Trump. Voordien had het Witte Huis, onder de lobby van ‘laissez-faire’ durfkapitalisten als David Sacks en Marc Andreessen, altijd een relatief losse ‘lichte’ houding aangenomen ten aanzien van de regulering en het toezicht op de AI-industrie.
Deze ogenschijnlijk “scherpe wending” wekt waakzaamheid in de technologiekring. Sommige vertegenwoordigers van de industrie zijn bezorgd dat strengere overheidscontrole het innovatietempo zal vertragen. Daniel Castro, voorzitter van de denktank ‘Information Technology and Innovation Foundation’, zei dat niemand een wereld wil betreden waarin ‘elke nieuwe versie van het model eerst ter goedkeuring aan de overheid moet worden voorgelegd’. Hij waarschuwde dat ‘Silicon Valley-snelheid’ heel anders is dan ‘Washington-snelheid’ en dat de Verenigde Staten snel vooruitgang moeten blijven boeken als ze met China willen concurreren op het gebied van AI.
Het voorgestelde uitvoeringsbesluit richt zich ook op nieuwe bedreigingen die uitgaan van de allernieuwste AI op het gebied van cyberbeveiliging, met name het nieuwe model Mythos van Anthropic. Hoewel het model nog niet aan het publiek is vrijgegeven, laten vroege testresultaten van overheden en grote instellingen zien dat Mythos in staat is softwarekwetsbaarheden te vinden en te exploiteren op manieren die de mogelijkheden van menselijke hackers ver te boven gaan. Twee mensen die bekend waren met de discussies onthulden dat het ontwerp overweegt technische richtlijnen en beste praktijken te formuleren voor "open gewichtsmodellen" om de veiligheidsbescherming te versterken. Dergelijke modellen zullen trainingsparameters blootleggen en gebruikers in staat stellen deze opnieuw te trainen en aan te passen voor verschillende taken. Het Witte Huis overweegt ook de inlichtingengemeenschap te mobiliseren om te helpen zich te verdedigen tegen bedreigingen voor kritieke systemen die worden veroorzaakt door geavanceerde AI, voegden drie mensen die bekend zijn met de zaak eraan toe.
De potentiële risico's van Mythos hebben grote alertheid gewekt onder hoge functionarissen van de Trump-regering. Meerdere functionarissen maken zich zorgen dat federale agentschappen tijdens de impasse met Anthropic moeite zullen hebben om Mythos te verkrijgen om te gebruiken voor het "stresstesten" van kritische systemen. De afgelopen weken is het Witte Huis begonnen de spanningen met het AI-bedrijf te ‘afkoelen’. De regering is van plan een beoordelingsraad op te richten om de bepaling van de supply chain-risico's op Anthropic opnieuw te beoordelen, aldus twee bronnen, maar het is onduidelijk of deze regeling zal worden opgenomen in de tekst van het uiteindelijke AI-uitvoerend bevel.
Van buitenaf verandert de opkomst van Mythos het discussiekader rond AI en nationale veiligheid binnen het Witte Huis. Saif Khan, die als opkomend technologieadviseur in de regering-Biden diende en nu onderzoeker is bij de denktank van het Institute for Progress, zei dat er voorheen een zekere mate van minachting bestond voor de daarmee samenhangende risico's binnen de regering, “maar nu beginnen veel mensen deze kwestie uiterst serieus te nemen.” Volgens hem loopt er binnen de regering-Trump mogelijk een einde aan het tijdperk van AI-beleid dat uitsluitend wordt geleid door de logica van durfkapitaal in Silicon Valley.