AI gaat allang niet meer over efficiëntie. Het is geopolitiek: de Anthropic–Pentagon–OpenAI-schokgolf
- Deborah Nas
- 2 mrt
- 5 minuten om te lezen
Bijgewerkt op: 3 mrt

In de wereld van kunstmatige intelligentie kan er veel gebeuren in een paar dagen. Afgelopen weekend escaleerde een discussie over veiligheidsregels razendsnel tot iets veel groters: een ongekende geopolitieke machtsstrijd tussen het Amerikaanse leger, president Trump en twee van de grootste AI-bedrijven ter wereld, Anthropic (Claude) en OpenAI (ChatGPT).
Dit is niet alleen Silicon Valley-drama. Dit is een voorproefje van hoe AI in de praktijk wordt gestuurd: via contracten, supply chain-labels, politieke druk en een strategische race tussen machtsblokken.
Wat er gebeurde (en waarom het zo snel ging)
De trigger was een conflict over hoe Claude door het Amerikaanse leger gebruikt mag worden. Anthropic wilde twee dingen expliciet uitsluiten in het contract:
gebruik voor binnenlandse massasurveillance
autonome wapensystemen die zonder menselijke controle kunnen doden
Het Pentagon wilde juist bredere ruimte voor “all lawful uses”, zonder harde uitzonderingen.
Er lag een ultimatum. De deadline liep op vrijdag 27 februari 2026 af om 23:01 uur Amsterdamse tijd.
Toen Anthropic niet meeging:
Kondigde Trump aan dat alle federale instanties moeten stoppen met het gebruik van technologie van Anthropic.
Zette het Pentagon de stap om Anthropic te bestempelen als “supply chain risk”.
Vulde OpenAI het gat binnen een paar uur met een eigen defensiedeal, inclusief de boodschap dat er “technical safeguards” en streng toezicht zouden zijn.
En toen kwam de tweede schokgolf: gebruikers kwamen in opstand.
Waarom die consumentenopstand ertoe doet
Binnen no time ontplofte de QuitGPT-beweging. Op social media ging een virale oproep rond om je betaalde ChatGPT-abonnement op te zeggen en over te stappen naar Claude.
Het marktsignaal was opvallend sterk: de Claude-app schoot naar nummer één in de App Store, zelfs even boven ChatGPT. Dat is uitzonderlijk in een markt waarin gewoontes plakken en overstappen moeite kost.
Die spanning hoort nu bij AI-strategie. Je kunt productadoptie niet meer los zien van geopolitieke positionering.
Wat betekent “supply chain risk” hier eigenlijk?
Een “supply chain risk”-label gebruik je normaal om gevoelige systemen te beschermen tegen risico’s zoals buitenlandse invloed, controle of kwetsbaarheden in de keten. Het geeft defensie een zwaar instrument om leveranciers te beperken of uit te sluiten.
Wat deze casus zo heftig maakt: dit label werd ingezet tegen een Amerikaans AI-bedrijf na een conflict over ethische regels en veiligheidsgrenzen. Anthropic stelt dat het juridisch niet klopt en zegt het aan te vechten.
Het bredere effect is een afschrikmechanisme: als “risk”-labels ook ingezet kunnen worden bij contractruzies, dan gaan leveranciers en afnemers politieke volatiliteit inprijzen in hun keuzes.
De kernvraag: waarom OpenAI “wel” en Anthropic “niet”?
OpenAI’s uitleg is dat het verschil zit in de manier waarop de technologie wordt geleverd en gecontroleerd, niet in principes. Volgens Sam Altman levert OpenAI de AI in een afgeschermde cloudomgeving, stuurt het eigen mensen mee voor streng toezicht, en gelden vergelijkbare grenzen zoals een verbod op massasurveillance en nadruk op menselijke verantwoordelijkheid.
Anthropic’s positie was precies andersom: guardrails moeten expliciet en contractueel zijn, niet alleen operationeel of “best effort”. Want zodra iets draait in een organisatie, verschuiven prikkels en groeit het aantal randgevallen.
Dus blijft de vraag staan: zijn de veiligheidsgrenzen echt gelijk, of vooral gelijk in de messaging?
Drie scenario’s voor wat er écht speelt (allemaal speculatief)
Deze scenario’s sluiten elkaar niet uit. In de praktijk zie je vaak een mix.
1) De “voorwaarden zijn niet gelijk”-theorie
In dit scenario wordt de OpenAI-deal gepresenteerd als “dezelfde guardrails, andere setup”, maar is de operationele realiteit ruimer.
Dat kan op een paar manieren:
Andere definities. “Geen massasurveillance” klinkt helder, totdat je vaststelt wat “massa” is, wat telt als “surveillance”, en of publieke data op schaal meevalt of juist het probleem is.
Andere handhaving. Een regel in een policy is iets anders dan een regel die je afdwingt via technische beperkingen, auditlogs, reviewrechten en consequenties bij misbruik.
Andere escalatieroutes. Bij een defensieklant is de druk om “het werkend te krijgen” constant. Als escalatie vooral op snelheid is ingericht, schuift het gebruik vanzelf op richting ruimer.
Als dit scenario klopt, is het risico dat de markt een cynische les leert: ethiek is rekbaar als er strategische contracten op het spel staan.
2) Pure signaalpolitiek
In dit scenario draait het vooral om laten zien dat tegenspraak niet wordt geduld. Anthropic zei nee. De overheid reageerde met een zichtbaar en zwaar instrument dat ook een waarschuwing is aan alle anderen: onderhandel niet te hard, maak geen frictie, zet geen voorwaarden die de staat beperken.
Het “supply chain risk”-label is hierin krachtig, omdat het een meningsverschil over ethiek framet als een veiligheidsbesluit. Politiek gezien is dat handig: je straft de ongehoorzame leverancier én je laat tegelijk zien dat je “niet afhankelijk bent” van één bedrijf.
Als dit scenario klopt, verandert dat het spel voor alle grote AI-leveranciers:
contracttaal wordt een politiek slagveld
“risk”-labels worden een machtsmiddel
publieke retoriek wordt onderdeel van inkoopstrategie
3) Geld, toegang en invloed
Dit scenario gaat over geloofwaardigheid en de schijn van belangen, niet alleen over de letter van de wet.
In de publieke discussie duikt ook het verhaal op dat OpenAI-topman Greg Brockman recent $25 miljoen zou hebben gedoneerd aan MAGA Inc, een club die campagnes voert ter ondersteuning van Trump en Trump-gezinde kandidaten. Zelfs als dit niet de directe oorzaak is, creëert het een geloofwaardigheidsprobleem op het slechtst denkbare moment.
Wanneer beslissingen onder hoge politieke druk vallen, kan nabijheid tot macht een strategisch voordeel worden. En tegelijkertijd een reputatierisico voor het hele veld.
Als dit scenario klopt, versnelt het een trend die we al langer zien: AI-bedrijven gaan zich gedragen als defensiecontractors en politieke spelers, of ze dat nou willen of niet.
Wat betekent dit voor organisaties buiten de VS?
Dit is geen verhaal over “kies Claude” of “kies ChatGPT”. De praktische les is: ga ervan uit dat leveranciersstatus van de ene op de andere dag kan veranderen.
Een korte checklist:
Plan voor overstapbaarheid: ontwerp je architectuur zo dat je modellen kunt wisselen zonder alles opnieuw te bouwen.
Bouw multi-vendor weerbaarheid: test je fallback elk kwartaal, niet één keer “voor de zekerheid”.
Maak governance expliciet: logging, auditrechten, incident reporting, red-teaming, duidelijke gebruiksbeperkingen waar nodig. Documenteer wat er gebeurt bij blokkades door regelgeving, blacklisting of export controls.
Scheiding tussen kunnen, mogen en willen: een model kan technisch uitstekend zijn en toch onacceptabel worden voor je stakeholders. Onderzoek of Europese alternatieven kunnen werken voor specifieke use cases, bijv. RAG use cases (Mistral, Aleph Alpha, en straks GPT-NL).
Doe een ‘policy shock’-oefening: Wat als je primaire leverancier in één jurisdictie ineens niet meer mag? Wat als een klant breder gebruik eist dan jij kunt of wilt accepteren?
En kijk naar China
Terwijl Silicon Valley en de Amerikaanse overheid met elkaar over straat rollen, gebruikt China deze chaos om zijn eigen positie te versterken. Beijing probeert al langer om zich te positioneren als de meest stabiele en betrouwbare partner voor AI-ontwikkeling ter wereld. Ze scherpen hun nationale kaders voor AI-veiligheid aan en roepen via de Verenigde Naties luidkeels op tot internationale regulering.
Voor China is dit een perfect moment om het wereldwijde leiderschap naar zich toe te trekken.
En voor Europa is de vraag ongemakkelijk maar noodzakelijk: wie oogt betrouwbaarder voor de rest van de wereld wanneer de inzet blijft stijgen?
Op zoek naar een lezing die de nieuwste AI-ontwikkelingen in context plaatst? Neem contact op. Ik vertaal de ruis naar heldere implicaties voor jouw sector, jouw organisatie en jouw mensen.


