De spanningen in het Midden-Oosten hebben een technologisch kookpunt bereikt. Uit
recente rapportages blijkt dat het Amerikaanse ministerie van Defensie (Pentagon) gebruik heeft gemaakt van Claude
AI, het paradepaardje van Anthropic, om doelwitten te selecteren tijdens de laatste golf luchtaanvallen in
Iran.
De cijfers achter de AI-inzet
Het gaat hier niet om een klein experiment. De snelheid waarmee doelen werden geïdentificeerd en geverifieerd, lag volgens bronnen binnen defensie vele malen hoger dan bij menselijke analisten.
| Onderdeel | Handmatige Analyse | Claude AI-ondersteuning |
| Doelwitverificatie | 45 - 90 minuten | < 3 minuten |
| Foutmarge (inschatting) | 12% | 4% |
| Data-input bronnen | Satelliet + SIGINT | Real-time Multi-modal |
Politieke kortsluiting in Washington
De timing van deze operatie is opmerkelijk. Slechts enkele uren voordat de raketten insloegen, had de regering-Trump een officieel decreet uitgevaardigd dat het gebruik van commerciële AI-modellen door overheidsinstanties aan banden legde.
De angst was dat gevoelige staatsgeheimen in de trainingsdata van private bedrijven zoals Anthropic terecht zouden komen. Het Pentagon lijkt dit verbod echter volledig te hebben genegeerd onder het mom van "nationale veiligheid".
Dit roept grote vragen op over wie er nu echt aan de knoppen zit: de gekozen politici of de algoritmes van Silicon Valley. Anthropic zelf houdt de kaken op elkaar, maar de druk op hun ethische commissie neemt toe nu hun 'veilige' AI direct gelinkt wordt aan militaire operaties.
Wat betekent dit voor de cryptomarkt?
Je vraagt je misschien af wat dit met jouw portfolio te maken heeft. Het antwoord is: alles. De integratie van AI in oorlogsvoering drijft de vraag naar gedecentraliseerde AI-protocollen (zoals Bittensor of Render) op.
Beleggers realiseren zich dat gecentraliseerde systemen zoals Claude of ChatGPT altijd onder de duim van overheden zullen vallen. De roep om 'ongecensureerde' en 'onafhankelijke' rekenkracht op de blockchain is na vandaag sterker dan ooit.
De cijfers liegen niet; we zien een duidelijke verschuiving van kapitaal naar projecten die AI-soevereiniteit beloven, weg van de gecentraliseerde reuzen die nu direct betrokken zijn bij mondiale conflicten.
Vind jij het een gevaarlijke ontwikkeling dat het leger AI-modellen van private bedrijven gebruikt voor militaire acties, of is dit simpelweg de onvermijdelijke evolutie van oorlogsvoering? Laat het ons weten op onze socials!