AI-agents crypto vertrouwenslaag

AI wordt gevaarlijker en duwt crypto ineens in beeld

kunstmatige intelligentie03 apr , 21:55
Het opvallendste AI-nieuws van dit moment is niet alleen dat systemen krachtiger worden. Het is vooral dat ze langzaam een ander risicoprofiel krijgen.
Reuters en Axios lieten de afgelopen dagen allebei zien waar het heen schuift. Niet richting slimmere gimmicks, maar richting veiligheid, controle en schadebeperking. En precies daar duikt ineens een oud cryptothema weer op: wie controleert identiteit, toestemming, logging en verificatie als AI straks namens gebruikers handelt?
Dat is geen klein zijpad. Dat is de echte verschuiving.

AI schuift uit het producthoekje het veiligheidsdomein in

Tot voor kort ging het bij agentic AI vooral over gemak. Betere copilots. Langere taken. Minder handmatig werk. Efficiëntere workflows. Maar dat beeld begint te kantelen.
Reuters meldde op 2 april 2026 dat ThroughLine in Nieuw-Zeeland, al actief met modellen van onder meer OpenAI, Anthropic en Google, werkt aan een systeem dat gebruikers met signalen van gewelddadig extremistisch gedrag moet doorgeleiden naar menselijke en AI-ondersteunde hulp.
Vrijwel tegelijk waarschuwde Axios op 29 maart 2026 dat nieuwe generaties AI-modellen volgens bronnen uit overheid en sector een stevige sprong maken in offensieve cybercapaciteiten.
Dat zijn twee verschillende verhalen, maar ze wijzen naar hetzelfde probleem. Zodra AI niet alleen antwoorden geeft, maar ook tools gebruikt, acties uitvoert en dichter op gevoelige systemen komt, verandert de hoofdvraag. Dan gaat het niet meer vooral om wat een model zegt, maar om wat het mag doen, namens wie, en hoe je dat achteraf nog kunt controleren.

En precies daar komt crypto ineens weer binnen wandelen

Dat is het moment waarop de cryptowereld weer relevanter wordt dan veel AI-dekking nu doet voorkomen.
Vitalik Buterin schoof deze week een duidelijk antwoord naar voren: meer nadruk op lokale, privacygerichte AI en een grotere rol voor Ethereum als trust-infrastructuur. In zijn nieuwe stuk over een “self-sovereign / local / private / secure LLM setup” waarschuwt hij in feite voor een wereld waarin gebruikers hun hele digitale leven aan een handvol cloud-AI-spelers uitbesteden.
Dat is geen hobbyproject voor nerds met te veel hardware. Het is een bredere stelling: gevoelige AI moet dichter bij de gebruiker staan, met minder centrale afhankelijkheid en meer controle over data, toestemming en uitvoering.
En dat past opvallend logisch in wat Buterin al langer zegt. In zijn eerdere essay over crypto + AI uit januari 2024 zette hij al neer dat de echte overlap tussen die twee werelden vooral zit in verificatie, coördinatie en machtsbeperking rond AI-systemen.
Met andere woorden: crypto lost AI niet op. Maar AI maakt wel opnieuw zichtbaar waarom die crypto-infrastructuur ooit gebouwd werd.

Het gaat niet om tokens, maar om controlelagen

Dat is ook meteen de stevigste en tegelijk meest verdedigbare claim hier. Niet dat blockchains opeens dé oplossing voor AI-risico’s zijn. Dat is niet bewezen. Ook niet dat lokale AI snel cloudsystemen verdringt.
Maar wel dat de opkomst van agentic AI de waarde vergroot van infrastructuur voor verifieerbare identiteit, toestemming, auditability en privacy. En laat dat nu net de laag zijn waar Ethereum en bredere crypto-infra zich al jaren op proberen te positioneren.
De serieuzere crypto-koppeling is dus niet: “zet AI op de blockchain en klaar.” Dat is te simpel en meestal onzin. De betere koppeling is dat agentic AI een trustprobleem creëert, en dat crypto nu juist gebouwd is voor trustproblemen. Denk aan:
  • cryptografische identiteit,
  • programmeerbare toestemming,
  • onveranderbare logs,
  • machine-to-machine betalingen,
  • en verifieerbare acties zonder centrale poortwachter.
Dat klinkt ineens een stuk minder theoretisch zodra AI namens mensen gaat handelen.

Reuters en Vitalik praten eigenlijk over hetzelfde

Op het eerste gezicht lijken Reuters’ verhaal over extremisme en Buterins privacywaarschuwing weinig met elkaar te maken te hebben. In werkelijkheid draaien ze allebei om dezelfde bestuursvraag.
Want zodra een AI-systeem signalen opvangt van gevaarlijk gedrag, of juist toegang krijgt tot gevoelige tools, wil je antwoorden op heel droge maar cruciale vragen.
Wie zag wat? Wie verifieerde de context? Welke data werd opgeslagen? Wie mocht erbij? Wanneer werd opgeschaald naar een mens of autoriteit? En hoe bewijs je achteraf wat het systeem precies heeft gedaan?
Dat zijn geen leuke productvragen. Dat zijn governancevragen. Bewijsvragen. Machtvragen.
En precies daar wordt cryptografische infrastructuur opeens interessant. Niet om volledige gesprekken of gevoelige data onchain te gooien — dat zou vaak juist privacytechnisch een slecht idee zijn — maar wel voor minimale, verifieerbare attestaties, toegangsrechten, consentflows en audit-trails.
Dat is ook waarom de Ethereum-hoek de afgelopen maanden nadrukkelijker over AI-agents, trust layers en identificeerbare agents praat.

Cyberdreiging maakt die discussie een stuk minder vrijblijvend

De waarschuwingen over cybercapaciteiten maken het nog urgenter. Als frontier-modellen inderdaad beter worden in offensieve cybertaken, dan krijg je niet alleen een veiligheidsprobleem, maar ook een probleem van authenticiteit en mandaat.
Bedrijven willen dan kunnen vaststellen welke agent handelde, met welke sleutels, binnen welk mandaat, via welke tools en met welke menselijke goedkeuring. En precies dat is waar crypto technisch geloofwaardiger wordt dan veel mensen denken. Niet als wondermiddel. Wel als controlelaag.
In de Ethereum-wereld zie je dat al terug in discussies over identiteit en reputatie van AI-agents, en in pogingen om agenten consistent identificeerbaar en verifieerbaar te maken. Zulke standaarden lossen radicalisering of hacking natuurlijk niet op. Maar ze proberen wel een fundament te leggen voor een wereld waarin software-agents economisch en operationeel namens mensen optreden.

Dit is waar veel cryptoverhalen normaal ontsporen

Want hier gaat het vaak mis. Roept iemand dat crypto “de oplossing voor AI” is. Zo simpel is het echter niet. Reuters beschrijft een tool in ontwikkeling, geen bewezen eindmodel. Axios beschrijft stevige waarschuwingen, geen volledig openbaar benchmarkdossier. En Buterin schetst vooral een richting voor privacy-first AI, geen marktrijpe standaard voor de hele enterprisewereld.
Maar juist daarom is de bescheiden conclusie sterker. De echte verschuiving zit niet in een spectaculaire tokenpump of een nieuwe hypecase. Die zit in iets fundamentelers: naarmate AI meer agency krijgt, groeit de behoefte aan infrastructuur die macht begrenst en handelingen verifieerbaar maakt. En dat is exact het terrein waarop crypto al jaren probeert relevant te zijn.

Waarom dit ook hier gewoon relevant is

Voor Nederland en België is dit allesbehalve bijzaak. Zodra bedrijven of overheden AI-agents laten werken met klantdata, codebases, wallets, betalingsrechten of securitytools, komt dezelfde vraag keihard op tafel: hoe begrens je wat zo’n systeem mag doen, en hoe bewijs je achteraf dat het binnen die grenzen bleef? Dat raakt direct aan privacy, aansprakelijkheid, compliance en cyberweerbaarheid.
Een volledig gecentraliseerde AI-stack maakt die controle al snel afhankelijk van een paar grote leveranciers. Een crypto-achtige trustlaag probeert die afhankelijkheid juist te verkleinen, of op zijn minst beter toetsbaar te maken.
En precies daardoor schuift crypto, na jaren zoeken naar een overtuigend nieuw verhaal, weer dichter tegen een echt technisch en bestuurlijk vraagstuk aan.
Ga verder met lezen
loading
Dit vind je misschien ook leuk
Laat mensen jouw mening weten

Loading