Google zegt voor het eerst een zaak te hebben geïdentificeerd waarin criminelen vermoedelijk
AI gebruikten om een onbekende softwarekwetsbaarheid te vinden en daar een bruikbare exploit voor te bouwen. De aanval werd op tijd verstoord, maar het signaal is scherp: AI schuift in cyberland van assistent naar serieuze krachtvermenigvuldiger.
Volgens Google Threat Intelligence Group ging het om prominente cybercriminelen die een “mass exploitation event” voorbereidden: een operatie waarbij één kwetsbaarheid op grote schaal tegen veel doelwitten tegelijk wordt misbruikt. Het doelwit was een populaire open-source, webgebaseerde beheertool. Google zegt dat de operatie is verstoord voordat die breed kon worden ingezet.
Dit is geen gewone zerodayzaak
Wat deze zaak anders maakt, is niet alleen dat er een zeroday werd gevonden.
Volgens Google zat de kwetsbaarheid in een Python-script en maakte die het mogelijk om twee-factor-authenticatie te omzeilen, zolang een aanvaller al over geldige inloggegevens beschikte. Het ging dus niet om een klassieke crash, geheugenfout of simpele invoerbug, maar om een hogere logische fout die voortkwam uit een hardgecodeerde vertrouwensaannname in de software.
Precies daar wordt het verhaal echt interessant. Google schrijft dat traditionele fuzzers en statische analysetools juist sterk zijn in het vinden van crashes, sinks en technisch zichtbare afwijkingen. Frontier-taalmodellen zouden daarentegen steeds beter worden in het herkennen van semantische logische fouten: code die functioneel correct oogt, maar beveiligingsmatig strategisch kapot is.
Google zegt niet welk model het was
Die nuance is belangrijk. Google zegt niet exact te kunnen bewijzen welk model werd gebruikt. Het bedrijf schrijft wel dat Gemini volgens zijn eigen analyse waarschijnlijk niet is ingezet. Toch zegt GTIG met hoge zekerheid dat een AI-model heeft geholpen bij zowel de ontdekking als de weaponization van de kwetsbaarheid.
Die inschatting baseert Google op de exploitcode zelf. Volgens het rapport zaten daarin onder meer veel educatieve docstrings, een gehallucineerde CVSS-score en een opvallend nette, bijna “tekstboekachtige” Python-stijl met gedetailleerde helpmenu’s en schone structuur. Dat patroon vond Google sterk lijken op LLM-uitvoer.
Van AI-assistent naar aanvalsonderdeel
Dat maakt dit groter dan een slim scriptje. Reuters vat Googles bevinding samen als de eerste keer dat het bedrijf aanvallers zag die AI gebruikten om een nieuwe kwetsbaarheid te ontdekken en te proberen die op schaal uit te buiten. Google-analist John Hultquist noemde het daarbij waarschijnlijk de “tip of the iceberg”.
Daarmee verschuift AI in cyberland zichtbaar van zoekhulp naar operationeel onderdeel van aanvallen. Google beschrijft in hetzelfde rapport hoe dreigingsactoren AI steeds vaker gebruiken voor vulnerability research, exploitontwikkeling, malware-onderdelen, obfuscatie en operationele ondersteuning. Reuters schrijft dat aanvallers beginnen delen van hun operaties uit handen te geven aan AI-systemen die doelwitten analyseren, code genereren en met beperkte menselijke sturing beslissingen ondersteunen.
De bredere trend is al bezig
Deze zerodayzaak staat dus niet op zichzelf. In het GTIG-rapport beschrijft Google ook hoe aan China en Noord-Korea gelinkte actoren interesse tonen in AI-gedreven kwetsbaarheidsonderzoek. Daarnaast noemt het bedrijf malwareontwikkeling en defense evasion als domeinen waar AI-gebruik al zichtbaarder wordt.
Google noemt daarbij ook tools als OpenClaw en OneClaw. Volgens het rapport experimenteren actoren met zulke agentische tools in opzettelijk kwetsbare testomgevingen om AI-gegenereerde payloads te verfijnen voordat ze worden ingezet. Dat laat zien dat AI niet alleen wordt gebruikt om ideeën op te doen, maar ook om exploitcode betrouwbaarder te maken.
Bedrijven moeten hier niet te smal naar kijken
Voor organisaties is de les helder en niet prettig. Wie denkt dat multifactor-authenticatie, een modern beheerplatform en normale patchrondes op zichzelf genoeg zijn, kijkt te smal naar het risico. De kwetsbaarheid die Google beschrijft vereiste weliswaar geldige inloggegevens, maar schakelde vervolgens juist de extra beveiligingslaag uit. De zwakke plek zat dus in de logica, niet in een zichtbaar kapotte bouwsteen.
Dat sluit ook aan op Googles bredere zerodayanalyse van 2025. In maart schreef GTIG dat het 90 zerodays volgde die in 2025 werden misbruikt, waarvan 43 gericht waren op enterprise-software en appliances. Vooral security-, netwerk- en andere infrastructuurproducten blijven volgens Google aantrekkelijke doelwitten, omdat één fout daar veel toegang kan opleveren.
Verdedigers krijgen dezelfde tools
Google probeert het verhaal tegelijk niet alleen alarmistisch te brengen. In zijn zerodayvooruitblik voor 2026 schrijft GTIG dat AI ook defenders sneller kan maken. Volgens Google kunnen agentische oplossingen helpen om onbekende kwetsbaarheden proactief te vinden en patches te ondersteunen voordat aanvallers toeslaan.
Maar precies daarin zit de nieuwe realiteit. Dezelfde technologie die verdedigers sneller kan maken, helpt aanvallers ook om hogere logische fouten te vinden waarvoor vroeger meer tijd, ervaring en handmatig speurwerk nodig was. De race versnelt dus niet alleen, maar verandert ook van karakter.
De echte boodschap is minder sciencefiction dan het klinkt
Google zegt niet dat
hackers al volledig autonome AI-wapens in productie hebben. Wat het bedrijf wel laat zien, is dat de stap van AI als handige assistent naar AI als serieuze krachtvermenigvuldiger in exploitontwikkeling inmiddels is gezet. En juist omdat deze zaak draaide om een gewone beheertool, een logische 2FA-fout en een geplande aanval op schaal, voelt dit veel minder als sciencefiction dan veel eerdere waarschuwingen over AI en cyberveiligheid.
De ongemakkelijke conclusie is dan ook vrij hard. De eerste echt overtuigende AI-zerodayzaak draait niet om een exotische superhack, maar om iets alledaags: enterprise-software, logische fouten en een aanvaller die sneller leert denken als een beveiligingsonderzoeker. Juist daarom telt dit moment.