De Europese Unie heeft in de vroege ochtend van donderdag 7 mei een voorlopig akkoord bereikt over een gerichte versoepeling van delen van de
AI Act. De boodschap is dubbel: minder uitvoeringsdruk voor bedrijven, maar juist een expliciet verbod op nudification en andere AI-praktijken die niet-consensuele seksuele of intieme content of materiaal van kindermisbruik genereren.
Het akkoord maakt deel uit van het zogeheten Digital Omnibus-pakket, dat de Europese Commissie op 19 november 2025 presenteerde om digitale regels werkbaarder te maken. Het gaat nog niet om definitieve wetgeving. Raad en Parlement moeten het compromis nog formeel goedkeuren, maar zeggen het wel vóór 2 augustus 2026 te willen afronden, de datum waarop de huidige regels voor high-risk AI eigenlijk zouden beginnen te gelden.
High-risk AI schuift naar achteren
Voor bedrijven zit
het grootste nieuws in de planning. De verplichtingen voor zelfstandige high-risk AI-systemen verschuiven naar 2 december 2027. Voor high-risk AI die in producten is ingebouwd en onder sectorspecifieke veiligheidswetgeving valt, wordt dat 2 augustus 2028. Volgens de EU-instellingen moet dat voorkomen dat regels al gaan gelden voordat standaarden en andere hulpmiddelen klaar zijn.
Daarmee erkent Brussel impliciet dat de oorspronkelijke timing te strak was. De AI Act werkt in de praktijk pas soepel als standaarden, guidance en toezichtinstrumenten ook echt beschikbaar zijn. Dat is precies de redenering achter het uitstel.
Minder overlap, meer lucht voor bedrijven
De versoepeling blijft niet bij uitstel alleen. In het akkoord worden bestaande uitzonderingen voor mkb’ers uitgebreid naar small mid-caps. Ook wordt overlap tussen de AI Act en sectorspecifieke productregels verder teruggedrongen, onder meer voor machines en andere producten die al onder aparte veiligheidswetgeving vallen. Voor machinery komt zelfs een expliciete uitzondering op de directe toepassing van de AI Act.
Ook andere technische punten wijzen op diezelfde lijn. Het akkoord vernauwt wat precies als “safety component” telt, zodat ondersteunende AI-functies niet automatisch in het high-risk-vak belanden. Tegelijk wordt de rol van het AI Office rond bepaalde general-purpose AI-systemen gestroomlijnd.
Op misbruik juist een hardere lijn
Opvallend is dat de EU op een ander front juist strenger wordt. Raad en Parlement voegen een expliciet verbod toe op AI-systemen die kindermisbruikmateriaal maken of de intieme delen van een herkenbare persoon tonen, of iemand zonder toestemming in seksueel expliciete situaties afbeelden. Dat verbod raakt direct aan het debat over nudifier- en nudification-apps. Bedrijven krijgen tot 2 december 2026 om hun systemen in lijn te brengen.
Daar blijft het niet bij. De verplichting om AI-gegenereerde content te watermerken gaat ook eerder in: op 2 december 2026, en dus sneller dan in het oorspronkelijke Commissievoorstel. Reuters meldde daarnaast dat juist dit onderdeel en het verbod op seksuele deepfakepraktijken nog dit jaar effect moeten krijgen.
Geen simpele deregulering
Wie dit leest als pure afzwakking, kijkt te grof. In hetzelfde akkoord wordt namelijk ook bevestigd dat verwerking van bijzondere persoonsgegevens voor biasdetectie alleen mag waar dat strikt noodzakelijk is. Daarnaast keert de verplichting terug om bepaalde systemen alsnog in de EU-database voor high-risk AI te registreren, ook wanneer aanbieders vinden dat ze van classificatie zijn vrijgesteld.
Dat maakt de nieuwe lijn helderder. Brussel wil minder rompslomp waar regels elkaar overlappen of te vroeg ingaan, maar minder speelruimte waar AI direct raakt aan waardigheid, veiligheid en misbruik. Dat is geen simpele draai naar soepel of streng, maar een scherpere prioritering. Die duiding volgt uit de combinatie van het officiële akkoord en de bredere politieke context die Reuters beschrijft.
De AI Act krijgt een ander zwaartepunt
Politiek is dat misschien nog belangrijker dan de technische details. De AI Act gold lang als het bewijs dat
Europa de strengste en meest normatieve AI-regels ter wereld wilde bouwen. Nu schuift de nadruk zichtbaar op naar uitvoerbaarheid en concurrentiekracht, zonder de beschermingskant helemaal te laten vallen.
De nieuwe scheidslijn is daarmee vrij duidelijk. Minder frictie voor bedrijven die AI in gereguleerde processen en producten bouwen, maar juist minder ruimte voor toepassingen die direct ontsporen in seksuele deepfakes, vernedering of kindermisbruikmateriaal. Precies daardoor is dit akkoord relevanter dan het op het eerste gezicht lijkt.