De
AI Act is niet nieuw meer. De verordening trad in werking op 1 augustus 2024. Verboden AI-praktijken en AI-geletterdheid gelden sinds 2 februari 2025. De regels voor general-purpose AI-modellen en governance gingen in op 2 augustus 2025.
Maar de grote omslag voor veel organisaties in Nederland en België ligt onder de huidige wet nog steeds op 2 augustus 2026: dan worden de regels voor hoog-risico-AI uit bijlage III en de transparantieverplichtingen echt voelbaar. Voor hoog-risico-AI die is ingebouwd in gereguleerde producten geldt een langere overgang tot 2 augustus 2027.
Dat onderscheid is cruciaal. De eerste grote impact zit niet vooral bij de makers van modellen, maar bij organisaties die AI inzetten in processen die direct raken aan kansen, rechten en behandeling van mensen.
De Europese Commissie noemt daarbij expliciet onderwijs, werk, essentiële private en publieke diensten, rechtshandhaving, migratie en justitie als hoog-risicodomeinen. Voor deployers gelden dan eisen rond menselijk toezicht, monitoring, informatieplichten en in sommige gevallen een recht op uitleg.
HR zit als eerste in de vuurlinie
Als één sector er in 2026 als eerste last van krijgt, dan is het HR. In bijlage III noemt
de AI Act systemen voor recruitment en selectie expliciet hoog risico: van het filteren van sollicitaties tot het beoordelen van kandidaten. Daar stopt het niet.
Ook AI die invloed heeft op promotie, ontslag, taakverdeling of het monitoren van prestaties en gedrag op het werk valt in dat domein. De Commissie zegt bovendien dat werknemers en werknemersvertegenwoordigers vooraf moeten worden geïnformeerd wanneer zulke systemen op de werkplek worden ingezet.
Voor Nederlandse en Belgische werkgevers is dat een onderschat risico. Veel tools worden intern nog verkocht als handige automatisering, terwijl de wet juist kijkt naar het doel van het systeem. Zodra AI meeweegt in personeelsbeslissingen, schuift zo’n toepassing snel op van productiviteitstool naar hoog-risico-AI.
Onderwijs krijgt een harde reality check
Ook onderwijs komt vroeg in beeld. De AI Act noemt systemen voor toelating, het evalueren van leerresultaten, het bepalen van onderwijsniveau en het monitoren van verboden gedrag tijdens toetsen expliciet als hoog risico.
Voor scholen, universiteiten, examenplatforms en edtech-partijen in Nederland en België is dat een directe waarschuwing: AI die niet alleen ondersteunt, maar ook beoordeelt of sorteert, valt veel sneller onder streng toezicht dan vaak wordt gedacht.
Daar komt nog iets bij. De Commissie noemt emotieherkenning in onderwijsinstellingen als verboden praktijk, en die verboden gelden al sinds februari 2025. Daarmee is onderwijs niet alleen een toekomstig compliance-dossier, maar nu al een sector waar sommige AI-toepassingen eenvoudigweg niet meer door de beugel kunnen.
Overheid en publieke diensten worden bestuurlijk het spannendst
Voor Nederland en België zit een van de scherpste verhalen bij de overheid. Bijlage III plaatst AI die door of namens publieke autoriteiten wordt gebruikt om te beoordelen of iemand recht heeft op essentiële publieke diensten en voordelen, in de hoog-risicocategorie.
De Nederlandse overheidsuitleg noemt daarbij expliciet het bepalen of iemand in aanmerking komt voor publieke diensten en subsidies zoals toeslagen. Dat maakt de AI Act direct relevant voor gemeenten, uitvoeringsorganisaties en andere overheden die AI gebruiken bij toegang, prioritering of controle.
Voor die sector wordt de druk extra groot, omdat publieke autoriteiten volgens de Commissie vóór eerste gebruik van een hoog-risico-systeem een grondrechteneffectbeoordeling moeten uitvoeren. Daarnaast moeten zulke systemen in beginsel in een EU-database worden geregistreerd. Hier schuift de AI Act dus op van technisch dossier naar bestuurlijke verantwoording.
Banken en verzekeraars volgen sneller dan veel bedrijven denken
Ook financiële dienstverlening zit dichter op de gevarenzone dan vaak wordt aangenomen. De AI Act noemt AI voor kredietwaardigheid en kredietscores expliciet, net als AI voor risicobeoordeling en prijsstelling bij levens- en zorgverzekeringen.
Dat zijn toepassingen die direct bepalen wie toegang krijgt tot geld, dekking of voorwaarden. Voor banken en verzekeraars in Nederland en België is dit daarom geen randonderwerp, maar een kernvraag over besluitvorming en uitlegbaarheid.
Politie, migratie en justitie zijn smaller, maar juridisch nog gevoeliger
De volgende golf ligt bij rechtshandhaving, migratie, asiel en rechtsbedeling. De AI Act noemt daar onder meer systemen voor risicobeoordeling, beoordeling van bewijs, profiling, migratierisico’s en ondersteuning van gerechtelijke instanties.
Dat zijn domeinen met een kleinere markt dan HR of onderwijs, maar met een zwaardere grondrechtenimpact. Juist daardoor zijn ze juridisch en politiek gevoeliger.
De nuance die vaak ontbreekt: zorg is niet automatisch de eerste golf
Zorg wordt in dit debat vaak te snel bovenaan gezet. Dat is te grof. Onder de AI Act loopt een belangrijk onderscheid tussen hoog-risico-use-cases uit bijlage III en AI die onderdeel is van gereguleerde producten, zoals bepaalde medische toepassingen.
De Commissie noemt AI-gebaseerde medische software als voorbeeld van die tweede route. Onder de huidige tijdlijn geldt daarvoor juist de latere datum van 2 augustus 2027. Dat betekent dat zorg zeker geraakt wordt, maar niet elke medische AI-toepassing automatisch in de eerste golf van 2026 zit.
De echte vraag voor 2026
Voor organisaties in Nederland en België wordt de relevante vraag daarom niet meer: gebruiken wij AI? De betere vraag is: gebruiken wij AI om over mensen te beslissen? Zodra een systeem selecteert, beoordeelt, rangschikt, toelaat of uitsluit, kom je snel in de buurt van de hoog-risicocategorieën die de wet zelf aanwijst. En precies daarom zullen in 2026 vooral HR, onderwijs, overheid en financiële dienstverlening als eerste voelen dat de AI Act geen toekomstverhaal meer is, maar operationele realiteit.