Steeds meer gemeenten in
Nederland en België zetten
AI en algoritmes in bij hun werk. Niet als futuristisch experiment, maar gewoon in de dagelijkse praktijk: aanvragen ordenen, signalen prioriteren, risico’s inschatten en dienstverlening efficiënter maken. In Amsterdam en Utrecht zijn zulke systemen inmiddels publiek terug te vinden in algoritmeregisters, wat onderstreept dat AI al lang geen toekomstmuziek meer is.
Toch voelt dat voor burgers vaak heel anders. Wie met zo’n systeem te maken krijgt, weet lang niet altijd dat er een algoritme of AI-laag meespeelt. En zelfs als dat wel bekend is, blijft vaak onduidelijk hoe zo’n systeem tot een uitkomst komt en hoeveel invloed dat heeft op de uiteindelijke beslissing. Precies daar begint de spanning: AI rukt lokaal op, maar de zichtbaarheid ervan loopt achter.
AI is al onderdeel van lokaal bestuur
De gedachte dat gemeenten “ooit” AI gaan gebruiken, is achterhaald. Amsterdam heeft een openbaar algoritmeregister en zegt algoritmes op te nemen wanneer die gevolgen kunnen hebben voor burgers, bedrijven of bezoekers. Utrecht heeft eveneens een algoritmeregister en beschrijft daarin digitaliseringstrajecten waarbij een algoritme of voorspellend model een rol speelt.
Dat is op zichzelf winst. Zulke registers maken zichtbaar dat AI niet buiten de overheid staat, maar ín de overheid werkt. Tegelijk laten ze ook zien hoe ongelijk de praktijk is. De ene gemeente publiceert veel, de andere beperkt zich tot globale omschrijvingen, en op andere plekken ontbreekt zo’n overzicht helemaal.
Zelfs binnen gemeenten die al publiceren, is de invulling nog niet overal even volledig. De Utrechtse Rekenkamer concludeerde eind 2025 bijvoorbeeld dat de risicobeheersing beter moet en dat een volledig en specifiek ingevuld register pas later wordt gerealiseerd.
Transparantie groeit, maar niet overal even snel
Dat verschil is groter dan het op het eerste gezicht lijkt. Voor burgers betekent het dat hun inzicht in gemeentelijke AI deels afhangt van waar ze wonen. In de ene stad kun je redelijk terugvinden welke systemen worden gebruikt en waarvoor. In de andere blijft dat grotendeels buiten beeld.
Dat betekent niet automatisch dat AI daar verkeerd wordt ingezet. Maar het betekent wel dat je recht op uitleg in de praktijk ongelijk kan uitpakken. Voor een digitale overheid die juist voorspelbaar en controleerbaar zou moeten zijn, is dat een fundamenteel probleem. De technologie wordt landelijk en Europees steeds belangrijker, terwijl de transparantie lokaal nog sterk varieert.
Toezicht bestaat, maar de uitvoering is lastig
De Autoriteit Persoonsgegevens wijst al langer op de rechten van burgers bij geautomatiseerde besluitvorming. Volgens de AP hebben mensen recht op een menselijke blik bij besluiten en recht op inzage in het bestaan van automatische besluitvorming, inclusief profilering, en in de logica daarachter voor zover die op hen van toepassing is.
Dat klinkt stevig, maar in de praktijk vraagt het veel van overheidsorganisaties. Ze moeten niet alleen weten welke systemen ze gebruiken, maar ook hoe die systemen werken, welke risico’s eraan kleven en op welke punten menselijke controle echt is ingebouwd. Juist op lokaal niveau zit daar vaak frictie: documentatie is versnipperd, verantwoordelijkheden lopen door elkaar en de kennis in organisaties verschilt sterk. De bevindingen van de Rekenkamer Utrecht passen precies in dat beeld.
De AI Act legt de lat hoger
Daar komt de Europese AI Act nog bovenop. De Europese Commissie noemt de AI Act het eerste brede wettelijke kader voor AI. Voor zogenoemde hoog-risicosystemen gelden zwaardere eisen, en in Annex III van de wet staan onder meer toepassingen in essentiële diensten en bepaalde overheidscontexten genoemd. Sinds 2 februari 2025 geldt bovendien al een eerste nieuwe fase van de wet, waarbij onder meer verboden AI-praktijken zijn ingegaan.
Dat is relevant voor gemeenten, omdat veel lokale toepassingen niet zomaar een onschuldige productiviteitslaag zijn. Zodra AI wordt gebruikt om te selecteren, rangschikken, signaleren of ondersteunen bij besluiten die burgers raken, komen vragen over proportionaliteit, uitlegbaarheid en toezicht veel sneller op tafel. De AI Act maakt die vragen niet kleiner, maar groter. En het lastige is: Brussel maakt de regels, maar gemeenten moeten ze zelf vertalen naar processen, controles en verantwoording.
In België groeit dezelfde beweging, maar met minder zichtbaarheid
Ook in België neemt het gebruik van AI door overheden toe, al is het beeld minder gestandaardiseerd dan in Nederland. Vlaanderen heeft inmiddels een AI-strategie voor Vlaamse en lokale overheden, een AI Expertisecentrum en richtlijnen voor het gebruik van generatieve AI binnen de overheid. Digitaal Vlaanderen spreekt daarbij expliciet over ondersteuning voor Vlaamse én lokale besturen.
Maar juist daar zit het verschil met Nederland: brede, lokaal zichtbare algoritmeregisters zijn in België veel minder ingeburgerd. In het Vlaams Parlement werd eerder al gesproken over een mogelijk algoritmeregister als onderdeel van de AI-strategie, wat juist laat zien dat dit nog in ontwikkeling is en niet overal al praktijk. Op federaal niveau wordt de uitvoering van de AI Act bovendien organisatorisch belegd, maar dat lost het lokale transparantieprobleem niet vanzelf op.
Voor Belgische burgers betekent dat vaak nog minder zicht op waar AI precies wordt gebruikt. De technologie schuift wel op richting lokale dienstverlening en overheidswerking, maar de publieke verantwoording loopt daar nog niet altijd gelijk mee op.
De echte vraag is niet óf AI wordt gebruikt
De discussie zit daardoor inmiddels op een ander niveau. De vraag is niet meer of gemeenten AI inzetten. Dat doen ze al. De relevantere vraag is hoe zichtbaar, controleerbaar en uitlegbaar dat gebruik is voor burgers die met die systemen te maken krijgen. Dat is ook juridisch en democratisch de kern: niet de aanwezigheid van AI op zichzelf, maar de mate waarin burgers nog kunnen begrijpen hoe ze worden beoordeeld en op basis waarvan.
AI kan processen consistenter maken. Soms ook eerlijker. Maar alleen als het ontwerp, het toezicht en de uitleg op orde zijn. Zodra dat niet overal gelijk geregeld is, ontstaat een grijs gebied waarin de digitale rechtspositie van burgers deels afhangt van de gemeente waarin ze wonen.
Postcode dreigt ook digitale rechtspositie te bepalen
En precies daar zit de onderstroom van dit verhaal. Niet nationale overheden, maar lokale instanties bepalen steeds vaker hoe mensen AI in het dagelijks leven ervaren. Bij meldingen, aanvragen, toezicht en dienstverlening komt de burger de digitale overheid vaak eerst op gemeentelijk niveau tegen.
Maar juist daar is de governance nog het minst uitgekristalliseerd. Nederland laat zien dat registers en publieke uitleg mogelijk zijn, maar ook dat de uitvoering ongelijk is. België laat zien dat beleid en strategie groeien, terwijl de zichtbaarheid op lokaal niveau nog achterloopt. Daardoor ontstaat een ongemakkelijke uitkomst: niet alleen dienstverlening, maar ook transparantie dreigt een postcodekwestie te worden.
Conclusie
Gemeenten gebruiken AI al veel dichter op burgers dan vaak wordt gedacht. De registers in steden als Amsterdam en Utrecht maken dat zichtbaar, terwijl de AI Act en privacyregels de druk opvoeren om dat gebruik ook beter uitlegbaar te maken. Maar tussen wet, toezicht en dagelijkse uitvoering gaapt nog een gat.
De belangrijkste spanning zit daarom niet in de technologie zelf, maar in de ongelijkheid van transparantie. Zolang burgers in de ene gemeente veel meer kunnen zien en begrijpen dan in de andere, blijft hun digitale rechtspositie deels afhankelijk van hun woonplaats. En dat is precies het soort stille verschuiving waar de komende jaren het echte debat over gemeentelijke AI om zal draaien.