Imane, een alleenstaande moeder uit Rotterdam, herinnert zich nog hoe twee rechercheurs haar na jaren van rugklachten opnieuw vroegen om bankafschriften te overleggen. Wat zij toen niet wist: een machine-learning-model, getraind op duizenden oude fraudeonderzoeken, had haar als "hoog risico" aangemerkt. De stress leidde tot slapeloze nachten en een maand zonder uitkering. Rotterdam pauzeerde het systeem in 2021 na scherpe kritiek op bias en gebrek aan transparantie, maar voor Imane kwam dat te laat. (wired.com)
Waarom juist de overheid in de gevarenzone zit
De casus van Imane staat niet op zichzelf. Eerder velde de rechtbank in Den Haag al een hard oordeel over SyRI, het landelijke systeem dat wijken met bijstandsontvangers scande op fraude en daarbij grondrechten schond. (theguardian.com) En wie bij de politie vraagt naar predictive policing, krijgt vaak het Crime Anticipation System (CAS) te horen: een datagedreven heat-map die in theorie inbraken voorkomt, maar in de praktijk vooral bestaande vooroordelen kan versterken. Deze voorbeelden tonen precies waarom de EU in de nieuwe AI Act spreekt van hoog-risico-AI wanneer een toepassing beslissingen beïnvloedt rond sociale zekerheid, wetshandhaving of essentiële diensten.
De AI Act als game-changer
Sinds augustus 2024 is de AI Act officieel van kracht. De verordening verplicht ontwikkelaars én deployerende overheidsorganisaties tot een hele reeks maatregelen: van een fundamentele-rechtenimpactanalyse vóór ingebruikname tot gedetailleerde logbestanden, menselijke toezichthouders met mandaat, en registratie in zowel de EU-databank als (in Nederland) het Algoritmeregister. (matheson.com) De filosofie is duidelijk: als de samenleving niet kan uitleggen waarom iemand een bepaald risicolabel krijgt, hoort het systeem niet live te gaan.
Deadlines die dichterbij zijn dan ze lijken
Het tijdpad is strak. Zes maanden na inwerkingtreding – dus 2 februari 2025 – moeten alle verboden praktijken, zoals realtime gezichtsherkenning op straat of sociale-scoresystemen, zijn gestopt. Een jaar later gelden transparantie-eisen voor generieke AI-modellen, en vanaf 2 augustus 2026 moeten de meeste hoog-risicosystemen volledig voldoen. Alleen product-gerelateerde high-risk-AI (bijvoorbeeld in medische apparatuur) heeft een uitloop tot 2 augustus 2027. (reuters.com, matheson.com) Dat lijkt ver weg, maar wie ooit een gemeentelijk ERP-project heeft gemigreerd weet hoe snel twee jaar voorbij zijn.
Wat deze serie brengt
In de komende weken neem ik je mee van inventarisatie tot post-market-monitoring. We starten met het in kaart brengen van alle algoritmen binnen jouw organisatie en bepalen welke echt onder "hoog risico" vallen. Daarna duiken we in de FRIA-methodiek, datakwaliteit & bias-tests, menselijk toezicht in de praktijk, contractmanagement met leveranciers, de registratieplicht én een werkbare audit-routine. Stap voor stap, met lessons learned van gemeenten, inspecties en ZBO's, zodat jouw team straks niet alleen compliant is, maar ook aantoonbaar vertrouwen kweekt bij burgers en toezichthouders.
Blijf dus aangehaakt: elke aflevering vertaalt de juridische tekst naar concrete aanpak, inclusief sjablonen, checklists en praktijkvoorbeelden. Zo zorgen we ervoor dat Imane's verhaal de uitzondering wordt – niet de norm.
Wil je weten hoe jouw organisatie scoort op de compliance-eisen van de EU AI Act voor hoog-risico AI-systemen? We bieden een snelle baselinescan die laat zien waar je staat en wat je nog moet doen. Neem gerust contact op voor meer informatie.
🎯 Gratis EU AI Act Compliance Check
Ontdek in 5 minuten of jouw AI-systemen voldoen aan de nieuwe EU AI Act wetgeving. Onze interactieve tool geeft je direct inzicht in compliance-risico's en concrete actiestappen.