
Zahed Ashkara
AI & Legal Expert
Klaar om te starten met AI Geletterdheid?
Leer alles over verantwoord gebruik van AI en EU AI Act compliance. Perfect voor organisaties die willen voldoen aan de nieuwe wetgeving.
Bekijk AI Geletterdheid TrainingAI & Legal Expert
Leer alles over verantwoord gebruik van AI en EU AI Act compliance. Perfect voor organisaties die willen voldoen aan de nieuwe wetgeving.
Bekijk AI Geletterdheid TrainingLaden...
Rima's team heeft inmiddels vijf lampjes op het dashboard en lost driftincidenten snel op. Toch merkt ze dat elke uitschieter vaak terug te voeren is op een bron dieper in de keten: de tekst van de vacature, de selectievragen of het gespreksscript. Bias sluipt binnen lang voordat een model gaat rekenen. Wil je echt rust in de cijfers, dan moet je fouten voorkomen vóórdat technologie ze versterkt. Dat heet fairness by design.
Kijk eens naar de hulpmiddelen waar een gemiddeld HR- of recruitmentteam niet zonder kan:
AI-tool | Functionaliteit | Risico onder AI Act |
---|---|---|
CV-parser | Labelt en rangschikt inkomende cv's in het ATS | Hoog |
Chatbot | Checkt basiseisen, wijst af of plant interviews in | Hoog |
Video-analyseplatform | Analyseert taal, mimiek en stem tijdens sollicitatiegesprekken | Hoog |
Assessment-tool | Bouwt persoonlijkheidsprofielen via spel-gebaseerde tests | Hoog |
Interne mobiliteitsmodule | Voorspelt welke medewerkers klaar zijn voor promotie | Hoog |
Social-media-insightstool | Identificeert wanneer potentiële kandidaten benaderbaar zijn | Hoog |
Skill-cloud | Adviseert loopbaanpaden op basis van vaardigheden in het HR-systeem | Hoog |
Referentie-software | Checkt automatisch referenties en genereert scoringsrapporten | Hoog |
Al deze hulpmiddelen beslissen – direct of indirect – over toegang tot werk. Daarmee plaatst de AI Act ze in de categorie "hoog risico". Wie pas ná hun oordeel wil repareren, loopt achter de feiten aan.
Rima begint bij iets ogenschijnlijk eenvoudigs: de woorden in de vacature. Onderzoek laat zien dat termen als "rockstar" of "tijger" meer mannelijke instroom opleveren, terwijl "zwaar tillen" vrouwelijke kandidaten in de logistiek kan afschrikken. Rima stuurt elke tekst eerst door een taalmodule die alleen de toon analyseert. Geen demografische voorspelling, wel een melding bij stereotype taal. De tekst wordt neutraler, de instroom automatisch diverser, nog vóórdat de cv-parser aan zet is.
De knock-out-vraag staat vervolgens op de rol. De chatbot vraagt of een kandidaat een werkvergunning heeft. Vroeger betekende "nee" een directe afwijzing. Nu volgt een tweede vraag: "Kun je binnen zes maanden een vergunning krijgen?" en zo nodig extra uitleg. De tool blijft geautomatiseerd, maar een bewuste keuze voorkomt dat geschikte kandidaten te vroeg verdwijnen. Het voldoet tegelijk aan de AI Act-eis van menselijke maat en transparantie.
Het video-analyseplatform levert maandelijks een testrapport. Rima vraagt tegenwoordig om één extra kolom: feature importance. Ze wil exact weten welk gewicht gezichtsexpressies, stem en woordkeus krijgen. Als stemintonatie opeens dertig procent weegt, gaat de update terug naar de sandbox tot duidelijk is of die verandering echt relevant is. Zo komt nieuwe bias er niet stilletjes bij.
Rima's interne mobiliteitsmodule rangschikt collega's voor promotie. Automatische "niet-geschikt" labels zijn verleden tijd. In plaats daarvan krijgen kandidaten een verkeerslichtkleur: groen kan door, oranje of rood vraagt een recruiterblik én een korte motivatieregel. Die ene regel landt in het logboek en dient straks als trainingsdata. Zo wordt menselijk oordeel expliciet vastgelegd.
Wanneer IT een nieuw ATS-pakket aanbiedt met slimme plug-ins, liggen er drie vragen klaar:
Fairness-vraag | Doel | Resultaat |
---|---|---|
Beslist dit systeem over toegang tot werk? | Identificeren van hoog-risico AI-systemen volgens de AI Act | Juiste compliance-eisen toepassen |
Welke datavelden gebruikt het model? | Opsporen van indirecte proxies voor beschermde kenmerken | Postcodes en hobby's zijn potentiële rode vlaggen |
Kan de leverancier laten zien hoe bias wordt opgespoord? | Valideren van de kwaliteitsborging bij de leverancier | Betrouwbaarheid van de tool beoordelen |
Zonder bevredigend antwoord komt het pakket niet door de poort.
Vrijdagmiddag klapt Rima haar laptop open en opent het Notion-bestand waarin ze haar wekelijkse bevindingen bijhoudt. In haar dashboard ziet ze direct de impact die vier gerichte aanpassingen hebben gemaakt.
"Vacaturetekst voor het magazijn herschreven," leest ze hardop, terwijl ze haar aantekeningen bekijkt. De cijfers die ernaast staan, spreken voor zich: acht procent meer vrouwelijke kandidaten heeft gereageerd op de gewijzigde tekst. Door zinnen als "in staat om 25 kilo te tillen" te vervangen door "gebruikt technische hulpmiddelen om goederen te verplaatsen", veranderde niet alleen de toon, maar ook de instroom. De recruiters hadden de verandering nauwelijks opgemerkt, maar het systeem wel.
Haar tweede aantekening betreft de chatbot-aanpassing. Zeventien extra kandidaten kwamen door naar de longlist. Kandidaten die voorheen automatisch werden afgewezen omdat ze nog geen werkvergunning hadden, kregen nu een vervolgroute aangeboden: "Kun je binnen zes maanden een vergunning krijgen?" Deze kleine verandering resulteerde in een aantal waardevolle IT-profielen die anders nooit zouden zijn bekeken.
Bij het video-analyseplatform had Rima duidelijk waarschuwingssignalen ingebouwd. De leverancier rapporteerde vorige week nog dat het gewicht van stemintonatie in het algoritme was verhoogd naar bijna dertig procent. Rima had dit teruggedraaid naar vijftien procent, wat het verschil in videoscores tussen mannelijke en vrouwelijke kandidaten merkbaar had verkleind. "Interessant," noteert ze, "hoe kleine modelaanpassingen zo'n grote invloed hebben op wie er doorgaat."
Het meest trots is ze op de tweeënveertig motivatieregels die recruiters deze week hebben toegevoegd. In plaats van dat het interne mobiliteitssysteem kandidaten automatisch afwijst, moeten recruiters nu een korte toelichting geven wanneer iemand een 'oranje' of 'rode' markering krijgt. Deze menselijke context blijkt goud waard: "Sarah heeft relevante ervaring, maar mist certificering" of "Jayden's profiel past beter bij team Finance". Deze aantekeningen voeden niet alleen het systeem met trainingsdata, maar maken beslissingen ook transparanter.
De cijfers keren terug in de lampjes van deel 3. Het overrule-percentage is gedaald van 35% naar 22% – recruiters vertrouwen het systeem meer omdat het beter is afgestemd. De candidate-NPS is gestegen naar een 8,4, deels omdat afgewezen kandidaten nu een duidelijker beeld hebben van waarom ze niet doorgaan. Fairness by design blijkt tastbaar en meetbaar.
"Wij hebben geen data-team" was ook Rima's eerste gedachte. Ze reserveert nu één middag per week voor fairness, geeft elke recruiter twee minuten extra voor de motivatieregel en bespreekt bevindingen in het reguliere overleg. De winst – minder brandjes, minder boze kandidaten, snellere audits – weegt ruimschoots op tegen de ingeplande uren.
Bias voorkomen is goedkoper dan bias repareren. Volgende week in deel 5: hoe overtuig je bestuur en budgethouders dat investeren in AI-geletterdheid, monitoring en fairness-design niet alleen ethisch slim is, maar keihard rendement oplevert?
Embed AI scant jouw toolstack op AI-risico's, herschrijft vacatureteksten met neutrale taal en vertaalt vendor-rapporten naar duidelijke acties. Meer weten? Stuur een bericht naar info@embed.ai