Fairness by design – vóórdat de AI de vacature ziet
Zahed AshkaraAI & Legal Expert
9 minHR & recruitment15 mei 2025
Mis geen AI-ontwikkelingen meer
Ontvang wekelijks de nieuwste inzichten over AI-ontwikkelingen, praktische toepassingen en relevante updates voor professionals. Geen spam, alleen waardevolle content.
💡 Join 2.500+ professionals uit verschillende sectoren die al profiteren van onze AI-inzichten
Laden...
Blijf op de hoogte van AI-ontwikkelingen
Ontvang wekelijks praktische AI-tips en relevante updates die je direct in je werk kunt toepassen.
Rima's team heeft inmiddels vijf lampjes op het dashboard en lost driftincidenten snel op. Toch merkt ze dat elke uitschieter vaak terug te voeren is op een bron dieper in de keten: de tekst van de vacature, de selectievragen of het gespreksscript. Bias sluipt binnen lang voordat een model gaat rekenen. Wil je echt rust in de cijfers, dan moet je fouten voorkomen vóórdat technologie ze versterkt. Dat heet fairness by design.
De dagelijkse toolkit, maar dan door de bril van de AI Act
Kijk eens naar de hulpmiddelen waar een gemiddeld HR- of recruitmentteam niet zonder kan:
AI-tool
Functionaliteit
Risico onder AI Act
CV-parser
Labelt en rangschikt inkomende cv's in het ATS
Hoog
Chatbot
Checkt basiseisen, wijst af of plant interviews in
Hoog
Video-analyseplatform
Analyseert taal, mimiek en stem tijdens sollicitatiegesprekken
Hoog
Assessment-tool
Bouwt persoonlijkheidsprofielen via spel-gebaseerde tests
Hoog
Interne mobiliteitsmodule
Voorspelt welke medewerkers klaar zijn voor promotie
Hoog
Social-media-insightstool
Identificeert wanneer potentiële kandidaten benaderbaar zijn
Hoog
Skill-cloud
Adviseert loopbaanpaden op basis van vaardigheden in het HR-systeem
Hoog
Referentie-software
Checkt automatisch referenties en genereert scoringsrapporten
Hoog
Al deze hulpmiddelen beslissen – direct of indirect – over toegang tot werk. Daarmee plaatst de AI Act ze in de categorie "hoog risico". Wie pas ná hun oordeel wil repareren, loopt achter de feiten aan.
De vacaturetekst als eerste lijn van verdediging
Rima begint bij iets ogenschijnlijk eenvoudigs: de woorden in de vacature. Onderzoek laat zien dat termen als "rockstar" of "tijger" meer mannelijke instroom opleveren, terwijl "zwaar tillen" vrouwelijke kandidaten in de logistiek kan afschrikken. Rima stuurt elke tekst eerst door een taalmodule die alleen de toon analyseert. Geen demografische voorspelling, wel een melding bij stereotype taal. De tekst wordt neutraler, de instroom automatisch diverser, nog vóórdat de cv-parser aan zet is.
Screeningvragen die niet sluimeren
De knock-out-vraag staat vervolgens op de rol. De chatbot vraagt of een kandidaat een werkvergunning heeft. Vroeger betekende "nee" een directe afwijzing. Nu volgt een tweede vraag: "Kun je binnen zes maanden een vergunning krijgen?" en zo nodig extra uitleg. De tool blijft geautomatiseerd, maar een bewuste keuze voorkomt dat geschikte kandidaten te vroeg verdwijnen. Het voldoet tegelijk aan de AI Act-eis van menselijke maat en transparantie.
Video-analyse op datadieet
Het video-analyseplatform levert maandelijks een testrapport. Rima vraagt tegenwoordig om één extra kolom: feature importance. Ze wil exact weten welk gewicht gezichtsexpressies, stem en woordkeus krijgen. Als stemintonatie opeens dertig procent weegt, gaat de update terug naar de sandbox tot duidelijk is of die verandering echt relevant is. Zo komt nieuwe bias er niet stilletjes bij.
Kleurcodes in plaats van automatische nee
Rima's interne mobiliteitsmodule rangschikt collega's voor promotie. Automatische "niet-geschikt" labels zijn verleden tijd. In plaats daarvan krijgen kandidaten een verkeerslichtkleur: groen kan door, oranje of rood vraagt een recruiterblik én een korte motivatieregel. Die ene regel landt in het logboek en dient straks als trainingsdata. Zo wordt menselijk oordeel expliciet vastgelegd.
Een snelle fairness-scan voor nieuwe tools
Wanneer IT een nieuw ATS-pakket aanbiedt met slimme plug-ins, liggen er drie vragen klaar:
Fairness-vraag
Doel
Resultaat
Beslist dit systeem over toegang tot werk?
Identificeren van hoog-risico AI-systemen volgens de AI Act
Juiste compliance-eisen toepassen
Welke datavelden gebruikt het model?
Opsporen van indirecte proxies voor beschermde kenmerken
Postcodes en hobby's zijn potentiële rode vlaggen
Kan de leverancier laten zien hoe bias wordt opgespoord?
Valideren van de kwaliteitsborging bij de leverancier
Betrouwbaarheid van de tool beoordelen
Zonder bevredigend antwoord komt het pakket niet door de poort.
Rima's fairness-dagboek
Vrijdagmiddag klapt Rima haar laptop open en opent het Notion-bestand waarin ze haar wekelijkse bevindingen bijhoudt. In haar dashboard ziet ze direct de impact die vier gerichte aanpassingen hebben gemaakt.
"Vacaturetekst voor het magazijn herschreven," leest ze hardop, terwijl ze haar aantekeningen bekijkt. De cijfers die ernaast staan, spreken voor zich: acht procent meer vrouwelijke kandidaten heeft gereageerd op de gewijzigde tekst. Door zinnen als "in staat om 25 kilo te tillen" te vervangen door "gebruikt technische hulpmiddelen om goederen te verplaatsen", veranderde niet alleen de toon, maar ook de instroom. De recruiters hadden de verandering nauwelijks opgemerkt, maar het systeem wel.
Haar tweede aantekening betreft de chatbot-aanpassing. Zeventien extra kandidaten kwamen door naar de longlist. Kandidaten die voorheen automatisch werden afgewezen omdat ze nog geen werkvergunning hadden, kregen nu een vervolgroute aangeboden: "Kun je binnen zes maanden een vergunning krijgen?" Deze kleine verandering resulteerde in een aantal waardevolle IT-profielen die anders nooit zouden zijn bekeken.
Bij het video-analyseplatform had Rima duidelijk waarschuwingssignalen ingebouwd. De leverancier rapporteerde vorige week nog dat het gewicht van stemintonatie in het algoritme was verhoogd naar bijna dertig procent. Rima had dit teruggedraaid naar vijftien procent, wat het verschil in videoscores tussen mannelijke en vrouwelijke kandidaten merkbaar had verkleind. "Interessant," noteert ze, "hoe kleine modelaanpassingen zo'n grote invloed hebben op wie er doorgaat."
Het meest trots is ze op de tweeënveertig motivatieregels die recruiters deze week hebben toegevoegd. In plaats van dat het interne mobiliteitssysteem kandidaten automatisch afwijst, moeten recruiters nu een korte toelichting geven wanneer iemand een 'oranje' of 'rode' markering krijgt. Deze menselijke context blijkt goud waard: "Sarah heeft relevante ervaring, maar mist certificering" of "Jayden's profiel past beter bij team Finance". Deze aantekeningen voeden niet alleen het systeem met trainingsdata, maar maken beslissingen ook transparanter.
De cijfers keren terug in de lampjes van deel 3. Het overrule-percentage is gedaald van 35% naar 22% – recruiters vertrouwen het systeem meer omdat het beter is afgestemd. De candidate-NPS is gestegen naar een 8,4, deels omdat afgewezen kandidaten nu een duidelijker beeld hebben van waarom ze niet doorgaan. Fairness by design blijkt tastbaar en meetbaar.
Minder werk dan het lijkt
"Wij hebben geen data-team" was ook Rima's eerste gedachte. Ze reserveert nu één middag per week voor fairness, geeft elke recruiter twee minuten extra voor de motivatieregel en bespreekt bevindingen in het reguliere overleg. De winst – minder brandjes, minder boze kandidaten, snellere audits – weegt ruimschoots op tegen de ingeplande uren.
Vooruitblik
Bias voorkomen is goedkoper dan bias repareren. Volgende week in deel 5: hoe overtuig je bestuur en budgethouders dat investeren in AI-geletterdheid, monitoring en fairness-design niet alleen ethisch slim is, maar keihard rendement oplevert?
Embed AI scant jouw toolstack op AI-risico's, herschrijft vacatureteksten met neutrale taal en vertaalt vendor-rapporten naar duidelijke acties. Meer weten? Stuur een bericht naar info@embed.ai