
Zahed Ashkara
AI & Legal Expert
Klaar om te starten met AI Geletterdheid?
Leer alles over verantwoord gebruik van AI en EU AI Act compliance. Perfect voor organisaties die willen voldoen aan de nieuwe wetgeving.
Bekijk AI Geletterdheid TrainingAI & Legal Expert
Leer alles over verantwoord gebruik van AI en EU AI Act compliance. Perfect voor organisaties die willen voldoen aan de nieuwe wetgeving.
Bekijk AI Geletterdheid TrainingLaden...
(Blog 3 van de serie "AI & Finance onder de EU AI Act")
Liang, hoofd Fraude & AML bij PayWave, schrikt als het dashboard rood oplicht: binnen 0,2 seconde markeert het AI-transactiemonitoringsmodel een betaling van €1.250 als verdacht en blokkeert de kaart van klant Rosa. Drie minuten later belt ze woedend: "Ik sta bij de kassa en kan niet betalen – waarom niet?" Liang weet dat zijn team het antwoord schuldig zal blijven zolang het model zwarte-dooslogica en duizenden gedragssignalen combineert. Sinds de EU AI Act van kracht is, mag dat niet meer – ook al valt fraudedetectie juridisch in een grijs gebied.
De AI Act kent vier risiconiveaus. Credit-scoring staat expliciet in Annex III en is dus high-risk. Voor AI-systemen die financiële fraude opsporen ligt het genuanceerder: de wetgever heeft detectie van financiële fraude juist uitgezonderd van de high-risk-lijst1 – een lobby-resultaat om innovatie niet af te remmen. Sommige commentatoren adviseren banken desalniettemin die systemen als high-risk te behandelen, juist omdat ze transacties kunnen blokkeren of rekeningen kunnen bevriezen. Het resultaat is verwarring: mag fraude-AI nu mee in de zware AI-Act-procedures of niet?
Zelfs als een fraudemodel "formeel" niet high-risk is, grijpt het vaak direct in op essentiële betaaldiensten. Een fout-positief betekent dat een klant geen huur kan overmaken of boodschappen kan afrekenen – precies het soort fundamentele rechten dat de AI Act wil beschermen. Bovendien gelden al stevige verplichtingen uit PSD22, de 6e AMLD3 en DORA4. Wie slim is, harmoniseert die kaders in één governance-raamwerk en vermijdt dubbel werk.
Locatie of consumentensegment als proxy voor 'risico' kan tot indirecte discriminatie leiden. Een model dat systematisch meer transacties blokkeert in bepaalde wijken of voor specifieke leeftijdsgroepen, creëert ongelijke toegang tot financiële diensten.
Een paar procent onterechte blockades lijkt weinig, maar op miljoenen realtime transacties betekent dit duizenden boze telefoontjes per dag. De reputatieschade en operationele kosten stapelen zich snel op.
Fraudemethodes veranderen wekelijks; zonder regelmatige re-training degradeert modelperformance snel. Wat vorige maand nog effectief was, kan vandaag een zeef zijn geworden.
Stap | Actie | Resultaat |
---|---|---|
1. Maak de beslisketen zichtbaar | Map elke drempel: alert, soft-block, hard-block | Helpt bepalen waar menselijk toezicht nodig is |
2. Meet dual metrics | Rapporteer altijd zowel fraudedetectie-ratio als klantimpact (false positives) | Balans tussen veiligheid en service |
3. Documenteer root causes | Leg per blokkade vast welke features de score bepaalden | Voldoet aan transparantie- en explainability-eisen |
4. Bouw escalatie-playbooks | Heldere omkeer-procedure binnen 15 minuten bij onterechte blokkade | Minimaliseert reputatieschade |
5. Verhoog AI-geletterdheid | Train fraud-analisten in feature-interpretatie en concept-drift-signalering | Versterkt menselijk toezicht, verplicht onder de AI Act |
Begin met het in kaart brengen van elke drempel in je fraudedetectie-pipeline. Wanneer wordt een transactie alleen gemarkeerd voor review? Wanneer wordt deze tijdelijk geblokkeerd? En wanneer volgt een harde blokkade? Deze mapping helpt bepalen waar menselijk toezicht het meest kritiek is.
Traditioneel focussen fraud-teams op detectie-ratio's: hoeveel echte fraude vangen we? Onder de AI Act moet je ook systematisch meten hoeveel legitieme klanten je raakt. Deze dual metrics geven inzicht in de werkelijke impact van je model.
Voor elke blokkade moet duidelijk zijn welke features de beslissing hebben bepaald. Was het de locatie? Het tijdstip? Het bedrag? Deze documentatie is essentieel voor transparantie en helpt bij het identificeren van bias-patronen.
Ontwikkel heldere procedures voor het snel omkeren van onterechte blokkades. Klanten moeten binnen 15 minuten weer kunnen betalen, met een duidelijke uitleg over wat er gebeurd is en waarom.
Train je fraud-analisten niet alleen in het herkennen van fraudepatronen, maar ook in het interpreteren van model-features en het signaleren van concept drift. Dit menselijk toezicht is verplicht onder de AI Act.
Na drie maanden twin-tracking van fraude-score én klantimpact halveert PayWave het aantal onterechte blokkades; NPS stijgt met 7 punten, terwijl het werkelijke fraudeverlies gelijk blijft. Het board ziet dat betere uitleg niet alleen compliance-risico's verlaagt, maar ook de kosten voor call-centre en chargebacks drukt.
De belangrijkste doorbraak komt van een onverwachte hoek: door systematisch te documenteren waarom bepaalde transacties werden geblokkeerd, ontdekt het team dat het model overreageert op weekend-transacties boven €500. Een simpele aanpassing van de drempelwaarden voor weekends reduceert false positives met 30%, zonder dat echte fraude door de mazen glipt.
De lessons learned uit realtime fraude-AI vormen de blauwdruk voor alle high-risk-achtige use-cases: credit scoring, verzekeringspricing, maar ook generatieve AI in klantcontact. Eén uniform AI-governance-raamwerk voorkomt dat elke afdeling opnieuw het wiel moet uitvinden.
PayWave gebruikt nu dezelfde transparantie-principes voor hun chatbot (die klanten adviseert over spaarproducten) en hun robo-advisor (die beleggingsportefeuilles samenstelt). Het resultaat: consistente compliance én een betere klantervaring across alle touchpoints.
In deel 4 onderzoeken we wat fairness betekent voor dynamische verzekeringspremies en hoe actuariële modellen onder de AI Act een 'bias overhaul' krijgen. Daarna duiken we in menselijk toezicht bij algoritmische beleggingen.
De rode draad blijft hetzelfde: AI-compliance als concurrentievoordeel, niet als kostenpost. Organisaties die nu investeren in transparante, uitlegbare AI-systemen, bouwen vertrouwen op bij klanten én toezichthouders.
Meer weten over een hands-on training rond AI-fraudedetectie en AI Act-compliance? Embed AI ontwikkelt modulair van basisworkshops tot deep-dives voor modelvalidators. Neem gerust contact op.
Ontdek in 5 minuten of jouw AI-systemen voldoen aan de nieuwe EU AI Act wetgeving. Onze interactieve tool geeft je direct inzicht in compliance-risico's en concrete actiestappen.