AI Geletterdheid Training
Een strategische training gebaseerd op het officiële AP (Autoriteit Persoonsgegevens) actieplan voor AI-geletterdheid. Deze training helpt uw organisatie om systematisch AI-geletterdheid op te bouwen volgens de bewezen 4-fasen aanpak: Identificeren, Doel bepalen, Uitvoeren en Evalueren. Van wettelijke compliance tot praktische implementatie, alles wat u nodig heeft voor verantwoorde AI-inzet.
EU AI Act compliance: Sinds 2 februari 2025 eist de Europese AI Act aantoonbare AIâgeletterdheid voor iedereen die met highâriskâAI werkt. Recruiters die cvâscreeners gebruiken, bankiers die kredietmodellen managen, zorgteams die triageâapps draaien: allemaal hebben ze dezelfde plicht â begrijpen wat de algoritmen doen, welke fouten ze kunnen maken en hoe je die rechtzet.
Onze eendaagse training legt precies dat fundament. We bouwen de sessie modulair op: één gezamenlijke kern en sectorâdeepâdives in aparte breakâouts. Zo krijg je maatwerk zonder dat je vijf aparte workshops hoeft te boeken.
AI-risicozones per Sector: EU AI Act Prioriteiten
Onderstaande tabel toont welke sectoren prioriteit hebben in het kader van de EU AI Act, en waarom juist deze sectoren specifieke aandacht nodig hebben voor AI-compliance.
Prioriteit | Sector / domein | Reden (âwaarom nu?â) | Typische high-risk use-cases (Annex III) |
---|---|---|---|
Tier 1 | Financiële diensten (banken, verzekeraars, fintech) | Zware EU-toezichtskaders (EBA, DORA); reputatierisico | Krediet-scoring, transactie-monitoring, biometrische KYC |
Gezondheidszorg & med-tech | MDR-koppeling; patiëntveiligheid | Diagnose-ondersteuning, AI-triage, robot-chirurgie | |
Publieke sector (ministeries, gemeenten, uitvoeringsinstanties) | Politieke druk op transparantie; aanbestedingseis voor AI Act-compliance | Kans-taxaties (toeslagen), crowd-monitoring, chatbot-diensten | |
HR-tech / Recruitment-diensten | Annex III benoemt expliciet AI in werving & selectie | CV-screening, video-analyse, performance-tracking | |
Kritieke infrastructuur (energie, transport, lucht- & spoor) | Veiligheidscomponent â direct high-risk | Predictive maintenance, verkeers-sturing | |
Tier 2 | EduTech / Hogescholen & universiteiten | Annex III onderwijssystemen â high-risk | Proctoring, adaptief leren |
Manufacturing & logistiek | Snelle AI-adoptie; OSHA- & CE-eisen | Vision-inspectie, autonome voertuigen | |
Tier 3 | Scale-ups die generatieve-AI producten bouwen | IP-risico's & brand reputation | Chat-co-pilots, content-generatie |
Sectorspecifieke Workshops
Ontdek hoe onze training is afgestemd op verschillende sectoren en welke specifieke uitdagingen we per sector behandelen.
HR & Recruitment â daar begint de kettingreactie
De Uitdaging
Waarom juist hier? De wet noemt selectieâAI expliciet, omdat een fout algoritme iemand letterlijk buiten de arbeidsmarkt kan plaatsen. Recruiters zijn daarmee de eerste defensielinie tegen bias Ă©n de eerste die beboet worden als ze hun dashboard blind vertrouwen.
De Aanpak
Hoe ziet de training eruit? We starten met een live biasâscan op jullie eigen cvâfilter: twintig anonieme profielen, één rankingmodel, tien minuten suspense. De uitkomst vormt de rode draad voor de rest van de ochtend. We bespreken transparantie naar kandidaten ("Je wordt gescreend door AI") en oefenen menselijke overrides â inclusief de logâteksten die een auditor wil zien. Favoriete takeâaway van eerdere deelnemers: het "explainâsheet" waarmee recruiters in drie zinnen kunnen uitleggen waarom kandidaat X tĂłch werd afgewezen. Volgens Sanne Derksen, Head of Talent Acquisition bij een fintechâscaleâup, "verdient die sheet zich op één dag terug in geloofwaardigheid bij kandidaten Ă©n hiring managers."
Finance â compliance is cultuur, AI voegt een nieuwe laag toe
De Uitdaging
Wat staat er op het spel? Kredietâscoringsâ en antiâfraudemodellen vallen als vanzelf in het highâriskâvakje. Boetes tot zeven procent van de wereldomzet klinken in boardrooms luider dan elke keynote over innovatie.
De Aanpak
Wat doen we in de breakâout? We brengen een fictief kredietâmodel in storing: een biasâalert op postcode 1092. De groep beslist live of het model pauzeert, hoe dat in de ISAEâ3402ârapportage komt te staan en welke klantâcommunicatie volgt. Tussendoor leren deelnemers hoe ze de AIâActâdocumentatie koppelen aan bestaande riskâframeworks, zodat er niet nĂłg een compliancelaag bovenop komt maar één geĂŻntegreerd verhaal.
Zorg & Medâtech â geen algoritme mag het vertrouwen van de patiĂ«nt breken
De Uitdaging
Waarom is de lat hier het hoogst? Een triageâapp of decisionâsupportâtool kan het verschil maken tussen wel of niet behandelen. Fouten worden niet alleen met geld afgerekend, maar met reputatie en soms met levens.
De Aanpak
Hoe maken we het tastbaar? We simuleren een spoedâscenario: de AI adviseert patiĂ«nten met milde klachten naar huis te sturen, maar de dienstdoende arts twijfelt. De groep doorloopt een realtime beslisboom: logbestanden openen, second opinion forceren, patiĂ«nt informeren. Daarna herleiden we de input naar concrete verbeterâacties: aanvullende trainingdata, uitlegâmodule voor verpleegkundigen en een escalatieknop voor artsen.
Publieke sector â transparantie is de default, niet de uitzondering
De Uitdaging
Het spanningsveld: strakke aanbestedingsregels, mediaâgevoeligheid en een kritische burger. Een ogenschijnlijk simpele bewonersâchatbot kan in de krantenkoppen belanden als hij juridisch advies geeft waar hij niet toe bevoegd is.
De Aanpak
De workshopâessentie: We dissecteren een bestaande gemeenteâchatbot. In teamverband herschrijven we de openingsâboodschap ("Ik ben een AIâassistent, geen jurist"), definiĂ«ren vertrouwenâsâgrenzen en bedenken wat er gebeurt als het antwoord nĂet zeker is. Resultaat: een concrete blueprint van transparantieâ en fallbackâregels die dezelfde dag nog live kan.
Kritieke infrastructuur â wanneer downtime geen optie is
De Uitdaging
Waarom extra spannend? Een verkeerde voorspelling in een predictiveâmaintenanceâmodel kan een turbine stilleggen of, erger, mensen in gevaar brengen.
Kritieke infrastructuur omvat essentiële diensten en systemen zoals energie, water, transport, telecom en cybersecurity die onmisbaar zijn voor het functioneren van de samenleving. Deze sectoren vallen automatisch in de hoogste risicocategorie van de EU AI Act vanwege de maatschappelijke impact bij verstoringen.
De Aanpak
Wat we doen: We leggen een denkbeeldige storing voor: plotselinge temperatuursâpiek, het model twijfelt. De groep beslist of de asset offline gaat, hoe de incidentâlog eruitziet en hoe de operator uitlegt waarom de AI in de war raakte. Daarmee botsen we meteen op de kernvraag van de AI Act: hoe leg je een blackâboxâmodel uit aan een menselijke operator?
Wat u gaat leren
AP Stap 1: Identificeren
- Inventariseren van alle AI-systemen binnen uw organisatie
- Uitvoeren van risicobeoordeling per AI-systeem
- In kaart brengen van betrokken personen en hun rollen
- Nulmeting van AI-kennis en vaardigheden medewerkers
AP Stap 2: Doel bepalen
- Vaststellen van doelen en prioriteiten op basis van risiconiveau
- Bepalen van benodigde kennis per medewerker en rol
- Ontwikkelen van cultuurvisie en AI-strategie document
- Toewijzen van organisatorische verantwoordelijkheden
AP Stap 3: Uitvoeren
- Implementeren van bewustwordingstrainingen en specialisatietrainingen
- Ontwikkelen van AI-beleid en gebruiksrichtlijnen
- Uitvoeren van praktische acties per doelgroep
- Creëren van bestuurlijk commitment en budget
AP Stap 4: Evalueren
- Opzetten van evaluatiemethoden: rapportages, audits en nulmetingen
- Analyseren van effectiviteit van genomen maatregelen
- Implementeren van continue verbeteringsacties
- Bijstellen van doelen en maatregelen op basis van resultaten
Wat levert het u op?
Wat u kunt verwachten
Voorproefje van de AI Geletterdheid Training
Bekijk enkele slides uit de training om een indruk te krijgen van wat u kunt verwachten. Gebaseerd op het officiële AP (Autoriteit Persoonsgegevens) actieplan voor AI-geletterdheid.
AP Framework: Strategische AI-geletterdheid

AI-geletterdheid volgens de Autoriteit Persoonsgegevens: een strategische en langdurige aanpak om menselijke regie te waarborgen bij de verantwoorde inzet van AI-systemen.
Waarom AI-geletterdheid essentieel is
Vanaf 2 februari 2025 moeten organisaties AI-geletterdheid waarborgen. Dit betekent dat personeel de juiste vaardigheden, kennis en begrip heeft om AI-systemen verantwoord in te zetten.
- Versterkt maatschappelijke weerbaarheid
- Ondersteunt organisaties bij verantwoorde AI-inzet
- Biedt basiskennis voor strategische keuzes
- Helpt risico's mitigeren en kansen benutten
- Waarborgt menselijke controle en toezicht
AP 4-Fasen Aanpak
- Identificeren: Inventariseer AI-systemen en risico's
- Doel bepalen: Stel concrete doelstellingen vast
- Uitvoeren: Implementeer strategieën en acties
- Evalueren: Analyseer resultaten en verbeterpunten
Wettelijke Verplichting
- EU AI Act artikel 4: AI-geletterdheid verplicht
- Aanbieders én gebruikers zijn verantwoordelijk
- Toereikend niveau afhankelijk van context
- Technische, sociale én ethische aspecten
Uw Trainer

Zahed Ashkara
AI-trainer & EU AI Act Specialist
Als oprichter van Embed AI combineert Zahed zijn expertise in kunstmatige intelligentie met een passie voor innovatie. Met zijn juridische achtergrond en zijn uitgebreide kennis van AI-technologie helpt hij organisaties bij hun digitale transformatie.
Als EU AI Act specialist en gecertificeerd AI Compliance Officer (CAICO) helpt hij organisaties met de implementatie van AI-systemen die voldoen aan de nieuwe Europese wetgeving.
Zahed's unieke combinatie van juridische expertise en technische AI-kennis maakt hem de ideale trainer voor deze training. Zijn praktijkgerichte aanpak zorgt ervoor dat u niet alleen de theorie begrijpt, maar deze ook direct kunt toepassen binnen uw organisatie.
Investering
Inclusief:
- Uitgebreide trainingsmaterialen
- Lunch en versnaperingen
- Certificaat van deelname
- Implementatieplan template
- Praktische handleidingen en checklists
- Naslagwerk en documentatie
Beschikbare Data
mei
juni
juli
augustus
Wat cursisten zeggen
âIk vond de AI Geletterdheid cursus erg informatief en gemakkelijk te volgen. Het gaf een solide overzicht van hoe AI werkt, waar het wordt gebruikt, en enkele risico's en ethische kwesties om in gedachten te houden. Als internal auditor heeft het me geholpen te begrijpen hoe AI van invloed kan zijn op zaken als interne controles, gegevensverwerking en risicogebieden. Het heeft me zeker meer vertrouwen gegeven als het gaat om het bespreken van AI-gerelateerde onderwerpen op het werk. Een zeer nuttige cursus, absoluut aan te raden!â
âZahed is een professionele en vaardige trainer, die met zijn inhoudelijke kennis en praktische aanpak de complexe onderwerpen goed weet te doorgronden en uit te leggen. Over de Europese AI Verordening is nog veel onduidelijk, maar de masterclass bracht helderheid met betrekking tot de wetgeving en de impact op ondernemingen. Ik heb een beter begrip van de risico categorisering voor AI-modellen en welke (wettelijke) vereisten hiermee samenhangen. De praktische insteek, gecombineerd met technologisch inzicht, maakt dit een waardevolle training die ik elke jurist aanraad te volgen.â