Laden...

Zahed Ashkara
AI & Legal Expert
Klaar om te starten met AI in jouw juridische praktijk?
Bekijk ons aanbod van AI trainingen en start vandaag nog met het implementeren van AI in jouw dagelijkse werkzaamheden.
Bekijk onze AI trainingenLaden...
AI & Legal Expert
Bekijk ons aanbod van AI trainingen en start vandaag nog met het implementeren van AI in jouw dagelijkse werkzaamheden.
Bekijk onze AI trainingenKunstmatige intelligentie (AI) vindt steeds vaker zijn weg naar de juridische sector. Van jurisprudentie doorzoeken tot contracten opstellen – generatieve AI belooft juristen en andere kenniswerkers efficiënter te laten werken. Uit onderzoek blijkt dat ruim 60% van de advocaten al AI-toepassingen heeft gebruikt bij het werk.1 Tegelijk brengt deze opkomst nieuwe ethische vraagstukken met zich mee. In deze blog bespreken we vier kernonderwerpen: privacy, intellectueel eigendom (IP), vertrouwelijkheid en hallucinaties (verzonnen output) van AI-taalmodellen. We belichten per thema de risico's en aandachtspunten, zonder een moraliserende toon aan te slaan. Het doel is een genuanceerd beeld te schetsen dat aansluit bij de praktijk van juristen en andere kenniswerkers.
Privacy is een essentieel aandachtspunt wanneer AI wordt ingezet op juridisch materiaal. Dossiers bevatten vaak gevoelige persoonsgegevens – van namen en adressen tot medische of financiële informatie. Zodra deze data via AI wordt verwerkt, rijst de vraag hoe die informatie wordt beschermd en gebruikt.
Generatieve AI-modellen zoals ChatGPT zijn getraind op gigantische hoeveelheden tekst, vaak afkomstig van internet. Daardoor kunnen ze, net als een zoekmachine, verrassend veel informatie reproduceren. Professor James Grimmelmann vergelijkt zo'n AI met een heel goede zoekmachine: modellen als ChatGPT zijn getraind op vrijwel het hele web en brengen vergelijkbare privacygevaren met zich mee als Google Search.2
Dat wil zeggen: een model kan persoonlijke gegevens over mensen oplepelen die ergens online staan, zonder dat die personen daar controle over hebben. Voor juristen betekent dit dat AI mogelijk gegevens over cliënten of tegenpartijen kan produceren die in openbare bronnen te vinden zijn. Dit roept zorgen op onder privacywetgeving zoals de AVG (GDPR). In Europa is geopperd dat het recht om vergeten te worden en andere GDPR-regels ook moeten gelden voor generatieve AI.2 Technisch is dat echter lastig af te dwingen: hoe "vergeet" een model specifieke persoonsgegevens die in zijn trainingsdata zaten? Momenteel is daar nog geen sluitende oplossing voor.2
Privacy speelt ook op een ander niveau. Als een advocaat vertrouwelijke informatie invoert in een AI-tool, wat gebeurt daarmee? Veel AI-diensten slaan ingevoerde prompts op en gebruiken ze mogelijk om het model te verbeteren.3 OpenAI zelf raadt gebruikers aan geen gevoelige details te delen in ChatGPT-prompts.3 Het risico is dat anders vertrouwelijke gegevens kunnen opduiken in antwoorden aan andere gebruikers – een potentieel datalek. Dit is niet theoretisch gebleven: in 2023 moesten Italiaanse toezichthouders en bedrijven zoals Samsung ingrijpen toen privacygevoelige gegevens via ChatGPT openbaar dreigden te worden.3
Aandachtspunt | Aanbeveling |
---|---|
Gegevensminimalisatie | Anonimiseer gegevens waar mogelijk |
Tool-selectie | Kies zakelijke AI-diensten die expliciet geen gebruikersdata gebruiken voor training4 |
Contractuele bescherming | Sluit een verwerkersovereenkomst (DPA) af met de AI-leverancier4 |
Intellectueel eigendom (IP) vormt een complex ethisch thema rond AI in de juridische praktijk. Twee vragen zijn relevant: (1) Hoe zit het met auteursrechten op de data waarmee AI getraind is? en (2) Wie is de eigenaar/auteur van door AI gegenereerde teksten of documenten?
Generatieve AI wordt gevoed met bestaande teksten – boeken, artikelen, jurisprudentie, websites – waarvan veel onder het auteursrecht valt. Tijdens training worden dus kopieën gemaakt en analyses gedaan van beschermde werken. Dit heeft geleid tot rechtszaken van auteurs en contentmakers die vinden dat hun materiaal onrechtmatig is gebruikt.
Professor Grimmelmann benadrukt dat op alle niveaus van de AI-"leveringsketen" kopieën van werken plaatsvinden, van data-verzameling tot output, waardoor elk stadium met auteursrecht te maken heeft.2 Er lopen inmiddels meerdere rechtszaken tegen AI-bedrijven wegens het gebruik van beschermd materiaal in trainingdata.2 Tot nu toe lijken de eerste uitspraken relatief gunstig voor de AI-makers: rechters kijken vooral of specifieke AI-uitvoer inbreuk maakt, in plaats van het hele trainingsproces als inbreuk te zien.2 Maar dit rechtsgebied is nog in ontwikkeling.
Minstens zo belangrijk is de vraag wie de rechten heeft over door AI geschreven teksten. Stel, een jurist laat een AI een contractclausule formuleren – van wie is die tekst dan? Traditioneel krijgt de mens die een tekst opstelt het auteursrecht, maar bij AI ontbreekt menselijke creativiteit. In de VS is recent bevestigd dat volledig AI-gegeneerde werken niet voor copyright in aanmerking komen.1 Alleen werken met menselijke auteurschap zijn beschermbaar. In Europa bestaat hierover nog geen expliciete wetgeving, maar ook daar geldt in principe dat er een "persoonlijke schepping" moet zijn voor auteursrecht.
AI-dienstverleners proberen duidelijkheid te scheppen via hun gebruiksvoorwaarden. OpenAI stelt bijvoorbeeld dat de gebruiker eigenaar is van de output die zijn model genereert.4 Met andere woorden, een advocaat behoudt de rechten op de tekst die ChatGPT voor hem produceert. Echter, deze contractuele afspraak verandert niets aan de auteurswet zelf – als de output grotendeels bestaande teksten bevat, kunnen rechthebbenden daar nog steeds aanspraak op maken. OpenAI waarschuwt dat antwoorden niet uniek zijn en deels beschermd materiaal kunnen bevatten.4
Een jurist moet er dus op letten geen hele lappen gegenereerde tekst ongewijzigd over te nemen in officiële documenten, vooral als het lijkt op letterlijke overnames uit bestaande werken. Daarom is het zaak AI-output altijd te redigeren en zorgvuldig te controleren, zodat het voldoet aan de originele content-eisen en geen andermans auteursrecht schendt.
Juristen hebben een strikte plicht tot vertrouwelijkheid. Gevoelige informatie van cliënten mag niet in verkeerde handen vallen. Het gebruik van AI roept hier de vraag op: komt de ingevoerde informatie niet buiten de deur terecht?
Wanneer je een prompt invoert bij een AI-service, wordt die prompt vaak opgeslagen op servers van de aanbieder. Dat kan strijdig zijn met het juridische beroepsgeheim als derden die data kunnen inzien. Een incident bij Samsung illustreerde dit gevaar: werknemers voegden broncode en notulen in ChatGPT in, wat ertoe leidde dat deze vertrouwelijke informatie op externe servers belandde.3 Ook ontdekten advocaten dat Microsoft's Azure OpenAI-dienst bepaalde prompts 30 dagen bewaart en door medewerkers laat monitoren als ze gevoelige inhoud bevatten.5 Zo'n "achterdeur" voor contentcontrole is begrijpelijk vanuit moderatie-oogpunt, maar vormt een potentieel lek voor juridische geheimhouding.
Richtlijn | Voorbeeld | Toelichting |
---|---|---|
Voer geen herkenbare cliëntinformatie in | Hou prompts algemeen | Gebruik "Analyseer deze geanonimiseerde contracttekst" i.p.v. "Analyseer het contract tussen X Corp en Y B.V." |
Gebruik veilige AI-omgevingen | Controleer de voorwaarden | Kies enterprise-versies of gespecialiseerde juridische AI-tools met goede data-isolatie |
Kortom, AI kan ook ín het beroepsgeheim worden gebruikt mits de jurist de nodige voorzorgen neemt. Vaak betekent dit investeren in een zakelijke of interne AI-oplossing in plaats van een gratis publieke chatbot – een noodzakelijke stap om het vertrouwen van cliënten te behouden.
Een bekend risico van geavanceerde taalmodellen is hallucinatie: het model genereert plausibele maar onjuiste of compleet verzonnen antwoorden. In de rechtspraak kan dit desastreus zijn.
Een inmiddels beroemde zaak betrof advocaten die door de rechter werden berispt en beboet omdat ze nep-jurisprudentie hadden aangevoerd die door ChatGPT was verzonnen.1 Deze voorbeelden illustreren hoe gevaarlijk klakkeloos vertrouwen op AI kan zijn in het recht.
Hallucinaties ontstaan omdat een AI geen besef van "waarheid" heeft – het model voorspelt het meest waarschijnlijke vervolg van woorden op basis van trainingsdata, zonder feiten te controleren.1 Zo kan een taalmodel bijvoorbeeld een niet-bestaande uitspraak van de Hoge Raad fabriceren die grammaticaal en stilistisch perfect lijkt, enkel omdat die binnen het patroon past dat het model geleerd heeft. Het model doet dit niet bewust verkeerd; het heeft simpelweg geen mechanisme om werkelijkheid van fictie te onderscheiden.
Voor juristen betekent dit dat AI-antwoorden altijd gecontroleerd moeten worden. De American Bar Association waarschuwde advocaten dat zij verantwoordelijk blijven voor de juistheid van hun werk, zelfs als een fout afkomstig is van een AI-hulpmiddel.1 Met andere woorden, het gebruik van AI ontslaat een jurist niet van de plicht om elke verwijzing en elk feit te verifiëren.
Ontwikkeling | Voordeel | Beperking |
---|---|---|
Gespecialiseerde juridische AI-tools | Antwoorden gekoppeld aan juridische bronnen | Westlaw en LexisNexis bouwen AI op eigen databases |
Foutreductie | Minder fouten dan algemene modellen | 17-34% geeft nog steeds onjuiste informatie6 |
Vertrouw nooit blind op output van een AI in juridische context. Gebruik het als hulpmiddel om tijd te winnen, maar controleer de feiten. Wordt een vonnis of wetsartikel genoemd? Zoek het op in de officiële bron. Blijf kritisch denken: als een antwoord onlogisch of té mooi klinkt, vraag dan door of check het bij een collega. Zorg ten slotte dat je zelf of je team begrijpt hoe AI werkt – investeer in AI-literacy. Veel incidenten komen voort uit gebrek aan kennis bij de gebruiker, niet puur door de AI zelf.1
AI kan de juridische praktijk ingrijpend verbeteren, maar de besproken ethische aspecten – privacy, intellectueel eigendom, vertrouwelijkheid en de betrouwbaarheid van informatie – vragen om blijvende waakzaamheid. Juristen en kenniswerkers kunnen AI veilig omarmen door duidelijke grenzen en controles in te bouwen:
Zo blijft de mens aan het roer en profiteert de sector van de voordelen van AI zonder de kernwaarden van het recht uit het oog te verliezen.