Samenvatting
Dit rapport analyseert het complexe en evoluerende juridische landschap van aansprakelijkheid voor schade veroorzaakt door gebrekkige Artificiële Intelligentie (AI) systemen binnen de Europese Unie en Nederland. De analyse toont een fundamentele paradigmaverschuiving: de traditionele, vaak reactieve en op schuld gebaseerde aansprakelijkheidsregimes worden aangevuld en getransformeerd door een proactief, risico en compliance gedreven raamwerk. De kern van deze transformatie wordt gevormd door drie wetgevende pijlers: de AI Verordening, de herziene Richtlijn Productaansprakelijkheid en de Algemene Verordening Gegevensbescherming (AVG).
De AI Verordening introduceert een risicogebaseerde benadering die gedetailleerde zorgvuldigheidsnormen vastlegt voor met name hoog risico AI systemen. Naleving van deze normen is niet langer slechts een kwestie van publiekrechtelijke handhaving; het vormt de de facto invulling van de civielrechtelijke zorgplicht. Een schending van de verplichtingen onder de AI Verordening zal in civiele procedures als een sterke indicatie van onrechtmatig handelen worden beschouwd.
Tegelijkertijd brengt de herziene Richtlijn Productaansprakelijkheid een seismische verschuiving teweeg door software en AI systemen expliciet als ‘product’ te kwalificeren. Dit onderwerpt ontwikkelaars aan een regime van risicoaansprakelijkheid, waarbij de benadeelde partij niet langer de schuld van de ontwikkelaar hoeft te bewijzen, maar enkel het gebrek in het product, de schade en het causaal verband. De richtlijn introduceert bovendien mechanismen die de bewijslast voor eisers in complexe AI zaken verlichten.
De AVG, met name via Artikel 22, blijft een cruciaal instrument voor de bescherming van individuen tegen de risico’s van uitsluitend geautomatiseerde besluitvorming met aanmerkelijke gevolgen, zoals in recruitment of kredietverlening. De verplichte waarborgen, waaronder het recht op betekenisvolle menselijke tussenkomst, stellen strenge eisen aan de inrichting van bedrijfsprocessen die door AI worden ondersteund.
Voor de Nederlandse rechtspraktijk betekent dit dat de open normen van het Burgerlijk Wetboek, zoals wanprestatie (art. 6:74 BW) en onrechtmatige daad (art. 6:162 BW), materieel worden ingekleurd door deze Europese regelgeving. Aansprakelijkheid wordt steeds meer een functie van aantoonbare compliance.
Dit rapport concludeert dat risicobeheersing een tweeledige aanpak vereist. Ten eerste, robuuste contractuele afspraken waarin aansprakelijkheden, garanties, auditrechten en data gebruiksrechten zorgvuldig worden afgebakend. Ten tweede, de implementatie van een integraal intern AI governance raamwerk dat zorgdraagt voor risico identificatie, monitoring, documentatie en training gedurende de gehele levenscyclus van een AI systeem. Voor organisaties die AI ontwikkelen of inzetten, is proactieve, gedocumenteerde compliance de enige effectieve strategie om de aanzienlijke juridische en financiële risico’s in dit nieuwe tijdperk te mitigeren.

Deel I: Het Nieuwe Juridische Paradigma voor AI in Europa
De opkomst van artificiële intelligentie heeft de Europese wetgever genoodzaakt om de bestaande juridische kaders voor aansprakelijkheid en veiligheid fundamenteel te herzien. Dit heeft geleid tot een gelaagd systeem van nieuwe en gemoderniseerde regelgeving die gezamenlijk een nieuw paradigma vormen. Dit deel analyseert de drie centrale pijlers van dit nieuwe raamwerk: de AI Verordening, die een risicogebaseerde set van zorgvuldigheidsnormen introduceert; de herziene Richtlijn Productaansprakelijkheid, die AI binnen het domein van risicoaansprakelijkheid brengt; en de AVG, die de rechten van individuen bij geautomatiseerde besluitvorming waarborgt. Samen creëren deze instrumenten een complex samenspel van verplichtingen dat de basis legt voor de toewijzing van aansprakelijkheid in het AI tijdperk.
Hoofdstuk 1: De AI Verordening als Zorgvuldigheidsnorm
De Verordening (EU) 2024/1689, beter bekend als de AI Verordening (AI Act), is het eerste omvattende, horizontale wetgevingskader voor AI ter wereld.1 Hoewel primair een instrument van publiekrechtelijke aard, gericht op markttoegang en toezicht, zijn de implicaties voor het civiele aansprakelijkheidsrecht diepgaand. De verordening stelt gedetailleerde en bindende normen vast die de open zorgvuldigheidsnormen van het nationale privaatrecht concretiseren, waardoor het een onmisbare referentie wordt in elke aansprakelijkheidsbeoordeling.
1.1. De Risicogebaseerde Architectuur
De kern van de AI Verordening is een risicogebaseerde aanpak, die AI systemen classificeert in vier categorieën op basis van het potentiële risico voor gezondheid, veiligheid en grondrechten.2 De verplichtingen voor marktdeelnemers zijn direct gekoppeld aan deze classificatie.
- Onaanvaardbaar Risico: Deze categorie omvat AI praktijken die worden beschouwd als een duidelijke bedreiging voor de fundamentele rechten en waarden van de EU en zijn daarom in beginsel verboden. Artikel 5 van de verordening somt deze praktijken limitatief op, waaronder AI systemen die gebruikmaken van subliminale, manipulatieve of misleidende technieken om het gedrag van een persoon wezenlijk te verstoren op een wijze die schade kan veroorzaken.4 Ook verboden zijn systemen die de kwetsbaarheden van specifieke groepen uitbuiten, systemen voor ‘social scoring’ door overheden, en bepaalde toepassingen van biometrische identificatie op afstand in de openbare ruimte.2
- Hoog Risico: Dit is de meest gereguleerde categorie. Een AI systeem wordt als hoog risico beschouwd als het ofwel een veiligheidscomponent is van een product dat onder bestaande EU productveiligheidswetgeving valt (bv. medische hulpmiddelen, speelgoed, auto’s), ofwel valt onder een van de specifieke toepassingsgebieden genoemd in Annex III van de verordening.2 Deze annex omvat cruciale domeinen zoals de inzet van AI bij werving en selectie van personeel, de beoordeling van kredietwaardigheid, de toegang tot onderwijs, en het gebruik door rechtshandhavings en justitiële autoriteiten.1 Systemen in deze categorie zijn onderworpen aan een streng regime van verplichtingen voordat ze op de markt mogen worden gebracht en gedurende hun gehele levenscyclus.
- Beperkt Risico: Voor AI systemen die een specifiek risico op manipulatie of misleiding met zich meebrengen, gelden specifieke transparantieverplichtingen. Dit betreft bijvoorbeeld AI systemen die interacteren met mensen (zoals chatbots), die emoties herkennen of biometrische data categoriseren, of die synthetische content genereren (‘deepfakes’).3 Gebruikers moeten in deze gevallen geïnformeerd worden dat zij met een AI systeem te maken hebben of dat de content kunstmatig is gegenereerd.6
- Minimaal Risico: De overgrote meerderheid van AI systemen valt naar verwachting in deze categorie. Hiervoor gelden geen specifieke verplichtingen onder de AI Verordening, hoewel aanbieders worden aangemoedigd om vrijwillige gedragscodes te volgen.
1.2. Verplichtingen voor Aanbieders (Providers) van Hoog Risico AI
Voor aanbieders van hoog risico AI systemen legt de verordening een cumulatief pakket van dwingende verplichtingen op, die moeten worden nageleefd voordat het systeem een CE markering kan verkrijgen en op de markt kan worden gebracht.1 Deze verplichtingen vormen de kern van de nieuwe zorgvuldigheidsstandaard.
- Risicomanagementsysteem: Aanbieders moeten een continu, iteratief risicomanagementsysteem opzetten, implementeren, documenteren en onderhouden gedurende de gehele levenscyclus van het AI systeem. Dit systeem moet de bekende en redelijkerwijs voorzienbare risico’s identificeren, analyseren, evalueren en mitigeren.1
- Data en Data Governance: De kwaliteit van de data waarmee een AI systeem wordt getraind, gevalideerd en getest is cruciaal voor de prestaties en veiligheid ervan. De verordening stelt daarom strenge eisen aan de gebruikte datasets. Deze moeten relevant, representatief, vrij van fouten en volledig zijn. Er moeten passende data governance en beheerpraktijken worden toegepast om met name de risico’s op bevooroordeelde (‘biased’) resultaten en discriminatie te minimaliseren.1
- Technische Documentatie en Traceerbaarheid: Aanbieders moeten uitgebreide technische documentatie opstellen en bijhouden, waaruit de conformiteit met de verordening blijkt. Deze documentatie moet op verzoek beschikbaar worden gesteld aan nationale toezichthouders. Daarnaast moeten hoog risico systemen zijn uitgerust met automatische logging mechanismen die de werking van het systeem vastleggen om de traceerbaarheid van de resultaten te waarborgen.1
- Transparantie en Informatievoorziening aan Gebruikers: Hoog risico AI systemen moeten zodanig zijn ontworpen dat hun werking voldoende transparant is, zodat gebruikers de output kunnen interpreteren en op de juiste wijze kunnen gebruiken. De aanbieder moet duidelijke en adequate gebruiksinstructies verstrekken met informatie over de identiteit van de aanbieder, de kenmerken, capaciteiten en beperkingen van het systeem, het beoogde doel, en de geïmplementeerde maatregelen voor menselijk toezicht.3
- Menselijk Toezicht: Systemen moeten zodanig worden ontworpen en ontwikkeld dat zij gedurende hun levenscyclus effectief kunnen worden overzien door natuurlijke personen. De maatregelen voor menselijk toezicht moeten de gebruiker in staat stellen om de werking van het systeem te begrijpen, te besluiten om het systeem niet te gebruiken in een bepaalde situatie, of om de output te negeren, te overrulen of terug te draaien.1
- Nauwkeurigheid, Robuustheid en Cybersecurity: Hoog risico systemen moeten een passend niveau van nauwkeurigheid, robuustheid en cybersecurity bereiken en behouden. Ze moeten bestand zijn tegen fouten en inconsistenties en veerkrachtig zijn ten aanzien van pogingen van onbevoegde derden om hun werking te verstoren.1
1.3. Verplichtingen voor Gebruikers (Deployers) van Hoog Risico AI
De AI Verordening legt niet alleen verplichtingen op aan ontwikkelaars, maar ook aan de professionele gebruikers van hoog risico AI systemen. Deze ‘deployers’ hebben een eigen verantwoordelijkheid om te zorgen voor een veilig en conform gebruik.1 Hun verplichtingen omvatten onder meer:
- Het nemen van technische en organisatorische maatregelen om het systeem te gebruiken in overeenstemming met de door de aanbieder verstrekte gebruiksinstructies.
- Het waarborgen dat het personeel dat belast is met het menselijk toezicht over de benodigde competenties, training en autoriteit beschikt.
- Het monitoren van de werking van het systeem en, indien relevant, het bijhouden van de door het systeem gegenereerde logs.
- Het informeren van de aanbieder of distributeur bij ernstige incidenten of storingen.
- Indien van toepassing, het uitvoeren van een data protection impact assessment (DPIA) onder de AVG.9
1.4. Transparantieverplichtingen voor Specifieke AI systemen
Ongeacht de risicoclassificatie legt Artikel 50 van de AI Verordening specifieke transparantieverplichtingen op aan bepaalde AI systemen om het vertrouwen van gebruikers te waarborgen en misleiding te voorkomen.6
- Interactie met Mensen: Aanbieders moeten ervoor zorgen dat natuurlijke personen worden geïnformeerd dat zij interacteren met een AI systeem, tenzij dit overduidelijk is uit de context (bv. bij een chatbot).6
- Gegenereerde of Gemanipuleerde Content: Aanbieders van systemen die synthetische audio , beeld , video of tekstcontent genereren, moeten ervoor zorgen dat de output is gemarkeerd in een machinaal leesbaar formaat als kunstmatig gegenereerd of gemanipuleerd.6 Gebruikers (‘deployers’) die ‘deepfakes’ of andere gemanipuleerde content verspreiden, moeten openbaar maken dat de content kunstmatig is.6
- Emotieherkenning en Biometrische Categorisatie: Gebruikers van dergelijke systemen moeten de personen die eraan worden blootgesteld informeren over de werking van het systeem.6
De verplichtingen uit de AI Verordening zijn niet louter administratieve of publiekrechtelijke eisen. Ze vormen een gedetailleerde, geharmoniseerde en bindende invulling van wat in het civiele recht als ‘zorgvuldig handelen’ wordt beschouwd. Het Nederlandse aansprakelijkheidsrecht, met name de onrechtmatige daad (art. 6:162 BW), is gebaseerd op de open norm van handelen in strijd met “hetgeen volgens ongeschreven recht in het maatschappelijk verkeer betaamt”.11 Rechters vullen deze norm traditioneel in aan de hand van de stand van de techniek, sectornormen en relevante wetgeving. De AI Verordening biedt nu een uiterst gedetailleerd en specifiek normenkader voor de ontwikkeling en het gebruik van AI. Een rechter zal een schending van een concrete verplichting uit de verordening – bijvoorbeeld het niet adequaat testen van trainingsdata op bias, of het verstrekken van onvolledige gebruiksinstructies – vrijwel onvermijdelijk beschouwen als een schending van de maatschappelijke zorgvuldigheidsnorm. Dit verlicht de bewijslast voor een benadeelde aanzienlijk: in plaats van te moeten bewijzen dat een handeling algemeen ‘onzorgvuldig’ was, kan de eiser wijzen op de schending van een specifieke, wettelijk vastgelegde norm. De AI Verordening transformeert hiermee van een instrument voor markttoezicht naar een primair bewijsmiddel in civiele aansprakelijkheidsprocedures.
Bovendien creëren de gedetailleerde documentatie en transparantieplichten voor aanbieders een nieuwe dynamiek in de aansprakelijkheidsverdeling. Een professionele gebruiker die wordt aangesproken voor schade, zal zich verweren door aan te tonen dat hij conform de instructies van de aanbieder heeft gehandeld. De bewijslast voor de juistheid, volledigheid en adequaatheid van die instructies komt dan bij de aanbieder te liggen. De technische documentatie en gebruiksinstructies, verplicht gesteld door de verordening, worden zo het centrale juridische strijdtoneel in geschillen tussen aanbieders en gebruikers.
Hoofdstuk 2: De Verruimde Productaansprakelijkheid voor Software en AI
Parallel aan de ontwikkeling van de AI Verordening heeft de Europese Unie haar kader voor productaansprakelijkheid gemoderniseerd om het geschikt te maken voor het digitale tijdperk. De herziene Richtlijn Productaansprakelijkheid (PLD), Directive (EU) 2024/2853, die de bijna veertig jaar oude Richtlijn 85/374/EEG vervangt, markeert een fundamentele verandering door software en AI systemen expliciet onder een regime van risicoaansprakelijkheid te brengen.13
2.1. De Herziene Richtlijn Productaansprakelijkheid (PLD): Een Paradigmaverschuiving
De nieuwe PLD werd op 18 november 2024 gepubliceerd in het Publicatieblad van de EU en trad in werking op 8 december 2024. Lidstaten hebben tot 9 december 2026 de tijd om de richtlijn om te zetten in nationale wetgeving. De nieuwe regels zullen van toepassing zijn op producten die na die datum op de markt worden gebracht.13 Het doel is een geharmoniseerd en gemoderniseerd kader te scheppen dat consumenten effectieve bescherming biedt tegen schade veroorzaakt door defecte producten, inclusief digitale producten.
2.2. AI als ‘Product’ en de Ontwikkelaar als ‘Producent’
De meest ingrijpende wijziging van de nieuwe PLD is de uitbreiding van de definities van ‘product’ en ‘producent’.
- Product: De definitie van ‘product’ omvat nu expliciet software, inclusief AI systemen en digitale fabricagebestanden (zoals 3D printbestanden). Het is irrelevant of de software stand alone is, geïntegreerd is in een fysiek product, of via de cloud wordt aangeboden.15 Dit geldt ook wanneer software niet wordt ‘verkocht’ maar wordt aangeboden in ruil voor persoonsgegevens, mits dit in het kader van een commerciële activiteit gebeurt.16 Vrije en open source software die buiten een commerciële activiteit wordt ontwikkeld of geleverd, valt in beginsel buiten het toepassingsgebied, tenzij deze is geïntegreerd in een commercieel product.15
- Producent (Fabrikant): De richtlijn stelt de ontwikkelaar of producent van software, inclusief AI systemen, gelijk aan een fabrikant.14 Dit betekent dat zij onderworpen zijn aan hetzelfde regime van risicoaansprakelijkheid als fabrikanten van tastbare goederen.
Deze verandering beëindigt een langdurige juridische onzekerheid over de status van software. Waar software voorheen vaak als een ‘dienst’ werd beschouwd, vallend onder het reguliere contracten of onrechtmatigedaadsrecht dat schuld of toerekenbaarheid vereist, wordt het nu ondubbelzinnig onderworpen aan risicoaansprakelijkheid. Dit versterkt de positie van benadeelden aanzienlijk. Zij hoeven niet langer de vaak complexe en technisch moeilijke bewijslast te dragen van een specifieke ‘fout’ of nalatigheid van de ontwikkelaar. De focus verschuift volledig naar de objectieve (on)veiligheid van het ‘product’ zelf.
2.3. Het ‘Gebrek’ begrip in een AI context
Een product wordt als ‘gebrekkig’ beschouwd wanneer het niet de veiligheid biedt die een persoon gerechtigd is te verwachten. De beoordeling hiervan is afhankelijk van alle omstandigheden van het geval, waaronder 16:
- De presentatie van het product: Dit omvat marketinguitingen, instructies en waarschuwingen. Onjuiste of onvolledige informatie kan bijdragen aan de gebrekkigheid.
- Het redelijkerwijs te verwachten gebruik: De producent moet rekening houden met voorzienbaar, ook onjuist, gebruik van het product.
- Het tijdstip waarop het product in het verkeer is gebracht: De veiligheid wordt beoordeeld naar de normen en de stand van de techniek op dat moment.
- De impact van software updates en zelflerend vermogen: De richtlijn erkent expliciet dat het vermogen van een AI systeem om te leren en te evolueren na het op de markt brengen, een relevante factor is bij de beoordeling van de veiligheid.16 Een substantiële software update kan worden beschouwd als het opnieuw op de markt brengen van een product, waardoor de aansprakelijkheidsklok opnieuw begint te lopen.14
- Naleving van wettelijke veiligheidseisen: Het niet voldoen aan relevante veiligheidseisen, zoals die uit de AI Verordening of de Cyber Resilience Act, is een sterke indicator dat een product gebrekkig is.15
2.4. Bewijslastverlichting en Openbaarmaking van Bewijs
De ‘black box’ aard van complexe AI systemen vormt een aanzienlijke horde voor eisers die een gebrek en het causaal verband met hun schade moeten bewijzen. De nieuwe PLD introduceert twee belangrijke mechanismen om deze informatie asymmetrie te corrigeren:
- Openbaarmaking van bewijs: Een nationale rechter kan de verweerder (de producent) bevelen om relevant bewijsmateriaal waarover hij beschikt, zoals technische documentatie, openbaar te maken aan de eiser. Dit is beperkt tot wat noodzakelijk en proportioneel is om de vordering te onderbouwen.15
- Weerlegbare vermoedens: De richtlijn introduceert een weerlegbaar vermoeden van gebrekkigheid en/of causaal verband onder bepaalde omstandigheden. Als een producent bijvoorbeeld weigert om bewijs openbaar te maken na een rechterlijk bevel, kan de rechter aannemen dat het product gebrekkig was. Een vermoeden van gebrekkigheid kan ook worden aangenomen als de eiser aantoont dat het product niet voldeed aan dwingende veiligheidsvoorschriften, zoals die uit de AI Verordening.13
2.5. Aansprakelijkheid in de Keten
De richtlijn handhaaft en verduidelijkt de ‘cascaderende’ aansprakelijkheid in de toeleveringsketen. De primaire aansprakelijke partij is de fabrikant van het eindproduct of van een gebrekkig onderdeel. Als de fabrikant buiten de EU is gevestigd, kan de importeur of de gemachtigde van de fabrikant worden aangesproken. Als ook zij niet kunnen worden geïdentificeerd, kan elke distributeur in de keten aansprakelijk worden gesteld, tenzij deze de identiteit van zijn leverancier onthult.16 Belangrijk is dat een partij die een product dat al op de markt is substantieel wijzigt buiten de controle van de oorspronkelijke fabrikant, zelf als fabrikant wordt beschouwd en dus volledig aansprakelijk wordt voor de gewijzigde versie.16
De wisselwerking tussen de AI Verordening en de nieuwe PLD is van cruciaal belang. Ze zijn symbiotisch. De gedetailleerde technische en procedurele eisen van de AI Verordening bieden de concrete normen waartegen de ‘veiligheid’ van een AI product onder de PLD zal worden getoetst. Een non conformiteit met de AI Verordening (bv. onvoldoende robuustheid of inadequate cybersecurity) zal door een eiser worden aangevoerd als direct bewijs van een ‘gebrek’ in de zin van de PLD. De uitgebreide technische documentatie die de AI Verordening van aanbieders eist, wordt tegelijkertijd het primaire doelwit van een vordering tot openbaarmaking van bewijs onder de PLD. Dit creëert een krachtig, tweeledig juridisch instrumentarium voor benadeelden.
Hoofdstuk 3: De Rol van de AVG bij Geautomatiseerde Besluitvorming
De Algemene Verordening Gegevensbescherming (AVG), Verordening (EU) 2016/679, is weliswaar een kader voor gegevensbescherming, maar bevat een specifieke bepaling die direct ingrijpt op de inzet van AI voor besluitvorming: Artikel 22. Deze bepaling biedt individuen een fundamentele bescherming tegen de risico’s van besluiten die zonder menselijke tussenkomst worden genomen en significante gevolgen voor hen hebben.
3.1. Reikwijdte van Artikel 22 AVG
Artikel 22(1) AVG stelt een principieel verbod in: “De betrokkene heeft het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft”.17 Voor de toepassing van dit verbod moet aan drie cumulatieve voorwaarden zijn voldaan:
- Een besluit: Er moet sprake zijn van een besluit dat een uitkomst heeft voor het individu.
- Uitsluitend geautomatiseerd: Er mag geen sprake zijn van betekenisvolle menselijke tussenkomst in het besluitvormingsproces. Een puur formele of symbolische controle door een mens (‘rubber stamping’) is onvoldoende.18
- Rechtsgevolgen of aanmerkelijke mate treffen: Het besluit moet juridische effecten hebben (bv. het beëindigen van een contract, het weigeren van een uitkering) of de persoon op een vergelijkbaar significante manier beïnvloeden (bv. het weigeren van een online kredietaanvraag, e recruiting praktijken die een sollicitatie automatisch afwijzen).18
3.2. De Uitzonderingen op het Verbod
Het verbod van Artikel 22(1) is niet absoluut. Artikel 22(2) voorziet in drie limitatieve uitzonderingsgronden waarop een dergelijk besluit wel is toegestaan 17:
a. Het is noodzakelijk voor de totstandkoming of de uitvoering van een overeenkomst tussen de betrokkene en een verwerkingsverantwoordelijke.
b. Het is toegestaan bij een Unierechtelijke of lidstaatrechtelijke bepaling die ook voorziet in passende maatregelen ter bescherming van de rechten, vrijheden en gerechtvaardigde belangen van de betrokkene.
c. Het is gebaseerd op de uitdrukkelijke toestemming van de betrokkene.
3.3. Verplichte Waarborgen
Zelfs als een van de bovenstaande uitzonderingen van toepassing is, is de verwerkingsverantwoordelijke niet vrij om te handelen. Artikel 22(3) verplicht de verantwoordelijke om “passende maatregelen” te treffen ter bescherming van de rechten, vrijheden en gerechtvaardigde belangen van de betrokkene. De verordening specificeert dat dit ten minste het recht op menselijke tussenkomst, het recht om zijn of haar standpunt kenbaar te maken, en het recht om het besluit aan te vechten, omvat.17 Dit impliceert dat er een procedure moet zijn waarin een individu een geautomatiseerd besluit kan laten heroverwegen door een gekwalificeerd persoon met de autoriteit om het besluit te wijzigen.
3.4. Transparantie en het Recht op Uitleg
De transparantieverplichtingen van de AVG (Artikelen 13, 14 en 15) spelen een cruciale rol. Wanneer er sprake is van geautomatiseerde besluitvorming in de zin van Artikel 22, moet de verwerkingsverantwoordelijke de betrokkene voorzien van “nuttige informatie over de onderliggende logica, alsmede het belang en de verwachte gevolgen van die verwerking voor de betrokkene”.21 Recente jurisprudentie van het Hof van Justitie van de EU heeft verduidelijkt dat dit niet betekent dat het algoritme zelf moet worden onthuld, maar dat er een voldoende begrijpelijke uitleg moet worden gegeven over de factoren die tot het besluit hebben geleid en hun respectievelijke gewicht.21
De drempel van “uitsluitend geautomatiseerd” is in de praktijk het meest betwiste element. Organisaties proberen vaak aan de strenge eisen van Artikel 22 te ontsnappen door te argumenteren dat er sprake is van menselijke tussenkomst. Echter, de richtlijnen van toezichthouders en de opkomende jurisprudentie maken duidelijk dat deze tussenkomst ‘betekenisvol’ moet zijn.18 Dit vereist dat de menselijke beoordelaar daadwerkelijk de autoriteit, de competentie en de benodigde informatie heeft om het door de AI voorgestelde besluit te overrulen. Een proces waarbij een menselijke medewerker zonder diepgaande analyse simpelweg de aanbeveling van het systeem volgt, kwalificeert niet als betekenisvolle tussenkomst. Dit dwingt organisaties om hun besluitvormingsprocessen fundamenteel te herontwerpen. Het is niet voldoende om een mens aan het einde van een geautomatiseerde keten te plaatsen; de gehele workflow moet worden geanalyseerd om te bepalen waar de werkelijke beslissingsmacht ligt.
Hoewel de AVG primair gericht is op gegevensbescherming, fungeert Artikel 22 in de praktijk als een krachtig instrument tegen algoritmische discriminatie. Het garandeert procedurele rechten – het recht op menselijke tussenkomst en het recht op uitleg – die individuen in staat stellen om ondoorzichtige, ‘black box’ beslissingen aan te vechten. Dit biedt een laagdrempelige mogelijkheid om een bevooroordeeld of onjuist algoritmisch besluit ter discussie te stellen, zelfs voordat de discriminatie zelf materieel is bewezen. Dit is met name relevant in contexten zoals de platformeconomie, waar algoritmes beslissen over de toewijzing van werk of de beoordeling van prestaties.
Deel II: Toepassing in het Nederlandse Recht
De Europese kaders vormen de bovenlaag van het juridische bouwwerk. De daadwerkelijke aansprakelijkheidsclaims worden echter gevoerd binnen het nationale recht, met name het Burgerlijk Wetboek (BW). Dit deel analyseert hoe de traditionele Nederlandse aansprakelijkheidsgronden – wanprestatie en onrechtmatige daad – worden toegepast op schade door AI en hoe de nieuwe Europese normen doorwerken in de interpretatie van deze nationale bepalingen.
Hoofdstuk 4: Contractuele Aansprakelijkheid (Wanprestatie Art. 6:74 BW)
Wanneer er een contractuele relatie bestaat tussen de partij die schade lijdt en de leverancier van het AI systeem, is wanprestatie de meest voor de hand liggende grondslag voor een vordering. Artikel 6:74 BW bepaalt dat iedere toerekenbare tekortkoming in de nakoming van een verbintenis de schuldenaar verplicht tot schadevergoeding.23
4.1. De Toerekenbare Tekortkoming in de Nakoming
Voor een succesvolle vordering op grond van wanprestatie moet aan vier vereisten worden voldaan:
- Tekortkoming: De prestatie wijkt af van wat de verbintenis vergt. Dit kan niet nakoming, te late nakoming of ondeugdelijke nakoming zijn.25
- Toerekenbaarheid: De tekortkoming moet aan de schuldenaar kunnen worden toegerekend, hetzij op basis van schuld, hetzij op basis van de wet, een rechtshandeling (garantie) of de verkeersopvattingen (art. 6:75 BW).23
- Schade: Er moet schade zijn geleden.
- Causaal verband: De schade moet het gevolg zijn van de tekortkoming.
Voor zover nakoming niet blijvend onmogelijk is, is tevens verzuim vereist, wat doorgaans intreedt na een ingebrekestelling.23
4.2. Non conformiteit van AI systemen
De centrale vraag bij een claim wegens een gebrekkig AI systeem is of er sprake is van een tekortkoming, oftewel: non conformiteit. Wat mag een afnemer van een AI systeem verwachten? Dit wordt bepaald door de inhoud van de overeenkomst, de daarbij behorende specificaties, en de mededelingen van de leverancier. De dwingende eisen uit de AI Verordening spelen hierbij een cruciale rol. Een professionele afnemer mag redelijkerwijs verwachten dat een ingekocht AI systeem voldoet aan de geldende wet en regelgeving. Een hoog risico AI systeem dat niet voldoet aan de eisen van de AI Verordening (bv. ten aanzien van nauwkeurigheid, robuustheid of data governance) is daarom per definitie non conform. De leverancier schiet dan toerekenbaar tekort in de nakoming van zijn contractuele verplichting om een deugdelijk en wettelijk conform product te leveren.9
Deze doorwerking van publiekrechtelijke normen in de contractuele sfeer is een direct gevolg van het Haviltex criterium, dat voorschrijft dat bij de uitleg van een overeenkomst niet alleen naar de letterlijke tekst moet worden gekeken, maar ook naar wat partijen redelijkerwijs van elkaar mochten verwachten.26 De AI Verordening stelt een duidelijke, wettelijke benchmark voor die redelijke verwachtingen. Een leverancier kan zich hier niet aan onttrekken, zelfs niet met afwijkende contractuele bepalingen, aangezien de eisen van de AI Verordening van dwingend recht zijn.
4.3. De Rol van Service Level Agreements (SLA’s) en Garanties
Om discussies over de te verwachten prestaties te voorkomen, is het essentieel om AI specifieke Service Level Agreements (SLA’s) op te stellen. Waar traditionele IT SLA’s zich richten op uptime en responstijden, moeten AI SLA’s ook kwantificeerbare en meetbare prestatie eisen bevatten voor 28:
- Nauwkeurigheid (Accuracy): Een minimale score voor correcte outputs, gemeten tegen een overeengekomen benchmark dataset.
- Bias en Eerlijkheid (Fairness): Metrieken om ongewenste bias tegen bepaalde groepen te meten en te beperken.
- Robuustheid: De mate waarin het systeem correct blijft functioneren onder onverwachte of afwijkende input.
- Verklaarbaarheid (Explainability): De mate waarin het systeem in staat is om inzicht te geven in hoe een bepaalde output tot stand is gekomen.
Een tekortkoming in het behalen van deze contractueel vastgelegde niveaus levert een directe en objectief vast te stellen wanprestatie op.
4.4. Schending van Informatie en Waarschuwingsplichten
Een leverancier heeft een mededelingsplicht over de essentiële eigenschappen van het geleverde product. Voor AI systemen betekent dit een plicht om de afnemer adequaat te informeren over de capaciteiten, de beperkingen, de risico’s en het beoogde gebruiksdomein. Deze plicht wordt direct geconcretiseerd door Artikel 13 van de AI Verordening, dat aanbieders van hoog risico systemen verplicht om uitgebreide en duidelijke gebruiksinstructies te verstrekken.8 Het achterhouden van informatie over bekende zwakheden of het niet waarschuwen voor voorzienbare risico’s is een schending van deze zorgplicht en levert een toerekenbare tekortkoming op.
Hoofdstuk 5: Buitencontractuele Aansprakelijkheid (Onrechtmatige Daad Art. 6:162 BW)
Indien er geen contractuele relatie is tussen de benadeelde en de veroorzaker van de schade (bijvoorbeeld een eindgebruiker die schade lijdt door een AI systeem van een derde partij), of als de schade buiten de scope van het contract valt, biedt de onrechtmatige daad (art. 6:162 BW) een grondslag voor aansprakelijkheid.
5.1. De Vijf Vereisten
Voor aansprakelijkheid op grond van onrechtmatige daad moet voldaan zijn aan vijf vereisten 11:
- Onrechtmatigheid: Er moet sprake zijn van een inbreuk op een recht, een doen of nalaten in strijd met een wettelijke plicht, of een doen of nalaten in strijd met de maatschappelijke zorgvuldigheid.
- Toerekenbaarheid: De daad moet aan de dader kunnen worden toegerekend op grond van schuld of een oorzaak die krachtens de wet of verkeersopvattingen voor zijn rekening komt.
- Schade: Er moet schade zijn.
- Causaal verband: Er moet een causaal verband zijn tussen de onrechtmatige daad en de schade (‘dientengevolge’).
- Relativiteit (art. 6:163 BW): De geschonden norm moet strekken tot bescherming tegen de schade zoals de benadeelde die heeft geleden.
5.2. Invulling van de Zorgvuldigheidsnorm
De meest relevante onrechtmatigheidsgrond in de context van AI is de schending van de maatschappelijke zorgvuldigheidsnorm. Zoals uiteengezet in Hoofdstuk 1, bieden de gedetailleerde verplichtingen uit de AI Verordening en de AVG een concrete invulling van deze open norm.12 Het niet naleven van de verplichtingen met betrekking tot risicomanagement, data governance, menselijk toezicht of transparantie zal door een rechter worden gezien als een schending van de zorgvuldigheid die van een redelijk handelende aanbieder of gebruiker van AI mag worden verwacht. De klassieke criteria uit het Kelderluik arrest (HR 5 november 1965) blijven relevant: de waarschijnlijkheid van schade, de ernst van de te verwachten schade, de bezwaarlijkheid van het nemen van voorzorgsmaatregelen, en de mate van waarschijnlijkheid dat het slachtoffer onvoorzichtig zal zijn.30 De AI Verordening kan worden gezien als een door de wetgever gecodificeerde set van voorzorgsmaatregelen voor de specifieke risico’s van AI.
Een interessante dynamiek is dat de zorgvuldigheidsnorm dynamisch is. Naarmate AI technologie zich verder ontwikkelt en de effectiviteit en veiligheid van bepaalde systemen worden bewezen, kan de professionele standaard evolueren. In sectoren als de medische diagnostiek, waar AI systemen in sommige gevallen al beter presteren dan menselijke experts, kan een punt worden bereikt waarop het niet gebruiken van een dergelijk superieur hulpmiddel als onzorgvuldig kan worden beschouwd.33 Dit creëert een potentiële ‘plicht tot innovatie’, waarbij professionals en organisaties continu moeten evalueren of hun huidige werkwijzen nog voldoen aan de ‘state of the art’.
5.3. Toerekening van de ‘Fout’ van de AI
Een centrale uitdaging bij autonome AI is de vraag aan wie de ‘fout’ van het systeem kan worden toegerekend. Aangezien het AI systeem zelf geen rechtspersoonlijkheid heeft, moet de aansprakelijkheid worden gevestigd bij een van de menselijke of juridische actoren in de keten:
- De Aanbieder (Ontwikkelaar): Is primair aansprakelijk voor schade die voortvloeit uit ontwerp of ontwikkelingsfouten. Dit omvat het gebruik van bevooroordeelde trainingsdata, het onvoldoende testen van het model, het niet implementeren van adequate robuustheids en cybersecuritymaatregelen, of het verstrekken van onjuiste of onvolledige informatie over de werking en beperkingen van het systeem.
- De Gebruiker (Deployer): Is aansprakelijk voor schade die voortvloeit uit onzorgvuldig gebruik. Dit kan het inzetten van het systeem voor een doel waarvoor het niet is ontworpen, het negeren van de output van het systeem zonder deugdelijke reden, het onvoldoende organiseren van menselijk toezicht, of het invoeren van incorrecte of onvolledige data.
5.4. Risicoaansprakelijkheid voor Hulpzaken (Art. 6:173 BW)
Artikel 6:173 BW vestigt een risicoaansprakelijkheid voor de bezitter van een roerende zaak waarvan bekend is dat zij, indien zij niet voldoet aan de eisen die men daaraan in de gegeven omstandigheden mag stellen, een bijzonder gevaar voor personen of zaken oplevert. Er is juridisch debat over de vraag of software als een ‘zaak’ in de zin van dit artikel kan worden beschouwd. De traditionele opvatting is dat software, als onstoffelijk goed, hier niet onder valt. Echter, de kwalificatie van software als ‘product’ onder de nieuwe PLD zou de rechterlijke interpretatie kunnen beïnvloeden en de deur kunnen openen voor een analoge toepassing van deze risicoaansprakelijkheid op de gebruiker van gebrekkige software.
Hoofdstuk 6: Integratie en Samenloop van Aansprakelijkheidsregimes
Een benadeelde partij staat vaak niet één, maar meerdere juridische wegen ter beschikking. De keuze voor een bepaalde grondslag heeft strategische implicaties voor de bewijslast, de omvang van de schadevergoeding en de mogelijke verweren.
6.1. Analyse van de Samenloop
De drie belangrijkste regimes – productaansprakelijkheid, onrechtmatige daad en wanprestatie – kunnen naast elkaar bestaan en worden ingeroepen.
- Een patiënt die schade lijdt door een foutief advies van een diagnostisch AI systeem kan de fabrikant aanspreken op basis van productaansprakelijkheid (gebrekkig product) en het ziekenhuis op basis van wanprestatie (schending van de behandelingsovereenkomst, art. 7:446 BW e.v.). Het ziekenhuis kan op zijn beurt de fabrikant in vrijwaring oproepen.
- Een consument wiens slimme thermostaat door een softwarefout oververhit raakt en brand veroorzaakt, kan de fabrikant aanspreken op basis van productaansprakelijkheid. Als de software door een derde partij wordt geleverd, kan deze op basis van onrechtmatige daad worden aangesproken.
6.2. Strategische Overwegingen voor de Eiser
De keuze van de eiser hangt af van de specifieke feiten van de casus:
- Productaansprakelijkheid (art. 6:185 BW e.v. / nieuwe PLD): Dit is de meest aantrekkelijke route bij personenschade of zaakschade in de privésfeer. Het grote voordeel is de risicoaansprakelijkheid (geen schuld of toerekenbaarheid te bewijzen) en de nieuwe mechanismen voor bewijslastverlichting.15 De nadelen zijn de beperking tot specifieke schadesoorten (zuivere vermogensschade is uitgesloten), de franchise van €500 voor zaakschade (onder de huidige wet), en de absolute vervaltermijn van tien jaar na het in het verkeer brengen van het product.35
- Onrechtmatige Daad (art. 6:162 BW): Deze grondslag heeft de breedste reikwijdte en dekt alle soorten schade, inclusief zuivere vermogensschade. Het nadeel is de zwaardere bewijslast voor de eiser, die onrechtmatigheid en toerekenbaarheid moet aantonen. Echter, zoals geanalyseerd, wordt deze bewijslast aanzienlijk verlicht door de concrete normen uit de AI Verordening.
- Wanprestatie (art. 6:74 BW): Deze route is alleen beschikbaar als er een contractuele relatie is. Het voordeel is dat de verplichtingen vaak concreet zijn vastgelegd in de overeenkomst en bijbehorende SLA’s, wat de bewijslevering van een tekortkoming kan vergemakkelijken.
6.3. De Toekomst: De AI Aansprakelijkheidsrichtlijn (AILD)
Het is belangrijk op te merken dat de Europese Commissie ook een voorstel heeft gedaan voor een separate AI Aansprakelijkheidsrichtlijn (AILD). Dit voorstel, waarvan de politieke toekomst nog onzeker is, beoogt de bewijspositie van eisers in niet contractuele, op schuld gebaseerde claims verder te versterken.38 Het introduceert een weerlegbaar vermoeden van een
causaal verband tussen de fout van een aanbieder of gebruiker en de door het AI systeem veroorzaakte output (of het uitblijven daarvan).40 Als dit voorstel wordt aangenomen, zal het de drempel voor het succesvol claimen van schadevergoeding wegens onrechtmatige daad verder verlagen.
Deel III: Risicoanalyse en Mitigatie in de Praktijk
De abstracte juridische kaders krijgen pas betekenis wanneer ze worden toegepast op concrete situaties. Dit deel analyseert de specifieke aansprakelijkheidsrisico’s voor drie relevante casustypen en biedt een gesynthetiseerd overzicht van de aansprakelijkheidsgronden. Vervolgens worden concrete contractuele en organisatorische maatregelen besproken om deze risico’s te beheersen.
Hoofdstuk 7: Analyse per Casustype
7.1. Medische AI (Diagnostiek en Behandeling)
De zorgsector is een van de meest veelbelovende, maar ook meest risicovolle toepassingsgebieden voor AI. De aansprakelijkheid is hier complex en verdeeld over meerdere actoren.
- De Aansprakelijkheidsketen: De juridische realiteit is een keten van verantwoordelijkheden.
- De Fabrikant: Medische AI software die wordt ingezet voor diagnose of behandeling kwalificeert doorgaans als een medisch hulpmiddel onder de Medical Device Regulation (MDR, Verordening (EU) 2017/745).41 Dergelijke software valt vaak in een hogere risicoklasse (minimaal Klasse IIa onder Regel 11 van de MDR).42 De fabrikant is onder de MDR en de nieuwe PLD productaansprakelijk voor een gebrek in het systeem.
- De Zorginstelling/Arts: De zorginstelling (het ziekenhuis) is contractueel aansprakelijk jegens de patiënt op basis van de geneeskundige behandelingsovereenkomst (WGBO, Titel 7, Afdeling 5 van Boek 7 BW). De centrale norm hier is die van ‘goed hulpverlenerschap’ (art. 7:453 BW), wat inhoudt dat de hulpverlener moet handelen met de zorgvuldigheid die van een redelijk bekwaam en redelijk handelend vakgenoot mag worden verwacht.33
- De Rol van de Arts: De inzet van AI ontslaat de arts niet van zijn professionele verantwoordelijkheid. De arts blijft de ‘learned intermediary’ die de eindbeslissing neemt. Goed hulpverlenerschap bij het gebruik van AI vereist 33:
- Kritische Beoordeling: De arts mag niet blindelings op de output van de AI vertrouwen, maar moet deze gebruiken als een ondersteunend hulpmiddel en de uitkomst kritisch evalueren in het licht van zijn eigen kennis en de klinische context van de patiënt.
- Kennis van het Systeem: De arts moet de bedoelde toepassing, de capaciteiten en de beperkingen van het AI systeem kennen.
- Informatieplicht en Toestemming: De arts moet de patiënt op een begrijpelijke manier informeren over de inzet van AI in zijn diagnose of behandeling en hiervoor toestemming verkrijgen (informed consent).
- Documentatie: De beslissing om de AI output te volgen (of ervan af te wijken) moet deugdelijk worden gemotiveerd en vastgelegd in het patiëntendossier.
- Risico’s en Aansprakelijkheidsverdeling: Als een fout negatieve diagnose leidt tot schade, kan zowel de fabrikant (wegens een gebrekkig product) als de arts/zorginstelling (wegens schending van de zorgplicht) aansprakelijk zijn. De uiteindelijke verdeling hangt af van de oorzaak: lag het aan een inherente fout in het algoritme, of aan een onzorgvuldige interpretatie of toepassing door de arts?
7.2. Generatieve AI
Generatieve AI (GenAI), zoals grote taalmodellen (LLM’s) en beeldgeneratoren, creëert unieke aansprakelijkheidsrisico’s die voornamelijk liggen op het vlak van intellectuele eigendom en misleidende informatie.
- Auteursrechtinbreuk:
- Input: GenAI modellen worden getraind op enorme hoeveelheden data, vaak afkomstig van het internet, die auteursrechtelijk beschermde werken kunnen bevatten. De rechtmatigheid van dit ‘scrapen’ voor trainingsdoeleinden is onderwerp van intensief juridisch debat en lopende rechtszaken.44 De AI Verordening verplicht aanbieders van General Purpose AI (GPAI) modellen om een gedetailleerde samenvatting van de voor training gebruikte content te publiceren, wat de transparantie hierover vergroot.2
- Output: De door GenAI gegenereerde output kan (delen van) beschermde werken reproduceren of daarop voortborduren, wat een auteursrechtinbreuk kan opleveren. De partij die de inbreukmakende output publiceert of commercieel gebruikt, is in beginsel direct aansprakelijk voor deze inbreuk.46 De aansprakelijkheid van de aanbieder van het GenAI model is complexer en valt onder de regels voor indirecte of secundaire aansprakelijkheid, waarbij de vraag centraal staat of de aanbieder voldoende heeft gedaan om inbreuken te voorkomen.47
- Misleidende Output en Oneerlijke Handelspraktijken: GenAI systemen staan bekend om het genereren van feitelijk onjuiste maar plausibel klinkende informatie (‘hallucinaties’). Wanneer dergelijke output wordt gebruikt in een commerciële context (bv. in marketing, productbeschrijvingen of advies), kan dit leiden tot misleiding van consumenten. Dit kan een onrechtmatige daad opleveren, en in de business to consumer relatie een oneerlijke handelspraktijk (art. 6:193a e.v. BW).48 De AI Verordening adresseert dit risico door manipulatieve en misleidende technieken expliciet te verbieden als deze tot aanzienlijke schade kunnen leiden.4
7.3. Algoritmische Besluitvorming in de Platformeconomie
In de platformeconomie (bv. voor maaltijdbezorging of taxidiensten) en bij online diensten (bv. recruitmentplatforms) worden algoritmes ingezet voor cruciale beslissingen zoals de toewijzing van opdrachten, de beoordeling van prestaties, en de selectie van kandidaten. Dit brengt significante risico’s op discriminatie en willekeur met zich mee.
- Discriminatie en Bias: Algoritmes kunnen bestaande maatschappelijke vooroordelen, die aanwezig zijn in de trainingsdata, reproduceren en versterken. Dit kan leiden tot indirecte discriminatie, waarbij een ogenschijnlijk neutraal criterium (bv. postcode, opleidingsniveau) in de praktijk een bepaalde groep met een beschermd kenmerk (bv. etniciteit, geslacht) onevenredig benadeelt.51 Dergelijke discriminatie is verboden onder de Algemene wet gelijke behandeling (Awgb) en andere specifieke anti discriminatiewetgeving, en vormt een onrechtmatige daad.54 De Toeslagenaffaire in Nederland is een schrijnend voorbeeld van hoe risicoprofilering op basis van onder meer nationaliteit tot systematische discriminatie leidde.56
- De Rol van Art. 22 AVG: Beslissingen over toegang tot werk of deactivering van een account op een platform kunnen worden gezien als besluiten die een persoon ‘in aanmerkelijke mate treffen’. Als deze uitsluitend geautomatiseerd worden genomen, biedt Artikel 22 AVG de betrokkene het recht op menselijke tussenkomst en de mogelijkheid om het besluit aan te vechten.19
- Bewijslast: Het aantonen van algoritmische discriminatie is voor een individu uiterst lastig vanwege de ondoorzichtigheid van de systemen. De transparantieverplichtingen uit de AI Verordening (voor hoog risico systemen zoals in recruitment) en de AVG zijn daarom essentieel om de bewijspositie van benadeelden te versterken. De plicht om ‘nuttige informatie over de onderliggende logica’ te verstrekken, kan inzicht geven in de gebruikte criteria en helpen om een vermoeden van discriminatie te onderbouwen.22
Hoofdstuk 8: Overzichtstabel Aansprakelijkheidsgronden
De analyse van de verschillende juridische kaders en hun toepassing leidt tot een complex web van mogelijke aansprakelijkheidsroutes. De onderstaande tabel synthetiseert deze informatie en dient als een praktisch overzicht voor juridische professionals om snel de relevante grondslagen, vereisten en mitigatiestrategieën te identificeren.
| Grondslag | Relevante Wetgeving | Toepassingsdrempel / Kernvereiste | Primair Aansprakelijke Partij | Belangrijkste Verweer | Contractuele Mitigatiemaatregel | Organisatorische Mitigatiemaatregel |
| Wanprestatie | Art. 6:74 BW | Toerekenbare tekortkoming in de nakoming van een contractuele verbintenis. | Contractspartij (doorgaans de AI leverancier). | Overmacht (art. 6:75 BW); tekortkoming niet toerekenbaar. | Duidelijke, meetbare Service Level Agreements (SLA’s); expliciete garanties. | Robuuste acceptatietestprocedures; doorlopende monitoring van prestaties. |
| Onrechtmatige Daad | Art. 6:162 BW; AI Verordening; AVG | Schending van een wettelijke plicht of van de maatschappelijke zorgvuldigheid. | Iedereen die onrechtmatig handelt (aanbieder, gebruiker, etc.). | Rechtvaardigingsgrond; geen toerekenbaarheid; relativiteit (art. 6:163 BW). | Vrijwaringsclausules voor claims van derden. | AI Governance Framework; risico assessments; adequate training van personeel. |
| Productaansprakelijkheid | Art. 6:185 BW e.v.; Herziene PLD (2024/2853) | Een ‘gebrekkig’ product (incl. software/AI) veroorzaakt schade. | Producent/fabrikant, importeur, of distributeur. | Ontwikkelingsrisico exceptie (state of the art); gebrek niet aanwezig bij in verkeer brengen. | Aansprakelijkheidsbeperking (nietig t.a.v. consument); duidelijke waarschuwingen. | Post market surveillance; robuust kwaliteitsmanagementsysteem (QMS). |
| Schending Art. 22 AVG | Art. 22 AVG | Uitsluitend geautomatiseerd besluit met rechtsgevolg of aanmerkelijk gevolg. | De verwerkingsverantwoordelijke. | Besluit is niet ‘uitsluitend’ geautomatiseerd (betekenisvolle menselijke tussenkomst). | Data Processing Agreement (DPA) die rollen en verantwoordelijkheden vastlegt. | Implementatie van een procedure voor menselijke herbeoordeling; DPIA uitvoeren. |
Hoofdstuk 9: Contractuele en Organisatorische Maatregelen
Effectief beheer van AI gerelateerde aansprakelijkheidsrisico’s vereist een proactieve en gelaagde aanpak, die zowel juridische instrumenten (contracten) als interne organisatorische maatregelen (governance) omvat.
9.1. Best Practices voor AI Contracten
Bij de inkoop of levering van AI systemen moeten standaard IT contracten worden aangevuld met specifieke, robuuste clausules die de unieke risico’s van AI adresseren.
- Definities: Het is cruciaal om termen als ‘AI systeem’, ‘Input Data’, ‘Output Data’ en ‘Trainingsdata’ nauwkeurig te definiëren om ambiguïteit te voorkomen.58
- Aansprakelijkheid en Vrijwaring (Indemnification): De contractuele verdeling van aansprakelijkheid is van het grootste belang. Leveranciers zullen hun aansprakelijkheid proberen te beperken (exonereren), terwijl afnemers juist uitgebreide garanties en vrijwaringen wensen.59 Essentiële elementen zijn:
- Een vrijwaring van de leverancier voor claims van derden wegens inbreuk op intellectuele eigendomsrechten door het AI systeem of de output ervan.61
- Een vrijwaring voor schendingen van databeschermingswetgeving of vertrouwelijkheidsplichten.
- Duidelijke afspraken over de aansprakelijkheid voor schade veroorzaakt door onjuiste of bevooroordeelde output. Aansprakelijkheidsbeperkingen moeten zorgvuldig worden getoetst aan de grenzen van dwingend recht (bv. de PLD).
- Data Kwaliteit en Gebruiksrechten: Het contract moet de verantwoordelijkheden voor data helder beleggen.
- De afnemer moet garanderen dat de door hem aangeleverde inputdata rechtmatig is verkregen en geschikt is voor het beoogde doel.62
- De leverancier moet contractueel worden beperkt in het gebruik van klantdata. Een cruciale bepaling is een verbod op het gebruik van (vertrouwelijke) klantdata voor het trainen of verbeteren van de algemene AI modellen van de leverancier, tenzij hiervoor expliciete, specifieke toestemming is gegeven.61
- Prestatie, Testen en Acceptatie: Om wanprestatie te kunnen vaststellen, moeten de prestatie eisen objectief en meetbaar zijn. Het contract moet een gedetailleerde acceptatieprocedure bevatten waarin het AI systeem wordt getest op de overeengekomen criteria voor nauwkeurigheid, bias en robuustheid.58
- Audit en Transparantierechten: Gezien de ‘black box’ aard van veel AI systemen, moet de afnemer contractueel het recht bedingen om de werking, compliance en dataverwerking van het systeem te (laten) auditen. Dit kan het recht omvatten om technische documentatie in te zien, testresultaten op te vragen of inspecties uit te voeren.60
- Exit strategie en Continuïteit: Het contract moet voorzien in een duidelijke exit strategie. Dit omvat afspraken over de teruggave of vernietiging van data, de overdraagbaarheid van met klantdata getrainde modellen (eventueel via een escrow regeling), en de medewerking van de leverancier bij een transitie naar een ander systeem om vendor lock in te voorkomen.60
9.2. Het Opzetten van een AI Governance Framework
Naast contractuele maatregelen is een robuust intern governance kader onmisbaar voor het beheersen van AI risico’s. Dit is een gestructureerde aanpak om ervoor te zorgen dat AI op een verantwoorde, ethische en juridisch conforme wijze wordt ingezet.66
- Vaststellen van Principes en Beleid: De organisatie moet duidelijke principes en een intern beleid voor AI gebruik vaststellen. Deze principes moeten ten minste transparantie, eerlijkheid (fairness), accountability en privacy by design omvatten.68
- Rollen en Verantwoordelijkheden: Er moet een duidelijke governancestructuur worden opgezet met heldere rollen en verantwoordelijkheden. Dit omvat vaak de oprichting van een multidisciplinair AI governanceteam of raad (met vertegenwoordigers uit legal, compliance, IT, data science en de business) en het aanwijzen van een C level executive (bv. een Chief AI Officer) als eindverantwoordelijke.69
- Risico assessment en Monitoring: Er moet een gestandaardiseerd proces worden geïmplementeerd voor het identificeren, beoordelen en mitigeren van risico’s gedurende de gehele levenscyclus van een AI systeem – van inkoop en ontwikkeling tot implementatie en buitengebruikstelling. Voor systemen die persoonsgegevens verwerken of impact hebben op grondrechten, is het uitvoeren van een Data Protection Impact Assessment (DPIA) en/of een Fundamental Rights Impact Assessment (FRIA) essentieel.68
- Documentatie en Training: Alle AI systemen die binnen de organisatie worden gebruikt, moeten worden geïnventariseerd en gedocumenteerd in een register. Daarnaast is het cruciaal om medewerkers op alle niveaus te trainen in de basisprincipes van AI, de risico’s en het interne beleid. Deze ‘AI geletterdheid’ is een expliciete vereiste onder de AI Verordening voor organisaties die AI gebruiken.9
Deel IV: Aanbevelingen en Instrumenten
De voorgaande analyse van het complexe juridische landschap en de risico’s van AI leidt tot een reeks concrete aanbevelingen en instrumenten voor juridische professionals die in de praktijk met deze materie te maken hebben. Dit deel biedt gerichte adviezen en praktische hulpmiddelen in de vorm van voorbeeldclausules en checklists.
Hoofdstuk 10: Praktische Aanbevelingen voor Juridische Professionals
De implicaties van het nieuwe AI aansprakelijkheidsregime vereisen een aangepaste aanpak van verschillende juridische professionals.
- Voor Advocaten (Litigation):
- Bijstaan van Eisers: Maak strategisch gebruik van de samenloop van aansprakelijkheidsregimes. Overweeg bij personenschade of zaakschade in de privésfeer primair de route van productaansprakelijkheid vanwege de risicoaansprakelijkheid en de nieuwe bewijsvermoedens. Gebruik een schending van de AI Verordening als direct bewijs voor zowel de ‘onrechtmatigheid’ (art. 6:162 BW) als het ‘gebrek’ (art. 6:185 BW). Maak maximaal gebruik van de vordering tot openbaarmaking van bewijs onder de nieuwe PLD om de technische documentatie van de aanbieder te verkrijgen.
- Bijstaan van Gedaagden: Focus het verweer op het aantonen van compliance met de AI Verordening en andere relevante normen. Documenteer de gehele levenscyclus van het AI systeem zorgvuldig. In B2B relaties, analyseer de contractuele vrijwaringen en roep, indien mogelijk, de leverancier in de toeleveringsketen in vrijwaring op. Bij claims onder Artikel 22 AVG, onderbouw dat er sprake was van ‘betekenisvolle menselijke tussenkomst’.
- Voor Bedrijfsjuristen (General Counsel):
- Contractonderhandeling: Behandel AI contracten niet als standaard IT overeenkomsten. Focus op de specifieke clausules zoals uiteengezet in Hoofdstuk 9.1, met name op de verdeling van aansprakelijkheid, IP vrijwaringen, en beperkingen op het gebruik van bedrijfsdata voor trainingsdoeleinden. Wees terughoudend met het accepteren van vergaande exoneraties van de leverancier.
- Due Diligence: Implementeer een grondig due diligence proces voor de inkoop van AI systemen. Gebruik de checklist in Bijlage II om de compliance, technische robuustheid en ethische aspecten van de leverancier en diens product te beoordelen.
- Governance: Wees de drijvende kracht achter de oprichting van een intern AI governance raamwerk. Zorg voor C level betrokkenheid en een multidisciplinaire aanpak om juridische, ethische en technische risico’s integraal te beheren.
- Voor Compliance Officers:
- Monitoring en Auditing: Ontwikkel een auditprogramma om de naleving van de AI Verordening, de AVG en het interne AI beleid te controleren. Dit omvat het periodiek reviewen van de documentatie van hoog risico systemen, het testen op bias en het controleren van de processen voor menselijk toezicht.
- Register: Houd een up to date register bij van alle AI systemen die binnen de organisatie worden gebruikt, inclusief hun risicoclassificatie, doel, data bronnen en de verantwoordelijke ‘owner’.
- Rapportage: Rapporteer periodiek aan het management en de raad van bestuur over de AI gerelateerde risico’s en de status van de mitigatiemaatregelen.
Bijlage I: Voorbeeldclausules voor AI Contracten
De volgende modelclausules zijn bedoeld als illustratie en startpunt voor contractonderhandelingen. Zij moeten altijd worden aangepast aan de specifieke context van de transactie.
VOORBEELDCLAUSULE 1: DEFINITIES
“AI Systeem“: betekent de door Leverancier geleverde software, algoritmes en modellen die gebruikmaken van technieken zoals machine learning, logica en kennisgebaseerde systemen, of statistische benaderingen, zoals nader gespecificeerd in Bijlage X.
“Inputdata“: betekent alle data, informatie of materialen die door of namens de Klant aan het AI Systeem worden verstrekt voor verwerking.
“Outputdata“: betekent de data, analyses, voorspellingen of andere content die door het AI Systeem wordt gegenereerd op basis van de verwerking van de Inputdata.
VOORBEELDCLAUSULE 2: COMPLIANCE EN GEBRUIK
“2.1 Naleving Wetgeving. Leverancier garandeert dat het AI Systeem, op het moment van levering en gedurende de looptijd van deze Overeenkomst, voldoet aan alle toepasselijke wet en regelgeving, waaronder, maar niet beperkt tot, de AI Verordening (EU) 2024/1689 en de Algemene Verordening Gegevensbescherming (EU) 2016/679.
“2.2 Gebruiksinstructies. Klant zal het AI Systeem gebruiken in overeenstemming met de door Leverancier verstrekte schriftelijke documentatie en gebruiksinstructies. Leverancier garandeert dat deze documentatie en instructies volledig, accuraat en in overeenstemming met de vereisten van de AI Verordening zijn.”
VOORBEELDCLAUSULE 3: DATA GEBRUIK EN TRAINING
“3.1 Eigendom. Klant behoudt te allen tijde alle eigendomsrechten op de Inputdata en de Outputdata. Leverancier verkrijgt geen enkel recht op de Inputdata of Outputdata, anders dan een beperkt, niet exclusief en niet overdraagbaar recht om deze data te verwerken voor het uitsluitende doel van het verlenen van de diensten onder deze Overeenkomst aan de Klant.
“3.2 Trainingsverbod. Het is Leverancier uitdrukkelijk verboden om Inputdata of Outputdata te gebruiken voor het trainen, valideren, verbeteren of anderszins ontwikkelen van enig ander AI systeem of model, inclusief de algemene, onderliggende modellen van Leverancier, zonder voorafgaande, specifieke en schriftelijke toestemming van de Klant.” 61
VOORBEELDCLAUSULE 4: AANSPRAKELIJKHEID EN VRIJWARING
“4.1 Vrijwaring door Leverancier. Leverancier zal de Klant vrijwaren, verdedigen en schadeloosstellen tegen alle claims, vorderingen, schade, verliezen, kosten en uitgaven (inclusief redelijke advocaatkosten) die voortvloeien uit of verband houden met: (i) een claim van een derde dat het AI Systeem of de door de Klant conform de instructies gebruikte Outputdata inbreuk maakt op de intellectuele eigendomsrechten van die derde; (ii) een schending door Leverancier van toepasselijke databeschermingswetgeving; (iii) schade veroorzaakt door een aantoonbaar gebrek in het ontwerp of de ontwikkeling van het AI Systeem.” 60
“4.2 Aansprakelijkheid Klant. Klant is aansprakelijk voor schade die voortvloeit uit (i) de onrechtmatigheid of onjuistheid van de door haar verstrekte Inputdata; of (ii) het gebruik van het AI Systeem op een wijze die in strijd is met de door Leverancier verstrekte gebruiksinstructies.”
VOORBEELDCLAUSULE 5: AUDIT EN TRANSPARANTIE
“5.1 Auditrecht. Klant heeft het recht om, na een redelijke kennisgeving en niet vaker dan eenmaal per jaar (tenzij er een gegrond vermoeden van een inbreuk bestaat), door een onafhankelijke, tot geheimhouding verplichte derde, een audit uit te laten voeren naar de naleving door Leverancier van zijn verplichtingen onder deze Overeenkomst, met inbegrip van de verplichtingen inzake gegevensbeveiliging, vertrouwelijkheid en de AI Verordening. Leverancier zal zijn volledige medewerking verlenen aan een dergelijke audit.
“5.2 Informatieverzoek. Op schriftelijk verzoek van de Klant zal Leverancier binnen een redelijke termijn informatie verstrekken over de architectuur, de gebruikte trainingsmethodologieën (zonder bedrijfsgeheimen te onthullen), en de resultaten van uitgevoerde tests met betrekking tot de nauwkeurigheid en bias van het AI Systeem.” 61
Bijlage II: Checklist voor AI Governance en Procurement
Deze checklist biedt een praktisch stappenplan voor organisaties bij de inkoop en implementatie van AI systemen.
FASE 1: STRATEGIE EN DUE DILIGENCE
- [ ] Probleemdefinitie: Definieer duidelijk het zakelijke probleem dat met AI moet worden opgelost. Is AI de juiste oplossing? 71
- [ ] Multidisciplinair Team: Stel een team samen met vertegenwoordigers van legal, IT, data science, compliance en de betreffende business unit. 70
- [ ] Risico en Impactanalyse: Voer een voorlopige risicoanalyse uit.
- Valt het systeem waarschijnlijk in de categorie ‘hoog risico’ onder de AI Verordening?
- Worden er persoonsgegevens verwerkt? Zo ja, is een DPIA vereist?
- Zijn er risico’s voor grondrechten (bv. non discriminatie, privacy)?
- [ ] Leveranciers Due Diligence: Vraag potentiële leveranciers om informatie over 62:
- Hun AI governance beleid en ethische principes.
- De herkomst en rechtmatigheid van hun trainingsdata.
- De maatregelen die zijn genomen om bias te identificeren en te mitigeren.
- Hun aanpak van dataveiligheid en cybersecurity.
- De mate van transparantie en verklaarbaarheid van het model.
- Hun conformiteitsstatus met de AI Verordening.
FASE 2: CONTRACTERING
- [ ] Duidelijke Scope: Zorg dat de functionaliteiten, beperkingen en het beoogde gebruik van het AI systeem nauwkeurig zijn omschreven.
- [ ] Data Clausules: Zorg voor robuuste clausules over eigendom, gebruiksrechten en een expliciet verbod op hergebruik van data voor training (zie Bijlage I).
- [ ] Prestatie en SLA’s: Definieer meetbare KPI’s voor nauwkeurigheid, bias, en robuustheid.
- [ ] Aansprakelijkheid en Vrijwaring: Onderhandel een evenwichtige verdeling van aansprakelijkheid en zorg voor adequate vrijwaringen (zie Bijlage I).
- [ ] Auditrechten: Beding expliciete auditrechten om compliance en prestaties te kunnen verifiëren.
- [ ] Intellectueel Eigendom: Regel het eigendom en de gebruiksrechten van de output die door de AI wordt gegenereerd.
- [ ] Exit strategie: Zorg voor duidelijke afspraken over dataportabiliteit en de implementatie om vendor lock in te vermijden.
FASE 3: IMPLEMENTATIE EN MONITORING
- [ ] Acceptatietesten: Voer grondige testen uit voordat het systeem live gaat, getoetst aan de contractuele prestatie eisen.
- [ ] Integratie in Governance: Integreer het nieuwe systeem in het interne AI register en het algehele governance kader.
- [ ] Training van Medewerkers: Zorg voor adequate training van alle gebruikers en toezichthouders over de werking, risico’s en correcte toepassing van het systeem. 9
- [ ] Proces voor Menselijk Toezicht: Implementeer een duidelijk en effectief proces voor menselijk toezicht, waarbij de verantwoordelijke personen de autoriteit en competentie hebben om besluiten te overrulen.
- [ ] Continue Monitoring: Monitor de prestaties van het AI systeem continu op ‘model drift’, onverwachte bias en veiligheidsincidenten. 64
- [ ] Periodieke Evaluatie: Evalueer periodiek (bv. jaarlijks) de risico’s, de effectiviteit en de compliance van het AI systeem en pas de governance maatregelen waar nodig aan. 69
Geciteerd werk
- The EU AI Act: What Businesses Need To Know | Insights | Skadden …, geopend op augustus 15, 2025, https://www.skadden.com/insights/publications/2024/06/quarterly insights/the eu ai act what businesses need to know
- EU AI Act: first regulation on artificial intelligence | Topics European Parliament, geopend op augustus 15, 2025, https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu ai act first regulation on artificial intelligence
- AI Act | Shaping Europe’s digital future European Union, geopend op augustus 15, 2025, https://digital strategy.ec.europa.eu/en/policies/regulatory framework ai
- Article 5: Prohibited AI Practices | EU Artificial Intelligence Act, geopend op augustus 15, 2025, https://artificialintelligenceact.eu/article/5/
- Navigating Prohibited Practices under the AI Act before the deadline Holistic AI, geopend op augustus 15, 2025, https://www.holisticai.com/blog/prohibitions under eu ai act
- Article 50: Transparency Obligations for Providers and Deployers of Certain AI Systems | EU Artificial Intelligence Act, geopend op augustus 15, 2025, https://artificialintelligenceact.eu/article/50/
- Key Issue 5: Transparency Obligations EU AI Act, geopend op augustus 15, 2025, https://www.euaiact.com/key issue/5
- Article 13: Transparency and Provision of Information to Deployers EU AI Act, geopend op augustus 15, 2025, https://artificialintelligenceact.eu/article/13/
- AI Act comes into effect: work to be done for developers and users, geopend op augustus 15, 2025, https://www.autoriteitpersoonsgegevens.nl/en/current/ai act comes into effect work to be done for developers and users
- Zooming in on AI – #11: EU AI Act – What are the obligations for limited risk AI systems?, geopend op augustus 15, 2025, https://www.aoshearman.com/en/insights/ao shearman on tech/zooming in on ai 11 eu ai act what are the obligations for the limited risk ai systems
- Onrechtmatige daad de eisen AMS Advocaten, geopend op augustus 15, 2025, https://www.amsadvocaten.nl/de rechtsgebieden/verbintenissenrecht/onrechtmatige daad/
- Aansprakelijkheid voor robots en algoritmes Tilburg University, geopend op augustus 15, 2025, https://repository.tilburguniversity.edu/server/api/core/bitstreams/b702974d 8504 43b0 9d59 5b0e3467fc15/content
- Revised Product Liability Directive | Think Tank European Parliament, geopend op augustus 15, 2025, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2023)739341
- EU: Product Liability Directive published in EU Official Journal | News DataGuidance, geopend op augustus 15, 2025, https://www.dataguidance.com/news/eu product liability directive published eu official
- EU introduces comprehensive digital era Product Liability Directive, geopend op augustus 15, 2025, https://www.hoganlovells.com/en/publications/eu introduces comprehensive digitalera product liability directive
- Dentons Newsletter New Product Liability Directive and Software AI newly considered as products, geopend op augustus 15, 2025, https://www.dentons.com/en/insights/articles/2024/november/20/dentons newsletter new product liability directive and software ai newly considered as products eng
- Art. 22 GDPR – Automated individual decision making, including …, geopend op augustus 15, 2025, https://gdpr info.eu/art 22 gdpr/
- What is the impact of Article 22 of the UK GDPR on fairness? | ICO, geopend op augustus 15, 2025, https://ico.org.uk/for organisations/uk gdpr guidance and resources/artificial intelligence/guidance on ai and data protection/how do we ensure fairness in ai/what is the impact of article 22 of the uk gdpr on fairness/
- FPF Report: Automated Decision Making Under the GDPR A Comprehensive Case Law Analysis The Future of Privacy Forum, geopend op augustus 15, 2025, https://fpf.org/blog/fpf report automated decision making under the gdpr a comprehensive case law analysis/
- Artificial Intelligence, Profiling and Automated Decision Making | EU | Global Data and Cyber Handbook | Baker McKenzie Resource Hub, geopend op augustus 15, 2025, https://resourcehub.bakermckenzie.com/en/resources/global data and cyber handbook/emea/eu/topics/artificial intelligence profiling and automated decision making
- What do organisations need to disclose to individuals about AI and automated decisions?, geopend op augustus 15, 2025, https://www.dataprotectionreport.com/2025/03/what do organisations need to disclose to individuals about ai and automated decisions/
- Toezicht op AI & Algoritmes Autoriteit Persoonsgegevens, geopend op augustus 15, 2025, https://autoriteitpersoonsgegevens.nl/uploads/imported/toezicht_op_ai_en_algoritmes.pdf
- Wanprestatie Clinic Law incubator, geopend op augustus 15, 2025, https://clinic.nl/kennis/wanprestatie/
- De gevolgen van het niet nakomen van een verbintenis (art. 6:74 6:84 BW) Via Juridica, geopend op augustus 15, 2025, https://www.viajuridica.nl/informatiesoorten/wetstoelichtingen/de gevolgen van het niet nakomen van een verbintenis art 6 74 6 84 bw
- Artikel 6:74 BW Wanprestatie Wetboek+ Wetboek Plus, geopend op augustus 15, 2025, https://wetboekplus.nl/burgerlijk wetboek boek 6 artikel 74 wanprestatie/
- Wanprestatie Defenz Advocaten, geopend op augustus 15, 2025, https://defenz.nl/wanprestatie/
- EU AI Act Autoriteit Persoonsgegevens, geopend op augustus 15, 2025, https://www.autoriteitpersoonsgegevens.nl/en/themes/algorithms ai/eu ai act
- The Ultimate Guide to Service Level Agreement Examples: Templates that Drive Business Success Alohaa, geopend op augustus 15, 2025, https://www.alohaa.ai/blog/ultimate guide service level agreement examples
- AI Service Level Agreement (SLA) Generator – Terms.law Sergei Tokmakov, Esq., geopend op augustus 15, 2025, https://terms.law/2024/10/25/ai service level agreement sla generator/
- Alles over de onrechtmatige daad (6:162 BW): deel 1 Legal8, geopend op augustus 15, 2025, https://www.legal8.nl/alles over de onrechtmatige daad 6162 bw deel 1/
- Aansprakelijkheid onder de AI Act in de zorg: een verkenning ICTRecht, geopend op augustus 15, 2025, https://www.ictrecht.nl/blog/aansprakelijkheid onder de ai act in de zorg een verkenning
- Artikel 6:162 BW Brugman Letselschade Advocaten, geopend op augustus 15, 2025, https://www.brugmanletselschadeadvocaten.nl/kennisbank/wet en regelgeving/artikel 6162 bw/
- Tips AI en aansprakelijkheid Federatie Medisch Specialisten, geopend op augustus 15, 2025, https://demedischspecialist.nl/sites/default/files/2024 11/tips_ai_en_aansprakelijkheid.pdf
- Gezondheidsjurist Corrette Ploem: ‘Benut AI maar blijf zelf aan het stuur’, geopend op augustus 15, 2025, https://demedischspecialist.nl/magazine 0/magazine medisch specialist september 2024/gezondheidsjurist corrette ploem benut ai maar blijf zelf aan het stuur
- De vervaltermijn bij productaansprakelijkheid voor afzonderlijke onderdelen van een product Van Benthem & Keulen, geopend op augustus 15, 2025, https://www.vbk.nl/legalupdate/de vervaltermijn bij productaansprakelijkheid voor afzonderlijke onderdelen van een
- Productaansprakelijkheid; wat is dat eigenlijk? Jeroen Bosch Advocaten, geopend op augustus 15, 2025, https://www.jba.nl/productaansprakelijkheid is eigenlijk/
- Productaansprakelijkheid Team Advocaten, geopend op augustus 15, 2025, https://teamadvocaten.nl/artikelen/productaansprakelijkheid/
- Revised Product Liability Directive (introducing rules on strict liability for AI and other software) entered in the EU’s statute book Connections, geopend op augustus 15, 2025, https://connections.nortonrosefulbright.com/post/102jpjp/revised product liability directive introducing rules on strict liability for ai
- EUROPESE COMMISSIE Brussel, 28.9.2022 COM(2022) 496 final 2022/0303 (COD) Voorstel voor een RICHTLIJN VAN HET EUROPEES PARLEMEN EUR Lex, geopend op augustus 15, 2025, https://eur lex.europa.eu/legal content/NL/TXT/PDF/?uri=CELEX:52022PC0496
- Voorstel voor een Richtlijn AI aansprakelijkheid MAAK Advocaten, geopend op augustus 15, 2025, https://www.maakadvocaten.nl/product compliance/voorstel richtlijn ai aansprakelijkheid/
- MDR/IVDR | KWF, geopend op augustus 15, 2025, https://www.kwf.nl/en/forresearchers/toolkitfordevelopment/legislation/mdrivdr
- Qualification and Classification of Software under MDR and IVDR Metecon GmbH, geopend op augustus 15, 2025, https://www.metecon.de/en/news/qualifizierung und klassifizierung von software unter mdr und ivdr/u/1182/
- Behandelingsovereenkomst (WGBO) KNMG, geopend op augustus 15, 2025, https://www.knmg.nl/actueel/dossiers/patientenrechten/behandelingsovereenkomst wgbo
- Artificial Intelligence (AI) en auteursrecht | Kennedy Van der Laan, geopend op augustus 15, 2025, https://kvdl.com/artikelen/artificial intelligence ai en auteursrecht
- EU’s General Purpose AI Obligations Are Now in Force, With New Guidance | JD Supra, geopend op augustus 15, 2025, https://www.jdsupra.com/legalnews/eu s general purpose ai obligations are 1830462/
- AI en auteursrecht | Rechten, risico’s en verplichtingen met AI Dreikon, geopend op augustus 15, 2025, https://www.dreikon.de/nl/huidige/kennis van online marketing/ai en auteursrecht/
- Generatieve AI als inbreukpleger en auteur Larcier Intersentia, geopend op augustus 15, 2025, https://www.larcier intersentia.com/nl/generatieve ai als inbreukpleger en auteur
- Kennisartikel Veilig schrijven met AI, geopend op augustus 15, 2025, https://zakelijkschrijven.nl/kennisartikel veilig schrijven met ai/
- Europees Parlement, geopend op augustus 15, 2025, https://www.europarl.europa.eu/doceo/document/TA 9 2024 0138 FNL COR01_NL.pdf
- Manipulatieve, misleidende en uitbuitende AI systemen Autoriteit Persoonsgegevens, geopend op augustus 15, 2025, https://www.autoriteitpersoonsgegevens.nl/system/files?file=2024 09/Oproep%20tot%20input%20manipulatieve%20misleidende%20en%20uitbuitende%20AI systemen%20 DCA 2024 01.pdf
- 2021 Aandacht voor algoritmes Algemene Rekenkamer, geopend op augustus 15, 2025, https://www.rekenkamer.nl/binaries/rekenkamer/documenten/rapporten/2021/01/26/aandacht voor algoritmes/Aandacht+voor+algoritmes.pdf
- Juridische aspecten van algoritmen die besluiten nemen Een verkennend onderzoek Universiteit Utrecht, geopend op augustus 15, 2025, https://www.uu.nl/sites/default/files/tk bijlage onderzoeksrapport juridische aspecten van algoritmen die besluiten nemen.pdf
- What Is Algorithmic Bias? | IBM, geopend op augustus 15, 2025, https://www.ibm.com/think/topics/algorithmic bias
- Fraudeaanpak DUO discriminerend en illegaal | Autoriteit Persoonsgegevens, geopend op augustus 15, 2025, https://www.autoriteitpersoonsgegevens.nl/actueel/fraudeaanpak duo discriminerend en illegaal
- Toetsingskader risicoprofilering Integrale versie 2025 Publicaties, geopend op augustus 15, 2025, https://publicaties.mensenrechten.nl/file/a6394b83 33de 250e dae7 bd6d0227f3bc.pdf
- Algoritmes, Big Data en de overheid Amnesty International, geopend op augustus 15, 2025, https://www.amnesty.nl/wat we doen/tech en mensenrechten/algoritmes big data overheid
- BIJLAGE 1 Reactie op de casestudy’s uit het onderzoek “Juridische aspecten van algoritmen die besluiten nemen”., geopend op augustus 15, 2025, https://zoek.officielebekendmakingen.nl/blg 963255.pdf
- Drafting an AI clause – where should we begin? Buddle Findlay, geopend op augustus 15, 2025, https://www.buddlefindlay.com/insights/drafting an ai clause where should we begin/
- AI and Contracts: Why You Need Waiver and Limitation of Liability Provisions for AI Tools, geopend op augustus 15, 2025, https://danielrosslawfirm.com/2025/07/28/ai and contracts why you need waiver and limitation of liability provisions for ai tools/
- Clauses That Govern Use of AI in Commercial Contracts Attorney Aaron Hall, geopend op augustus 15, 2025, https://aaronhall.com/clauses governing use of ai in commercial contracts/
- AI and commercial contracts: five clauses in house legal teams should review now (UK/EU), geopend op augustus 15, 2025, https://kennedyslaw.com/en/thought leadership/article/2025/ai and commercial contracts five clauses in house legal teams should review now ukeu/
- A Legal Checklist for AI Customers Koley Jessen, geopend op augustus 15, 2025, https://www.koleyjessen.com/assets/htmldocuments/AI%20Checklist_Customers.pdf
- Procuring AI – commercial considerations checklist RPC, geopend op augustus 15, 2025, https://www.rpclegal.com/thinking/artificial intelligence/ai guide/procuring ai commercial considerations checklist/
- Building Audit Clauses for How AI Actually Works Contract Nerds, geopend op augustus 15, 2025, https://contractnerds.com/building audit clauses for how ai actually works/
- Service Level Agreement (SLA) Examples and Template – BMC Software | Blogs, geopend op augustus 15, 2025, https://www.bmc.com/blogs/sla template examples/
- www.ibm.com, geopend op augustus 15, 2025, https://www.ibm.com/think/topics/ai governance#:~:text=AI%20governance%20frameworks%20direct%20AI,fostering%20innovation%20and%20building%20trust.
- AI Governance: Best Practices and Importance | Informatica, geopend op augustus 15, 2025, https://www.informatica.com/resources/articles/ai governance explained.html
- Enterprise AI Governance: Essential Strategies for Modern Organizations Transcend.io, geopend op augustus 15, 2025, https://transcend.io/blog/enterprise ai governance
- Building an Enterprise AI Governance Plan ServiceNow, geopend op augustus 15, 2025, https://www.servicenow.com/workflow/learn/building enterprise ai governance plan.html
- The enterprise guide to AI governance IBM, geopend op augustus 15, 2025, https://www.ibm.com/thought leadership/institute business value/en us/report/ai governance
- Guidelines for AI procurement GOV.UK, geopend op augustus 15, 2025, https://www.gov.uk/government/publications/guidelines for ai procurement/guidelines for ai procurement
- Responsible AI: Governance, Ethics, & Best Practices YouTube, geopend op augustus 15, 2025, https://www.youtube.com/watch?v=IHsYWHfIe0Y
- Workplace AI tools procurement: checklist | Practical Law Thomson Reuters, geopend op augustus 15, 2025, https://uk.practicallaw.thomsonreuters.com/w 046 4074?originationContext=knowHow&transitionType=KnowHowItem&contextData=%28sc.RelatedInfo%29
Ontdek meer van Djimit
Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.