← Terug naar blog

Aansprakelijkheid voor Gebrekkige AI.

AI

Samenvatting

Dit rapport analyseert het complexe en evoluerende juridische landschap van aansprakelijkheid voor schade veroorzaakt door gebrekkige Artificiële Intelligentie (AI) systemen binnen de Europese Unie en Nederland. De analyse toont een fundamentele paradigmaverschuiving: de traditionele, vaak reactieve en op schuld gebaseerde aansprakelijkheidsregimes worden aangevuld en getransformeerd door een proactief, risico  en compliance gedreven raamwerk. De kern van deze transformatie wordt gevormd door drie wetgevende pijlers: de AI Verordening, de herziene Richtlijn Productaansprakelijkheid en de Algemene Verordening Gegevensbescherming (AVG).

De AI Verordening introduceert een risicogebaseerde benadering die gedetailleerde zorgvuldigheidsnormen vastlegt voor met name hoog risico AI systemen. Naleving van deze normen is niet langer slechts een kwestie van publiekrechtelijke handhaving; het vormt de de facto invulling van de civielrechtelijke zorgplicht. Een schending van de verplichtingen onder de AI Verordening zal in civiele procedures als een sterke indicatie van onrechtmatig handelen worden beschouwd.

Tegelijkertijd brengt de herziene Richtlijn Productaansprakelijkheid een seismische verschuiving teweeg door software en AI systemen expliciet als ‘product’ te kwalificeren. Dit onderwerpt ontwikkelaars aan een regime van risicoaansprakelijkheid, waarbij de benadeelde partij niet langer de schuld van de ontwikkelaar hoeft te bewijzen, maar enkel het gebrek in het product, de schade en het causaal verband. De richtlijn introduceert bovendien mechanismen die de bewijslast voor eisers in complexe AI zaken verlichten.

De AVG, met name via Artikel 22, blijft een cruciaal instrument voor de bescherming van individuen tegen de risico’s van uitsluitend geautomatiseerde besluitvorming met aanmerkelijke gevolgen, zoals in recruitment of kredietverlening. De verplichte waarborgen, waaronder het recht op betekenisvolle menselijke tussenkomst, stellen strenge eisen aan de inrichting van bedrijfsprocessen die door AI worden ondersteund.

Voor de Nederlandse rechtspraktijk betekent dit dat de open normen van het Burgerlijk Wetboek, zoals wanprestatie (art. 6:74 BW) en onrechtmatige daad (art. 6:162 BW), materieel worden ingekleurd door deze Europese regelgeving. Aansprakelijkheid wordt steeds meer een functie van aantoonbare compliance.

Dit rapport concludeert dat risicobeheersing een tweeledige aanpak vereist. Ten eerste, robuuste contractuele afspraken waarin aansprakelijkheden, garanties, auditrechten en data gebruiksrechten zorgvuldig worden afgebakend. Ten tweede, de implementatie van een integraal intern AI governance raamwerk dat zorgdraagt voor risico identificatie, monitoring, documentatie en training gedurende de gehele levenscyclus van een AI systeem. Voor organisaties die AI ontwikkelen of inzetten, is proactieve, gedocumenteerde compliance de enige effectieve strategie om de aanzienlijke juridische en financiële risico’s in dit nieuwe tijdperk te mitigeren.

Deel I: Het Nieuwe Juridische Paradigma voor AI in Europa

De opkomst van artificiële intelligentie heeft de Europese wetgever genoodzaakt om de bestaande juridische kaders voor aansprakelijkheid en veiligheid fundamenteel te herzien. Dit heeft geleid tot een gelaagd systeem van nieuwe en gemoderniseerde regelgeving die gezamenlijk een nieuw paradigma vormen. Dit deel analyseert de drie centrale pijlers van dit nieuwe raamwerk: de AI Verordening, die een risicogebaseerde set van zorgvuldigheidsnormen introduceert; de herziene Richtlijn Productaansprakelijkheid, die AI binnen het domein van risicoaansprakelijkheid brengt; en de AVG, die de rechten van individuen bij geautomatiseerde besluitvorming waarborgt. Samen creëren deze instrumenten een complex samenspel van verplichtingen dat de basis legt voor de toewijzing van aansprakelijkheid in het AI tijdperk.

Hoofdstuk 1: De AI Verordening als Zorgvuldigheidsnorm

De Verordening (EU) 2024/1689, beter bekend als de AI Verordening (AI Act), is het eerste omvattende, horizontale wetgevingskader voor AI ter wereld.1 Hoewel primair een instrument van publiekrechtelijke aard, gericht op markttoegang en toezicht, zijn de implicaties voor het civiele aansprakelijkheidsrecht diepgaand. De verordening stelt gedetailleerde en bindende normen vast die de open zorgvuldigheidsnormen van het nationale privaatrecht concretiseren, waardoor het een onmisbare referentie wordt in elke aansprakelijkheidsbeoordeling.

1.1. De Risicogebaseerde Architectuur

De kern van de AI Verordening is een risicogebaseerde aanpak, die AI systemen classificeert in vier categorieën op basis van het potentiële risico voor gezondheid, veiligheid en grondrechten.2 De verplichtingen voor marktdeelnemers zijn direct gekoppeld aan deze classificatie.

1.2. Verplichtingen voor Aanbieders (Providers) van Hoog Risico AI

Voor aanbieders van hoog risico AI systemen legt de verordening een cumulatief pakket van dwingende verplichtingen op, die moeten worden nageleefd voordat het systeem een CE markering kan verkrijgen en op de markt kan worden gebracht.1 Deze verplichtingen vormen de kern van de nieuwe zorgvuldigheidsstandaard.

1.3. Verplichtingen voor Gebruikers (Deployers) van Hoog Risico AI

De AI Verordening legt niet alleen verplichtingen op aan ontwikkelaars, maar ook aan de professionele gebruikers van hoog risico AI systemen. Deze ‘deployers’ hebben een eigen verantwoordelijkheid om te zorgen voor een veilig en conform gebruik.1 Hun verplichtingen omvatten onder meer:

1.4. Transparantieverplichtingen voor Specifieke AI systemen

Ongeacht de risicoclassificatie legt Artikel 50 van de AI Verordening specifieke transparantieverplichtingen op aan bepaalde AI systemen om het vertrouwen van gebruikers te waarborgen en misleiding te voorkomen.6

De verplichtingen uit de AI Verordening zijn niet louter administratieve of publiekrechtelijke eisen. Ze vormen een gedetailleerde, geharmoniseerde en bindende invulling van wat in het civiele recht als ‘zorgvuldig handelen’ wordt beschouwd. Het Nederlandse aansprakelijkheidsrecht, met name de onrechtmatige daad (art. 6:162 BW), is gebaseerd op de open norm van handelen in strijd met “hetgeen volgens ongeschreven recht in het maatschappelijk verkeer betaamt”.11 Rechters vullen deze norm traditioneel in aan de hand van de stand van de techniek, sectornormen en relevante wetgeving. De AI Verordening biedt nu een uiterst gedetailleerd en specifiek normenkader voor de ontwikkeling en het gebruik van AI. Een rechter zal een schending van een concrete verplichting uit de verordening – bijvoorbeeld het niet adequaat testen van trainingsdata op bias, of het verstrekken van onvolledige gebruiksinstructies – vrijwel onvermijdelijk beschouwen als een schending van de maatschappelijke zorgvuldigheidsnorm. Dit verlicht de bewijslast voor een benadeelde aanzienlijk: in plaats van te moeten bewijzen dat een handeling algemeen ‘onzorgvuldig’ was, kan de eiser wijzen op de schending van een specifieke, wettelijk vastgelegde norm. De AI Verordening transformeert hiermee van een instrument voor markttoezicht naar een primair bewijsmiddel in civiele aansprakelijkheidsprocedures.

Bovendien creëren de gedetailleerde documentatie  en transparantieplichten voor aanbieders een nieuwe dynamiek in de aansprakelijkheidsverdeling. Een professionele gebruiker die wordt aangesproken voor schade, zal zich verweren door aan te tonen dat hij conform de instructies van de aanbieder heeft gehandeld. De bewijslast voor de juistheid, volledigheid en adequaatheid van die instructies komt dan bij de aanbieder te liggen. De technische documentatie en gebruiksinstructies, verplicht gesteld door de verordening, worden zo het centrale juridische strijdtoneel in geschillen tussen aanbieders en gebruikers.

Hoofdstuk 2: De Verruimde Productaansprakelijkheid voor Software en AI

Parallel aan de ontwikkeling van de AI Verordening heeft de Europese Unie haar kader voor productaansprakelijkheid gemoderniseerd om het geschikt te maken voor het digitale tijdperk. De herziene Richtlijn Productaansprakelijkheid (PLD), Directive (EU) 2024/2853, die de bijna veertig jaar oude Richtlijn 85/374/EEG vervangt, markeert een fundamentele verandering door software en AI systemen expliciet onder een regime van risicoaansprakelijkheid te brengen.13

2.1. De Herziene Richtlijn Productaansprakelijkheid (PLD): Een Paradigmaverschuiving

De nieuwe PLD werd op 18 november 2024 gepubliceerd in het Publicatieblad van de EU en trad in werking op 8 december 2024. Lidstaten hebben tot 9 december 2026 de tijd om de richtlijn om te zetten in nationale wetgeving. De nieuwe regels zullen van toepassing zijn op producten die na die datum op de markt worden gebracht.13 Het doel is een geharmoniseerd en gemoderniseerd kader te scheppen dat consumenten effectieve bescherming biedt tegen schade veroorzaakt door defecte producten, inclusief digitale producten.

2.2. AI als ‘Product’ en de Ontwikkelaar als ‘Producent’

De meest ingrijpende wijziging van de nieuwe PLD is de uitbreiding van de definities van ‘product’ en ‘producent’.

Deze verandering beëindigt een langdurige juridische onzekerheid over de status van software. Waar software voorheen vaak als een ‘dienst’ werd beschouwd, vallend onder het reguliere contracten  of onrechtmatigedaadsrecht dat schuld of toerekenbaarheid vereist, wordt het nu ondubbelzinnig onderworpen aan risicoaansprakelijkheid. Dit versterkt de positie van benadeelden aanzienlijk. Zij hoeven niet langer de vaak complexe en technisch moeilijke bewijslast te dragen van een specifieke ‘fout’ of nalatigheid van de ontwikkelaar. De focus verschuift volledig naar de objectieve (on)veiligheid van het ‘product’ zelf.

2.3. Het ‘Gebrek’ begrip in een AI context

Een product wordt als ‘gebrekkig’ beschouwd wanneer het niet de veiligheid biedt die een persoon gerechtigd is te verwachten. De beoordeling hiervan is afhankelijk van alle omstandigheden van het geval, waaronder 16:

2.4. Bewijslastverlichting en Openbaarmaking van Bewijs

De ‘black box’ aard van complexe AI systemen vormt een aanzienlijke horde voor eisers die een gebrek en het causaal verband met hun schade moeten bewijzen. De nieuwe PLD introduceert twee belangrijke mechanismen om deze informatie asymmetrie te corrigeren:

2.5. Aansprakelijkheid in de Keten

De richtlijn handhaaft en verduidelijkt de ‘cascaderende’ aansprakelijkheid in de toeleveringsketen. De primaire aansprakelijke partij is de fabrikant van het eindproduct of van een gebrekkig onderdeel. Als de fabrikant buiten de EU is gevestigd, kan de importeur of de gemachtigde van de fabrikant worden aangesproken. Als ook zij niet kunnen worden geïdentificeerd, kan elke distributeur in de keten aansprakelijk worden gesteld, tenzij deze de identiteit van zijn leverancier onthult.16 Belangrijk is dat een partij die een product dat al op de markt is substantieel wijzigt buiten de controle van de oorspronkelijke fabrikant, zelf als fabrikant wordt beschouwd en dus volledig aansprakelijk wordt voor de gewijzigde versie.16

De wisselwerking tussen de AI Verordening en de nieuwe PLD is van cruciaal belang. Ze zijn symbiotisch. De gedetailleerde technische en procedurele eisen van de AI Verordening bieden de concrete normen waartegen de ‘veiligheid’ van een AI product onder de PLD zal worden getoetst. Een non conformiteit met de AI Verordening (bv. onvoldoende robuustheid of inadequate cybersecurity) zal door een eiser worden aangevoerd als direct bewijs van een ‘gebrek’ in de zin van de PLD. De uitgebreide technische documentatie die de AI Verordening van aanbieders eist, wordt tegelijkertijd het primaire doelwit van een vordering tot openbaarmaking van bewijs onder de PLD. Dit creëert een krachtig, tweeledig juridisch instrumentarium voor benadeelden.

Hoofdstuk 3: De Rol van de AVG bij Geautomatiseerde Besluitvorming

De Algemene Verordening Gegevensbescherming (AVG), Verordening (EU) 2016/679, is weliswaar een kader voor gegevensbescherming, maar bevat een specifieke bepaling die direct ingrijpt op de inzet van AI voor besluitvorming: Artikel 22. Deze bepaling biedt individuen een fundamentele bescherming tegen de risico’s van besluiten die zonder menselijke tussenkomst worden genomen en significante gevolgen voor hen hebben.

3.1. Reikwijdte van Artikel 22 AVG

Artikel 22(1) AVG stelt een principieel verbod in: “De betrokkene heeft het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft”.17 Voor de toepassing van dit verbod moet aan drie cumulatieve voorwaarden zijn voldaan:

3.2. De Uitzonderingen op het Verbod

Het verbod van Artikel 22(1) is niet absoluut. Artikel 22(2) voorziet in drie limitatieve uitzonderingsgronden waarop een dergelijk besluit wel is toegestaan 17:

a. Het is noodzakelijk voor de totstandkoming of de uitvoering van een overeenkomst tussen de betrokkene en een verwerkingsverantwoordelijke.

b. Het is toegestaan bij een Unierechtelijke of lidstaatrechtelijke bepaling die ook voorziet in passende maatregelen ter bescherming van de rechten, vrijheden en gerechtvaardigde belangen van de betrokkene.

c. Het is gebaseerd op de uitdrukkelijke toestemming van de betrokkene.

3.3. Verplichte Waarborgen

Zelfs als een van de bovenstaande uitzonderingen van toepassing is, is de verwerkingsverantwoordelijke niet vrij om te handelen. Artikel 22(3) verplicht de verantwoordelijke om “passende maatregelen” te treffen ter bescherming van de rechten, vrijheden en gerechtvaardigde belangen van de betrokkene. De verordening specificeert dat dit ten minste het recht op menselijke tussenkomst, het recht om zijn of haar standpunt kenbaar te maken, en het recht om het besluit aan te vechten, omvat.17 Dit impliceert dat er een procedure moet zijn waarin een individu een geautomatiseerd besluit kan laten heroverwegen door een gekwalificeerd persoon met de autoriteit om het besluit te wijzigen.

3.4. Transparantie en het Recht op Uitleg

De transparantieverplichtingen van de AVG (Artikelen 13, 14 en 15) spelen een cruciale rol. Wanneer er sprake is van geautomatiseerde besluitvorming in de zin van Artikel 22, moet de verwerkingsverantwoordelijke de betrokkene voorzien van “nuttige informatie over de onderliggende logica, alsmede het belang en de verwachte gevolgen van die verwerking voor de betrokkene”.21 Recente jurisprudentie van het Hof van Justitie van de EU heeft verduidelijkt dat dit niet betekent dat het algoritme zelf moet worden onthuld, maar dat er een voldoende begrijpelijke uitleg moet worden gegeven over de factoren die tot het besluit hebben geleid en hun respectievelijke gewicht.21

De drempel van “uitsluitend geautomatiseerd” is in de praktijk het meest betwiste element. Organisaties proberen vaak aan de strenge eisen van Artikel 22 te ontsnappen door te argumenteren dat er sprake is van menselijke tussenkomst. Echter, de richtlijnen van toezichthouders en de opkomende jurisprudentie maken duidelijk dat deze tussenkomst ‘betekenisvol’ moet zijn.18 Dit vereist dat de menselijke beoordelaar daadwerkelijk de autoriteit, de competentie en de benodigde informatie heeft om het door de AI voorgestelde besluit te overrulen. Een proces waarbij een menselijke medewerker zonder diepgaande analyse simpelweg de aanbeveling van het systeem volgt, kwalificeert niet als betekenisvolle tussenkomst. Dit dwingt organisaties om hun besluitvormingsprocessen fundamenteel te herontwerpen. Het is niet voldoende om een mens aan het einde van een geautomatiseerde keten te plaatsen; de gehele workflow moet worden geanalyseerd om te bepalen waar de werkelijke beslissingsmacht ligt.

Hoewel de AVG primair gericht is op gegevensbescherming, fungeert Artikel 22 in de praktijk als een krachtig instrument tegen algoritmische discriminatie. Het garandeert procedurele rechten – het recht op menselijke tussenkomst en het recht op uitleg – die individuen in staat stellen om ondoorzichtige, ‘black box’ beslissingen aan te vechten. Dit biedt een laagdrempelige mogelijkheid om een bevooroordeeld of onjuist algoritmisch besluit ter discussie te stellen, zelfs voordat de discriminatie zelf materieel is bewezen. Dit is met name relevant in contexten zoals de platformeconomie, waar algoritmes beslissen over de toewijzing van werk of de beoordeling van prestaties.

Deel II: Toepassing in het Nederlandse Recht

De Europese kaders vormen de bovenlaag van het juridische bouwwerk. De daadwerkelijke aansprakelijkheidsclaims worden echter gevoerd binnen het nationale recht, met name het Burgerlijk Wetboek (BW). Dit deel analyseert hoe de traditionele Nederlandse aansprakelijkheidsgronden – wanprestatie en onrechtmatige daad – worden toegepast op schade door AI en hoe de nieuwe Europese normen doorwerken in de interpretatie van deze nationale bepalingen.

Hoofdstuk 4: Contractuele Aansprakelijkheid (Wanprestatie   Art. 6:74 BW)

Wanneer er een contractuele relatie bestaat tussen de partij die schade lijdt en de leverancier van het AI systeem, is wanprestatie de meest voor de hand liggende grondslag voor een vordering. Artikel 6:74 BW bepaalt dat iedere toerekenbare tekortkoming in de nakoming van een verbintenis de schuldenaar verplicht tot schadevergoeding.23

4.1. De Toerekenbare Tekortkoming in de Nakoming

Voor een succesvolle vordering op grond van wanprestatie moet aan vier vereisten worden voldaan:

4.2. Non conformiteit van AI systemen

De centrale vraag bij een claim wegens een gebrekkig AI systeem is of er sprake is van een tekortkoming, oftewel: non conformiteit. Wat mag een afnemer van een AI systeem verwachten? Dit wordt bepaald door de inhoud van de overeenkomst, de daarbij behorende specificaties, en de mededelingen van de leverancier. De dwingende eisen uit de AI Verordening spelen hierbij een cruciale rol. Een professionele afnemer mag redelijkerwijs verwachten dat een ingekocht AI systeem voldoet aan de geldende wet  en regelgeving. Een hoog risico AI systeem dat niet voldoet aan de eisen van de AI Verordening (bv. ten aanzien van nauwkeurigheid, robuustheid of data governance) is daarom per definitie non conform. De leverancier schiet dan toerekenbaar tekort in de nakoming van zijn contractuele verplichting om een deugdelijk en wettelijk conform product te leveren.9

Deze doorwerking van publiekrechtelijke normen in de contractuele sfeer is een direct gevolg van het Haviltex criterium, dat voorschrijft dat bij de uitleg van een overeenkomst niet alleen naar de letterlijke tekst moet worden gekeken, maar ook naar wat partijen redelijkerwijs van elkaar mochten verwachten.26 De AI Verordening stelt een duidelijke, wettelijke benchmark voor die redelijke verwachtingen. Een leverancier kan zich hier niet aan onttrekken, zelfs niet met afwijkende contractuele bepalingen, aangezien de eisen van de AI Verordening van dwingend recht zijn.

4.3. De Rol van Service Level Agreements (SLA’s) en Garanties

Om discussies over de te verwachten prestaties te voorkomen, is het essentieel om AI specifieke Service Level Agreements (SLA’s) op te stellen. Waar traditionele IT SLA’s zich richten op uptime en responstijden, moeten AI SLA’s ook kwantificeerbare en meetbare prestatie eisen bevatten voor 28:

Een tekortkoming in het behalen van deze contractueel vastgelegde niveaus levert een directe en objectief vast te stellen wanprestatie op.

4.4. Schending van Informatie  en Waarschuwingsplichten

Een leverancier heeft een mededelingsplicht over de essentiële eigenschappen van het geleverde product. Voor AI systemen betekent dit een plicht om de afnemer adequaat te informeren over de capaciteiten, de beperkingen, de risico’s en het beoogde gebruiksdomein. Deze plicht wordt direct geconcretiseerd door Artikel 13 van de AI Verordening, dat aanbieders van hoog risico systemen verplicht om uitgebreide en duidelijke gebruiksinstructies te verstrekken.8 Het achterhouden van informatie over bekende zwakheden of het niet waarschuwen voor voorzienbare risico’s is een schending van deze zorgplicht en levert een toerekenbare tekortkoming op.

Hoofdstuk 5: Buitencontractuele Aansprakelijkheid (Onrechtmatige Daad   Art. 6:162 BW)

Indien er geen contractuele relatie is tussen de benadeelde en de veroorzaker van de schade (bijvoorbeeld een eindgebruiker die schade lijdt door een AI systeem van een derde partij), of als de schade buiten de scope van het contract valt, biedt de onrechtmatige daad (art. 6:162 BW) een grondslag voor aansprakelijkheid.

5.1. De Vijf Vereisten

Voor aansprakelijkheid op grond van onrechtmatige daad moet voldaan zijn aan vijf vereisten 11:

5.2. Invulling van de Zorgvuldigheidsnorm

De meest relevante onrechtmatigheidsgrond in de context van AI is de schending van de maatschappelijke zorgvuldigheidsnorm. Zoals uiteengezet in Hoofdstuk 1, bieden de gedetailleerde verplichtingen uit de AI Verordening en de AVG een concrete invulling van deze open norm.12 Het niet naleven van de verplichtingen met betrekking tot risicomanagement, data governance, menselijk toezicht of transparantie zal door een rechter worden gezien als een schending van de zorgvuldigheid die van een redelijk handelende aanbieder of gebruiker van AI mag worden verwacht. De klassieke criteria uit het Kelderluik arrest (HR 5 november 1965) blijven relevant: de waarschijnlijkheid van schade, de ernst van de te verwachten schade, de bezwaarlijkheid van het nemen van voorzorgsmaatregelen, en de mate van waarschijnlijkheid dat het slachtoffer onvoorzichtig zal zijn.30 De AI Verordening kan worden gezien als een door de wetgever gecodificeerde set van voorzorgsmaatregelen voor de specifieke risico’s van AI.

Een interessante dynamiek is dat de zorgvuldigheidsnorm dynamisch is. Naarmate AI technologie zich verder ontwikkelt en de effectiviteit en veiligheid van bepaalde systemen worden bewezen, kan de professionele standaard evolueren. In sectoren als de medische diagnostiek, waar AI systemen in sommige gevallen al beter presteren dan menselijke experts, kan een punt worden bereikt waarop het niet gebruiken van een dergelijk superieur hulpmiddel als onzorgvuldig kan worden beschouwd.33 Dit creëert een potentiële ‘plicht tot innovatie’, waarbij professionals en organisaties continu moeten evalueren of hun huidige werkwijzen nog voldoen aan de ‘state of the art’.

5.3. Toerekening van de ‘Fout’ van de AI

Een centrale uitdaging bij autonome AI is de vraag aan wie de ‘fout’ van het systeem kan worden toegerekend. Aangezien het AI systeem zelf geen rechtspersoonlijkheid heeft, moet de aansprakelijkheid worden gevestigd bij een van de menselijke of juridische actoren in de keten:

5.4. Risicoaansprakelijkheid voor Hulpzaken (Art. 6:173 BW)

Artikel 6:173 BW vestigt een risicoaansprakelijkheid voor de bezitter van een roerende zaak waarvan bekend is dat zij, indien zij niet voldoet aan de eisen die men daaraan in de gegeven omstandigheden mag stellen, een bijzonder gevaar voor personen of zaken oplevert. Er is juridisch debat over de vraag of software als een ‘zaak’ in de zin van dit artikel kan worden beschouwd. De traditionele opvatting is dat software, als onstoffelijk goed, hier niet onder valt. Echter, de kwalificatie van software als ‘product’ onder de nieuwe PLD zou de rechterlijke interpretatie kunnen beïnvloeden en de deur kunnen openen voor een analoge toepassing van deze risicoaansprakelijkheid op de gebruiker van gebrekkige software.

Hoofdstuk 6: Integratie en Samenloop van Aansprakelijkheidsregimes

Een benadeelde partij staat vaak niet één, maar meerdere juridische wegen ter beschikking. De keuze voor een bepaalde grondslag heeft strategische implicaties voor de bewijslast, de omvang van de schadevergoeding en de mogelijke verweren.

6.1. Analyse van de Samenloop

De drie belangrijkste regimes – productaansprakelijkheid, onrechtmatige daad en wanprestatie – kunnen naast elkaar bestaan en worden ingeroepen.

6.2. Strategische Overwegingen voor de Eiser

De keuze van de eiser hangt af van de specifieke feiten van de casus:

6.3. De Toekomst: De AI Aansprakelijkheidsrichtlijn (AILD)

Het is belangrijk op te merken dat de Europese Commissie ook een voorstel heeft gedaan voor een separate AI Aansprakelijkheidsrichtlijn (AILD). Dit voorstel, waarvan de politieke toekomst nog onzeker is, beoogt de bewijspositie van eisers in niet contractuele, op schuld gebaseerde claims verder te versterken.38 Het introduceert een weerlegbaar vermoeden van een

causaal verband tussen de fout van een aanbieder of gebruiker en de door het AI systeem veroorzaakte output (of het uitblijven daarvan).40 Als dit voorstel wordt aangenomen, zal het de drempel voor het succesvol claimen van schadevergoeding wegens onrechtmatige daad verder verlagen.

Deel III: Risicoanalyse en Mitigatie in de Praktijk

De abstracte juridische kaders krijgen pas betekenis wanneer ze worden toegepast op concrete situaties. Dit deel analyseert de specifieke aansprakelijkheidsrisico’s voor drie relevante casustypen en biedt een gesynthetiseerd overzicht van de aansprakelijkheidsgronden. Vervolgens worden concrete contractuele en organisatorische maatregelen besproken om deze risico’s te beheersen.

Hoofdstuk 7: Analyse per Casustype

7.1. Medische AI (Diagnostiek en Behandeling)

De zorgsector is een van de meest veelbelovende, maar ook meest risicovolle toepassingsgebieden voor AI. De aansprakelijkheid is hier complex en verdeeld over meerdere actoren.

7.2. Generatieve AI

Generatieve AI (GenAI), zoals grote taalmodellen (LLM’s) en beeldgeneratoren, creëert unieke aansprakelijkheidsrisico’s die voornamelijk liggen op het vlak van intellectuele eigendom en misleidende informatie.

7.3. Algoritmische Besluitvorming in de Platformeconomie

In de platformeconomie (bv. voor maaltijdbezorging of taxidiensten) en bij online diensten (bv. recruitmentplatforms) worden algoritmes ingezet voor cruciale beslissingen zoals de toewijzing van opdrachten, de beoordeling van prestaties, en de selectie van kandidaten. Dit brengt significante risico’s op discriminatie en willekeur met zich mee.

Hoofdstuk 8: Overzichtstabel Aansprakelijkheidsgronden

De analyse van de verschillende juridische kaders en hun toepassing leidt tot een complex web van mogelijke aansprakelijkheidsroutes. De onderstaande tabel synthetiseert deze informatie en dient als een praktisch overzicht voor juridische professionals om snel de relevante grondslagen, vereisten en mitigatiestrategieën te identificeren.

GrondslagRelevante WetgevingToepassingsdrempel / KernvereistePrimair Aansprakelijke PartijBelangrijkste VerweerContractuele MitigatiemaatregelOrganisatorische MitigatiemaatregelWanprestatieArt. 6:74 BWToerekenbare tekortkoming in de nakoming van een contractuele verbintenis.Contractspartij (doorgaans de AI leverancier).Overmacht (art. 6:75 BW); tekortkoming niet toerekenbaar.Duidelijke, meetbare Service Level Agreements (SLA’s); expliciete garanties.Robuuste acceptatietestprocedures; doorlopende monitoring van prestaties.Onrechtmatige DaadArt. 6:162 BW; AI Verordening; AVGSchending van een wettelijke plicht of van de maatschappelijke zorgvuldigheid.Iedereen die onrechtmatig handelt (aanbieder, gebruiker, etc.).Rechtvaardigingsgrond; geen toerekenbaarheid; relativiteit (art. 6:163 BW).Vrijwaringsclausules voor claims van derden.AI Governance Framework; risico assessments; adequate training van personeel.ProductaansprakelijkheidArt. 6:185 BW e.v.; Herziene PLD (2024/2853)Een ‘gebrekkig’ product (incl. software/AI) veroorzaakt schade.Producent/fabrikant, importeur, of distributeur.Ontwikkelingsrisico exceptie (state of the art); gebrek niet aanwezig bij in verkeer brengen.Aansprakelijkheidsbeperking (nietig t.a.v. consument); duidelijke waarschuwingen.Post market surveillance; robuust kwaliteitsmanagementsysteem (QMS).Schending Art. 22 AVGArt. 22 AVGUitsluitend geautomatiseerd besluit met rechtsgevolg of aanmerkelijk gevolg.De verwerkingsverantwoordelijke.Besluit is niet ‘uitsluitend’ geautomatiseerd (betekenisvolle menselijke tussenkomst).Data Processing Agreement (DPA) die rollen en verantwoordelijkheden vastlegt.Implementatie van een procedure voor menselijke herbeoordeling; DPIA uitvoeren.

Hoofdstuk 9: Contractuele en Organisatorische Maatregelen

Effectief beheer van AI gerelateerde aansprakelijkheidsrisico’s vereist een proactieve en gelaagde aanpak, die zowel juridische instrumenten (contracten) als interne organisatorische maatregelen (governance) omvat.

9.1. Best Practices voor AI Contracten

Bij de inkoop of levering van AI systemen moeten standaard IT contracten worden aangevuld met specifieke, robuuste clausules die de unieke risico’s van AI adresseren.

9.2. Het Opzetten van een AI Governance Framework

Naast contractuele maatregelen is een robuust intern governance kader onmisbaar voor het beheersen van AI risico’s. Dit is een gestructureerde aanpak om ervoor te zorgen dat AI op een verantwoorde, ethische en juridisch conforme wijze wordt ingezet.66

Deel IV: Aanbevelingen en Instrumenten

De voorgaande analyse van het complexe juridische landschap en de risico’s van AI leidt tot een reeks concrete aanbevelingen en instrumenten voor juridische professionals die in de praktijk met deze materie te maken hebben. Dit deel biedt gerichte adviezen en praktische hulpmiddelen in de vorm van voorbeeldclausules en checklists.

Hoofdstuk 10: Praktische Aanbevelingen voor Juridische Professionals

De implicaties van het nieuwe AI aansprakelijkheidsregime vereisen een aangepaste aanpak van verschillende juridische professionals.

Bijlage I: Voorbeeldclausules voor AI Contracten

De volgende modelclausules zijn bedoeld als illustratie en startpunt voor contractonderhandelingen. Zij moeten altijd worden aangepast aan de specifieke context van de transactie.

VOORBEELDCLAUSULE 1: DEFINITIES

AI Systeem“: betekent de door Leverancier geleverde software, algoritmes en modellen die gebruikmaken van technieken zoals machine learning, logica  en kennisgebaseerde systemen, of statistische benaderingen, zoals nader gespecificeerd in Bijlage X.

Inputdata“: betekent alle data, informatie of materialen die door of namens de Klant aan het AI Systeem worden verstrekt voor verwerking.

Outputdata“: betekent de data, analyses, voorspellingen of andere content die door het AI Systeem wordt gegenereerd op basis van de verwerking van de Inputdata.

VOORBEELDCLAUSULE 2: COMPLIANCE EN GEBRUIK

2.1 Naleving Wetgeving. Leverancier garandeert dat het AI Systeem, op het moment van levering en gedurende de looptijd van deze Overeenkomst, voldoet aan alle toepasselijke wet  en regelgeving, waaronder, maar niet beperkt tot, de AI Verordening (EU) 2024/1689 en de Algemene Verordening Gegevensbescherming (EU) 2016/679.

2.2 Gebruiksinstructies. Klant zal het AI Systeem gebruiken in overeenstemming met de door Leverancier verstrekte schriftelijke documentatie en gebruiksinstructies. Leverancier garandeert dat deze documentatie en instructies volledig, accuraat en in overeenstemming met de vereisten van de AI Verordening zijn.”

VOORBEELDCLAUSULE 3: DATA GEBRUIK EN TRAINING

3.1 Eigendom. Klant behoudt te allen tijde alle eigendomsrechten op de Inputdata en de Outputdata. Leverancier verkrijgt geen enkel recht op de Inputdata of Outputdata, anders dan een beperkt, niet exclusief en niet overdraagbaar recht om deze data te verwerken voor het uitsluitende doel van het verlenen van de diensten onder deze Overeenkomst aan de Klant.

3.2 Trainingsverbod. Het is Leverancier uitdrukkelijk verboden om Inputdata of Outputdata te gebruiken voor het trainen, valideren, verbeteren of anderszins ontwikkelen van enig ander AI systeem of  model, inclusief de algemene, onderliggende modellen van Leverancier, zonder voorafgaande, specifieke en schriftelijke toestemming van de Klant.” 61

VOORBEELDCLAUSULE 4: AANSPRAKELIJKHEID EN VRIJWARING

4.1 Vrijwaring door Leverancier. Leverancier zal de Klant vrijwaren, verdedigen en schadeloosstellen tegen alle claims, vorderingen, schade, verliezen, kosten en uitgaven (inclusief redelijke advocaatkosten) die voortvloeien uit of verband houden met: (i) een claim van een derde dat het AI Systeem of de door de Klant conform de instructies gebruikte Outputdata inbreuk maakt op de intellectuele eigendomsrechten van die derde; (ii) een schending door Leverancier van toepasselijke databeschermingswetgeving; (iii) schade veroorzaakt door een aantoonbaar gebrek in het ontwerp of de ontwikkeling van het AI Systeem.” 60

4.2 Aansprakelijkheid Klant. Klant is aansprakelijk voor schade die voortvloeit uit (i) de onrechtmatigheid of onjuistheid van de door haar verstrekte Inputdata; of (ii) het gebruik van het AI Systeem op een wijze die in strijd is met de door Leverancier verstrekte gebruiksinstructies.”

VOORBEELDCLAUSULE 5: AUDIT EN TRANSPARANTIE

5.1 Auditrecht. Klant heeft het recht om, na een redelijke kennisgeving en niet vaker dan eenmaal per jaar (tenzij er een gegrond vermoeden van een inbreuk bestaat), door een onafhankelijke, tot geheimhouding verplichte derde, een audit uit te laten voeren naar de naleving door Leverancier van zijn verplichtingen onder deze Overeenkomst, met inbegrip van de verplichtingen inzake gegevensbeveiliging, vertrouwelijkheid en de AI Verordening. Leverancier zal zijn volledige medewerking verlenen aan een dergelijke audit.

5.2 Informatieverzoek. Op schriftelijk verzoek van de Klant zal Leverancier binnen een redelijke termijn informatie verstrekken over de architectuur, de gebruikte trainingsmethodologieën (zonder bedrijfsgeheimen te onthullen), en de resultaten van uitgevoerde tests met betrekking tot de nauwkeurigheid en bias van het AI Systeem.” 61

Bijlage II: Checklist voor AI Governance en Procurement

Deze checklist biedt een praktisch stappenplan voor organisaties bij de inkoop en implementatie van AI systemen.

FASE 1: STRATEGIE EN DUE DILIGENCE

FASE 2: CONTRACTERING

FASE 3: IMPLEMENTATIE EN MONITORING

Geciteerd werk

DjimIT Nieuwsbrief

AI updates, praktijkcases en tool reviews — tweewekelijks, direct in uw inbox.

Gerelateerde artikelen