Dit blogartikel is het zesde onderdeel van een reeks waarin wij de AI-verordening en het gebruik van AI-systemen bespreken. In deze blog gaan wij in op AI en aansprakelijkheid. Over twee weken zal het zevende onderdeel van de reeks verschijnen. Onderaan dit artikel vindt u de links naar de overige artikelen.
AI blogreeks deel VI – AI en aansprakelijkheid
Wie is er aansprakelijk als er door (het gebruik van) een AI-systeem schade ontstaat? Dit is een vraag die met de opkomst van AI een belangrijke rol speelt. Naast de AI-verordening heeft de Europese Commissie nieuwe voorstellen voor richtlijnen op het gebied van AI-aansprakelijkheid en productaansprakelijkheid gepubliceerd. Alhoewel de AI-verordening gericht is op het voorkomen van schade, bieden deze richtlijnen een vangnet voor de vergoeding van schade wanneer deze toch ontstaat.
Richtlijn productaansprakelijkheid
De eerste verandering betreft het voorstel voor herziening van de richtlijn productaansprakelijkheid (RPA). De RPA stelt fabrikanten risicoaansprakelijk voor schade die is ontstaan door hun producten met gebreken. Een product is gebrekkig wanneer het niet voldoet aan de veiligheid die gebruikers ervan mogen verwachten.
Verruiming ‘product’ en ‘gebreken’
De herziening van de RPA verruimt het begrip ‘product’, waardoor ook software daaronder valt. Software omvat onder andere computerprogramma’s, apps en AI-systemen. Dit heeft tot gevolg dat met de vernieuwde richtlijn ook een schadevordering ingesteld kan worden tegen de fabrikant van een AI-systeem, wanneer het systeem bijvoorbeeld lichamelijk letsel of verlies van gegevens heeft veroorzaakt.
Het voorstel zorgt er daarnaast voor dat fabrikanten aansprakelijk kunnen worden gesteld voor gebreken die optreden in producten die zij reeds op de markt hebben gebracht, ook wanneer deze veranderingen het gevolg zijn van software-updates of machinaal leren.
Toegang tot bewijsmateriaal
De nieuwe regels maken het daarnaast makkelijker om toegang tot bewijsmateriaal te verkrijgen. Als de benadeelde aannemelijk heeft gemaakt dat er schade is veroorzaakt, kan hij vragen om documenten (bewijsmateriaal) van de fabrikant om de zaak te ondersteunen. Als de fabrikant dit niet aanlevert, wordt het product vermoed gebrekkig te zijn.
Bewijsvermoeden
In complexe zaken, zoals die met AI-systemen, kan het lastig zijn om te bewijzen dat een product gebrekkig is en dat de gebreken daaraan de schade hebben veroorzaakt. De RPA introduceert daarom een bewijsvermoeden. Dit betekent dat de benadeelde slechts hoeft te bewijzen dat het product heeft bijgedragen aan de schade en het waarschijnlijk is dat het product gebreken vertoonde.
Een product wordt daarnaast vermoed gebrekkig te zijn als het niet voldoet aan de wetgeving op het gebied van productveiligheid of als de schade is ontstaan doordat het product kennelijk niet goed werkte bij normaal gebruik.
Richtlijn AI-aansprakelijkheid
De tweede verandering betreft de conceptrichtlijn AI-aansprakelijkheid (RAIA). Deze richtlijn verduidelijkt de regels voor schade door AI, vooral in situaties die niet onder de RPA vallen. De RAIA is van toepassing op vorderingen tegen personen die een fout hebben gemaakt die invloed heeft gehad op het AI-systeem dat de schade heeft veroorzaakt.
De huidige aansprakelijkheidsregels zijn gericht op schuld. Dit betekent dat de benadeelde de schuld moet bewijzen om schade te kunnen claimen. Dit is bij AI vaak moeilijk, omdat AI-systemen erg complex kunnen zijn. Dit wordt ook wel het blackboxeffect genoemd. Daarom zijn in de RAIA regels opgenomen met betrekking tot de bewijslast.
Toegang tot bewijsmateriaal
De RAIA bevat ook een regeling om het verzamelen van bewijs makkelijker te maken. Deze regeling geldt slechts voor AI-systemen met een hoog risico. Als de benadeelde aantoont dat er sprake is van een geloofwaardige schadeclaim, kan hij verzoeken tot afgifte van bewijsmateriaal. Als de verweerder dit bewijsmateriaal niet aanlevert, wordt hij vermoed zijn zorgvuldigheidsplicht te hebben geschonden, tenzij hij het vermoeden adequaat weerlegt.
Bewijsvermoeden
De RAIA stelt dat er een verband moet zijn tussen de schuld van de verweerder en de schade veroorzaakt door het AI-systeem. Dit verband staat vast als aan bepaalde voorwaarden is voldaan. De benadeelde moet aantonen dat de verweerder een zorgvuldigheidsplicht niet is nagekomen en dat dat deze handeling de werking van het AI-systeem heeft beïnvloed. Als de benadeelde ten slotte aantoont dat het AI-systeem de schade heeft veroorzaakt, is de verweerder aansprakelijk tenzij hij kan bewijzen dat dit niet het geval is.
De benadeelde wordt extra tegemoetgekomen als het gaat om een AI-systeem met een hoog risico. Een aanbieder van een AI-systeem met een hoog risico wordt vermoed zijn zorgvuldigheidsplicht te hebben geschonden als hij niet voldoet aan één of meerdere vereisten van de AI-verordening. Een gebruiksverantwoordelijke wordt vermoed zijn zorgvuldigheidsplicht te hebben geschonden als hij het AI-systeem niet volgens de gebruiksaanwijzingen gebruikt of eigen, niet-relevante inputdata heeft gebruikt.
Vragen over AI en aansprakelijkheid
Heeft u naar aanleiding van deze blog een vraag? Neem dan contact op met Alexandra van Beelen of Hester Ellemers.
Dit blogartikel is onderdeel van een reeks waarin wij de AI-verordening en het gebruik van AI-systemen bespreken. Klik hieronder om de overige delen van deze reeks te lezen.
Verboden AI-systemen (Deel II)
AI-systemen met een hoog risico (Deel III)
Verplichtingen gebruiksverantwoordelijken (Deel IV)