Dit blogartikel is het zevende onderdeel van een reeks waarin wij de AI-verordening en het gebruik van AI-systemen bespreken. In deze blog gaan wij in op AI en de AVG. Over twee weken zal het achtste onderdeel van de reeks verschijnen. Onderaan dit artikel vindt u de links naar de overige artikelen.
AI blogreeks deel VII – AI en de AVG
In deze blog gaan we in op de verhouding tussen de AI-verordening en de Algemene verordening gegevensbescherming (AVG). Daarbij nemen we AI-systemen met een zelflerend vermogen als uitgangspunt. Deze systemen worden getraind om verbanden te leggen tussen de ingevoerde gegevens (input), waarna het systeem voorspellingen (output) genereert. Dit roept privacyrechtelijke vragen op. Mogen persoonsgegevens als input zomaar gebruikt worden om een AI-systeem te trainen? En welke mogelijke impact heeft de output van een AI-systeem op de privacy van een persoon?
De AVG
De AI-verordening is een nieuwe wet, die naast de AVG geldt. Dit betekent dat je, als je een AI-systeem traint of gebruikt met persoonsgegevens, zowel aan de vereisten van de AI-verordening als aan die van de AVG moet voldoen. De AVG is immers van toepassing op de verwerking van persoonsgegevens.
Persoonsgegevens
Persoonsgegevens zijn volgens de AVG alle gegevens die direct of indirect iets zeggen over een individuele persoon. Bij een AI-systeem kunnen er verschillende verwerkingen van persoonsgegevens onderscheiden worden. Aan de inputkant kunnen persoonsgegevens worden gebruikt om een AI-systeem te trainen. Aan de outputkant kunnen persoonsgegevens worden verwerkt om het AI-systeem te gebruiken en bijvoorbeeld geautomatiseerde beslissingen te nemen over een persoon.
Rolverdeling
De verplichtingen die gelden op grond van de AVG zijn afhankelijk van de rol die een partij heeft ten aanzien van de verwerking. Er zijn in ieder geval twee rollen:
- Verwerkingsverantwoordelijke: de partij die het doel en de middelen voor de verwerking vaststelt;
- Verwerker: de partij die slechts ten behoeve van de verwerkingsverantwoordelijke gegevens verwerkt onder zijn instructie.
Aan de inputkant zou gezegd kunnen worden dat de aanbieder van het AI-systeem het doel en de middelen bepaalt. De aanbieder ontwikkelt en traint het AI-systeem immers door middel van gegevens. Het ligt dan ook voor de hand dat de aanbieder als verwerkingsverantwoordelijke moet worden aangemerkt voor de verwerking van persoonsgegevens als input.
De gebruiksverantwoordelijke verwerkt mogelijk óók persoonsgegevens om output te genereren. De gebruiksverantwoordelijke bepaalt daarbij het doel van het gebruik van de persoonsgegevens in het AI-systeem. Het is echter de vraag of de gebruiksverantwoordelijke ook in staat is de middelen van de verwerking van persoonsgegevens te bepalen.
Enerzijds is het de gebruiksverantwoordelijke die besluit om het AI-systeem in te zetten, anderzijds is de werking van een AI-systeem zeer complex (wij bespraken in een eerdere blog ook al het blackboxeffect), waardoor niet volledig duidelijk is welke keuzes het AI-systeem zélf maakt bij de verwerking van persoonsgegevens. Alhoewel een gebruiksverantwoordelijke dus lijkt te kunnen worden aangemerkt als verwerkingsverantwoordelijke voor de persoonsgegevens aan de outputkant, is dit afhankelijk van de omstandigheden van het geval en is dit momenteel nog een grijs gebied.
Verplichtingen AVG
De verwerkingsverantwoordelijke moet ervoor zorgen dat de verwerking voldoet aan de verplichtingen uit de AVG. Dit betekent dat sprake moet zijn van een geldige grondslag om de persoonsgegevens te verwerken en dat de basisbeginselen van de AVG in acht moeten worden genomen. Eén van die beginselen houdt in dat de verwerking rechtmatig, behoorlijk en transparant is.
Een volledig transparante uitleg over de werking van het AI-systeem is echter niet mogelijk vanwege het blackboxeffect. De gebruiksverantwoordelijke moet in ieder geval duidelijk maken dat de uitkomsten van het AI-systeem door kunstmatige intelligentie tot stand zijn gekomen en dit kenbaar maken aan de betreffende personen, bijvoorbeeld in een privacyverklaring.
Daarnaast moeten persoonsgegevens verzameld worden voor welbepaalde, uitdrukkelijk omschreven en gerechtvaardigde doeleinden en mogen ze vervolgens niet verder worden verwerkt op een manier die niet verenigbaar is met die doelen. Dit doelbindingsbeginsel vormt een uitdaging voor aanbieders die AI-systemen willen trainen met persoonsgegevens.
Een mogelijke oplossing is het anonimiseren van de persoonsgegevens, voordat ze worden gebruikt om AI-systemen te trainen. Geanonimiseerde gegevens vallen buiten de reikwijdte van de AVG, omdat ze niet langer herleidbaar zijn tot een individuele persoon. Persoonsgegevens blijken in de praktijk echter lastig te anonimiseren en het zorgt er daarnaast voor dat de voorspelling/output van het AI-systeem moeilijk te controleren is.
DPIA
Een andere verplichting onder de AVG is het uitvoeren van een Data Protection Impact Assessment (DPIA) om de risico’s voor betrokkenen te identificeren en maatregelen te treffen. Het uitvoeren van een DPIA is verplicht voor verwerkingen die een hoog risico vormen voor de privacy van de betrokken personen. Dit is in ieder geval zo bij de inzet van AI-systemen voor geautomatiseerde besluitvorming op basis van profilering. In eerdere blogs bespraken we de beoordeling van grondrechten bij AI-systemen met een hoog risico (FRIA) en de conformiteitsbeoordeling. Deze vullen de DPIA-verplichting aan.
Heeft u naar aanleiding van deze blog een vraag? Neem dan contact op met Alexandra van Beelen of Hester Ellemers.
Dit blogartikel is onderdeel van een reeks waarin wij de AI-verordening en het gebruik van AI-systemen bespreken. Klik hieronder om de overige delen van deze reeks te lezen.
Verboden AI-systemen (Deel II)
AI-systemen met een hoog risico (Deel III)
Verplichtingen gebruiksverantwoordelijken (Deel IV)