Dit artikel is het eerste deel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De komende tijd verschijnt er elke 2 weken een artikel in deze serie. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

In bijna alle frameworks die worden opgesteld om AI in goede banen te leiden komt het thema privacy terug. Uit een verzamelstudie blijkt dat 97% (!) van 36 prominente AI-documenten privacy als kernpijler benoemt. Dat is ook niet zo gek, aangezien AI regelmatig ‘gevoed’ wordt met persoonsgegevens. Recente incidenten, zoals de toeslagenaffaire en de fraudecontroles op studiebeurzen door DUO, hebben dit thema nog urgenter gemaakt.

In dit artikel gaan we dieper in op hoe AI en privacy met elkaar samenhangen.

Als je mensen met AI wilt dienen, heb je vaak gegevens van mensen nodig

Het is logisch dat er juist bij systemen en diensten die mensen echt treffen, gezocht wordt naar extra efficiëntie en intelligentie. AI wordt bijvoorbeeld al veelvuldig ingezet in de medische wereld.

Maar om mensen met AI te kunnen dienen, moeten we de AI meestal ook voeden met informatie over mensen. Modellen die het weer of aardbevingen voorspellen, bevatten misschien geen informatie die herleidbaar is naar personen. Dat is anders voor modellen die fraude detecteren, kredietscores bepalen of sollicitatiebrieven beoordelen. Hetzelfde geldt voor de bekende taalmodellen, zoals ChatGPT, die stukken genereren op basis van op internet beschikbare teksten (large language models of LLM’s). 

Hoe meer deze data een weergave vormen van de werkelijkheid, hoe beter AI presteert. AI werkt daarom goed met gegevens die volgens privacyprincipes beschermd moeten worden. Daardoor krijg je bij vrijwel elke maatschappelijke toepassing van AI te maken met privacy. 

Aloude privacyprincipes zijn ook relevant voor AI

AI is vaak afhankelijk van gegevens die toebehoren aan- of slaan op natuurlijke personen. Dat betekent dat de aloude, bevochten rechten en principes uit privacy hier relevant zijn. 

Waarom vinden we privacy en gegevensbescherming belangrijk? 

Mocht je je daar echt in willen verdiepen, dan raad ik aan het boek Privacy is Power van Carissa Véliz eens te lezen. Laten we ons voor nu beperken tot twee dingen die in de rijke literaire traditie steeds terugkomen: dat mensen het recht hebben om te weten wat er met hun gegevens gebeurt (informatie) en daar waar mogelijk zelf ook iets over te zeggen hebben (autonomy / agency).

Wat betekent dat voor AI-systemen? 

Zoals in het algemeen geldt bij persoonsgegevens: de systemen moeten de privacy van individuen respecteren.

Dat betekent dat we op zijn minst het publiek op de hoogte moeten stellen van hoe data wordt gebruikt om de systemen te trainen, ontwikkelen of implementeren. Vooral degenen die direct effecten ondervinden van AI, moeten goed geïnformeerd worden. Ook moeten zij iets over die effecten kunnen zeggen. Ze mogen er geen lijdzaam, willoos slachtoffer van worden. 

In de AVG is beschreven dat men niet zomaar zonder ‘informatie’ of ‘agency’ onderworpen mag worden aan kunstmatig intelligente toepassingen (zie artikel 22 en overweging 71: “betrokkene dient het recht te hebben niet te worden onderworpen aan een louter op geautomatiseerde verwerking gebaseerd besluit [met aanzienlijke gevolgen voor betrokkene]”).

Het is logisch dat we naar privacy kijken als we het hebben over de regulering van AI

Ook sociaalhistorische ontwikkelingen dragen eraan bij dat AI en privacy zo met elkaar vervlochten zijn. De digitale revolutie heeft de afgelopen decennia gezorgd voor een enorme toename in digitaal (ver)werken. Dat riep een dringende vraag op naar een nieuwe omgang met gegevens. Daarom zijn in de recente geschiedenis veel vooruitstrevende richtlijnen, toezichtsmechanismen en wetten ontstaan rondom gegevensverwerking. Een voorbeeld hiervan in Europa is de AVG. AI en algoritmische besluitvorming vormen niets anders dan de nieuwste fase in deze digitale revolutie. Het is dus logisch dat we voor het inregelen van AI naar privacy/gegevensbescherming kijken, omdat dat de laatste digitale ontwikkeling was die op redelijk geslaagde wijze is gereguleerd.

Privacy en AI zijn dus onlosmakelijk met elkaar verbonden. Dat betekent dat mensen die werkzaam zijn binnen privacy langzamerhand steeds meer gaan vinden van ontwikkelingen op AI-gebied (getuige deze blogreeks en de oprichting de AI-tak van de International Association of Privacy Professionals). Aan de andere kant zullen AI-experts en -ontwikkelaars waarschijnlijk bestookt blijven worden met het belang van gegevensbescherming en privacy. Het is goed om te beseffen waar en hoe deze twee thema’s overlappen, maar vooral ook waar dit niet het geval is. Zo kun je de veelvoud aan informatie en berichtgeving hierover beter duiden. Hopelijk heeft dit blog hiervoor een eerste aanzet gedaan.

In het volgende artikel in deze blogreeks: waarom wordt er in discussies over AI zo vaak gehamerd op rekenschap (oftewel: accountability)?

Deze publicatie is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. Over twee weken verschijnt er een blog van Joris Hutter over Accountability, waarin we antwoord geven op de vraag: waarom wordt er in discussies over AI zo vaak gehamerd op rekenschap?


Over de auteur

Terug naar het overzicht