Dit artikel is het achtste en laatste deel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

“De verwerking van persoonsgegevens moet ten dienste van de mens staan”. Bij PMP verwijzen we vaak naar deze overweging van de AVG. Maar wanneer staat iets ten dienste van de mens? Wat vinden we daarin belangrijk? Normen en waarden spelen een belangrijke rol in het beantwoorden van die vragen. In deze blog deelde ik al dat we de controle over AI nog niet kwijt zijn. Aan ons de taak om AI de juiste normen en waarden mee te geven.

Heeft AI normen en waarden?

Ik besloot het eens te vragen aan ChatGPT. Dit was zijn antwoord op de vraag ‘Wat zijn jouw normen en waarden?’:

“Als een machine learning-model ontwikkeld door OpenAI, heb ik geen persoonlijke overtuigingen, voorkeuren of waarden. Mijn doel is om neutrale en informatieve antwoorden te bieden op basis van de gegevens waarop ik ben getraind. Het is belangrijk om te onthouden dat ethische normen en waarden persoonlijk zijn en kunnen variëren tussen individuen en culturen. Als je specifieke informatie of inzichten zoekt over ethische kwesties, kan ik je helpen met het verstrekken van informatie op basis van breed gedragen ethische principes.”

Het is goed dat ChatGPT aangeeft dat neutrale antwoorden slechts het doel zijn, want je kan je afvragen in hoeverre dit te garanderen is. De gegevens waarmee ChatGPT is getraind zijn niet neutraal. Die gegevens komen voort uit een context waarin normen en waarden een rol spelen. De antwoorden die ChatGPT geeft kunnen dus ook niet neutraal zijn. Dit geldt ook voor andere AI-systemen die zijn getraind op basis van historische data. 

AI heeft dus eigenlijk wél normen en waarden. Maar hoe zorgen we ervoor dat het de juiste normen en waarden heeft?

Bepalen welke normen en waarden belangrijk zijn

Allereerst is het belangrijk om te bepalen welke normen en waarden we belangrijk vinden. ChatGPT noemde in zijn antwoord ‘breed gedragen ethische principes’. Daarbij kun je bijvoorbeeld denken aan rechten die in de Universele Verklaring van de Rechten van de Mens staan. Ethische principes waar een groot deel van de mensheid achter staat. Maar vaak is het nodig om het ook op kleinere schaal te bekijken. Dan kom je uit bij de publieke waarden. Deze beschrijven wat we als collectief belangrijk en waardevol vinden in onze samenleving. Zeker voor AI-toepassingen die door de overheid worden ingezet is dit enorm belangrijk.

Tegenstrijdige waarden in balans brengen

Er is iets wat het borgen van normen en waarden in AI lastig maakt: ze zijn vaak tegenstrijdig. Het rapport iOverheid van de WRR beschrijft hoe er bij digitalisering in de publieke sector vaak verschillende beginselen worden afgewogen. Dit heeft invloed op hoe technologie uiteindelijk vorm krijgt en wordt uitgewerkt in de samenleving. 

Deze beginselen worden onderverdeeld in drie categorieën: 

  1. Stuwende beginselen: de drijvende waarden van de overheid om te digitaliseren
  2. Verankerde beginselen: waarden die vrijheden van de burger waarborgen
  3. Procesmatige beginselen: procedures om de stuwende en verankerde beginselen tegen elkaar af te wegen

De balans tussen deze beginselen is uiteindelijk ook een politieke uitkomst. Een voorbeeld:

  1. Veiligheid als stuwend beginsel om een bepaalde technologie in te zetten
  2. Privacy als verankerd beginsel dat tegenwicht biedt (wat betekent die technologie voor onze privacy?)
  3. Transparantie kan vervolgens als procesmatig beginsel zorgen dat de besluitvorming goed inzichtelijk is voor de burger

Praktische aanpak

Als we willen dat AI ten dienste van de mens staat, dan moeten we goed nadenken over publieke waarden en ethische aandachtspunten. Het liefst al vóór het in gebruik wordt genomen. Worden er persoongegevens verwerkt door de AI-toepassing? Dan kun je dat bijvoorbeeld doen tijdens het uitvoeren van een Data Protection Impact Assessment (DPIA). In een DPIA worden de risico’s voor alle rechten en vrijheden van de betrokkenen beoordeeld. Daarnaast biedt de DPIA vanuit de AVG ook de mogelijkheid om de betrokkenen te vragen naar hun mening (artikel 35 lid 9). Zo zijn er genoeg momenten om stil te staan bij de impact van een AI-toepassing op publieke waarden en om het gesprek hierover met elkaar aan te gaan.

Dit artikel is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De volgende artikelen zijn in deze serie verschenen:
1. AI en het onvermijdelijke debat over privacy
2. AI verantwoord inzetten kan alleen als iemand accountable is
3. Zo voorkom je dat je AI-toepassing schade aanricht
4. AI en transparantie: geef gebruikers een kijkje in de keuken
5. Hoe voorkom je dat AI gaat discrimineren?
6. Waarom we de controle op AI nog lang niet kwijt zijn
7. Zo neem je je verantwoordelijkheid bij het ontwerpen, ontwikkelen en toepassen van AI
8. Hoe zorgen we ervoor dat AI zich houdt aan onze (publieke) waarden?


Over de auteur

Terug naar het overzicht