Dit artikel is het tweede deel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De komende tijd verschijnt er elke 2 weken een artikel in deze serie. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

AI heeft veel impact op mensen en de maatschappij. In ons vorige artikel bespraken we bijvoorbeeld al de grote impact op privacy. Maar wie is verantwoordelijk en aansprakelijk voor die impact? Dat is waar accountability over gaat. In dit artikel bespreken we wat accountability precies is en wat er nodig is om die accountability effectief in te zetten.

Wat is accountability?

Accountability heb je als je verantwoording moet afleggen voor wat je doet of voor wat je juist nalaat te doen. Als het gaat om een AI-systeem komen dit soort vragen dan naar voren:

  • Wie is verantwoordelijk en aansprakelijk voor het gebruik en de effecten van een AI-systeem?
  • Hoe kun je aantonen dat je in control bent op eventuele negatieve effecten?
  • Leg je die rekenschap achteraf af of doe je dat proactief om daarmee ook het vertrouwen in de toepassing te stimuleren?

Belangrijke principes om accountability effectief in te zetten

De afgelopen jaren zijn er volop frameworks opgesteld om AI in goede banen te leiden. Een aantal principes rond accountability komt in die frameworks steeds terug. Deze principes zullen we de komende jaren terug gaan zien in wetgeving en zullen waarschijnlijk een grote rol gaan spelen in het verantwoord inzetten van AI. Sommige principes zijn vooral van belang in de ontwerpfase van een AI-systeem, anderen in de uitvoeringsfase en weer andere principes zijn van belang als het een keer mis gaat.

Heldere aansprakelijkheid en wettelijke verantwoordelijkheid

Als mensen of organisaties schade ondervinden door een AI-systeem of zich daar zorgen over maken, moet het duidelijk zijn wie hierop aangesproken kan worden.

Ethische commissie/AI-commissie

Dit orgaan overziet en monitort het gebruik van standaarden en best practices in de toepassingen van AI. Met name in relatie tot inbreuken op mensenrechten, vrijheden, waardigheid en privacy. De commissie kijkt daarbij onder andere naar hoe de ethische besluitvorming wordt uitgevoerd. Dit orgaan is betrokken bij zowel de ontwerpfase als de uitvoeringsfase van AI.

Impact Assessment

De impact van een concrete toepassing van AI moet al vanaf de ontwerpfase aantoonbaar beoordeeld worden. Uit de beoordeling moet blijken wat de impact is op:

  • de rechten en vrijheden van personen
  • mensenrechten
  • mogelijk andere maatschappelijke en omgevingseffecten

Overigens zal er altijd sprake zijn van positieve en negatieve impact. De vraag is wat er vervolgens wordt gedaan om de negatieve impact te beperken.

Controleerbaarheid en reproduceerbaarheid

Een AI-systeem moet voorspelbaar zijn. Het moet hetzelfde gedrag vertonen in vergelijkbare situaties en dit moet voldoende gevalideerd kunnen worden. Dit helpt ook om ongewenste veranderingen in het systeem snel te detecteren, of deze nu vanuit machine learning worden gevormd of vanuit manipulatie of andere vormen van oneigenlijk gebruik. Dit principe moet al in de ontwerpfase geïmplementeerd worden. 

Evaluatie en auditing

AI-systemen moeten gecontroleerd kunnen worden om te zien of ze naar behoren werken. Maar dit principe gaat verder dan alleen controle: het gaat ook om het regelmatig evalueren en verbeteren van het systeem.

Mogelijkheid om in beroep te gaan

Als er met behulp van AI besluiten over mensen worden genomen, dan moeten die mensen een eenvoudige manier hebben om dat besluit aan te vechten. Dat betekent ook dat deze mensen moeten weten dat die mogelijkheid bestaat. 

Stimuleren van toegepaste regelingen en normen

Er moeten duidelijke regels en normen zijn voor specifieke AI-toepassingen, zoals bewaking of fraudeonderzoek. Door heldere richtlijnen te hebben, wordt het makkelijker voor iedereen om AI op een acceptabele manier te gebruiken.

De Algoritme Accountability Aanpak

Accountability met betrekking tot AI is een essentieel onderdeel van een duurzaam databeleid. Wij hebben hiervoor een Algoritme Accountability Aanpak ontwikkeld, die lerende organisaties stimuleert om accountability stapsgewijs in te richten, uit te voeren en verder te verbeteren. Zo worden gaandeweg instrumenten ontwikkeld die zowel beleidsmatig als operationeel goed voor de organisatie werken.

Meer weten? Neem dan contact op met Joris Hutter via joris.hutter@pmpartners.nl of 085 401 38 66.

Dit artikel is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De volgende artikelen zijn in deze serie verschenen:
1. AI en het onvermijdelijke debat over privacy
2. AI verantwoord inzetten kan alleen als iemand accountable is
3. Zo voorkom je dat je AI-toepassing schade aanricht
4. AI en transparantie: geef gebruikers een kijkje in de keuken
5. Hoe voorkom je dat AI gaat discrimineren?
6. Waarom we de controle op AI nog lang niet kwijt zijn
7. Zo neem je je verantwoordelijkheid bij het ontwerpen, ontwikkelen en toepassen van AI
8. Hoe zorgen we ervoor dat AI zich houdt aan onze (publieke) waarden?


Over de auteur

Terug naar het overzicht