Dit artikel is het vierde deel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De komende tijd verschijnt er elke 2 weken een artikel in deze serie. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

De exponentiële groei van AI in onze samenleving heeft geleid tot intensieve debatten en belangrijke vraagstukken rondom transparantie. Aangezien AI in diverse sectoren geïntegreerd wordt, varieert de complexiteit en werking van AI-toepassingen enorm. Hoe weten gebruikers dan nog wat een specifieke AI-toepassing precies doet? Daarop gaan we in dit artikel dieper in.

Wat is transparantie in AI eigenlijk?

Transparantie wordt gezien als een kernwaarde in de ontwikkeling van betrouwbare AI.1 Deze technologie kan een grote impact hebben. Daarom is het cruciaal dat we weten wanneer we te maken hebben met AI en hoe een AI-toepassing (ongeveer) werkt.

Van origine komt het begrip transparantie uit de natuurkunde2, waarbij het refereert aan de doorzichtigheid van een stof. Transparantie in AI gaat om diezelfde doorzichtigheid. In hoeverre kunnen we ‘door de AI heen kijken’ en zien welke werking en besluitvormingsprocessen erachter schuilgaan?

Zo maak je een AI-toepassing transparant

De High Level Expert Group on AI (HLEG AI) van de Europese Commissie heeft transparantie binnen AI gedefinieerd aan de hand van drie kernprincipes3:

1. Traceerbaarheid

Traceerbaarheid betekent dat gebruikers inzicht moeten krijgen in de gegevens die een AI-toepassing gebruikt en de algoritmen die eraan ten grondslag liggen. Dit is belangrijk om de AI-toepassing controleerbaar te houden. Daarnaast kunnen gebruikers met een globaal beeld van de AI-toepassing beter hun eigen uitkomst duiden.

2. Verklaarbaarheid

Naast de technologische kant van AI, is het van belang om de menselijke besluitvorming die eraan ten grondslag ligt te begrijpen. Dat is waar verklaarbaarheid over gaat. Een ontwikkelaar heeft bijvoorbeeld gekozen om bepaalde data wel belangrijk te achten en andere niet. Inzicht in technische en menselijke beslissingen samen maakt dat een specifieke beslissing van een AI-toepassing navolgbaar is.

3. Communicatie

Goede communicatie begint met het vertellen aan gebruikers dat ze met een AI-toepassing te maken hebben. Daarnaast moeten deze gebruikers een globaal idee krijgen van wat de AI-toepassing kan, maar ook wat hij niet kan. Het is belangrijk dat een producent of aanbieder de informatie op zo’n manier deelt, dat gebruikers het kunnen begrijpen. 

Na het lezen van de bovenstaande uitleg, heeft de scherpe lezer een aantal spanningsvelden ontdekt. Zo rijst de vraag of transparantie gaat over algemene informatie over de AI-toepassing, of informatie die relevant is voor de situatie van de gebruiker. Hier doet het begrip ‘explainability zijn intrede’.

Explainability: een bekend subconcept van transparantie

Onder de paraplu van transparantie vinden we verschillende subconcepten, waarvan ‘explainability’ (uitlegbaarheid) een belangrijke is. 

Dit concept legt de nadruk op het duidelijk uitleggen waarom een AI-toepassing een specifieke beslissing heeft genomen.

Laten we een simpel scenario schetsen om dit duidelijk te maken:

Jij wilt graag een dakkapel plaatsen en vraagt hiervoor een vergunning aan bij je gemeente. Die gemeente gebruikt een algoritme om te bepalen of jij die dakkapel wel of niet mag plaatsen. Er wegen allerlei factoren mee, zoals de hoogte van je huis en de grootte van de kapel. Transparantie en explainability zouden er dan zo uit kunnen zien:

  • Door transparantie weet je dat deze beslissing deels gemaakt wordt door een AI-toepassing. Je weet ook welke factoren meewegen. 
  • Door explainability weet je dat jouw verzoek is afgewezen, omdat de dakkapel die je wilde volgens het algoritme te groot is. Idealiter weet je ook hoe groot je dakkapel maximaal had mogen zijn.

Hoe meer risico, hoe hoger de transparantie moet zijn

De termen die hier zijn besproken vormen slechts de top van de ijsberg als het gaat om transparantie in AI. Het is duidelijk dat transparantie veelomvattend is, variërend van globaal inzicht in de werking van de AI-toepassing tot gedetailleerde uitleg van specifieke beslissingen. 

Een effectieve manier om te bepalen wat gebruikers moeten weten om een AI-toepassing te begrijpen, is door een Algoritme Effect Beoordeling (AEB) uit te voeren. Hierbij worden potentiële risico’s in kaart gebracht, waarover je gebruikers vervolgens proactief kunt informeren. Hoe meer risico de gebruiker loopt, hoe belangrijker het is dat een AI transparant is.

Dit artikel is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De volgende artikelen zijn in deze serie verschenen:
1. AI en het onvermijdelijke debat over privacy
2. AI verantwoord inzetten kan alleen als iemand accountable is
3. Zo voorkom je dat je AI-toepassing schade aanricht
4. AI en transparantie: geef gebruikers een kijkje in de keuken
5. Hoe voorkom je dat AI gaat discrimineren?
6. Waarom we de controle op AI nog lang niet kwijt zijn
7. Zo neem je je verantwoordelijkheid bij het ontwerpen, ontwikkelen en toepassen van AI
8. Hoe zorgen we ervoor dat AI zich houdt aan onze (publieke) waarden?

1 Guidelines Trustworthy AI: HLEG AI
2 Koivist:o the transparency paradox  ISBN: 9780192855466
3 Guidelines Trustworthy AI: HLEG AI


Over de auteur

Terug naar het overzicht