Dit artikel is het vijfde deel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De komende tijd verschijnt er elke 2 weken een artikel in deze serie. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

Rechtvaardigheid en non-discriminatie in AI is een ‘hot topic’. Gelukkig, want een gebrek aan aandacht voor dit thema kan resulteren in het benadelen van groepen personen. Eerder in deze reeks werden al wat pijnlijke voorbeelden genoemd, waaruit blijkt hoe het mis kan gaan als er onvoldoende aandacht is voor rechtvaardigheid en non-discriminatie in een AI-toepassing. 

Maar wat verstaan we eigenlijk onder discriminatie, op welke manier kunnen aanbieders het voorkomen en wat maakt dat dit thema minstens zo relevant zal blijven in de toekomst van AI?

Wat betekenen rechtvaardigheid en non-discriminatie in de context van AI?

Het verbod op discriminatie staat in de Grondwet (artikel 1) en het Handvest (artikel 21). Die schrijven voor dat iedere inwoner in gelijke gevallen gelijk behandeld moet worden. Ook de Algemene Verordening Gegevensbescherming kan van toepassing zijn. Volgens de AVG moeten persoonsgegevens namelijk extra beschermd worden, als die door hun aard bijzonder gevoelig zijn met betrekking tot grondrechten en fundamentele vrijheden. AI-governance en grondrechten zijn dus nauw met elkaar verbonden.

Non-discriminatie betekent dat alle demografische groepen gelijk moeten zijn, vergeleken met het collectief of de ‘centrale tendentie’. In de context van AI betekent dit dat bij het ontwerpen van een algoritme moet worden voorkomen dat algorithmic bias ontstaat. Gebeurt dat niet, dan kan het algoritme bepaalde kenmerken van een demografische groep systematisch onder- of overschatten. Zulke toepassingen leiden per definitie tot meer ongelijkheid.

Hoe discriminatie in AI ontstaat én hoe je het voorkomt

Discriminatie kan in verschillende stadia in een AI-toepassingen sluipen, van de ontwerpfase tot (het gebruik van) de uiteindelijke output van een AI-toepassing. Hieronder zet ik de meest voorkomende oorzaken hiervan onder elkaar: 

Er zit bias in de data

Tijdens het verzamelen van trainingsdata voor een AI-toepassing moet de aanbieder al alert zijn op mogelijke bias in de data. AI is namelijk niet ‘slim’ en heeft geen ‘sociaal kompas’. AI gaat uit van de kwaliteit en juistheid van gegevens: garbage in, garbage out. Het due diligence proces aan het begin van een nieuwe toepassing zou daarom holistisch moeten zijn en mag niet beperkt blijven tot het voorkomen van technische vooringenomenheid.

Niet alle groepen worden gerepresenteerd in de datasets

Zorg ervoor dat alle mogelijke groepen worden gerepresenteerd in de datasets waarop AI wordt getraind. Dit gaat regelmatig mis. Denk bijvoorbeeld aan een personal assistant die geen lokaal dialect verstaat, of medisch gereedschap dat ongeschikt is voor bepaalde huidskleuren of leeftijdscategorieën.

Er is sprake van function creep

Aanbieders moeten de doelstelling van een AI-toepassing van tevoren scherpstellen. De output moet vervolgens ook op de juiste manier worden geïnterpreteerd en niet worden gebruikt voor een ander doel. Daarvoor is de data namelijk niet representatief en volledig (function creep).

De toepassing doet geen recht aan onderlinge gelijkheid

Gelijkheid moet in de uiteindelijke output en het gebruik daarvan centraal staan. ‘Doet deze AI-toepassing recht aan onderlinge gelijkheid tegenover alle groepen die mogelijk worden beïnvloed?’ Als het antwoord nee is, dan leent het proces zich mogelijk niet voor een algoritmische toepassing.

Besteed dus – van begin tot eind – voldoende aandacht aan de manieren waarop ongelijkheid in een AI-toepassing kan sluipen. Voorkom daarmee dat een algoritme in een bepaalde context ongelijkheid in de hand werkt en controleer periodiek of het algoritme inderdaad werkt zoals van tevoren bedoeld.

Capable AI maakt het nog lastiger om discriminatie door AI te voorkomen

AI-toepassingen kunnen ondertussen steeds meer. Een interessante ontwikkeling die ik kort wil noemen is capable AI. In plaats van het genereren van een ‘simpele’ output zoals een nieuwe tekst of afbeelding, kan het model een reeks van acties genereren en uitvoeren. Capable AI kan autonoom communiceren met Application Programming Interfaces (API’s) en kennis- en informatieopslag. Hierdoor zou een AI-toepassing bijvoorbeeld websites kunnen maken en beheren. Op die manier wordt het internet gevoed met nieuwe bronnen, in theorie zonder enige menselijke interactie (en beoordeling). 

De hoeveelheid AI-gegenereerde content zal daarmee toenemen, terwijl het niet altijd duidelijk is dat daarbij überhaupt een algoritme is gebruikt. Controle op genoemde waarden als kwaliteit van data, bias in data en representativiteit binnen datasets neemt daardoor mogelijk af, met name wanneer openbare bronnen als input worden gebruikt. Ik ben benieuwd op welke manier we dit risico in de toekomst kunnen beheersen, zodat equality aangetoond wordt en algorithmic bias kan worden voorkomen. 

Dit artikel is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De volgende artikelen zijn in deze serie verschenen:
1. AI en het onvermijdelijke debat over privacy
2. AI verantwoord inzetten kan alleen als iemand accountable is
3. Zo voorkom je dat je AI-toepassing schade aanricht
4. AI en transparantie: geef gebruikers een kijkje in de keuken
5. Hoe voorkom je dat AI gaat discrimineren?
6. Waarom we de controle op AI nog lang niet kwijt zijn
7. Zo neem je je verantwoordelijkheid bij het ontwerpen, ontwikkelen en toepassen van AI
8. Hoe zorgen we ervoor dat AI zich houdt aan onze (publieke) waarden?


Over de auteur

Terug naar het overzicht