De steeds verdergaande digitalisering van processen in bedrijven en de maatschappij heeft zijn nut. Bijvoorbeeld in snelheid, kosten en het zien van verbanden. Dat dit ook verkeerd kan uitpakken én dat dit niet alleen een technische uitdaging is, is voor velen wel duidelijk. 

Als leesvoer voor de kerstvakantie raad ik drie rapporten uit 2021 aan. Om het gesprek te faciliteren over een goede inzet van algoritmes in de organisatie of keten. En om uiteindelijk natuurlijk ook de manier van handelen te verbeteren.

1. Opgave AI. De nieuwe systeemtechnologie

De Wetenschappelijke Raad voor het Regeringsbeleid heeft in november het rapport Opgave AI. De nieuwe systeemtechnologie uitgebracht. Artificial Intelligence is net als elektriciteit of de verbrandingsmotor een systeemtechnologie. Kies dan bewust het toepassingsdomein en ontwikkel daar het socio-ecosysteem. Een lerende organisatie en opgeleide en kritische stakeholders zorgen voor realisme en het voorkomen van misplaatste angsten en overspannen verwachtingen. 

2. Aanpak Impact Assessment Mensenrechten en Algoritmes

De aanpak Impact Assessment Mensenrechten en Algoritmes stimuleert een interdisciplinaire dialoog op het gebruik van algoritmes in relatie tot mensenrechten. Het geeft handvatten om vast te stellen wat voor rechten aangetast kunnen worden. Hierbij gelden altijd het gelijkheidsbeginsel, het recht op persoonsgegevensbescherming, het recht op behoorlijk bestuur en procedurele grondrechten. De aanpak geeft daarnaast een mooi overzicht van andere type mensenrechten die al dan niet van belang kunnen zijn bij de specifieke toepassing. Deze rechten zijn niet absoluut, maar moeten in relatie tot elkaar en tot de toepassing worden gezien. Afhankelijk van de mate van aantasting is een niveau van zorgvuldigheid vereist. 

3. Handreiking non-discriminatie by design

Een bijzonder aandachtspunt is het bewustzijn en de aanpak van discriminatie binnen een toepassing. Het doel van een toepassing is om een onderscheiden en gerichte actie of besluit te nemen op iemand of een groep van personen. Ongewenste discriminatie ligt dan op de loer. Deze kan veroorzaakt worden door de type gegevens die worden gebruikt of waarmee het algoritme wordt getraind, maar ook door opvattingen van de ontwikkelaars. Als dan ook de gebruikers die het algoritme toepassen onvoldoende zelfstandig nadenken en handelen, dan kan er heel wat misgaan. De Handreiking non-discriminatie by design is bedoeld voor de projectleider van een AI-toepassing en helpt om de juiste vragen te stellen om ongewenste discriminatie te signaleren en aan te pakken. 

Hoe PMP kan helpen

Als PMP hebben we op de vorming van een duurzaam databeleid met algoritmes een Algoritme Accountability Aanpak en een Algoritme Effect Beoordeling samengesteld. Deze laatste geeft in het verlengde van de DPIA de type risico’s van een toepassing weer die specifiek zijn verbonden met het algoritme. De Algoritme Accountability Aanpak stimuleert voor een lerende organisatie dat er:

  • zowel vanuit een beleidskader en programma wordt gewerkt;
  • operationeel toepassingsbeleid gekozen en gebruikt wordt;
  • ervaring wordt opgedaan met het ontwikkelen en toepassen van algoritmische toepassingen.

Een eerste stap is een nulmeting/beleidsworkshop om het beleidskader en programma richting te geven.


Terug naar het overzicht