Dit artikel is het zevende deel van onze serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De komende tijd verschijnt er elke 2 weken een artikel in deze serie. In dit introductieblog lees je meer over wat deze serie inhoudt en vind je links naar de tot nu toe verschenen artikelen.

De mensheid kan de ontwikkeling van AI in grote mate sturen. Dat bespraken we al in het vorige deel van deze blogserie. Het is verleidelijk om fouten bij de inzet van AI aan het AI-systeem te wijten, maar we blijven hier toch echt zelf verantwoordelijkheid voor. Het is cruciaal dat we er bij de ontwikkeling van AI-systemen alles aan doen om deze betrouwbaar en in lijn met menselijke waarden te maken.

In dit blog ga ik dieper in op de impact van individuen en teams die betrokken zijn bij het ontwikkelen en implementeren van AI-systemen. Dat doe ik aan de hand van vijf principes, die uit een paper van Harvard over ‘Principled Artificial Intelligence’ komen:

  1. Nauwkeurigheid
  2. Verantwoord ontwerp
  3. Langetermijneffecten
  4. Samenwerking
  5. Wetenschappelijke integriteit

1. Nauwkeurigheid

Het principe ‘nauwkeurigheid’ verwijst in deze context naar het vermogen van AI-systemen om accurate voorspellingen te doen en juiste beslissingen te nemen. Daarbij is het belangrijk dat de publieke waarden en mensenrechten beschermd blijven. 

We hebben valide en bruikbare meetmethoden nodig voor het evalueren van de effectiviteit van AI-systemen. Daarmee kan op tijd worden gedetecteerd dat een systeem biased output produceert of last heeft van het bekende fenomeen ‘datadrift’. Datadrift houdt in dat het model wegdrijft van de data waarop het is getraind, doordat het in de loop van de tijd aan meer data wordt blootgesteld. Met als gevolg dat het minder nauwkeurig of effectief wordt in het doen van voorspellingen of nemen van beslissingen.

Professionals moeten zichzelf continu de vraag blijven stellen: hoe accuraat is dit AI-systeem? Zo waarborgen we dat het AI-systeem nu én in de toekomst betrouwbare resultaten produceert. 

2. Verantwoord ontwerp

Regelgeving kan het tempo van de huidige ontwikkelingen niet altijd bijhouden, terwijl de impact op de maatschappij groot is. Dat brengt een bijzondere verantwoordelijkheid met zich mee voor professionals die AI-systemen ontwerpen, ontwikkelen en implementeren. De Nederlandse AI Coalitie pleit bijvoorbeeld voor het ontwikkelen van AI-systemen vanuit een ‘ethisch verantwoord en maatschappelijk zinvol perspectief’.  Dat betekent dat professionals geïnformeerd moeten blijven over maatschappelijke kwesties. Uiteindelijk zullen zij aan de hand van een set ethische principes de slag moeten maken naar de technologische praktijk. Een Algoritme Effect Beoordeling (AEB) kan daarbij helpen.

3. Langetermijneffecten

De ontwikkeling van AI kan op de lange termijn zowel positief als negatief uitpakken. Mogelijke positieve effecten zijn bijvoorbeeld grote economische voordelen en medische vooruitgang. Er zijn echter ook zorgen over het effect van AI op onze fundamentele rechten en democratie.

Al tijdens het ontwerp- en implementatieproces zullen professionals moeten nadenken over de mogelijke langetermijneffecten van een AI-toepassing. Bijvoorbeeld door kritische vragen stellen te stellen. Denk aan:

  • Is het wenselijk dat AI een rol speelt in de toepassing die gebruikt wordt?
  • Wat voor personen of groepen ondervinden negatieve impact?
  • Heeft de toepassing impact op een groter geheel, zoals het milieu of de rechtsstaat?

4. Samenwerken

Om AI-systemen maatschappelijk en ethisch verantwoord te maken mag het belang van samenwerking met beleidsmakers en academici niet worden onderschat. Beleidsmakers hebben een diepgaand begrip van de maatschappelijke en wettelijke implicaties van AI. Academici dragen bij aan een wetenschappelijke basis. Dit verbreedt het perspectief van een team en voorkomt dat onbedoelde gevolgen over het hoofd worden gezien. 

5. Wetenschappelijke integriteit

AI speelt ook een rol in de hedendaagse wetenschappelijke praktijk. Tegelijkertijd is AI in de kern gebaseerd op wetenschappelijk onderzoek. Wetenschappelijke integriteit moet de betrouwbaarheid van de gebruikte methodologieën en technieken tijdens onderzoek waarborgen. Ook dit draagt bij aan de nauwkeurigheid en effectiviteit van een AI-systeem.

Een verantwoordelijkheid van ons allemaal

Het is inmiddels duidelijk dat de professionals die werken aan AI-systemen zorgvuldig te werk moeten gaan. Door de snelle ontwikkeling van AI en het gebrek aan goede wetgeving dragen zij een grote verantwoordelijkheid. Tegelijkertijd blijft de manier waarop de output van AI-systemen gebruikt wordt natuurlijk een keuze en verantwoordelijkheid van ons allemaal.

Dit artikel is onderdeel van onze AI-serie, waarin we je door de belangrijkste ontwikkelingen in AI gidsen. De volgende artikelen zijn in deze serie verschenen:
1. AI en het onvermijdelijke debat over privacy
2. AI verantwoord inzetten kan alleen als iemand accountable is
3. Zo voorkom je dat je AI-toepassing schade aanricht
4. AI en transparantie: geef gebruikers een kijkje in de keuken
5. Hoe voorkom je dat AI gaat discrimineren?
6. Waarom we de controle op AI nog lang niet kwijt zijn
7. Zo neem je je verantwoordelijkheid bij het ontwerpen, ontwikkelen en toepassen van AI
8. Hoe zorgen we ervoor dat AI zich houdt aan onze (publieke) waarden?


Over de auteur

Terug naar het overzicht