AI is everywhere, but where is it exactly?’ (Shane, p. 29)

Slimheid

slimmerAI leert door voorbeelden en training, niet door begrip zoals mensen dat kennen: het volgt patronen, niet intenties. De gevaarlijke kant van AI is niet dat het te slim wordt, maar dat het niet slim genoeg is. AI begrijpt namelijk vaak niet het probleem zoals een mens dat bedoelt. De kwaliteit van de data waarmee een machine-learning-model getraind wordt, bepaalt sterk wat het leert, inclusief vooroordelen in die data.

Historie

Machine-learning modellen leren niet op basis van menselijke logica of begrip, maar door patronen te herkennen in voorbeelden. De kwaliteit, representativiteit en neutraliteit van die voorbeelden bepalen in hoge mate wat het model leert en wat het niet leert.

Wanneer een AI-systeem wordt getraind op bestaande datasets, leert het in feite een samenvatting van het verleden. Als die historische gegevens scheef verdeeld zijn of bepaalde groepen onder- of oververtegenwoordigen, dan zal de AI die scheefheid reproduceren. Een bekend voorbeeld hiervan is gezichtsherkenningstechnologie die slechter presteert bij mensen met een donkere huidskleur, omdat de trainingsdata overwegend uit beelden van witte gezichten bestonden. De AI “zag” dus minder variatie in huidskleuren, en leerde daardoor onnauwkeurige patronen.

Afleren

Bias in AI kun je zien als een vorm van ‘afgeleerd gedrag’: het systeem kopieert de vooroordelen die al in de menselijke data aanwezig zijn. Denk aan algoritmen die cv’s beoordelen: als eerdere succesvolle kandidaten overwegend mannen waren, kan de AI ten onrechte concluderen dat mannelijkheid een voorspeller is van geschiktheid. De machine heeft geen moreel oordeel; zij herkent slechts correlaties, geen oorzakelijke verbanden of ethische grenzen.

Herkomst

In veel moderne neurale netwerken is het niet meer duidelijk waarom een systeem tot een bepaalde uitkomst komt. Dit gebrek aan transparantie (ook wel het black box-probleem genoemd) maakt het moeilijk om fouten te corrigeren of verantwoordelijkheid toe te wijzen. Zo kan een model een bepaald beeld classificeren of een beslissing nemen op basis van irrelevante kenmerken die toevallig in de trainingsdata voorkwamen (bijvoorbeeld de achtergrondkleur van een foto in plaats van het object zelf).

Daarom is het belangrijk de herkomst, samenstelling en representativiteit van datasets te controleren voordat ze worden gebruikt. Bias is geen technisch defect, maar een sociaal weerspiegelingsprobleem: de vooroordelen van de samenleving vinden hun weg naar de code. AI doet wat we zeggen, niet wat we bedoelen. Dit maakt haar beslissingen vaak moeilijk te voorspellen. AI weerspiegelt de menselijke wereld, inclusief haar onvolkomenheden. De uitdaging is dus niet enkel technisch (het corrigeren van data of algoritmen), maar fundamenteel sociaal en ethisch: hoe kunnen we systemen ontwerpen die niet alleen leren wat wij doen, maar ook begrijpen wat wij bedoelen?

Beoordelingsvermogen

Naarmate AI-systemen betrouwbaarder lijken, neemt bij ons de geneigdheid toe om blind op ze te vertrouwen. Dit fenomeen heet automation bias. Het menselijk beoordelingsvermogen verzwakt door gewoontevorming en vertrouwen op technologie.
.

Literatuur

Shane, J. (2019). You look like a thing and I love you. Wildfire
Woldendorp, H., A. Jeninga en A. Eliens. (2025). Kun je me doorverbinden met…mezelf? Een reisgids voor kinderen en volwassenen. Uitgever Virtuoos