Bias (AI)

AI-bias is wanneer een AI-systeem systematisch oneerlijke resultaten produceert voor bepaalde groepen — niet door kwade wil, maar doordat ongelijkheden uit historische trainingsdata worden overgenomen. Juridisch en ethisch relevant voor elk bedrijf dat AI inzet.
SNELLE WEETJES
OorzaakOngelijke trainingsdata
RisicoDiscriminatie, juridisch
RegelgevingEU AI Act
OplossingBewust databeleid

Wat is AI-bias?

AI-bias is wanneer een AI-systeem systematisch oneerlijke of onnauwkeurige resultaten produceert voor bepaalde groepen mensen. Het model behandelt gelijke situaties ongelijk — op basis van geslacht, etniciteit, leeftijd, taal of andere kenmerken — niet omdat het dat bewust doet, maar omdat die ongelijkheid al aanwezig was in de data waarop het is getraind.

Hoe ontstaat het?

Een AI-model leert van historische data. Als die data ongelijkheden uit het verleden bevat — sollicitanten uit bepaalde regio’s werden minder vaak uitgenodigd, bepaalde bevolkingsgroepen werden vaker geweigerd voor leningen — dan leert het model die patronen als “normaal” beschouwen en reproduceert ze. Het model is geen spiegel van de wereld zoals die zou moeten zijn, maar van de wereld zoals die was.

Concrete voorbeelden

Een AI-rekruteringstool die mannelijke kandidaten bevoordeelt omdat historisch gezien meer mannen aangenomen werden. Een gezichtsherkenningssysteem dat beter presteert voor mensen met een lichte huid omdat de trainingsdata voornamelijk uit die groep bestond. Een kredietbeoordelingsmodel dat lagere scores geeft aan bepaalde postcodes omdat die in het verleden hogere wanbetalingspercentages kenden.

Waarom relevant?

Als je AI inzet voor klantinteracties, personeelsbeleid of kredietbeoordeling, ben je juridisch en ethisch verantwoordelijk voor de uitkomsten. De EU AI Act stelt eisen aan transparantie en non-discriminatie voor AI-toepassingen in hoogrisicogebieden. Bias is geen technisch probleem dat vanzelf verdwijnt — het vereist bewuste keuzes in dataverzameling, modelontwerp en monitoring.