Gezichtsherkenning heeft een Januskop

Leestijd: 2 minuten

Teake Zuidema

Is je tronie wel eens verschenen op Internet? Dan is er een gerede kans dat je gezicht nu is opgenomen in een dataset die benut wordt voor het trainen van gezichtsherkenning. Het gaat om algoritmen die even goed terroristen kunnen opsporen als onschuldige burgers bespioneren.

De accuraatheid van gezichtsherkenning gaat met sprongen vooruit. Dat komt volgens het Amerikaanse National Institute of Standards and Technology (NIST) vooral door de toepassing van neurale netwerken. NIST testte in 2018 en 2019 127 algoritmen van 40 verschillende bedrijven. Het meest accurate programma – dat van het Japanse NEC – leverde bij het vergelijken van portretten in een database met video-opnamen in slechts 0,5 % van de gevallen een fout.

Die halve procent lijkt mooi. Toch is het een hoge score wanneer men zo’n algoritme gebruikt voor het opsporen van verdachte types in grote massa’s mensen. Stel dat het gebruikt zou worden op Schiphol. Met zo’n 70 miljoen bezoekers per jaar zou dat 35.000 fouten opleveren. De luchthavenpolitie kan dan per dag 1.000 mensen onterecht kunnen aanhouden.

Algoritmen kampen bovendien met racistische vooroordelen. Joy Buolamwini, een zwarte onderzoeker van MIT ontdekte in 2018 dat de algoritmes van Microsoft, IBM en het Chinese Megvii bij witten prima in staat waren het geslacht te herkennen van een foto, maar bij zwarten niet. Bij 35 % van de zwarte vrouwen kwamen de programma’s uit bij het verkeerde geslacht. Buolamwini heeft inmiddels de  Algorithmic Justice League opgericht om de samenleving te behoeden voor algoritmen met vooroordelen.

In April 2019 schreven KI-experts van Google, Facebook en Microsoft een open brief waarin ze Amazon verzochten te stoppen met de verkoop van gezichtsherkenning. Het is volgens de schrijvers duidelijk dat Amazon’s algoritmen veel meer fouten maakt bij zwarte gezichten dan bij witte. Om misbruik te voorkomen, ziet Google er van af zijn algoritme te verkopen.

Algoritmen zijn net zo goed als de datasets waarmee ze getraind zijn. Als er veel meer witte mannen in de data zitten dan zwarte vrouwen, dan zal de algoritme beter in staat zijn witte mannen te identificeren dan zwarte vrouwen. Het is dus belangrijk dat een dataset zo gevarieerd mogelijk is. Verder is het belangrijk dat de algoritmen getraind worden met opnamen waarin gezichten gedeeltelijk bedekt, onscherp, slecht belicht, in de schaduw of met brillen zijn afgebeeld.

Er zijn tientallen datasets beschikbaar voor wetenschappers en bedrijven om algoritmen te trainen. Begin dit jaar haalde Microsoft zijn MS Celeb, een dataset met tien miljoen portretten van 100.000 mensen, van het Internet. De betrokkenen hadden geen idee dat hun afbeeldingen door Microsoft waren opgehaald van Internet. MS Celeb wordt ook gebruikt door Sensetime en Megvii, Chinese bedrijven die hun surveillance technologie leveren voor het onderdrukken van de Oeigoeren in de provincie Xinjiang.

De Financial Times meldt dat de Europese Commissie strenge regels wil opstellen voor het gebruik van gezichtsherkenning. Burgers moeten inspraak krijgen in de manier waarop hun digitale tronies worden gebruikt.

Lees ook

Nieuwsbrief