Censuur: business as usual

Leestijd: 2 minuten

Christian Jongeneel

Als eerbare TW-lezer ziet u vermoedelijk nooit jihadistische filmpjes opduiken in uw Facebook-tijdlijn. Daar ligt namelijk niet uw interesse.

Wel krijgt u op uw Facebookpagina advertenties te zien. Daar ligt uw belangstelling doorgaans ook niet. Althans, dat denkt u; Facebook weet beter. Slimme algoritmes analyseren uw interesses en tonen daarbij de advertenties met de hoogste slagingskans. Facebook weet dus ook wanneer iemand interesse heeft in het Kalifaat en toont dan advertenties voor producten die bij jihadisten in trek zijn (energiedrankjes, kampeerspullen, kekke mobieltjes).

In het matchen van gebruikers, content en adverteerders stellen bedrijven als Facebook, Google en Twitter zich vanouds neutraal op: zij koppelen slechts. Daar waar de afkeer uni­verseel is (kinderporno) grijpen ze in. Dit gaan ze nu ook doen voor terroristische propaganda. Glad ijs, want de een zijn propaganda is andermans verheven boodschap.

Toch zullen Facebook en collega’s wel moeten, want adverteerders mokken. Ze vinden het niet leuk als hun product geassocieerd wordt met een haatprediker. Politici vinden sowieso dat die haatprediker geen online podium mag krijgen. Dat brengt burgers op verkeerde ideeën. Maar zitten die burgers erop te wachten dat adverteerders en politici bepalen wat voor hun wenselijk is om te zien? Er klinkt gemopper: censuur!

Google maakte een aantal concrete maatregelen bekend die het wil nemen, met name op YouTube. Kunstmatige intelligentie trainen om haatzaaiende video’s er beter uit te pikken; meer menselijke toezichthouders inschakelen; bepaalde zoektermen omleiden naar onschuldige content; content die op het randje is maar niet erover, voorzien van een waarschuwingslabel. Het lijkt heel wat, maar baanbrekend is het niet.

Evengoed lijkt het een hele stap als Facebook jihadistisch materiaal gaat aanpakken, maar eigenlijk is het business as usual. Iedereen die wel eens een plaatje met een tepel op Facebook gezet heeft, weet hoe snel dat verwijderd kan zijn (en de plaatser ervan op het strafbankje is geplaatst). Het herkennen en verwijderen van een onthoofding is misschien technisch lastiger, maar niet fundamenteel anders. Facebook is allang een zedenmeester. Je kunt je hoogstens afvragen waarom jihadistische propaganda tot nu toe minder prioriteit kreeg dan blote borsten.

Net als bij de blote borsten zal het gebeuren dat algoritmes af en toe iets jihadistisch over het hoofd zien of iets onschuldigs verwijderen. Dat laatste is dan censuur, inderdaad. Misschien wordt het gerepareerd, misschien niet. Daar kun je van alles van vinden, maar het is niet nieuw. Het is niet eens een stap verder op een glijdende schaal.

Welbeschouwd is niet zozeer het verder ontwikkelen van algoritmes als wel het inzetten van meer menselijke beoor­delaars de grootste ethische stap die Facebook en Google zetten. Dat betekent immers dat de toelaatbaarheid van content meer op een individueel moreel oordeel gestoeld zal worden. Gek genoeg hoor je daar zelden iemand over klagen.

Lees ook

Nieuwsbrief