Kijk, daar hebben we ze weer. Onze Nederlandse politie, trotse bezitters van een glazen bol in de vorm van een algoritme. Nee, geen doodnormale bol, maar een discriminerende dobbelsteen die jongeren met een kleurtje alvast een enkeltje richting “toekomstig crimineel” gaf. Lekker makkelijk, toch? Je hoeft niks te doen, gewoon geboren worden met de verkeerde achtergrond en bing: je scoort meteen een 10 op de risicoschaal. Gefeliciteerd, jongen, je bent nog geen 18 en ze hebben je al voor de rechter gesleept. Preventief, natuurlijk.
Het heet het Risicotaxatie Instrument Geweld, of RTI-G. Maar laten we eerlijk zijn, dat klinkt alsof een stagiair het in elkaar heeft geklikt met Google Translate. Wat doet het ding? Het zet je afkomst, leeftijd, geslacht en strafblad in een formule, schudt even goed, en hoppa: de machine spuugt uit of je het type bent dat straks iemand berooft. En het beste? Tot 2017 kreeg je voor een Marokkaanse, Somalische of Antilliaanse achtergrond gewoon bonuspunten. Jawel, je afkomst was letterlijk een risicofactor. Geen strafblad? Geen probleem, je achternaam en huidkleur zijn genoeg. Hoe verzin je het?
En nu komt de klapper. De politie stopt ermee. Per direct, want zelfs zij zien nu eindelijk in dat ze keihard fout zaten. “We hebben het jarenlang gebruikt, maar achteraf was het misschien niet zo handig.” Niet zo handig?! Het was ronduit ziek. Jarenlang zijn jongeren onterecht gestigmatiseerd, hun toekomst op slot gezet, want de politie vond het nodig om Minority Report na te spelen met Marokkaanse jongens in de hoofdrol.
En wat krijgen we nu? “Sorry hoor, foutje, maar we beloven beterschap.” Mooi niet. Dit was geen foutje, dit was structureel racisme in een algoritmisch jasje. En de schade? Onherstelbaar. Denk je dat een algoritme sorry zegt tegen een jongen die keer op keer onterecht is aangehouden? Tegen de ouders die zich afvragen of hun kind ooit een eerlijke kans krijgt? Nee, joh. Die families staan er alleen voor, want de overheid heeft hun vertrouwen al lang verkwanseld.
En ondertussen klappen wij als een stelletje makke schapen voor technologie. Want dat is zo lekker neutraal, toch? Een computer discrimineert niet. Laat me niet lachen. Een algoritme is net zo objectief als degene die het programmeert. En die programmeurs hebben blijkbaar een ingebouwde radar voor alles wat niet wit, mannelijk en keurig Nederlands is.
Dus hier zitten we dan, in een land waar de politie jonge levens ruïneert met een spreadsheet. En wat doen wij? We knikken en mompelen wat over “lessen trekken.” Nee, rot op met je lessen. Dit was geen experiment, dit was georganiseerde uitsluiting. En als je daar niet boos om wordt, ben je geen onderdeel van de oplossing, maar van het probleem.
Dus, politie, hier is mijn risicotaxatie. Jullie zijn de grootste risicofactor in dit verhaal. Want een overheid die algoritmes gebruikt om burgers te brandmerken, is geen overheid die haar burgers beschermt. Het is een overheid die faalt. En dat, lieve mensen, is een risico dat we ons niet langer kunnen permitteren.