De gemeente Rotterdam heeft bij het opsporen van bijstandsfraude gebruik gemaakt van een zeer dubieus, discriminerend algoritme. Het gevolg daarvan is dat vooral jonge moeders en mensen die de Nederlandse taal niet goed machtig zijn de dupe werden van strikte controle. Dat blijkt uit onderzoek van Follow The Money, Vers Beton, Argos en Lighthouse Reports.
In Rotterdam zijn ongeveer 30.000 mensen afhankelijk van een bijstandsuitkering. Jaarlijks worden zo’n duizend mensen onderworpen aan een bijzonder strenge en uitgebreide controle omdat ze worden verdacht van “onrechtmatigheden”. Dat kan variëren van het foutief invullen van formulieren tot het aannemen van cadeaus.
Niet iedereen kan gecontroleerd worden, dus zette de gemeente een zogenaamd slim algoritme in “dat bijstandsgerechtigden een risico-score gaf met een inschatting hoe groot de kans is dat ze met hun achtergrond, eigenschappen en gedrag fraude zouden plegen.” Eenzelfde methode werd gebruikt door de Belastingdienst en leidde tot het ronduit racistische toeslagenschandaal. In 2021 werd de gemeente Rotterdam al gevraagd naar het algoritme, maar PvdA-wethouder Richard Moti was toen heel stellig: "Ik benadruk dat er geen sprake is geweest van discriminatie bij het gebruik van algoritmes in de gemeente Rotterdam." Dat is dus niet waar.
Zo blijkt dat een fictieve alleenstaande, kinderloze 30-jarige man, “George”, uit Rotterdam door het algoritme op plek 20.973 van 30.000 werd geplaatst. Deze George hoeft zich geen zorgen te maken ooit te worden gecontroleerd. Wordt George een vrouw genaamd Adriana, stijgt ze direct duizenden plekken op de risicolijst. Komt er nog een kind bij en Adriana is direct een van de grootste risico’s, aldus het “slimme” algoritme. Komt er nog een andere spreektaal bij, het gevoeligste kenmerk in het Rotterdamse algoritme, dan staat Adriana plots helemaal bovenaan.
Rotterdam is hoogstwaarschijnlijk niet de enige gemeente die van dit algoritme gebruik maakt, wel was het de enige gemeente die de onderzoekers inzage gaf in de methode. De gemeente is inmiddels gestopt met het algoritme en zegt te werken aan nieuwe versie “die discriminatie moet voorkomen en transparant is voor burgers”.