Amnesty International: ‘Belastingdienst schuldig aan etnisch profileren’
Algoritmes die de overheidsdienst gebruikte voor controle van foutieve aanvragen en fraude met kinderopvangtoeslag leidden tot etnisch profileren. Bovendien is er sprake van discriminatie op basis van sociale klasse. Dat blijkt uit een rapport van Amnesty International.
Het rapport ‘Xenophopic machines- Discrimination through unregulated use of algorithms in the Dutch childcare benefits scandal’ merkt Nederland aan als een de koplopers op het gebied van automatisering van sociale voorzieningen. Automatisering kan zorgen voor een sneller werkproces en maakt het in theorie ook makkelijker om fraude op te sporen. Daarvoor maakte de Belastingdienst gebruik van een risico-model gebaseerd op algoritmes.
Aannames
Amnesty legt uit hoe dat in zijn werk ging: ‘Dit model gebruikte meerdere risicofactoren, waaronder het niet hebben van de Nederlandse nationaliteit. Mensen zonder de Nederlandse nationaliteit hadden uiteindelijk een grotere kans om (onterecht) als fraudeur te worden bestempeld.’
De werkwijze wijst er volgens de mensenrechtenorganisatie op dat er werd gewerkt vanuit ‘de aanname dat bepaalde bevolkingsgroepen eerder geneigd zijn om fraude te plegen. Dat wijst op bestaande vooroordelen en ongelijke behandeling door de Belastingdienst.’
Het NRC maakt het etnisch profileren in verband met het toeslagenschandaal concreet. De krant herinnert de lezer eraan dat de afdeling Toeslagen de tweede nationaliteit van aanvragers jarenlang bijhield. Bovendien verwijst ze naar ‘verhalen van slachtoffers die zeggen dat ze gediscrimineerd werden toen ze naar de Belastingtelefoon belden, en van mailwisselingen tussen ambtenaren over een frauderend gastouderbureau, die spottend spraken over „een nest Antillianen”.’
Beterschap
De Nederlandse overheid geeft aan maatregelen te hebben genomen naar aanleiding van de toeslagenaffaire, maar die schieten volgens Amnesty op alle fronten tekort: ‘zo zijn ambtenaren niet verplicht om de mensenrechtenrisico’s vooraf in kaart te brengen, is het toezicht op algoritmes ondermaats, en mogen overheidsinstellingen het gebruik en de werking van algoritmes geheimhouden.’
Wereldwijd maken overheden, commerciële en niet-commerciële organisaties gebruik van algoritmes: het zorgt in potentie voor een gestroomlijnde verwerking van gegevens op maat. Voordat ze echter in een systeem worden gegoten, beslissen mensen hoe die algoritmes eruit zien. Het is dus mensenwerk. En mensen maken fouten en overtreden daarmee soms zelfs mensenrechten, bewust of onbewust.
Lees onze huisregels ook even. Wilt u ook meediscussiëren maar bent u nog geen lid? Meld u dan hier aan en geniet van alle voordelen.