Vier gemeentes gebruiken omstreden fraudedetectiemethode
Alle gemeentes stopten in 2020 met het gebruiken van een omstreden fraudedetectiemethode. Alle gemeentes? Nee! Er zijn nog verschillende gemeentes die ook in 2022 nog de fraudescorekaart gebruikten om bijstandsaanvragen te beoordelen. Het is bijna een Asterix en Obelix verhaal.
In 2020 zouden alle gemeentes al gestopt moeten zijn met het gebruik van dit systeem, maar in ieder geval de gemeentes Nieuwegein, Houten, IJsselstein en Lopik gebruikten een afgeleide versie van het bestand. Er is zelfs nog een gemeente (de VNG wil niet zeggen welke gemeente het is) die het originele kaart gebruikt!
Hoe werkt de fraudescorekaart?
Op basis van bepaalde kenmerken, zoals woonsituatie en beroep, worden er punten uitgedeeld. Hoe meer punten, hoe hoger de kans op een controle. Woon je in een woonwagen? Dan heb je al 700 punten. De grens voor fraude ligt al bij 983 punten. Beroepen zoals kapper, schoonmaker en bouwvakker leveren ook extra punten op. Een eigen huis of een woning in een goede wijk leiden tot een lagere fraudescore. Het systeem zit vol vooroordelen. Zo krijgt een vrouwelijke kapper een hogere score dan een mannelijke. Het hele systeem is gemaakt met data uit 2001 en 2003 en in een tijd waarin men de bijstand niet zag als een vangnet.
De scorekaart en ‘algoritmes’
Er heerst angst voor het onbekende zoals AI of machine learning. Deze systemen zouden discriminatie in de hand werken. Het voorbeeld van de fraudescorekaart laat zien dat er helemaal geen AI of machine learning nodig is voor discriminerende systemen. Een Excel bestand uit 2004 kan dat net zo goed, zonder dat de berekeningen nog gecontroleerd kunnen worden. De achterliggende data is namelijk niet meer te vinden.
Pas in 2019 trok een ambtenaar uit Haarlem aan de bel, omdat het hele systeem onzorgvuldig zou zijn en niet onderbouwd. Drie jaar later waren er nog steeds gemeentes die dit oude en achterhaalde systeem gebruikten.
Conclusie
De fraudescorekaart laat meerdere dingen zien. Ten eerste dat er geen AI nodig is om een systeem te maken wat discrimineert. Ook primitievere systemen, zoals Excel-bestanden, die met de hand zijn gemaakt kunnen dat effect hebben.
Daarnaast laat dit verhaal ook zien hoe moeilijk het is om een slecht systeem te stoppen. Een systeem wat discrimineert op geslacht is meer dan 15 jaar gebruikt. Pas na 15 jaar is er geluisterd naar een waarschuwing van een ambtenaar, al kan het bijna niet dat die persoon de eerste was die waarschuwde voor de scorekaart. Zelfs na een advies van de VNG bleven sommige gemeentes als nog een vergelijkbaar systeem gebruiken.
Al deze problemen hadden voorkomen kunnen worden door het systeem op een reproduceerbare manier te bouwen en vooraf te kijken naar de risico’s van de uitslagen van het systeem. Hiervoor hebben we tegenwoordig hulpmiddelen zoals de Impact Assessment Mensenrechten en Algoritmes (IAMA).