Algoritmes en belastingdiensten: de goednieuwsshow voorbij

Linda A. Thompson Freelancejournaliste

De belastingdiensten hebben sinds kort begrepen dat data het nieuwe goud zijn. Maar het weinig transparante gebruik van artificiële intelligentie door de overheid om fraude op te sporen bij burgers roept veel vragen op, zeggen experts.

Veel Europese belastingdiensten zijn de jongste jaren aan de slag gegaan met zelflerende algoritmes en dataminingtechnieken om fraude op te sporen. Door artificiële intelligentie los te laten op de data die de belastingdiensten al in hun systemen hebben, kunnen patronen worden blootgelegd die kunnen wijzen op fouten of fraude.

Belastingdiensten gebruiken al lang een vorm van risicoselectie om te bepalen welke aangiftes extra onderzoek vereisen, maar die algoritmes werden tot voor kort geschreven door programmeurs. Meerdere Europese belastingdiensten lijken onlangs overgeschakeld te zijn op zelflerende algoritmes.

“Wat we nu zien, door de opkomst van data-analyses en andere soorten artificiële intelligentie, is dat je aan de hand van data kunt gaan kijken: wat vindt ‘het systeem’ een rare combinatie?”,vertelt Marlies van Eck, universitair docent aan Universiteit Leiden.

Het gebruik van zulke algoritmes door belastingdiensten is nog met schimmigheid omgeven. Het is onduidelijk hoeveel Europese belastingdiensten artificiële intelligentie gebruiken om fraude op te sporen, hoe ze dat doen en sinds wanneer ze dat doen. “Er bestaat geen goed overzicht van hoe deze nieuwe technologieën worden gebruikt door overheden”, zegt een Europese expert in grondrechten. “Dit is iets nieuws en iets waarover we onze kennis moeten verbreden.” Het gebruik van deze technologieën door belastingdiensten roept veel vragen op. In de eerste plaats omdat zulke algoritmes meerdere fundamentele EU-rechten met de voeten kunnen treden, zegt hij.

Zo kunnen algoritmes een discriminatoire werking hebben. Bijvoorbeeld omdat de datasets die gebruikt worden om statistische modellen te trainen zelf vertekeningenbevatten, vertelt Toon Calders, hoogleraar aan de Universiteit van Antwerpen.

“Zo zou het kunnen – en dit is een hypothetisch, maar wel realistisch geval – dat een belastingdienst data heeft van aangiftes waarbij selectief werd gecontroleerd. Bepaalde beroepscategorieën zijn er bijvoorbeeld uitgelicht en hebben extra controle gehad. Dan zal ook in de labelling in die dataset een bias zijn naar die beroepsgroepen. Want bij mensen van wie de aangiftes niet gecontroleerd zijn, is dan ook geen fraude vastgesteld”, legt Calders uit. “Dat die beroepsgroepen dan disproportioneel veel voorkomen wordt ook opgepikt door een algoritme en dat zal die verbanden dan versterken. Dat is een mogelijk probleem waar de gebruiker van die technieken zich heel bewust van moet zijn.”

Datasets zijn dus niet neutraal, voegt Van Eck toe. “Het feit dat je bijvoorbeeld vastlegt dat iemand man of vrouw is, is vaak helemaal niet relevant, juridisch gezien. Vroeger was dat heel relevant want een vrouw kon niet zelf aangifte doen, of zij werd handelingsonbekwaam zodra ze trouwde”, vertelt ze. “We zitten nog met verouderde denkbeelden in onze administraties. Juridisch is het niet interessant of iemand man of vrouw is, maar in de data-analyse gaan we daar wel mee aan de slag. Dan neem je al een soort vooroordeel mee in je data.”

Zelflerende algoritmes kunnen met andere woorden historische discriminaties reproduceren. Van Eck: “Als mensen hebben gediscrimineerd in het verleden, dan zal kunstmatige intelligentie dat ook doen. En dat hebben we, want het woord ‘discriminatie’ houdt in de economische wetenschap niets meer en niets minder in dan het maken van onderscheid en dat doen we de hele dag.”

Of het nu bij een belastingdienst, douane of alcoholcontrole is, ambtenaren maken voortdurend onderscheid tussen burgers om te beslissen wie ze wel en wie ze niet controleren, legt Van Eck uit. “Soms laat je iedereen blazen. En soms denk je: ‘Ik heb bepaalde redenen om iemand te laten blazen.’ Die redenen die zitten dus nu in dat algoritme. Want je laat de systemen terugblikken op het verleden om eruit te leren voor de toekomst.”

In België lijkt er op dit moment niemand onafhankelijk onderzoek te doen naar het gebruik van algoritmes door belastingambtenaren als fraudedetectietool bij burgers.

In Nederland is meer duidelijkheid. Daar hebben journalisten dankzij de Nederlandse wet op openbaar bestuur heel wat informatie verkregen waaruit niet alleen blijkt dat belastingambtenaren op grote schaal algoritmes gebruiken, maar ook dat die algoritmes bepaalde bevolkingsgroepen hebben gediscrimineerd. Zo maakten gegevens over de tweede nationaliteit van burgers bijvoorbeeld deel uit van het risicoselectiemodel dat Nederlandse belastingambtenaren tussen 2014 en 2018 gebruikten om te bepalen welke kinderopvangsubsidie-aanvragen ‘een hoog risico op fouten konden hebben’.

Naast het recht op non-discriminatie kunnen overheidsalgoritmes ook het Europees recht op behoorlijk bestuur schenden. “Mensen hebben het recht om te klagen als een beslissing over hen wordt genomen”, zegt de Europese expert. “En je kan alleen betwisten dat een beslissing gebaseerd werd op een algoritme als er transparantie is over het feit dat dat algoritme werd gebruikt, hoe het werd gebruikt, hoe het werd gebouwd, wat de database was om die algoritmes op te bouwen, en al dit soort vragen. Transparantie is dus cruciaal.”

Hij raadt belastingdiensten dan ook aan impactanalyses uit te voeren om uit te zoeken welke EU-grondrechten een algoritme zou kunnen schenden. “Je moet nadenken over deze kwesties”, vertelt hij. “Want een heleboel problemen kunnen worden vermeden als je waarborgen inbouwt wanneer je algoritmes gebruikt, bijvoorbeeld doeltreffende middelen tot rechtsherstel, en als je zo transparant bent als mogelijk.”

Voor Calders moeten overheden de kortetermijnwinst ook afwegen tegen de potentiële kosten op langere termijn.Als daar geen aandacht aan wordt besteed en er modellen worden gebruikt waarvan achteraf wordt aangetoond dat ze niet fair zijn, zal dat het vertrouwen van de mensen schaden. Zelfs in die mate dat de modellen en de efficiëntiewinst die eruit gehaald kunnen worden volledig overboord gegooid worden, dat mensen zodanig wantrouwig ertegenover zullen staan dat ze zullen willen dat er een verbod komt op dit soort methodes.”

Van Eck ziet echter ook een positieve kant aan de pijnpunten met zelflerende algoritmes. “De kennis die we nu hebben is juist fantastisch, want we kunnen daarmee transparant maken dat we discrimineren en vervolgens de systemen leren om ook naar andere dingen te kijken”, legt ze uit. Maar daarvoor moeten we eerst afstappen van de goednieuwsshow over algoritmes en het idee dat ze neutraal zijn. “Pas als je die hobbel hebt genomen van: het is niet objectiever, maar we kunnen het met elkaar objectiever maken, dan heeft het ook heel veel potentie.”

Partner Content