Privacyproblemen bij algoritmes Dienst Toeslagen en Belastingdienst

Algoritmes maken de uitvoering van overheidsbeleid een stuk effectiever, maar de Belastingdienst en Dienst Toeslagen gaan niet goed om met privacyrisico’s voor burgers. Ook andere risico’s zijn nog onvoldoende afgedekt. Dat zegt de Algemene Rekenkamer na het controleren van drie algoritmes.

Dienst Toeslagen gebruikt een algoritme om persoonlijke begeleiding aan te bieden aan ouders die door terugbetalingen van de kinderopvangtoeslag in problemen dreigen te komen. Het systeem zoekt mensen die, ten opzichte van hun inkomen, veel moeten terugbetalen () en dus waarschijnlijk hulp kunnen gebruiken. De dienst heeft hiermee al 7.885 ouders benaderd om hulp aan te bieden. Naar schatting komt 80 tot 90% hiervan voort uit het algoritme. Zonder het algoritme zou Dienst Toeslagen de extra persoonlijke begeleiding niet kunnen aanbieden. Dan zouden de financiële problemen van deze gezinnen wellicht nog groter kunnen worden.

Privacy ouders kinderopvangtoeslag niet goed beschermd

Het algoritme heeft dus grote toegevoegde waarde, maar veel risico’s worden niet goed beheerst. Zo voldoet het algoritme niet aan de AVG. Gevoelige gegevens van een kwetsbare groep ouders zijn daarmee niet goed beschermd. Bovendien is de Rekenkamer bezorgd dat informatie van de ouders die voortkomt uit het aanbieden van hulp, vervolgens door Dienst Toeslagen ook kan worden gebruikt om ze bijvoorbeeld te controleren op fraude. Het algoritme maakt geen direct onderscheid op basis van discriminerende kenmerken, maar het is toch ook niet uitgesloten dat de ene groep meer of minder kans heeft om hulp aangeboden te krijgen dan de andere. Dienst Toeslagen is onlangs begonnen om het systeem te verbeteren.

Belastingdienst voorkomt half miljoen schade

De Rekenkamer controleerde  ook een algoritme van de Belastingdienst dat helpt carrouselfraude vroeg op te sporen. Carrouselfraude is een vorm van fraude waarbij een bedrijf geen btw hoeft te betalen, maar die wél terugkrijgt van de Belastingdienst. De Belastingdienst is tevreden met het algoritme: de dienst schat in dankzij het algoritme € 522.000 aan schade te hebben voorkomen.
Tegelijkertijd zijn ook hier een aantal belangrijke punten niet op orde. Net als bij Toeslagen voldoet het algoritme niet aan de AVG en worden persoonsgegevens onvoldoende beschermd. Verder wordt de werking onvoldoende gevolgd en zijn de doelstellingen onduidelijk. Hierdoor bestaat het risico dat het algoritme minder kan gaan presteren dan bedoeld, zonder dat de Belastingdienst dit op tijd merkt en bij kan sturen. De minister van Financiën herkent de bevindingen bij zowel de Dienst Toeslagen als de Belastingdienst. Hij geeft aan de risico’s van algoritmes beter te willen beheersen.

UWV heeft algoritme grotendeels op orde

Burgers die werkloos worden kunnen een WW-uitkering aanvragen bij UWV. In 2024 ontvingen ongeveer 384.000 personen een WW-uitkering. In totaal werd hiervoor € 3.418 miljoen euro uitgekeerd. Voor het recht op een WW-uitkering moet aan verschillende voorwaarden worden voldaan. Een van deze voorwaarden is dat de aanvrager niet werkloos is geworden door eigen schuld. Het UWV maakt met een algoritme een inschatting van de kans dat een uitkeringsaanvrager verwijtbaar werkloos is. Zaken met meer risico belanden bij een behandelaar, die vervolgens op onderzoek gaat. Na het onderzoek besluit de behandelaar of er sprake is van verwijtbare werkloosheid of niet. 

Door het gebruik van de risicoscan is het proces makkelijker geworden, zowel voor de aanvrager als voor UWV. De dienst kan met het risicomodel 3 keer effectiever verwijtbare werkloosheid signaleren dan met een willekeurige controle. Ook is er minder papierwerk nodig. Het algoritme is dus effectief. Daarnaast ziet de Rekenkamer dat UWV veruit de meeste risico’s goed beperkt heeft. Er moet weliswaar nog werk gemaakt worden van het IT-beheer van de risicoscan, maar de toegevoegde waarde van dit model is duidelijk en heeft UWV veel maatregelen genomen om de privacyrisico’s te beheersen.

Collegelid Ewout Irrgang ziet dat de algoritmen de controles nogal verschillend zijn doorstaan. Hij benadrukt dat het van groot belang is dat de Rijksoverheid ook eisen stelt als het gaat om complexe algoritmes en AI: “Om tot zinvolle toepassingen te komen van complexe algoritmen en AI moet de basis op orde komen bij het informatiebeheer; zowel de bescherming van privacy, adequaat IT-beheer als het voorkomen van discriminatie. Alleen dan kun je verantwoord gebruik maken van de kansen die AI biedt.”

Uitkomsten van onderzoek naar 3 risicomodellen

Sturing en verantwoording

Toeslagen Belastingdienst UWV
Doel van algoritme
Kwaliteits- en prestatiedoelstellingen Δ Δ
Risicoafweging Δ
Governance bij uitbesteding - - -
Monitoring Δ Δ

Data en model

Functioneren in lijn met doel
Uitlegbaar
Controles en monitoring Δ
Modelkwaliteit Δ Δ
Bias
Dataminimalisatie

Privacy

Verantwoordelijkheden
DPIA
Toets op discriminatie Δ Δ
Informeren/impact betrokkenen Δ

IT-beheer

Toegangsbeheer Δ Δ
Logging en monitoring Δ
Wijzigingenbeheer
Back-up en recovery Δ Δ
Legenda


Δ

-

Het resterende risico is hoog
Het resterende risico is midden
Het resterende risico is laag
Element van toetsingskader niet van toepassing op algoritme

Voor een uitgebreide beschrijving van de tabel zie Resultaten verantwoordingsonderzoek 2024 ministerie van Financiën.