Computerbesluiten, kunstmatige intelligentie en de bestuursrechter

Samenvatting

Ook bij de beoordeling van belastingzaken worden beslissingen steeds vaker niet door mensen, maar door computers genomen. Die doen dat sneller en worden nooit moe. De keerzijde is dat er is ingeleverd op de rechtsbescherming. Marlies van Eck deed empirisch onderzoek naar de uitvoering in de belastingsector en sociale zekerheid en constateerde onder andere dat de rechtsbescherming tekortschiet omdat burgers en rechters niet weten hoe de computer tot zijn besluit is gekomen.

1 Inleiding

Groot was de hilariteit op Twitter toen een Kamerlid zich hardop vroeg of het waar was dat niet alle Vpb-aangiften werden gecontroleerd.[1] Onder welke steen kwam die persoon nou toch weer vandaan? Als ‘we’ dat allemaal zo goed weten, is het op z’n minst opmerkelijk dat er over de reden hiervan zo weinig wordt gepubliceerd. Ik doel hiermee op de feitelijke situatie dat het merendeel van besluiten in het belastingrecht door de computer wordt genomen.

Het aan computers uitbesteden van het nemen van besluiten is niet voorbehouden aan de Belastingdienst. Ook in de sociale zekerheid komt er bij het gros van de primaire besluiten geen mens meer aan te pas. Lagere overheden maken ook gebruik van geautomatiseerde beslissystemen. Het is bovendien geen nieuwe ontwikkeling. Geautomatiseerde overheidsbesluiten kent Nederland al jaren. In de jaren negentig bijvoorbeeld werd mijn studiefinanciering al geautomatiseerd verleend en uitbetaald. De kinderbijslag werd geautomatiseerd rond 1995. De early adopter is natuurlijk de Belastingdienst die in 1954 de eerste elektronische apparatuur aanschafte die de handmatige berekeningen van de aanslagen IB kon overnemen en al in de jaren zeventig jaarlijks 17,4 miljoen aanslagen oplegde.[2] Dankzij automatisering middels kunstmatige intelligentie (Artificial Intelligence, AI) zijn grote uitvoeringssprongen gemaakt. De computer kan beter rekenen, kan veel meer besluiten opleggen dan een ambtenaar en doet dit ook nog eens veel sneller. De keerzijde is dat er is ingeleverd op de rechtsbescherming. Ik deed empirisch onderzoek naar de uitvoering in de belastingsector en sociale zekerheid en constateerde onder andere dat de rechtsbescherming tekortschiet omdat burgers en rechters niet weten hoe de computer tot zijn besluit is gekomen. De beslisregels worden niet ter beschikking gesteld en, als dit te complex is om snel te kunnen begrijpen, er wordt ook geen ‘uitleg voor dummies’ gegeven. Dit leidt ertoe dat niet beoordeeld kan worden of de wet juist is toegepast, laat staan of en hoe de beginselen van behoorlijk bestuur zijn meegenomen en of er sprake is van schending van het verbod op discriminatie.[3]

In deze bijdrage bespreek ik een uitspraak van de Hoge Raad over een WOZ-computerbesluit in het licht van de huidige bestuursrechtelijke jurisprudentie. Aan het eind zal ik kort ingaan op ontwikkelingen in de AI en bespreken wat dit mogelijk betekent voor de rechtsbescherming van belanghebbenden.

2 De uitspraak van de Hoge Raad over het geautomatiseerde WOZ-besluit

De Hoge Raad bepaalde in de uitspraak van 17 augustus 2018[4] dat als een bestuursorgaan een besluit neemt dat geheel of ten dele het resultaat is van een geautomatiseerd proces, het moet zorgen voor de inzichtelijkheid en controleerbaarheid van die keuzes, aannames en gegevens. De Hoge Raad deed deze uitspraak in een WOZ-zaak waarin taxatiesoftware was gebruikt om aan de hand van grondstaffels te komen tot een waardebepaling. Het bestuursorgaan in kwestie beschikte zelf niet over de precieze ins en outs zodat onder andere het standpunt werd ingenomen dat de programmatuur of de grondstaffels niet overgelegd konden worden op basis van art. 7:4 Algemene wet bestuursrecht (Awb).

Als u mij toestaat even uit te zoomen op deze, door Stevens ‘introverte processuele’ genoemde opstelling[5] , bent u hier dus getuige van een bestuursorgaan dat de computer een besluit heeft laten nemen op basis van software van een bedrijf[6] en zelf ook niet weet hoe dat besluit tot stand komt. Er lijkt mij in staats- en bestuursrechtelijk opzicht dan wel iets meer aan de hand dan de vraag of de programmatuur overlegd moet worden op grond van art. 7:4 Awb.[7]

Het is dan ook meer dan terecht dat de Hoge Raad oordeelt vanuit een meer principieel oogpunt: belanghebbenden moeten bij computerbesluiten in de gelegenheid worden gesteld om de juistheid van de bij dat geautomatiseerde proces gemaakte keuzes en de daarbij gebruikte gegevens en aannames te controleren en zo nodig gemotiveerd te betwisten. Is die gelegenheid er niet, dan is de besluitvorming vanuit het perspectief van de belanghebbende te beschouwen als een ‘black box’ en is niet meer te controleren op basis waarvan tot een bepaald besluit wordt gekomen.

De Hoge Raad gebruikt hier een nagenoeg gelijke motivering als de Afdeling bestuursrechtspraak van de Raad van State een jaar daarvoor in de zaak over een besluit dat met behulp van het computerprogramma Aerius was genomen.[8] Anders dan in deze WOZ-zaak, was de software van Aerius ontwikkeld door de overheid en open source, dat wil zeggen vrij voor computerprogrammeurs om in te zien en verder te ontwikkelen. Daardoor kan de conclusie worden getrokken dat een bestuursorgaan ook in zo’n geval nog stappen moet zetten om meer duidelijkheid en uitleg te bieden aan leken zoals de belanghebbenden en de rechter.

3 Traditie

Hoewel het niet vaak voorkomt dat in het geschil een rol speelt dat de computer het primaire besluit heeft genomen, is de jurisprudentie die er is wel consistent te noemen. Volgens de bestuursrechters is transparantie van het computerprogramma nodig vanuit het belang van ‘equality of arms’. Met bovengenoemde uitspraak heeft de Hoge Raad de rijen in de bestuursrechtspraak gesloten. Zonder die inzichtelijkheid en controleerbaarheid dreigt er een ongelijke procespositie van partijen te ontstaan.

We kunnen inmiddels best spreken van een zekere traditie. De eerste uitspraak van een bestuursrechter over een computerbesluit dateert immers al uit 1997 waarin de Rechtbank Amsterdam een besluit beoordeelde dat gemaakt was met behulp van het computersysteem FIS (Functie Informatie Systeem).[9] Met dit systeem werd de mate van arbeidsongeschiktheid berekend zodat bepaald kon worden wat de hoogte van de arbeidsongeschiktheidsuitkering zou moeten zijn. In de zaak over de uitkering waarbij de belanghebbende bepaalde gegevens betwistte, weigerde het bestuursorgaan informatie over het computersysteem aan de rechter ter beschikking te stellen terwijl de rechtbank vond dat deze moest worden overlegd op grond van art. 8:45 Awb. In dit artikel staat dat de rechter gedurende het vooronderzoek partijen kan verzoeken schriftelijk inlichtingen te geven en onder hen berustende stukken in te zenden. De rechtbank oordeelde dat het tot de fundamentele beginselen van het (bestuursrechtelijk) procesrecht hoort dat de rechter zich bij de vaststelling van rechten en verplichtingen van partijen alleen mag baseren op gegevens van feitelijke aard waarvan partijen de juistheid en volledigheid hebben kunnen nagaan en bij de rechter ter discussie hebben kunnen stellen. Ingeval een besluit dus wordt genomen of gefaciliteerd door een computersysteem, hoort de overheid in een geschil daarover, informatie over het computersysteem ter beschikking te stellen aan de rechter en de andere partij. Dit oordeel werd in hoger beroep bevestigd door de Centrale Raad van Beroep (CRvB) die eraan toevoegde dat fundamentele procesrechtelijke beginselen – waaronder het verdedigingsbeginsel – zwaarder wegen dan de praktische belangen van het bestuursorgaan.[10]

Enkele jaren later boog de CRvB zich over de opvolger van FIS, het CBBS (Claimbeoordelings- en borgingssysteem).[11] In een procedure over een besluit over de beoordeling van de arbeidsongeschiktheid dat met behulp van het computerprogramma was genomen, oordeelde de CRvB dat de besluiten van dit computerprogramma geen toereikend niveau van transparantie, verifieerbaarheid en toetsbaarheid hadden. De CRvB gaf in de uitspraak aan het bestuursorgaan een termijn om de aanpassingen te realiseren. Besluiten die na deze termijn werden genomen zonder dat het programma was aangepast, zouden door de rechter worden vernietigd omdat deze genomen werden zonder zorgvuldige voorbereiding en/of omdat er een motiveringsgebrek aan kleeft. Deze uitspraak leidde tot systeemaanpassingen en een nieuw oordeel van de CRvB: de onvolkomenheden die eerder waren geconstateerd waren genoegzaam verholpen.[12] Met enige creativiteit kun je hieruit concluderen dat de rechter eigenhandig de inhoudelijke ontwikkeling van software heeft weten te beïnvloeden.

4 Nieuwe technologie

Als een bestuursorgaan computerbesluiten neemt, maakt het gebruik van artificiële intelligentie (hierna: AI). De computer wordt door mensen geïnstrueerd om op basis van ‘als [X] dan [Y]’-redeneringen tot een besluit te komen. Dit is AI op basis van redeneren en kennisrepresentatie.[13] Een andere vorm van AI die hier niet mee verward moet worden is de AI die werkt op basis van grote hoeveelheden data en veel rekenkracht en die zelflerend is.

Beide vormen zijn terug te voeren op rekenkracht en wiskundige modellen. Er is echter een groot verschil in de reconstrueerbaarheid van de besluiten. Bij het gebruik van een systeem dat zichzelf iets aanleert, kan het gebeuren dat het uitkomsten genereert die voor mensen, zelfs de deskundigen, niet goed meer zijn te volgen. In theorie is dit anders dan AI die door mensen is gemaakt: als die goed bijhouden wat ze doen, zou het besluit te reconstrueren moeten zijn.

In het belastingrecht kan de inzet van de laatstgenoemde AI tot twee soorten juridische handelingen leiden:

1. er wordt een besluit genomen door een zelflerend systeem of

2. AI wordt ingezet om risicogericht te werken en het zelflerend systeem bepaalt welke aangiftes wel en welke niet door een mens bekeken gaan worden.

Ad 1. Besluit door een zelflerend systeem
In dit geval kan gesproken worden van het gebruiken van een autonoom systeem dat is getraind door oude besluiten te laten zien, zodat het zelf gaat zoeken naar wiskundige verbanden in die setgegevens om tot een nieuw besluit te komen. Hier heb ik nog geen praktische voorbeelden van waargenomen, maar het lijkt erop dat de Belastingdienst sommige uitspraken op bezwaar laat nemen op basis van dergelijke systemen. Zo valt te lezen in een brief van de staatssecretaris aan de Tweede Kamer dat er ‘wordt gewerkt aan een risicotool inkomensheffing, die geautomatiseerd een inschatting maakt van het risico van een bezwaar. Daardoor vervalt een groot deel van de handmatige beoordeling van de bezwaren en verbetert de risicoselectie’.[14]

De juridische vraag die hier voor de hand ligt is natuurlijk: mag dit wel op grond van art. 22 Algemene verordening gegevensbescherming (AVG) en art. 40 Uitvoeringswet AVG? Die vraag moet ook zeker beantwoord worden, maar bovenal kan de vraag gesteld worden of dit strookt met de doelstellingen van de bezwaarfunctie?

Wat blijft er op deze manier over van de heroverwegingsfunctie en het aan de burger bieden van contact met de overheid? Contact dat misschien juist extra hard nodig is als de overheid vanwege automatisering van het primaire proces al een machine is geworden? Is de inzet van technologie bij de afhandeling van bezwaren niet juist een teken aan de wand van doorgeschoten dataficering? Doorgeschoten juridisering bij de afhandeling van bezwaar is niet goed, maar deze dreigt nu snel te worden ingeruild voor iets anders. Het gaat uiteindelijk toch om mensen en niet om pakketjes data.[15] Bovendien kan de vraag gesteld worden of het niet beter is de achtergronden aan te pakken als er zoveel bezwaren blijven binnen komen.[16]

Ad 2. De inzet van data science (AI) bij risicogericht werken
Het inzetten van data science of AI om te bepalen welke mensen wel en welke niet gecontroleerd worden door een bestuursorgaan wordt momenteel veel gebruikt. In het fiscaal recht spreekt men dan over risicogericht toezicht. Risicogericht toezicht is niet nieuw: er worden al jaren selectieregels geschreven op basis van de ervaring van vaktechnische experts om de aangiften op risico’s te beoordelen. Nieuw is hier dat nieuwe AI, de zelflerende systemen dus, wordt gebruikt om aangiften op risico’s te onderscheiden.[17]

Omdat het een voorbereidingshandeling is en een geschil vaak gaat over de juistheid van het eventueel daaropvolgend besluit, is niet altijd zichtbaar dat bestuursorganen zo werken. Er zijn talloze juridische vragen te stellen bij deze wijze van werken. Het voert te ver om daar op in te gaan, maar mijn persoonlijke verwachting is dat de vraag voor burgers de komende jaren op talloze gebieden zal zijn: ‘waarom ik?’ Waarom word ik gevraagd om extra stukken te overleggen? Waarom wordt bij mij een adrescontrole verricht door een huisbezoek? Waarom word ik gefouilleerd?[18]

Het zal interessant worden te zien hoe bestuursorganen om zullen gaan met deze vragen. Enerzijds wijst het kabinet erop dat dergelijke beslisregels en algoritmen in beginsel vallen onder de Wet openbaarheid van bestuur (Wob)[19], anderzijds worden concrete verzoeken om die openbaarheid ook afgewezen, denk aan het risicoprofileringssysteem Systeem Risico Indicatie (SyRI). Bovendien is aannemelijk dat de gemiddelde Nederlander niet veel wijzer zal worden van deze documenten: openbaar wil niet zeggen dat het toegankelijk is of te begrijpen.

Het zou beter zijn als de reden actief wordt getoond aan degene die onder het vergrootglas wordt gelegd. Misschien wel net zo als bij bol.com, Netflix en Spotify: ‘We zagen op Twitter dat u een teckel heeft en mensen met een teckel voeren vaker ten onrechte aftrekposten op dan andere mensen.’[20]

Voor beide handelingen is het ook in de fiscaalrechtelijke praktijk van belang te kijken naar de AVG. Daar waar in art.  40 Uitvoeringswet AVG is geregeld dat de Belastingdienst en gemeenten bijvoorbeeld hun geautomatiseerde praktijk mogen voortzetten, is dit niet het geval voor zelflerende systemen. Deze zullen immers vaak vallen onder het recht om niet te worden onderworpen aan geautomatiseerde besluitvorming, waaronder profilering (art. 22 AVG).

Dit neemt wat mij betreft niet weg dat de principiële vraag meer aandacht nodig heeft: hoe ver mag een bestuursorgaan gaan bij het inzetten van AI die gevolgen heeft voor de relatie tussen overheid en burger?[21] En is het wel een optie dat een bestuursorgaan vertrouwt op een systeem voor het nemen van beslissingen maar zelf niet kan uitleggen hoe het systeem tot die uitkomst is gekomen? Het zou goed zijn als ook juristen en fiscalisten zich hierover buigen.

Ik wil dan ook iedereen aanbevelen om de gratis Nederlandse cursus op internet te volgen: de Nationale AI-cursus.[22] Het is niet alleen leuk en leerzaam en wetenschappelijk verantwoord gemaakt, maar het maakt ook dat u beter kunt beoordelen of er een juridisch probleem is of niet. Het is ontzettend boeiend om te zien hoe AI ons kan helpen. Maar de inzet van technologie is niet iets wat uit de lucht komt vallen, er gaan menselijke afwegingen aan vooraf om er wel of geen gebruik van te maken. Bestuursorganen die gebruik (lijken te) maken van technologie bevragen over hun inhoudelijke afwegingen, de gebruikte gegevens en de waarborgen, maakt naar mijn mening ook deel uit van rechtsbescherming.

5 Eindnoten

1. Dit was naar aanleiding van berichtgeving in Trouw van 26 januari 2019 (‘Fiscus laat verdachte aangiften ongezien door’). De staatssecretaris heeft schriftelijk gereageerd met een brief aan de Tweede Kamer van 1 februari 2019, Kamerstukken II, 2018/19, 31066, 453.

2. B.M.A. van Eck, Geautomatiseerde ketenbesluiten & rechtsbescherming. Een onderzoek naar de praktijk van geautomatiseerde ketenbesluiten over een financieel belang in relatie tot rechtsbescherming (diss. Tilburg University), 2018, 292. 

3. B.M.A. van Eck, Geautomatiseerde ketenbesluiten & rechtsbescherming. Een onderzoek naar de praktijk van geautomatiseerde ketenbesluiten over een financieel belang in relatie tot rechtsbescherming (diss. Tilburg University), 2018, 400-402. 

4. HR 17 augustus 2018,  ECLI:NL:HR:2018:1316, V-N 2018/42.18, Belastingblad 2018/367, m.nt. B.S. Kats, BNB 2018/182, m.nt. E.B. Pechler.

5. L.G.M. Stevens, ‘De behoefte aan rechtsbescherming zal alleen maar groter worden’, WFR 2018/236.

6. Naar eigen zeggen dankzij ‘uitgebreide koppelingen met basisregistraties en slimme algoritmes’.

7. M.B.A. van Eck, M. Bovens & S. Zouridis, ‘Algoritmische rechtstoepassing in de democratische rechtsstaat’, NJB 2018/2101.

8. ABRvS 17 mei 2017, ECLI:NL:RVS:2017:1259, Computerrecht 2017/256, m.nt. B.M.A. van Eck.

9. Rb. Amsterdam 8 juli 1997, 95/9470 AAWAO 20, JB 1997/207, m.nt. H.J. Simon.

10. CRvB 27 november 1998, ECLI:NL:CRVB:1998:AA3736, AB 1999/66, m.nt. F.J.L. Pennings en USZ 1998/311, m.nt. H.H. de Vries.

11. CRvB 9 november 2004, ECLI:NL:CRVB:2004:AR4716, RSV 2004/351.

12. CRvB 12 oktober 2006, ECLI:NL:CRVB:2006:AY9973, SR 2006/81, m.nt. A.C. Damsteegt.

13. B. Mols, 20 juli 2018, ‘Slimme computers moeten de wereld ook begrijpen’ De Ingenieur, 20 juli 2018.

14. Brief van staatssecretaris van Financiën aan Tweede Kamer over vertraging van bezwaarafhandeling, Kamerstukken II 2018/19, 31066, nr. 441, p.4.

15. Zie ook M.H. Ippel, ‘De mens als maatstaf voor de regels in het algemeen bestuursrecht’, NTB 2018/63.

16. Zie ook de aantekening ‘Tijdig beslissen op bezwaar’, Vakstudie Nieuws 2019/9.3

17. Het CBS rapporteerde in opdracht van de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties naar aanleiding van vragen van Kamerleden over het gebruik van algoritmes door de overheid: CBS, Gebruik van algoritmen door overheidsorganisaties, 2018. 

18. Zie ook de aantekening over uitworp en nieuw feit in V-N 2019/11.4.

19. Antwoord Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties mede namens de Minister voor Rechtsbescherming op vragen van leden Middendorp en Koopmans over berichtgeving over het proefschrift van Marlies van Eck Tilburg University, Kamerstukken II, 2017/18, Aanhangsel 1612, p. 2.

20. Voorbeeld ontleend aan het zeer lezenswaardige artikel van K.A. Houser & D. Sanders, ‘The Use of Big Data Analytics by the IRS: Efficient Solutions or the End of Privacy as We Know It?’, Vanderbilt Journal of Entertainment and Technology Law Summer 2017, L.817.

21. Zie ook het ambtshalve advies van de afdeling advisering van de Raad van State over de effecten van digitalisering voor de rechtsstatelijke verhoudingen, W04.18.0230/I.

22. De National AI-cursus, https://app.ai-cursus.nl.

Titel, auteur en bron

Titel

Computerbesluiten, kunstmatige intelligentie en de bestuursrechter

Permanente link

Huidige versie

https://www.openrecht.nl?jcdi=JCDI:ALT351:1