Vanaf het begin van het Nederlandse algoritmeregister ben ik een enthousiast voorstander. Sinds de (met ruime meerderheid aangenomen) motie van Klaver waarin wordt opgeroepen tot de oprichting van het register, kijk ik uit naar de mogelijkheid voor burgers om toezicht te kunnen houden op algoritmegebruik door de overheid.

MOTIE VAN HET LID KLAVER C.S. Voorgesteld 19 januari 2021 De Kamer, gehoord de beraadslaging, […]

verzoekt de regering, voorts een algoritmeregister op te zetten waarin beschreven wordt welke algoritmen de overheid gebruikt, voor welk doel en op basis van welke datasets opdat iedereen toezicht kan houden op al dan niet discriminerende algoritmen, en gaat over tot de orde van de dag.

De kern zit voor mij in dat woord “toezicht”. Echt kunnen controleren of de algoritmes, zoals ze worden toegepast, voldoen aan relevante wetgeving. Dat is niet makkelijk. Het vooraf bedenken welke informatie daarvoor nodig is, het zorgen dat bestuursorganen ook echt voldoende transparant zijn, maar ook zo’n register gebruiken om daadwerkelijk te controleren is allemaal niet makkelijk. Maar als burger met relevante toezichtservaring wil ik dit idee graag ondersteunen.

Open ontwikkeling op GitHub

Het Ministerie van Binnenlandse Zaken begon met een enthousiast team aan een open ontwikkelproces. De ontwikkeling van de registerstandaard en de applicatie waarin het register beschikbaar wordt gesteld vindt plaats via Github. Burgers, ambtenaren en andere geïnteresseerden worden enthousiast uitgenodigd om mee te kijken en zelfs mee te doen:

Open source software Will you join us and add your thoughts? To contribute, create an account on GitHub (https://github.com/signup ) and read this readme and the code of conduct to get started. Once signed-up, you can provide feedback on the code of this website, on the algorithm ‘standard’, on the published description or on the user-friendliness of the website, etc. Get started: join us and add your thoughts!

Ik ben daarom ook enthousiast bij gaan dragen met opmerkingen/suggesties (“Issues”) en concrete verbetervoorstellen (“Pull Requests”). Zoals bijvoorbeeld een Pull Request met de titel: Maak onderscheid tussen proportionaliteit, subsidiariteit en noodzakelijkheid. Het register vroeg namelijk alleen naar proportionaliteit van de inzet, onjuist omschreven als “Een afweging van de voor- en nadelen van de inzet van het algoritme en waarom dit redelijk gerechtvaardigd is.”. Ik weet uit ervaring dat proportionaliteits-afwegingen vaak niet of slecht gemaakt worden en bovendien zijn subsidiariteit en noodzakelijk even belangrijk en gerelateerde afwegingen. Op 25 januari 2023 doe ik een concreet voorstel om deze drie termen naast elkaar op te nemen in de registerstandaard en beter uit te leggen. Meer dan een jaar lang heb ik dit voorstel bijgehouden en af en toe van nieuwe relevante informatie voorzien. Met het voorstel is niets gedaan. Het is voor mij geen probleem dat mijn voorstel niet is overgenomen. Het stoort me dat de overheid burgers vraagt hun eigen tijd te investeren, om die input vervolgens te negeren. Een heldere afwijzing geeft bovendien nuttige informatie over de oplossingsrichting die wel wenselijk is. Maar zelfs de afwijzing ontbreekt. Andere vergelijkbare voorstellen van anderen en mijzelf zijn ook zonder reactie van het ontwikkelteam blijven staan.

Dit is zeker niet het hele ontwikkeltraject zo geweest. In begin 2023 is nog regelmatig feedback van het team van BZK te lezen. Maar de publieke interactie is vrij snel opgehouden terwijl burgers tot op de dag van vandaag worden uitgenodigd om bij te dragen. Ik gebruik het project daarom ook wel eens als slecht voorbeeld voor opensource projecten bij de overheid. Het is mogelijk om opensource alleen in te zetten vanuit het oogpunt van transparantie en hergebruik van overheidsinformatie door alleen opensource te publiceren. Ik denk dat het beter kan, maar dat is op zichzelf een hele valide manier van werken. Het is ook mogelijk om actief opensource te ontwikkelen waarbij input en bijdragen van buitenaf ook een rol spelen. Dat heeft mijn voorkeur. De mix die het algoritmeregister project toepast is een heel slecht idee: wel mensen vragen om tijd te investeren om te helpen wetende dat er geen intentie meer is om iets met die input te doen. Zelfs mijn Pull Request om de uitnodiging om bij te dragen te verwijderen wordt sinds 23 november 2024 genegeerd.

Ook de ontwikkeling vanuit de overheid is al lang niet meer open. In plaats van gerichte wijzigingen (“commits”) met uitleg erbij wat er is gewijzigd en waarom worden veranderingen sinds halverwege 2023 bijna uitsluitend in een grofweg halfjaarlijkse code-dump online gezet. Het is voor externen daardoor niet meer te volgen welke keuzes zijn gemaakt en welke verbetervoorstellen zin hebben en welke niet. Bovendien loop je als externe ook enorm achter. Zo ben ik een keer een paar uur kwijtgeraakt omdat ik een bug wilde melden in de code van de registerapplicatie en ik wilde behulpzaam zijn door uit te vinden waar de bug precies door veroorzaakt was en eventueel zelfs een patch aan te dragen. Na een paar uur zoeken kwam ik erachter dat de code waarin de bug zat helemaal niet openbaar gemaakt was terwijl het projectteam niet had gecommuniceerd over het achterhouden van code-wijzigingen.

Bij Binnenlandse Zaken kan men een groot deel van de problemen op te lossen door helder te communiceren over de werkwijze:

  1. De GitHub repository is alleen bedoeld om periodiek gedeeltelijke transparantie te geven over de ontwikkelingen.
  2. Bijdragen en feedback van buitenaf wordt in principe niet op gereageerd.

Hoewel ik vermoed dat de enthousiaste mensen die hiermee bezig zijn (of waren) liever zien dat er oprecht wordt geïnvesteerd in goede samenwerking met o.a. burgers. Dat zou ook mijn voorkeur hebben. Men kan bij Binnenlandse Zaken echter niet geloofwaardig claimen dat er op deze manier sprake is van een effectieve open ontwikkeling met input van burgers.

Het doel van het algoritmeregister

Er bestaan fundamentele interpretatieverschillen over het doel van het algoritmeregister. Ik heb het grootste deel van mijn bijdragen geleverd op basis van het doel zoals geformuleerd in de motie van Klaver en op basis van het doel zoals het ontwikkelteam heeft geformuleerd:

The aim is to make all information about algorithms required to demonstrate the algorithm doesn’t unlawfully discriminate centrally accessible for everyone. That allows everyone to see in which impactful processes these algorithms are used. The information on this website provides the ability to oversee algorithms. For example, discrimination or unlawfulness can be exposed, and whether the algorithm provides desirable outcomes can be checked. When someone does not agree with the use of algorithms, the Algorithm Register indicates how objections can be made.

De Autoriteit Persoonsgegevens, als een van de toezichthouders op de AI Act, vat het hoofdmotief van het register als volgt onjuist samen in de Rapportage AI & Algoritmes Nederland (RAN) - maart 2026:

het zichtbaar maken van de meest impactvolle algoritmes, bijvoorbeeld omdat ze een belangrijke invloed hebben op besluiten over burgers

In de bijbehorende footnote verwijst de AP naar de Handreiking Algoritmeregister waar het volgende staat:

Hoofddoel of algemene visie: vertrouwen in de overheid vergroten De overheid is er onder andere om maatschappelijke meerwaarde te bieden. Dit kan de overheid alleen effectief doen als er vertrouwen in de overheid is en mensen zich gehoord en betrokken voelen. Het Algoritmeregister moet bijdragen aan het verbeteren van het vertrouwen in de overheid.

Hoewel ik geloof dat transparantie en vertrouwen op de lange termijn goed samen gaan zegt het veel dat de ontwikkelaars van het algoritmeregister vertrouwen vergroten meer prioriteit geven dan de controlefuncties van het register; zeker als deze verandering in prioriteiten is doorgevoerd as reactie op voorstellen om ongemakkelijke, maar noodzakelijke, informatie voor controles in de registerstandaard op te nemen. Het vergroten van vertrouwen is meer een marketing-doel dan het beschermen van grondrechten van mensen. Het valt mij ook op dat er staat dat mensen zich gehoord en betrokken moeten voelen. Dat kan je natuurlijk op meerdere manieren interpreteren. Je kan mensen zich gehoord en betrokken laten voelen door input te vragen, maar zodra duidelijk wordt dat de gevraagde input niet wordt meegenomen verdwijnt dat gevoel snel.

Zoals ik het ervaar is het primaire doel van het register langzaam aangepast van een toezichts-doel naar een veel vager bevorderen van controleerbaarheid (niet meer toetsbaar welke informatie daar noodzakelijk voor is) en vervolgens naar het wekken van meer vertrouwen. Waar in het begin discussies mogelijk waren op basis van wettelijke kaders en welke informatie nodig is en welke informatie op basis van bestaande wettelijke verplichtingen al moet bestaan kan nu op basis van het hoofddoel zelfs beargumenteerd worden dat bepaalde ongemakkelijke informatie beter niet transparant gemaakt moet worden omdat dat het vertrouwen in algoritmegebruik zou ondermijnen. Ik wil daarmee niet zeggen dat dat ook daadwerkelijk zo bedoeld is, maar elke discussie over welke informatie noodzakelijk is is doodgeslagen omdat het doel ambigu is. En omdat er niet publiekelijk wordt gereageerd op bijdragen die op uitnodiging zijn geleverd is het ook niet inzichtelijk wat de overwegingen zijn geweest.

Ik zou graag zien dat het doel van het register wordt aangepast naar het oorspronkelijke doel. Daarbij is best allerlei uitleg mogelijk om duidelijk te maken dat dat doel niet volledig haalbaar is en dat soms keuzes moeten worden gemaakt door bijvoorbeeld zoveel mogelijk te focussen op informatie die al aanwezig moet zijn op basis van bestaande wettelijke verplichtingen om de administratieve last te verminderen. Maar ik wil een registerstandaard die het oorspronkelijke controledoel ondersteunt.

Hoe ziet de toekomst van het register eruit?

De Autoriteit Persoonsgegevens heeft bij de Rapportage AI & Algoritmes Nederland maart 2026 duidelijk gewaarschuwd over zorgen over het algoritmeregister. De AP gaat zelfs zover om in het persbericht OxRec van Reclassering Nederland expliciet te benoemen als voorbeeld van een algoritme dat bewust te licht is ingedeeld in het register om strengere regels te ontlopen. Dit gaat om hetzelfde algoritme dat de Inspectie JenV heeft onderzocht waarbij de Inspectie JenV significante risico’s heeft aangetroffen, die Reclassering vervolgens niet transparant heeft gemaakt in het register. Dit terwijl Reclassering Nederland wel voor de laatste publicatie van het algoritme in het register op de hoogte is geweest van de bevindingen van Inspectie JenV.

Ook vanuit Amnesty International lees ik vergelijkbare zorgen over afzwakken van bescherming. Daan Kingma, een Jurist bij de Rijksoverheid, wijst in een publicatie op een risico op “transparancy washing, waarbij overheidsorganisaties voor de bühne naar het Algoritmeregister verwijzen om de inzet van algoritmes te legitimeren”. Een term die in een whitepaper van de Open State Foundation over het register uit 2024 ook al wordt aangehaald:

Door deze dynamiek ontstaat een cultuur waarin het risico op “transparency washing” op de loer ligt: de suggestie wekken dat je transparant bent, maar daarbij bewust een keuze maken voor het delen van informatie die “veilig” is, in plaats van wat het meest betekenisvol of inzichtelijk is. Bijvoorbeeld door alleen de “simpelste” of minst impactvolle algoritmes te publiceren, of door beschrijvingen (zoals in het Algoritmeregister) bewust oppervlakkig te houden. Dit draagt niet bij aan de uiteindelijke doelen van transparantie, zoals het kunnen verantwoorden, uitleggen, of bespreekbaar maken van beslissingen op basis van algoritmes. “Iets” hebben gepubliceerd in het Algoritmeregister is niet voldoende, als dat voor de samenleving niet tot betekenisvolle inzichten leidt.

Nu geloof ik niet dat men bij Binnenlandse zaken snode plannetjes zit te beramen hoe het volk met schijntransparantie tevreden gehouden kan worden. Maar ik merk wel dat er op allerlei manieren weerstand is tegen effectieve transparantie en dat ambtenaren met goede bedoelingen proberen om toch voor elkaar te krijgen wat wel lukt. Het probleem is dat hoe verder het register wordt ontwikkeld op basis van ineffectieve compromissen hoe lastiger het te corrigeren is.

Juist voordat er harde wettelijke verplichtingen zijn zou het goed zijn om de registerstandaard nog eens goed te evalueren met als doel de informatie die nodig is om de rechtmatigheid van algoritmes te controleren. Documenteer de compromissen en accepteer dat bij het invullen van het register duidelijk zichtbaar wordt waar nog ongemakkelijke tekortkomingen en risico’s zitten. Dat ongemak moet worden opgezocht om de transparantie bruikbaar te maken en niet worden ontweken omdat vertrouwen wekken belangrijker is dan controleerbaarheid.

Ik ben optimistisch omdat ik denk dat het heel veel beter kan. Maar vanwege mijn ervaringen met de ontwikkelingen aan het register van de afgelopen paar jaar denk ik dat zonder stevige koerscorrectie op korte termijn het register voor de voorzienbare toekomst onbruikbaar wordt als controlemiddel. Burgers zullen dan moeten terugvallen op de Woo, bestuursrechtelijke procedures en AVG rechten om proactief achter informatie aan te moeten gaan. Dat is nu juist de situatie die het register zou moeten oplossen.