Meldplicht digitale algoritmes voor Nederlandse overheid in de context van Nederland

Verzonden: donderdag 10 oktober 2019 10:44 Aan: k.verhoeven@tweedekamer.nl Lid Tweede Kamer D66 Onderwerp: terugkoppeling bij uw bijdrage aan BNR Digitaal 2 oktober 2019

Geachte heer Verhoeven,

Met belangstelling heb ik uw bijdrage aan BNR Digitaal van 2 oktober 2019 gevolgd over de meldplicht voor overheidsorganisaties van het gebruik van algoritmes.

Met uw welnemen reageer ik via het inmiddels ouderwetse medium van de e-mail en niet via Twitter; immers, we weten inmiddels dat organisatie Coosto in opdracht van het CBS uit twitterteksten bijhoudt of Nederlanders gelukkig zijn, of juist opstandig…. Ook kies ik voor mail, niet zozeer om mijn privacy te beschermen maar omdat de maatschappelijke discussie – sinds Jip&Janneke-taal tot de nieuwe norm lijkt te zijn verheven – inderdaad met kunstmatige intelligentie gevoerd kan worden. Dit geldt niet voor teksten van denkers en schrijvers in de traditie van John Searle, Herbert Dreyfus en Douglas Hofstadter, die lang en ingewikkeld zijn, want dat schijnen computers en algoritmes nog steeds niet te kunnen.

Ik heb een lees- en onderzoekstip voor u.

Lees, bijvoorbeeld, The AI Delusion van Gary Smith (Oxford University Press, 2018) simultaan met, bijvoorbeeld, The Master Algorithm van Pedro Domingos (Penguin Books, 2017), terwijl u wat bladert in Introduction to Machine Learning, third edition, van Ethem Alpaydin (MIT Press, 2014) of Deep Learning van Ian Goodfellow, Yoshua Bengio en Aaron Courville (MIT Press, 2016), en stel u daarbij steeds de volgende vragen vragen:

Welk epistemologisch probleem staat centraal bij de kritiek van Gary Smith op Artificial Intelligence / Data Mining / Machine Learning? Geeft Pedro Domingos een oplossing voor dit probleem? Zit er in de techniek van Machine Learning/Deep Learning een oplossing voor dit probleem? Denkt Gary Smith dat dit probleem specifiek is voor Artificial Intelligence / Data Mining / Machine Learning? Zo ja, hoe denkt hij dat het opgelost kan worden? Is het een specifiek probleem voor Artificial Intelligence / Data Mining / Machine Learning? Zo nee, voor wie of wat dan allemaal nog meer?

Terug naar uw onderwerp: ik begrijp uw zorg over geautomatiseerde besluitvorming, maar ik begrijp niet dat u niet begrijpt dat u uw zorg verkeerd begrijpt en als gevolg daarvan van uw onderwerp gaat wegdwalen door doodlopende stegen in te slaan (jij ook oprotten, HAL!).

Als ik een lening bij een bank aanvraag, en de bankmeneer zegt ‘Nee’, dan is het voor mij niet relevant of die meneer dat zegt omdat ik mijn schoenen niet gepoetst heb, of omdat hij in zijn hoofd een ingewikkeld risicomodel heeft toegepast, of omdat hij op een scherm het resultaat afleest van een ingewikkeld risicomodel dat door een computer is doorgerekend. Voor mij is – vanuit mijn kennelijke behoefte aan liquiditeit – enkel relevant dat iets of iemand die de macht heeft om mij iets toe te zeggen of mij iets te weigeren, ‘Nee’ zegt. Het maakt niet uit of daarbij overwegingen aan ten grondslag liggen die, volgens het een of ander theoretisch model, relevant en redelijk genoemd zouden kunnen worden noch of dat theoretische model is toegepast door een organisme dat onder het wegkijkend oog van een blinde horlogemaker is geëvolueerd tot mensch of door een met microscopen en nanotechniek vernuftig in elkaar geknutseld stukje metaal.

Toegegeven, wij mensen, organismen met iets als emoties, willen nogal eens het speelveld verleggen. Als er een besluit valt dat voor ons onprettig is, dan willen we ons nogal eens wijsmaken dat we dat besluit alsnog weg kunnen poetsen door te gaan klagen over ‘de manier waarop’. Dat is menselijk, al te menselijk, en dus begrijpelijk voor wie de mens begrijpt. Het is echter in relatie tot het belang dat het individu had bij het besluit, meestal vruchteloos en leidt dan enkel af.

Nu geldt voor besluitvorming door de overheid dat de willekeur van de macht op papier aan banden is gelegd doordat er regels en protocollen zijn opgesteld. Een burger die zich benadeeld voelt door een besluit van de overheid (kindgebonden toeslag ingetrokken, bekeuring voor appen op de fiets, enzovoorts) kan daardoor vaak het besluit dat expliciet over hem is genomen en dat hem onwelgevallig is aanvechten door ‘de manier waarop’ te thematiseren. Dat lukt niet altijd, maar het is de enige route waarlangs het individu zich te weer kan stellen tegen de overheid, dus laten we regels en protocollen die die mogelijkheid openhouden, vooral niet afschaffen.

Een regel die het overheidsdiensten verplicht het gebruik van ‘ingrijpende algoritmes’ te melden, kan echter niet of nauwelijks bijdragen aan de mogelijkheid van het individu zich te weer te stellen tegen de overheid. Een voorbeeld: onlangs heeft de commissie Parameters adviezen uitgebracht over de zogenaamde UFR-methodiek. Die adviezen hebben tot gevolg dat voor de meeste pensioenfondsen de dekkingsgraad in 2021 op of onder de kritische dekkingsgraad komt, en pensioenfondsen een opbouwkorting moeten doorvoeren. Het algoritme dat de commissie Parameters heeft gebruikt zal, met enige vertraging, nadelige consequenties hebben voor de 8,5 miljoen Nederlanders die participeren aan de tweede pijler van het pensioenstelsel. Het valt echter niet te verwachten dat een individuele pensioendeelnemer hiertegen succesvol bezwaar aan kan tekenen door erop te wijzen dat de commissie Parameters dat algoritme niet gemeld heeft.

Zouden we een inventarisatie maken van alle overheidsmaatregelen die de individuele burger raken, dan zouden we vaststellen dat de individuele burger in de meeste gevallen indirect geraakt wordt, langs een route waarop de individuele burger nauwelijks zicht heeft. Meer transparantie over ‘de route waarlangs’ geeft de burger niet meer mogelijkheden: ook in een perfect transparante route is er geen halte waarbij een individuele burger een protocollair verankerd materieel klachtrecht zou kunnen inroepen. Aan het eindpunt kan er soms nog wat geklaagd worden, maar dat gaat dan over dat het pensioenoverzicht te laat is toegezonden, of zoiets.

Als u van mening bent dat een algoritme-meldplicht iets kan betekenen voor individuele burgers, dan heeft u daarbij dus nog iets uit te leggen.

Het is verleidelijk hier voorbeelden uit de actualiteit aan te roepen, zoals ‘predictive policing’ of de affaire rond het ‘zomaar’ stopzetten van het kindgebondenbudget of het ‘SyRI’-algoritme in Rotterdam. Het verband tussen deze actuele ‘affaires’ en algoritmes is echter flinterdun. ‘Predictive policing’ is geen nieuw fenomeen. Sinds de opkomst van gezag, maakt het gezag onderscheid in de mate en de aard van toezicht. Of de onderscheidingen met die algoritmes van tegenwoordig effectiever zijn, is de vraag, maar als het antwoord op die vraag bevestigend is, dan is dat mooi meegenomen. En in de affaire rond het kindgebondenbudget was niet het probleem niet zozeer het (nogal gammele) algoritme dat frauderisico’s signaleerde, of het feit dat er semiautomatisch iets werd stopgezet, maar dat er geen dossierspecifieke motivering bij die stopzetting werd gegeven met vervolgens een ordentelijke klachtafhandeling. En, tja, de ‘SyRI’-affaire was een opgeklopte storm in een glas water waarbij allerlei thema’s door elkaar werden gehusseld, waarschijnlijk ter afleiding van het feit dat welke beslissing de gemeente Rotterdam ook neemt op basis van welke informatie of welk algoritme dan ook, in een ordentelijk bestuurlijk proces geen schade voor individuen zou moeten kunnen hebben. Als dat wel zo is, dan zit er iets fout in het bestuurlijk proces, niet in het algoritme.

Uw idee van een ‘algoritme-waakhond’ is om verschillende redenen niet redelijk te noemen.

Ten eerste laat, bij enigszins geavanceerde toepassingen, een algoritme zich niet toetsen op de inhoudelijke kwaliteit omdat een algoritme bij dergelijke toepassingen inhoudsloos is. Wat het algoritme inhoudelijk doet, is in dat geval volledig afhankelijk van welke data er in gepleurd worden.

Ten tweede is er geen eenduidig, objectief criterium voor de kwaliteit van data.

Ten derde is de kwaliteit van de huidige ‘privacy-waakhond’, de Autoriteit Persoonsgegevens, dermate belabberd dat we mogen hopen dat die waakhond niet nog meer bijtbevoegdheden krijgt, terwijl er nog eens een club met blaffers naast zetten ook niet wenselijk is.

Erop vertrouwend hiermee relevant aan u teruggekoppeld te hebben.