AP: kritische rol van rechter nodig bij algoritmegebruik
Rechters en bezwaarcommissies moeten scherp zijn op besluiten van de overheid waarbij algoritmes een rol hebben gespeeld. En de overheid moet uit zichzelf transparant zijn over het gebruik van algoritmes. Daarvoor pleitte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens, AP, tijdens een bijeenkomst in de Week van de Rechtsstaat over kunstmatige intelligentie, AI, in de rechtspraak.
Wolfsen ging in op de uitdagingen die algoritmes en AI met zich meebrengen voor de rechtelijke controle van overheidsbesluiten. Waarom werden bijvoorbeeld de problemen met algoritmes om het risico op fraude in te schatten, zoals bij de Belastingdienst en DUO, zo laat ontdekt? Wolfsen: Het had veel leed kunnen voorkomen als deze organisaties transparanter waren geweest over deze algoritmes. En als rechters actiever en nieuwsgieriger waren geweest.
Een eerste stap naar meer transparantie is dat de overheid het uit zichzelf laat weten wanneer algoritmes een rol hebben gespeeld bij een genomen besluit of in de aanloop daarnaartoe. En hierbij heldere uitleg geeft. Dit kan bijvoorbeeld in de toelichtingsbrief bij het besluit. De rechter moet overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes belangrijk. Zo kunnen burgers, advocaten en rechters daar alert op zijn, aldus Wolfsen.
Verder kijken dan het geschil
Maar transparantie alleen is niet voldoende. Het is ook nodig dat rechters actief toetsen op de impact van algoritmes op overheidsbesluiten. De rechter zou dus altijd voorbij het geschil moeten kijken waarvoor iemand naar de rechter is gestapt.
Wolfsen legt uit: De overheid gebruikt algoritmes vaak om efficienter te zijn door algoritmes op grote schaal in te zetten. Hierdoor kunnen de mogelijke risico s, zoals onjuiste uitkomsten en discriminatie, impact hebben op een grote groep mensen. Dit zagen we bij de Toeslagenaffaire.
Verder lezen bij de bron- Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om? - 14 januari 2026
- Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk - 14 januari 2026
- Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes - 13 januari 2026
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om? | Verder lezen | |
Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk | Verder lezen | |
Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes | Verder lezen | |
Data beschermen we met firewalls, maar wie beschermt de beheerder? | Verder lezen | |
AI bij de overheid: uitvinden wat al is uitgevonden | Verder lezen | |
Nieuw onderzoek: gemeenten cruciaal voor digitale veiligheid | Verder lezen | |
Tientallen datalekken door AI-gebruik werknemers: vooral door experimenteren met gratis tools | Verder lezen | |
VNG mist samenhang in regelingen nieuwe cyberwetten | Verder lezen | |
Wat DigiD ons leert over datasoevereiniteit | Verder lezen | |
AP gaat databeveiliging in de zorg controleren | Verder lezen |