Overheden worstelen met mogelijke hoog risico AI-systemen
Volgens Algorithm Audit hebben overheidsorganisaties moeite met de afweging of een algoritme tot de hoog risico AI-systemen behoort.
Hoewel de rijksoverheid volgens eigen inventarisaties zeker 370 algoritmes inzet, staan er maar dertien te boek als hoog risico AI-systeem. Zijn het er echt zo weinig, of helt de schaal van de departementen bij de afweging te vaak naar de kant die ze het minste extra werk oplevert?
Onderzoek naar registraties
Vorige week werd bekendgemaakt dat de Auditdienst Rijk (ADR) de kwaliteit en de volledigheid van de registraties van algoritmes in het nationaal algoritmeregister gaat onderzoeken. Ook wordt de praktische toepasbaarheid en auditeerbaarheid van het Algoritmekader onderzocht.
Volgens stichting Algorithm Audit zijn er aanwijzingen dat het rijk algoritmes onterecht niet als hoog risico AI-systeem classificeert. Hoe lastig de afweging kan zijn, is het beste te zien aan de hand van een voorbeeld. Binnenlands Bestuur vroeg het ministerie van Justitie en Veiligheid hoe men tot de conclusie kwam dat het AI-systeem MONOcam als een impactvol algoritme in het algoritmeregister is opgenomen (en dus niet als een hoog risico AI-systeem, waarvoor veel meer regels en beperkingen gelden).
Categorisering
MONOcam wordt door de politie gebruikt bij verkeerscontroles. Het systeem controleert bij alle passerende bestuurders van (vracht)auto’s of zij een mobiel elektronisch apparaat in de hand hebben. Stuit het op een mogelijke overtreder, dan stuurt het een foto van de bestuurder naar twee politiemedewerkers, die onafhankelijk van elkaar beoordelen of de bestuurder inderdaad een telefoon vasthoudt tijdens het rijden.
Voor het categoriseren van MONOcam heeft de politie gebruik gemaakt van de Handreiking Algoritmeregister van het ministerie van BZK. ‘Deze categorisering is uitgevoerd door meerdere politie-collega’s vanuit verschillende disciplines (juridisch, ethisch en technisch),’ laat een woordvoerder van de politie weten. Zij besloten dat er sprake is van een impactvol algoritme, gebaseerd op de richtlijnen daarover uit de Handreiking Algoritmeregister.
Verder lezen bij de bron- Europa werkt aan digitale euro: privacy blijft heet hangijzer - 19 januari 2026
- Cybersecure AI en opkomende technologie - 19 januari 2026
- De moeizame (ont)worsteling van bestuurders met platform X - 16 januari 2026
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Europa werkt aan digitale euro: privacy blijft heet hangijzer | Verder lezen | |
Cybersecure AI en opkomende technologie | Verder lezen | |
De moeizame (ont)worsteling van bestuurders met platform X | Verder lezen | |
VNG deelt aandachtspunten bij uitwerking nieuwe cyberwetten | Verder lezen | |
Onderzoek: burgers willen gegevens uit sociaal domein in PGO | Verder lezen | |
Overzicht: Deze digitale wetten gaan in 2026 de overheid raken | Verder lezen | |
Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om? | Verder lezen | |
Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk | Verder lezen | |
Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes | Verder lezen | |
Data beschermen we met firewalls, maar wie beschermt de beheerder? | Verder lezen |