Skip to main content

AP: AI-Impactbarometer kleurt rood, actie is noodzakelijk

De Autoriteit Persoonsgegevens (AP) wil dat het nieuwe kabinet haast maakt met de uitvoering van de regelgeving voor artificiële intelligentie (AI) en het toezicht daarop. Ook organisaties die AI willen inzetten, hebben dringend behoefte aan helderheid over de regels voor AI. Die zijn al van kracht en worden steeds crucialer. De AP waarschuwt daarbij voor grote risico’s op onveilige en discriminerende algoritmes, waartegen nu niet handhavend kan worden opgetreden.

Dit blijkt uit de zesde editie van de Rapportage AI & Algoritmes Nederland (RAN), die de AP twee keer per jaar publiceert.

Als coördinerend toezichthouder op algoritmes en AI analyseert de AP de belangrijkste risico’s en effecten hiervan. Vervolgens vertaalt de AP die naar 9 graadmeters in de AI-Impactbarometer. Deze toont een verslechterend beeld. In de vorige rapportage stegen al 2 van de 9 graadmeters naar rood. Nu is dat verdubbeld naar 4. 

De AP maakt zich zorgen over het gebrek aan voortgang bij de inrichting van toezicht, de 
ontwikkeling van standaarden, de registratie van algoritmes door de overheid en het zicht op 
incidenten. 

Aleid Wolfsen, voorzitter van de AP: ‘Vijf jaar na het toeslagenschandaal zijn de lessen duidelijk, 
maar de opvolging blijft achter. Dat komt vooral doordat stevige regels voor algoritmes en AI en 
handhaving hiervan ontbreken. Nu de druk om AI te omarmen toeneemt, moeten we grondrechten 
beschermen. Wie een nieuw schandaal wil voorkomen, moet nú handelen.’

Ontwijken verantwoordelijkheid

De risico’s van AI nemen exponentieel toe. Nieuwe toepassingen, zoals ‘agentic AI’, vragen om snelle voorbereiding van organisaties en toezichthouders. Daarnaast proberen sommige organisaties onder de AI-verordening uit te komen door hun systemen als ‘gewone algoritmes’ te classificeren. Een voorbeeld is OxRec, dat door reclasseringsorganisaties wordt gebruikt om recidive te voorspellen. Dat was als algoritme geregistreerd, terwijl het een AI-systeem is, met alle risico’s van dien. 

Om mensen te beschermen, vallen juist dit soort systemen onder de strenge regels van de AI-verordening. Elke week ziet de AP nieuwe registraties van systemen als algoritme in het algoritmeregister, terwijl het om AI-systemen gaat. Daardoor nemen de risico’s voor mensen voortdurend toe. 

Ook commerciële organisaties proberen hun verantwoordelijkheden te ontlopen, ten koste van hun klanten of gebruikers. De voornaamste gevaren die in 2025 en 2026 naar voren zijn gekomen, zijn de oncontroleerbare toename van deepfakes, AI-gestuurde fraude, psychische schade door chatbots, en dat AI-beveiligingsmaatregelen steeds meer achterblijven bij de technologische ontwikkelingen. De AP wijst op recente incidenten met AI, zoals de wildgroei aan AI-stemwijzers en de problemen met Grok, waarmee niet van echt te onderscheiden naaktbeelden van ieder willekeurig persoon konden worden gemaakt. Dit brengt de bescherming van grondrechten en cyberveiligheid in gevaar.

Toename ernstige risico’s

De AP signaleert dat de risico’s van het inzetten van AI en algoritmes lang worden onderschat. Hierdoor kunnen mensen gediscrimineerd worden of ontstaat er zelfs gevaar voor de veiligheid in de samenleving. Dit blijkt ook uit verschillende kwesties in de RAN. De AP constateert dat veel werkgevers AI inzetten bij werving en selectie. Die inzet moet accuraat, niet-discriminerend en uitlegbaar zijn voor kandidaten.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Drie grootste steden delen pasfoto’s niet meer met het UWV
Verder lezen
Stad Herentals laat zich vrijwillig hacken voor televisieprogramma: “Zie het als een brandoefening”
Verder lezen
AP onderzoekt of UWV paspoortkopieën mocht opvragen
Verder lezen
AFM benadrukt belang van goede informatiebeveiliging bij accountantsorganisaties
Verder lezen
Vijf focusgebieden stonden in 2025 centraal voor de Autoriteit Persoonsgegevens
Verder lezen
Epe raakt 600.000 bestanden kwijt door phishing-aanval
Verder lezen
Gemeentewebsites delen data met Google zonder toestemming
Verder lezen
Zo zetten criminelen AI in voor digitale aanvallen
Verder lezen
AP en RDI starten onderzoek naar Odido
Verder lezen
Buitenlandse Zaken en politie moeten zich opnieuw buigen over inzageverzoek journalist Midden-Oosten
Verder lezen