Skip to main content

AP verwijt DUO discriminatie bij gebruik algoritme

De manier waarop de Dienst Uitvoering Onderwijs, DUO, een algoritme gebruikte, was discriminerend en daarom onrechtmatig. Dit concludeert de Autoriteit Persoonsgegevens, AP, na onderzoek. DUO wilde controleren of studenten misbruik maakten van de uitwonendenbeurs. DUO gaf studenten een risicoscore door naar onderwijssoort, afstand tussen adressen en leeftijd te kijken. Dat maakt de verwerking van persoonsgegevens door DUO onrechtmatig.

Voor die criteria was geen objectieve rechtvaardiging, menen de juristen van de AP. De privacywaakhond vindt dat dit algoritme studenten met een migratieachtergrond indirect heeft gediscrimineerd. Studenten met een niet Europese migratieachtergrond scoorden hoger op de selectiecriteria. Daardoor werden zij vaker geselecteerd voor een controle of een huisbezoek dan andere studenten. Ook heeft DUO de werking van het algoritme nooit geevalueerd.

Vooral studenten met een Turkse, Marokkaanse of Antilliaanse achtergrond kregen hiermee disproportioneel vaak te maken. Zeker 10.000 studenten met een migratieachtergrond liepen zo tegen de lamp. Maar omdat de controlemethode niet door de beugel kon, heeft de overheid besloten om alle boetes en terugvorderingen aan hen terug te betalen. Hiervoor is 61 miljoen euro gereserveerd. 

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Nieuwe Amerikaanse wet moet ASML-verkoop aan China stoppen
Verder lezen
Cy­ber­se­cu­ri­ty awareness via ge­per­so­na­li­seer­de game bij Gemeente Meierijstad (Phantom’sLab)
Verder lezen
Hoogleraar pleit wegens datalekken voor professionele digitale architecten
Verder lezen
Realiteit van ransomware: kruip in het hoofd van een hacker
Verder lezen
Docenten kijken na met AI: slimme tijdsbesparing of risicovol?
Verder lezen
AI in het bedrijfsleven: innovatie stimuleren zonder het cyberrisico te vergroten
Verder lezen
AP wijst scholen op privacyrisico’s bij gebruik van digitale leermiddelen
Verder lezen
Adviescollege ICT publiceert concrete veiligheidslessen
Verder lezen
Steeds vaker wordt geëxperimenteerd met AI-cameras: is het gebruik daarvan veilig?
Verder lezen
Digitale weerbaarheid is geen certificaat
Verder lezen