Skip to main content

Rekenschap afleggen over keuzes algoritmen

De publieke sector maakt steeds vaker gebruik van algoritmen, maar die inzet van algoritmen komt met nieuwe afwegingen en keuzes. Hoe kan de publieke sector rekenschap afleggen over de algoritmische systemen die zij ontwerpen, inkopen en/of inzetten? De Utrecht Data School ontwikkelt, samen met ambtenaren, een toolkit om dit reflectie- en documentatieproces te faciliteren.

Algoritmen zijn niet meer weg te denken uit onze samenleving en ook in de publieke sector maken ze een opmars. Er wordt steeds vaker voorspeld, gecategoriseerd, geprofileerd, en/of (semi-)automatisch besloten. Van frauderisicoindicatie tot het detecteren van verkeersstromen of afval op straat, dergelijke systemen zijn inmiddels wijdverspreid in de publieke sector. Dat biedt grote kansen, maar brengt ook grote vraagstukken met zich mee: welke waarden en normen worden er impliciet in het systeem gebouwd? Hebben die een bepaalde (politieke) houdbaarheidsdatum? Hoe ga je om met derde partijen die voor de publieke sector een algoritme ontwerpen? Wie is wanneer verantwoordelijk als het systeem (niet) naar behoren werkt? Om handen en voeten te geven aan deze – en nog veel andere – vragen, ontwikkelt de Utrecht Data School (onderdeel van de Universiteit Utrecht) een toolkit samen met de publieke sector: BIAS, beraadslagingsinstrument voor algoritmische systemen.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Mondeling overleg over EU-voorstellen digitalisering en AI
Verder lezen
Wat het nieuwste dreigingsrapport van het NCSC betekent voor gewone Nederlandse gebruikers
Verder lezen
Kabinet: steun voor ai‑her­zie­ning, stevige kritiek op versmalling AVG
Verder lezen
Bestuurders aan zet met de Cbw en BIO2!
Verder lezen
Autoriteit Persoonsgegevens ontvangt meer privacyklachten van Nederlanders
Verder lezen
Druk op AI-implementatie ondermijnt veiligheidsdenken
Verder lezen
Wie heeft zicht op alle camera’s in de publieke ruimte?
Verder lezen
Tweede Kamer neemt Cyberbeveiligingswet aan
Verder lezen
Nieuwe Amerikaanse wet moet ASML-verkoop aan China stoppen
Verder lezen
Cy­ber­se­cu­ri­ty awareness via ge­per­so­na­li­seer­de game bij Gemeente Meierijstad (Phantom’sLab)
Verder lezen