Rekenschap afleggen over keuzes algoritmen

De publieke sector maakt steeds vaker gebruik van algoritmen, maar die inzet van algoritmen komt met nieuwe afwegingen en keuzes. Hoe kan de publieke sector rekenschap afleggen over de algoritmische systemen die zij ontwerpen, inkopen en/of inzetten? De Utrecht Data School ontwikkelt, samen met ambtenaren, een toolkit om dit reflectie- en documentatieproces te faciliteren.

Algoritmen zijn niet meer weg te denken uit onze samenleving en ook in de publieke sector maken ze een opmars. Er wordt steeds vaker voorspeld, gecategoriseerd, geprofileerd, en/of (semi-)automatisch besloten. Van frauderisicoindicatie tot het detecteren van verkeersstromen of afval op straat, dergelijke systemen zijn inmiddels wijdverspreid in de publieke sector. Dat biedt grote kansen, maar brengt ook grote vraagstukken met zich mee: welke waarden en normen worden er impliciet in het systeem gebouwd? Hebben die een bepaalde (politieke) houdbaarheidsdatum? Hoe ga je om met derde partijen die voor de publieke sector een algoritme ontwerpen? Wie is wanneer verantwoordelijk als het systeem (niet) naar behoren werkt? Om handen en voeten te geven aan deze – en nog veel andere – vragen, ontwikkelt de Utrecht Data School (onderdeel van de Universiteit Utrecht) een toolkit samen met de publieke sector: BIAS, beraadslagingsinstrument voor algoritmische systemen.

Verder lezen bij de bron
Anouk Tijhuis
Recente berichten van Anouk Tijhuis (bekijk alles)
    Kwetsbaarheden in Citrix: Lessen voor gemeenten en de IBD
    Internetdomeinen: tijd voor de grote schoonmaak