Skip to main content

Artifical intelligence Impact assessment

Onlangs is er een impact assessment gepubliceerd voor AI door ECP platform. Met dit impact assessment kun je focussen op de slimme kansen die de technologie met zich mee brengt. 

ALGORITMES

Door de roekeloze inzet van algoritmes, komt in de maatschappelijke discussie over artificial intelligence (AI) regelmatig de angst naar boven voor oncontroleerbare en volledig losgeslagen AI-algoritmes die hun eigen gang gaan. ECP|Platform voor de InformatieSamenleving roept vandaag op hoogoplopende discussies hierover te stoppen en te focussen op de slimme kansen die deze technologie biedt voor onze samenleving en economie. De vandaag gelanceerde AI Impact Assessment is daarvoor de oplossing. Deze werd tijdens het Jaarcongres ECP overhandigd aan staatssecretaris van Economische Zaken en Klimaat, mevrouw Mona Keijzer.

“Het debat rondom AI maakt emoties en ethische discussies los”, zegt Daniël Frijters van ECP|Platform voor de InformatieSamenleving. “Dat is gebruikelijk bij ICT-toepassingen, denk aan discussies rondom de slimme meter en de OV-chipkaart, maar bij AI lopen de gemoederen extra hoog op.” Dat heeft alles te maken met het zelflerend vermogen van slimme algoritmes. Zijn die nog te controleren of gaan zij ons overheersen? Beoordelen ze situaties vanuit menselijke ethische en juridische principes, of gaan ze hun eigen gang en leren ze zichzelf van alles aan?

AUTOMATISCHE DISCRIMINATIE

De Artificial Intelligence Impact Assessment (AIIA) helpt bedrijven artificial intelligence verantwoord in te zetten, nu slimme algoritmes steeds vaker taken van mensen overnemen. Aan de hand van een stappenplan, bestaande uit acht stappen, maken bedrijven inzichtelijk welke juridische en ethische normen een rol spelen bij de ontwikkeling en inzet van AI-toepassingen, en welke afwegingen ten grondslag liggen aan keuzes en besluiten. “Neem een AI-selectietool voor het screenen van sollicitanten”, geeft Frijters als voorbeeld. “Het algoritme kan op basis van historische data leren welke kandidaten geschikt zijn voor een leiderschapsfunctie. Als niet wordt gekeken naar de betrouwbaarheid van de data, dan zullen vooral mannelijke kandidaten worden geselecteerd, omdat de selectietool op basis van de gebruikte historische data heeft geleerd dat vrouwen minder leiderschapsfuncties bekleden. Vrouwelijke kandidaten worden dus onbewust door het algoritme gediscrimineerd. Een van de stappen in de AIIA is dan ook het controleren van de betrouwbaarheid van de databron.” Een ander voorbeeld is het automatisch beoordelen of wetgeving op iemand van toepassing is. Dit kan misschien wel sneller en beter met een slim algoritme, maar een ambtenaar van vlees en bloed heeft de ruimte en de plicht om vanuit een fundamentele waarde als ‘menswaardigheid’ te handelen en individuele afwijkende situaties te beoordelen. In de AIIA worden dergelijke ethische en juridische vraagstukken getackeld, zodat het algoritme en de ambtenaar volgens menselijke waarden kunnen samenwerken.”

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Nieuwe Amerikaanse wet moet ASML-verkoop aan China stoppen
Verder lezen
Cy­ber­se­cu­ri­ty awareness via ge­per­so­na­li­seer­de game bij Gemeente Meierijstad (Phantom’sLab)
Verder lezen
Hoogleraar pleit wegens datalekken voor professionele digitale architecten
Verder lezen
Realiteit van ransomware: kruip in het hoofd van een hacker
Verder lezen
Docenten kijken na met AI: slimme tijdsbesparing of risicovol?
Verder lezen
AI in het bedrijfsleven: innovatie stimuleren zonder het cyberrisico te vergroten
Verder lezen
AP wijst scholen op privacyrisico’s bij gebruik van digitale leermiddelen
Verder lezen
Adviescollege ICT publiceert concrete veiligheidslessen
Verder lezen
Steeds vaker wordt geëxperimenteerd met AI-cameras: is het gebruik daarvan veilig?
Verder lezen
Digitale weerbaarheid is geen certificaat
Verder lezen