Artifical intelligence Impact assessment
Onlangs is er een impact assessment gepubliceerd voor AI door ECP platform. Met dit impact assessment kun je focussen op de slimme kansen die de technologie met zich mee brengt.
ALGORITMES
Door de roekeloze inzet van algoritmes, komt in de maatschappelijke discussie over artificial intelligence (AI) regelmatig de angst naar boven voor oncontroleerbare en volledig losgeslagen AI-algoritmes die hun eigen gang gaan. ECP|Platform voor de InformatieSamenleving roept vandaag op hoogoplopende discussies hierover te stoppen en te focussen op de slimme kansen die deze technologie biedt voor onze samenleving en economie. De vandaag gelanceerde AI Impact Assessment is daarvoor de oplossing. Deze werd tijdens het Jaarcongres ECP overhandigd aan staatssecretaris van Economische Zaken en Klimaat, mevrouw Mona Keijzer.
“Het debat rondom AI maakt emoties en ethische discussies los”, zegt Daniël Frijters van ECP|Platform voor de InformatieSamenleving. “Dat is gebruikelijk bij ICT-toepassingen, denk aan discussies rondom de slimme meter en de OV-chipkaart, maar bij AI lopen de gemoederen extra hoog op.” Dat heeft alles te maken met het zelflerend vermogen van slimme algoritmes. Zijn die nog te controleren of gaan zij ons overheersen? Beoordelen ze situaties vanuit menselijke ethische en juridische principes, of gaan ze hun eigen gang en leren ze zichzelf van alles aan?
AUTOMATISCHE DISCRIMINATIE
De Artificial Intelligence Impact Assessment (AIIA) helpt bedrijven artificial intelligence verantwoord in te zetten, nu slimme algoritmes steeds vaker taken van mensen overnemen. Aan de hand van een stappenplan, bestaande uit acht stappen, maken bedrijven inzichtelijk welke juridische en ethische normen een rol spelen bij de ontwikkeling en inzet van AI-toepassingen, en welke afwegingen ten grondslag liggen aan keuzes en besluiten. “Neem een AI-selectietool voor het screenen van sollicitanten”, geeft Frijters als voorbeeld. “Het algoritme kan op basis van historische data leren welke kandidaten geschikt zijn voor een leiderschapsfunctie. Als niet wordt gekeken naar de betrouwbaarheid van de data, dan zullen vooral mannelijke kandidaten worden geselecteerd, omdat de selectietool op basis van de gebruikte historische data heeft geleerd dat vrouwen minder leiderschapsfuncties bekleden. Vrouwelijke kandidaten worden dus onbewust door het algoritme gediscrimineerd. Een van de stappen in de AIIA is dan ook het controleren van de betrouwbaarheid van de databron.” Een ander voorbeeld is het automatisch beoordelen of wetgeving op iemand van toepassing is. Dit kan misschien wel sneller en beter met een slim algoritme, maar een ambtenaar van vlees en bloed heeft de ruimte en de plicht om vanuit een fundamentele waarde als ‘menswaardigheid’ te handelen en individuele afwijkende situaties te beoordelen. In de AIIA worden dergelijke ethische en juridische vraagstukken getackeld, zodat het algoritme en de ambtenaar volgens menselijke waarden kunnen samenwerken.”
Verder lezen bij de bron- Europol: logs, namen en ip adressen belangrijkste data voor politieonderzoek - 9 december 2024
- Gemeente gooit camerabewaking in de strijd tegen onveiligheid Schaepmanstraat Hoogezand - 6 december 2024
- Kleinbedrijf laat subsidiepot cybersecurity nog links liggen - 6 december 2024
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Europol: logs, namen en ip adressen belangrijkste data voor politieonderzoek | Verder lezen | |
Gemeente gooit camerabewaking in de strijd tegen onveiligheid Schaepmanstraat Hoogezand | Verder lezen | |
Kleinbedrijf laat subsidiepot cybersecurity nog links liggen | Verder lezen | |
Ciso en cio groeien naar elkaar toe | Verder lezen | |
Intern advies over digitaal oorlogsarchief toch openbaar | Verder lezen | |
De European Health Data Space: een nieuwe stap voor data uitwisseling en innovatie in de gezondheidszorg | Verder lezen | |
Crisisbeheer: voorbereiden op cyberaanvallen | Verder lezen | |
DNB waarschuwt voor internationale spanningen en cyberaanvallen | Verder lezen | |
RDI en AP: alle toezichthouders moeten toezien op ai | Verder lezen | |
AP verwijt DUO discriminatie bij gebruik algoritme | Verder lezen |