AI op de werkvloer en de AI-verordening
Artificial Intelligence (AI) is in korte tijd gemeengoed geworden op de werkvloer. Waar AI eerst vooral werd gezien als een technologische ontwikkeling voor de toekomst, wordt AI nu dagelijks gebruikt door medewerkers en (ook) HR-afdelingen. Soms is dat zichtbaar, maar vaak wordt AI ook heimelijk gebruikt. Er zijn legio mogelijkheden en de spreekwoordelijke ‘sky is the limit’ lijkt te gelden. Denk bijvoorbeeld aan het automatisch uitwerken van (raads)vergaderingen, het genereren van conceptteksten of het analyseren van gegevens. Maar wat betekent dit voor werknemers, overheidswerkgevers en de arbeidsverhouding tussen hen? En wat zijn de juridische spelregels?
Wat is AI en hoe werkt het?
AI is software die taken kan uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals het analyseren van taal, het herkennen van patronen en het doen van voorspellingen. Veel moderne AI-systemen zijn getraind op grote hoeveelheden data. Op basis daarvan berekenen zij welk antwoord, welke samenvatting of welke uitkomst het meest waarschijnlijk passend is. Dat klinkt allemaal heel slim, maar in essentie blijft het niet meer of minder dan statistiek. AI begrijpt geen context zoals een mens dat doet en kan fouten maken. Zeker bij complexe of juridische vragen kan AI overtuigend klinkende, maar (aantoonbaar) onjuiste antwoorden geven. Regelmatig verwijzen AI-systemen bij ingevoerde juridische vragen bijvoorbeeld naar niet-bestaande of niet-relevante rechtspraak of wetsartikelen. Of iedere AI-gebruiker daarvan op de hoogte is, is zeer de vraag.
AI op de werkvloer: steeds vaker en soms heimelijk
AI wordt steeds vaker ingezet op de werkvloer, vaak zonder dat de leiding zich hiervan bewust is. HR-afdelingen kunnen bijvoorbeeld een AI-tool als Fireflies gebruiken om online vergaderingen automatisch op te nemen, te transcriberen en samen te vatten, inclusief actiepunten en besluiten. Dat scheelt notuleerwerk en maakt vergaderingen beter doorzoekbaar, maar vaak ontbreekt de benodigde nuance. En gemeenten zijn in het nieuws gekomen omdat ambtenaren (zonder toestemming) gevoelige persoonsgegevens invoerden in AI-chatbots, met alle risico’s (en reputatieschade) van dien. Met video‑modellen als Sora 2 kunnen voorts in enkele minuten realistische video’s met synchroon geluid worden gemaakt op basis van alleen een tekstprompt. Dat kan een overheidswerkgever ongetwijfeld veel kosten schelen. Maar het is tegelijkertijd ook wachten op de eerste zaak waarin Sora 2 wordt misbruikt om een collega in een schadelijke situatie te plaatsen.
AI geeft dus kansen, maar ook risico’s. Hierbij geldt dat vanuit arbeidsrechtelijk perspectief de overheidswerkgever in beginsel verantwoordelijk is voor de wijze waarop met AI binnen de overheidsorganisatie wordt gewerkt. Dat betekent dat onverantwoord AI-gebruik door medewerkers — bijvoorbeeld het invoeren van vertrouwelijke gegevens in een AI-tool — voor rekening en risico van de overheidsorganisatie kan komen. Als overheidswerkgever kan je dus niet wachten tot het misgaat. Je moet nu aan de slag en bijvoorbeeld op basis van het instructierecht AI-beleid opnemen in het personeelshandboek.
De AI‑verordening: risico-gebaseerde aanpak en gefaseerde inwerkingtreding
Van belang hierbij is dat sinds 1 augustus 2024 de AI-verordening (Verordening 2024/1689) van kracht is. Deze verordening reguleert het verantwoord gebruik en ontwikkeling van AI in de Europese Unie, met het oog op de balans tussen innovatie, veiligheid en grondrechten van de mensen. In de Verordening staan onder andere regels over specifieke eisen voor bepaalde AI-systemen, het verbod op bepaalde AI-praktijken en geharmoniseerde regels omtrent transparantie. De regels zijn van toepassing op bedrijven, (decentrale) overheden en andere organisaties.
Verder lezen bij de bronNieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Buitenlandse Zaken en politie moeten zich opnieuw buigen over inzageverzoek journalist Midden-Oosten | Verder lezen | |
Zorg heeft beveiliging tegen gijzelsoftware nog niet op orde | Verder lezen | |
Overname Zivver heeft geen gevolgen voor Elburg | Verder lezen | |
Cybersecurity in de logistiek is niet langer een IT-verantwoordelijkheid | Verder lezen | |
In Frankrijk geldt SHA-256 nu als inadequate beveiliging. Kan de AP Nederlandse bedrijven hiervoor ook beboeten? | Verder lezen | |
Russische hackers richten zich op Amerikaanse functionarissen in een uitgebreide phishingcampagne | Verder lezen | |
Gemeenten boeken vooruitgang met AI, maar hebben nog veel huiswerk | Verder lezen | |
Debat in Tweede Kamer over wetsvoorstellen Cyberbeveiligingswet en Wet weerbaarheid kritieke entiteiten | Verder lezen | |
Mazda onderzoekt datalek na kwetsbaarheid in intern IT-systeem | Verder lezen | |
Kennisachterstand over AI als wapen | Verder lezen |