Skip to main content

AI op de werkvloer en de AI-verordening

Artificial Intelligence (AI) is in korte tijd gemeengoed geworden op de werkvloer. Waar AI eerst vooral werd gezien als een technologische ontwikkeling voor de toekomst, wordt AI nu dagelijks gebruikt door medewerkers en (ook) HR-afdelingen. Soms is dat zichtbaar, maar vaak wordt AI ook heimelijk gebruikt. Er zijn legio mogelijkheden en de spreekwoordelijke ‘sky is the limit’ lijkt te gelden. Denk bijvoorbeeld aan het automatisch uitwerken van (raads)vergaderingen, het genereren van conceptteksten of het analyseren van gegevens. Maar wat betekent dit voor werknemers, overheidswerkgevers en de arbeidsverhouding tussen hen? En wat zijn de juridische spelregels?

Wat is AI en hoe werkt het?

AI is software die taken kan uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals het analyseren van taal, het herkennen van patronen en het doen van voorspellingen. Veel moderne AI-systemen zijn getraind op grote hoeveelheden data. Op basis daarvan berekenen zij welk antwoord, welke samenvatting of welke uitkomst het meest waarschijnlijk passend is. Dat klinkt allemaal heel slim, maar in essentie blijft het niet meer of minder dan statistiek. AI begrijpt geen context zoals een mens dat doet en kan fouten maken. Zeker bij complexe of juridische vragen kan AI overtuigend klinkende, maar (aantoonbaar) onjuiste antwoorden geven. Regelmatig verwijzen AI-systemen bij ingevoerde juridische vragen bijvoorbeeld naar niet-bestaande of niet-relevante rechtspraak of wetsartikelen. Of iedere AI-gebruiker daarvan op de hoogte is, is zeer de vraag.

AI op de werkvloer: steeds vaker en soms heimelijk

AI wordt steeds vaker ingezet op de werkvloer, vaak zonder dat de leiding zich hiervan bewust is. HR-afdelingen kunnen bijvoorbeeld een AI-tool als Fireflies gebruiken om online vergaderingen automatisch op te nemen, te transcriberen en samen te vatten, inclusief actiepunten en besluiten. Dat scheelt notuleerwerk en maakt vergaderingen beter doorzoekbaar, maar vaak ontbreekt de benodigde nuance. En gemeenten zijn in het nieuws gekomen omdat ambtenaren (zonder toestemming) gevoelige persoonsgegevens invoerden in AI-chatbots, met alle risico’s (en reputatieschade) van dien. Met video‑modellen als Sora 2 kunnen voorts in enkele minuten realistische video’s met synchroon geluid worden gemaakt op basis van alleen een tekstprompt. Dat kan een overheidswerkgever ongetwijfeld veel kosten schelen. Maar het is tegelijkertijd ook wachten op de eerste zaak waarin Sora 2 wordt misbruikt om een collega in een schadelijke situatie te plaatsen.

AI geeft dus kansen, maar ook risico’s. Hierbij geldt dat vanuit arbeidsrechtelijk perspectief de overheidswerkgever in beginsel verantwoordelijk is voor de wijze waarop met AI binnen de overheidsorganisatie wordt gewerkt. Dat betekent dat onverantwoord AI-gebruik door medewerkers — bijvoorbeeld het invoeren van vertrouwelijke gegevens in een AI-tool — voor rekening en risico van de overheidsorganisatie kan komen. Als overheidswerkgever kan je dus niet wachten tot het misgaat. Je moet nu aan de slag en bijvoorbeeld op basis van het instructierecht AI-beleid opnemen in het personeelshandboek.

De AI‑verordening: risico-gebaseerde aanpak en gefaseerde inwerkingtreding

Van belang hierbij is dat sinds 1 augustus 2024 de AI-verordening (Verordening 2024/1689) van kracht is. Deze verordening reguleert het verantwoord gebruik en ontwikkeling van AI in de Europese Unie, met het oog op de balans tussen innovatie, veiligheid en grondrechten van de mensen. In de Verordening staan onder andere regels over specifieke eisen voor bepaalde AI-systemen, het verbod op bepaalde AI-praktijken en geharmoniseerde regels omtrent transparantie. De regels zijn van toepassing op bedrijven, (decentrale) overheden en andere organisaties.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Buitenlandse Zaken en politie moeten zich opnieuw buigen over inzageverzoek journalist Midden-Oosten
Verder lezen
Zorg heeft beveiliging tegen gijzelsoftware nog niet op orde
Verder lezen
Overname Zivver heeft geen gevolgen voor Elburg
Verder lezen
Cybersecurity in de logistiek is niet langer een IT-verantwoordelijkheid
Verder lezen
In Frankrijk geldt SHA-256 nu als inadequate beveiliging. Kan de AP Nederlandse bedrijven hiervoor ook beboeten?
Verder lezen
Russische hackers richten zich op Amerikaanse functionarissen in een uitgebreide phishingcampagne
Verder lezen
Gemeenten boeken vooruitgang met AI, maar hebben nog veel huiswerk
Verder lezen
Debat in Tweede Kamer over wetsvoorstellen Cyberbeveiligingswet en Wet weerbaarheid kritieke entiteiten
Verder lezen
Mazda onderzoekt datalek na kwetsbaarheid in intern IT-systeem
Verder lezen
Kennisachterstand over AI als wapen
Verder lezen