Skip to main content

AI op de werkvloer en de AI-verordening

Artificial Intelligence (AI) is in korte tijd gemeengoed geworden op de werkvloer. Waar AI eerst vooral werd gezien als een technologische ontwikkeling voor de toekomst, wordt AI nu dagelijks gebruikt door medewerkers en (ook) HR-afdelingen. Soms is dat zichtbaar, maar vaak wordt AI ook heimelijk gebruikt. Er zijn legio mogelijkheden en de spreekwoordelijke ‘sky is the limit’ lijkt te gelden. Denk bijvoorbeeld aan het automatisch uitwerken van (raads)vergaderingen, het genereren van conceptteksten of het analyseren van gegevens. Maar wat betekent dit voor werknemers, overheidswerkgevers en de arbeidsverhouding tussen hen? En wat zijn de juridische spelregels?

Wat is AI en hoe werkt het?

AI is software die taken kan uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals het analyseren van taal, het herkennen van patronen en het doen van voorspellingen. Veel moderne AI-systemen zijn getraind op grote hoeveelheden data. Op basis daarvan berekenen zij welk antwoord, welke samenvatting of welke uitkomst het meest waarschijnlijk passend is. Dat klinkt allemaal heel slim, maar in essentie blijft het niet meer of minder dan statistiek. AI begrijpt geen context zoals een mens dat doet en kan fouten maken. Zeker bij complexe of juridische vragen kan AI overtuigend klinkende, maar (aantoonbaar) onjuiste antwoorden geven. Regelmatig verwijzen AI-systemen bij ingevoerde juridische vragen bijvoorbeeld naar niet-bestaande of niet-relevante rechtspraak of wetsartikelen. Of iedere AI-gebruiker daarvan op de hoogte is, is zeer de vraag.

AI op de werkvloer: steeds vaker en soms heimelijk

AI wordt steeds vaker ingezet op de werkvloer, vaak zonder dat de leiding zich hiervan bewust is. HR-afdelingen kunnen bijvoorbeeld een AI-tool als Fireflies gebruiken om online vergaderingen automatisch op te nemen, te transcriberen en samen te vatten, inclusief actiepunten en besluiten. Dat scheelt notuleerwerk en maakt vergaderingen beter doorzoekbaar, maar vaak ontbreekt de benodigde nuance. En gemeenten zijn in het nieuws gekomen omdat ambtenaren (zonder toestemming) gevoelige persoonsgegevens invoerden in AI-chatbots, met alle risico’s (en reputatieschade) van dien. Met video‑modellen als Sora 2 kunnen voorts in enkele minuten realistische video’s met synchroon geluid worden gemaakt op basis van alleen een tekstprompt. Dat kan een overheidswerkgever ongetwijfeld veel kosten schelen. Maar het is tegelijkertijd ook wachten op de eerste zaak waarin Sora 2 wordt misbruikt om een collega in een schadelijke situatie te plaatsen.

AI geeft dus kansen, maar ook risico’s. Hierbij geldt dat vanuit arbeidsrechtelijk perspectief de overheidswerkgever in beginsel verantwoordelijk is voor de wijze waarop met AI binnen de overheidsorganisatie wordt gewerkt. Dat betekent dat onverantwoord AI-gebruik door medewerkers — bijvoorbeeld het invoeren van vertrouwelijke gegevens in een AI-tool — voor rekening en risico van de overheidsorganisatie kan komen. Als overheidswerkgever kan je dus niet wachten tot het misgaat. Je moet nu aan de slag en bijvoorbeeld op basis van het instructierecht AI-beleid opnemen in het personeelshandboek.

De AI‑verordening: risico-gebaseerde aanpak en gefaseerde inwerkingtreding

Van belang hierbij is dat sinds 1 augustus 2024 de AI-verordening (Verordening 2024/1689) van kracht is. Deze verordening reguleert het verantwoord gebruik en ontwikkeling van AI in de Europese Unie, met het oog op de balans tussen innovatie, veiligheid en grondrechten van de mensen. In de Verordening staan onder andere regels over specifieke eisen voor bepaalde AI-systemen, het verbod op bepaalde AI-praktijken en geharmoniseerde regels omtrent transparantie. De regels zijn van toepassing op bedrijven, (decentrale) overheden en andere organisaties.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.
Het belang van de Management Review binnen het ISMS
Een ISMS is geen tool die je even aanzet en afvinkt. Het is een continu proces waarin je risico’s beheerst, maatregelen borgt en blijft verbeteren. En in dat proces is één moment echt cruciaal: de management review. In deze blog leg ik uit wat dit inhoudt, waarom het zo belangrijk is en hoe je het als gemeente maximaal benut.

Meer recente berichten

Samen maken we Nederland veiliger en weerbaarder
Verder lezen
AP waarschuwt voor grote beveiligingsrisicos bij AI-agents zoals OpenClaw
Verder lezen
Odido en het tijdperk waarin data het grootste doelwit is
Verder lezen
Deloitte Australië wil dat medewerkers stoppen met uploaden van vertrouwelijke gegevens in ChatGPT
Verder lezen
NCSC Jaarbeeld Ransomware 2025
Verder lezen
Na AP ook DJI geraakt door Ivanti-cyberincidenten
Verder lezen
NCSC verwacht grootschalig misbruik van kritiek Cisco-lek: ‘patch zo snel mogelijk’
Verder lezen
Kabinet wijzigt wetsvoorstel sociaal domein na kritiek Kamer
Verder lezen
Rapport: Nederlandse cloudbedrijven nadrukkelijker op de radar van veiligheidsbeleid
Verder lezen
De AP in 2026: focus op massasurveillance, AI en digitale weerbaarheid
Verder lezen