AI in HR: je loopt nog steeds het risico op dure fouten
Met één muisklik gratis toegang tot kunstmatige intelligentie: het klinkt als een prima oplossing voor de drukbezette HR-professional. Waarom zou je zelf nog standaardbrieven schrijven als AI dat razendsnel voor je doet?
Toch is het antwoord op die vraag minder vanzelfsprekend dan het lijkt. Want hoe slim AI ook lijkt geworden, wie blind vertrouwt op gratis AI-tools voor gebruik in de HR-praktijk, loopt het risico op fouten die de organisatie flink kunnen schaden.
De opmars van AI op de HR-afdeling
Tot voor kort was kunstmatige intelligentie nog iets voor wetenschappers met toegang tot supercomputers. Inmiddels biedt elke smartphone of webbrowser toegang tot geavanceerde AI-modellen, vaak gratis. Veel HR-adviseurs zijn dan ook al voorzichtig gaan experimenteren met tools zoals ChatGPT, Claude of Gemini. Daarnaast komt AI ook beschikbaar in verschillende softwarepakketten waar HR mee werkt, bijvoorbeeld voor de personeels- en salarisadministratie.
Al in januari 2023 moesten we vaststellen dat AI op dat moment nog niet geschikt was voor verantwoord HR-gebruik. Toen voerde ChatGPT onze opdrachten zonder meer uit en hield geen rekening met de geldende arbeidswetgeving. Lees het artikel hier. Nu, tweeënhalf jaar later, is de software verbeterd. Vooral de taalvaardigheid is indrukwekkend: je krijgt keurig geformuleerde brieven in foutloos Nederlands, afgestemd op de gewenste toon. Je kunt AI zelfs vragen om de brief iets formeler, luchtiger of persoonlijker te maken. Maar juist daarin schuilt ook een groot gevaar.
Privacyrisico’s vooral niet onderschatten
De AI-tools nodigen je uit om zo veel mogelijk context te geven: de naam van je organisatie, de naam van de medewerker, de datum van indiensttreding, het aantal contracten. De gegenereerde tekst wordt er dan keurig op aangepast. Je staat er echt van te kijken hoe goed dat gaat; en dan ook nog eens gratis. Maar dat laatste is schijn, want je ‘betaalt’ wel degelijk met de ingevoerde prompts en documenten, waarmee AI steeds weer beter kan worden.
Wat er met die ingevoerde gegevens gebeurt, blijft vaag. Ze worden in ieder geval verwerkt (en bewaard) op servers buiten de EU. Dus bij het invoeren van persoonsgegevens in een gratis AI-tool, loop je al snel het risico op een datalek en overtreed je mogelijk de privacywetgeving (AVG).
- Toezicht op Europese Dataverordening van start - 5 december 2025
- Den Haag versterkt positie als Europese cybersecurity hoofdstad - 5 december 2025
- ACM vanaf nu bevoegd om toezicht te houden op de Data Act - 4 december 2025
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Toezicht op Europese Dataverordening van start | Verder lezen | |
Den Haag versterkt positie als Europese cybersecurity hoofdstad | Verder lezen | |
ACM vanaf nu bevoegd om toezicht te houden op de Data Act | Verder lezen | |
Rapport: Inzicht in gemeentelijke kosten en aanpak van informatiebeveiliging | Verder lezen | |
AP adviseert ouders om geen fotos van kinderen te delen voor winactie | Verder lezen | |
Gemeenten zien kosten cybersecurity fors oplopen | Verder lezen | |
ISO 27001 als fundament onder AVG-compliance: juridische zekerheid door informatiebeveiliging | Verder lezen | |
Shadow AI ondermijnt IT-beleid en security | Verder lezen | |
Datalek bij gemeente Amsterdam: vertrouwelijke or-gespreksverslagen op straat | Verder lezen | |
Overheid waant zich onterecht cyberveilig | Verder lezen |