Shadow AI ondermijnt IT-beleid en security
Bijna drie kwart van de Nederlandse STEM-professionals gebruikt AI-tools die hun organisatie niet heeft goedgekeurd. Tegelijkertijd erkent de meerderheid de bijbehorende beveiligingsrisico’s. Hoe kunnen bedrijven deze shadow AI beheersen en tegelijk de productiviteit behouden?
Uit het recente STEM Workforce Report van SThree blijkt dat 72% van de Nederlandse tech professionals AI-tools gebruikt die buiten het officiële IT-beleid vallen. Denk aan generatieve platforms zoals ChatGPT, Gemini of Copilot. Voor veel gebruikers is dit geen luxe, maar noodzaak: 24% geeft aan zonder deze tools hun werk niet af te krijgen of deadlines te missen.
De redenen voor dit gebruik zijn helder:
- Snelheid en gebruiksgemak: 26% vindt deze tools efficiënter dan interne alternatieven.
- Beperkte functionaliteit van goedgekeurde oplossingen: 25% ziet tekortkomingen in officiële AI-tools.
- Irritatie over traagheid: 23% vindt de goedgekeurde tools log en frustrerend.
In veel gevallen vullen tech-professionals met behulp van ongeautoriseerde AI-tools de gaten in hun workflow. Dat varieert van het schrijven van code en documentatie tot data-analyse, automatische vertalingen of het genereren van testscenario’s.
Shadow AI is geen randverschijnsel meer
Het onderzoek laat zien dat gebruik van ongeautoriseerde AI ‘mainstream’ is geworden. Meer dan de helft van de respondenten gebruikt wekelijks shadow AI-tools voor IT-taken. In Nederland is dat aandeel zelfs hoger dan in landen als Japan en het VK.
Een opvallend gegeven uit het rapport: vier keer zoveel managers gebruiken ongeautoriseerde AI-tools dan niet-managers – en dat terwijl ze zich gemiddeld beter bewust zijn van de risico’s. Ze nemen deze stap niet uit rebellie, maar vanuit een pragmatische behoefte om productiviteit en innovatie op peil te houden, ondanks skills gaps en trage besluitvorming rond toolselectie.
De risico’s zijn bekend – maar worden afgewogen
Ondanks het ongeautoriseerde karakter is er géén sprake van naïviteit onder gebruikers. Maar liefst 81% erkent de risico’s van shadow AI. Gevoelige data die bij externe modellen belandt, mogelijke IP-inbreuken, beperkte controle over outputkwaliteit, en compliance-conflicten in het kader van de komende EU AI Act, zijn bekend op de meeste werkvloeren.
Toch zegt 51% dat de voordelen zwaarder wegen dan de nadelen, zeker zolang er geen volwaardig alternatief beschikbaar is binnen hun organisatie.
Een gat in governance en security
Een cruciale bevinding uit het rapport: slechts 63% van de ondervraagde professionals geeft aan dat hun organisatie AI-beleid heeft geformuleerd. In kleinere bedrijven ligt dat percentage nog lager. En dat terwijl juist die bedrijven kwetsbaarder zijn voor datalekken of onbedoelde openbaarmaking van intellectueel eigendom.
Verder lezen bij de bron- Den Haag versterkt positie als Europese cybersecurity hoofdstad - 5 december 2025
- ACM vanaf nu bevoegd om toezicht te houden op de Data Act - 4 december 2025
- Rapport: Inzicht in gemeentelijke kosten en aanpak van informatiebeveiliging - 4 december 2025
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Den Haag versterkt positie als Europese cybersecurity hoofdstad | Verder lezen | |
ACM vanaf nu bevoegd om toezicht te houden op de Data Act | Verder lezen | |
Rapport: Inzicht in gemeentelijke kosten en aanpak van informatiebeveiliging | Verder lezen | |
AP adviseert ouders om geen fotos van kinderen te delen voor winactie | Verder lezen | |
Gemeenten zien kosten cybersecurity fors oplopen | Verder lezen | |
ISO 27001 als fundament onder AVG-compliance: juridische zekerheid door informatiebeveiliging | Verder lezen | |
Shadow AI ondermijnt IT-beleid en security | Verder lezen | |
Datalek bij gemeente Amsterdam: vertrouwelijke or-gespreksverslagen op straat | Verder lezen | |
Overheid waant zich onterecht cyberveilig | Verder lezen | |
Gegevens inwoners Schiermonnikoog op straat | Verder lezen |