Shadow AI ondermijnt IT-beleid en security
Bijna drie kwart van de Nederlandse STEM-professionals gebruikt AI-tools die hun organisatie niet heeft goedgekeurd. Tegelijkertijd erkent de meerderheid de bijbehorende beveiligingsrisico’s. Hoe kunnen bedrijven deze shadow AI beheersen en tegelijk de productiviteit behouden?
Uit het recente STEM Workforce Report van SThree blijkt dat 72% van de Nederlandse tech professionals AI-tools gebruikt die buiten het officiële IT-beleid vallen. Denk aan generatieve platforms zoals ChatGPT, Gemini of Copilot. Voor veel gebruikers is dit geen luxe, maar noodzaak: 24% geeft aan zonder deze tools hun werk niet af te krijgen of deadlines te missen.
De redenen voor dit gebruik zijn helder:
- Snelheid en gebruiksgemak: 26% vindt deze tools efficiënter dan interne alternatieven.
- Beperkte functionaliteit van goedgekeurde oplossingen: 25% ziet tekortkomingen in officiële AI-tools.
- Irritatie over traagheid: 23% vindt de goedgekeurde tools log en frustrerend.
In veel gevallen vullen tech-professionals met behulp van ongeautoriseerde AI-tools de gaten in hun workflow. Dat varieert van het schrijven van code en documentatie tot data-analyse, automatische vertalingen of het genereren van testscenario’s.
Shadow AI is geen randverschijnsel meer
Het onderzoek laat zien dat gebruik van ongeautoriseerde AI ‘mainstream’ is geworden. Meer dan de helft van de respondenten gebruikt wekelijks shadow AI-tools voor IT-taken. In Nederland is dat aandeel zelfs hoger dan in landen als Japan en het VK.
Een opvallend gegeven uit het rapport: vier keer zoveel managers gebruiken ongeautoriseerde AI-tools dan niet-managers – en dat terwijl ze zich gemiddeld beter bewust zijn van de risico’s. Ze nemen deze stap niet uit rebellie, maar vanuit een pragmatische behoefte om productiviteit en innovatie op peil te houden, ondanks skills gaps en trage besluitvorming rond toolselectie.
De risico’s zijn bekend – maar worden afgewogen
Ondanks het ongeautoriseerde karakter is er géén sprake van naïviteit onder gebruikers. Maar liefst 81% erkent de risico’s van shadow AI. Gevoelige data die bij externe modellen belandt, mogelijke IP-inbreuken, beperkte controle over outputkwaliteit, en compliance-conflicten in het kader van de komende EU AI Act, zijn bekend op de meeste werkvloeren.
Toch zegt 51% dat de voordelen zwaarder wegen dan de nadelen, zeker zolang er geen volwaardig alternatief beschikbaar is binnen hun organisatie.
Een gat in governance en security
Een cruciale bevinding uit het rapport: slechts 63% van de ondervraagde professionals geeft aan dat hun organisatie AI-beleid heeft geformuleerd. In kleinere bedrijven ligt dat percentage nog lager. En dat terwijl juist die bedrijven kwetsbaarder zijn voor datalekken of onbedoelde openbaarmaking van intellectueel eigendom.
Verder lezen bij de bron- Gemeenten verankeren open source in inkoopvoorwaarden - 16 maart 2026
- NCSC roept organisaties op alert te zijn bij betrokkenheid bij een datalek - 13 maart 2026
- ISO 27001 wekt vertrouwen, maar is slechts het begin - 13 maart 2026
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Gemeenten verankeren open source in inkoopvoorwaarden | Verder lezen | |
NCSC roept organisaties op alert te zijn bij betrokkenheid bij een datalek | Verder lezen | |
ISO 27001 wekt vertrouwen, maar is slechts het begin | Verder lezen | |
Waar moet je op letten nu criminelen Odido-gegevens hebben? | Verder lezen | |
AI-gestuurde cyberverdediging: toekomst van intelligente dreigingsdetectie | Verder lezen | |
AP: AI-Impactbarometer kleurt rood, actie is noodzakelijk | Verder lezen | |
Halverwege Digital Decade | Verder lezen | |
Belastingdienst onder vuur over keuze voor Amerikaans beheer btw-systeem | Verder lezen | |
Groen licht voor aankoop oud-Aegon-hoofdkantoor voor House of Cyber | Verder lezen | |
AP: zonder duidelijke waarden dreigt het Wilde Westen van generatieve AI | Verder lezen |