Shadow AI ondermijnt IT-beleid en security
Bijna drie kwart van de Nederlandse STEM-professionals gebruikt AI-tools die hun organisatie niet heeft goedgekeurd. Tegelijkertijd erkent de meerderheid de bijbehorende beveiligingsrisico’s. Hoe kunnen bedrijven deze shadow AI beheersen en tegelijk de productiviteit behouden?
Uit het recente STEM Workforce Report van SThree blijkt dat 72% van de Nederlandse tech professionals AI-tools gebruikt die buiten het officiële IT-beleid vallen. Denk aan generatieve platforms zoals ChatGPT, Gemini of Copilot. Voor veel gebruikers is dit geen luxe, maar noodzaak: 24% geeft aan zonder deze tools hun werk niet af te krijgen of deadlines te missen.
De redenen voor dit gebruik zijn helder:
- Snelheid en gebruiksgemak: 26% vindt deze tools efficiënter dan interne alternatieven.
- Beperkte functionaliteit van goedgekeurde oplossingen: 25% ziet tekortkomingen in officiële AI-tools.
- Irritatie over traagheid: 23% vindt de goedgekeurde tools log en frustrerend.
In veel gevallen vullen tech-professionals met behulp van ongeautoriseerde AI-tools de gaten in hun workflow. Dat varieert van het schrijven van code en documentatie tot data-analyse, automatische vertalingen of het genereren van testscenario’s.
Shadow AI is geen randverschijnsel meer
Het onderzoek laat zien dat gebruik van ongeautoriseerde AI ‘mainstream’ is geworden. Meer dan de helft van de respondenten gebruikt wekelijks shadow AI-tools voor IT-taken. In Nederland is dat aandeel zelfs hoger dan in landen als Japan en het VK.
Een opvallend gegeven uit het rapport: vier keer zoveel managers gebruiken ongeautoriseerde AI-tools dan niet-managers – en dat terwijl ze zich gemiddeld beter bewust zijn van de risico’s. Ze nemen deze stap niet uit rebellie, maar vanuit een pragmatische behoefte om productiviteit en innovatie op peil te houden, ondanks skills gaps en trage besluitvorming rond toolselectie.
De risico’s zijn bekend – maar worden afgewogen
Ondanks het ongeautoriseerde karakter is er géén sprake van naïviteit onder gebruikers. Maar liefst 81% erkent de risico’s van shadow AI. Gevoelige data die bij externe modellen belandt, mogelijke IP-inbreuken, beperkte controle over outputkwaliteit, en compliance-conflicten in het kader van de komende EU AI Act, zijn bekend op de meeste werkvloeren.
Toch zegt 51% dat de voordelen zwaarder wegen dan de nadelen, zeker zolang er geen volwaardig alternatief beschikbaar is binnen hun organisatie.
Een gat in governance en security
Een cruciale bevinding uit het rapport: slechts 63% van de ondervraagde professionals geeft aan dat hun organisatie AI-beleid heeft geformuleerd. In kleinere bedrijven ligt dat percentage nog lager. En dat terwijl juist die bedrijven kwetsbaarder zijn voor datalekken of onbedoelde openbaarmaking van intellectueel eigendom.
Verder lezen bij de bron- Shadow AI ondermijnt IT-beleid en security - 2 december 2025
- Datalek bij gemeente Amsterdam: vertrouwelijke or-gespreksverslagen op straat - 1 december 2025
- Overheid waant zich onterecht cyberveilig - 1 december 2025
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Shadow AI ondermijnt IT-beleid en security | Verder lezen | |
Datalek bij gemeente Amsterdam: vertrouwelijke or-gespreksverslagen op straat | Verder lezen | |
Overheid waant zich onterecht cyberveilig | Verder lezen | |
Gegevens inwoners Schiermonnikoog op straat | Verder lezen | |
Bedrijven bereiden zich te weinig voor op dreigingen: ‘Bescherm je kroonjuwelen’ | Verder lezen | |
Persoonsgegevens DigiD staan straks mogelijk op servers van Amerikaans bedrijf: wat dat betekent voor onze veiligheid | Verder lezen | |
50 miljoen subsidie voor Europese cybersecurity-innovatie | Verder lezen | |
Critici: voorgestelde wijzigingen aan EU-privacywet zijn ‘dood door duizend sneden’ | Verder lezen | |
NCSC waarschuwt: begin op tijd met voorbereiden op Cyberbeveiligingswet | Verder lezen | |
Dossier van patiënte honderden keren geopend bij ggz-instelling Antes | Verder lezen |