Skip to main content

NSA slaat alarm over risico s van AI voor cybersecurity

De snelle toepassing van tools voor kunstmatige intelligentie maakt ze mogelijk tot zeer waardevolle doelwitten voor kwaadwillende cyberactoren, zo waarschuwt de Amerikaanse inlichtingendienst NSA, National Security Agency, in een recent rapport.

Kwaadwillenden die gevoelige gegevens of intellectueel eigendom willen stelen, kunnen proberen om de AI systemen van een organisatie te coopteren, aldus het rapport met tips om AI veilig te gebruiken. De NSA raadt daarin organisaties aan om defensieve maatregelen te nemen, zoals het bevorderen van een beveiligingsbewuste cultuur om het risico op menselijke fouten te minimaliseren en ervoor te zorgen dat de AI systemen van de organisatie worden gehard om beveiligingslekken en kwetsbaarheden te voorkomen.

Staatsgelieerde groepen grijpen AI aan

AI biedt ongekende mogelijkheden, maar kan ook kansen bieden voor kwaadaardige activiteiten, zei NSA Cybersecurity Director Dave Luber in een persbericht. Het rapport komt te midden van groeiende zorgen over potentieel misbruik van AI technologieen, met name generatieve AI, waaronder het razend populaire ChatGPT model van het door Microsoft gesteunde OpenAI.

In februari zei OpenAI in een blogpost dat het de accounts van vijf aan de staat gelieerde bedreigingsgroepen had beeindigd die de grote taalmodellen van de startup gebruikten om de basis te leggen voor kwaadaardige hackpogingen. Het bedrijf handelde in samenwerking met bedreigingsonderzoekers van Microsoft.

Verder lezen bij de bron
IB&P

Lees ons boek

Gemeenten. Bewustzijn. Privacy.

Het handboek voor informatiebewustzijn bij de lokale overheid.

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Het algoritmeregister: Hoe gemeenten algoritmes verantwoord inzetten
Steeds meer gemeenten gebruiken algoritmes om hun werk efficiënter te maken. Handig, maar het brengt ook risico’s met zich mee voor privacy, veiligheid en transparantie. Daarom is er sinds 2022 een landelijk algoritmeregister. In deze blog lees je wat dit register inhoudt en hoe gemeenten algoritmes verantwoord kunnen gebruiken.
Waarom een DPIA onmisbaar is binnen gemeentelijke projecten
Vanuit de AVG en BIO moet je als gemeente allerlei (verplichte) maatregelen nemen. Zo moet je bij gegevensverwerkingen met een hoog privacyrisico een Data Protection Impact Assessment (DPIA) uitvoeren. In deze blog lees je wat een DPIA precies is en waarom deze zo belangrijk is voor gemeentelijke projecten.
In 5 stappen naar een succesvolle GAP-analyse van de BIO
: Een GAP-analyse geeft snel inzicht in hoeverre jouw gemeente voldoet aan de normen van de BIO. Het laat zien wat al goed geregeld is en waar nog verbeteringen nodig zijn. Maar hoe voer je een GAP-analyse effectief uit? In deze blog ontdek je het aan de hand van een praktisch stappenplan.

Meer recente berichten

CBS: bijna helft Nederlandse bedrijven gebruikt geen AI wegens privacy
Verder lezen
NIS2 geeft cyberbeveiliging bedrijven een boost
Verder lezen
90 procent van de professionals verwacht dat nieuwe regelgeving, zoals DORA, NIS2 en de EU AI Act, de werkdruk zal beinvloeden
Verder lezen
NZa verwijdert gevoelige informatie van 500.000 clienten in de ggz
Verder lezen
Lancering register voor Functionarissen voor Gegevensbescherming
Verder lezen
Van Weel verwijst naar andere landen bij vertraging NIS2
Verder lezen
Deze wachtwoorden moet je absoluut vermijden volgens cyberexperts, en 4 tips voor een sterk wachtwoord
Verder lezen
Microsoft moet LinkedIn gebruiker 50.000 euro betalen na inzet trackingcookies
Verder lezen
Beveiligingsexpert Schneier: privacy trekt overal aan het kortste eind
Verder lezen
Z-Cert: cyberdreiging neemt toe, meer samenwerking must
Verder lezen