Skip to main content

NSA slaat alarm over risico s van AI voor cybersecurity

De snelle toepassing van tools voor kunstmatige intelligentie maakt ze mogelijk tot zeer waardevolle doelwitten voor kwaadwillende cyberactoren, zo waarschuwt de Amerikaanse inlichtingendienst NSA, National Security Agency, in een recent rapport.

Kwaadwillenden die gevoelige gegevens of intellectueel eigendom willen stelen, kunnen proberen om de AI systemen van een organisatie te coopteren, aldus het rapport met tips om AI veilig te gebruiken. De NSA raadt daarin organisaties aan om defensieve maatregelen te nemen, zoals het bevorderen van een beveiligingsbewuste cultuur om het risico op menselijke fouten te minimaliseren en ervoor te zorgen dat de AI systemen van de organisatie worden gehard om beveiligingslekken en kwetsbaarheden te voorkomen.

Staatsgelieerde groepen grijpen AI aan

AI biedt ongekende mogelijkheden, maar kan ook kansen bieden voor kwaadaardige activiteiten, zei NSA Cybersecurity Director Dave Luber in een persbericht. Het rapport komt te midden van groeiende zorgen over potentieel misbruik van AI technologieen, met name generatieve AI, waaronder het razend populaire ChatGPT model van het door Microsoft gesteunde OpenAI.

In februari zei OpenAI in een blogpost dat het de accounts van vijf aan de staat gelieerde bedreigingsgroepen had beeindigd die de grote taalmodellen van de startup gebruikten om de basis te leggen voor kwaadaardige hackpogingen. Het bedrijf handelde in samenwerking met bedreigingsonderzoekers van Microsoft.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.
Het belang van de Management Review binnen het ISMS
Een ISMS is geen tool die je even aanzet en afvinkt. Het is een continu proces waarin je risico’s beheerst, maatregelen borgt en blijft verbeteren. En in dat proces is één moment echt cruciaal: de management review. In deze blog leg ik uit wat dit inhoudt, waarom het zo belangrijk is en hoe je het als gemeente maximaal benut.

Meer recente berichten

Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om?
Verder lezen
Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk
Verder lezen
Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes
Verder lezen
Data beschermen we met firewalls, maar wie beschermt de beheerder?
Verder lezen
AI bij de overheid: uitvinden wat al is uitgevonden
Verder lezen
Nieuw onderzoek: gemeenten cruciaal voor digitale veiligheid
Verder lezen
Tientallen datalekken door AI-gebruik werknemers: vooral door experimenteren met gratis tools
Verder lezen
VNG mist samenhang in regelingen nieuwe cyberwetten
Verder lezen
Wat DigiD ons leert over datasoevereiniteit
Verder lezen
AP gaat databeveiliging in de zorg controleren
Verder lezen