Skip to main content

NSA slaat alarm over risico s van AI voor cybersecurity

De snelle toepassing van tools voor kunstmatige intelligentie maakt ze mogelijk tot zeer waardevolle doelwitten voor kwaadwillende cyberactoren, zo waarschuwt de Amerikaanse inlichtingendienst NSA, National Security Agency, in een recent rapport.

Kwaadwillenden die gevoelige gegevens of intellectueel eigendom willen stelen, kunnen proberen om de AI systemen van een organisatie te coopteren, aldus het rapport met tips om AI veilig te gebruiken. De NSA raadt daarin organisaties aan om defensieve maatregelen te nemen, zoals het bevorderen van een beveiligingsbewuste cultuur om het risico op menselijke fouten te minimaliseren en ervoor te zorgen dat de AI systemen van de organisatie worden gehard om beveiligingslekken en kwetsbaarheden te voorkomen.

Staatsgelieerde groepen grijpen AI aan

AI biedt ongekende mogelijkheden, maar kan ook kansen bieden voor kwaadaardige activiteiten, zei NSA Cybersecurity Director Dave Luber in een persbericht. Het rapport komt te midden van groeiende zorgen over potentieel misbruik van AI technologieen, met name generatieve AI, waaronder het razend populaire ChatGPT model van het door Microsoft gesteunde OpenAI.

In februari zei OpenAI in een blogpost dat het de accounts van vijf aan de staat gelieerde bedreigingsgroepen had beeindigd die de grote taalmodellen van de startup gebruikten om de basis te leggen voor kwaadaardige hackpogingen. Het bedrijf handelde in samenwerking met bedreigingsonderzoekers van Microsoft.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.
Het belang van de Management Review binnen het ISMS
Een ISMS is geen tool die je even aanzet en afvinkt. Het is een continu proces waarin je risico’s beheerst, maatregelen borgt en blijft verbeteren. En in dat proces is één moment echt cruciaal: de management review. In deze blog leg ik uit wat dit inhoudt, waarom het zo belangrijk is en hoe je het als gemeente maximaal benut.

Meer recente berichten

Gemeente Beek richt zich met cyberspecialisatie bij BOA sterker op digitale veiligheid in de wijk
Verder lezen
Gemeenten hebben vaak niet door dat ambtenaren illegaal gegevens opzoeken
Verder lezen
Waarom de overheid digitale weerbaarheid niet goed kan meten
Verder lezen
Den Haag meldt mogelijke diefstal BSN en loonstroken bij hack scholingsfonds
Verder lezen
Organisaties overschatten hun AI-veiligheidsstrategie
Verder lezen
eEvidence: goodbye privacy, vaarwel digitale soevereiniteit
Verder lezen
VNG: einde aan vrijblijvendheid bij aanpak AI, cloud en cybersecurity
Verder lezen
Nieuwe regels voor politieke reclame
Verder lezen
Gartner waarschuwt: AI-browsers zetten security onder druk
Verder lezen
Brancheverenigingen dringen aan op verplichte certificering omvormers
Verder lezen