Van ChatGPT naar HackGPT
De opkomst en de voortdurende ontwikkeling van kunstmatige intelligentie, AI, zorgt voor eindeloos nieuwe mogelijkheden in de wereld van cybersecurity. Bedreigingen en zwakheden kunnen sneller en nauwkeuriger worden gedetecteerd. En de handelingssnelheid van securityteams wordt met AI hoger dan ooit. Dat is hard nodig, want zoals het gaat met alle nieuwe middelen die de mensheid vooruit helpen, vinden nieuwe technieken ook gretig aftrek bij cybercriminelen.
Cybersecurityteams zetten AI en Machine Learning al in om cybercriminelen buiten de deur te houden. Geavanceerde cyberbeveiligingsoplossingen gebruiken zulke technologieen om aanvallen automatisch op te sporen en grote hoeveelheden gegevensverkeer snel te controleren. Ook worden de technologieen ingezet om fraudepatronen te detecteren, en zelfs aanvallen te voorspellen. Het is slechts een greep uit AI-toepassingen die het leven van cybersecurityteams een stuk aangenamer maken.
Kat-en-muis-spel
Aan de andere kant worden diezelfde AI-middelen ingezet voor activiteiten van meer kwaadwillende aard. Van het maken van succesvollere phishingmails tot het genereren van deepfakes. Met de toenemende populariteit van AI is het kat-en-muis-spel tussen hackers en beveiligers naar een nieuw niveau getild. John Schaap, Senior Director South and West Europe van BlackBerry, schetst een aantal opvallende AI-dreigingen waar bedrijven rekening mee moeten houden.
1. Phishing naar een hoger niveau tillen
Phishing-mails waren eerder te identificeren aan de taalfouten en waren bovendien onpersoonlijk. Met de opkomst voor ChatGPT kunnen kwaadwillenden eenvoudiger gepersonaliseerde phishingberichten genereren die gebaseerd zijn op berichten die in het verleden succesvol waren of die bepaalde details bevatten die het bericht geloofwaardiger maken. Medewerkers moeten daarom nog beter getraind worden op het herkennen van phishing-mails en zich nog vaker de vraag stellen: is deze link wel veilig, want op eerste oogopslag is dat steeds moeilijker te zien.
2. Deepfakes van bekenden
Dat deepfakes veel schade kunnen veroorzaken is geen nieuws meer. Maar er duiken tegenwoordig andere varianten van deepfakes op. AI-bots kunnen namelijk stemmen genereren of imiteren, en zelfs video s. Cybercriminelen kunnen zich nu voordoen als een van de leidinggevenden van een bedrijf om werknemers te overtuigen om geld, en persoonlijke of bedrijfsinformatie te delen. Deze techniek is de volgende ontwikkeling van de inmiddels bekende WhatsApp-fraude, alleen worden personen nu door een computer gebeld en worden stemmen van familieleden, vrienden of collega s gefaket.
Verder lezen bij de bronLees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Impact van generative AI op cybersecurity landschap groeit | Verder lezen | |
Politie luidt noodklok over encryptie op digitale platforms in Nederland | Verder lezen | |
Voorwaarden burgers en zorgverleners bij delen gegevens | Verder lezen | |
Tot 10 miljoen boete voor onaangepaste cyberbeveiliging | Verder lezen | |
Hoe AI de SOC expert te hulp schiet | Verder lezen | |
Kinderporno opsporen met detectiesoftware op mobiel: experts tegen EU wetsvoorstel | Verder lezen | |
Zoom scherpt privacybeleid voor Europese gebruikers verder aan als resultaat van samenwerking met SURF | Verder lezen | |
Applicatiebeveiliging in Nederland schiet flink tekort | Verder lezen | |
Nederlandse cyberexperts waarschuwen voor aanval gijzelsoftware | Verder lezen | |
Betaaldienst Klarna moet toch hogere boete betalen voor overtreden AVG | Verder lezen |