Van ChatGPT naar HackGPT
De opkomst en de voortdurende ontwikkeling van kunstmatige intelligentie, AI, zorgt voor eindeloos nieuwe mogelijkheden in de wereld van cybersecurity. Bedreigingen en zwakheden kunnen sneller en nauwkeuriger worden gedetecteerd. En de handelingssnelheid van securityteams wordt met AI hoger dan ooit. Dat is hard nodig, want zoals het gaat met alle nieuwe middelen die de mensheid vooruit helpen, vinden nieuwe technieken ook gretig aftrek bij cybercriminelen.
Cybersecurityteams zetten AI en Machine Learning al in om cybercriminelen buiten de deur te houden. Geavanceerde cyberbeveiligingsoplossingen gebruiken zulke technologieen om aanvallen automatisch op te sporen en grote hoeveelheden gegevensverkeer snel te controleren. Ook worden de technologieen ingezet om fraudepatronen te detecteren, en zelfs aanvallen te voorspellen. Het is slechts een greep uit AI-toepassingen die het leven van cybersecurityteams een stuk aangenamer maken.
Kat-en-muis-spel
Aan de andere kant worden diezelfde AI-middelen ingezet voor activiteiten van meer kwaadwillende aard. Van het maken van succesvollere phishingmails tot het genereren van deepfakes. Met de toenemende populariteit van AI is het kat-en-muis-spel tussen hackers en beveiligers naar een nieuw niveau getild. John Schaap, Senior Director South and West Europe van BlackBerry, schetst een aantal opvallende AI-dreigingen waar bedrijven rekening mee moeten houden.
1. Phishing naar een hoger niveau tillen
Phishing-mails waren eerder te identificeren aan de taalfouten en waren bovendien onpersoonlijk. Met de opkomst voor ChatGPT kunnen kwaadwillenden eenvoudiger gepersonaliseerde phishingberichten genereren die gebaseerd zijn op berichten die in het verleden succesvol waren of die bepaalde details bevatten die het bericht geloofwaardiger maken. Medewerkers moeten daarom nog beter getraind worden op het herkennen van phishing-mails en zich nog vaker de vraag stellen: is deze link wel veilig, want op eerste oogopslag is dat steeds moeilijker te zien.
2. Deepfakes van bekenden
Dat deepfakes veel schade kunnen veroorzaken is geen nieuws meer. Maar er duiken tegenwoordig andere varianten van deepfakes op. AI-bots kunnen namelijk stemmen genereren of imiteren, en zelfs video s. Cybercriminelen kunnen zich nu voordoen als een van de leidinggevenden van een bedrijf om werknemers te overtuigen om geld, en persoonlijke of bedrijfsinformatie te delen. Deze techniek is de volgende ontwikkeling van de inmiddels bekende WhatsApp-fraude, alleen worden personen nu door een computer gebeld en worden stemmen van familieleden, vrienden of collega s gefaket.
Verder lezen bij de bron- Gegevens 100.000 inwoners Amersfoort gelekt na hack bij softwareleverancier - 12 december 2024
- Logius: Begin op tijd met nieuwe certificaten - 12 december 2024
- Engelse ziekenhuizen vallen wegens cyberincident terug op pen en papier - 11 december 2024
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Gegevens 100.000 inwoners Amersfoort gelekt na hack bij softwareleverancier | Verder lezen | |
Logius: Begin op tijd met nieuwe certificaten | Verder lezen | |
Engelse ziekenhuizen vallen wegens cyberincident terug op pen en papier | Verder lezen | |
AP hekelt plan kabinet voor centrale database met locatiegegevens taxiritten | Verder lezen | |
Proefschrift: Gegevensbescherming en mededinging verweven | Verder lezen | |
Hoe AI anomaliedetectie verbetert en waarschuwingsmoeheid aanpakt in cyberbeveiliging | Verder lezen | |
Europese wetgeving rond digitale weerbaarheid: wat is op wie van toepassing? | Verder lezen | |
Europol: logs, namen en ip adressen belangrijkste data voor politieonderzoek | Verder lezen | |
Gemeente gooit camerabewaking in de strijd tegen onveiligheid Schaepmanstraat Hoogezand | Verder lezen | |
Kleinbedrijf laat subsidiepot cybersecurity nog links liggen | Verder lezen |