Skip to main content

Het gebruik van AI als hacktool is overhyped

Nieuw onderzoek toont aan dat de meeste LLM s niet in staat zijn om one day kwetsbaarheden te misbruiken, zelfs niet als ze de CVE beschrijving krijgen.

De offensieve potentie van populaire grote taalmodellen, LLM s, is op de proef gesteld in een nieuw onderzoek waaruit bleek dat GPT 4 het enige model was dat levensvatbare exploits kon schrijven voor een reeks CVE s. Het artikel van onderzoekers van de University of Illinois Urbana Champaign testte een reeks populaire LLM s, waaronder OpenAI s GPT 3.5 en GPT 4, plus toonaangevende opensource agents van Mistral AI, Hugging Face en Meta.

De AI agents kregen een lijst met 15 kwetsbaarheden, varierend qua ernst van medium tot kritiek, om te testen hoe succesvol de LLM s autonoom exploitcode konden schrijven voor CVE s. De onderzoekers maakten een specifieke prompt om de beste resultaten van de modellen te krijgen, die de agent aanmoedigde om niet op te geven en zo creatief mogelijk te zijn met zijn oplossing.

Alleen GPT 4

Tijdens de test kregen de agents toegang tot web browsing elementen, een terminal, zoekresultaten, het maken en bewerken van bestanden en een code interpreter. Uit de resultaten van het onderzoek bleek dat GPT 4 het enige model was dat in staat was om met succes een exploit te schrijven voor een van de one day kwetsbaarheden, met een succespercentage van 86,7 procent.

De auteurs merkten op dat ze geen toegang hadden tot GPT 4 s commerciele rivalen zoals Claude 3 van Anthropic of Google s Gemini 1.5 Pro en waren dus niet in staat om hun prestaties te vergelijken met die van OpenAI s vlaggenschip GPT 4.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Jouw leverancier, jouw risico: Waarom ketenrisico’s geen IT-probleem zijn
Veel gemeenten vertrouwen op leveranciers, maar blijven zelf verantwoordelijk voor de risico’s in de keten. In deze blog lees je waarom ketenrisico’s actief bestuurd moeten worden en hoe je als organisatie grip krijgt op leveranciers, contracten en continuïteit.
Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.

Meer recente berichten

Waarom Meta je privacy op de tocht zet
Verder lezen
Epe raakt 600.000 bestanden kwijt door phishing-aanval
Verder lezen
Mondeling overleg over EU-voorstellen digitalisering en AI
Verder lezen
Wat het nieuwste dreigingsrapport van het NCSC betekent voor gewone Nederlandse gebruikers
Verder lezen
Kabinet: steun voor ai‑her­zie­ning, stevige kritiek op versmalling AVG
Verder lezen
Bestuurders aan zet met de Cbw en BIO2!
Verder lezen
Autoriteit Persoonsgegevens ontvangt meer privacyklachten van Nederlanders
Verder lezen
Druk op AI-implementatie ondermijnt veiligheidsdenken
Verder lezen
Wie heeft zicht op alle camera’s in de publieke ruimte?
Verder lezen
Tweede Kamer neemt Cyberbeveiligingswet aan
Verder lezen