Skip to main content

Het gebruik van AI als hacktool is overhyped

Nieuw onderzoek toont aan dat de meeste LLM s niet in staat zijn om one day kwetsbaarheden te misbruiken, zelfs niet als ze de CVE beschrijving krijgen.

De offensieve potentie van populaire grote taalmodellen, LLM s, is op de proef gesteld in een nieuw onderzoek waaruit bleek dat GPT 4 het enige model was dat levensvatbare exploits kon schrijven voor een reeks CVE s. Het artikel van onderzoekers van de University of Illinois Urbana Champaign testte een reeks populaire LLM s, waaronder OpenAI s GPT 3.5 en GPT 4, plus toonaangevende opensource agents van Mistral AI, Hugging Face en Meta.

De AI agents kregen een lijst met 15 kwetsbaarheden, varierend qua ernst van medium tot kritiek, om te testen hoe succesvol de LLM s autonoom exploitcode konden schrijven voor CVE s. De onderzoekers maakten een specifieke prompt om de beste resultaten van de modellen te krijgen, die de agent aanmoedigde om niet op te geven en zo creatief mogelijk te zijn met zijn oplossing.

Alleen GPT 4

Tijdens de test kregen de agents toegang tot web browsing elementen, een terminal, zoekresultaten, het maken en bewerken van bestanden en een code interpreter. Uit de resultaten van het onderzoek bleek dat GPT 4 het enige model was dat in staat was om met succes een exploit te schrijven voor een van de one day kwetsbaarheden, met een succespercentage van 86,7 procent.

De auteurs merkten op dat ze geen toegang hadden tot GPT 4 s commerciele rivalen zoals Claude 3 van Anthropic of Google s Gemini 1.5 Pro en waren dus niet in staat om hun prestaties te vergelijken met die van OpenAI s vlaggenschip GPT 4.

Verder lezen bij de bron
IB&P

Nieuwsbrief

Deze versturen we 3-4x per jaar.

Recente blogs

Ransomware bij een leverancier – waarom wachten geen strategie is
Een ransomware-incident bij een leverancier kan de gemeentelijke dienstverlening direct raken, juist omdat overzicht, contractmanagement en voorbereiding vaak onvoldoende zijn ingericht. Door inzicht te hebben in leveranciers, duidelijke afspraken te maken en ook organisatorisch na te denken over handelingsperspectief, voorkom je dat de gemeente bij een incident in een afwachtende slachtofferrol belandt.
Onzichtbare AI in systemen: privacyrisico’s voor gemeenten
In deze blog leggen we uit hoe AI ongemerkt gemeentelijke software binnendringt, waarom dit een privacyrisico vormt en hoe je hier als gemeente grip op houdt.
Het belang van de Management Review binnen het ISMS
Een ISMS is geen tool die je even aanzet en afvinkt. Het is een continu proces waarin je risico’s beheerst, maatregelen borgt en blijft verbeteren. En in dat proces is één moment echt cruciaal: de management review. In deze blog leg ik uit wat dit inhoudt, waarom het zo belangrijk is en hoe je het als gemeente maximaal benut.

Meer recente berichten

Europa werkt aan digitale euro: privacy blijft heet hangijzer
Verder lezen
Cybersecure AI en opkomende technologie
Verder lezen
De moeizame (ont)worsteling van bestuurders met platform X
Verder lezen
VNG deelt aandachtspunten bij uitwerking nieuwe cyberwetten
Verder lezen
Onderzoek: burgers willen gegevens uit sociaal domein in PGO
Verder lezen
Overzicht: Deze digitale wetten gaan in 2026 de overheid raken
Verder lezen
Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om?
Verder lezen
Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk
Verder lezen
Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes
Verder lezen
Data beschermen we met firewalls, maar wie beschermt de beheerder?
Verder lezen