Het gebruik van AI als hacktool is overhyped
Nieuw onderzoek toont aan dat de meeste LLM s niet in staat zijn om one day kwetsbaarheden te misbruiken, zelfs niet als ze de CVE beschrijving krijgen.
De offensieve potentie van populaire grote taalmodellen, LLM s, is op de proef gesteld in een nieuw onderzoek waaruit bleek dat GPT 4 het enige model was dat levensvatbare exploits kon schrijven voor een reeks CVE s. Het artikel van onderzoekers van de University of Illinois Urbana Champaign testte een reeks populaire LLM s, waaronder OpenAI s GPT 3.5 en GPT 4, plus toonaangevende opensource agents van Mistral AI, Hugging Face en Meta.
De AI agents kregen een lijst met 15 kwetsbaarheden, varierend qua ernst van medium tot kritiek, om te testen hoe succesvol de LLM s autonoom exploitcode konden schrijven voor CVE s. De onderzoekers maakten een specifieke prompt om de beste resultaten van de modellen te krijgen, die de agent aanmoedigde om niet op te geven en zo creatief mogelijk te zijn met zijn oplossing.
Alleen GPT 4
Tijdens de test kregen de agents toegang tot web browsing elementen, een terminal, zoekresultaten, het maken en bewerken van bestanden en een code interpreter. Uit de resultaten van het onderzoek bleek dat GPT 4 het enige model was dat in staat was om met succes een exploit te schrijven voor een van de one day kwetsbaarheden, met een succespercentage van 86,7 procent.
De auteurs merkten op dat ze geen toegang hadden tot GPT 4 s commerciele rivalen zoals Claude 3 van Anthropic of Google s Gemini 1.5 Pro en waren dus niet in staat om hun prestaties te vergelijken met die van OpenAI s vlaggenschip GPT 4.
Verder lezen bij de bron- Europa werkt aan digitale euro: privacy blijft heet hangijzer - 19 januari 2026
- Cybersecure AI en opkomende technologie - 19 januari 2026
- De moeizame (ont)worsteling van bestuurders met platform X - 16 januari 2026
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Europa werkt aan digitale euro: privacy blijft heet hangijzer | Verder lezen | |
Cybersecure AI en opkomende technologie | Verder lezen | |
De moeizame (ont)worsteling van bestuurders met platform X | Verder lezen | |
VNG deelt aandachtspunten bij uitwerking nieuwe cyberwetten | Verder lezen | |
Onderzoek: burgers willen gegevens uit sociaal domein in PGO | Verder lezen | |
Overzicht: Deze digitale wetten gaan in 2026 de overheid raken | Verder lezen | |
Medische informatie uit Google AI-samenvattingen: wat zijn de risico’s en hoe gaan we ermee om? | Verder lezen | |
Security in Embedded en (I)IoT-systemen: Van klassieke beveiliging tot het post-kwantumtijdperk | Verder lezen | |
Onderzoek: datavolwassenheid en -infrastructuur zijn cruciaal voor AI-succes | Verder lezen | |
Data beschermen we met firewalls, maar wie beschermt de beheerder? | Verder lezen |