NIST waarschuwt voor cyberbedreigingen voor AI modellen
Machine learning systemen zijn kwetsbaar voor cyberaanvallen waardoor hackers de beveiliging kunnen omzeilen en datalekken kunnen veroorzaken, waarschuwden wetenschappers van het National Institute of Standards and Technology. Er bestaat geen waterdichte verdediging tegen sommige van deze aanvallen, aldus onderzoekers.
In een nieuw artikel over vijandige machine learning bedreigingen beschrijven NIST onderzoekers opkomende cyberdreigingen voor voorspellende en generatieve AI modellen die voortkomen uit datasettraining, kwetsbaarheden in de softwarecomponenten en zwakke punten in de toeleveringsketen.
Een van de meest kritische bedreigingen zijn datavergiftigingsaanvallen, waarbij hackers beschadigde gegevens gebruiken om systeemfuncties te wijzigen. Deze bedreigingen omvatten ontwijkingstactieken om reeds ingezette AI systemen in gevaar te brengen, aanvallen die kunnen resulteren in informatielekken, en misbruiktactieken waarbij hackers informatie uit een gecompromitteerde bron voeden om veranderingen in de AI modellen teweeg te brengen.
De meeste van deze aanvallen zijn redelijk eenvoudig uit te voeren en vereisen minimale kennis van het AI systeem en beperkte vijandige mogelijkheden, zegt Alina Oprea, co auteur en professor aan de Northeastern University. Vergiftigingsaanvallen kunnen bijvoorbeeld worden uitgevoerd door enkele tientallen trainingsmonsters te controleren, wat een heel klein percentage van de hele trainingsset zou zijn.
NIST onderzoekers zeggen dat de verfijning en uitvoering van deze aanvallen varieren afhankelijk van het kennisniveau van hackers over een AI systeem. NIST categoriseert de aanvallers in drie hoofdsubgroepen: white box hackers met volledige kennis over een AI systeem, sandbox hackers met minimale toegang, en grijze box hackers die mogelijk informatie hebben over de AI modellen, maar geen toegang hebben tot trainingsgegevens.
Verder lezen bij de bron- Tot 10 miljoen boete voor onaangepaste cyberbeveiliging - 14 mei 2024
- Hoe AI de SOC expert te hulp schiet - 13 mei 2024
- Kinderporno opsporen met detectiesoftware op mobiel: experts tegen EU wetsvoorstel - 13 mei 2024
Lees ons boek
Gemeenten. Bewustzijn. Privacy.
Nieuwsbrief
Deze versturen we 3-4x per jaar.
Recente blogs
Meer recente berichten
Tot 10 miljoen boete voor onaangepaste cyberbeveiliging | Verder lezen | |
Hoe AI de SOC expert te hulp schiet | Verder lezen | |
Kinderporno opsporen met detectiesoftware op mobiel: experts tegen EU wetsvoorstel | Verder lezen | |
Zoom scherpt privacybeleid voor Europese gebruikers verder aan als resultaat van samenwerking met SURF | Verder lezen | |
Applicatiebeveiliging in Nederland schiet flink tekort | Verder lezen | |
Nederlandse cyberexperts waarschuwen voor aanval gijzelsoftware | Verder lezen | |
Betaaldienst Klarna moet toch hogere boete betalen voor overtreden AVG | Verder lezen | |
Avast krijgt Tsjechische AVG boete van 14 miljoen voor doorverkopen van data | Verder lezen | |
Dit zijn geleerde lessen uit XZ kwetsbaarheid | Verder lezen | |
Alarmerend jaarverslag van AIVD: We zitten in het voorportaal van een oorlog | Verder lezen |