Volslagen onzin: Hackers hebben kritiek op de huidige AI-beveiligingstests
Tijdens DEF CON, 's werelds grootste hackersconferentie, verklaarden vooraanstaande cyberbeveiligingsonderzoekers dat de huidige methoden voor de bescherming van kunstmatige intelligentie (AI)-systemen fundamenteel gebrekkig zijn en volledig moeten worden herzien.
Dit is wat we weten
Het eerste Hackers' Almanac-rapport van de conferentie, dat is opgesteld in samenwerking met het Cyber Policy Initiative van de Universiteit van Chicago, zet vraagtekens bij de effectiviteit van de "red team"-methode waarbij beveiligingsexperts AI-systemen scannen op kwetsbaarheden. Sven Cattell, die aan het hoofd staat van het AI-dorp DEF CON, zei dat de aanpak geen adequate bescherming kan bieden tegen opkomende bedreigingen omdat de documentatie van AI-modellen gefragmenteerd is en de beoordelingen in de documentatie ontoereikend zijn.
Op de conferentie testten ongeveer 500 deelnemers AI-modellen en zelfs beginners slaagden erin kwetsbaarheden te vinden. De onderzoekers riepen op tot de implementatie van structuren die vergelijkbaar zijn met het Common Vulnerabilities and Exposures (CVE) raamwerk dat sinds 1999 in de traditionele cyberbeveiliging wordt gebruikt om te standaardiseren hoe AI-kwetsbaarheden worden gedocumenteerd en verholpen.
Bron: DEF CON