Tag: Testing for Evasion Attacks
Testverfahren zur Bewertung der Widerstandsfähigkeit von KI-Systemen gegen Evasion-Angriffe, bei denen ein Angreifer Eingaben manipuliert, um Erkennungs-, Klassifizierungs- oder Sicherheitskontrollen zu umgehen. Beinhaltet Adversarial Examples, unmerkliche Störungen, Prompt Injection, Jailbreak und andere Strategien zur Umgehung von Modellverteidigungen ohne Änderung der internen Struktur.