Tag: Testing for Indirect Prompt Injection
Überprüfung der Anfälligkeit für indirekte Prompt-Injections in LLM-Systemen, bei denen bösartige Eingaben aus externen Quellen (Dokumente, APIs, Datenbanken) das Modellverhalten ohne direkte Benutzereingriffe manipulieren. Beinhaltet Testverfahren zur Erkennung von Payloads in dynamisch abgerufenen Inhalten, Cross-Context-Injection und Angriffe, die das implizite Vertrauen des Systems in nicht bereinigte Daten ausnutzen.