Tag: Indirekte Prompt-Injection-Attacke

Angriffstechnik gegen Large-Language-Model-Systeme (LLM), bei der bösartige Anweisungen indirekt über externe Inhalte eingeschleust werden, die vom Modell verarbeitet werden, wie Dokumente, E-Mails, Webseiten oder Datenbanken. Im Gegensatz zur direkten Prompt-Injection kontrolliert der Angreifer nicht den ursprünglichen Prompt, sondern manipuliert Eingabedaten, die das LLM-System abruft und interpretiert, was zu unbefugtem Verhalten, Datenexfiltration oder der Umgehung von Sicherheitsrichtlinien führt.