Tag: Prompt-Sicherheitstests
Testmethoden zur Identifizierung von Schwachstellen wie Prompt-Injection, Prompt-Leaking, Jailbreak und Manipulation von Systemen, die auf Large Language Models basieren. Deckt Eingabevalidierungstechniken, Prompt-Sanitisierung, Boundary-Testing und die Bewertung der Robustheit von Guardrails in generativen KI-Anwendungen ab.