Tag: GenAI Red Teaming Techniken
Operative Methoden und Ansätze zum Testen der Sicherheit und Robustheit generativer KI-Systeme. Beinhaltet Prompt-Injection, Jailbreaking, kontextuelle Manipulation, Umgehung von Guardrails, Extraktion sensibler Daten aus Trainingssets und spezifische adversariale Angriffe auf LLMs. Deckt sowohl manuelle als auch automatisierte Tests ab, um Schwachstellen in generativen Modellen vor dem produktiven Einsatz zu identifizieren.