Tag: KI-Jailbreak-Techniken
Techniken zur Umgehung von Sicherheitskontrollen und Guardrails in generativen KI-Modellen. Beinhaltet fortgeschrittene Prompt-Injection, Rollenspiel-Angriffe, Kontextmanipulation, Encoding-Evasion und Strategien zur Umgehung von Inhaltsfiltern, Sicherheits-Alignment und Richtliniendurchsetzung in Large Language Models.