Tag: Testing for Unsafe Outputs

Überprüfung der Sicherheit von Ausgaben, die von KI- und LLM-Systemen generiert werden, mit Fokus auf potenziell schädliche Inhalte, Injektionsangriffe, bösartige Codegenerierung oder gefährliche Anweisungen. Beinhaltet Tests auf XSS, Befehlsinjektion, SQL-Injektion und andere Schwachstellen, die aus nicht bereinigten oder durch Prompt-Crafting und Kontext-Poisoning manipulierbaren Ausgaben resultieren.