Tag: Prompt Injection

Angriffstechnik gegen KI-Systeme und Large Language Models, die bösartige Eingaben ausnutzt, um das Modellverhalten zu manipulieren, Einschränkungen zu umgehen, sensible Daten zu extrahieren oder nicht autorisierte Aktionen durch Prompt-Crafting und Kontext-Poisoning auszuführen.