Tag: Multi-Turn Attacks

Angriffe gegen KI-Systeme und Large Language Models, die Multi-Turn-Konversationen nutzen, um Sicherheitsfilter zu umgehen, sensible Informationen zu extrahieren oder das Modellverhalten zu manipulieren. Techniken, die bösartige Payloads über mehrere aufeinanderfolgende Interaktionen verteilen, um ein-anfragebasierte Kontrollen zu umgehen und den Konversationskontext für indirekte Prompt Injection, progressives Jailbreaking oder die Extraktion vertraulicher Daten auszunutzen.