Tag: Large Language Model Security

Sicherheit von Large Language Models, von spezifischen Bedrohungen für generative Modelle bis hin zu implementierbaren Abwehrmechanismen. Deckt Prompt Injection, Jailbreak, Datenexfiltration über Ausgaben, Modellvergiftung, Lieferkettenrisiken bei Basismodellen, Schwachstellen beim Fine-Tuning sowie Zugriffskontrollen, Sandboxing und Laufzeitüberwachung für sichere LLM-Bereitstellungen ab.