Tag: Model Poisoning Protection

Schutz von Machine-Learning-Modellen vor Poisoning-Angriffen während der Trainings- und Fine-Tuning-Phasen. Beinhaltet Datensanitisierungstechniken, Validierung von Trainingsdaten, Backdoor-Erkennung, Abwehrmechanismen gegen Datensatzmanipulation und Hardening-Strategien zur Verhinderung vorsätzlicher Kompromittierungen, die das Modellverhalten verändern.