Tag: Testing for Runtime Model Poisoning
Bewertung der Widerstandsfähigkeit von KI/ML-Modellen gegen Poisoning-Angriffe während der Ausführung, bei denen bösartige Eingaben oder manipuliertes Feedback das Modellverhalten in der Produktion verändern. Beinhaltet Tests für Backdoor-Injektion, inkrementelles Daten-Poisoning, Adversarial Retraining und die Kompromittierung von Continuous-Learning-Pipelines in operativen Umgebungen.