Tag: ML-Modell-Verteidigung
Defensive Techniken zum Schutz von Machine-Learning-Modellen vor Adversarial Attacks, Poisoning, Evasion und Model Extraction. Beinhaltet Adversarial Training, Eingabe-Sanitisierung, Differential Privacy, Modell-Watermarking, Query Rate Limiting und die Überwachung anomaler Vorhersagen während der Inferenz.