Tag: Data Poisoning
Data-Poisoning-Angriffe auf Machine-Learning-Systeme: gezielte Manipulation von Trainingsdatensätzen zur Beeinträchtigung der Integrität, Genauigkeit oder des Verhaltens des Modells, Einfügen bösartiger Proben, Backdoor-Injektion, Label-Flipping, Poisoning-Techniken zur Verursachung von Fehlklassifizierungen, Evasion oder Leistungsverschlechterung sowie Abwehrmechanismen basierend auf Datensanierung, Anomalieerkennung und robustem Training.