Tag: Testing for Poisoned Training Sets
Training Data Poisoning ist ein Angriff auf die Lieferkette von KI-Modellen, bei dem bösartige oder manipulierte Daten in den Trainingsdatensatz eingeführt werden, um das Modellverhalten zu kompromittieren. Das Testen überprüft, ob ein KI-System mit kontaminierten Daten trainiert wurde, die absichtliche Verzerrungen, Backdoors, manipulierte Ausgaben bei bestimmten Triggern oder Leistungsverschlechterungen bei bestimmten Eingaben verursachen. Beinhaltet Datenherkunftsanalyse, Erkennung anomaler Muster und Validierung der Modellrobustheit gegenüber korrupten Datensätzen.