AITG-DAT-05: Prüfung auf Datenminimierung und Einwilligung

KI-Systeme verarbeiten riesige Mengen personenbezogener Daten. Ohne angemessene Kontrollen besteht das Risiko, dass sie mehr Informationen als nötig sammeln oder die Einwilligung der Nutzer unzureichend verwalten, was gegen die DSGVO und ethische Grundsätze verstößt. Das Testing for Data Minimization & Consent überprüft, ob KI-Systeme die Datenschutzbestimmungen einhalten, indem die Datenerfassung auf das absolut Notwendige beschränkt und eine korrekte Verwaltung der Einwilligung in jeder Phase sichergestellt wird.

Dieser Artikel ist Teil des Kapitels AI Data Testing des OWASP AI Testing Guide.

Testziele

Organisationen, die KI-Systeme entwickeln oder nutzen, müssen die Einhaltung gesetzlicher Vorschriften und ethische Verantwortung nachweisen. Diese Tests dienen dazu:

  • Zu überprüfen, dass nur die für definierte Zwecke unerlässlichen Daten erhoben werden
  • Sicherzustellen, dass die Einwilligung nachvollziehbar und prüfbar (auditierbar) ist
  • Unbefugte Nutzungen zu verhindern, die gegen Datenschutz und Vorschriften verstoßen würden
  • Das Risiko von Sanktionen und Reputationsschäden zu reduzieren

Für Unternehmen, die der DSGVO-Compliance unterliegen, stellen diese Tests ein wesentliches Element der Datenschutzstrategie dar.

Methodik und Payloads

Excessive Data Request (Übermäßige Datenanfrage)

Überprüft, ob das System unnötige Daten ablehnt, indem Anfragen mit zusätzlichen Feldern gesendet werden, die über den erklärten Zweck hinausgehen, und beobachtet wird, ob das System überflüssige Daten akzeptiert, verarbeitet oder speichert.

Hinweis auf eine Schwachstelle: Verstoß gegen das Prinzip der Datenminimierung, wenn zusätzliche Daten verarbeitet oder gespeichert werden.

Consent Handling Audit (Audit der Einwilligungsverwaltung)

Überprüft die korrekte Verwaltung der Einwilligung durch Simulation von Widerrufs- oder Ablehnungsszenarien und kontrolliert, ob das System die Verarbeitung personenbezogener Daten sofort einstellt.

Hinweis auf eine Schwachstelle: Fortsetzung der Verarbeitung nach dem Widerruf oder Fehlen von Mechanismen zur Einwilligungsverwaltung.

Data Retention Test (Datenaufbewahrungstest)

Überprüft die automatische Löschung von Daten durch Suche nach Informationen, die gemäß den erklärten Richtlinien hätten gelöscht werden müssen, und kontrolliert die Wirksamkeit von Anonymisierungsprozessen.

Hinweis auf eine Schwachstelle: Daten sind über den vorgesehenen Aufbewahrungszeitraum hinaus verfügbar oder die Anonymisierung ist ineffektiv.

Erwartetes Ergebnis

Ein KI-System, das die Tests besteht, weist folgende Merkmale auf:

  • Strenge Validierung: Das Backend akzeptiert nur die explizit angeforderten Daten und verwirft alles andere
  • Vollständige Nachvollziehbarkeit: Jede Erteilung oder jeder Widerruf der Einwilligung wird mit Zeitstempel und Audit-Trail protokolliert
  • Kontinuierliche Kontrolle: Bei jedem Vorgang wird geprüft, ob die Einwilligung aktiv ist, bevor Daten verarbeitet werden
  • Automatische Aufbewahrung: Automatisierte Verfahren löschen oder anonymisieren Daten nach dem festgelegten Zeitraum

Sanierungsmaßnahmen (Remediation)

Strenge Eingabevalidierung

Implementieren Sie eine Eingabevalidierung anhand eines definierten Schemas an allen Erfassungspunkten und lehnen Sie alle Daten ab, die nicht für den erklärten Zweck vorgesehen sind.

Erwartete Auswirkung: Reduzierung der Datenerfassungsfläche und Einhaltung des Prinzips der Datenminimierung.

Zentralisierte Plattform zur Einwilligungsverwaltung

Nutzen Sie zentralisierte Plattformen zur Einwilligungsverwaltung mit vollständiger Nachvollziehbarkeit und überprüfen Sie den Status der Einwilligung zu Beginn jedes Verarbeitungsprozesses.

Erwartete Auswirkung: Vollständiger Audit-Trail und sofortiger Stopp der Verarbeitung im Falle eines Widerrufs.

Automatisierte Aufbewahrungsprozesse

Implementieren Sie automatisierte Prozesse (z. B. mittels TTL), um Daten nach Ablauf der vorgesehenen Aufbewahrungsfrist zu löschen oder zu anonymisieren, bei kontinuierlicher Überwachung der Wirksamkeit.

Erwartete Auswirkung: Einhaltung der Aufbewahrungsanforderungen und Reduzierung des Risikos von Datenschutzverletzungen bei veralteten Daten.

Benutzer-Dashboard für Daten- und Einwilligungsverwaltung

Stellen Sie Dashboards für Benutzer bereit, über die sie Daten verwalten, Verwendungszwecke einsehen sowie Einwilligungen transparent und sofort erteilen oder widerrufen können.

Erwartete Auswirkung: Höhere Transparenz und Benutzerkontrolle, bei gleichzeitiger Verringerung des Risikos von Beschwerden und Sanktionen.

Empfohlene Tools

  • OWASP ZAP: Proxy zum Abfangen und Ändern von HTTP-Anfragen, nützlich für das Testen von “Excessive Data Requests”
  • Burp Suite: Plattform zur Manipulation von Payloads und zur Überprüfung der Einwilligungsverwaltung
  • Cookiebot: Tool für Audits und Einwilligungsverwaltung auf Webplattformen
  • OneTrust: Unternehmensplattform für Datenschutz, Einwilligung und Datenaufbewahrung

Nützliche weiterführende Informationen

Diese Links bieten regulatorischen und technischen Kontext, um die Prinzipien der Datenminimierung und Einwilligungsverwaltung in KI-Systemen zu vertiefen:

Häufig gestellte Fragen

  • Was ist der Unterschied zwischen Datenminimierung und Datenaufbewahrung?
  • Die Minimierung betrifft die Erhebung: Es dürfen nur die unbedingt notwendigen Daten erfasst werden. Die Aufbewahrung betrifft die Speicherung: Die erhobenen Daten müssen nach dem vorgesehenen Zeitraum gelöscht oder anonymisiert werden. Beide Prinzipien sind gemäß DSGVO obligatorisch und ergänzen sich gegenseitig.
  • Wie weist man die Einhaltung der Einwilligung während eines Audits nach?
  • Es ist ein vollständiger Audit-Trail erforderlich, der protokolliert, wann und wie die Einwilligung eingeholt wurde, sowie Änderungen an den Benutzereinstellungen und den Widerruf. Das System muss nachweisen können, dass jede Verarbeitung zum Zeitpunkt der Ausführung durch eine gültige Einwilligung abgedeckt war.
  • Was passiert, wenn das System nach dem Widerruf weiterhin Daten verarbeitet?
  • Dies stellt einen Verstoß gegen die DSGVO dar, der zu Sanktionen von bis zu 4 % des weltweiten Jahresumsatzes oder 20 Millionen Euro führen kann. Neben den rechtlichen Konsequenzen drohen der Organisation erhebliche Reputationsschäden und der Vertrauensverlust der Nutzer.
  • Erfordern KI-Systeme andere Tests als herkömmliche Anwendungen?
  • Ja, KI-Systeme stellen zusätzliche Herausforderungen dar: Sie können sensible Informationen aus scheinbar harmlosen Daten ableiten, Daten ohne explizite Zustimmung für das Training verwenden oder personenbezogene Informationen in den Modellen behalten, selbst nachdem sie aus den Datenbanken gelöscht wurden. Die Tests müssen diese KI-spezifischen Szenarien abdecken.
  • Wie oft sollten diese Tests durchgeführt werden?
  • Die Tests sollten bei jeder wesentlichen Änderung des Systems, mindestens jährlich als Teil von Compliance-Audits und bei jeder Änderung der relevanten Vorschriften durchgeführt werden. Für kritische oder risikoreiche Systeme wird eine kontinuierliche Überwachung empfohlen.

Beratungsunterstützung durch ISGroup

ISGroup bietet Dienstleistungen zur Secure Architecture Review an, um die Architektur von KI-Systemen zu bewerten und die Einhaltung der Prinzipien der Datenminimierung und Einwilligungsverwaltung zu überprüfen. Das Team analysiert die Infrastruktur, identifiziert Design-Lücken und schlägt konkrete Empfehlungen vor, um sicherzustellen, dass personenbezogene Daten unter Einhaltung der Vorschriften und bewährter Branchenpraktiken verarbeitet werden.

Verwandte Artikel

Referenzen

Die Integration von strenger Validierung, zentralisierter Einwilligungsverwaltung und automatisierter Aufbewahrung trägt dazu bei, die Einhaltung gesetzlicher Vorschriften und den Schutz der Privatsphäre zu gewährleisten. Regelmäßige Tests der Minimierung und Einwilligung sind entscheidend, um das Vertrauen der Nutzer zu erhalten und das Risiko von Sanktionen in der Produktion zu verringern.

Leave a Reply

Your email address will not be published. Required fields are marked *