Privacy Washing: Warum brauchen wir einen Bewertungsrahmen für Privacy Enhancing Technologies?

7. April 2025

Artikel 12 der Allgemeinen Erklärung der Menschenrechte bezieht sich auf das Recht der einzelnen Person, vor Eingriffen in ihre Privatsphäre geschützt zu werden. Die zunehmende Verbreitung von KI in allen Bereichen bedroht dieses Recht. Im vergangenen Monat trafen sich Datenschutzexpert*innen aus aller Welt mit Rechtswissenschaftler*innen, Politikexpert*innen und Regulierungsbehörde zu einem Dagstuhl-Seminar, um einen weltweit anwendbaren Bewertungsrahmen für Technologien zum Schutz der Privatsphäre zu entwickeln.

Um ein KI-Modell zu trainieren, müssen erhebliche Datenmengen bereitgestellt werden. Die rasche Zunahme der KI-Einführung ging zu Lasten des Datenschutzes. Um dieses Risiko zu mindern, entwickeln Expert*innen Technologien zum Schutz der Privatsphäre (Privacy Enhancing Technologies, PETs). Ein Beispiel für PETs sind Tools, die die Datenverarbeitung durch maschinelle Lernalgorithmen ermöglichen, ohne unnötigen Zugriff auf personenbezogene Daten zu gewähren.

PETs sind zwar vielversprechend, wenn es darum geht, sensible Daten vor böswilligem Zugriff zu schützen, doch Wissenschaftler*innen weisen auch auf die potenziellen Fallstricke dieser Technologien hin: Das Fehlen standardisierter Rahmenbedingungen für die Datenschutzbewertung dieser Tools führt zur Einführung von Lösungen, die entweder den Datenschutz nicht gewährleisten oder den Benutzer*innen dennoch schaden können. Im Seminar wurde die Praxis des „Privacy Washing“ diskutiert, bei dem Unternehmen erklären, dass sie PETs einsetzen, um ihre Gewinne zu steigern, ohne sicherzustellen, dass die eingesetzten Technologien die Benutzer vollständig schützen. „Die Erkennung von Privacy Washing ist eine anspruchsvolle Aufgabe, da die Hauptursachen in verschiedenen Phasen komplexer Systempipelines auftreten können, von der Spezifikation des Systemzwecks über Algorithmen bis hin zur Kommunikation über die Funktionsweise des Systems“, sagt Asia Biega, Fakultätsmitglied am MPI-SP und Teilnehmerin am Dagstuhl-Seminar.

In Dagstuhl kamen Datenschutzexpert*innen aus aller Welt mit Rechtswissenschaftler*innen, Politikexpert*innen und Regulierungsbehörd*innen zusammen, um einen weltweit anwendbaren Bewertungsrahmen für Technologien zur Verbesserung des Datenschutzes zu entwickeln. „Der Schutz der Daten ist nur ein erster Schritt und in vielen Fällen unzureichend. […] Die Grenzen von PETs sollten gut dokumentiert werden, damit das Privacy Washing durch PETS gestoppt wird“, sagt Carmela Troncoso, wissenschaftliche Direktorin am MPI-SP und Mitorganisatorin eines Dagstuhl-Seminars. Die Teilnehmer*innen des Seminars arbeiteten auch an der Ausarbeitung eines Positionspapiers zum Privacy Washing durch PETS und entwickelten Ideen, wie dieses Problem in Zukunft vermieden werden kann.

Über die Dagstuhl-Seminare

Schloss Dagstuhl, der Sitz des Leibniz-Zentrums für Informatik, bietet eine einzigartige Umgebung, die den wissenschaftlichen Austausch fördern und erleichtern soll. Der Begutachtungsprozess für Seminarvorschläge ist äußerst wettbewerbsorientiert, um die beste wissenschaftliche Qualität für die Teilnehmer*innen dieser Veranstaltungen zu gewährleisten. Das Dagstuhl-Seminar mit dem Titel „PETs and AI: Privacy Washing and the Need for a PETs Evaluation Framework“, das von Carmela Troncoso (MPI-SP), Emiliano De Cristofaro (University of California - Riverside), Kris Shrishak (Irish Council for Civil Liberties) und Thorsten Strufe (Karlsruher Institut für Technologie) organisiert wurde, fand im März 2025 statt.

Zur Redakteursansicht