Wie gut schneiden Social-Media-Plattformen bei der Moderation ihrer Inhalte ab?
Yixin Zou erhält eine NSF-DFG gemeinsam finanzierte Förderung zur Untersuchung der Transparenz von Content-Moderation auf Social-Media-Plattformen
Die U.S. National Science Foundation (NSF) und die Deutsche Forschungsgemeinschaft e.V. (DFG) bieten Fördermittel für gemeinsame Projektinitiativen von Wissenschaftler*innen aus den USA und Deutschland an, die im Rahmen des Secure and Trustworthy Cyberspace (SaTC)-Programms eingereicht werden. Yixin Zou, Faculty-Mitglied am MPI-SP, ist Teil eines Forscher*innenteams, das im Rahmen des SaTC-Programms die Transparenz von Content-Moderation auf Social-Media-Plattformen untersuchen soll.
Das geförderte Forschungsprojekt wird sich hauptsächlich auf bildbasierten sexuellen Missbrauch (Image Based Sexual Abuse, IBSA) konzentrieren, womit die Weitergabe oder die Androhung der Weitergabe intimer Bilder einer Person im Internet ohne deren Zustimmung gemeint ist. Solche Erfahrungen haben schädliche Folgen für die psychische Gesundheit, das körperliche Wohlbefinden, das Ansehen und die Arbeitsplatzsicherheit der betroffenen Personen. „Außerdem mangelt es bei den Social-Media-Plattformen an Transparenz, wenn es darum geht, die gemeldeten sensiblen Inhalte zu entfernen“, sagt Yixin Zou. „Die betroffenen Personen werden jedes Mal aufs Neue traumatisiert, wenn sie selbst überprüfen müssen, ob die kompromittierenden Inhalte entfernt wurden, da die Plattformen sie darüber nicht benachrichtigen“.
Das Forscher*innenteam aus den USA und Deutschland wird IBSA als Fallstudie für sein Projekt verwenden. Ihre Arbeit zielt darauf ab, neue Nachverfolgungssysteme zu identifizieren und zu entwickeln, mit denen die Entfernung sensibler Inhalte von Social-Media-Plattformen überprüft werden kann. Dabei stützt sich das Team auf aktuelle und neue Gesetze zum Datenzugang für Forscher*innen in Deutschland und der Europäischen Union, wodurch sie Daten zur Content-Moderation verfügbar und transparent machen wollen, um Forscher*innen auch zukünftig die Möglichkeit zu geben, die Moderation von Inhalten besser überprüfen zu können. „Letztendlich wird unsere Forschung uns in die Lage versetzen, [...] die Plattformen dafür verantwortlich zu machen, den Nutzer*innen ein sichereres Umfeld zu bieten“, schließt das Team in seinem Antrag.