Social-Media-Plattformen unterliegen in Deutschland wenig gesetzlichen Regeln in Bezug auf nutzer:innengenerierte Inhalte. Regeln geben sie sich aber oft selbst. Wie genau sie dies tun, hat ein Forscher:innen-Team des HBI beobachtet.
Im Rahmen unseres Forschungsprojektes „Platform Governance im Superwahljahr 2021“ durften wir in den Maschinenraum von kleinen und mittleren Plattformen schauen und deren Moderationsregeln erheben. Folgende Beobachtungen konnten wir festhalten:
- Das NetzDG scheint die Entwicklung von Richtlinien und Policies in den Unternehmen zu beeinflussen – obwohl sie dieses Gesetz ja gar nicht betrifft.
- Händische Moderation unterstützt die Auseinandersetzung mit einzelnen Postings und ihrer Umgebung seitens des Content-Moderations-Teams.
- Regeln zu wahlkampfbezogenen Inhalten liegen in großer Uneinheitlichkeit vor. Sie changieren von aktiver Herunternahme solcher Inhalte bis zur aktiven Unterstützung aller Parteien und demokratischen Wahlen im Allgemeinen.
Teilnehmer des Projekts konnten alle Plattformen „unterhalb“ des NetzDGs sein, d. h. solche mit weniger als 2 Mio. registrierten Nutzer:innen im Inland. Diese Landschaft ist sehr heterogen und reicht von allgemeinen Q&A-Plattformen über Nachbarschaftsplattformen bis hin zu LGBTQIA+ Plattformen.
Einführung
Bisher mangelt es in der Governance sowie in der Regulierung von Plattformen an einer Debatte über Plattformen abseits von #BigTech, also Google, Facebook und Co. Die Erhebung von Inhaltsmoderationen bei kleineren Plattformen ermöglicht jedoch einen Einblick in Experimentierfelder eines Bereichs, der bei großen Plattformen selten zugänglich ist. Bislang muss Forschung auf einzelne Whistlerblower-Berichte und journalistisch-investigative Berichterstattung zurückgreifen. Eine Offenheit darüber, was genau in der Inhaltmoderation passiert und wie sie sich auch ändert, verbleibt häufig in einer Blackbox.Kleinere Plattformen geben der Forschung die Chance, diesen Bereich zu erheben und so transparentere Einblicke in verschiedene Formen der Inhaltsmoderation zu bekommen – und das, ohne dass sie von einer Gesetzgebung dazu gezwungen würden. Eine Erhebung ihrer praktisch-innovativ getriebenen Herangehensweisen in der Content Moderation ermöglicht es aufzuzeigen, wie der Balanceakt zwischen einer Löschung unerwünschter Inhalte und der Wahrung von Meinungsfreiheit auch ohne regulatorische Vorgaben vonstattengehen kann.
Stellenwert der eigenen Community
Häufig liegt der Schwerpunkt der Arbeitsweisen von kleinen und mittleren Plattformen bei einer engen Verzahnungen von menschen-gesichtetem Content mit der Community, die die Inhalte erstellt. Teilweise wird eine aktive Auseinandersetzung mit den eigenen Communities gefördert, die häufig dabei hilft, die hauseigenen Regeln zur Plattformnutzung durchzusetzen oder in Auseinandersetzungen darauf verweist. Die zum Teil sehr unterschiedlichen Moderationssysteme der erhobenen Plattformen geben jedoch der Beteiligung von Communities einen wichtigen Raum und verschiedene Rollen.Erste Ergebnisse der Erhebung
- Das NetzDG scheint die Entwicklung von Richtlinien und Policies in den Unternehmen zu beeinflussen – obwohl sie dieses Gesetz ja nicht betrifft. Das Gesetz scheint insofern eine indirekte Wirkung zu haben, als dass zumindest über die Anpassung nachgedacht wird, wenn die vorgeschriebenen Maßnahmen den Plattformen als sinnvoll und nützlich erscheinen. Diese liegen im Bereich der Meldewegsverbesserung, keineswegs aber in der Weitergabe von Daten der Nutzer:innen. Auch Wiederherstellungen von gelöschten Inhalten bei Einspruch der Nutzer:innen wurden als sehr kritisch gesehen.
- Händische Moderation (also solche, die sich Zeit nimmt, auch in den Kontext der Postenden zu schauen) unterstützt eine dezidierte Auseinandersetzung mit dem Posting und seiner Umgebung seitens des Content-Moderations-Teams und nuanciert sie. Ein Beispiel: Sogenanntes „Agenda Setting im Wahlkampf” wird schnell unterbunden, da dahinter meist Accounts stehen, die sich nur zu einem speziellen Zweck gründen und deren Ziel es ist, politische Gegner:innen zu verunglimpfen. Das schließt auch an ein vermehrt negatives Campaigning an, welches bei konservativen Gruppierungen im Online-Wahlkampf gemessen wurde. Die händische Moderation hilft aber auch bei der Unterbindung von Agenda-Settings, die im Bereich der digitalen Gewalt angesiedelt sind wie LoveScams und Cyber-Grooming, aber auch bei der Unterbindung von Angeboten oder Geschäftsinteressen, die auf Plattformen verboten sind.
- Der Umgang mit wahlkampfbezogenen Inhalten unterliegt immer der eigenen Regelbildung der Plattformen. Die Plattformregeln reichen vom Erlauben explizit politischer Gruppen bis hin zu Profilbildern mit Parteibezug sowie der Duldung der Aktivität von Bundestagskandidat:innen oder bewusstem Beschränken des Themas. Einige Plattformen unterstützen auch bewusst und aktiv den Aufruf zur demokratischen Wahl.
- Communitybeteiligung (z.B. als verifizierte hinweisgebende „Trusted Flagger” oder auch im Peer-Review-Verfahren während der Freigabe von hochgeladenem Bildmaterial) scheint eine erhöhte Identifikation von User:innen mit der Plattform und ihren Regeln hervorzurufen. Dabei unterscheiden sich die Plattformen in Vielfalt und Methode, wie aktiv oder passiv moderiert wird und an welchen Stellen Community eingebunden wird.
- Organisations-soziologisch ist eine anfängliche strukturelle Vernachlässigung des Ausbaus einer Content-Moderation bei den Unternehmen festzustellen. Relativ unabhängig davon, wann das Unternehmen mit der Plattform in die Gründungsphase eingetreten ist, ist der Bereich des Content- und Beschwerde-Managements innerhalb der Organisationsstruktur zu Beginn häufig mit wenig Prioritäten und Ressourcen zur Entwicklung ausgestattet worden und hat erst in den letzten Jahren einen Ausbau, Standardisierung und Entwicklung erhalten.
Wer mehr zum Projekt Nischenplattformen erfahren möchte, kann sich auch die neue Podcastfolge des BredowCasts mit Christina Dinar anhören, in dem weitere Details und Hintergründe des Projekts erklärt werden. Mehr zu Sozialen Netzwerken im Wahlkampf gibt es auch im Podcast des Weizenbaum Forums. Über inklusive digitale Räume spricht Christina Dinar im Interview in Americas Dialogues.
Bild: Girl with the red hat /unsplash