Richtlinien gegen Desinformation: So ist der Stand bei den großen Plattformen
Desinformation ist eine große Herausforderung für unsere Gesellschaft, speziell in den sozialen Medien und Netzwerken werden häufig gezielt Falschinformationen zu den verschiedensten Themen verbreitet. Um dem etwas entgegenzusetzen, gibt es mittlerweile einige gesetzliche Regelungen, aber auch eigene Vorgaben der Plattformen. Wie ist hier der aktuelle Stand?
Der Kampf gegen Desinformation ist ein komplexes Unterfangen, dessen Bedeutung seit einiger Zeit von vielen Akteuren anerkannt wird. Dies zeigt sich auch an mehreren gesetzlichen Vorgaben für den digitalen Raum. In Deutschland ist hier besonders das Netzwerkdurchsetzungsgesetz (NetzDG) relevant, das die Betreiber von sozialen Netzwerken seit 2017 dazu verpflichtet, gegen strafbare Falschnachrichten vorzugehen und die Beschwerden von Nutzer:innen über rechtswidrige Inhalte entgegenzunehmen und zu prüfen.
Vorgaben der EU
Auf europäischer Ebene gibt es zudem seit 2018 einen viersäuligen Aktionsplan gegen Desinformation, der ein geschlossenes Vorgehen der EU zum Ziel hat. Dazu gehört auch ein Verhaltenskodex für Online-Plattformen, der ebenfalls 2018 eingeführt und 2022 überarbeitet wurde. Die unterzeichnenden Plattformbetreiber wie Google, Meta, Microsoft, Mozilla oder TikTok haben sich auf diese Weise selbst dazu verpflichtet, aktiv gegen Desinformation vorzugehen.
Die Überarbeitung im vergangenen Jahr führte zu einer Verschärfung des Kodex und er enthält nun 44 Verpflichtungen und 128 spezifische Maßnahmen, etwa zu mehr Transparenz bei politischer Werbung, zur Befähigung der Nutzer:innen, zum Datenzugang für Forschende oder zur verbesserten Zusammenarbeit mit Faktenprüfern. Mit Blick auf neue technische Entwicklungen, KI-generierte Inhalte sowie die Europawahl 2024 soll der Kodex aktuell sogar noch ausgeweitet werden. Allerdings hat sich Twitter unter Elon Musk vor kurzem aus dem freiwilligen Verhaltenskodex verabschiedet.
Ob der Kurznachrichtendienst in der EU damit bald weniger strengen Vorgaben unterliegt, darf aber bezweifelt werden, da ab August 2023 die verpflichtenden Richtlinien des Digital Services Act gelten werden. Diese sollen sicherstellen, dass illegale Inhalte auf den Plattformen, also auch gezielte Falschinformationen, schneller entfernt werden.
Für Diskussionen sorgt derzeit darüber hinaus das geplante Medienfreiheitsgesetz der EU, bei dem eine Ausnahmeregelung als Schlupfloch für Desinformation genutzt werden könnte. Hintergrund: Akteure, die sich selbst als journalistische Medien einstufen, sollen mit ihren Meldungen einen besonderen Schutz hinsichtlich der Content-Moderation auf den digitalen Plattformen erhalten – und könnten im Zweifel somit Falschinformationen verbreiten.
Die Richtlinien der Plattformen
Die Plattformen selbst haben sich aufgrund des EU-Verhaltenskodex oder wegen Ereignissen wie dem Sturm auf das US-Kapitol 2021 interne Regeln und Maßnahmen auferlegt, um Desinformation zu bekämpfen. Dazu zählen neben der Entfernung entsprechender Inhalte oder der Sperrung von Accounts zum Beispiel auch der Entzug von Reichweite und die Bereitstellung von Faktenchecks. Bei YouTube etwa gibt es dafür das Prinzip der „Four Rs of Responsibility“: Remove, Raise, Reward, Reduce – also Entfernen, Erhöhen, Belohnen, Verringern. Der Mutterkonzern Google hat zusammen mit Expert:innnen zusätzlich eine gezielte Prebunking-Kampagne für Deutschland gestartet.
Der Meta-Konzern sieht als Betreiber von Facebook, Instagram und WhatsApp ähnliche Maßnahmen gegen Falschinformationen vor: Konten und Inhalte, die gegen Gemeinschaftsstandards und Werberichtlinien verstoßen, sollen entfernt, die Reichweite von falschen Behauptungen reduziert werden. Zudem soll die Medienkompetenz der Nutzer:innen durch Informationen und Warnhinweise zu den Falschmeldungen gestärkt werden. Dafür arbeitet der Konzern auch mit externen Fact-Checking-Organisationen zusammen, um Desinformation identifizieren, überprüfen und bewerten zu können.
Twitter: Laxere Regeln für mehr Meinungsfreiheit?
Twitter ist wie erwähnt nun zwar aus dem EU-Verhaltenskodex ausgestiegen, hat aber weiterhin eigene Richtlinien bezüglich Falschinformationen. Diese sehen eingeschränkte Impressions oder Sichtbarkeit von Tweets, Warnhinweise sowie zeitlich befristete Accountsperren vor. Per Community Notes können Nutzer:innen in den USA außerdem gemeinsam mehr Kontext bei potenziell irreführenden Tweets hinzufügen.
Es gibt seit der Übernahme des Dienstes durch Elon Musk jedoch breite Kritik an der Abschaffung früherer Regeln gegen Desinformation im Namen der “Meinungsfreiheit”, was auf der Plattform faktisch zu weniger Moderation der Inhalte geführt hat. Zudem arbeitet Twitter nicht mit Faktencheck-Organisationen zusammen und verlangt seit Februar sogar Geld von Forschenden und Faktenprüfer:innen für den Zugang zu relevanten Daten.
Verbesserungswürdiges TikTok, Desinfo-Katalysator Telegram
Als Unterzeichner des EU-Verhaltenskodex hat das Videoportal TikTok hingegen strengere Regeln implementiert. Demnach sollen Inhalte, die gegen die Community-Richtlinien verstoßen, entfernt werden und es gibt Informationen und Tools gegen Desinformation. Es findet eine Zusammenarbeit mit Faktencheckern statt und speziell für Europa gibt es Quartalsberichte und es wird eine API für die Plattformforschung entwickelt – nachdem TikTok 2021 vorgeworfen wurde, zu wenig gegen politische Desinformation zu unternehmen. Aber auch aktuell gibt es Kritik, z.B. arbeite die Plattform laut CORRECTIV nur in sehr geringem Umfang mit Faktencheck-Organisationen und komme der Selbstverpflichtung damit nicht nach. Und wenn Inhalte mit Desinformation entfernt werden, würden den Nutzer:innen keine zusätzlichen Informationen zu den Gründen angezeigt.
Noch wesentlich problematischer sieht die Lage beim Messenger-Dienst Telegram aus. Auf der Webseite der Plattform findet man keine Richtlinien zum Umgang mit Desinformationen und da alle Telegram- und Gruppenchats als Privatsache der jeweiligen Nutzer:innen betrachtet werden, werden bei auch illegalen Inhalten keine Anfragen bearbeitet. Es gibt zwar plattforminterne Regeln für Beiträge, aber die sind lasch und werden zudem häufig ignoriert. So ist es nicht verwunderlich, dass Telegram in den letzten drei Jahren zur wichtigsten Plattform für die Verbreitung von Desinformation aller Art geworden ist, wie eine Untersuchung des Center für Monitoring, Analyse und Strategie (CeMAS) vor kurzem festgestellt hat.
Kostendruck und KI als Herausforderungen
Betrachtet man die Bemühungen der digitalen Plattformen gegen Desinformation insgesamt, zeigt sich zudem ein generelles Problem. Denn die Vorgabe von Richtlinien ist die eine Sache, ihre Durchsetzung, z.B. mit ausreichend Personal und unter Beteiligung von Expert:innen, die andere, weit schwierigere Aufgabe. Hinzu kommt das Dilemma, dass die Plattformen durch die Verbreitung von Desinformationen teilweise auch Geld verdienen. So hat etwa Facebook seit längerem Schwierigkeiten damit, bezahlte Werbeanzeigen zu unterbinden, die auf gefälschte Webseiten führen.
Und zuletzt gab es darüber hinaus auch noch Meldungen und Signale, dass bei Meta, Amazon, Alphabet und Twitter zum einen aus Kostengründen die Teams reduziert werden, die für Content-Moderation und den Kampf gegen Desinformation zuständig sind. Zum anderen sind auch die Arbeitsbedingungen dieser Teams eher schwierig, wie eine Anhörung von Content-Moderatoren im Bundestag gerade erst gezeigt hat.
Statt hier für Verbesserungen zu sorgen, mehren sich die Anzeichen, dass die Plattformbetreiber zunehmend auf Künstliche Intelligenz bei der Moderation von Inhalten setzen wollen. Speziell die automatische Erkennung und Entfernung von gezielten Falschinformationen ist jedoch noch mit einigen Schwierigkeiten behaftet. Zudem stellt die derzeit rasante Entwicklung und Verbreitung von KI-Anwendungen hier eine doppelte Herausforderung dar: So werden Sprachmodelle und Bildgeneratoren die Erstellung von Desinformationen voraussichtlich sehr erleichtern sowie deren Glaubwürdigkeit und Verbreitung erhöhen. Speziell bei KI-generierten Bildern und Videos kann das Erkennen von Fälschungen zu einem ernsten Problem werden.
Es ist somit sogar denkbar, dass im digitalen Raum demnächst KI-Anwendungen darüber entscheiden, ob es sich bei Inhalten, die von anderen KI-Anwendungen erstellt wurden, um Falschinformationen handelt und wie diese sanktioniert werden müssen. Dieses Szenario zeigt, dass digitale Plattformen, die Gesetzgeber, die Medien und die Gesellschaft insgesamt beim Thema Desinformation künftig noch aufmerksamer sein müssen.
Mehr Informationen:
Interview-Serie: „Desinformation und Radikalisierung im Netz“
Diskussionskultur auf Twitter: Politik zwischen Schlagabtausch und Ausstieg