Forschung gegen Desinformation: Diese Projekte fördert das BMBF
Gezielte Falschmeldungen sind eine zunehmende Bedrohung für demokratische Gesellschaften, da sie Unsicherheit schüren, Meinungen manipulieren und Vertrauen erschüttern. Um „Fake News“ und andere Formen der Desinformation besser verstehen und bekämpfen zu können, fördert das Ministerium für Bildung und Forschung zehn neue Projekte, die wir hier kurz vorstellen möchten.
Am diesjährigen Safer Internet Day stellte Bundesforschungsministerin Bettina Stark-Watzinger (FDP) den Förderschwerpunkt „Erkennen und Bekämpfung von digitalen Desinformationskampagnen“ ihres Ministeriums vor, der bereits im Jahr 2020 auf den Weg gebracht wurde. Im Rahmen des ressortübergreifenden Forschungsprogramms der Bundesregierung zur IT-Sicherheit „Digital. Sicher. Souverän.“ fördert das Bundesministerium für Bildung und Forschung (BMBF) dabei zehn interdisziplinäre Projekte gegen Desinformation. Diese sollen verschiedene Formen der Desinformation umfassend erforschen, um wirksame Gegenmaßnahmen zu entwickeln. Die Fördersumme beträgt insgesamt 15 Millionen Euro für drei Jahre.
„Ich will das Übel Fake News an der Wurzel packen und den Kampf gegen Desinformation durch gezielte Forschungsförderung vorantreiben. Die Projekte werden uns helfen, Fake News zukünftig besser zu erkennen, zu verstehen und zu bekämpfen.“ Bundesforschungsministerin Bettina Stark-Watzinger
Verbreitungswege über Social Media und Messenger im Fokus
Viele der geförderten Projekte streben technische bzw. digitale Lösungen für das Erkennen und Bekämpfen von Desinformationen an, widmen sich jedoch verschiedenen Schwerpunkten. So steht bei mehreren Vorhaben vor allem die Verbreitung von Fake News über Social-Media-Kanäle oder Messenger-Dienste im Mittelpunkt.
Zum Beispiel analysiert das Projekt DeFaktS Nachrichten aus Social-Media- und Messenger-Gruppen, um mit den gewonnenen Daten eine Künstliche Intelligenz zu trainieren. Diese soll lernen, die für Desinformationen charakteristischen Faktoren und Stilmittel zu erkennen. Am Ende soll daraus eine App entstehen, die ihre Nutzer:innen warnt, wenn verdächtige Stilmittel in Nachrichten auftreten. Koordiniert wird das Vorhaben vom Forschungszentrum Informatik in Karlsruhe und beteiligt sind der Verein Liquid Democracy in Berlin, die Universität Marburg und die Softwareentwicklerfirma Murmuras aus Bonn.
Wie sich Desinformationen in Messengerdiensten ausbreiten und dann in andere soziale Medien übergehen, untersucht das Projekt DYNAMO des Fraunhofer Instituts für Sichere Informationstechnologie in Darmstadt, der Universitäten Duisburg-Essen und Kassel sowie der Stuttgarter Medien-Hochschule. Die Forscher:innen möchte zudem analysieren, welche Muster hinter Desinformationskampagnen stecken, welchen Einfluss emotionale Inhalte bei der Verbreitung haben und welche Bekämpfungsstrategien sich daraus ableiten lassen.
Ein ähnlich gelagertes Interesse, aber mit anderem Ansatz, verfolgt NOTORIOUS, das gemeinsame Projekt der Hochschule für Angewandte Wissenschaften Hamburg, des Leibniz-Instituts für Medienforschung Hamburg und des Institute for Strategic Dialogue (ISD) in Berlin. Die Beteiligten erforschen die Verbreitungsmuster von Desinformation, indem die Rolle von Prominenten in der politischen Kommunikation und auf sozialen Medien in den Blick genommen wird. Da Prominente oft auf mehreren digitalen Plattformen vertreten sind, eignen sie sich aus Sicht der Forscher:innen gut als Marker für die plattformübergreifende Verbreitung von Desinformation. Das Verständnis darüber soll dabei helfen, wirksamere Gegenmaßnahmen im Sinne einer faktenbasierten und demokratiestützenden Informationsverbreitung zu entwickeln.
Gesundheitsthemen und mediale Narrative
Das Verstehen und Erkennen von Fake News im Allgemeinen wie im Speziellen ist auch ein Schwerpunkt weiterer Projekte. So betrachtet DESIVE2 wissenschaftlich anmutende Desinformation – etwa zu Gesundheitsthemen – und wie diese digital verbreitet wird. Die beteiligten Forscher:innen des Leibniz-Informationszentrums Wirtschaft in Kiel, der Humboldt-Universität zu Berlin und des Vereins Grenzenlos Digital werden dafür Bürger:innen zu ihren Motiven befragen, warum sie Informationen ungeprüft weiterleiten. Aus den Erkenntnissen soll dann ein Modell für den Umgang mit Desinformationen entwickelt werden.
Angesichts der vielen Falschmeldungen die im Laufe der Corona-Pandemie zu den Themen Impfungen, Maskentragen etc. kursierten, überrascht es nicht, dass sich auch ein weiteres Projekt dem Bereich der Gesundheitsthemen widmet. Im Projekt VERITAS wollen Forschende des Fraunhofer Instituts FOKUS sowie die Digitalunternehmen Trustami und Ubermetrics Technologies aus Berlin einen Datensatz aufbauen, mit dem Bürger:innen auf der Suche nach Informationen schneller Fälschungen und Desinformationen erkennen können. Dafür werden in dem Datensatz Informationen von öffentlich-rechtlichen Nachrichtenportalen, sozialen Medien sowie Fach- und Expertenwissen gesammelt und mithilfe der Methoden des Data-Minings und der Künstlichen Intelligenz strukturiert.
Den Bereich der Medien nimmt sich das Projekt FakeNarratives vor, das Narrative der Desinformation in öffentlich-rechtlichen und alternativen Nachrichtenvideos untersucht. Dazu nutzen die Projektpartner der Universitäten Bremen, Leipzig und Hannover Diskurs- und sprachwissenschaftliche Analysen sowie maschinelles Lernen. Ihr Ziel ist die Entwicklung eines digitalen Werkzeugs, das Mechanismen und Strategien von Narrativen der Desinformation systematisch offenlegen kann.
Unterstützung für Expert:innen, Faktenchecker und Behörden
Auch das Projekt HybriD möchte – unter Mitwirkung der Universität Münster, der Hochschule für Angewandte Wissenschaften Hamburg und des Unternehmens complexium aus Berlin – ein software-basiertes Analysewerkzeug entwickeln. Dies soll in der Lage sein, große Datenmengen aus Onlinemedien und sozialen Netzwerken in Echtzeit auszuwerten und zeitliche Muster zu erfassen. Auf diese Weise soll es Expert:innen helfen, Desinformationskampagnen und ihre Auswirkungen schneller zu erkennen und umfassend zu beurteilen.
Ein ähnlicher Ansatz findet sich bei noFAKE, einem Projekt der Ruhr-Universität Bochum, der TU Dortmund und des bekannten Recherchezentrums CORRECTIV. Hier geht es darum, ein KI-gestütztes Assistenzsystem zu entwickeln, das ebenfalls große Mengen an verdächtigem Text- und Bildmaterial sichten kann, es vorsortiert, mit ähnlichem Desinformationsmaterial in Verbindung bringt und die Verbreitungswege nachzeichnet. Damit sollen Crowdworker und Faktenchecker dabei unterstützt werden, die Vertrauenswürdigkeit von entsprechenden Informationen zu beurteilen.
Die Zielgruppe der Ämter, Behörden und Organisationen nimmt das Projekt PREVENT in den Blick, das die Prävention digitaler Desinformationskampagnen mittels eines Trainingsansatzes stärken möchte. Akteure der Verwaltung und aus anderen Organisationen sollen damit befähigt werden, vorsätzlichen Manipulationen des Meinungsbildes entgegenzuwirken. Dazu entwickeln die Forschenden der beteiligten Universitäten Duisburg-Essen, Paderborn, Köln, Tübingen und das Berliner IT-Beratungsunternehmen Virtimo ein digitales Trainingstool, das zum einen die Entstehung und Verbreitung von Desinformationen mithilfe realistischer Szenarien simuliert und zum anderen die Wirkung der zu entwickelnden Gegenmaßnahmen erhebt.
Warum all diese Projekte notwendig sind
Ein weiteres Projekt mit dem Namen FakeBlock befindet sich im Gegensatz zu den anderen genannten und bereits gestarteten Vorhaben noch in der Bewilligungsphase, klingt aber nicht weniger spannend. Es zielt darauf, ein Browser-Plugin zu entwickeln, das Desinformationen auf Basis einer Datenbank und mittels Künstlicher Intelligenz, Clustering und Anomalie-Detektion in Online-Angeboten automatisiert erkennt und die Nutzer:innen dann nachvollziehbar davor warnt. Weitere Informationen zu dem Projekt sind momentan noch nicht verfügbar.
Wie notwendig es ist, sich um mehr Prävention gegen Desinformation zu bemühen, zeigt der aktuelle Digital-Index der Initiative D21. Demnach traut sich nur etwas mehr als die Hälfte der Menschen in Deutschland (56 Prozent) zu, unseriöse Nachrichten zu erkennen. Bei Menschen mit niedriger Bildung ist es sogar nur jede:r Dritte. Zudem sind 28 Prozent der Meinung, die Digitalisierung sei eine Gefahr für die Demokratie – etwa durch die Aufwiegelung von Gruppen auf dem Messengerdienst Telegram. Immerhin 80 Prozent der Befragten können nach eigener Aussage grundsätzlich erklären, was „Fake News“ sind bzw. wissen, was mit dem Begriff gemeint ist.
Die oben erwähnten Forschungsprojekte können langfristig hoffentlich dazu beitragen, die Kompetenzen der Bürger:innen und der ganzen Gesellschaft im Umgang mit digitaler Desinformation weiter zu stärken. Denn das Thema wird uns leider weiterhin beschäftigen. Deshalb wünschen wir den Projekten viel Erfolg bei der Umsetzung und sind gespannt auf die Ergebnisse ihrer Arbeit, die vermutlich Ende 2024 bzw. Anfang 2025 veröffentlicht werden.
Mehr Informationen:
Safer Internet Day: Gegen die Gefahren von Cybermobbing und Desinformation für die Demokratie
Desinformation und Psychologie: Interview mit Katharina Nocun