Digitale Desinformation: Eine Herausforderung für Wahlen und Demokratie
Von Hannah Schimmele
Desinformation im digitalen Raum stellt eine große Herausforderung für Politik und Gesellschaft dar – besonders, wenn sie darauf abzielt, das politische Klima vor Wahlen zu beeinflussen. Welche Erfahrungen damit zuletzt gemacht wurden und womit in naher Zukunft zu rechnen ist, erklärt hier Hannah Schimmele, die bei polisphere zu den Themen Desinformation und Demokratie forscht.
Digitale Desinformation hat in jüngster Zeit stark zugenommen. Immer häufiger muss man sich fragen, ob Informationen, die einen online erreichen, noch getraut werden kann. Diese Frage ist aber nicht nur von individueller, sondern auch von gesellschaftlicher Relevanz, da Social-Media-Plattformen als Nachrichtenquelle für viele Menschen immer wichtiger werden. Die dort verbreiteten Desinformationen können durchaus gravierende Konsequenzen im realen Leben entfalten, wie etwa die gewalttätigen Ausschreitungen nach den Wahlen in den USA am 6. Januar 2021 und in Brasilien am 8. Januar 2023 gezeigt haben.
Gezielte Kampagnen und Taktiken
Falschbehauptungen und “alternative Fakten” sind in der Politik zwar nichts Neues, aber die digitalen Medien haben ihre Verbreitung stark vereinfacht und ihre Reichweite um ein Vielfaches erhöht. Hinzu kommen Faktoren wie gesellschaftliche Krisen und Reizthemen sowie internationale Konflikte und globale Herausforderungen, vor deren Hintergrund Desinformation heute auf besonders fruchtbaren Boden fällt. Digital gesäte Zweifel an demokratischen und staatlichen Institutionen können in Teilen der Wählerschaft so nicht selten zu größerem Misstrauen anwachsen.
Eine große Gefahr geht besonders von konzertierter Desinformation aus, die versucht, bereits vorhandene gesellschaftliche Polarisierungen noch zu verstärken sowie das Vertrauen in Parlamente, Parteien, Behörden, Medien und letztlich das gesamte demokratische System zu untergraben. Gerade im digitalen Raum können durch gezielte Kampagnen und Taktiken wie “flood the zone with shit” Scheinrealitäten geschaffen, der Ton im politischen Diskurs vergiftet und bestimmte Gruppen durch gezieltes Targeting aus der politischen Arena herausgedrängt werden. Hinsichtlich der Wahlen – als zentraler Akt der Demokratie – geht es vor allem darum, durch Desinformation die Meinungsbildung und Wahlentscheidung in eine bestimmte Richtung zu beeinflussen oder Menschen gar komplett vom Wählen abzuhalten.
Die Rolle von Social Media und KI
Um diese Ziele zu erreichen, wird Desinformation besonders auf den viel genutzten Social Media-Plattformen wie Instagram, X/Twitter, Facebook, Youtube oder Telegram verbreitet. Da gerade die junge „Social-Media-Generation“ demnächst das erste Mal bei größeren Wahlen (EU, USA) an die Urnen darf, kommt hier speziell den angesagten Plattformen wie TikTok oder Instagram nochmal eine ganz neue Bedeutung zu. Zumal eine US-Studie vor kurzem gezeigt hat, dass Verschwörungsdenken unter Teenagern umso verbreiteter ist, je höher ihr Social-Media-Konsum ausfällt. Dazu trägt auch bei, dass die digitalen Plattformen auf Profitmaximierung ausgerichtet sind, ihre Nutzer:innen möglichst lange online halten wollen und Desinformationsinhalte durch die Algorithmen häufig mehr Reichweite erhalten.
Hinzu kommen neue technische Herausforderungen durch Künstliche Intelligenz: Generative KI-Tools sind mittlerweile massenhaft zugänglich und erlauben es, Desinformation in kurzer Zeit im industriellen Maßstab zu produzieren. Dabei spielen neben Sprachmodellen wie ChatGPT vor allem Bild- und Videogeneratoren eine zentrale Rolle für die Erstellung und Verbreitung von schädlichen Inhalten. Deshalb herrscht allgemein die Erwartung, dass Desinformation, z.B. durch KI-generierte Deepfakes, noch zunehmen wird und ein “Zeitalter der Unwahrheitsvermutung” droht. Aktuelle Entwicklungen auf Plattformen wie X/Twitter, wo Desinformation und Hate Speech im Kontext des Nahostkonflikts zuletzt stark zugenommen haben, bestärken diese Befürchtung zusätzlich.
Deepfakes als neue Bedrohung
Gerade in Wahlkämpfen stellen Deepfakes eine immense Gefahr dar, weil Politiker:innen mit wenig Aufwand auf den ersten Blick authentisch wirkende Sätze in den Mund gelegt werden können. Als Urheber sind dabei sowohl Einzelpersonen als auch die politische Konkurrenz denkbar. Einen Vorgeschmack lieferten dieses Jahr etwa die Republikaner in den USA, die in einem Video aus KI-generierten Bildern den demokratischen Präsidenten Joe Biden attackierten. Und wie eine Studie gezeigt hat, ermöglichen mehrere Anbieter von bildbasierter generativer KI sogar, mit ihren Tools “Beweise” für Wahlfälschungen zu kreieren.
Demgegenüber wirkt es schon fast harmlos, dass KI-Bots bei ganz normalen Anfragen zu Informationen über Wahlen (aktuelle Umfragewerte, Kandidat:innen etc.) häufig irreführende oder schlichtweg falsche Auskünfte geben, wie AlgorithmWatch zu den Landtagswahlen in Bayern und Hessen herausgefunden hat.
Erfahrungen der letzten Wahlen
Die ersten Wahlen seit dem Beginn des “KI-Booms” Anfang 2023 sind noch relativ glimpflich verlaufen und es war kein massiver Anstieg an KI-Desinformation erkennbar. Bei den Landtagswahlen in Bayern und Hessen im Oktober wurden Desinformationsnarrative stattdessen auf dem üblichen Weg im Social-Media-Newsfeed verbreitet: durch jede Menge Beiträge und Kommentare, die etwa in der Causa Aiwanger Elitenfeindlichkeit oder Verschwörungserzählungen propagierten. Teilweise wurden auch Gerüchte über Wahlbetrug gestreut; besonders die AfD rief die Öffentlichkeit zur “Wahlbeobachtung” auf und befeuerte damit Misstrauen.
Deutlich stärker von Desinformation war hingegen der Wahlkampf in Polen geprägt, wo am 15. Oktober ein neues Parlament gewählt wurde. Hieran waren vor allem die zuletzt regierende PIS-Partei, aber auch die Opposition beteiligt, wobei besonders eine Emotionalisierung beim Thema Migration im Fokus stand. Ein Beispiel für KI-Desinformation lieferte zudem die Parlamentswahl in der Slowakei Ende September: Hier machten zwei Tage vor der Wahl Audio-Deepfakes auf Social Media die Runde, in denen der Vorsitzende der progressiven Partei und eine Journalistin angeblich über die Manipulation der Wahl sprachen. Ähnlich wie bei den Wahlen im Nachbarland Tschechien Anfang des Jahres spielte wohl auch hier Desinformation durch (pro-)russische Akteure eine Rolle mit dem Ziel, pro-russische bzw. anti-westliche Kandidat:innen zu stärken.
Diese Beispiele zeigen, dass die unterschiedlichsten Akteure an der Verbreitung von Desinformation im digitalen Raum beteiligt sind: Parteien und lokale Akteure, (illiberale) Regierungen und Staatsmedien oder auch ausländische Manipulatoren.
Wird 2024 zum KI-Wahljahr?
Angesichts der bedeutenden Wahlen, die 2024 anstehen, muss mit einem deutlichen Anstieg von Desinformation gerechnet werden. Manche Expert:innen bezeichnen das kommende gar als “KI-Wahljahr”. Speziell vor den US-Wahlen im November wird die breite Nutzung von Deepfakes befürchtet, ebenso die Taktik des „Rumour Bombing“, bei der die Wähler:innen durch massives Social-Media-Messaging verwirrt werden sollen.
Zudem werden die bekannten Narrative der “stolen/rigged elections” im Trump-Lager potentiell erneut vorbereitet – und können jetzt auch wieder als Wahlwerbung auf den Plattformen Facebook und Instagram verbreitet werden. Viele der möglichen Desinformationstaktiken wurden in den USA zwar bereits in der Vergangenheit genutzt, können mittels KI-Tools aber nun hochskaliert werden und die Wähler:innen dadurch noch stärker erreichen.
Ähnliche Befürchtungen gibt es für die Europawahl, bei der vor allem vor russischer und chinesischer Einflussnahme gewarnt wird. Aktuell ist aus Sicherheitsbedenken insbesondere eine Sperrung von TikTok auf nationaler und EU-Behördenebene in der Diskussion. Zudem gibt es die Sorge vor “disinformation for hire”, wie sie die Firma Team Jorge praktiziert haben soll.
Weitere Wahlen, zu denen im nächsten Jahr Desinformation verbreitet werden könnte, sind die Landtagswahlen in Brandenburg, Sachsen und Thüringen, wo die AfD momentan sehr stark ist und das Wahlbetrugsnarrativ populär machen könnte, falls sie nicht stärkste Partei wird. International könnten zudem die Wahlen in Indien, Taiwan und Russland von Desinformation verschiedener Ausprägung betroffen sein.
Die Zeit zum Handeln ist jetzt
Illiberale und anti-demokratische Akteure weltweit greifen auf ähnliche Taktiken zurück, speziell bei der Verbreitung von Falschinformationen und manipulativen Inhalten. Dies kann und sollte bei deren Bekämpfung bedacht werden und demokratische Gesellschaften sollten angesichts ähnlicher Herausforderungen voneinander lernen.
Mögliche Gegenmaßnahmen sollten bereits jetzt ergriffen werden. Zum Beispiel könnten KI-generierte Inhalte von den Anbietern stets mit einem entsprechenden Wasserzeichen versehen werden, damit ihre Herkunft für alle schnell zu erkennen ist. Auf den Plattformen von Meta muss demnächst etwa angegeben werden, wenn für politische Werbung KI eingesetzt wurde. Zugleich ist mehr Regulierung auf den verschiedenen Ebenen denkbar, um Desinformation einzuschränken: etwa Selbstverpflichtungen von Parteien für faire Wahlkämpfe, härtere Konsequenzen für digitale Plattformen, die nicht genug gegen Falschinformationen tun, oder strengere Gesetze zu politischer Werbung, wie sie in der EU bereits geplant sind.
Neben diesen eher technischen Lösungen müssen langfristig aber auch die gesellschaftliche Resilienz und die Kompetenzen der Wähler:innen gestärkt werden, um Desinformation als solche erkennen zu können und nicht weiterzuverbreiten. Denn eins ist klar: Desinformation wird leider nicht verschwinden und uns auch in Zukunft im digitalen Raum reichlich begegnen.
Mehr Informationen:
Richtlinien gegen Desinformation: So ist der Stand bei den großen Plattformen
Die Zukunft digitaler Werbung: Politisches Microtargeting
#BTW21: Desinformation im digitalen Wahlkampf