App-Symbole mehrerer sozialer Netzwerke sind auf einem Smartphone zu sehen
Kontext

Analyse zur Europawahl Plattformen reagieren wenig auf Desinformation

Stand: 30.07.2024 16:56 Uhr

Einer Analyse zufolge sind Plattformen wie X oder YouTube vor der Europawahl oft nicht gegen Desinformationen in ihren Netzwerken vorgegangen. Experten finden das wenig überraschend und sehen Handlungsbedarf.

Von Laura Bisch, ARD-faktenfinder

Von Beschuldigungen, die Ukraine sei für einen Terroranschlag in einer Konzerthalle in Moskau verantwortlich bis hin zu Aussagen, wonach EU-Kommissionspräsidentin Ursula von der Leyen das "Verbrenner-Verbot wieder komplett" aufgehoben haben soll - vor der Europawahl geisterten viele Falschinformationen durch die verschiedenen sozialen Netzwerke. Teils erreichten diese mehr als 1,5 Millionen Menschen. Doch wie reagierten die Plattformen darauf?

Oft keine sichtbaren Reaktionen der Plattformen

Laut einem Bericht der spanischen Non-Profit-Organisation gegen Desinformation "Maldita.es" lösten entlarvte Desinformationsinhalte in mindestens 43 Prozent der Fälle keine sichtbaren Reaktionen der Plattformen aus. Das ergab eine Auswertung von insgesamt 1.321 Postings mit Falschinformationen in Bezug auf die Europawahl auf Facebook, Instagram, TikTok, X und YouTube zwischen dem 1. Februar und dem 6. Juni aus 26 europäischen Ländern.

Die Postings, auf die sich der Bericht bezieht, wurden demnach zuvor von dem europäischen Projekt "Elections24Check" als desinformativ eingestuft und in einer Datenbank kategorisiert. An dem Projekt wirkten etwa das Rechercheportal "Correctiv" und Nachrichtenagenturen wie AFP und dpa mit.

YouTube blieb oft untätig - TikTok löschte

Besonders träge reagierte demnach die Video-Plattform YouTube: Demnach griff das Netzwerk in 75 Prozent der von dem Bericht analysierten Fälle nicht sichtbar ein. Und selbst wenn YouTube intervenierte, sei das in 80 Prozent der Fälle in Form einer allgemeinen Informationstafel oder eines Labels mit einem Hinweis gewesen, dass die Falschinformation von einem Staatsmedium verbreitet werde. Eine genaue Erklärung, warum der Inhalt falsch ist, habe es in diesen Fällen nicht gegeben. Laut dem Bericht wurden einige der Videos rund 500.000 Mal angesehen.

Fast genauso schlecht schneidet auch X - vormals Twitter - ab: Das Netzwerk griff demnach in 70 Prozent der analysierten Fälle nicht sichtbar ein. Unter den 20 meistgeklickten desinformativen Postings ohne Eingriff von X seien 18 gewesen, die mehr als 1,5 Millionen Mal angesehen wurden, heißt es in dem Bericht.

Andere Netzwerke waren dem Bericht zufolge aktiver: TikTok habe in 40 Prozent der analysierten Fälle offen reagiert - Instagram in 70 Prozent und Facebook in 88 Prozent. Während die meisten Facebook-Aktionen in Bezug auf Desinformation Hinweise auf Falschinformationen waren, bei denen die Falschbehauptung an sich online blieb (77 Prozent), löschte TikTok laut Bericht 32 Prozent der desinformativen Postings.

CeMAS: Bericht nicht überraschend

Auffällig ist darüber hinaus, dass die Plattformen nicht bei allen Themen, zu denen Falschinformationen verbreitet wurden, mit der gleichen Intensität reagierten: So führt der Bericht etwa auf, Instagram habe in vielen Fällen nicht reagiert, in denen Desinformationen zum Thema Klima verbreitet wurden. YouTube schritt bei den Themen "Krieg gegen die Ukraine", "Covid-19", "Migration", "Geschlecht" und "Vertrauenswürdigkeit in die EU" demnach in keinem Fall offensichtlich ein. Auch TikTok reagierte auf Desinformationen gegen Migranten dem Bericht zufolge in keinem Fall offen sichtbar - teils aber mit dem Löschen der Inhalte.

Lea Frühwirth vom Center für Monitoring, Analyse und Strategie (CeMAS), das Informationen zu Verschwörungsideologien und Desinformation sammelt, bewertet die Ergebnisse des Berichts als "nicht überraschend". Gerade rund um Wahlen sei mit bestimmten Narrativen zu rechnen. "Diese drehen sich meist um die Diskreditierung von Parteien und Politikerinnen und Politikern, die Diskreditierung der Wahl als manipuliert oder unzuverlässig oder gleich um die Delegitimierung des demokratischen Systems", sagt Frühwirth. Aktuelle gesellschaftliche Reizthemen seien immer naheliegender Gegenstand von Falsch- und Desinformation, "da sich die Menschen dafür interessieren und damit Reichweite generiert werden kann".

Obwohl Facebook in dem Bericht vergleichsweise gut abschneiden, sieht Frühwirth keine wirklichen Vorzeigekandidaten unter den Plattformen. Ihrer Ansicht nach fallen eher einzelne besonders negativ auf. In dem Zusammenhang weist die CeMAS-Expertin darauf hin, dass bei Facebook und Instagram zuletzt wiederholt Fälle öffentlich wurden, in denen Werbeanzeigen zur Verbreitung von prorussischen Einflussversuchen genutzt wurden.

Und auch auf X habe sich die "bereits problematische Lage" seit der Übernahme durch Elon Musk zusätzlich deutlich verschlechtert. Gerade im deutschsprachigen Raum diene zudem Telegram dem rechtsextremen, verschwörungsideologischen und prorussischen Milieu als zentrale Vernetzungs- und Kommunikationsplattform, da dort kaum Regulierung stattfindet, fügt Frühwirth hinzu.

Analyse nur bedingt aussagekräftig

Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, hält die Analyse für nur bedingt aussagekräftig. Sie erlaubt seiner Ansicht nach kaum eine Aussage über die Inhalte-Moderation der Plattformen, da diese von außen intransparent sei. Zudem basiere die Analyse auf einer sehr spezifischen Auswahl an Falschinformationen - es lasse sich aber keine Aussage darüber treffen, wie sich diese Auswahl zur Gesamtheit der im Netz kursierenden Falschinformationen verhalte, erklärt Hoffmann. Außerdem impliziert die Analyse laut Hoffmann, "dass stets eine Markierung oder Entfernung der Inhalte notwendig wäre, was so generell aber nicht gesagt werden kann".

Einen Aspekt stellt Hoffmann als besonders problematisch heraus: Einige Faktencheck-Organisationen, die Teil von "Elections24Check" sind, erhalten erhebliche Geldsummen von Meta für ihre Dienstleistungen. Dies werde in der Analyse nicht thematisiert. Der Bericht lege nahe, dass andere Plattformen so agieren sollten wie Meta. "Wäre die Analyse also anders vorgegangen und hätte eine andere Auswahl an Falschinformationen untersucht, wären möglicherweise andere Plattformen in der Bekämpfung dieser Inhalte aktiver erschienen." Auch in diesem Falle müsse im Einzelfall beurteilt werden, welche Reaktion dem Inhalt eigentlich angemessen gewesen wäre, führt Hoffmann weiter aus.

Als guten Ansatz zur Bekämpfung von Desinformation hebt Hoffmann die sogenannten Community Notes auf X hervor. Dabei können Nutzerinnen und Nutzer laut der Plattform potenziell irreführenden Posts Kontext hinzuzufügen. Studien dazu zeigen Hoffmann zufolge, dass diese zu ähnlichen Urteilen kommen wie professionelle Faktenchecker. "Der Vorteil vom Fakten checken durch Nutzende ist, dass es potenziell schneller und breiter einsetzbar ist, vor allem aber auch durch die Adressaten als sehr glaubwürdig wahrgenommen wird."

CeMAS: Plattformen in die Pflicht nehmen

Um besser gegen Desinformationen in sozialen Netzwerken vorgehen zu können, sieht der Kommunikationswissenschaftler Martin Emmer Handlungsbedarf. Emmer findet: "Je stärker man Plattformen dazu zwingen kann, in Kontrolle zu investieren, desto besser."

Regeln, die etwa im Netzwerkdurchsetzungsgesetz (NetzDG) auf nationaler Ebene und im Digital Services Act (DSA) auf EU-Ebene für die Plattformen festgeschrieben sind, sind laut Emmer ein Fortschritt, "weil sie uns und den Strafverfolgungsbehörden mehr Transparenz bieten und auch konkrete Handlungsmöglichkeiten gegen gefährliche Inhalte." Angesichts der unüberschaubaren Masse an Inhalten, die täglich gepostet werde, sei all das aber kaum mehr als ein Tropfen auf den heißen Stein.

Im NetzDG ist unter anderem festgeschrieben, dass Plattformen leicht zugängliche Meldestellen für problematische Inhalte haben müssen - im DSA etwa ein Verbot, das Plattformen den Einsatz bestimmter verdeckter Anzeige- und Werbeformen untersagt, die für manipulative Meinungsbeeinflussung genutzt werden können.

Laut Hoffmann hat vor allem der DSA den Plattformen diverse Berichts- und Transparenzpflichten auferlegt. "Die großen Plattformen sollen etwa der Forschung einen besseren Datenzugang gewährleisten" - dies sei bisher kaum erfolgt. Nach Hoffmanns Ansicht wäre es deshalb ein großer Fortschritt, wenn die Plattformen der Forschung Zugang zu Daten ermöglichen würden, "so dass wir mehr über Art, Ausmaß und Wirkung von Falschinformationen lernen".

Und auch CeMAS-Expertin Frühwirth plädiert für eine "schnelle, effiziente und konsequente Durchsetzung" der bestehenden Regulierungen. "Damit sich wirklich etwas für Nutzerinnen und Nutzer verbessern kann, muss klar sein, dass die EU es ernst meint und die Plattformen tatsächlich in die Pflicht nimmt."

Dieses Thema im Programm: Über dieses Thema berichtete Deutschlandfunk am 04. Juni 2024 um 15:35 Uhr.