EU: Gegen "Fake News" und "toxische Propaganda"
In der EU steht aktuell das Thema "toxische Propaganda" aus Russland und China auf der Agenda. Tschechiens Außenminister Jan Lipavský forderte laut einem heise-Bericht am Mittwoch in Prag auf einer Konferenz der EU-Kommission im Rahmen der tschechischen Ratspräsidentschaft ein schärferes Vorgehen gegen "toxische Propaganda" aus Russland und China. Bei der Konferenz ging es um die Zukunft des Internets.
Ein Mitglied der im Europarlament vertretenen Piratenpartei fand drastische Worte: "Desinformation tötet täglich. Sie schleicht sich in unsere Gesellschaften, versucht sie zu spalten und zerstört den konstruktiven Dialog."
Kampf gegen Desinformation
Viele Menschen glaubten, dass Corona nicht gebe, befeuert durch Fake-News und Desinformation
Foto: Picture Alliance/dpa
Schon während der "heißen Phase" der Corona-Pandemie seien hunderttausende EU-Bürger von "russischen Agitatoren" dazu angestiftet worden, sich nicht behandeln oder impfen zu lassen, nannte Lipavský ein deutliches Beispiel.
Derzeit finde nicht nur ein realer Krieg, sondern auch ein "Informationskrieg Russlands gegen die Ukraine" statt, genauso "real und bösartig wie der an der Front". Diese hybride Kriegsführung verbreite sich "wie ein Tumor", wurde weiter gewarnt. Man müsse "scharf gegen illegale und schädliche Inhalte im Internet" vorgehen.
Außenminister Lipavský ist sich bewusst, dass "westliche Werte, wie Demokratie und Meinungsfreiheit" sehr fragil sind. Wörtlich: "Russland und China missbrauchen das Verlangen der Menschen, die Wahrheit herauszufinden." Es gelte, die westlichen Gesellschaften resilient (= widerstandsfähig) gegenüber der Desinformation (bewusst falsche Informationen) zu machen.
Die EU müsse weiter einen "Pluralismus ohne Angst vor Zensur fördern". Menschenrechte gälten auch im digitalen Raum, einem "freien, offenen und stabilen Cyberraum".
"Je verrückter - je besser"
Die unmittelbar an Russland grenzenden baltischen Staaten kennen Propaganda aus dem Osten schon länger. Estlands IT-Minister Kristjan Järvan erinnerte an die Zeiten der Sowjetunion. Da werde behauptet, die NATO wolle Camps in der Ukraine errichten, um die Weltherrschaft zu übernehmen.
Russland halte es offenbar mit Joseph Goebbels und dessen Motto: Je verrückter die Propaganda, desto besser. Trotzdem plädierte der konservative Politiker prinzipiell für mehr Medienkompetenz und Selbstregulierung. Ihm ist klar, dass Facebook, YouTube & Co. ihr eigenes, auf kontroverse Inhalte und daraus gezielte Werbung aufgebautes Geschäftsmodell nicht zerstören möchten.
"Wir waren nicht vorbereitet"
"Wir waren alle nicht vorbereitet", ist das Fazit von Claire Wardle von der Ukraine-Taskforce der Europäischen Beobachtungsstelle für digitale Medien (EDMO). Die EU müsse eine "Infrastruktur gegen Desinformation" errichten, es seien "ethische Richtlinien" notwendig. Dabei müsste die im rechtlichen Graubereich operierende Propaganda, die Vorurteile verstärke mit künstlerischen Ideen beantwortet werden.
Karina Stasiuk-Krajewska von der Zentraleuropäischen Beobachtungsstelle für digitale Medien (CEDMO) hat alleine im März 2022 etwa 120.000 Versuche von Desinformation beobachtet, die von etwa 10.000 Social-Media-Konten aus Polen stammten. Dabei werde vor allem gegen ukrainische Flüchtlinge "gehetzt". Zwar glaubten die Sprüche von "Faschisten und Nazis" nur 10 Prozent der polnischen Bevölkerung, aber viele fühlen sich durch Flüchtlinge allgemein bedroht.
Blockade von Propaganda und Desinformation in sozialen Medien
Auf den Betreibern sozialer Netzwerke lastet eine große Verantwortung für Inhalte. Das kostet viel Geld und wird als lästig empfunden.
Foto: Picture Alliance/dpa
Zwischen den Social-Media Anbietern und staatlichen Stellen oder der Zivilgesellschaft gibt es nach wie vor "Verständigungsschwierigkeiten". 90 Prozent der gemeldeten illegalen oder schädlichen Inhalten würden sogar von als vertrauenswürdig eingestufter Hinweisgeber ignoriert, berichtet Dominika Hajdu von dem slowakischen Think-Tank Globsec.
Es liege wohl daran, dass die Netzwerk-Betreiber lieber auf ihre Algorithmen und "künstliche Intelligenz" setzten, die aber bei Inhalt in selteneren osteuropäischen Sprachen nicht wirklich gut funktioniere.
Zweierlei Maß?
Facebook lasse etwa Pogled.info unbehelligt, obwohl dort offen aus russischen Quellen das "Nazi-Narrativ" verstärkt würde. Der "Atlantic Council" aus Bulgarien sei dagegen von Facebook ohne nähere Erklärung wegen angeblicher anti-russischer Inhalte blockiert worden. Ferner habe Facebook strafrechtlich verfolgte Hassprediger erst nach Monaten blockiert.
Bei TikTok müsse Globsec nun mit einem Sperrantrag und der Argumentation nochmals von vorne anfangen, obwohl beide Betreiber den im Juni verschärften EU-Kodex gegen Desinformation unterzeichnet hätten.
Peter Erdelyi von der ungarischen Faktenprüf-Organisation Lakmusz, zeigte anhand einer Meldung des ungarischen Nachrichtenportals Origo, dass große US-Internetkonzerne nach wie vor mit "Fake News" Geld machten. Die Überschrift "Schockierender UN-Bericht über ukrainische Kriegsverbrechen" habe den Inhalt der Untersuchung ins Gegenteil verkehrt. Auf solchen Webseiten laufe Google-Werbung, bei Facebook habe die Schlagzeile über 20.000 Nutzer erreicht. Eigentlich sei das mit dem EU-Kodex unvereinbar.
Widersteht der Versuchung
Die Kommissionsvizepräsidentin Vera Jourová, zuständig für Werte, appellierte: "Die Plattformen sollen sich auf die Seite der Demokratie stellen und Nein zum Bösen sagen".
Auch staatliche Medien in der EU würden Narrative (Erzählungen) fernab der Wahrheit unterstützen, sogar "staatliche Akteure" seien dabei, warnte sie. In vielen Parlamenten säßen "von Russland beeinflusste Politiker". Ihre einschlägigen Beiträge auf sozialen Medien müssten daher entsprechend gekennzeichnet werden.
Vorausschauendes Vorgehen gefordert
Eigentlich wollte Jourová niemals "jemanden als Schiedsrichter der Wahrheit" haben. Seit der Pandemie sei es aber notwendig geworden. Die EU müsse solche Lügengeschichten schon vor dem Erscheinen verhindern. Das Risiko ist klar: Es müsse verhindert werden, "über das Ziel hinauszuschießen".
Kontrollen sind lästig
Jourovás Stellvertreter Daniel Braun ist besorgt, dass einige Netzwerkbetreiber der Moderation von Inhalten weniger Bedeutung zumessen wollten, vermutlich weil sie für die Unternehmen aufwendig, lästig und teuer ist. Der Kurznachrichtendienst Twitter sei vor der Übernahme durch Elon Musk ein wichtiger Partner beim europäischen Kodex gewesen: "Rechtliche Pflichten bestehen unabhängig von der Eigentümerstruktur."
Die Vertreter sozialer Medien betonten, dass sie pro Quartal Millionen von Videos und anderen Inhalten löschten. "Wir führen ständig Schlachten gegen Desinformation", bekräftigte Leslie Miller von YouTube. Die Sichtbarkeit von grenzwertigem "Borderline-Content" werde reduziert, vertrauenswürdige Quellen nach vorne geschoben. Dazu komme die Analyse und Entfernung ganzer Gruppen bekannter Akteure.
Markus Reinisch von Meta (Facebook) betonte, mit insgesamt 40.000 Faktenprüfern zu arbeiten. Es sei aber schwierig, die Zahl derer zu nennen, die bestimmte (seltenere) Sprachen beherrschen. TikTok habe als eine der ersten großen Plattformen den russischen "TV-Sender" RT geblockt, betonte Theo Bertram in Vertretung des "ByteDance" Unternehmens, das aus China stammt. Inhalte von anderen russischen Staatssendern würden entsprechend gekennzeichnet. An einer "globalen" Richtlinie, die dann auch chinesische Medien einschließe, arbeite der Konzern noch.
Eine Einschätzung (von Henning Gajek)
Soziale Medien leben von Werbung. Also müssen sie Inhalte ausspielen, die Nutzer anziehen, die sich dann (un)passende Werbung anschauen, womit die sozialen Medien Geld verdienen. Wenn man nun die Inhalte so priorisiert, dass möglichst knallige Schlagzeilen geteilt werden, kann man damit Geschäfte machen. Und je verrückter eine Meldung ist ("Hund drehte Herrchen durch den Fleischwolf"), desto mehr Aufrufe (Klicks) kann man erzielen.
Nun sollen (und müssen) die Plattformen sich gesetzlich vorgeschrieben anschauen, was auf ihren Seiten passiert und dann eingreifen. Das ist aufwendig und braucht geschultes Personal, was am Ende Geld kostet und Einnahmen aus "schrägen Inhalten" schmälert. Das tut den Kostenrechnern weh.
Die Nebenwirkungen von Kontrollen und Filtern sollten auch nicht übersehen werden: Es kann durchaus sein, dass dann legitimer Inhalt durch das Raster gerät. Und allzu leicht könnte auch kritischer Inhalt eliminiert werden, weil er den Mächtigen nicht gefällt. Eine Gratwanderung.
Wer soziale Medien nutzt, sollte das eigentlich wissen.