Standpunkt

EU: Gegen "Fake News" und "toxische Propaganda"

Der tsche­chi­sche Minister Jan Lipavský fordert ein schär­feres Vorgehen gegen "toxi­sche Propa­ganda" aus Russ­land und China. Die EU-Kommis­sion will proaktiv vorgehen.

In der EU steht aktuell das Thema "toxi­sche Propa­ganda" aus Russ­land und China auf der Agenda. Tsche­chiens Außen­minister Jan Lipavský forderte laut einem heise-Bericht am Mitt­woch in Prag auf einer Konfe­renz der EU-Kommis­sion im Rahmen der tsche­chi­schen Rats­prä­sident­schaft ein schär­feres Vorgehen gegen "toxi­sche Propa­ganda" aus Russ­land und China. Bei der Konfe­renz ging es um die Zukunft des Inter­nets.

Ein Mitglied der im Euro­par­lament vertre­tenen Pira­ten­partei fand dras­tische Worte: "Desin­for­mation tötet täglich. Sie schleicht sich in unsere Gesell­schaften, versucht sie zu spalten und zerstört den konstruk­tiven Dialog."

Kampf gegen Desin­for­mation

Viele Menschen glaubten, dass Corona nicht gebe, befeuert durch Fake-News und Desinformation Viele Menschen glaubten, dass Corona nicht gebe, befeuert durch Fake-News und Desinformation
Foto: Picture Alliance/dpa
Schon während der "heißen Phase" der Corona-Pandemie seien hundert­tau­sende EU-Bürger von "russi­schen Agita­toren" dazu ange­stiftet worden, sich nicht behan­deln oder impfen zu lassen, nannte Lipavský ein deut­liches Beispiel.

Derzeit finde nicht nur ein realer Krieg, sondern auch ein "Infor­mati­ons­krieg Russ­lands gegen die Ukraine" statt, genauso "real und bösartig wie der an der Front". Diese hybride Kriegs­füh­rung verbreite sich "wie ein Tumor", wurde weiter gewarnt. Man müsse "scharf gegen ille­gale und schäd­liche Inhalte im Internet" vorgehen.

Außen­minister Lipavský ist sich bewusst, dass "west­liche Werte, wie Demo­kratie und Meinungs­frei­heit" sehr fragil sind. Wört­lich: "Russ­land und China miss­brau­chen das Verlangen der Menschen, die Wahr­heit heraus­zufinden." Es gelte, die west­lichen Gesell­schaften resi­lient (= wider­stands­fähig) gegen­über der Desin­for­mation (bewusst falsche Infor­mationen) zu machen.

Die EU müsse weiter einen "Plura­lismus ohne Angst vor Zensur fördern". Menschen­rechte gälten auch im digi­talen Raum, einem "freien, offenen und stabilen Cyber­raum".

"Je verrückter - je besser"

Die unmit­telbar an Russ­land gren­zenden balti­schen Staaten kennen Propa­ganda aus dem Osten schon länger. Estlands IT-Minister Kristjan Järvan erin­nerte an die Zeiten der Sowjet­union. Da werde behauptet, die NATO wolle Camps in der Ukraine errichten, um die Welt­herr­schaft zu über­nehmen.

Russ­land halte es offenbar mit Joseph Goeb­bels und dessen Motto: Je verrückter die Propa­ganda, desto besser. Trotzdem plädierte der konser­vative Poli­tiker prin­zipiell für mehr Medi­enkom­petenz und Selbst­regu­lie­rung. Ihm ist klar, dass Face­book, YouTube & Co. ihr eigenes, auf kontro­verse Inhalte und daraus gezielte Werbung aufge­bautes Geschäfts­modell nicht zerstören möchten.

"Wir waren nicht vorbe­reitet"

"Wir waren alle nicht vorbe­reitet", ist das Fazit von Claire Wardle von der Ukraine-Task­force der Euro­päi­schen Beob­ach­tungs­stelle für digi­tale Medien (EDMO). Die EU müsse eine "Infra­struktur gegen Desin­for­mation" errichten, es seien "ethi­sche Richt­linien" notwendig. Dabei müsste die im recht­lichen Grau­bereich operie­rende Propa­ganda, die Vorur­teile verstärke mit künst­leri­schen Ideen beant­wortet werden.

Karina Stasiuk-Krajewska von der Zentral­euro­päi­schen Beob­ach­tungs­stelle für digi­tale Medien (CEDMO) hat alleine im März 2022 etwa 120.000 Versuche von Desin­for­mation beob­achtet, die von etwa 10.000 Social-Media-Konten aus Polen stammten. Dabei werde vor allem gegen ukrai­nische Flücht­linge "gehetzt". Zwar glaubten die Sprüche von "Faschisten und Nazis" nur 10 Prozent der polni­schen Bevöl­kerung, aber viele fühlen sich durch Flücht­linge allge­mein bedroht.

Blockade von Propa­ganda und Desin­for­mation in sozialen Medien

Auf den Betreibern sozialer Netzwerke lastet eine große Verantwortung für Inhalte. Das kostet viel Geld und wird als lästig empfunden. Auf den Betreibern sozialer Netzwerke lastet eine große Verantwortung für Inhalte. Das kostet viel Geld und wird als lästig empfunden.
Foto: Picture Alliance/dpa
Zwischen den Social-Media Anbie­tern und staat­lichen Stellen oder der Zivil­gesell­schaft gibt es nach wie vor "Verstän­digungs­schwie­rig­keiten". 90 Prozent der gemel­deten ille­galen oder schäd­lichen Inhalten würden sogar von als vertrau­ens­würdig einge­stufter Hinweis­geber igno­riert, berichtet Domi­nika Hajdu von dem slowa­kischen Think-Tank Globsec.

Es liege wohl daran, dass die Netz­werk-Betreiber lieber auf ihre Algo­rithmen und "künst­liche Intel­ligenz" setzten, die aber bei Inhalt in selte­neren osteu­ropäi­schen Spra­chen nicht wirk­lich gut funk­tio­niere.

Zwei­erlei Maß?

Face­book lasse etwa Pogled.info unbe­hel­ligt, obwohl dort offen aus russi­schen Quellen das "Nazi-Narrativ" verstärkt würde. Der "Atlantic Council" aus Bulga­rien sei dagegen von Face­book ohne nähere Erklä­rung wegen angeb­licher anti-russi­scher Inhalte blockiert worden. Ferner habe Face­book straf­recht­lich verfolgte Hass­pre­diger erst nach Monaten blockiert.

Bei TikTok müsse Globsec nun mit einem Sperr­antrag und der Argu­men­tation noch­mals von vorne anfangen, obwohl beide Betreiber den im Juni verschärften EU-Kodex gegen Desin­for­mation unter­zeichnet hätten.

Peter Erdelyi von der unga­rischen Fakten­prüf-Orga­nisa­tion Lakmusz, zeigte anhand einer Meldung des unga­rischen Nach­rich­ten­por­tals Origo, dass große US-Inter­net­kon­zerne nach wie vor mit "Fake News" Geld machten. Die Über­schrift "Scho­ckie­render UN-Bericht über ukrai­nische Kriegs­ver­bre­chen" habe den Inhalt der Unter­suchung ins Gegen­teil verkehrt. Auf solchen Webseiten laufe Google-Werbung, bei Face­book habe die Schlag­zeile über 20.000 Nutzer erreicht. Eigent­lich sei das mit dem EU-Kodex unver­einbar.

Wider­steht der Versu­chung

Die Kommis­sions­vize­prä­sidentin Vera Jourová, zuständig für Werte, appel­lierte: "Die Platt­formen sollen sich auf die Seite der Demo­kratie stellen und Nein zum Bösen sagen".

Auch staat­liche Medien in der EU würden Narra­tive (Erzäh­lungen) fernab der Wahr­heit unter­stützen, sogar "staat­liche Akteure" seien dabei, warnte sie. In vielen Parla­menten säßen "von Russ­land beein­flusste Poli­tiker". Ihre einschlä­gigen Beiträge auf sozialen Medien müssten daher entspre­chend gekenn­zeichnet werden.

Voraus­schau­endes Vorgehen gefor­dert

Eigent­lich wollte Jourová niemals "jemanden als Schieds­richter der Wahr­heit" haben. Seit der Pandemie sei es aber notwendig geworden. Die EU müsse solche Lügen­geschichten schon vor dem Erscheinen verhin­dern. Das Risiko ist klar: Es müsse verhin­dert werden, "über das Ziel hinaus­zuschießen".

Kontrollen sind lästig

Jourovás Stell­ver­treter Daniel Braun ist besorgt, dass einige Netz­werk­betreiber der Mode­ration von Inhalten weniger Bedeu­tung zumessen wollten, vermut­lich weil sie für die Unter­nehmen aufwendig, lästig und teuer ist. Der Kurz­nach­rich­ten­dienst Twitter sei vor der Über­nahme durch Elon Musk ein wich­tiger Partner beim euro­päi­schen Kodex gewesen: "Recht­liche Pflichten bestehen unab­hängig von der Eigen­tümer­struktur."

Die Vertreter sozialer Medien betonten, dass sie pro Quartal Millionen von Videos und anderen Inhalten löschten. "Wir führen ständig Schlachten gegen Desin­for­mation", bekräf­tigte Leslie Miller von YouTube. Die Sicht­bar­keit von grenz­wer­tigem "Border­line-Content" werde redu­ziert, vertrau­ens­wür­dige Quellen nach vorne geschoben. Dazu komme die Analyse und Entfer­nung ganzer Gruppen bekannter Akteure.

Markus Reinisch von Meta (Face­book) betonte, mit insge­samt 40.000 Fakten­prü­fern zu arbeiten. Es sei aber schwierig, die Zahl derer zu nennen, die bestimmte (selte­nere) Spra­chen beherr­schen. TikTok habe als eine der ersten großen Platt­formen den russi­schen "TV-Sender" RT geblockt, betonte Theo Bertram in Vertre­tung des "ByteDance" Unter­neh­mens, das aus China stammt. Inhalte von anderen russi­schen Staats­sen­dern würden entspre­chend gekenn­zeichnet. An einer "globalen" Richt­linie, die dann auch chine­sische Medien einschließe, arbeite der Konzern noch.

Eine Einschät­zung (von Henning Gajek)

Soziale Medien leben von Werbung. Also müssen sie Inhalte ausspielen, die Nutzer anziehen, die sich dann (un)passende Werbung anschauen, womit die sozialen Medien Geld verdienen. Wenn man nun die Inhalte so prio­risiert, dass möglichst knal­lige Schlag­zeilen geteilt werden, kann man damit Geschäfte machen. Und je verrückter eine Meldung ist ("Hund drehte Herr­chen durch den Fleisch­wolf"), desto mehr Aufrufe (Klicks) kann man erzielen.

Nun sollen (und müssen) die Platt­formen sich gesetz­lich vorge­schrieben anschauen, was auf ihren Seiten passiert und dann eingreifen. Das ist aufwendig und braucht geschultes Personal, was am Ende Geld kostet und Einnahmen aus "schrägen Inhalten" schmä­lert. Das tut den Kosten­rech­nern weh.

Die Neben­wir­kungen von Kontrollen und Filtern sollten auch nicht über­sehen werden: Es kann durchaus sein, dass dann legi­timer Inhalt durch das Raster gerät. Und allzu leicht könnte auch kriti­scher Inhalt elimi­niert werden, weil er den Mäch­tigen nicht gefällt. Eine Grat­wan­derung.

Wer soziale Medien nutzt, sollte das eigent­lich wissen.

Mehr zum Thema Europaweite TK-Regulierung