Social Bots

34C3: Ausufernde Künstliche Intelligenz und Fake News

Technologische Entwicklungen fußen immer stärker auf künstlicher Intelligenz und maschinellem Lernen. Jedoch kann das auch gehörig nach hinten losgehen, wird auf dem C34C gewarnt.
Von dpa /
AAA
Teilen (2)

Netzaktivist Markus Beckedahl hat vor Risiken im Umgang mit Algorithmen gewarnt und eine bessere Kontrolle der Künstlichen Intelligenz gefordert. "Wir brauchen Regularien, um zu schauen, wie kriegen wir eine Nachvollziehbarkeit und eine demokratische Kontrolle von dem hin, wie Algorithmen eingesetzt werden", sagte der Gründer des Blogs Netzpolitik.org auf dem 34. Chaos Communication Congress in Leipzig.

Das Thema Künstliche Intelligenz habe neue Dimensionen erreicht. So gebe es Durchbrüche im maschinellen Lernen oder neue Daten- und Analyse­kapazitäten. Zugleich würden Algorithmen häufig in sensiblen Bereichen eingesetzt, etwa bei der Kredit­vergabe oder im Gesundheits­bereich. "Es ist ein weites Feld: Gesundheits­algorithmen muss man anders regulieren als Facebook-Algorithmen", erklärte der Blogger.

Beckedahl warnte vor der zunehmenden Macht der KI-Technologie und forderte mehr Transparenz für die Gesellschaft. Um Unternehmen besser zu kontrollieren, sollten Geschäfts­geheimnisse aufgelockert werden. Auch müsse es neue Kontroll­institutionen geben, "irgendwo zwischen Datenschutz­behörden und Kartell­ämtern". Und: "Wir sollen nicht über Metaphern wie 'Algorithmen-TÜV' lachen, die in die Debatte geworfen werden, aber eigentlich nur meinen, dass es eine Kontroll­instanz braucht."

Der Anfang für neue Forschungsgebiete

34C3Hacker nehmen moderne Technologien ganz genau unter die Lupe Für den Datenjournalisten Michael Kreil wiederum steckt die aktuelle Forschung um Fake News, Social Bots und Filterblasen noch in den Kinderschuhen und muss dringend verbessert werden. "Wir müssen uns tiefer damit auseinander­setzen. Es sind meiner Meinung nach wissenschaftliche Anfangsfehler gemacht worden", sagte er. Beispielsweise ist seinen Analysen zufolge die Einflussnahme durch Social Bots - also durch künstliche Meinungsroboter - wohl geringer als in einigen wissenschaftlichen Studien angenommen.

Kreil ist nach eigenen Angaben in Studien einer britischen und einer US-Universität auf Fehler in der Methodik gestoßen. So habe er in einer Stichprobe von zwölf angeblichen Social Bots tatsächlich nur zwei gefunden. In der Debatte um Social Bots sei viel Meinung unterwegs, aber wenig Beweise, so Kreil. Aktuell sehe er, dass es in den Netzwerken einige wenige Meinungs­roboter gebe, aber viele Menschen, die ihre politische Meinung verbreiteten. "Social Bots machen nur einen kleinen Prozentsatz aus."

Fake-News-Verbreiter und ihre Gegenbewegung

Der Journalist beschäftigte sich auch mit Fake News. "Ihr Kernphänomen ist nicht deren Existenz, sondern dass sie sich so gut im Netz verbreiten können." Auf Twitter hatte er genauer eine gefälschte Nachricht untersucht, wonach das Auswärtige Amt wegen Terrorgefahr vor Reisen nach Schweden warne. Anfang März hatte das Amt dazu eine Gegen­darstellung in sozialen Netzwerken verbreitet.

Bei der genauen Analyse der Daten habe er festgestellt, dass die Filterblase eher andersherum funktioniere. Nur 45 Prozent derer, die die Gegen­darstellung verbreiteten, hätten die ursprünglichen Fake News mitbekommen. Aber: Von den Fake-News-Verbreitern habe ein sehr großer Teil (89 Prozent) die Gegen­darstellung mitbekommen, diese aber nicht geteilt.

Diese Tatsache legt die Vermutung nahe, dass ein Großteil der Nutzer, die Fake News verbreiten, diese gezielt unter die Masse bringen wollen, oder sich nicht für die vielleicht unbequeme Wahrheit interessieren. So oder so dürften derartige Forschungen die Diskussionen in der Gesellschaft weiter anregen. Lediglich der Ausgang und das Ergebnis sind die großen Unbekannten.

Teilen (2)

Mehr zum Thema Chaos Computer Club (CCC)