Social Bots auf der Wahlkampfveranstaltung
Kolumne

[Kolumne] Finde ich gut, dass du das ansprichst!

Manchester. Ein sehr bekannter Pub in einem Vorort der Industrie-Stadt. Es ist spät am Abend. Bei einigen Gästen ist Alkohol im Spiel. Trotzdem ist der ganze Raum erstaunlich still. Alle Besucher lauschen den Gesprächen an einem Stammtisch in einer sehr dunklen Ecke des Raumes, an dem die Meisten zu sitzen scheinen. Man kann nicht genau sehen, wieviele es sind und wer es ist, aber es klingt nach einer großen Gesellschaft. Sie unterhalten sich laut, bestärken sich gegenseitig und sprechen sich zu. Außerdem benutzen sie Vokabular, dass sie für eine eindeutige politische Richtung stigmatisiert. Radikal, für den Brexit. Alle anderen in diesem Raum, auch Andersdenkende, wundern sich über die Masse der Personen, die an diesem Tisch einer Meinung sind. Klar kennen sie diese politischen Meinungen und Ansichten aus der Presse, hätten aber nie gedacht, dass sie einmal in diesem Maße damit konfrontiert werden würden. Vor allem aber sind sie verwundert, wie viele Menschen es überall zu geben scheint, die diese Meinung vertreten. Das war ihnen nicht bewusst. Mit diesen Erkenntnissen, aufgeladen von den rauen Gesprächen und Stimmungen des Stammtisches, gehen die Gäste nach Hause. Alles was sie dort hörten, stellt ihre eigene Sichtweise auf die Probe. Es wird spät. Der letzte Gast verlässt das Lokal. Als auch der Wirt den Pub schließen will, hört man immer noch den Stammtisch reden. Er schließt den Pub trotzdem ab. Die sehr dunkle Ecke in der sich der Stammtisch befindet, wird mit dem Klicken eines Lichtschalters erhellt. Niemand sitzt dort! Der Wirt nimmt ein Tonbandgerät von eben diesen Stammtisch, wischt kurz über den Tisch und lächelt zufrieden. Der Wirt hat Angst – Angst vor Veränderungen. Er hatte die Idee einen Stammtisch vorzugaukeln, um andere Gäste von seinen politischen Ansichten zu überzeugen. Deshalb nutzt er seinen bekannten Pub! Natürlich hatte er am Anfang bedenken. Aber er tut es für eine gute Sache, zumindest sieht er es so. Er will seine Gäste überzeugen. Nächste Woche findet eine Volksabstimmung statt und er erhofft sich vom konservativen Kandidaten eine bessere Unterstützung für die lokale Wirtschaft und eine Abnahme der Kriminalität durch Verschärfung der Zuwanderungsgesetze. „Das ist auch im Sinne meiner Gäste!“, rechtfertigt sich der Wirt.




Was hier sehr altmodisch klingt, erlebt aktuell eine Renaissance. Heutige Propaganda funktioniert virtuell. Kein langweiliges Tonband, sondern intelligente Bots, die in sozialen Medien als Meinungsmacher und Multiplikatoren für eine bestimmte politische Anschauung sorgen. Während der Brexit-Kampagne erreichte uns  diese Meldung – während der US-Präsidentschaftswahl erneut. Bots (Software-Agenten) wurden programmiert, um während wichtigen politischen Debatten das Meinungsbild bewusst zu verzerren. Das Feld nennt sich Computational Propaganda und ist eine relativ neue Strömung im Bereich Künstliche Intelligenz / Machine Learning. Noch vor Jahrzehnten musste man Menschen als Wahlhelfer für sich gewinnen, um eine kritische Masse an Meinungen zu erreichen, die sich dann nach und nach in Netzwerken, Gruppen und Diskussionen durchsetzten. Heutzutage erledigen sowas Bots.

Social Bots auf der Wahlkampfveranstaltung
Social Bots auf der Wahlkampfveranstaltung

Das klingt nach einem finanziell aufwändigem Unterfangen? Laut der Forschung von Simon Hegelich im Auftrag der Konrad Adenauer Stiftung benötigt man für 10.000 interagierende Twitter-Bots lediglich 500$. Damit kann laut Hegelich die Infrastruktur und die Software bezahlt werden. Darüber lassen sich dann ohne Probleme 60.000 Meldungen pro Tag generieren (1,8 Mio. im Monat). Weil 10.000 aber nicht genug sind, kann man diese Netze ohne Probleme weiter skalieren. Okay, aber irgendwann wird es doch sicher eintönig. Wo kommt der ganze Content her, den diese Bots täglich posten? Ghosh et al. und Baqapuri sind nur einige Beispiele der Forschung im Bereich Natural Language Generation und Deep Learning mit Sprache. Außerdem können diese Bots lernen, was aktuelle (menschliche) Meinungsführer posten und diese Posts adaptieren.




Aber was passiert hier eigentlich? Aus der Sicht der Gesellschaftswissenschaften ist die Thematik nicht neu – nur auf unser heutiges Zeitalter adaptiert. Verzerren von Meinungsbildern – darüber hat schon Gustave Le Bon in Psychologie der Massen geschrieben. Auch in der Zeit vor Le Bon mussten Feldherren, Herzöge und andere mächtige Institutionen ihre Bevölkerung gegen ein Feindbild mobilisieren. Was macht diese Bots aber so gefährlich? In naher Zukunft werden politisch motivierte Bots auch Dialoge führen können – intelligenter und durch ihren Algorithmus auch engagierter als viele ihrer menschlichen Diskussionspartner. Die Gefahr besteht, das Propaganda nicht nur aktiv sondern proaktiv wird. Die Propaganda-Bots werden Dialoge kennen und mit einer programmierten Geduld versuchen, Andersdenkende zu überzeugen. 10.000 Wahlhelfer die für 500$ jeden potentiellen Wähler im 1on1-Chat persönlich überzeugen können. Wir halten fest: Ohne Medienbewusstsein wird Politik mehr möglich sein.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Kommentare werden moderiert. Es kann etwas dauern, bis dein Kommentar angezeigt wird.