Content

Tim Schatto-Eckrodt, Svenja Boberg, Florian Wintterlin, Lena Frischlich, Thorsten Quandt, Bedrohte Deliberation. Information Warfare und Desinformation als Bedrohung digitaler Öffentlichkeiten in:

ComSoc Communicatio Socialis, page 147 - 158

ComSoc, Volume 52 (2019), Issue 2, ISSN: 0010-3497, ISSN online: 0010-3497, https://doi.org/10.5771/0010-3497-2019-2-147

Browse Volumes and Issues: ComSoc Communicatio Socialis

Bibliographic information
PDF download Citation download Share
147 Bedrohte Deliberation Information Warfare und Desinformation als Bedrohung digitaler Öffentlichkeiten. Von Tim Schatto-Eckrodt, Svenja Boberg, Florian Wintterlin, Lena Frischlich und Thorsten Quandt Communicatio Socialis (2/2019) 52: 147-158. DOI: 10.5771/0010-3497-2019-2-147 Abstract Mit der quasi allgegenwärtigen Präsenz des (mobilen) Internets geht zum einen ein großes demokratisches Potential einher: Ganz nach Habermas' Theorie der deliberativen Demokratie können sich Bürger_innen online frei über relevante Themen informieren und in einen Diskurs eintreten, der zu einem gemeinsamen Konsens führt. Auf der dunklen Seite der digitalen Öffentlichkeit werden Fehlinformationen, Propaganda und Hass eine Bühne geboten. Dieser Beitrag beschäftigt sich mit der strategischen Verbreitung von Desinformation in digitalen Öffentlichkeiten, auch Information Warfare genannt. Neben einem Überblick über die aktuelle Forschung stellt dieser Beitrag anhand einer Feldstudie dar, wie eine solche Kampagne aussehen und wie damit erfolgreich umgegangen werden kann. Unter dem Begriff Information Warfare, also einem In-formationskrieg, summieren sich diverse Konzepte aus dem militärischen Jargon. Wie dieser militärische (Sprach-)Hintergrund des Begriffes suggeriert, wird beim Information Warfare immer davon ausgegangen, dass es (mindestens) zwei klar definierte Kontrahenten gibt, die sich konfliktär gegenüberstehen. Eine Definition dieser Konflikte beschreibt den Information Warfare als eine Strategie, die zum Ziel hat, die Weltwahrnehmungen des Gegners zu beeinflussen und in eine bestimmte Richtung zu lenken (vgl. Rathmell 1998). Dabei können eine Reihe von Instrumenten zum Einsatz kommen, von politischen Interventionen, Cyberangriffen (also bspw. Hackerangriffe auf kritische Infrastruktur wie Kraftwerke) über den Einsatz von Streitkräften bis hin zu Diplomatie und Propaganda. Eine andere, etwas engere Definition versteht Information Warfare als die Strategie, sich auf die Schwachstellen digitaler Tim Schatto-Eckrodt, M.A., und Svenja Boberg, M.A., sind Wissenschaftliche Mitarbeiter_innen im BMBF-Projekt „Erkennung, Nachweis und Bekämpfung verdeckter Propaganda-Angriffe über Online-Medien“. Dr. Florian Wintterlin ist als Post-Doc im selben Projekt tätig. BEDROHUNGEN DIGITALER ÖFFENTLICHKEITEN ComSoc_2_19_final_Schoch.indd 147 12.05.2019 19:18:48 148 Informationsinfrastrukturen zu konzentrieren und die digitale Kommunikation des Gegners einzuschränken oder zu beeinflussen (vgl. Kuehl 1997). Ein Element, das bei fast jeder Definition des Begriffs auftaucht, ist der Einsatz von gezielten Desinformationskampagnen. Desinformationen sind hier jedoch nicht allgemein als falsche Informationen oder Lügen zu verstehen. Nach Quandt et al. (2019) lassen sich Fehlinformationen anhand der grundlegenden Unterscheidung zwischen dem Kerninhalt der Informationen (bspw. Text, Bilder, Video usw.), den Meta-Informationen (Überschriften, Autor_inneninformationen, Tags und Schlüsselwörter) und kontextuellen Aspekten (Positionierung, Referenzen auf andere Artikel, Framing) definieren. Alle diese Elemente können auf unterschiedliche Art und Weise verfälscht sein: Sie können irreführend (aber sachlich korrekt) sein, durch Hinzufügungen oder Streichungen von Informationen ein falsches Bild erzeugen oder vollständig erfunden sein, ohne dass eine sachliche Grundlage vorläge. In der Praxis können diese Desinformationskampagnen verschiedene Formen annehmen. Eine der berüchtigtsten Formen ist spätestens seit den Präsidentschaftswahlen 2016 in den USA unter dem Begriff Fake News bekannt. Unter Fake News werden (teilweise) verzerrte, fingierte oder manipulierte Inhalte verstanden, die mit der Absicht veröffentlicht werden, ihre Rezipient_innen nachhaltig zu täuschen (vgl. ebd.). Für Mediennutzer_innen ist es oft nicht leicht Fake News von korrekten Informationen zu unterscheiden, besonders wenn auch traditionelle Medien unsauber arbeiten, beispielsweise, wenn sie irreführende Überschriften oder schlecht recherchierte Inhalte verwenden (vgl. Sängerlaub et al. 2018). Welche Wirkungen Desinformationskampagnen auf Mediennutzer_innen haben können, wird derzeit noch erforscht. Studien aus der Kommunikationswissenschaft, der Medienpsychologie und Politikwissenschaft zeigen jedoch, dass Desinformationskampagnen zwar ein Wirkpotential haben, dieses Potential jedoch nicht sehr groß, bzw. nicht für alle Mediennutzer_innen gleich groß zu sein scheint. Besonders Personen mit politischer Orientierung rechts der Mitte und Facebook- Nutzer_innen über 60 scheinen anfällig für Desinformationen zu sein (vgl. Arendt et al. 2019; Guess et al. 2018). Auf der Ebene der einzelnen Mediennutzer_innen allgemein fand Balmas (2014) in einer repräsentativen Befragung einen indirekten, positiven Effekt von (satirischen) Falschnachrichten auf politische Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt Dr. Lena Frischlich ist am Institut für Kommunikationswissenschaft der Westfälischen- Wilhelms Universität Münster Nachwuchsforschungsgruppenleiterin „DemoRESILdigital – Demokratische Resilienz in Zeiten von Online-Propaganda, Fake News, Fear und Hate Speech“. Prof. Dr. Thorsten Quandt ist Sprecher des Zentrums zur Erforschung digitalisierter Öffentlichkeiten am selben Institut. ComSoc_2_19_final_Schoch.indd 148 12.05.2019 19:18:48 149 Einstellungen. Genauer gesagt förderten Falschnachrichten die wahrgenommene politische Unwirksamkeit, Entfremdung und den politischen Zynismus. Auch experimentell lässt sich der Einfluss von Fehlinformationen auf Einstellungen belegen (vgl. Überblick von Rapp 2016). Selbst wenn die Inhalte explizit als falsch gekennzeichnet sind, übernehmen Mediennutzer_innen diese unfreiwillig (vgl. Fazio/Marsh 2008). Menschen bevorzugen Informationen, die ihre Einstellungen stützen und teilen eher Inhalte, die ihrem Weltbild entsprechen (eine Erkenntnis, die seit den 1970er Jahren kontinuierlich bis heute empirisch bestätigt werden konnte, vgl. Lazarsfeld et al. 1968; Del Vicario et al. 2016). Auf gesellschaftlicher Ebene lässt sich das mediale Meinungsklima über gezielte Falschinformationen beeinflussen. Fake News-Webseiten haben zwar keinen direkten Einfluss auf die Themen-Agenda der etablierten Medien, bestimmen aber, zumindest in den USA, die Themen der parteinahen Medien, ungeachtet ob konservativ oder liberal (vgl. Vargo et al. 2018). Wenn gewisse Inhalte medial besonders präsent sind, können sie im Sinne der Schweigespirale (nach Noelle-Neumann/Petersen 2004) als Mehrheitsmeinung wahrgenommen werden, was zur Folge hat, dass diejenigen, die sich als Mehrheit wahrnehmen, ihre Meinung eher kundtun, während die anderen lieber schweigen (vgl. Neubaum/Krämer 2017; Kwon et al. 2015). Zu den organisiertesten Akteuren im Bereich des Information Warfare in Deutschland gehören fraglos die „Identitäre Bewegung“ und das rechte Netzwerk „Reconquista Germanica“ (vgl. u. a. Hentges at al. 2014; Pfaffenberger et al. 2019). Die „Identitäre Bewegung“ wurde 2012 als Facebook-Gruppe gegründet und begreift sich als deutscher Ableger der französischen Jugendorganisation des „Bloc identitaire“, welche mit der deutschen NPD verglichen werden kann (vgl. Hentges et al. 2014). Kurz vor der Bundestagswahl 2017 wurde das rechte Netzwerk „Reconquista Germanica“ gegründet und gewann innerhalb weniger Wochen eine vierstellige Anzahl Mitglieder (vgl. Köhler/Ebner 2018; Biselli 2017). Die Anzahl der tatsächlichen Mitglieder fällt laut investigativen Recherchen von „BuzzFeed.News“ jedoch deutlich geringer aus. An den Aktionen der „Reconquista“ beteiligen sich eher Hunderte als Tausende Personen (vgl. Schmehl 2017). Die „Reconquista Germanica“ bezeichnet sich selbst als „elektronische Armee“ und folgt streng hierarchischen Rangstrukturen und kommuniziert im militärischen Jargon. In geheimen Chats Wenn gewisse Inhalte medial besonders präsent sind, können sie im Sinne der Schweigespirale als Mehrheitsmeinung wahrgenommen werden. Bedrohte Deliberation ComSoc_2_19_final_Schoch.indd 149 12.05.2019 19:18:49 150 besprechen die Mitglieder ihre Vorgehensweise und holen sich ihre Befehle von den führenden Angehörigen des Netzwerks ab, die intern „Generäle“ und „Offiziere“ genannt werden. Die Attacken können sich sowohl auf Personen wie Journalist_innen oder Politiker_innen richten oder darauf abzielen, bestimmte Hashtags massiv zu verbreiten und so das öffentliche Meinungsklima zu einem Thema zu verändern (vgl. die Analyse zum Hashtag #verräterduell von Grimme et al. 2017). Im Identitären- Handbuch „Media Guerilla“ werden Strategien beschrieben, wie Beiträge und Kommentare möglichst viele Menschen erreichen. Dabei nutzen die Akteure auch gefälschte Accounts (vgl. ebd.). Fallstudie: Desinformationskampagne auf dem 35c3 Zusammengefasst lässt sich also feststellen, dass es einige Prozesse und Akteursgruppen gibt, die die digitale Öffentlichkeit gefährden. Mit Hilfe von gezielten Desinformationskampagnen und Information Warfare-Strategien versuchen Akteure die digitale Kommunikation von Mediennutzer_innen zu stören. Als Beispiel für diese Art des Angriffs auf die digitale Öffentlichkeit und zur Illustration der in den vorherigen Kapiteln dargestellten Forschungsergebnissen soll im Folgenden eine Fallstudie zum „35. Chaos Communication Congress“ dienen. Diese Veranstaltung eignet sich gut zur Analyse von Desinformationskampagnen, da sie in diesem und in vergangenen Jahren aufgrund der klaren Positionierung der Organisator_innen gegen Rechts das Ziel von digitalen Angriffen rechter Akteure wurde (vgl. Reuter 2019). Außerdem ist das Publikum der Veranstaltung verhältnismä- ßig technikaffin; viele der Besucher_innen nutzen Social Media, hier vor allem Twitter, um sich über die Veranstaltung auszutauschen. Der Chaos Communication Congress ist eine seit 1984 jährlich stattfindende Konferenz, die vom Chaos Computer Club (CCC), Europas größtem Hackerverein, organisiert wird. Auf der Konferenz finden eine Vielzahl von Vorträgen und Workshops zu technischen und politischen Fragen im Zusammenhang mit Sicherheit, Kryptographie, Datenschutz und Meinungsfreiheit im Internet statt. Zum 35. Chaos Communication Congress (kurz 35c3) unter dem Motto „Refreshing memories“ fanden sich Ende 2018 rund 16 000 Besucher_innen im Gelände der Leipziger Messe ein. Wie oben erwähnt wird der Kongress auch Der Chaos Communication Congress ist eine seit 1984 jährlich stattfindende Konferenz, die vom Hackerverein Chaos Computer Club organisiert wird. Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt ComSoc_2_19_final_Schoch.indd 150 12.05.2019 19:18:49 151 stark in den Sozialen Medien besprochen: Über die vier Tage der Veranstaltung posteten fast 7000 Twitter-Nutzer_innen über 27 000 Tweets mit dem Hashtag #35c3 (vgl. Abb. 1). Eine (teil-)automatisierte Inhaltsanalyse dieser Tweets zeigt, dass eine kleine Gruppe rechter Trolle versucht hat, mit Hilfe von gezielter Desinformation den Anschein zu erwecken, dass der 35c3 von der „Identitären Bewegung“ unterwandert sei. Die Accounts, die dafür genutzt wurden, konnten durch netzwerkanalytische Verfahren in Verbindung mit einschlägigen Blocklisten1 als die Accounts bekannter rechter Trolle identifiziert werden. Auf Blocklisten sammeln Nutzer_innen Accounts, die ihnen durch ihr Auftreten unangenehm aufgefallen sind (bspw. durch Beleidigungen) und mit denen sie nicht mehr interagieren wollen. Auf Twitter können blockierte Accounts das Profil des- oder derjenigen, die sie blockiert hat, weder anschauen noch anderweitig damit interagieren. Durch das Veröffentlichen oder Austauschen dieser Blocklisten über Dienste wie „BlockTogether.org“ müssen Nutzer_innen nicht mehr jeden einzelnen Troll blockieren, sondern können direkt ganze Gruppen ausschließen. Um die Strategien der rechten Accounts besser nachvollziehen zu können, wurden die Tweets der Troll-Accounts durch ein Preprocessing-Verfahren bereinigt und anschließend mit verschiedenen (teil-)automatisierten, inhaltsanalytischen Verfah- 1 https://blocktogether.org/show-blocks/AkynOtgD38-vnDilw35VApgAuy3sRILp5TjU3nTB (zuletzt aufgerufen am 18.3.2019). Abbildung 1: Anzahl der Tweets mit dem Hashtag #35c3 im Verlauf der Zeit. Bedrohte Deliberation ComSoc_2_19_final_Schoch.indd 151 12.05.2019 19:18:50 152 ren (Sentimentanalyse, tf-idf-Analyse & Themenmodellierung) analysiert. Das Preprocessing-Verfahren umfasste das Entfernen von Nicht-Wort-Tokens (z. B. Links, Zahlen, Hashtags, etc.) und Stoppwörtern (mit dem Stoppwort-Wörterbuch von Silge/ Robinson 2016). Durch die Analyse wird das Ziel der Kampagne klar: Die rechten Trolle versuchen physische Präsenz von Mitgliedern der „Identitären Bewegung“ auf der Veranstaltung vorzutäuschen, wobei sie auf zwei verschiedene Strategien setzen. Im Folgenden werden beide Strategien exemplarisch anhand von typischen Tweets dargestellt. Die in Abb. 2 und Abb. 3 dargestellten Tweets sind beispielhaft für die erste der beiden Strategien. Hier täuschen die Trolle vor, ein Mitglied der „Identitären Bewegung“ zu sein, das sich auf dem 35c5 aufhält oder auf dem Weg dahin ist. Das in Abb. 3 verlinkte Bild ist jedoch nicht auf dem Kongress entstanden, sondern kursiert bereits seit 2016 im Netz. Andere Tweets dieser Kategorie zeigen Fotos, die auf Demonstrationen rechtsextremer Gruppen aufgenommen wurden und Personen zeigen, die offensichtlich politische Orientierung rechts der Mitte vorweisen. Einer dieser Tweets ist mit einem Hinweis versehen, der suggeriert, dass der Catering-Koch der Veranstaltung rechter Gesinnung sei und dem vegetarischen Essen vorsätzlich Fleischprodukte hinzumischt. Solche Botschaften sind bewusst provokant, da sich provokante Inhalte in den Sozialen Medien leichter verbreiten lassen (vgl. Berger/Milkman 2012). Abbildung 2 und 3: Tweets (von den Autor_innen anonymisiert, Person auf Abbildung 3 unkenntlich gemacht), Strategie eins. Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt ComSoc_2_19_final_Schoch.indd 152 12.05.2019 19:18:51 153 Abb. 4 und 5 illustrieren den zweiten Modus der Strategie der Präsenzvortäuschung. Hier schlüpfen die Trolle in die Rolle eines besorgten Besuchers der Veranstaltung und können so Unsicherheit unter den echten Besucher_innen schüren. Durch die scheinbare Positionierung gegen die „Identitäre Bewegung“ werden diese Tweets glaubwürdiger. Die Fotos der aufgeklebten Sticker, die in Abb. 4 und 5 verlinkt sind, sind ebenfalls nicht auf dem 35c3 entstanden; die Fotos tauchen unter den ersten Ergebnissen einer Bildersuche nach „Sticker Identitäre Bewegung“ und „Sticker jeder hasst die antifa“ auf. Über 20 der an der Desinformationskampagne beteiligten Accounts und rund 15 Prozent der veröffentlichten Tweets wurden zeitnah nach dem 35c3 entweder gelöscht oder von Twitter gesperrt. Bei diesen Accounts liegt der Schluss nahe, dass es sich um Fake Accounts gehandelt hat, die nur zum Zweck dieser Kampagne angelegt wurden. Ein weiteres Indiz für diesen Schluss ist, dass ein großer Teil der Accounts erst wenige Tage vor der Veranstaltung erstellt wurde und nur wenig Aktivität außerhalb der Veranstaltung vorweist. Wie wirkungsvoll war nun diese koordinierte Desinformationskampagne? Da die in Abb. 4 und 5 illustrierte Strategie auf den ersten Blick glaubwürdig erscheint, konnten die rechten Trolle ein gewisses Maß an Unsicherheit bei den Nutzer_innen hervorrufen. Auf manche Tweets aus dieser Kategorie antworteten Nutzer_innen besorgt oder mit hilfreichen Hinweisen, wie Abbildung 4 und 5: Tweets (von den Autor_innen anonymisiert), Strategie zwei. Bedrohte Deliberation ComSoc_2_19_final_Schoch.indd 153 12.05.2019 19:18:54 154 man die Organisator_innen der Veranstaltung erreichen kann. Da diese Art von Desinformationskampagne schon 2017 auf dem 34. Chaos Communication Congress von einer kleineren Gruppe rechter Trolle gestartet wurde, waren erfahrene Nutzer_innen auf diese Strategie vorbereitet und informierten andere Nutzer_ innen. Der Aufruf zur Ruhe nach dem alten Mantra „Don't feed the troll“ deckt sich mit den Empfehlungen aus der Forschung, wie mit solchen Kampagnen umgegangen werden sollte. „In erster Linie sind aber Nutzerinnen und Nutzer der sozialen Medien und die digitale Zivilgesellschaft gefragt, im Netz Zivilcourage zu zeigen, […] und die Spaltung der Gesellschaft durch einen respektvollen Umgang auch mit den Verursachern von Hassrede zu verhindern“ (Kreißel et al. 2018, S. 26). Ganz allgemein ist hier auch das Thema kritische Medienkompetenz von hoher Relevanz. Wie im CONTRA-Projekt zur Förderung von Medienkritikfähigkeit als Präventionsarbeit gegen Extremismus von Rieger et al. (2017) beschrieben, sollten Nutzer_innen Medienkritikfähigkeit anhand der Dimensionen Awareness (Bewusstsein für die Existenz und Wirkungsweise manipulativer Inhalte), Reflection (kritische Reflektion des eigenen Nutzungsverhaltens), Empowerment (Befähigung aktiv am Diskurs über manipulative Inhalte teilzunehmen) und Trust (Identifikation und Zuhilfenahme von vertrauenswürdigen Quellen; Erweiterung durch die Dimension Trust durch Frischlich/ Grimme 2018) praktizieren. Medienkompetenz als gesellschaftliche Resilienz Ein Teil der Kultur der rechten Trolle ist das Paradigma des sogenannten „Trolling for the lulz“ (z.Dt. „Trollen nur aus Spaß“, vgl. Bishop 2014, S. 155). Rechte Trolle stellen ihr Engagement in Desinformationskampagnen oft als bloßen Witz dar und Abbildung 6: Screenshot der Autor_innen. (metronaut 2018). Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt ComSoc_2_19_final_Schoch.indd 154 12.05.2019 19:18:58 155 behaupten, dass es ihnen eigentlich gar nicht um politische Inhalte gehe, sondern nur darum Spaß zu haben und andere Mediennutzer_innen hinters Licht zu führen (Buckels et al. 2014; Bishop 2014). Diese Verteidigung nach dem Motto „War ja nicht so gemeint!“ muss sich Kritik auf zwei Ebenen stellen. Zum einen ist der leichte, humorige Tonfall rechter Propaganda ein bekanntes Element der Strategien der Neuen Rechten. „Die Uneingeweihten sollten nicht in der Lage sein zu sagen, ob wir Witze machen oder nicht. Es sollte auch ein aktives Bewusstsein für spöttische Stereotypen von hasserfüllten Rassisten vorhanden sein“ (zitiert nach Feinberg 2017, übersetzt von den Autor_innen). Wie dieser Auszug aus dem Style-Guide der rechtsextremen Zeitung „The Daily Stormer“ zeigt, soll die Linie zwischen ernstgemeinten und als Witz gemeinten Botschaften möglichst unscharf gehalten werden, um Mediennutzer_innen zu verunsichern. Zum anderen sollte der Effekt nicht unterschätzt werden, dass eine Botschaft, die man nur lang genug wiederholt, irgendwann ungeachtet der ursprünglichen Intention – sei es aus Spaß oder Überzeugung – zur eigenen Wahrheit werden kann (vgl. Fazio/Marsh 2008); oder in den Worten des US-amerikanischen Schriftstellers Kurt Vonnegut: „Wir sind was wir vorgeben zu sein, also müssen wir vorsichtig sein, als was wir uns ausgeben“ (Vonnegut 1973, S. 4). Obwohl der Begriff des Information Warfare ein heiß umkämpftes Schlachtfeld suggeriert, ist die Realität des Online- Alltags eine andere. Die Stimmen der Gegner der deliberativen Öffentlichkeit sind zwar oft laut, doch gehören sie zu einer kleinen Minderheit (vgl. Kreißel et al. 2018). Ob diese kleine Anzahl von Provokateuren es schafft, einen Raum in der digitalen Öffentlichkeit einzunehmen, hängt von der Medienkompetenz und Wehrhaftigkeit der restlichen Diskursteilnehmer ab. Bietet man den Trollen durch Gegenrede Paroli und behält einen kühlen Kopf im Umgang mit Desinformation, werden auch die dezidiertesten Strategien keine diskursiven Früchte tragen. Diese Art der zivilgesellschaftlichen Resilienz gegen Desinformationskampagnen und Trolling ist heute von hoher Relevanz und wird auch in Zukunft ein wichtiges Thema der Politik und der Forschung bleiben. Nur durch geschulte Medienkompetenz und einen ruhigen Umgang mit Desinformationskampagnen wie der oben geschilderten lässt sich das deliberative Potential der digitalen Öffentlichkeit auch in Zukunft ausnutzen. Bedrohte Deliberation ComSoc_2_19_final_Schoch.indd 155 12.05.2019 19:18:58 156 Literatur Arendt, Florian/Haim, Mario/Beck, Julia (2019): Fake News, Warnhinweise und perzipierter Wahrheitsgehalt: Zur unterschiedlichen Anfälligkeit für Falschmeldungen in Abhängigkeit von der politischen Orientierung. In: Publizistik online vom 15.2., DOI: 10.1007/s11616-019-00484-4. Balmas, Meital (2014): When Fake News Becomes Real: Combined Exposure to Multiple News Sources and Political Attitudes of Inefficacy, Alienation, and Cynicism. In: Communication Research, 41. Jg., H. 3, S. 430-454, DOI: 10.1177/0093650212453600. Berger, Jonah/Milkman, Katherine L. (2012): What Makes Online Content Viral? In: Journal of Marketing Research, 49. Jg., H. 2, S. 192-205, DOI: 10.1509/ jmr.10.0353. Bishop, Jonathan (Hg.) (2014): Transforming Politics and Policy in the Digital Age. Hershey, PA, DOI: 10.4018/978-1-4666-6038-0. Buckels, Erin E./Trapnell, Paul D./Paulhus, Delroy L. (2014): Trolls just want to have fun. In: Personality and Individual Differences, 67. Jg., S. 97-102, DOI: 10.1016/j.paid.2014.01.016. Del Vicario, Michela et al. (2016): The spreading of misinformation online. In: Proceedings of the National Academy of Sciences, 113. Jg., H. 3, S. 554-559, DOI: 10.1073/pnas.1517441113. Fazio, Lisa K./Marsh, Elizabeth J. (2008): Slowing presentation speed increases illusions of knowledge. In: Psychonomic Bulletin & Review, 15. Jg., H. 1, S. 180- 185, DOI: 10.3758/PBR.15.1.180. Feinberg, Ashley (2017): This Is The Daily Stormer’s Playbook. In: Huffington Post vom 13.12., https://www.huffingtonpost.com/entry/daily-stormer-nazistyle-guide_us_5a2ece19e4b0ce3b344492f2?ncid=inblnkushpmg00000009 (zuletzt aufgerufen am 17.3.2019). Frischlich, Lena/Grimme, Christian (2018): Manipulation im Netz: (Medien-) Pädagogik zwischen Fake Accounts, Social Bots, und Propaganda. In: Medienkompass NRW 2018. http://www.propstop.de/?p=1259 (zuletzt aufgerufen am 18.3.2019). Guess, Andrew/Nyhan, Brendan/Reifler, Jason (2018): Selective Exposure to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign. In: European Research Council, vom 9.1. Grimme, Christian et al. (2017): Bundestagswahl 2017: Social-Media-Angriff auf das #kanzlerduell. http://www.propstop.de/?attachment_id=1539 (zuletzt aufgerufen am 18.3.2019). Hentges, Gudrun/Kökgiran, Gürcan/Nottbohm, Kristina (2014): Die Identitäre Bewegung Deutschland (IBD) Bewegung oder virtuelles Phänomen. In: Forschungsjournal Soziale Bewegungen, 27. Jg., H. 4, S. 1-26. Kreißel, Philip et al. (2018): Hass auf Knopfdruck. Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz. London/Washington DC/Amman/Beirut/Toronto. Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt ComSoc_2_19_final_Schoch.indd 156 12.05.2019 19:18:58 157 Kogel, Dennis (2017): Welche Rolle spielen rechte Trolle im Wahlkampf? Eine Analyse. In: Motherboard vom 7.9. https://motherboard.vice.com/de/article/599v88/ welche-rolle-spielen-rechte-trolle-im-bundestagswahlkampf-eine-analyse (zuletzt aufgerufen am 18.3.2019). Köhler, Daniel/Ebner, Julia (2018): Strategien und Taktiken: Die Kommunikationsstrategien von Jihadist_innen und Rechtsextremen. In: Baldauf, Johannes/ Ebner, Jakob/Guhl Julia (Hg.): Hassrede und Radikalisierung im Netz: Der OCCI-Forschungsbericht. London/Washington DC/Beirut/Toronto, S. 55-63. Kuehl, Dan (1997): Defining Information Power. Washington DC. Kwon, K. Hazel/Moon, Shin-Il/Stefanone, Michael A. (2015): Unspeaking on Facebook? Testing network effects on self-censorship of political expressions in social network sites. In: Quality & Quantity, 49. Jg., H. 4, S. 1417-1435, DOI: 10.1007/s11135-014-0078-8. Lazarsfeld, Paul F./Berelson, Bernard/Gaudet, Hazel (31963): The People’s Choice: How the Voter Makes Up His Mind in a Presidential Campaign. New York. metronaut (2018): Einfallslose Nazi-Trolle auf Twitter tun auf #35C3 so als würden die Identitären eine Aktion auf dem Kongress machen. Es ist exakt die gleiche billige Provo-Taktik wie letztes Jahr, wo auch nichts passierte. #servicetweet, Tweet vom 27.12. https://twitter.com/metronaut/status/1078273284813271040 (zuletzt aufgerufen am 17.3.2019). Neubaum, German/Krämer, Nicole C. (2017): Monitoring the Opinion of the Crowd: Psychological Mechanisms Underlying Public Opinion Perceptions on Social Media. In: Media Psychology, 20. Jg., H. 3, S. 502-531, DOI: 10.1080/15213269.2016.1211539. Noelle-Neumann, Elisabeth/Petersen, Thomas (2004): The Spiral of Silence and the Social Nature of Man. In: Kaid, Lynda L. (Hg.): Handbook of Political Communication Research. London, S. 357-374. Pfaffenberger, Fabian/Adrian, Christoph/Heinrich, Philipp (2019): Was bin ich – und wenn ja, wie viele?: Identifikation und Analyse von Political Bots während des Bundestagswahlkampfs 2017 auf Twitter. In: Holtz-Bacha, Christina (Hg.): Die (Massen-)Medien im Wahlkampf. Wiesbaden, S. 97-124. Quandt, Thorsten et al. (2019, im Druck): Fake News. In: Vos, Tim/Hanusch, Folker (Hg.): The International Encyclopedia of Journalism Studies. Rapp, David N. (2016): The Consequences of Reading Inaccurate Information. In: Current Directions in Psychological Science, 25. Jg., H. 4, S. 281-285, DOI: 10.1177/0963721416649347. Rathmell, Andrew (1998): Information warfare and sub‐state actors: An organisational approach. In: Information, Communication & Society, 1. Jg., H. 4, S. 488-503, DOI: 10.1080/13691189809358984. Reuter, Markus (2019): 35C3: Hackerkonferenz zeigt Rechten den Mittelfinger. In: netzpolitik. org vom 3.1. https://netzpolitik.org/2019/35c3-hackerkonferenzzeigt-rechten-den-mittelfinger/ (zuletzt aufgerufen am 18.3.2019). Rieger, Diana et al. (2017): Förderung von Medienkritikfähigkeit als Präventions- Bedrohte Deliberation ComSoc_2_19_final_Schoch.indd 157 12.05.2019 19:18:59 158 arbeit gegen Extremismus: Propaganda als Unterrichtsthema. In: Praxis Schulpsychologie, 12 Jg., S. 4-5. Schmehl, Karsten (2017): Diese geheimen Chats zeigen, wer hinter dem Meme- Angriff #Verräterduell aufs TV-Duell steckt. In: buzzfeed.com vom 3.9. https://www.buzzfeed.com/de/karstenschmehl/willkommen-in-der-welt-vondiscord-teil1 (zuletzt aufgerufen am 18.3.2019). Silge, Julia/Robinson, David (2016): tidytext: Text Mining and Analysis Using Tidy Data Principles in R. In: The Journal of Open Source Software, 1. Jg., H. 3, S. 37, DOI: 10.21105/joss.00037. Sängerlaub, Alexander/Meier, Miriam/Rühl, Wolf-Dieter (2018): Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Berlin. Vargo, Chris J./Guo, Lei/Amazeen, Michelle A. (2018): The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. In: New Media & Society, 20. Jg., H. 5, S. 2028-2049, DOI: 10.1177/1461444817712086. Vonnegut, Kurt (1973): Mother night. London. Tim Schatto-Eckrodt/Svenja Boberg/Florian Wintterlin/Lena Frischlich/Thorsten Quandt ComSoc_2_19_final_Schoch.indd 158 12.05.2019 19:18:59

Abstract

The virtually ubiquitous presence of the (mobile) Internet goes hand in hand with a great democratic potential: according to Habermas' theory of deliberative democracy, citizens can freely inform themselves with regard to relevant topics and enter into a discourse that ultimately leads to a common consensus. On the dark side of the digital public sphere, misinformation, propaganda, and hatred are present on a massive scale. This article deals with the strategic dissemination of disinformation in digital public spheres, also known as information warfare. In addition to an overview concerning the current state of research, this article illustrates what such a campaign can look like and how it can be handled successfully.

Zusammenfassung

Mit der quasi allgegenwärtigen Präsenz des (mobilen) Internets geht zum einen ein großes demokratisches Potential einher: Ganz nach Habermas' Theorie der deliberativen Demokratie können sich Bürger_innen online frei über relevante Themen informieren und in einen Diskurs eintreten, der zu einem gemeinsamen Konsens führt. Auf der dunklen Seite der digitalen Öffentlichkeit werden Fehlinformationen, Propaganda und Hass eine Bühne geboten. Dieser Beitrag beschäftigt sich mit der strategischen Verbreitung von Desinformation in digitalen Öffentlichkeiten, auch Information Warfare genannt. Neben einem Überblick über die aktuelle Forschung stellt dieser Beitrag anhand einer Feldstudie dar, wie eine solche Kampagne aussehen und wie damit erfolgreich umgegangen werden kann.

References
Arendt, Florian/Haim, Mario/Beck, Julia (2019): Fake News, Warnhinweise und perzipierter Wahrheitsgehalt: Zur unterschiedlichen Anfälligkeit für Falschmeldungen in Abhängigkeit von der politischen Orientierung. In: Publizistik online vom 15.2., DOI: 10.1007/s11616-019-00484-4.
Balmas, Meital (2014): When Fake News Becomes Real: Combined Exposure to Multiple News Sources and Political Attitudes of Inefficacy, Alienation, and Cynicism. In: Communication Research, 41. Jg., H. 3, S. 430-454, DOI: 10.1177/0093650212453600.
Berger, Jonah/Milkman, Katherine L. (2012): What Makes Online Content Viral? In: Journal of Marketing Research, 49. Jg., H. 2, S. 192-205, DOI: 10.1509/ jmr.10.0353.
Bishop, Jonathan (Hg.) (2014): Transforming Politics and Policy in the Digital Age.
Hershey, PA, DOI: 10.4018/978-1-4666-6038-0.
Buckels, Erin E./Trapnell, Paul D./Paulhus, Delroy L. (2014): Trolls just want to have fun. In: Personality and Individual Differences, 67. Jg., S. 97-102, DOI: 10.1016/j.paid.2014.01.016.
Del Vicario, Michela et al. (2016): The spreading of misinformation online. In: Proceedings of the National Academy of Sciences, 113. Jg., H. 3, S. 554-559, DOI: 10.1073/pnas.1517441113.
Fazio, Lisa K./Marsh, Elizabeth J. (2008): Slowing presentation speed increases illusions of knowledge. In: Psychonomic Bulletin & Review, 15. Jg., H. 1, S. 180-185, DOI: 10.3758/PBR.15.1.180.
Feinberg, Ashley (2017): This Is The Daily Stormer’s Playbook. In: Huffington Post vom 13.12., https://www.huffingtonpost.com/entry/daily-stormer-nazi-style-guide_us_5a2ece19e4b0ce3b344492f2?ncid=inblnkushpmg00000009 (zuletzt aufgerufen am 17.3.2019).
Frischlich, Lena/Grimme, Christian (2018): Manipulation im Netz: (Medien-) Pädagogik zwischen Fake Accounts, Social Bots, und Propaganda. In: Medienkompass NRW 2018. http://www.propstop.de/?p=1259 (zuletzt aufgerufen am 18.3.2019).
Guess, Andrew/Nyhan, Brendan/Reifler, Jason (2018): Selective Exposure to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign. In: European Research Council, vom 9.1.
Grimme, Christian et al. (2017): Bundestagswahl 2017: Social-Media-Angriff auf das #kanzlerduell. http://www.propstop.de/?attachment_id=1539 (zuletzt aufgerufen am 18.3.2019).
Hentges, Gudrun/Kökgiran, Gürcan/Nottbohm, Kristina (2014): Die Identitäre Bewegung Deutschland (IBD) Bewegung oder virtuelles Phänomen. In: Forschungsjournal Soziale Bewegungen, 27. Jg., H. 4, S. 1-26.
Kreißel, Philip et al. (2018): Hassauf Knopfdruck. Rechtsextreme Trollfabriken und das Ökosystem koordinierter Hasskampagnen im Netz. London/Washington DC/Amman/Beirut/Toronto.
Kogel, Dennis(2017): Welche Rolle spielen rechte Trolle im Wahlkampf? Eine Analyse. In: Motherboard vom 7.9. https://motherboard.vice.com/de/article/599v88/ welche-rolle-spielen-rechte-trolle-im-bundestagswahlkampf-eine-analyse (zuletzt aufgerufen am 18.3.2019).
Köhler, Daniel/Ebner, Julia (2018): Strategien und Taktiken: Die Kommunikationsstrategien von Jihadist_innen und Rechtsextremen. In: Baldauf, Johannes/ Ebner, Jakob/Guhl Julia (Hg.): Hassrede und Radikalisierung im Netz: Der OCCI-Forschungsbericht. London/Washington DC/Beirut/Toronto, S. 55-63.
Kuehl, Dan (1997): Defining Information Power. Washington DC.
Kwon, K. Hazel/Moon, Shin-Il/Stefanone, Michael A. (2015): Unspeaking on Facebook? Testing network effects on self-censorship of political expressions in social network sites. In: Quality & Quantity, 49. Jg., H. 4, S. 1417-1435, DOI: 10.1007/s11135-014-0078-8.
Lazarsfeld, Paul F./Berelson, Bernard/Gaudet, Hazel (31963): The People’s Choice: How the Voter Makes Up His Mind in a Presidential Campaign. New York. metronaut (2018): Einfallslose Nazi-Trolle auf Twitter tun auf #35C3 so als würden
dieIdentitäreneineAktionaufdemKongressmachen.Esistexaktdiegleichebillige Provo-Taktik wie letztes Jahr, woauchnichtspassierte.#servicetweet, Tweet vom 27.12. https://twitter.com/metronaut/status/1078273284813271040 (zuletzt aufgerufen am 17.3.2019).
Neubaum, German/Krämer, Nicole C. (2017): Monitoring the Opinion of the Crowd: Psychological Mechanisms Underlying Public Opinion Perceptions on Social Media. In: Media Psychology, 20. Jg., H. 3, S. 502-531, DOI: 10.1080/15213269.2016.1211539.
Noelle-Neumann, Elisabeth/Petersen, Thomas (2004): The Spiral of Silence and the Social Nature of Man. In: Kaid, Lynda L. (Hg.): Handbook of Political Communication Research. London, S. 357-374.
Pfaffenberger, Fabian/Adrian, Christoph/Heinrich, Philipp (2019): Was bin ich – und wenn ja, wie viele?: Identifikation und Analyse von Political Bots während des Bundestagswahlkampfs 2017 auf Twitter. In: Holtz-Bacha, Christina (Hg.): Die (Massen-)Medien im Wahlkampf. Wiesbaden, S. 97-124.
Quandt, Thorsten et al. (2019, im Druck): Fake News. In: Vos, Tim/Hanusch, Folker (Hg.): The International Encyclopedia of Journalism Studies.
Rapp, David N. (2016): The Consequences of Reading Inaccurate Information. In: Current Directions in Psychological Science, 25. Jg., H. 4, S. 281-285, DOI: 10.1177/0963721416649347.
Rathmell, Andrew (1998): Information warfare and sub‐state actors: An organisational approach. In: Information, Communication & Society, 1. Jg., H. 4, S. 488-503, DOI: 10.1080/13691189809358984.
Reuter, Markus (2019): 35C3: Hackerkonferenz zeigt Rechten den Mittelfinger. In: netzpolitik. org vom 3.1. https://netzpolitik.org/2019/35c3-hackerkonferenz-zeigt-rechten-den-mittelfinger/ (zuletzt aufgerufen am 18.3.2019).
Rieger, Diana et al. (2017): Förderung von Medienkritikfähigkeit als Präventionsarbeit gegen Extremismus: Propaganda als Unterrichtsthema. In: Praxis Schulpsychologie, 12 Jg., S. 4-5.
Schmehl, Karsten (2017): Diese geheimen Chats zeigen, wer hinter dem Meme-Angriff #Verräterduell aufs TV-Duell steckt. In: buzzfeed.com vom 3.9. https://www.buzzfeed.com/de/karstenschmehl/willkommen-in-der-welt-von-discord-teil1 (zuletzt aufgerufen am 18.3.2019).
Silge, Julia/Robinson, David (2016): tidytext: Text Mining and Analysis Using Tidy Data Principles in R. In: The Journal of Open Source Software, 1. Jg., H. 3, S. 37, DOI: 10.21105/joss.00037.
Sängerlaub, Alexander/Meier, Miriam/Rühl, Wolf-Dieter (2018): Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Berlin.
Vargo, Chris J./Guo, Lei/Amazeen, Michelle A. (2018): The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. In: New Media & Society, 20. Jg., H. 5, S. 2028-2049, DOI:
10.1177/1461444817712086.
Vonnegut, Kurt (1973): Mother night. London.

Zusammenfassung

Communicatio Socialis ist eine medienethische Zeitschrift

  • um der wachsenden gesellschaftlichen Bedeutung von Kommunikations- und Medienethik gerecht zu werden,

  • um der Mediatisierung und Digitalisierung gesellschaftlicher Kommunikation und der Rolle des Internets eine ethische Reflexion entgegen zu setzen,

  • um den steigenden wissenschaftlichen Bemühungen in diesem Feld (Tagungen, Gründungen von Netzwerken und Fachgruppen sowie Einrichtung von Professuren) einen kommunikativen Raum zu geben,

  • um der aktuellen und gesellschaftlichen Verantwortung von Wissenschaft gerecht zu werden.