Content

Marlis Prinzing, Bernhard S. Debatin, Nina Köberer (Ed.)

Kommunikations- und Medienethik reloaded?

Wegmarken für eine Orientierungssuche im Digitalen

1. Edition 2020, ISBN print: 978-3-8487-6388-7, ISBN online: 978-3-7489-0515-8, https://doi.org/10.5771/9783748905158

Series: Kommunikations- und Medienethik, vol. 11

Bibliographic information
Kommunikations- und Medienethik reloaded? Prinzing | Debatin | Köberer [Hrsg.] Kommunikations- und Medienethik l 11 Wegmarken für eine Orientierungssuche im Digitalen Kommunikations- und Medienethik herausgegeben von Alexander Filipović Christian Schicha Ingrid Stapf Band 11 BUT_Prinzing_6388-7.indd 2 02.09.20 15:32 Kommunikations- und Medienethik reloaded? Marlis Prinzing | Bernhard Debatin Nina Köberer [Hrsg.] Wegmarken für eine Orientierungssuche im Digitalen BUT_Prinzing_6388-7.indd 3 02.09.20 15:32 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. ISBN 978-3-8487-6388-7 (Print) ISBN 978-3-7489-0515-8 (ePDF) Bis Band 4 erschienen bei Beltz Juventa, Weinheim. Onlineversion Nomos eLibrary 1. Auflage 2020 © Nomos Verlagsgesellschaft, Baden-Baden 2020. Gesamtverantwortung für Druck und Herstellung bei der Nomos Verlagsgesellschaft mbH & Co. KG. Alle Rechte, auch die des Nachdrucks von Auszügen, der fotomechanischen Wiedergabe und der Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier. BUT_Prinzing_6388-7.indd 4 02.09.20 15:32 Vorwort Die vorliegende Publikation entstand zum einen aus aktuell aufbereiteten und erweiterten Beiträgen, die in Vortragsform bei der Tagung „Kommunikations- und Medienethik reloaded? Orientierungssuche im Digitalen – zwischen Innovationsdruck, Postfaktizität und sich auflösenden Kommunikations- und Wahrnehmungsgewissheiten“ präsentiert und diskutiert wurden. Diese Jahrestagung der Fachgruppe Kommunikations- und Medienethik in der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK) zusammen mit dem Netzwerk Medienethik und in Kooperation mit der Akademie für politische Bildung, Tutzing, war im Februar 2019 an der Hochschule Macromedia in Köln. Der Band enthält zum anderen vertiefende und weitere Aspekte zum Beispiel über „moral machines“, automatisierten Journalismus, Algorithmen und ethisch orientiert gestaltete digitale Kommunikationsräume. Wir danken dem Vorbereitungsteam der Tagung und unserer Fachgruppe für inhaltliche Anregungen und für Unterstützung und Vorarbeit. Wir freuen uns auch, dass wir damit einen weiteren Beitrag für die von Alexander Filipović, Christian Schicha und Ingrid Stapf herausgegebene Schriftenreihe Kommunikations- und Medienethik leisten dürfen. Und wir danken dem Nomos-Verlag für die sorgfältige Bearbeitung des Manuskripts. Köln, Athens und Hildesheim im August 2020 Marlis Prinzing, Bernhard Debatin, Nina Köberer 5 Einleitung: Kommunikations- und Medienethik reloaded? Wegmarken für eine Orientierungssuche im Digitalen Marlis Prinzing / Bernhard Debatin Medienumgebungen werden immer digitaler, mobiler und plattformdominierter, die Corona-Krise1 hat diese Entwicklung weiter beschleunigt (Newman et al. 2020). Die Menschen sind generell besorgt über die via Internet verbreiteten Fehlinformationen und misstrauen speziell Facebook. Die Allgemeinlage färbt auf das Medienvertrauen ab, in gespaltenen Gesellschaften sinkt es tendenziell besonders, weil dort eine generelle Unzufriedenheit verbreitet ist. Vormals getrennte Mediengattungen verschmelzen, neue semi-professionelle und nicht-professionelle Öffentlichkeitsanbieter sowie global agierende Tech-Intermediäre treten auf, die Rollen des Publikums ändern sich, ebenso die Rollen der Kommunikatoren. Neue, nichtmenschliche Akteure (Social Bots, Chat Bots etc.) gerieren sich als Kommunikatoren. Die Grenzen zwischen Individual- und klassischer Massenkommunikation werden fließend, Algorithmen prägen zunehmend, was öffentlich diskutiert wird. Vom Reuterinstitut befragte Führungspersonen gaben als große, anhaltende Sorge das Thema Faktenprüfung an und als hauptsächliche Investitionsfelder „Künstliche-Intelligenz“-Techniken (u.a. zur Automatisierung), Datenvertrieb (u.a. Tracking) sowie die Produktion von Content für Sprachassistenten (Newman 2018). Dies sind durchgängig Themenfelder, durch die ganz zentrale ethische Werte und Normen angesprochen sind, darunter u.a. informationelle Selbstbestimmtheit, Privatheit, Transparenz, und die auch angrenzende Gebiete tangieren, wie etwa die in der Technikphilosophie verankerte Technikfolgenabschätzung. Diese Themenfelder erfordern einen empirisch fundierten und theoriegestützten Diskurs, eine kritische Reflexion sowie Überlegungen, welche Handlungsfolgen sich daraus ergeben und welche Handlungsempfehlungen sich aus normativer Perspektive formulieren lassen. 1 Die Daten der Studie wurden im Januar und Februar 2020 durch Umfragen in 40 Ländern erhoben, aber mit Umfragedaten ergänzt, die vom April 2020 stammen, als die Corona-Krise einen Höhepunkt hatte. 7 Es stellen sich grundlegende Fragen an die Kommunikations- und Medienethik: Inwiefern sind bestehende Konzepte und Modelle angesichts dieser digitalisierungsbedingten Veränderungen weiterhin tragfähig? Wo müssen sie angepasst oder erweitert werden? Wo besteht Reflexionsbedarf? Wo hält die Kommunikations- und Medienethik für die aktuellen Herausforderungen exemplarisch Befunde und Handlungsempfehlungen bereit? Kurz: Inwiefern ist ein Reload der Kommunikations- und Medienethik notwendig und wo sollte dieser ansetzen? Die Beiträge dieses Bands entwickeln Antworten aus verschiedenen Perspektiven: Es geht um ethische Anforderungen an verantwortungsgeleitete digitale Innovation, Technikfolgenabschätzung und Aufklärung; um die Reflexion von Wahrheit und Weltbild in der postfaktischen, digitalen Gesellschaft; um die ethischen Implikationen der durch digitale Technik veränderten Rollen und Funktionen von Kommunikator und Rezipient sowie um das Nachdenken über mögliche Veränderungen des aktuellen Forschungsgegenstands und die ethischen Bezüge gegenwärtiger Forschungspraxis infolge der Digitalisierung. Grundlage der Reflexion ist ein interdisziplinäres Verständnis von Digitalisierung; es umfasst onlinebasierte Mittel zur Kommunikation, Kollaboration und Interaktion sowie zur Übertragung, Dokumentation und Verbreitung. Das Thema Innovation betrifft Medien mehrfach: Als Anwender, auf Managementebene und auf Redaktions- bzw. Journalismus-Ebene. Medienunternehmen setzen Techniken wie Automatisierung oder Tracking ein und stehen aus dieser Perspektive in der Verantwortung, ihren Kunden gegenüber zu erklären, ob und wie sie beispielsweise Tracking-Technik anwenden, um aus Kundendaten Erlöse zu erzielen, oder ob sie Automatisierungstechnik einsetzen, um Inhalte zu produzieren. Der Einsatz etlicher als innovativ geltender Techniken (Drohnen, AR- und VR-Technik, Textautomatisierung etc.) in der journalistischen Berichterstattung tangiert ebenfalls Fragen nach der Transparenz oder den Grenzen zwischen Öffentlichem und Privaten etc. Zum Auftrag von Journalistinnen und Journalisten gehört es zudem, an neue Techniken und Anwendungskombinationen geknüpfte Fragen nach der Verantwortung und damit nach den Folgen zu thematisieren. Zu diesem Auftrag gehört auch, ein Diskursforum bereitzustellen, dem Publikum u.U. Handlungsempfehlungen zu geben – z.B. bezogen auf Datenschutzregeln oder auf Facebook-Nutzungsbedingungen. Und dazu gehört ferner, Einordnungen vorzuschlagen: bezogen auf Datentransfers, die sich als skandalös erweisen (z.B. zwischen Facebook und Cambridge Analytica) oder bezogen auf den Umgang mit datengetrieben verdichteten Persönlichkeitsprofilen oder auf den Einsatz von Überwa- Einleitung: Kommunikations- und Medienethik reloaded? 8 chungssoftware, die mit biometrischen Daten arbeitet. Gesichtserkennungssoftware ist hierfür ein Beispiel. Stadtverwaltungen oder Verkehrsbetriebe oder die Polizei setzen sie – teils offen, teils nicht transparent – an öffentlichen Plätzen und in öffentlichen Verkehrsmitteln ein. Die kostenlose Suchmaschine PimEyes ist ein Beispiel für einen kommerziellen Einsatz solche Software. Die polnische Betreiberfirma hat offenbar die Gesichter von 900 Millionen Menschen in einer Biometrie-Datenbank gesammelt (Laufer / Meineck 2020). Anscheinend genügt ein Schnappschuss, um Namen, Beruf und weitere Angaben über eine Person herauszufinden. Die Folgen sind massiv: Solche Daten können leicht missbraucht werden und uns die Option kosten, zu entscheiden, in welcher Situation wir anonym bleiben und welche Art von Information wir preisgeben wollen. Wer auf eine Demonstration geht, begibt sich zwar in einen öffentlichen Raum, will aber vielleicht nicht seinen Namen nennen. Wer in der Straßenbahn fährt, will kaum, dass irgendwer per Handyfoto herausfinden könnte, wo er arbeitet. Die Reichweite und die Folgeschäden sind unklar, ebenso Regulierungsmöglichkeiten; zusätzlich riskant ist das Abschöpfen von Bildmaterial z.B. von Instagram, was zwar von deren Mutter Facebook nicht gewünscht ist, offenbar aber auch nicht komplett verhindert werden kann. PimEyes ist ein Anwendungsbeispiel für Themenfelder, durch die ganz zentrale ethische Normen angesprochen sind, darunter u.a. informationelle Selbstbestimmtheit, Privatheit und Transparenz – sowie Handlungsleitlinien wie jene der Technikfolgenabschätzung. Sie alle erfordern Diskurs und Reflexion darüber, wie eine digitale Aufklärung möglich ist und wie sich Anforderung und Ausrichtung digitaler Ethik kodifizieren und institutionalisieren lassen. Eine andere aus ethischer Sicht zentrale Frage ist die nach dem Wert und der Achtung der Wahrheit sowie nach der Wahrhaftigkeit als zentraler Norm zur Unterrichtung der Öffentlichkeit. Digitale Technik hat ermöglicht, sogenannte „Fake News“ – hier verstanden als Nachrichten, die bewusst manipulieren und täuschen sollen – schneller und mit deutlich größerer Reichweite zu streuen als je zuvor; „Deepfake“, eine Wortschöpfung aus „Deep Learning“ und „Fake“, markiert, wie weitere Techniken ganz einfach ermöglichen, die Manipulationen auf Bewegtbild auszuweiten. Dies alles schürt Verunsicherung und erschüttert Vertrauen sowie Wahrnehmungsgewissheiten in bislang so nicht gekannter Weise. Die Funktionsweise sozialer Medien stärkt diese Effekte. Denn sie wollen über Emotion und damit über niederschwellig erreichbare Klicks, Likes und Shares kommerzialisierbare Nutzerdaten erhalten. Dieses Geschäftsmodell wiederum spielt damit „Fakes“ –, also vorsätzlichen Fälschungen – in die Hände und fördert die Aufmerksamkeit gegenüber populistischen Äußerungen, die Einleitung: Kommunikations- und Medienethik reloaded? 9 ebenfalls bewusst auf Emotionen zielen (vgl. Lischka / Stöcker 2017; Dittrich 2017). Dementsprechend reagieren Nutzer gerade auf solche Nachrichten besonders häufig, indem sie diese besonders rasch und besonders eifrig teilen. Und sie neigen dazu, etwas zu glauben, weil es ihnen einigermaßen vertraut ist und ihnen plausibel erscheint, selbst dann, wenn es falsch ist oder wenn sie sogar darauf hingewiesen werden, dass es falsch ist (vgl. Pennycock et al. 2018, Graves 2018). Anders gesagt: Die Hinwendung vieler zum Falschen spiegelt auch das Versäumnis wider, aktuelle Wahrheiten gemeinsam auszuhandeln und Handlungsleitlinien zu entwickeln, die Faktenprüfungen sowie die Vermittlung von Prüftechniken, aber auch Weltbilder umfassen. Denn wenn sich durch die Digitalisierung alte Gewissheiten über Privatheit oder auch den eigenen sozialen Status auflösen und jene, die ihren sozialen Abstieg befürchten, sich von einem liberalen Weltbild abwenden und Zuflucht im Populismus suchen, unterstreicht dies: „Falsch“ oder „richtig“ einzuschätzen, verlangt auch, verschiedene Deutungen und Weltbilder auf ihre Angemessenheit hin zu prüfen. Die Digitalisierung hat zudem traditionelle Publikationshürden aus dem Weg geräumt. Rezipienten und Konsumenten, die sich vorher eher passiv verhalten haben, wurden zu Produzenten, agieren also als Produser (Bruns 2008), und treten auf als ein aktiv publizierendes Publikum, das somit in der Verantwortung steht für das, was es publiziert, dem hierzu aber oft die nötige Kenntnis fehlt. Dies macht das Publikum in ganz anderer Weise ansprechbar, bewirkt aber auch radikalisierende, polarisierte Diskurse bis hin zur „hate speech“. Das zuvor überwiegend aus wenigen reichweitenstarken Medien bestehende Angebotsspektrum wurde verbreitert: Zum einen durch zahllose nur teilweise oder nicht professionelle Anbieter von öffentlichen oder teilöffentlichen Diskursforen. Zum anderen durch Plattformen. Diese wollen aus kommerziellen Gründen nur als Verteilkanäle gelten und nicht als diversen Regulierungen unterworfene Medienunternehmen, obwohl sie durch ihr Geschäftsmodell erreicht haben, dass sie in erheblichem Maße die öffentliche Meinung prägen und dass immer mehr Mediennutzer sich über sie Informationen beschaffen, zunehmend häufig aber nicht die eigentliche Quelle der Nachrichten kennen („Sleeper-Effekt“) (Helmond 2015; vgl. auch Neuberger 2009). Das macht unter anderem Überlegungen und Projekte zwingend, die sich damit befassen, wie sich Community-Beziehungen gestalten und destruktive Formen in den Griff bekommen lassen. Digitalisierung verändert aber auch den Forschungsgegenstand im Fach Kommunikations- und Medienethik sowie die Forschungspraxis. Verändert sich beispielsweise der Gegenstand der Kommunikationswissenschaft, dann würde sich dies auch auf die Kommunikations- und Medienethik Einleitung: Kommunikations- und Medienethik reloaded? 10 und deren Objektbereiche auswirken. Es gibt Vorschläge, alle Formen medienvermittelter Kommunikation zum Gegenstand zu nehmen (Hepp 2016) oder alle Formen der Kommunikation (Theis-Berglmair 2016) oder nur die öffentliche Kommunikation, wobei alle Kommunikation im Netz als prinzipiell öffentlich aufgefasst wird (Brosius 2016), oder insbesondere die Veränderungen der institutionellen Trägerschaft öffentlicher Kommunikation als Herausforderung zu betrachten (Jarren 2016). Auch unabhängig von diesen Überlegungen stellt sich die Frage nach den Folgen, die sich durch mögliche Veränderungen des Verständnisses von Kommunikation aus theoretischer und aus methodologischer Sicht für die Kommunikations- und Medienethik ergeben. Inwiefern wäre z.B. nötig, sich stärker mit Bereichen wie Programmier- und Informationsethik, mit Technikfolgenabschätzung, Hersteller- und Produzentenethik auseinanderzusetzen, sich ihnen gegenüber zu öffnen oder sich mit ihnen zu vernetzen? Inwiefern wären gerade aus der Kommunikations- und Medienethik heraus auch Fragen nach einer gestuften Verantwortung und nach begründeten Verantwortungszuweisungen zu stellen? Inwiefern wirkt sich all dies auf die Forschungspraxis aus? Der klassische Anspruch auf gesellschaftliche Verantwortung von Forschung legt nahe, Kernpunkte digitaler Kultur wie Access und Öffnung auch auf die Art, wie Forschung präsentiert wird, zu übertragen. Die Analyse von Big Data erhält zunehmend Raum in der Forschungspraxis auch der Kommunikations- und Medienethik. Dies legt eine entsprechende erneuerte Forschungsethik nahe, die z.B. Transparenz, Persönlichkeitsschutz und Open Access sowie einen ethischen Umgang beim Erheben, Auswerten, Verwalten, Archivieren, Verteilen und Zugänglichmachen von Daten adressiert sowie Konsequenzen reflektiert, die sich hieraus für die Ausbildung ergeben (Prinzing et al 2020). Der Band ist in vier Abschnitte unterteilt, wobei die Beiträge häufig auch einen Bezug zum Fokus der anderen Teile enthalten. Auf eine Darlegung von theoretischen Grundlagen (I) folgt ein Fokus auf Digitale Innovation (II), auf Sachverhalte und Deutungen in postfaktischer Zeit (III) und auf das Publikum (IV). Teil V weist exemplarisch auf Konsequenzen für die Kommunikations- und Medienethik als Fach hin. Die Art der Umsetzung der Genderform in den einzelnen Beiträgen wurde jeweils den Autorinnen und Autoren überlassen. Den Reigen der Beiträge zu den theoretischen Grundlagen eröffnet Geert Lovink. Er analysiert aus medientheoretischer Perspektive, weshalb wir uns seiner Auffassung nach in einem Zeitalter des Netzwerksterbens befinden und inwiefern die globalen Technologie-Plattformen sowie die Bequemlichkeit und Orientierungslosigkeit vieler Menschen dazu beigetragen haben. Einleitung: Kommunikations- und Medienethik reloaded? 11 Christian Schicha setzt an der Rolle der digitalen Souveränität für den Einzelnen sowie für die Gesellschaft an. Er bezieht sie auf die interdisziplinär fassbare normative Kategorie der Selbstbestimmung – und betrachtet insbesondere die informationelle Selbstbestimmung beispielsweise hinsichtlich der Speicherung der eigenen Daten. Für ihn ist entscheidend, dass die Menschen stets über die Möglichkeit und den Raum verfügen, ihr Leben nach den eigenen Vorstellungen und Bedürfnissen zu gestalten und an einer gemeinsamen Meinungs- und Willensbildung mitwirken. Marlis Prinzing fokussiert die Art, wie digitale Kommunikationsräume verantwortungsbewusst gestaltet sein können, als diskursive Umgebungen für eine Gesellschaft aufgeklärter und selbstbestimmt agierender Menschen. „Prophetische“ Algorithmen, biometrische Gesichtserkennung und weitere brisante Phänomene sowie riskante Praktiken werfen Grundsatzfragen auf, die nur gebündelt, strategisch durchdacht und neu institutionalisiert beantwortet werden könnten und für deren Beantwortung die Medien- und Digitalethik eine Leitdisziplin sei. Verantwortung ist auch der Leitbegriff, von dem Klaus-Dieter Altmeppen ausgeht. Die Fragen, wer wofür auf welcher Grundlage wem gegenüber verantwortlich ist, schaffen sehr diffizile Verantwortungsebenen. Sie unterscheiden sich zum Beispiel nach dem Verantwortungssubjekt (Redaktionen, Facebook), dem Verantwortungsobjekt (Nutzerinnen und Nutzer, Publikum, Quellen) und den Normen der Verantwortung (Pressekodizes, EU-Recht). Altmeppen diskutiert dazu in seinem Beitrag die Zusammenhänge von Themen, Öffentlichkeiten und Verantwortung. Matthias Rath geht der Frage nach, ob für „moral machines“, also für digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch ein nicht kulturrelativer Status als moralische Akteure begründet werden kann. Er erörtert dies am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ. Nina Köberer, Christian Augustin und Ekkehard Brüggemann gehen in ihrem Beitrag auf die durch Prozesse der Digitalisierung angestoßene Transformation auf gesellschaftlicher Ebene ein und bedienen sich der Erkenntnis, dass die Verhältnisse historisch gewachsen und menschengemacht sind – und folglich verändert werden können und auch müssen. Dies setzen sie in Bezug zu einer Mutation des Kapitalismus in einen „Überwachungskapitalismus“ und erörtern, was es braucht, um diesen selbst zu transformieren. Hansi Voigt eröffnet den praktischen Anwendungsfeldern digitaler Innovation gewidmeten zweiten Teil des Bands. Sein Ausgangspunkt ist, dass Einleitung: Kommunikations- und Medienethik reloaded? 12 das bisherige Geschäftsmodell klassischer Medienhäuser zerfalle. Auch weil dies ein hohes demokratisches Risiko bedeute wie z.B. die sinkende Medienvielfalt, sei eine rasche Strukturveränderung des Medienmarkts zwingend. Er stellt eine teils zurzeit in der Praxis erprobte, mehrgliedrige Zukunftsstrategie vor, die er aus aufeinander abgestimmten politischen, finanziellen und technischen Ansätzen entwickelt. Colin Porlezza befasst sich mit den ethischen Herausforderungen speziell von automatisiertem Journalismus und weist darauf hin, dass grundlegende Fragen zum Beispiel zur Transparenz, der Nachvollziehbarkeit und Erklärbarkeit von Algorithmen häufig einfach ausgeblendet würden. Dies könne zu Verzerrungen und Diskriminierungen führen. Der Autor betrachtet drei Problemfelder näher: den wachsenden Dataismus, das Problem des algorithmischen „Bias“ sowie Transparenz als vermeintliches Allheilmittel. Charlotte Echterhoff widmet sich der digitalen Transformation öffentlichrechtlichen Medien. Durch die Relevanz des Internets für die Meinungsbildung sei selbstverständlich, dass öffentlich-rechtlicher Rundfunk auch im Internet stattfinden sollte. Die global agierenden Plattformen verfolgen kommerzielle Interessen, und die daraus resultierende Art, wie über Algorithmen Öffentlichkeit und politische Meinungsbildung organisiert werden, sei der Demokratie abträglich. Daran knüpft sie ein Konzept, wie sich das verändern ließe und welche Rolle darin Public Service haben sollte. Andrea Günter beschäftigt sich mit der Intermedialität von Ethik und Algorithmus und will die mathematisch-politische Kontur der Algorithmenethik darlegen, um zu verdeutlichen, dass es bei dieser Diskussion über Ethik um mehr als um eine Anwendungsethik gehe. Sie führe mitten hinein in die Kritik der Ontologie. Für die Kommunikations- und Medienethik biete eine solche Reflexion die Möglichkeit, die divergierende Medialität verschiedener Zahlenverständnisse, ihre kommunikativen und ethischen Herausforderungen und ihre Alternativen in den Blick zu bekommen. Den dritten Teil zu Sachverhalten und Deutungen in der postfaktischen Zeit eröffnet Sonja Schwetje. Sie befasst sich mit Wahrhaftigkeit in den Medien, mit der Orientierungssuche im Digitalen und mit konkreten Formen, in denen sich dies am Beispiel der redaktionellen Arbeit bei ntv umgesetzt wird, wo sie als Chefredakteurin Weichen stellen kann. Eine spezielle Herausforderung sei, dass am Ende eine Meinungsbildung erfolge beziehungsweise ermöglicht werde, die auf Fakten basiere und nicht ausschließlich auf Emotionen. Unter dem Titel „;Troll‘ oder ,Glaubenskrieger‘“ schlägt Tobias Eberwein eine differenzierende Einordnung vor für dysfunktionale Formen der Me- Einleitung: Kommunikations- und Medienethik reloaded? 13 dienkritik in Onlinekommentaren auf journalistischen Nachrichten-Websites. Ein Grund, weshalb Journalistinnen und Journalisten „Hate Speech“ und systematischem „Trolling“ oft hilflos gegenüberstünden, sei ihr mangelndes Hintergrundwissen über die kritischen Kommentierer. Eberwein ist der Frage empirisch nachgegangen und empfiehlt entlang der diversen Motive für die Kritik entwickelte, unterschiedliche Reaktionsweisen. Saskia Sell erörtert die Wahrheitsbedingungen digitaler Zeugenschaft als Grundlage öffentlicher Bedeutungsproduktion und wählt dazu Frickers Theorie Epistemischer (Un-) Gerechtigkeit als kommunikations- und medienethischen Analyserahmen. Frickers Perspektive könne, wie sie am Beispiel des medialen Umgangs mit Opferzeugen zeigt, jenseits der Forschung auch hilfreich für die Reflexion der eigenen Arbeit und des Umgangs mit Quellen innerhalb der journalistischen Praxis sein. Ingrid Stapf setzt sich mit der historischen Perspektive von „Fake News“ auseinander und spannt den zeitlichen Bogen vom 19. Jahrhundert bis in die Gegenwart. Auf dieser Grundlage will sie die damit verbundenen Phänomene, Erscheinungsformen und Problematisierungsansätze sichtbar machen. Das riesige Spektrum an „Fake“ präge öffentliche und mediale Diskurse, führe zu einer gesellschaftlichen Verunsicherung, zu Regulierungsfragen gegenüber sozialen Netzwerken sowie zu einer Krise, aber auch zu einer Neufassung des Qualitätsjournalismus. Roger Blum schließt daran in seinem Beitrag an. Vorwürfe wie z.B. „Lügenpresse“ zeigten, dass es nicht Publikumskonsens sei, Journalisten würden selbstverständlich nach der Wahrheit suchen. Digitale Techniken fordern zudem die Wahrheitsprüfung heraus und machen Faktenchecker bedeutsam er denn je. Blum untersucht die Seriosität und Unparteilichkeit solcher Faktenchecks am Beispiel zweier Einrichtungen in der Schweiz und geht der Frage nach, wer die Faktenchecker checkt. Die nicht ganz befriedigende Antwort laute: Selbstregulierung sowie die Möglichkeit von Publikumsbeschwerden. Das leitet über auf Teil IV, der die Publikumsperspektive fokussiert. Hier steigen – jeweils in Gesprächsform – Rainer Erlinger und Marc Ziegele ein. Erlinger richtet den Blick auf das „ethisch geschulte“ Publikum und auf die Bedeutsamkeit des Gefühls, beachtet zu werden. Marc Ziegele zeichnet entlang von Studienbefunden ein differenziertes Bild über das „(a)soziale Publikum“ und die Folgen für eine Diskursethik, die Dissonanz akzeptiert. Es gelte, Menschen begreiflich zu machen, dass eine Ablehnung ihres Arguments nicht eine Ablehnung ihrer Person bedeuten müsse. Darauf folgen zweierlei Perspektiven auf das „beachtete Publikum“. Pierre Rieder beschreibt das Schweizer Modell für den Schutz des Publikums vor Manipulation durch die Rundfunkmedien. Der schweizerische Einleitung: Kommunikations- und Medienethik reloaded? 14 Gesetzgeber hat eine Unabhängige Beschwerdeinstanz für Rundfunkmedien und später ihr vorgelagert acht Ombudsstellen geschaffen, um die Programmaufsicht in der Schweiz zu strukturieren. Vergleichbare „Klagemauern“ für das Publikum gibt es zwar in vielen Ländern, aber nirgends ist der Zugang so leicht, so kostengünstig und so unkompliziert wie in der Schweiz. Das Publikum mache davon auch regen Gebrauch. Daniel Fiene schildert im Folgebeitrag das Potenzial einer Community- Redaktions-Beziehung, die für alle Seiten ein Gewinn sei, aber auch Erfahrungen mit systematischer Abwehr von destruktiv kommunizierenden Gruppen und Personen im Publikum: Er beschreibt dazu u.a. die Strategie der „Rheinischen Post“, die als eine der ersten deutschen Regionalzeitungen eine konsequente Strategie entwickelt und ein Audience-Engagement- Team etabliert hat, sowie eine von der Landesanstalt für Medien NRW angestoßene Initiative „Verfolgen statt nur Löschen“, der sich die „Rheinische Post“ als eines der ersten Medienhäuser anschloss. Fiene zieht ebenfalls eine positive Bilanz. Der Band schließt mit vier Beiträgen zu Konsequenzen für die Kommunikations- und Medienethik (Teil V). Thomas Zeilinger skizziert zunächst theologische Beiträge zur deutschsprachigen Medienethik, erkundet auf dieser Grundlage die Leistungskraft der Rede vom Heiligen Geist für ein interdisziplinäres Verständnis des digitalen Wandels und die sich entwickelnde Kultur der Digitalität. Er entfaltet zehn Impulse und damit sowohl kritische wie konstruktive Potentiale für eine der dynamischen Realität des digitalen Zeitalters angemessene Medienethik. Larissa Krainer und Matthias Karmasin leiten in ihrem Beitrag aus einer historischen Betrachtung ab, dass sich die medienethischen Objektbereiche deutlich erweitert haben. Sie plädieren für eine vertiefende interdisziplinäre Theoriebildung, die die Mikro-, Meso- und Makroebene gleichermaßen adressiert, für eine stärkere Verbindung von regulativen Ansätzen aus der Rechtswissenschaft zugunsten medienethischer Problemlösungen, für eine stärkere empirische Fundierung kommunikations- und medienethischer Fragestellungen sowie für eine breitere Institutionalisierung kommunikations- und medienethischer Themen. Ein Beispiel, wie sich dies in angewandte Forschung zur Digitalisierung integrieren lässt, liefern Christoph Bieber und Josephine B. Schmitt. Es brauche neue Ideen und Formate, um den Herausforderungen eines beschleunigten digitalen Wandels produktiv begegnen und neue Lösungen entwickeln zu können. Sie entwickeln am Center for Advanced Internet Studies in Bochum das Programm eines Forschungsinkubators, der gesellschaftliche Herausforderungen und Gestaltungswünsche im Kontext der digitalen Einleitung: Kommunikations- und Medienethik reloaded? 15 Transformationen frühzeitig erkennen und analysieren sowie die Resultate nationaler und internationaler Forschung auswerten soll. Alexander Filipović erläutert im Schlussbeitrag des Bands am Beispiel des Diskurses um „Künstliche Intelligenz“, inwiefern sich Ethikerinnen und Ethiker in den gesellschaftlichen Diskurs einmischen können und sollen und weshalb Ethik ein wichtiger Akteur für die Entwicklung einer digitalen Kultur ist. Er schildert exemplarisch die Erwartungen aus Wirtschaft und Politik an die Ethik und stellt diesen die Vorstellungen der Ethik-Expertinnen und -Experten gegenüber, wie sie ihr Problemlösungspotenzial zur Geltung bringen wollen. Wir freuen uns sehr, wenn dieser Band Anstöße liefert für weitere Forschung zur kommunikations- und medienethischen Neuorientierung in der digitalen Gesellschaft und damit auch Impulse, wo diese Neuorientierung auch Ansprüche an eine Erneuerung der Kommunikations- und Medienethik selbst als Leitdisziplin für die gesellschaftliche Transformation erhebt. Literatur Brosius, Hans-Bernd (2016): Warum Kommunikation im Internet öffentlich ist. In: Publizistik 61, 363–372 (2016). https://doi.org/10.1007/s11616-016-0304-6 Bruns, Axel (2008): Blogs, wikipedia, second life and beyond: From production to produsage. New York: Peter Lang. Dittrich, Paul-Jasper (2017): Social Networks and Populism in the EU. Four Things you should know. Jacques Delors Institut, Policy Paper 192 http://www.delorsinstitut.de/2015/wp-content/uploads/2017/04/20170419_Socia lNetworksandPopulism-Dittrich.pdf Graves, Lucas (2018): Understanding the Promise and Limits of Automated Fact-Checking. Factsheet 2/2018. hg. vom Reuters Institute for the Study of Journalism. Oxford. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2018-02/graves _factsheet_180226 %20FINAL.pdf Helmond, Anne (2015): The Platformization of the Web. Making Web Data Platform Ready. In: Social Media + Society 1 (2), 205630511560308. DOI: 10.1177/2056305115603080. Hepp, Andreas (2016): Kommunikations- und Medienwissenschaft in datengetriebenen Zeiten. In: Publizistik 61, 225–246 (2016). https://doi.org/10.1007/s11616- 016-0263-y Jarren, Otfried (2016): Nicht Daten, sondern Institutionen fordern die Publizistikund Kommunikationswissenschaft heraus. Zu Andreas Hepps Beitrag „Kommunikations- und Medienwissenschaft in datengetriebenen Zeiten“. In: Publizistik, 61, 373–383. Einleitung: Kommunikations- und Medienethik reloaded? 16 Laufer, Daniel / Meineck, Sebastian (2020): PimEyes. Eine polnische Firma schafft gerade unsere Anonymität ab. In: Netzpolitik.org, 10.7.2020. https://netzpolitik.o rg/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/ Lischka, Konrad / Stöcker, Christian (2017): Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Arbeitspapier im Auftrag der Bertelsmann Stiftung. https://www.bertelsmann-stiftung.de/fileadmin/files/ BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf Neuberger, Christoph (2009): Internet, Journalismus und Öffentlichkeit. In: Christoph Neuberger / Christian Nuernbergk / Melanie Rischke (Hg.): Journalismus im Internet. Profession, Partizipation, Technisierung. 1. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 19–105. Newman, Nic (2018): Journalism, Media and Technology Trends and Predictions 2018. hg. vom Reuters Institut for the Study of Journalism der Universität Oxford. http://reutersinstitute.politics.ox.ac.uk/our-research/journalism-media-and-techn ology-trends-and-predictions-2018 Newman, Nic (mit Richard Fletcher, Anne Schulz, Simge Andi, Rasmus Kleis Nielsen) (2020): Digital News Report 2020, hg. vom Reuters Institute for the Study of Journalism. Oxford. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/20 20-06/DNR_2020_FINAL.pdf Pennycook, Gordon / Cannon, Tyronne / Rand, David G. (2018): Prior Exposure Increases Perceived Accuracy of Fake News. In: Journal of Experimental Psychology: General, 147(12), 1865–1880.DOI: 10.1037/xge0000465 Prinzing, Marlis / Schlütz, Daniela / Kaufmann, Katja / Kreissl, Julian / Rakeband, Thomas (2020): Ethikkompetenz als Querschnittsaufgabe. In: Publizistik 65, 341–360 (2020). https://doi.org/10.1007/s11616-020-00578-4 Theis-Berglmair, Anna Maria (2016): Auf dem Weg zu einer Kommunikationswissenschaft. In: Publizistik 61, 385–391 (2016). https://doi.org/10.1007/s11616-016- 0302-8. Einleitung: Kommunikations- und Medienethik reloaded? 17 Inhalt Theoretische GrundlegungenTeil I: Requiem für das Netzwerk. Medientheoretische Reflexionen 25 Geert Lovink Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 45 Christian Schicha Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie zu ethisch orientiert gestalteten digitalen Kommunikationsräumen 61 Marlis Prinzing Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung. Betrachtungen zur ethischen Mehrdimensionalität öffentlicher Kommunikation 87 Klaus-Dieter Altmeppen Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologisch-informatischen Experiment 105 Matthias Rath Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 115 Nina Köberer, Christian Augustin, Ekkehard Brüggemann Digitale InnovationTeil II: Mediengesellschaft mit Zukunft? Anforderungen an Netzpolitik und Journalismus 135 Hansi Voigt 19 Ethische Herausforderungen des automatisierten Journalismus. Zwischen Dataismus, Bias und fehlender Transparenz 143 Colin Porlezza „Wert“-volle Algorithmen: zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit im Digitalen 159 Charlotte Echterhoff Über die Intermedialität von Ethik und Algorithmus. Ein Beitrag zur mathematisch-politischen Kontur der Algorithmenethik 173 Andrea Günter Sachverhalte und Deutungen in der postfaktischen ZeitTeil III: Wahrhaftigkeit in den Medien – jenseits von Gut und Böse 191 Sonja Schwetje „Troll“ oder „Glaubenskrieger“? Zur Differenzierung dysfunktionaler Formen der Medienkritik in Onlinekommentaren 197 Tobias Eberwein Wahrheitsbedingungen digitaler Zeugenschaft: Frickers Theorie Epistemischer (Un-) Gerechtigkeit als kommunikations- und medienethischer Analyserahmen 213 Saskia Sell Was sagen uns „Fake News“ (nicht) über Wahrheit? Medienethische Überlegungen zu Wahrheit und Wahrhaftigkeit im digitalen Zeitalter 231 Ingrid Stapf Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? 251 Roger Blum Inhalt 20 Das PublikumTeil IV: Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? Das Publikum in der desinformierten Gesellschaft 263 Rainer Erlinger, Marc Ziegele Das beachtete Publikum. Eine institutionelle Perspektive 277 Pierre Rieder Das beachtete Publikum. Eine redaktionelle Perspektive 283 Daniel Fiene Konsequenzen für die Kommunikations- und MedienethikTeil V: Die Medienethik und der Heilige Geist. Theologische Impulse für eine Kultur der Digitalität 293 Thomas Zeilinger Bewegte Objekte? Erweiterung medienethischer Objektbereiche und Konsequenzen für das Fach der Kommunikations- und Medienethik 309 Larissa Krainer, Matthias Karmasin Labor der Digitalisierungsforschung: Der Forschungsinkubator am Center for Advanced Internet Studies 323 Christoph Bieber, Josephine B. Schmitt Ethik als Akteurin für die Entwicklung einer digitalen Kultur. Das Verhältnis zu Wirtschaft und Politik am Beispiel des Diskurses um „Künstliche Intelligenz“ 331 Alexander Filipović Autorinnen und Autoren 339 Inhalt 21 Theoretische GrundlegungenTeil I: Requiem für das Netzwerk. Medientheoretische Reflexionen Geert Lovink „Im letzten Stadium seiner ‚Befreiung‘, seiner Emanzipation im Gefolge der Netze, Bildschirme und neuen Technologien, wird das moderne Individuum zu einem fraktalen Subjekt, das zugleich unendlich unterteilbar und unteilbar, in sich abgeschlossen und zu einer unbegrenzten Identität bestimmt ist. In gewissem Sinne das perfekte Subjekt, das Subjekt ohne Anderen – dessen Individuation also keinen Widerspruch mehr darstellt zum Massenstatus.“ Jean Baudrillard, 1999 Abstract Dies ist das Zeitalter des Netzwerksterbens.1 Klein ist belanglos. Die berüchtigte Schwammigkeit und Unverbindlichkeit ihrer faulen Mitglieder hat das ehemals niedliche postmoderne Konstrukt der ‚Netzwerke‘ beinahe zugrunde gerichtet – Plattformen erledigten den Rest. Dezentralisierung mag noch immer in der Gunst stehen, aber niemand spricht mehr von Netzwerken als Lösung für die Schwierigkeiten, in denen sich soziale Medien befinden. Wo sind all die Netzwerke hin? In diesem Zeitalter des Subjekts ohne Projekt gibt es keinen ‚Untergrund‘ mehr. Es war einmal eine angesagte Taktik nach dem Kalten Krieg, ein, zwei, drei, viele Netzwerke aufzubauen – als Alternative zu den vom Verfall bedrohten Institutionen wie Gewerkschaften oder politischen Parteien. Damals galten Netzwerke zweifelhaften Organisationen wie der RAND Corporation – einem Thinktank zur Militärberatung in den USA – als Tarnkappentechnik, die Schurkenstaaten und/oder andere Akteure, die als Feinde der US-amerikanischen Weltordnung galten, unterwandern, stören und durchdringen konnten. Infolge der Demokratisierung des Internets hat das Konzept des ‚Netzwerks‘, das in den 1980er Jahren englischsprachig zunächst im Bankensektor [financial network, dt. Finanzverbund] ein- 1 Dieser Text wurde von der transmediale in Auftrag gegeben und ist eine gekürzte Version des ursprünglichen Essays, den ich von Juli bis September 2019 verfasste. Die vollständige Version ist auf meinem Blog net critique veröffentlicht [http://net workcultures.org/geert]. 25 geführt wurde, heute den Status eines „gesunkenen Kulturguts“2 erreicht. War es der ‚offene‘, informelle Charakter ‚des Netzes‘, der zu dessen Untergang führte – oder vielmehr die Abwesenheit eines kollektiven Willens, irgendetwas anderes zu tun, als sich von Klickködern [clickbait] umwerben zu lassen? Für den TechCrunch-Autor Romain Dillet (2018) ist der Begriff ‚soziales Netzwerk‘ bar jeder Bedeutung: „Wahrscheinlich hast du dutzende, hunderte oder vielleicht tausende Freunde und Follower auf mehreren Plattformen. Doch haben sich diese überfüllten Orte noch nie so leer angefühlt.“3 Er schlussfolgert, dass das Konzept breiter Netzwerke – bestehend aus sozialen Verbindungen und dem Element der elektronischen Übertragung – tot ist. Für Dillet wurden die Netzwerke durch das nie endende Drängen zerstört, mehr „Menschen, die du vielleicht kennst“ hinzuzufügen, weil entsprechend des kapitalistischen Imperativs des steten Wachstums auch hier ‚Mehr‘ mit ‚Besser‘ gleichgesetzt wird. In dieser Logik sozialer Netzwerke entspricht die Anhäufung von Bekannten gewissermaßen einer Firma, die zeigt, wie gut sie ihre Marktreichweite ausdehnen kann. Doch wird die Massenindividualisierung des Persönlichkeitskults von einer traurigen Leere begleitet. Dillet: „Jemanden zu kennen, ist eine Sache – Gesprächsthemen zu haben, eine andere.“ Dillet sieht die Schuld in der undurchsichtigen Gestaltung von Nutzungsmustern, die in dem verzweifelten Versuch aufkam, noch mehr Werbung unterzubringen. Er schließt: „Während soziale Netzwerke größer werden, wird der Inhalt Mist.“ Anstatt hier in eine politische Debatte einzutreten – z.B. darüber, wie diese Monopole angegriffen und sinnvolle alternative Werkzeuge entwickelt werden können, die die Plattformen ersetzen könnten – greift Dillet auf eine einfache Geste der ‚digitalen Entgiftung‘ zurück: „Steck’ dein Telefon wieder in die Tasche und fang’ eine Unterhaltung an. Womöglich kommst du für Stunden ins Gespräch, ohne überhaupt an die roten Punkte an all deinen App-Symbolen zu denken.“ Ist es wirklich so unmöglich, das Soziale neu zu denken, ohne uns dafür schuldig zu erklären, schwache, suchtanfällige Individuen zu sein? In der Zwischenzeit wurde der Begriff ‚Netzwerk‘ elegant aus dem technologischen Vokabular getilgt. Vergeblich ist die Suche nach dem Wort in Büchern über den aktuellen Stand des Internets, wie Nick Srniceks Platform Capitalism (2015), Benjamin Brattons The Stack (2016) oder Shoshana Zuboffs Das Zeitalter des Überwachungskapitalismus (2018). Nicht einmal 2 Diesen Begriff hat der Volkskundler Hans Naumann geprägt. 3 Alle Zitate in diesem Absatz entstammen diesem Artikel von Dillet. Geert Lovink 26 die aktivistische Literatur arbeitet noch viel mit dem Begriff und die mathematische und sozialwissenschaftliche ‚Netzwerkforschung‘ ist seit mehr als einem Jahrzehnt vorüber. Tatsächlich hat die Linke sich nie bemüht, sich das Konzept ‚zu eigen‘ zu machen; das tat höchstens ‚die globale Zivilgesellschaft‘, eine handverlesene Auswahl an Nichtregierungsorganisationen, die bei ihrem Versuch, auf transnationaler Ebene in den Bereich der institutionellen Politik einzutreten, mit Manuel Castells’ Netzwerkgesellschaft spielten. Die Verteilung von Macht über Netzwerke stellte sich als unerfüllter Traum heraus. Die Aufwertung ‚flacher Hierarchien‘ – einer Vorstellung, die besonders von jenen befürwortet wurde, die auch für ‚das Netzwerk ist die Botschaft‘ einstanden – wurde von einem Plattformsystem ersetzt, das von Influencern angetrieben wird, denen passiv-aggressiv und ohne irgendwelche Konsequenzen alle anderen als ‚Follower‘ folgen. Mangels einer Umverteilung von Wohlstand und Macht ‚netzwerken‘ wir fieberhaft weiter – unter dem kalibrierten Auge der Plattform-Algorithmen. Was ist also mit dem Netzwerkgedanken geschehen? In meinen Recherchen für diesen Essay habe ich meine Runden gedreht: Ich habe mit anderen Aktivist*innen, Künstler*innen und Forscher*innen auf verschiedenen Kontinenten über ihre Sicht auf den traurigen Zustand der heutigen Netzwerke gesprochen. Ich begann mit der niederländischen post-digitalen Kunstkritikerin Nadine Roestenburg, die davon ausgeht, dass Millennials und die Generation Z Netzwerke als etwas Gegebenes wahrnehmen: „Eine zugrundeliegende Struktur, die nicht länger eine starre Form annimmt. Alle Menschen und Dinge sind immer miteinander verbunden, es gibt keinen Leerraum zwischen den Knoten mehr. Das Netzwerk ist in eine Leere explodiert; ein Überobjekt, das zu groß und zu komplex für unser Verständnis ist. Bedeutung ist in Bedeutsamkeit verloren gegangen und deshalb suchen wir verzweifelt nach einem Ausgangspunkt, einem einzelnen Knoten, der uns wieder verbinden kann. Das erklärt die Popularität von digitaler Entgiftung, Achtsamkeit und Meditation. In den Künsten beginnt die Psychogeographie – ein Werkzeug, um in einem ‚Requiem für das Verstehen‘ dem Physischen im Digitalen nachzuspüren – mit einer Visualisierung der unsichtbaren Netzwerkstruktur.“4 Roestenburg schlug mir dann vor, die Autorin des Buchs How to Do Nothing, Jenny Odell, in der Bay Area zu kontaktieren. Odell schrieb zurück: 4 E-Mail-Austausch mit Nadine Roestenburg, 25. Juli 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 27 „Etwas, das sich nicht verändert hat, ist die Tatsache, dass es einen bestimmten Kontext erfordert, Sprache und Handlungen Bedeutung zu verleihen. Es gibt eine gewaltigen Unterschied, 1. Dinge in einer Gruppe zu sagen, in der du an/erkannt wirst und die um einen bestimmten Zweck herum zusammenkommt (sei es physisch oder digital); und 2. in eine anonyme Leere hinauszurufen, wobei du deinen Ausdruck auf eine Weise verpacken musst, dass er die Aufmerksamkeit von Fremden auf sich zieht, die überhaupt keinen Kontext zu deiner Person und deiner Aussage haben. Es fasziniert mich, wie sowohl in Gruppenchats als auch in persönlichen Treffen Dinge getan werden statt nur gesagt, wie die Menschen in einer Atmosphäre des gegenseitigen Respekts auf der Expertise anderer aufbauen können. Durch den Zerfall des Kontextes machen soziale Medien schon in ihrer Gestaltung einen solchen Prozess unmöglich.“5 Odell hält es für sinnvoll, die Idee eines dezentralisierten Zusammenschlusses neu zu betrachten und zu verteidigen, „weil das Modell die Aspekte der Sozialität erhält, die das Beste aus dem Individuum und der Gruppe herausholen. In der Geschichte des Aktivismus taucht die dezentralisierte Form immer wieder auf. Die Dichte der Knoten ermöglicht es Menschen, wirkliche Beziehungen aufzubauen, und die Verbindungen zwischen den Knoten ermöglichen es ihnen, Wissen schnell zu teilen. Für mich steckt hierin eine Möglichkeit, neue Ideen und Lösungen einzuführen – statt der einmaligen paukenschlag-artigen Erklärungen und einem Haufen ‚verbundener‘ Individuen, die einfach durch ihren Alltag laufen.“6 Nun wird es unmodisch – ich grabe ein Adorno-Zitat aus und werfe es ins Zeitalter der sozialen Medien: „[… D]ie alten, etablierten Autoritäten [… waren] zerfallen, gestürzt[], nicht aber die Menschen psychologisch schon bereit, sich selbst zu bestimmen. Sie zeigten der Freiheit, die ihnen in den Schoß fiel, nicht sich gewachsen.“ (Adorno: 96). Netzwerke erfordern genau das: eine aktive Form der Selbstbestimmung. Selbstorganisierung von unten ist das genaue Gegenteil von glatten Oberflächen, dem automatisierten Import von Adressbüchern und dem algorithmischen ‚Regieren‘ der eigenen Nachrichten und Aktualisierungen. Selbstbestimmung ist nichts, das wir einfach kostenlos herunterladen und installieren können. In den turbulenten 1990er Jahren verloren zentralisierte Informationssysteme ihre 5 E-Mail-Austausch mit Jenny Odell, 7. August 2019. 6 Ebd. Geert Lovink 28 Macht und ihre Legitimität; doch anstelle kleinerer Netzwerke mit dem Anspruch, demokratischer zu sein und – theoretisch – die Autonomie und Souveränität von Menschen zu fördern, bekamen wir nur immer größere und manipulativere monopolistische Plattformen. Selbstbestimmung ist ein Akt, wie sich herausstellt, oder eine Reihe von Handlungen; ein politisches Ereignis oder eine Reihe von Ereignissen – und keine eingebaute Eigenschaft einer Software. Wie jede Form der sozialen Organisierung müssen Netzwerke initiiert, aufgebaut und erhalten werden. Anders als Kartierungssoftware nahelegt, werden Netzwerke nicht vom Fleck weg und als Ganzes geschaffen, als wären sie maschinell erzeugt. Es geht hier nicht um automatisierte Korrelationen; vergiss die visuelle Momentaufnahme. Netzwerke konstituieren sich in Protokollen und ihren zugrundeliegenden Infrastrukturen. Zumal sind sie lebendig: Wenn Netzwerke einmal selbständig zu wachsen beginnen, dann können sie sich in unerwartete Richtungen entwickeln; sie können sich verzweigen, auseinandergehen, blühen, dann aber auch stagnieren – und sie können ebenso einfach wieder aufgegeben werden, wie sie angefangen wurden. Anders als bei anderen Formen der Organisierung liegt der politische Charme von Netzwerken in ihrer Fähigkeit, neue Anfänge zu erschaffen, eine wundersame Energie, die tatsächlich an das erinnert, was Hannah Arendt beschreibt, wenn sie erklärt, was freigesetzt wird, wenn wir von Neuem beginnen (Marchert 2005). Lockt uns das Neudenken von Netzwerken als Werkzeugen für Neuanfänge womöglich weg von einer ‚Kollapsologie‘ und unserer nie endenden Obsession mit dem Ende dieser Welt?7 Es mag sein, dass der informelle Charakter von Netzwerken unwissende Außenstehende dazu ermutigt, ihnen beizutreten; doch kann ebendies auch zu einer Kultur des fehlenden Engagements führen sowie zur Bildung informeller Hierarchien und Machtspielen unter jenen, die darin am aktivsten sind. Was sollen wir tun? Antworten? ‚Liken‘? ‚Retweeten‘? Diese Unsicherheit ist Teil der Netzwerkarchitektur, wenn es nicht die Pseudo- Aktivität von Likes, Klicks und Ansichten gibt. Es ist einfach, Netzwerken 7 „Kollapsologie ist die Forschung über den Zusammenbruch der industriellen Zivilisation und darüber, was ihr folgen könnte.“ Das Konzept wurde 2015 von Pablo Servigne und Raphaël Stevens in ihrem Essay Comment tout peut s’effondrer: Petit manuel de collapsologie à l'usage des générations présentes (Paris: Seuil, 2015) entworfen. Siehe auch den Überblick „Collapsologie“ auf Archeos (8. Januar 2019, www.archeos.eu/collapsologie) sowie Collapsologie, eine Webseite, die „der wissenschaftlichen Literatur über den ökologischen Zusammenbruch, die Grenzen des Wachstums und die existenziellen Gefahren nachgeht“ (www.collapsologie.fr). Requiem für das Netzwerk. Medientheoretische Reflexionen 29 beizutreten – und sie wieder zu verlassen. Sie erfordern weder eine formale Mitgliedschaft noch die Schöpfung eines Profils – meistens sind bloß ein willkürlicher Nutzername und ein Passwort erforderlich. Aber Netzwerke fallen auch nicht einfach vom Himmel, auch wenn Ereignisse wie Aufstände und Flashmobs manchmal anderes nahezulegen scheinen. Auf Plattformen werden die charakteristische Ebbe und Flut, das Auf und Ab von Netzwerken durch einen kontinuierlichen Fluss an Botschaften ersetzt (oder überwunden). Anstatt uns zum Handeln einzuladen, erfordert dies, dass wir die meiste Zeit dafür aufbringen, auf dem neuesten Stand zu bleiben – in einem konstanten Zustand seichter Panik versuchen wir, uns durch den Rückstand an Tweets und Neuigkeiten hindurchzuarbeiten, den wir in den letzten Tagen verpasst oder ignoriert haben. Erschöpft und zu fertig, um irgendetwas anderes zu tun, bleiben wir in einem nahezu komatösen Zustand zurück und denken über die zur Gewohnheit gewordene Leere nach. Eine Leerheit – von dem Gefühl verstärkt, dass es nichts Besseres zu tun gibt – ist eine der wesentlichen affektiven Konsequenzen dieses Massen-Trainings für eine automatisierte Zukunft. Plattformen erzeugen eine psychische Blockade gegen das Denken und Handeln (um es in Mark Fishers Worten zu sagen); ihr ‚Dienstleistungsdesign‘ ist dergestalt, dass wir nicht länger zum Handeln verlockt werden, sondern stattdessen bloß unsere Empörung oder Sorge zum Ausdruck bringen. Dies sind „Netzwerke ohne Anliegen“,8 die uns dazu ermutigen, auf jedes Ereignis vor allem und ausschließlich mit nackten Meinungen und Grundsatzantworten zu reagieren. In Italien, wo der Begriff ‚soziale Netzwerke‘ noch im Umlauf ist, ist die Debatte über den aktuellen Zustand des Sozialen so lebendig wie eh und je. Tiziana Terranova, Autorin von Network Cultures (2004), beschrieb in Reaktion auf meine These über den Tod des Netzwerks im Zeitalter des Plattformkapitalismus ihre Überzeugung folgendermaßen: „Wenn wir auf das Zeitalter des Netzwerks zurückblicken können, ist das nur möglich, weil wir uns auf dem höchsten Punkt der Netzwerk- Welle zu befinden scheinen – einer mathematischen Abstraktion, die aus Kommunikationstechnologien abgeleitet und in diese implementiert ist und die noch immer völlig den epistemischen Raum zeitgenös- 8 A.d.Ü. „Networks without a cause“ bezieht sich auf den Titel des US-amerikanischen Filmklassikers Rebel Without a Cause (dt. Titel: … denn sie wissen nicht, was sie tun) aus den 1950er Jahren, in dem es um die Rebellion weißer Mittelschichts-Vorstadtjugendlicher für Liebe und Anerkennung durch ihre Gesellschaft und Familie geht. Geert Lovink 30 sischer Gesellschaften dominiert und strukturiert. Worauf wir wahrscheinlich zurückblicken können – und viele von uns tun das – ist eine hoffnungsvolle Zeit der Netzwerke, als es noch möglich war, im Netzwerk-Topos neue Möglichkeiten zu erkennen, anstatt der bloßen Umstrukturierung von Macht. Wir könnten – schon heute – wahrnehmen, was Netzwerken womöglich folgen wird, etwas, das an ebenjenen Grenzen der übermäßigen Verbundenheit und der Ausuferung von Korrelationen entsteht, die die modernen Vorstellungen von Kausalität ersetzt haben. Wenn ich darüber wetten sollte, würde ich auf Technologien setzen, die quantentheoretische Modelle der Verschränkung (statt Verbindung) und ‚unheimliche‘ Modelle von Kausalität nutzen. Es könnte möglich sein, dass sich eben hier neue Technologien der Macht und Kämpfe zur Befreiung aus dem Griff der wirtschaftlichen, sozialen und kulturellen Beziehungen entfalten müssen. Wenn ich dies in meinen eigenen Bezugsrahmen übersetze, muss ich an ‚unwahrscheinliche Netzwerke‘ denken – jene, die sich nicht aus Familie, Schulfreund*innen und Kolleg*innen zusammensetzen, sondern aus scheinbar Fremden und durch einen viel merkwürdigeren und radikaleren Prozess als jenem, nach dem Algorithmen heute in Dating-Apps Partner*innen auswählen.“9 In seiner Interviewsammlung Facebook entkommen (2018) fasst der österreichische Kultur- und Medienwissenschaftler Raimund Minichbauer gut die Stagnation zusammen, in der sich ihm zufolge zahlreiche Künstler*innen, Aktivist*innen und Wissenschaftler*innen seit 2011 wiederfinden, nach der letzten Renaissance bestimmter sozialer Bewegungen und den letzten Versuchen einer gewissen Art von ‚unabhängigem‘ Netzwerken vor ihrer finalen Schließung (Minichbauer 2018). Zur großen Überraschung vieler Insider nutzen die meisten autonomen Gruppen und Sozialzentren noch immer Facebook, um ihre Aktivitäten zu verkünden. Von ebensolchen Überlegungen geprägt, wie sie in Minichbauers Band formuliert werden, steht das Netzwerk Unlike Us des Institute of Network Cultures für einen ähnlichen Versuch, die Kritik an sozialen Medien mit der Förderung von Alternativen zu verbinden. Obwohl es zwei Wellen des öffentlichen Interesses gegeben hat – eine nach den Aufdeckungen durch Snowden, die andere im Nachgang des Skandals um die Firma Cambridge Analytica Anfang 2018 – hat sich nichts grundlegend verändert. Obwohl wir viel mehr über die ‚Verhaltensveränderungen‘ durch Social-Media-Plattformen und 9 E-Mail-Austausch mit Tiziana Terranova, 8. August 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 31 deren ‚Missbrauch‘ von Nutzungsdaten wissen, haben diese Erkenntnisse nicht zu einem bedeutenden Wandel der Plattformabhängigkeit geführt. Wie können Aktivist*innen so offen zynisch mit ihren eigenen Alternativen umgehen, während die Liste alternativer Anwendungen stetig wächst? Und was sagt das über die Rückwärtsgewandtheit in Westlichen Gesellschaften, wenn sogar die engagiertesten Aktivist*innen so ‚liberal‘ Facebook nutzen? Ist es Faulheit? Ist die Angst berechtigt, sonst isoliert zu sein? Alternative Kommunikationsinfrastrukturen wurden mal als entscheidend für das Überleben ‚der Szene‘ erachtet: von Zines, Buchläden, unabhängigen Vertrieben und Druckereien bis zu freien bzw. Piratensendern im Radio, autonomen Internet-Servern und damit verbundenen Internetdienstanbietern. Die in Facebook entkommen (2018) interviewte Datenschutzaktivistin und -forscherin Stefania Milan beschreibt die Verschiebung hin zum Protestieren in der Cloud [cloud protesting]. Als das Occupy- Zeltlager in Toronto geräumt wurde, konnte Milan selbst bezeugen, wie Aktivist*innen auf Ereignisse wie Polizeigewalt reagierten, indem sie sofort online berichteten: Sie griffen nach ihren Telefonen, um die belastenden Beweismittel zu dokumentieren und auf Social-Media-Plattformen hochzuladen. Milan spricht hier lieber von „Mobilisierungen“ als von „Bewegungen“ und bemerkt den Widerspruch zwischen den horizontalen Strukturen der Entscheidungsfindung, die von Aktivist*innen vor Ort befolgt wurden – wie das bei Occupy-Versammlungen aufgekommene „menschliche Mikrofon“ –, und das völlige Fehlen ähnlicher Strukturen und/oder Protokolle innerhalb der technischen Infrastrukturen der Plattformen, die solche „Cloud-Protestierenden“ anwenden (Minichbauer 2018). Minichbauer hebt einen weiteren heiklen Punkt hervor, an dem soziale Bewegungen, Computerfreaks und Technologieentwickler*innen keine Fortschritte gemacht haben: und zwar die Frage der „Community“. Mark Zuckerbergs systematischer Missbrauch des Begriffs zeigt sich überdeutlich, wenn er über „seine“ 2,4 Milliarden Facebook-Nutzer*innen spricht, als wären sie eine „globale Gemeinschaft“ (Zuckerberg 2017). Wie Minichbauer (2018) nahelegt, wäre es leicht, diese Aneignung des Begriffs zu verwerfen, als sollten wir nicht daran festhalten, flache unternehmerische Definitionen zu dekonstruieren. Doch sollten wir es auch nicht zulassen, dass unser abschätziges Missfallen gegenüber einer solchen Nutzung (oder gegenüber Plattformen an sich) uns zu einer Position führt, in der wir jede Form von plattformbasierter wechselseitiger Unterstützung oder (freier) Zusammenarbeit mit anderen aus der Angst heraus ablehnen, dass unsere jede Interaktion verfolgt, kartiert und in Wert gesetzt werden könnte bzw. tatsächlich wird. Wie Haraway (2018) sagt, sollten wir „unruhig bleiben“ und uns entsprechend den Schwierigkeiten nicht entziehen. ‚Community‘ Geert Lovink 32 ist entweder ein lebendiges Wesen, das im Hier und Jetzt existiert, mit all seinen Widersprüchen und Pannen, so dass ‚wir‘ etwas gemein haben – also ein Gemeingut – oder sie ist ein totes Wesen, das nicht länger beschworen werden sollte, während wir nach anderen Formen des Sozialen suchen. Wie Verwandtschaftsstudien gezeigt haben, sind viele Menschen froh, den Strapazen eines eng geknüpften Lebens zu entfliehen. Wie Jon Lawrence in The Guardian schrieb: „Wenn wir die vagen Hoffnungen verwerfen, eine idealisierte Vision von Community wiederzuentdecken, die es nie gegeben hat, und uns stattdessen auf kleinere, praktische Initiativen konzentrieren, um gesellschaftliche Verbindungen und Verständnisse zu stärken, dann haben wir eine Chance, die Witterung der gegenwärtigen Krise mit einem intakten Sozialgefüge zu überstehen.“ (Lawrence 2019) Und Charles Hugh Smith schreibt über Netzwerke im Gegensatz zu zentraler Planung: „Ob wir es anerkennen oder nicht; die Welt schließt Wetten darüber ab, welches System das kommende Zeitalter des destabilisierenden nicht-linearen Wandels überleben wird: eine unbewegliche, undurchsichtige zentrale Planung oder bewegliche, selbstorganisierende Netzwerke der dezentralisierten Autonomie und entsprechenden Kapitals.“ (Hugh Smith 2019). Es handelt sich um die Entscheidung, mit der wir uns in den letzten Jahrzehnten nicht konfrontiert sehen wollten: Eine vielfältige Koalition aus progressiven Business-Eliten, nerdigen Unternehmer*innen und Aktivist*innen haben stets die Möglichkeit übersehen, dass ‚das Internet‘ eines Tages selbst die Planungsplattform eines Zentralkomitees sein würde. Nachdem die Unternehmensansammlung, die als ‚Silicon Valley‘ bekannt ist, die Netzwerklogik genutzt hat, um einen skrupellosen Prozess des übermäßigen Wachstums zu jedem Preis voranzutreiben, hat sie die Netzwerklogik vollends verworfen. Als all unsere Adressbücher kopiert und unsere Vernetzungen ordentlich „kartiert“ waren, wurde deren diffuse und „rhizomatische“ Struktur zum Ärgernis, das zugunsten von klar definierten profil-zentrierten „Graphen“ ausrangiert wurde, die vermessen, wie Nutzer*innen mit Produkten und „Freunden“ interagieren. Merkwürdigerweise ist der Niedergang der Netzwerklogik (bislang) nicht richtig theoretisiert worden. Währenddessen sind Netzwerke eine unsichtbare nachgeordnete Schicht im „Stack“ geworden10 und es gibt einen Effekt der „Neuvermittlung“ (wie Bolter und Grusin es beschrei- 10 Ich bespreche diese Neuzusammensetzung der Schlüsselbegriffe „media“, „network“, „platform“ und „stack“ in meinem Buch Sad by Design, London: Pluto Press, 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 33 ben11): Der Inhalt der Plattform ist das Netzwerk. Das funktioniert allerdings nur, wenn das Geflecht aus ‚Freunden‘ und ‚Followern‘ tatsächlich aktive Netzwerke bildet. Plattformen werden wertlos, wenn diese gefälscht oder unbelebt sind. Tatsächlich können Plattformen nur entstehen und den erwünschten Extraktionswert erzeugen, wenn dort tatsächlich Austausch und Interaktion stattfinden, die über eine bestimmte kritische Masse hinausgehen. Automatisierter Austausch zwischen Maschinen (Bots) kann das Soziale simulieren, aber solch ‚gefälschter‘ Verkehr erzeugt nur Wert, wenn er zusätzlich zu jenem von echten Nutzer*innen parasitär besteht; von ihnen isoliert wird er wertlos. Ohne Menschen, die Systeme administrieren, die moderieren, Software entwickeln und Netzwerke instand halten, würde jede Plattform zu funktionieren aufhören: Vergiss eine Korrektur im Code und das System bricht zusammen. Und während jede Person eine Webseite einrichten, eine App bedienen oder ein Netzwerk hosten kann, gibt es doch nur sehr wenige Menschen, die auf einer Meta-Ebene die Fähigkeiten und Ressourcen haben, um eine Plattform zu betreiben. In Shoshana Zuboffs The Age of Surveillance Capitalism (2019) wird ‚das Netzwerk‘ nicht einmal erwähnt. Vielleicht ist der Begriff zu trocken und technisch für Zuboff, die lieber Begriffe für Tiergruppen aus der Verhaltensforschung borgt, wie den „Stock“ [hive] oder die „Herde“. Diesen stellt Zuboff ein von ihr als spezifisch menschlich gerahmtes Bedürfnis nach dem „Zufluchtsort“ eines „Zuhauses“ entgegen. Denn – in ihren Worten: „[H]eute hat der Überwachungskapitalismus die menschliche Natur im Visier.“12 Die neue Front der Macht ist für Zuboff die Datenextraktion des „Verhaltensmehrwerts“, der neu verpackt und in Form von Vorhersagen verkauft wird. Denn die Logik des Überwachungskapitalismus ist genau jene der Extraktion-Vorhersage-Anpassung. Anders als viele Künstler*innen, Theoretiker*innen und Aktivist*innen einst fürchteten, ist es nicht das „soziale Rauschen“ unserer geschätzten informellen Beziehungen, der hier von Maschinen angeeignet (und somit gefährdet) wird: Das Hauptziel sind Köpfe, Gedanken und Verhalten. Für Zuboff haben sogenannte ‚soziale Medien‘ im Wesentlichen weder soziale noch vermittelnde Zwecke. Die Form des Netzwerks verkörpert hingegen eine konstruktivistische Sicht des Sozialen als weder technisches Protokoll noch als bloße Gegeben- 11 A.d.Ü. Bolter und Grusin meinen mit „remediation“ die Repräsentation eines Mediums in einem anderen. 12 Shoshana Zuboff, Das Zeitalter des Überwachungskapitalismus, übersetzt von Bernhard Schmid, Frankfurt a.M./New York: Campus Verlag, 2018, S. 405. Geert Lovink 34 heit, sondern als lebenswichtiges Element oder als Versorgungsleistung der Gesellschaft, die stets von Menschen neu erschaffen, instandgehalten und gepflegt werden muss: ansonsten brechen Netzwerke rasant schnell zusammen. Das steht in starkem Kontrast nicht nur mit der instrumentalistischen Sicht des Silicon Valley, sondern auch mit jenen der Naturwissenschafts- und Technikforschung (STS), deren Vertreter*innen einer Bewunderung für autopoietische Automatisierung fröhnen, bei der kein launenhaftes Hirn [cranky wetware] die Party zu versauen droht und für die Netzwerke das ‚allzu Menschliche‘ verkörpern: verletzlich, launisch, unvorhersehbar, manchmal langweilig oder auch exzessiv und – nun ja – manchmal außer Kontrolle. Diese Netzwerkeigenschaften können alle durch Moderation, Filterung, Zensur und algorithmisches Regieren gehandhabt und verwaltet werden; aber sie können nicht für immer beseitigt werden. Was geschieht, wenn wir beginnen, soziale Medien aus einer instrumentalistischen Perspektive zu betrachten und dieses Skinner’sche Dogma auf heutige Plattformen anwenden: „Eine Person wirkt nicht auf die Welt ein, die Welt wirkt auf sie ein“? Anders als die meisten kulturwissenschaftlichen Ansätze, die die neoliberale Subjektivität des konkurrierenden Selbst betonen, gibt es für Zuboff keine Individualität mehr: Als Teil der Herde sind wir darauf programmiert, zu tun, was unser digitaler Instinkt uns sagt. In ihrer klassischen soziologischen (von Durkheim geprägten) Sicht bleibt nur wenig Raum für Handlungsfähigkeit: Heutzutage werden wir neoliberalen Subjekte nicht länger als selbstbewusst Handelnde erachtet. Die guten alten Tage sind vorbei, als britische Kulturwissenschaftler*innen unter scheinbar passiven Konsument*innen die verborgenen – potenziellen und tatsächlichen – Fähigkeiten zur subversiven Aneignung entdeckten. Heute sind wir Milliarden, die online unterwegs sind, entweder als fleißige Bienchen verpönt, die für das Silicon Valley schuften, oder als Süchtige und Opfer der jüngsten Verschwörung zur Manipulation unserer Geschmäcker und Meinungen. Wir brauchen dringend diese Handlungsfähigkeit, die uns fehlt. Wie kam es zu dieser Netzvergessenheit? Wenn ein Netzwerk zu groß wurde, sollte es sich einst erst zersetzen, dann neu gruppieren und dann seine Struktur auf eine höhere oder Meta-Ebene replizieren, um ein ‚Netzwerk der Netzwerke‘ zu schaffen. Für jene, die an der Schwelle zu den 1990er Jahren zugegen waren, spielten sich einige dieser Dynamiken offenkundig und sichtbar ab. Heute klingen die grundlegenden Netzwerkprinzipien – Dezentralisierung, Verteilung, Zusammenschluss – noch immer idealistisch und großartig und doch unerreichbarer als je zuvor. Historisch gesprochen, begannen die Schwierigkeiten gleich nach der Hochphase ihres Einflusses. Als die Internetbevölkerung in den späten 1990er bis frü- Requiem für das Netzwerk. Medientheoretische Reflexionen 35 hen 2000er Jahren exponentiell zu wachsen begann, erreichte die Auffächerung ihren kritischen Punkt, als Nutzer*innen anfingen, alle zu denselben Webseiten zu strömen. Konzeptuell gesprochen, begann das Web 2.0 mit ‚skalenfreien Netzwerken‘, die einen Grad der Verteilung entsprechend des Potenzgesetzes aufwiesen. Die Einführung dieses Begriffs kennzeichnete eine paradigmatische Verschiebung, die das Ende der alten Vorstellung anzeigte, dass Netzwerke einfach eine Größenobergrenze hatten, nach deren Überschreitung sie zusammenfallen und beinahe ‚natürlicherweise‘ neue Knoten erzeugen würden.13 Der konzeptuelle Schritt von skalenfreien Netzwerken hin zur ‚Plattform‘ war ein kleiner, aber es dauerte beinahe ein Jahrzehnt, bis Tarleton Gillespie 2010 die ersten Regeln dessen formulierte, was die Ökonomie der Internetplattformen werden würde. Mathematik-basierte Netzwerkforschung hat ausgedient und schweigt sowieso über das ‚Gesetz des skalenfreien Mists‘. Die meisten Ingenieure, die das alles gebaut haben, schweigen nicht nur dazu, sondern beteuern ihre Unschuld. Der 8chan-Gründer Fredrick Brennan ist einer der wenigen, die öffentlich auch kritische Überlegungen äußern: „Es gibt diese Vorstellung, dass die besten Ideen dann aufkommen, wenn es eine schrankenlose Freiheit der Meinungsäußerung gibt. Aber ich glaube, das stimmt nicht mehr. Ich meine, ich habe mir 8chan angeschaut und war Admin – und es ist hier vielmehr so, dass letztlich jene Meme siegen, die am meisten Wut erregen.“ (Woolf 2019)14 Auch die Akteur-Netzwerk-Theorie konnte einfach nicht die hässliche Seite der Social-Media-Plattformen berechnen. Nichts davon hatte passieren sollen, auch als die Auslassung der politischen Ökonomie durch Latours Schule der ‚Kartierung ohne Anliegen‘ sich klar offenbarte. Seit den späten 1990er Jahren wurde zunehmend deutlich, dass Akademiker*innen 13 Siehe auch Danah Boyd über den Begriff des „Kontextzusammenbruchs“, der in der frühen Zeit des Web 2.0 aufkam. Danah Boyd, „how ‚context collapse‘ was coined: my recollection“, apophenia (8. Dezember 2013), http://www.zephoria.org /thoughts/archives/2013/12/08/coining-context-collapse.html. 14 Siehe auch das Werk von Alberto Brandolini, Begründer des „bullshit asymmetry principle“ [Gesetzmäßigkeit, derzufolge es schwieriger ist, falsche Behauptungen zu widerlegen, als sie in die Welt zu setzen]; Brandolinis Gesetz betont die Schwierigkeit, falsche Behauptungen anzufechten, die Entwicklung der Konzepte einer „intellektuellen Dienstverweigerung“ und eines „b/ad infinitum“ [einer schlechten Endlosigkeit]. Es bescheinigt „eine Tendenz bei Nicht-Expert*innen, Expert*innen mit wiederholten, teuren und häufig unproduktiven Forderungen nach Beweisen oder Gegenargumenten zu ausreichend widerlegten oder irreführenden Behauptungen zu überfordern“, Techiavellian (3. März 2019), https://techi avellian.com/intellectual-denial-of-service-attacks. Geert Lovink 36 und Theoretiker*innen nicht länger mit der übertriebenen Wachstumsstrategie des Silicon Valleys mithalten konnten, während dessen Wagniskapitalgeber im Stillen die Bewegung vom neoliberalen Markt hin zur Schaffung von Monopolen finanzierten, indem sie ‚Dinge zerstörten‘. Die Weisheit der Wenigen lautete, dass Wettbewerb etwas für Verlierer*innen ist. Die einst bemerkenswerte Einsicht, dass nicht-menschliche Wesen wie Bots ebenfalls Akteure sind, war nicht länger von Bedeutung. Der studentische Aktivist und Theoretiker Sepp Eckenhaussen in Amsterdam betont die Rolle von Netzwerken als Geschäftsmodell: „Netzwerke erzeugen Daten und Daten sind Geld. Es ist also klar, dass es hier nicht nur um gewöhnliche Nutzer*innen geht. In diesem Modell wird dem Netzwerk kontinuierlich Mehrwert entnommen. Das ist im Fall der sozialen Medien bekannt, geschieht aber auch in selbstorganisierten Solidaritätsnetzwerken. Diese Mechanismen scheinen [überall] da am besten zu funktionieren, wo gefährdete Subjekte stärker isoliert sind [als anderswo] und werden dort auch am stärksten spürbar, wie etwa in der Kunstszene: Die Sehnsucht nach Gemeinschaft macht uns zur leichten Beute. Die Bereitschaft, freigiebig zu teilen und ernsthafte Verbindungen aufzubauen, kann leicht zu einem ‚Einschluss der Gemeingüter‘ führen. Das zeigt sich zum Beispiel daran, wie leicht Akademiker*innen den Geschäften von academia.edu in die Falle gingen, nachdem sie all ihre Arbeit in dem vollen Vertrauen hochgeladen hatten, dass sie es in ihrem Netzwerk teilten und dass es keinen Missbrauch geben würde.“ (Maly 2018) Ob tot oder nicht – lasst uns das fortbestehende Potenzial von Netzwerken anerkennen. Der Datenschutzaktivist und -forscher Niels ten Oever, der mit Stefania Milan am Projekt Datactive arbeitet, betont deren unsichtbaren Aspekt: „Netzwerke ordnen unsere Leben, Gesellschaften, Maschinen und Städte. Wenn Netzwerke sich kundtun, dann werden sie auf beinahe burleske Weise sichtbar: Wir wollen sie sehen, wir wissen, sie sind da, und doch bleiben sie immer zumindest teilweise verborgen. Sie sind nicht gänzlich fassbar, egal, was wir auf die Netzwerke drauf bauen, damit sie miteinander verbunden, zentralisiert und einheitlich wirken. Die darunter liegenden Netzwerke zeigen sich in Zeiten der Veränderung, der Brüche und Krisen.“15 15 E-Mail-Austausch mit Niels ten Oever, 5. August 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 37 Für ten Oever existieren Netzwerke weiterhin und gedeihen am besten im Untergrund: „Das Netzwerk ist ein komplexes Gefüge, eine Vielheit mit rohen und unscharfen Kanten und es funktioniert nie wie erwartet. Es kann nie gänzlich erkannt oder verstanden werden. Nachdem sie in der Welt Chaos angerichtet haben […], ziehen sie sich dahin zurück, wo sie hingehören: in den Untergrund. Bewegungen, die auf Netzwerken beruhen, können zwei Schicksale ereilen: Entweder zerstreuen sie sich zurück in die verteilte Beschaffenheit des Netzwerks (wo sie sich weiter bewegen!) oder sie zentralisieren sich und werden vom Netzwerk selbst verbreitet, so dass sie in die Logik der Institutionalisierung münden. Wir sollten große Pläne hegen, aber niedrige Erwartungen. Es ist nichts falsch daran, sich im Untergrund zu bewegen.“16 Der euro-amerikanische Kulturkritiker Brian Holmes, seit mehr als zwei Jahrzehnten ein aktives nettime-Mitglied, hält das Netzwerk nach wie vor für lebendig: „Die Sache am gegenwärtigen Kommunikationsnetzwerk ist folgende: Jeder seiner menschlichen Knoten ist ein sozialisiertes Individuum, das aus einer tiefen kollektiven Zeit hervorgeht – ob dies nun Jahrhunderte oder Jahrtausende sind. Der Netzwerktheoretiker Manuel Castells lag auf spektakuläre Weise falsch: Das Netz und das Selbst stehen einander nicht ontologisch gegenüber, sondern sie sind stattdessen stets und auf allen Ebenen verwoben. Das bedeutet, wenn du willst, dass ein Netzwerk sich erfolgreich selbst organisiert, dann müssen dessen Mitglieder sowohl eine ausdrückliche Ethik als auch einen gemeinsamen kulturellen Horizont entwickeln, um die geerbten Überzeugungsund Verhaltensrahmen zu überwinden. Anarchist*innen wussten das schon praktisch, da ihre Gemeinschaften typischerweise von einer gewissen übergreifenden philosophischen Dimension sowie von sorgsam formulierten Codes für das tägliche Leben durchzogen sind. Am anderen Ende des politischen Spektrums wussten das auch islamistische Radikale: Sie beriefen sich auf uralte religiöse Überzeugungen und aktualisierte Scharia-Gesetze, um ihre Netzwerke zu knüpfen. Deshalb konnten solche Gruppen erfolgreich die frühen Runden vernetzter Politik anführen, die 1999 bzw. 2001 begannen. Währenddessen beschützten Medienaktivist*innen, mich eingenommen, die Vorstellung, 16 Ebd. Geert Lovink 38 dass das computer-verknüpfte Mediensystem einen klaren Bruch mit der Vergangenheit darstellte, solange es mit freier Software gebaut wurde. Wir sahen es als eine plötzliche Befreiung von den manipulierten Privatsendern, die spontane Organisierung so lange verhindert hatten. Und hier ist die andere Sache: Das entsprach einfach nicht der Wirklichkeit.“17 Holmes glaubt auch, dass wir noch immer in vernetzten Gesellschaften leben: „Ich verbringe noch immer viel Zeit damit, an technologischen Plattformen für selbstorganisierende Netze zu arbeiten, wie die Karte und das Geo-Blog, die ich gerade für das Netzwerk Anthropocene River erstelle. Es ist aber klar, dass vernetzte Kulturen nicht aus technologischen Erfindungen heraus entstehen, wie dem Mikroprozessor oder TCP/IP. Stattdessen werden sie von Menschen gemacht, die kollektiv arbeiten, um nicht nur technische Werkzeuge zu verändern, sondern auch ihren kulturellen Horizont – und vor allem ihre Alltagscodes und ethischen Verhaltensweisen. Wie können wir solche grundlegende kulturelle und philosophische Arbeit leisten und zugleich die komplexen Technologien beachten, von denen die meisten alltäglichen Interaktionen heute abhängen? Hier läuft gerade jetzt die politische Frage zusammen.“18 Der Mailänder Alex Foti denkt, dass „die Unterscheidung [zwischen dem] technischen [Netzwerk und dem] sozialen Netzwerk mittlerweile verschwommen ist, da die politischen und ethischen Aspekte algorithmischer Technologie sich herausgestellt haben.“19 Er drängt darauf, unsere eigenen Plattform-Parteien und -Organisationen zu bilden, denn: „Isolierte Einzelpersonen in den sozialen Medien sind weniger stark als intrigante Kräfte, die auf Bot-Armeen und kontinuierliche Medienmanipulation zurückgreifen. Online-Plattformen sind die schnellste Möglichkeit, um Mitglieder und Macht zu gewinnen. Föderalismus liegt im Herzen des Europäischen Projektes, aber er ist nicht das Gleiche wie Horizontalismus. Wir brauchen eine Bundesrepublik Europa, föderierte Hacker*innen der Union, verbundene Kollektive aus Xenofeminist*innen etc. Es ist an der Zeit, Wirksamkeit über Rechtschaf- 17 E-Mail-Austausch mit Brian Holmes, 7. August 2019. 18 Ebd. 19 E-Mail-Austausch mit Alex Foti, 28. August 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 39 fenheit zu stellen. Systemkritische Kräfte brauchen intellektuelle Debatte, aber auch eine gemeinsame Linie und besonders disziplinierte lokale Kader, die bereit sind, gegen den fossilen Kapitalismus für den Planeten zu kämpfen. Das bedeutet die Entwicklung einer grünen antikapitalistischen Ideologie, die den Kämpfen der Menschen Bedeutung verleiht, und einer Organisation, die diese Ideologie verkörpert und umsetzt, besonders, wenn nach der ökologischen Katastrophe der Bürgerkrieg ausbricht.“20 Was aus dem Flickwerk an Erfahrungen der letzten Jahrzehnte hervorgeht, ist ein neues Konzept der netzwerk-betriebenen technischen Freiwilligkeit. Vergiss automatisierte Prozesse und Pflicht-Updates. Die Stärke eines Netzwerks liegt nicht darin, seine Teilnehmer*innen zu informieren – Information führt nicht zu Handlung. Das bringt uns zurück zur Kernfrage der Organisation gleichgesinnter Gemüter, die zusammenkommen, um zu handeln, und zu all den damit verbundenen Annahmen, die auseinandergenommen werden müssen. Wie entstehen solche ‚Zellen‘? Können wir Paranoia und fehlendes Vertrauen gegenüber Fremden überwinden und beginnen, uns mit ‚dem Anderen‘ so zu verhalten, dass Filterblasen sich öffnen? Können wir kosmopolitische Plattformen errichten, die lokale Netzwerke ermöglichen, um zusammenzuarbeiten an, ja, der unmittelbaren Peer-to-Peer-Produktion von gemeinsamer Versorgung? Wir wissen, wie wir Informationen austauschen, wie wir kommunizieren können; jetzt ist es nötig, dieses Wissen praktisch für Anliegen einzusetzen. Wir brauchen keine Updates mehr. Clusterduck, das europäische Kollektiv für Gegen-Meme, führt zur Verteidigung von Netzwerken die folgenden Taktiken an: „Unsere digitalen Communitys erfahren ständig Formen des Eingriffs, der Verschmutzung, der Aneignung. Netzwerke sind nicht tot und doch werden sie beerdigt. Es gibt kein Recht zu netzwerken, es muss durch Praktiken der Analyse, der Entführung und Wiederaneignung in Anspruch genommen werden. Von den Bulletin Board Systems [elektronisches schwarzes Brett] bis zum Web 2.0 hat sich die menschliche Fähigkeit zur Kooperation immer weiter entwickelt und den einfachen Definitionen getrotzt. Heute als Netzwerk zu überleben erfordert einen zunehmend komplexen Werkzeugkasten an Praktiken: Auf der Grundlage eines Twitter- Hashtags eine Bewegung starten, um das Gefühl einer steten URL-Ak- 20 Ebd. Geert Lovink 40 tivität zu vermitteln; den YouTube-RetroPlayer-Algorithmus kapern, um sicherzustellen, dass die Videos von Rechten von entlarvenden Videos gefolgt werden, die radikalisierte Nutzer*innen womöglich aus dem sogenannten „rechten Trichter“ wieder herausholen können; Momente organisieren, in denen Netzwerke sich im wirklichen Leben treffen können, um die Verbindungen zwischen ihren Nutzer*innen zu strukturieren, zu feiern und zu stärken; auf Mainstream-Plattformen wie Facebook oder Reddit Themengruppen gründen und verwalten, um Nutzer*innen und Communitys von dort wegzulocken und sie zu alternativen sozialen Plattformen wie Mastodon, Discord oder Telegram umzuleiten; die Geschichte von Web-Communitys und Subkulturen analysieren, um ihre Netzwerktechniken kennenzulernen, und ihre Entwicklung rückverfolgen, um Prozesse der feindlichen Aneignung, Kooptierung und Entführung zu verstehen, die sie durchlaufen haben; durch friedensstiftende und entlarvende Kommentare die Kreisläufe des Hasses durchbrechen, die von Bots und bezahlten Trolls ausgelöst werden, um den Zwist und Lärm um ‚umgekehrte Zensur‘ mit Bedeutung zu versehen; gegenwärtige Designs und Codes nutzen, um unsere Botschaften zu transportieren, Meme und mem-artige Narrative produzieren, die sich durch Filterblasen hindurch bewegen können, um Gemeinschaften in Kontakt zu bringen, die sich sonst nie begegnen würden; neue Erzählungen erkunden und die Bedeutung der artenübergreifenden Zusammenarbeit und unserer symbiotischen und parasitären Beziehungen mit anderen Arten hervorheben, die es uns ermöglichen, gemeinsam zu evolvieren. ‚Niemand von uns ist stärker als wir alle‘, war nie lebendiger.“21 All dies führt mich zu der Frage, wie ich auf Netzwerke (zurück)blicke. Bin ich bereit, den Namen meines Forschungsinstituts – des Institute of Network Cultures – auszuschlachten, um eine Erklärung abzugeben? Ist dies ein Requiem ohne Folgen, wie ein Lied zum Mitsingen, das eine Weile in uns nachklingt, bevor wir es vergessen? Sollte ich einfach loslassen oder habe ich irgendeine emotionale Anhaftung an den Begriff? Wenn das Konzept nicht länger funktioniert, sollte es dann einfach verworfen werden? Es stimmt, dass unser Institute of Network Cultures im letzten Jahrzehnt keine ‚Plattform‘ aufgesetzt hat – vielleicht hätten wir das tun sollen. Stattdessen habe ich das Konzept des Netzwerks von Innen zu stärken versucht, um das unbestimmte Wesen von Netzwerken zu überwinden. Seit 2005 21 Erklärung des Clusterduck-Kollektivs, 17. August 2019. Requiem für das Netzwerk. Medientheoretische Reflexionen 41 habe ich mit Ned Rossiter an der Idee von „organisierten Netzwerken“ gearbeitet. Unser Buch Organization After Social Media, in dem wir unsere Thesen zusammengebracht haben, erschien 2018 (Lovink/Rossiter 2018). Darin besprechen wir absichtlich nicht, inwiefern Netzwerke zur Vergrö- ßerung taugen. Stattdessen schlagen wir vor, dass das Problem der „schwachen Verknüpfungen“ womöglich überwunden werden kann, indem wir die diffusen Netzwerke zurücklassen, zu deren Eigenschaften sie gehören, und nur mit kleineren, engagierten Online-Gruppen arbeiten, die auf „starken Verknüpfungen“ beruhen. Der proklamierten Leichtigkeit, in Nullkommanichts eine kritische Masse zu erreichen, und dem gegenwärtigen Begehr, an einem einzigen Tag aus dem Nichts zum Helden zu werden, stellen wir die Vorstellung von einer Avantgarde-Zelle oder Ideenschmiede entgegen, die an ihrem jeweiligen Thema dranbleibt. Es gibt hier eine Verschiebung in Richtung von Organisationen, die bestimmte Werkzeuge brauchen, um Dinge zu tun. Organisierte Netzwerke erfinden neue institutionelle Formen, deren Dynamiken, Eigenschaften und Praktiken der Betriebslogik von Kommunikationsmedien und digitalen Technologien innewohnen. Sie reagieren unter anderem auf eine breite gesellschaftliche Ermüdung und ein zunehmendes Misstrauen gegenüber Institutionen wie Kirchen, politischen Parteien, Firmen und Gewerkschaften, die hierarchische Organisationsformen beibehalten. Obwohl sie nicht ganz ohne hierarchische Tendenzen auskommen (Gründungsteam, Systemarchitekturen, zentralisierte Infrastrukturen, Persönlichkeitskulte), neigen organisierte Netzwerke dazu, sich stärker an horizontalen Kommunikations-, Praxis- und Planungsformen auszurichten. Organisierte Netzwerke entstehen in Zeiten intensiver Krisen (gesellschaftlich, wirtschaftlich, ökologisch), wenn vorherrschende Institutionen an ihrer Kernaufgabe – der Entscheidungsfindung – scheitern. Als Experimente der kollektiven Praxis in Verbindung mit digitalen Kommunikationstechnologien sind organisierte Netzwerke Testfelder für vernetzte Formen des Regierens. Sie könnten versuchen, die rapide Talfahrt unserer Welt in den planetarischen Abgrund anzugehen. Ist die Plattform der historisch notwendige nächste Schritt oder ist sie eher eine Anomalie? Wenn die Allgegenwärtigkeit von digitaler Technologie in einer vorhersehbaren Zukunft gegeben bleibt, was sollen wir dann aus der 1990er-Netzwerknostalgie schließen? Ist eine Renaissance der dezentralisierten Infrastrukturen, die von ihren Communitys aktiv eingenommen und verteidigt werden, eine tragfähige Option? Was passiert, wenn wir entscheiden, uns massiv dafür einzusetzen, die ‚freien‘ Plattformen und ihre Kulturen von unterbewusster Bequemlichkeit zu befreien und tatsächliche Werkzeuge zu verteilen – gemeinsam mit dem Wissen, Geert Lovink 42 wie sie genutzt und erhalten werden können? Digitale Technologien sind zu einem lebenswichtigen Teil unseres Soziallebens geworden und sollten nicht ausgelagert werden. Dies kann nur überwunden werden, wenn „digitaler Bildung“ (die im vergangenen Jahrzehnt den Bach runterging) zur Priorität wird. Gesellschaften zahlen einen hohen Preis für die Bequemlichkeit von Smartphones. Bald werden sich nur noch wenige die eingebaute Unbestimmtheit der Netzwerklogik leisten können. Koordination ist ebenso notwendig wie Debatten mit Konsequenzen. Bislang haben soziale Medien die Entwicklung von Software zur demokratischen Entscheidungsfindung grob vernachlässigt. Ziellos das Internet zu durchstreifen, wird zunehmend uninteressant erscheinen; die ultimative Kritik von Social-Media-Plattformen wird sein, dass sie langweilig sind. Da sind wir noch nicht, aber der Ruf nach dem Ausstieg wird lauter. Es wird dringendere und aufregendere Dinge zu tun geben: Welche Werkzeuge bringen uns der Wonne des Handelns näher? Netzwerke sind nicht dazu bestimmt, nach innen gerichtete, autopoietische Mechanismen zu bleiben. Wenn Situationen einmal in Bewegung sind, können wir Netzwerk und Ereignis nicht länger unterscheiden oder sagen, was zuerst kam – solche Fragen sollten wir den Datenanalyst*innen (aka Historiker*innen) überlassen. In Der Pilz am Ende der Welt fragt Anna Lowenhaupt Tsing (2019: 45): „Wie wird eine Ansammlung zum ‚Ereignis‘ werden, das heißt, größer als die Summe ihrer Teile? Eine Antwort ist: Kontamination. Wir sind durch unsere Begegnungen kontaminiert; sie ändern, was wir sind, indem wir anderen Platz einräumen. Aus der Tatsache, dass welterzeugende Bestrebungen durch Kontamination verändert werden, könnten gemeinsame Welten – und neue Richtungen – erwachsen.“ Literatur: Adorno, Theodor W. (1971): Erziehung nach Auschwitz (1966). In ders.: Erziehung zur Mündigkeit, Vorträge und Gespräche mit Hellmuth Becker 1959–1969, herausgegeben von Gerd Kadelbach, Frankfurt am Main: Suhrkamp, 1971, S. 92– 109, S. 96. Baudrillard, Jean (2000): Der unmögliche Tausch, aus dem Französischen von Markus Sedlaczek. Berlin: Merve, S. 70. Boyd, Danah (2013): „How ‚context collapse‘ was coined: my recollection“. In: apophenia (8. Dezember 2013), http://www.zephoria.org/thoughts/archives/2013/12/08/ coining-context-collapse.html (Abfrage am 18.08.2020). Requiem für das Netzwerk. Medientheoretische Reflexionen 43 Dillet, Romain (2018): The Year Social Networks Were No Longer Social – In Praise of Private Communities. In: TechCrunch (23. Dezember 2018), https://techcrunch.c om/2018/12/23/the-year-social-networks-were-no-longer-social/ (Abfrage am 18.08.2020). Haraway, Donna J. (2018): Unruhig bleiben – Die Verwandtschaft der Arten im Chthuluzän. Berlin/Frankfurt a.M.: Campus, 2018 [2016]. Hugh Smith, Charles (2019) Which One Wins: Central Planning or Adaptive Networks? In: Of Two Minds, 19. Februar 2019, https://www.oftwominds.com/blogf eb19/evolution-wins2-19.html (Abfrage am 18.08.2020). Lawrence, Jon (2019): The Good Old Days? Look Deeper and the Myth of Ideal Communities Fades. In: The Guardian (11. August 2019), https://www.theguardian.co m/commentisfree/2019/aug/11/good-old-days-look-deeper-and-myths-of-ideal-co mmunities-fades (Abfrage am 18.08.2020). Lovink, Geert (2019): Sad by Design. London: Pluto Press. Lovink, Geert / Rossiter, Ned (2018): Organization After Social Media. Colchester: Minor Compositions, 2018. Lowenhaupt Tsing, Anna (2019): Der Pilz am Ende der Welt. Berlin: Matthes & Seitz, 2019, S. 45. Maly, Ico (2018): The end of Academia.edu: how business takes over, again. In: diggit magazine, 22. Februar 2018, https://www.diggitmagazine.com/column/end-acad emiaedu-how-business-takes-over-again (Abfrage am 18.08.2020). Marchert, Oliver (2005): Neu Beginnen. Wien: Verlag Turia + Kant, S. 18–19. Minichbauer, Raimund (2018): Facebook entkommen. Wien: Transversal Texts, S. 101–103. Woolf, Nicky (2019): Destroyer of worlds: How a childhood of anger led the founder of 8chan to create one of the darkest corners of the internet. In: Tortoise Media, 29. Juni 2019, https://members.tortoisemedia.com/2019/06/29/8chan/content.html (Abfrage am 18.08.2020). Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus, übersetzt von Bernhard Schmid. Frankfurt a.M./New York: Campus Verlag, S. 405. Zuckerberg, Mark (2017): Building Global Community. In: Facebook, 16. Februar 2017, https://www.facebook.com/notes/mark-zuckerberg/building-global-comm unity/10154544292806634 (Abfrage am 18.08.2020). Geert Lovink 44 Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen Christian Schicha Abstract Digitale Souveränität bezieht sich auf die normative Kategorie der Selbstbestimmung, die nicht nur der Kommunikations- und Medienwissenschaft oder Moralphilosophie zuzuordnen ist, sondern auch die Diskurse in der Soziologie, der Politischen Theorie, der Psychologie oder der Rechtswissenschaft prägt. Dabei stellt die Selbstbestimmung zunächst das Recht des einzelnen Individuums in den Mittelpunkt. Hier spielt im digitalen Zeitalter das Recht auf informationelle Selbstbestimmung etwa in Bezug auf die Speicherung der eigenen Daten aus juristischer Perspektive eine entscheidende Rolle. Es ist zentral, dass die Rahmenbedingungen die Möglichkeit zulassen, die individuelle wie auch kollektive Selbstbestimmung durchzuführen. Konkret geht es darum, dass der Einzelne und die Gesellschaft in die Lage versetzt werden, das Leben nach den eigenen Vorstellungen und Bedürfnissen zu gestalten. Die Menschen – so der Anspruch – sollen die Möglichkeit erhalten, an einer gemeinsamen Meinungs- und Willensbildung mitzuwirken, um das eigene Wohlergehen zu optimieren. Einleitung Die Digitalisierung liefert eine Reihe von medienethischen Herausforderungen. Neben Fragen des Datenschutzes und der Datensicherheit sind auch Aspekte des Jugendschutzes relevant. Pornographisches, gewalttätiges und diskriminierendes Material ist online ständig verfügbar (vgl. Gangloff 2001, Schuegraf/Tillmann 2012). Gefälschte Nachrichten verbreiten sich rasant im Internet, wobei die Verfasser in vielen Fällen nicht identifiziert werden können. Algorithmen und Social Bots prägen Diskurse im Netz und suggerieren menschliche Kommunikationsprozesse, die faktisch durch Computerprogramme generiert werden (vgl. Otto/Gräf 2018, Schicha 2018 und 2019). Kommunikation im Internet ist also mit erheblichen Risiken verbunden. Sie ist eine ideale Plattform für Verschwörungstheorien, Gerüchte, Lügen und falsche Anschuldigungen (vgl. Seidler 2016). Es werden negative Bewertungen vorgenommen, die auch dann 45 schwer zu entfernen sind, wenn sie sich als unangemessen und haltlos herausstellen. Vertreter neuer sozialer Bewegungen und so genannte normale Bürger können ihrem Ärger über Blogs im Internet Raum geben, sich mit Gleichgesinnten via Twitter vernetzen und damit eine hohe öffentliche Aufmerksamkeit erreichen, die der Reputation von Beschuldigten Schaden zufügen kann. Im Gegensatz zu den klassischen Medien zeichnet sich die Online-Kommunikation durch einen höheren Beschleunigungsgrad und die Möglichkeit von unmittelbaren Anschlussdiskursen und Feedbackmöglichkeiten aus. Die Anzahl der Falschmeldungen, Verschwörungstheorien und Beschimpfungen gegenüber Personen, Organisationen und Institutionen nimmt stetig zu. Die Folgen für die Betroffenen sind bisweilen dramatisch. Über eigene Blogs und soziale Netzwerke ist es technisch unkompliziert und kostengünstig möglich, diskreditierende Inhalte anonym ins Netz zu stellen und somit erheblichen Schaden anzurichten. Es wird in diesem Kontext ein Verlust an digitaler Autonomie konstatiert, die „als selbstbestimmtes Handeln in der privaten interpersonalen digitalen Kommunikation“ (Meier 2018: 407) klassifiziert wird. Faktisch liegt aber ein Kommunikationsüberfluss vor, der ebenso zu einem Kontrollverlust wie zu einer Fremdbestimmung führen kann (vgl. Müller/Zillich 2018). Digitale Souveränität Das souveräne Individuum „Der moderne Souverän ist vielleicht der historisch erste, der sich durch Geschichte nicht gebunden sieht, dessen Bestreben geradezu dem Losbrechen von historischen Vorgaben und Verpflichtungen gilt und der den Anspruch erhebt, die Zukunft neu, anders, souverän, autonom und rational zu gestalten.“ (Rosa 2019: 39) Der Soziologe Rosa verweist in diesem Statement auf die Individualisierung in der Moderne, die als Prozess einer gesellschaftlichen Ausdifferenzierung verstanden werden kann und einen Verlust an verbindlichen Sicherheiten zur Folge haben kann. Beziehungsarrangements im persönlichen und beruflichen Kontext werden in Eigenleistung ausgehandelt, stabile Handlungsorientierungen an Modellen der Elterngeneration, die einst Bezugs- und Anknüpfungspunkte der Lebensführung boten, sind nicht mehr vorhanden. Das Individuum befindet sich heute in keiner Solidarge- 1. 1.1 Christian Schicha 46 meinschaft mehr, die eine vergleichbar hohe Integrationskraft wie einstmals die Religion oder Herkunftsfamilie besaß. Sozialkontakte werden nicht mehr zwingend durch Gewohnheit und Sitte determiniert, sondern individuell und selbstständig ausgehandelt. Neben der Pluralisierung der Lebensformen ergeben sich auch eigenständige und unabhängige Entscheidungen in Bezug auf das politische Handeln und die Mediennutzung (vgl. Schicha 1996). Daraus folgt aber nicht, dass das Selbst in diesem Verständnis mit Egoismus, Gier und Eigennutz verbunden sein muss. Es geht vielmehr um die Organisation der eigenen Lebensentwürfe in Bezug auf die individuelle Selbstverwirklichung, die auch die Selbstverantwortung einschließt (vgl. Lotter 2015, Gerhardt 2018). Aus der Perspektive der Humanpsychologie erklärt sich menschliches Handeln aus gestuften Bedürfnissen heraus. Das Modell der Bedürfnispyramide sieht fünf Ebenen vor. Nach den Grund- und Existenzbedürfnissen folgen die Sicherheit, das Sozialbedürfnis sowohl Anerkennung und Wertschätzung, bevor auf der fünften Stufe die Selbstverwirklichung erreicht werden kann (vgl. Maslow 1981). Motivationspsychologische Ansätze sehen in der Selbstbestimmung neben dem Autonomieerleben auch das Bedürfnis nach Kompetenz und den Wunsch nach sozialer Verbundenheit trotz nachlassender Bindungen (vgl. Wessler/Haffner/Rinke 2018). Der politische Souverän Es ist zu differenzieren zwischen Formen und Ausprägungen individueller Souveränität in Form von Selbstbestimmtheit, Selbstständigkeit, Unabhängigkeit, Eigenständigkeit und Eigenverantwortlichkeit sowie staatlicher Souveränität, bei dem das Volk in unabhängigen und demokratisch legitimierten Wahlen über die Rahmenbedingungen für einen Rechtsstaat entscheidet (vgl. Köchler 2014). Mit der Gründung der Bundesrepublik Deutschland hat die Frage der nationalen Souveränität an Relevanz gewonnen. Der Einfluss fremder Staaten und Privatunternehmen spielt hierbei eine zentrale Rolle. Auf staatlicher Ebene gilt der mündige Staatsbürger – unabhängig von technologischen Standards – aus einer politikwissenschaftlichen Perspektive dann als Souverän, sofern er fähig ist, selbstbestimmt und unabhängig autonome Wahlentscheidungen nach seinem eigenen Interesse zu treffen. Zudem sind Staaten in der Lage, Entscheidungen zu bewerkstelligen, die die Souveränität eines Landes stärken. 1.2 Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 47 Aus einer medienethischen Perspektive ist hingegen zentral, welche Kriterien für eine digitale Souveränität bei den Mediennutzern gelten sollen (vgl. Adamski 2016). Der souveräne Mediennutzer Medienkompetenz wird aus einer medienpädagogischen Perspektive als „Befähigung zur souveränen Lebensführung in einer mediatisierten Gesellschaft“ (Schorb/Wagner 2013: 18) klassifiziert. Brüggen (2014) weist darauf hin, dass es bei der Souveränität neben der Fähigkeit auch auf die Selbstbestimmung der agierenden Individuen ankommt. Im Online-Zeitalter wird eine Online-Privatheitskompetenz gefordert, die eine Kombination aus faktischen Privatheitswissen, privatheitsbezogener Reflexionsfähigkeit, datenschutzbezogenen Fähigkeiten und privatbezogener Kritikfähigkeit umfasst (vgl. Masur 2019). Der medienethische Ansatz „Aufs Ganze gesehen ist die Ethik eine Selbstaufklärung des Individuums in praktischer Absicht. Sie zielt letztlich auf nichts mehr oder weniger als auf die Selbstsicherheit, die ein Individuum gewinnt, das unter dem Anspruch lebt, ein nachdenkliches und vorausschauendes Wesen zu sein […]“ (Gerhardt 2018: 105). Es geht im Leben des mündigen Individuums in Anlehnung an Kant (1785/1986) um die aktive Selbstbestimmung des freien Lebens aufgrund eigener guter Gründe auf der Basis von gut begründeten Bewertungskategorien, die auch als selbstständige Konsumentensouveränität klassifiziert werden kann. Die kommunikative Ethik nimmt in Bezug auf die Souveränität aus einer normativen Perspektive eine Ableitung grundlegender Ansprüche aus den wünschenswerten Voraussetzungen zwischenmenschlicher Kommunikationsprozesse vor (vgl. Fenner 2010). Hieraus resultieren Rechte auf • Rede-, Meinungs- und Informationsfreiheit • Informationelle Gerechtigkeit • Informationelle Grundversorgung • Informationelle Selbstbestimmung 1.3 1.4 Christian Schicha 48 Grundsätzlich kann die Gestaltung einer demokratischen Kommunikationsordnung ebenso einen produktiven Beitrag für die Redefreiheit leisten wie die Errichtung von Strukturen, die eine Medienkompetenz ermöglichen (vgl. Ash 2016). Geteilte kommunikative Räume können dazu beitragen, „Fake News“ und Desinformationen zu vermeiden und demokratisches Zuhören zu bewerkstelligen. Soziale Verbundenheit kann dazu beitragen, eine kollektive Selbstbestimmung – etwa durch zivilgesellschaftliche Initiativen der Problembearbeitung, z.B. von Hassreden, durch diskursive Austauschprozesse zu erreichen (vgl. Wessler/Haffner/Rinke 2018). Zugleich ist es für neue soziale Bewegungen ohne großen finanziellen und technischen Aufwand möglich, ihren Protest politisch zu artikulieren, Hashtags und E-Petitionen zu publizieren und somit am öffentlichen Diskurs zu partizipieren. Nichtregierungsorganisationen können Kampagnen im Internet initiieren. Neben der Teilhabe an politischen Debatten durch die technischen Möglichkeiten sozialer Medien entstehen zahlreiche Aktivitäten in Form von Fotos, Texten und Videos, die letztendlich den Wert einer Plattform bestimmen. Neben der reinen Mittlerrolle greifen die Plattformen auf die dort abgelegten Daten zurück und nutzen diese strategisch. Somit besteht immer die Problematik, dass die Selbstdarstellung im Netz dazu genutzt wird, persönliche Daten kommerziell zu nutzen (vgl. Baringhorst 2015). Die notwendige Beachtung der allgemeinen Geschäftsbedingungen der Plattformanbieter führt dazu, dass die kostenlos eingestellten Dokumente in Form von personenbezogenen Daten über Informationen von Vorlieben, Interessen, Aktivitäten von den Plattformen aktiv genutzt und weitergegeben werden. Somit ist es möglich, Vorhersagen über die zukünftigen Präferenzen, z.B. hinsichtlich der Konsumgewohnheiten zu prognostizieren und eine entsprechend zielgerichtete Ansprache sowie Werbung für den einzelnen Nutzer anzubieten, was datenschutzrechtlich problematisch sein kann (vgl. Hagen 2018). Selbstbestimmung und Souveränität sind eng miteinander verbunden. Der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom) als Branchenverband der deutschen Informations- und Telekommunikationsbranche definiert Souveränität wie folgt: „Unter dem Begriff ‚Souveränität‘ versteht man allgemein die Fähigkeit zu ausschließlicher Selbstbestimmung. Diese Selbstbestimmungsfähigkeit wird durch Eigenständigkeit und Unabhängigkeit gekennzeichnet. Sie grenzt sich einerseits von Fremdbestimmung und andererseits von Autarkie ab.“ (Bitkom 2015a: 7) Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 49 Daran anknüpfend beschreibt Krainer (2018) den Prozess einer kollektiven Autonomie als Entwicklung, bei der sich die Gemeinschaft die Fähigkeit zum Selbstbewusstsein und zur Reflexion herausarbeitet, um anstehende ethische Fragen angemessen entscheiden zu können und Fremdbestimmung zu verhindern. Es geht dabei um die diskursive Möglichkeit einer chancengleichen Teilhabe der beteiligten Akteure, bei denen Konflikte in zivilisatorischer Form ausgetragen werden können: „Wir benötigen einen Diskurs, einen niveauvollen, also fair und mit Sachargumenten geführten Streit um gemeinsame Belange, Werte und Normen des Zusammenlebens.“ (Stapf/Prinzing/Filipovic 2017: 11) Politische Statements Gleichwohl hat u.a. das Ausspähen der Daten von Nutzern dazu geführt, dass die Sensibilität gegenüber den Risiken und Nebenwirkungen der Digitalisierung gewachsen ist. Um Vertrauen in die Netzwerkgesellschaft wiederherzustellen, wird digitale Souveränität unabhängig von der gleichnamigen Gruppe als ein Leitbild formuliert, das hierzu einen konstruktiven Ansatz leisten soll (vgl. Friedrichsen/Bisa 2016). Neben Sigmar Gabriel, Brigitte Zypries (beide SPD) und Thomas de Maizière (CDU), den Ministern, der vergangenen Legislaturperiode, die sich als politisch Verantwortliche mit netzpolitischen Themen befassten, haben sich eine Reihe weiterer Politiker zum Thema der digitalen Souveränität geäußert. Dazu gehören Netzpolitiker wie Lars Klingbeil (SPD), Jimmy Schulz (FDP) und Thomas Jarzombek (CDU), der ehemalige Europapolitiker Jan Philipp Albrecht (Bündnis 90/Die Grünen) und Ex-CDU-Generalsekretär Peter Tauber (CDU) sowie die Staatsministerin für Digitalisierung Dorothee Bär (CSU) (vgl. Gräf/Lahmann/Otto 2018). Bereits 2013 hat der ehemalige Bundesminister Alexander Dobrindt (CSU), der für Verkehr und digitale Struktur zuständig war, folgendes Statement benannt: „Wir müssen wieder Vertraulichkeit im Netz garantieren können und als Deutsche und Europäer unsere digitale Souveränität zurückgewinnen. Dafür werden wir viel Geld ausgeben müssen.“ (Kempf/ Bitkom: 6) Der EU-Kommissar Oettinger (2015) von der CDU benennt einige Defizite und fordert die Politik auf, konkrete Ziele zu verfolgen, um digitale Souveränität zu erreichen: „Wir haben derzeit keine europäische, keine deutsche, keine eigene digitale Souveränität und zu wenig digitale Autorität. Die zu gewinnen, 1.5 Christian Schicha 50 muss ein Ehrgeiz Europas sein [...] Ein Weckruf dafür ist notwendig. Und wir bieten seitens der Europäischen Kommission an, das Ganze zu koordinieren, zu moderieren und zu erreichen, dass Europa [...] aus dem Tiefschlaf erweckt wird [...], um Wertschöpfung bei uns zu halten, zurückzukehren zu einer digitalen Souveränität und stärkerer digitaler Autorität.“ Im aktuellen Koalitionsvertrag zwischen CDU, CSU und SPD (2018: 40) wird dieser Punkt erneut aufgegriffen: „Als besonders wichtig erachten wir Innovation, digitale Souveränität und Interdisziplinarität.“ Die IT-Sicherheit soll gestärkt werden. Forschungsschwerpunkte wie künstliche Intelligenz, Digital Humanities und Robotik werden in diesem Zusammenhang explizit benannt. Data Science soll besonders an den Hochschulen ausgebaut werden. Zudem sollen die Chancen der Digitalisierung dahingehend genutzt werden, den Beschäftigten eine höhere Zeitsouveränität zu ermöglichen. Weiterhin ist vorgesehen, die Datensouveränität auf europäischer Ebene im Rahmen der E-Privacy-Verordnung zu stärken. Insgesamt werden positive Zukunftsaussichten prognostiziert: „Wir wollen Neugier auf digitale Technologien wecken und Souveränität im Umgang mit ihnen schaffen. Wir sind überzeugt, dass sie das Leben der Menschen verbessern können und brauchen sie als Antwort auf die großen und globalen Herausforderungen. Um sie zu lösen, wollen wir Deutschland und Europa beispielgebend für die Leistungsfähigkeit und Strahlkraft freier Gesellschaften im digitalen Zeitalter gestalten.“ (Koalitionsvertrag zwischen CDU, CSU und SPD 2018: 37) Grundsätzlich stellt sich nach diesen allgemeinen politischen Statements und Hoffnungen die Frage, welche normativen Anforderungen mit der digitalen Souveränität für die konkrete Praxis in Verbindung gebracht werden. Handlungsfelder Rössler (2017) weist darauf hin, dass es bei der Analyse und Interpretation der informationellen Privatheit und ihren Gefährdungen um den Zusammenhang zwischen Informationskontrolle, Autonomie, Selbstdarstellung und Identität geht. Dabei sieht sie u.a. drei Möglichkeiten, die die Gefährdung informationeller Privatheit bedingen: 1.6 Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 51 • Die staatliche Überwachung durch Geheimdienste • Die Konsumentenüberwachung (Sammeln, Analysieren, Verwendung und Verkauf von persönlichen Daten) • Die freiwillige Herausgabe von Fakten durch das Teilen von persönlichen Informationen in sozialen Netzwerken. Faktisch ist somit die Autonomie und die für die informationelle Privatheit erforderliche Kontrolle gefährdet, da die Daten der Betroffenen auch kommerziell genutzt werden können: „Denn die auf den Plattformen gespeicherten Daten werden gespeichert, wiederverwendet, analysiert und vor allem an Dritte verkauft.“ (Rössler 2017: 301) Dies wird dann profitabel, wenn möglichst umfassende Datenweitergabe von Personen dazu beitragen, spezifische Profile zu erstellen, die eine zielgerichtete Werbung ermöglichen. Streuverluste klassischer Werbemaßnahmen, die sich an die breite Öffentlichkeit richten, werden somit vermieden. Schwall-Düren (2015: 8) richtet den Blick in die Zukunft und plädiert für eine stärkere Handlungsautonomie sowie Selbstbestimmung der Bürger im digitalen Zeitalter. „Wenn Big Data darüber entscheidet, wie beispielsweise mein zukünftiges Konsum- und Informationsverhalten, meine Kreditwürdigkeit oder auch mein zukünftiger Bildungsweg sein wird, dann brauchen wir eine gesellschaftliche und politische Auseinandersetzung über Ziele und Grenzen. Es geht um Transparenz, um Aufklärung und auch um politisches Handeln. […] Politisches Handeln muss sich gegen einen technologischen Determinismus des Menschen wenden, eine Haltung, bei der Technologie unseren Handlungsraum festlegt und nicht wir selbst. Denn der fortschreitende Einsatz von Big Data-Technologien fordert unsere Souveränität, Selbstbestimmung und Freiheit heraus. Deshalb sind digitale Mündigkeit und Bildung von großer Bedeutung.“ In diesem Kontext werden eine Reihe von Forderungen und Ziele formuliert, die nachfolgend dargelegt werden. Postulate Dem Bundesverband Informationswirtschaft, Telekommunikation und neue Medien Bitkom (2015a und b) zufolge wird unter dem Begriff der Souveränität im Allgemeinen die Fähigkeit zu ausschließlicher Selbstbestimmung zugeschrieben, die durch Eigenständigkeit und Unabhängigkeit 1.7 Christian Schicha 52 gekennzeichnet ist und sich von Fremdbestimmung abgrenzen lässt. Es geht demzufolge um Handlungs-, Autonomie- und Konsumentensouveränität. Koska (2015: 85) konstatiert: „Der Autonomiebegriff ist also ein elementarer (möglicherweise sogar der zentralste) Fixpunkt für eine medienethische Auseinandersetzung mit der digitalen Revolution.“ Im Zusammenhang mit der Digitalisierung steht Autonomie als Merkmal für informationelle Selbstbestimmung, Souveränität, Freiheit, Selbstbeherrschung und Selbstkontrolle. Es geht um Datensicherheit und die Beachtung der Privatsphäre, die im Kontext von Big Data-Technologien unter dem Begriff der Autonomie verhandelt werden. Es kommt Gapski (2015) zufolge darauf an, die Selbstbestimmung, Souveränität und den freien Willen zu erhalten und zu fördern. Der Deutsche Ethikrat hat „Big Data“ in sein Arbeitsprogramm aufgenommen und beschäftigt sich konkret mit diesen Zielvorgaben. Es stellt sich die Frage nach konkreten Normen für Akteure und Institutionen, um diese Ziele zu erreichen. Weiterhin werden „Wünsche für eine digitale Souveränität“ (vgl. Beyerer/Müller-Quade/Reussner 2018) formuliert, die u.a. folgende Ergebnisse formulieren: • Wir müssen unsere Gesetze und Wertvorstellungen gegenüber Internet-Giganten durchsetzen können. • Wir wünschen uns die Kontrolle über Daten, auch wenn sie in der Cloud gespeichert oder verarbeitet werden. • Wir wünschen uns eine staatliche Kontrolle der Löschung von personenbezogenen Daten. • Wir wünschen uns flexible Geschäftsbedingungen von Internetservices, bei denen Anwender selbst entscheiden, inwieweit sie mit ihren Daten oder mit Geld bezahlen. • Wir wünschen uns, dass Internet-Seiten auf Basis nachvollziehbarer Suchmaschinen-Algorithmen gefunden werden. Gleichwohl gilt: „Auch das Anstreben individuell persönlicher digitaler Souveränität, also hundertprozentige Kontrolle über eigene Daten im Netz, die eigene Positionierung im Web kann gar nicht ohne sozialen Bezug stattfinden. Ob es die Markierungen durch Freunde auf Facebook, die Einträge auf Google sind, Kommentierungen in Tweets oder bei WhatsApp, Fotos auf Instagram, geschweige denn Internetbewertungen, NSAoder sonstige Überwachung. Sobald wir als soziale Wesen unterwegs sind, verlieren wir ohne eigenes Zutun einen (Groß-)Teil der eigenen Souveränität.“ (Groebel 2016: 399) Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 53 Um diese Entwicklung zu verhindern, hat Jarvis (2012) eine Grundrechtscharta für das Internet entwickelt, in der eine Reihe von Forderungen formuliert werden. Dazu gehört das Recht der Vernetzung, das aus dem amerikanischen Grundrecht der freien Rede abgeleitet wird. Weiterhin fordert er die organisationsunabhängige Versammlungsfreiheit im Netz. Entscheidend ist Jarvis zufolge im Zusammenhang mit der digitalen Souveränität das Recht auf die Kontrolle über die eigenen Daten. Jeder sollte Zugang zu seinen persönlichen Informationen haben. Es wird die Forderung erhoben, dass das Internet auf dem Prinzip der Übertragbarkeit beruht, sodass Informationen und Werke nicht von Regierungen oder einem Dienst eingesperrt werden können. Grundsätzlich kann nicht davon ausgegangen werden, dass die individuelle Privatsphäre jedes Einzelnen im Internetzeitalter vor dem Zugriff soziotechnischer Kommunikationsanbieter geschützt ist. Daher gilt: „Er hat vielmehr selbst dafür zu sorgen, dass er alles, was er für sich selbst behalten will, durch eigene Disziplin im Schutzraum seiner Subjektivität belässt.“ (Gerhardt 2014: 84) Darüber hinaus sind die Politik und die Wirtschaftsunternehmen dafür verantwortlich, den Datenschutz und die Datensicherheit so zu organisieren, dass bei der Internetnutzung die Souveränität der Bürger geschaffen und erhalten bleibt. Eine Facebook-Managerin nimmt hierzu wie folgt Stellung: „Die Selbstbestimmung des Einzelnen in diesem weiter wachsenden digitalen Umfeld bleibt eine gemeinsame Aufgabe von Diensten wie Facebook, den Menschen aber auch Dritten (Schulen, Bildungseinrichtungen und Familien). Nur im Zusammenspiel können wir ein vertrauenswürdigendes Umfeld schaffen, in dem jeder Einzelne authentisch agieren und sein Netzwerk souverän pflegen kann. Wir wollen hierzu unseren Beitrag leisten.“ (Kirschsieper 2016: 246) Es bleibt abzuwarten, ob diese Ankündigung in der konkreten Unternehmenspraxis eingelöst wird. Auf Seiten der Politik ist es zumindest „zwingend, Datensouveränität gegenüber Facebook, Google und Co durchzusetzen“, wie der FDP-Bundestagsabgeordnete Johannes Vogel (2019: 6) konstatiert. Christian Schicha 54 Fazit „In der Debatte um digitale Souveränität geht es um die Medien und infrastrukturbezogene Souveränität von Individuen und Kollektiven, um ihre Handlungsbeschränkungen in sozialer, kultureller, technischer, juristischer und politischer Hinsicht.“ (Reißmann/Hoffmann 2018: 467) In der digitalen Welt haben sich tiefgreifende Veränderungsprozesse ergeben, die nicht dazu beitragen, dass digitale Souveränität auf allen Ebenen möglich ist. Plattform-Unternehmen wie Amazon, Facebook u.a. verfügen über nahezu monopolistische Machtzentren und bearbeiten die von den Nutzern kostenlos eingestellten Inhalte in algorithmisch selektierter Form, um sie zu speichern und zu monetarisieren. Die dauerhaft verfügbaren Daten können kommerziell von den Unternehmen durch die Verwendung von Algorithmen automatisch u.a. für Werbezwecke genutzt werden und Entscheidungsprozesse der Internetanwender beeinflussen. Dadurch werden die Chancen der individuellen und kollektiven Selbstbestimmung nachhaltig beeinträchtigt. Insofern müssen durch die Politik rechtliche Rahmenbedingungen geschaffen werden, die die digitale Handlungsautonomie der Gesellschaft schützen. Eine Ethik für die Online-Kommunikation erfordert zunächst Datensicherheit durch technische und organisatorische Maßnahmen, die ausgerichtet sind auf den Schutz der technischen Systeme, die Daten verarbeiten. Weiterhin geht es um einen Datenschutz für personenbezogene Daten, um Missbrauch zu verhindern. Zudem wird zu Recht die Forderung nach einer Übernahme der Verantwortung für Onlinestatements in Form einer namentlichen Kennzeichnung oder eines Impressums erhoben. Die Bekämpfung von Cybermobbing und Cyberstalking gilt ebenso als Leitlinie sowie die Sensibilisierung gegenüber den Risiken der unbedarften Datenweitergabe sensibler Daten, da Nutzer die Vorteile der Datenpreisgabe oft höher gewichten als die Risiken. In Bezug auf die normative Aufgabe zur Errichtung einer digitalen Souveränität sollten die an der Debatte beteiligten Akteure, Argumente und normative Zielvorstellungen herausgearbeitet und aus einer medienethischen Perspektive heraus kritisch reflektiert und eingeordnet werden. Dabei kommt es darauf an, die abstrakten normativen Postulate auf der Idealebene mit den konkreten Anforderungen der politischen und wirtschaftlichen Praxis zu verbinden und zugleich dafür zu sorgen, dass die strukturellen Rahmenbedingungen demokratisch so ausgestaltet sind, dass eine digitale Souveränität möglich ist, die Gleichberechtigung, Transparenz, Rede- 2. Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 55 freiheit und Handlungsautonomie aller betroffenen Akteure mit einschließt. Literatur Adamski, Peter (2016): Die Bundesrepublik 1949–1989. Reclam: Stuttgart. Ash, Timothy Garton (2016): Redefreiheit. Prinzipien für eine vernetzte Welt. Hanser: München. Baringhorst, Sigrid (2015): Von Hashtags zu E-Petitionen – Personalisierung von Protest online. In: Voss, Kathrin / Hurrelbrink, Peter (Hg.): Die digitale Öffentlichkeit. Band II. Wie das Internet unsere Demokratie verändert. Friedrich-Ebert-Stiftung. Hamburg, S. 43–50. Online verfügbar unter: www.library.fes.de/pdf-files/ dialog/12077.pdf (Abfrage am: 15.08.2019). Beyerer, Jürgen / Müller-Quade, Jörn / Reussner, Ralf H. (2018): Karlsruher Thesen zur Digitalen Souveränität Europas. In: Datenschutz und Sicherheit 5/2018. Online verfügbar unter: www.fzi.de/fileadmin/user_upload/ PDF/2017–10–30_KA- Thesen-Digitale-Souveraenitaet-Europas_Web.pdf (Abfrage am: 15.08.2019). Bitkom (Hg.) (2015a): Digitale Souveränität entscheidet über die Zukunft Deutschlands. Online verfügbar unter: www.bitkom.org/Presse/Presseinformation/Digitale-Souveraenitaet-entscheidet-ueber-Zukunft-Deutschlands.html (Abfrage am: 15.08.2019). Bitkom (Hg.) (2015b): Digitale Souveränität. Positionsbestimmung und erste Handlungsempfehlungen für Deutschland und Europa. Online verfügbar unter: www.bitkom.org/noindex/Publikationen/2015/Positionspapiere/Digitale-Souveraenitaet/ BITKOM-Position-Digitale-Souveraenitaet.pdf (Abfrage am: 15.08.2019). Brüggen, Niels (2014): Wer ist hier der Souverän? Kritische Anmerkungen zur Medienkompetenzförderung in der digitalen Gesellschaft. In: Medien + Erziehung 1/2014, S. 28–35. Online verfügbar unter: https://www.researchgate.net/publication/282 753591_Wer_ist_hier_der_Souveran_Kritische_Anmerkungen_zur_Medienkom petenzforderung_in_der_digitalen_Gesellschaft (Abfrage am: 15.08.2019). Fenner, Dagmar (2010): Einführung in die Angewandte Ethik. UTB: Tübingen. Flessner, Bernd (2013): Datenspuren, Datenklone und Datensammler. Über das Leben in der Observosphäre. In: Das Archiv 3/2013, S. 37–43. Friedrichsen, Mike / Bisa, Peter-J. (Hg.) (2016): Digitale Souveränität. Vertrauen in der Netzwerkgesellschaft. Springer: Wiesbaden. Gangloff, Tilmann P. (2001): Ich sehe was, was du nicht siehst. Medien in Europa: Perspektiven des Jugendschutzes. Vistas: Berlin. Gapski, Harald (2015): Big Data und Medienbildung- eine Einleitung. In: Gapski, Harald (Hg.): Big Data und Medienbildung. Zwischen Kontrollverlust, Selbstverteidigung und Souveränität in der digitalen Welt. Kopaed: Düsseldorf und München, S. 9–18. Gerhardt, Volker (2018): Selbstbestimmung. Das Prinzip der Individualität. Reclam: Stuttgart. (Zweite Auflage). Christian Schicha 56 Gerhardt, Volker (2014): Licht und Schatten der Öffentlichkeit – Voraussetzungen und Folgen der digitalen Innovationen. Picus: Wien. Gräf, Eike / Lahmann, Henning / Otto, Philipp (2018): Die Stärkung der digitalen Souveränität. Wege der Annäherung an ein Ideal im Wandel Diskussionspapier von iRights.Lap. Online verfügbar unter: www.divsi.de/wp-content/uploads/2018/05/DIVSI-Themenpapier-Digitale-Souveraenitaet.pdf (Abfrage am: 15.08.2019). Groebel, Jo (2016): Zur Psychologie der digitalen Souveränität. In: Friedrichsen, Mike / Bisa, Peter-J. (Hg.): Digitale Souveränität. Vertrauen in die Netzwerkgesellschaft. Springer: Wiesbaden, S. 399–413. Hagen, Wolfgang (2018): Facebook & Google entflechten? Warum digitale Medien-Monopole eine Gefahr für die Demokratie sind. In: Politik und Zeitgeschichte 40– 41/2018, S. 29–34. Jarvis, Jeff (2012): Grundrechtscharta für das Internet. In: Kemper, Peter / Mentzer, Alf / Tillmanns, Julika (Hg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Reclam: Stuttgart, S. 257–259. Kant, Immanuel (1785/1986): Grundlegung zur Metaphysik der Sitten. Reclam: Stuttgart. Kempf, Dieter / Bundesverband Informationswirtschaft, Telekom und Neue Medien e.V. (Hrsg.): Digitale Souveränität. Berlin 2015, S. 6. Kirschsieper, Eva-Maria (2016): Datensouveränität im digitalen Zeitalter. In: Friedrichsen, Mike / Bisa, Peter-J. (Hg.): Digitale Souveränität. Vertrauen in die Netzwerkgesellschaft. Springer: Wiesbaden, S. 237–246. Koalitionsvertrag zwischen CDU, CSU und SPD (2018): Ein neuer Aufbruch für Europa. Eine neue Dynamik für Deutschland. Ein neuer Zusammenhalt für unser Land. 19. Legislaturperiode. Berlin. Online verfügbar unter: www.bundesregierung.de/ resource/blob/975226/847984/5b8bc23590d4cb2892b31c987ad672b7/2018-03-14-koalitionsvertrag-data.pdf?download=1 (Abfrage am: 15.08.2019). Köchler, Hans (2016): Souveränität, Recht und Demokratie versus Machtpolitik. In: Friedrichsen, Mike / Bisa, Peter-J. (Hg.): Digitale Souveränität. Vertrauen in die Netzwerkgesellschaft. Springer: Wiesbaden, S. 93–110. Koska, Christopher (2015): Zur Idee einer digitalen Bildungsidentität. In: Gapski, Harald (Hg.): Big Data und Medienbildung. Zwischen Kontrollverlust, Selbstverteidigung und Souveränität in der digitalen Welt. Kopaed: Düsseldorf und München, S. 81–93. Online verfügbar unter: www.grimme-institut.de/fileadmin/ Grimme_Nutzer_Dateien/Institut/Dokumente/SRdg-nrw_band03_big-data-undmedienbildung.pdf (Abfrage am: 15.08.2019). Lotter, Wolf (2015): Die Selbstbestimmer. In: Brand Eins 1/2015, S. 44–52. Maslow, Abraham H. (1981): Motivation und Persönlichkeit. Hamburg. Masur, Philipp K. (2018): Mehr als Bewusstsein für Privatheitsrisiken. Eine Rekonzeptualisierung der Online-Privatheitskompetenz aus Wissen, Fähig- und Fertigkeiten. In: Medien & Kommunikationswissenschaft 4/2018, S. 446–465. Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 57 Meier, Adrian (2018): Alles eine Frage der digitalen Autonomie? Die Rolle von Autonomie in der digitalen Kommunikation für psychologische Grundbedürfnisse und psychische Gesundheit im Alltag. In: Medien & Kommunikationswissenschaft 4/2018, S. 407–427. Müller, Kathrin Friederike / Zillich, Freya Arne (2018): Wie man auf Facebook kommunizieren sollte. Selbstbestimmtes Medienhandeln auf Social Network Sites. In: Medien & Kommunikationswissenschaft 4/2018, S. 428–445. Oettinger, Günther (2018): Wachstumstreiber Digitalisierung. Berlin 05.03.2015. Online verfügbar unter: www.bundesfinanzministerium.de/Content/DE/Video/ 2015/2015-03-06-bmf-im-dialog-oettinger/2015-03-06-bmf-im-dialog-oettingertextfassung.html. (Abfrage am: 15.08.2019). Otto, Philipp / Gräf, Eike (Hg.) (2018): 3TH1CS Die Ethik der digitalen Zeit. Bundeszentrale für politische Bildung: Bonn. Reißmann, Wolfgang / Hoffmann, Dagmar (2018): Selbstbestimmun in Fan-Fiction- Kulturen. In: Medien & Kommunikationswissenschaft 4/2018, S. 466–484. Rössler, Beate (2017): Autonomie – Ein Versuch über das gelungene Leben. Suhrkamp: Frankfurt am Main. Rosa, Hartmut (2019): Ohnmacht. Was muss sich ändern. In: DIE ZEIT vom 1.7.2019, S. 38–39. Schicha, Christian (1996): Lebenszusammenhänge kinderreicher Mütter. Individualisierungsprozesse und Partnerschaftsverläufe in großen Familien. Peter Lang: Frankfurt am Main. Schicha, Christian (2018): Informationsethische Herausforderungen durch Algorithmen. In: Hammerschmidt, Peter u.a. (Hg.): Big Data, Facebook, Twitter & Co. und soziale Arbeit. Beltz-Juventa: Weinheim und Basel, S. 95–117. Schicha, Christian (2019): Medienethik. Grundlagen – Anwendungen – Ressourcen. UVK: München. Schorb, Bernd / Wagner, Ulrike (2013): Medienkompetenz -Befähigung zur souveränen Lebensführung in einer mediatisierten Gesellschaft. In: Bundesministerium für Familie, Senioren Frauen und Jugend (Hg.): Medienkompetenzförderung für Kinder und Jugendliche. Eine Bestandsaufnahme, S. 18–23. Online verfügbar unter: https://www.landkreis-coburg.de/files/medienkompetenzfoerderung_201 3.pdf Schuegraf, Martina / Tillmann, Angelika (Hg.) (2012): Pornografisierung von Gesellschaft. UVK: Konstanz und München. Schwall-Düren, Angelika (2015): Vorwort. In: Gapski, Harald (Hg.) (2015): Big Data und Medienbildung. Zwischen Kontrollverlust, Selbstverteidigung und Souveränität in der digitalen Welt. Kopaed: Düsseldorf und München, S. 7–8. Seidler, John David (2016): „Lügenpresse“. Medien als Gegenstand von Verschwörungstheorien. In: Aus Politik und Zeitgeschichte 30–32/2016, S. 41–46. Christian Schicha 58 Stapf, Ingrid / Prinzing, Marlis / Filipovic, Alexander (2017): Einleitung: Der Journalist und die Qualität des gesellschaftlichen Diskurses. In: Stapf, Ingrid / Prinzing, Marlis / Filipovic, Alexander (Hg.) Gesellschaft ohne Diskurs? Digitaler Wandel und Journalismus aus medienethischer Perspektive. Nomos: Baden-Baden, S. 11–16. Vogel, Johannes (2019): Spielregeln für Giganten. In: DIE ZEIT vom 25.7.2019, S. 6. Wessler, Hartmut / Haffner, Patrik / Rinke, Eike Mark (2018): Selbstbestimmung in der digitalen Welt. Über die Vorteile eines ebenen übergreifenden Basiskonzepts für die empirische Erforschung der digitalen Kommunikation. In: Medien & Kommunikationswissenschaft 4/2018, S. 395–406. Digitale Souveränität – Interdisziplinäre Diskurse und normative Implikationen 59 Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie zu ethisch orientiert gestalteten digitalen Kommunikationsräumen Marlis Prinzing Abstract Der Youtuber Rezo erhitzte rund um die Europawahl 2019 mit einem Klimapolitik-Video das politische Klima in Deutschland. Das millionenfach geklickte Video warf vielerlei Fragen auf: Ist das Wahlmanipulation? Ist Youtube ein Fernsehkanal? Sind Youtuber Journalisten? Inwiefern ist unkontrollierbare Meinungsführerschaft riskant für demokratische Gesellschaften? Solche Fragen illustrieren exemplarisch, dass noch vieles zu klären ist, wenn digitale Kommunikationsräume verantwortungsbewusst gestaltet werden als diskursive Umgebungen für eine Gesellschaft aufgeklärter und selbstbestimmt agierender Menschen. Soziale Roboter, „prophetische“ Algorithmen, biometrische Gesichtserkennung – es gibt noch viele Beispiele für brisante Phänomene und riskante Praktiken, die Grundsatzfragen aufwerfen zu Regeln, an denen die Gestaltung öffentlicher digitaler Räume sich ausrichten soll. Fragen, die nur gebündelt und neu institutionalisiert beantwortet werden können und für deren Beantwortung die Medien- und Digitalethik eine Leitdisziplin ist. Entlang von Beispielen sowie von theoretischen Denkpositionen wird – auch als Alternative zu der Auffassung, der digitalen Transformation ausgeliefert zu sein, – eine Strategie zur Gestaltung digitaler Räume vorgeschlagen, die die aufgeworfenen Grundsatzfragen institutionell adressiert: An etablierte internationale Debattenplätze wie die Internet Governance Foren, an politische Mandatsträger sowie an einen neu aufzugleisenden, selbstregulativen und regierungsunabhängigen Digitalrat, der aktuelle Fragen bezogen auf Deutschland behandelt. Chancen und Risiken: Auswüchse, Aufklärung, Apokalypse Digitale Räume werden Schauplätze von Auswüchsen und brisanten Phänomen Im Zuge der Digitalisierung entstehen neue Praktiken und Foren gesellschaftlicher Selbstverständigung und öffentlicher sowie privater Kommu- 1. 1.1 61 nikation über diverse Apps, Web-Plattformen und Sprach-Assistenten. Sie können Vorteile erzeugen, indem sie die Teilhabe an solchen Öffentlichkeiten, also die kommunikative Interaktion, technisch sehr vereinfachen und Habermas´ Theorie der deliberativen Demokratie aufleben lassen: Via Netz kann sich im Prinzip jeder an Debatten beteiligen und sich informieren (vgl. Habermas 1981a, 1981b). Weitere Vorteile und Erleichterungen liefern untereinander sowie zum „Internet of Things“ vernetzte analoge und virtuelle Geräte und Anwendungen, die Dienstleistungen für das private und öffentliche Leben erbringen. Digitale Kommunikationsräume werden aber auch zu Schauplätzen folgenschwerer Auswüchse in großem Umfang. Dazu gehören manipulative „Social Bots“, ungezügelte Hassrede sowie eine auch „Information Warfare“ genannte, strategische Verbreitung von Fehlinformation, Propaganda und Hass. Dazu gehören automatisierte, durch algorithmische Mustererkennung erzeugte Entscheidungen, die Wahrscheinliches zur Gewissheit überhöhen und Betroffene dabei auch massiv benachteiligen können. Und dazu gehört, dass unsere Spuren in digitalen Räumen verfolgt, also getrackt, und in Form von Daten kommerzialisiert werden. Alles, was Menschen ausmacht, wie sie sich verhalten, was ihnen gefällt, sie ängstigt, beunruhigt, umtreibt, wird in Daten übersetzt und zu Geld gemacht – und zwar oft, ohne dass sie davon erfahren. Verschwimmende Grenzen z.B. zwischen Menschen und Maschinen werden bewusst in den Dienst solcher Mechanismen gestellt. An drei Beispielen – „fühlende“ Maschinen, lernende und prophezeiende Programmier- und Sortiervorschriften, digitale Meinungsmobilisierung – wird nachfolgend illustriert, wie komplex die Herausforderungen sind und inwiefern sie sozialen Beziehungen und menschliche Autonomie nachhaltig verändern und auch zerstören können. Beispiel 1: Soziale Roboter – Boten komplexer Gefühlslagen Am MIT Media Lab in Cambridge bei Boston werden Roboter für Erwachsene, für Schüler und für Kleinkinder entwickelt, die Social Robots genannt werden. Denn sie sind niedlich, hilfsbereit und wecken durch solche Reize in Menschen Gefühle. Nachvollziehbar, dass sich Kinder lieber von einem niedlichen Roboter zu Hausaufgaben motivieren lassen als lediglich von einer Lernsoftware am Bildschirm. Verständlich, dass nett gestaltete Pflegeroboter einem Hilfebedürftigen eher ans Herz wachsen als irgendein Kasten mit Bedienknöpfen. Die Blüten, die das Vermenschlichen von Produkten treibt, mag man für kurios halten. Etwa die Geschichte Marlis Prinzing 62 über einen Kurier-Roboter auf dem Universitätscampus in Berkeley, der dort Essen ausfuhr, eines Tages aber durch einen Defekt ausbrannte. Einige Studierende zündeten als Zeichen ihrer Trauer Kerzen an der Unfallstelle an. Dabei sah dieser Roboter noch nicht einmal aus wie eine Person (vgl. Prüfer 2019). Kate Darling ist Expertin für Roboter-Ethik und spezialisiert auf die Gefühle von Menschen gegenüber Robotern. In Experimenten (vgl. Darling et al. 2017) wies sie mehrfach nach, dass Menschen Mitleid mit vermenschlichten, vermeintlich Gefühle zeigenden Robotern entwickeln und ihnen z.B. auch auf Anweisung im Experimentsetting hin nichts „antun“ wollten. Das mag zunächst sinnvoll wirken, wirft aber ein komplexes Problem auf, bei dem drei Aspekte entscheidend sind. Erstens das zunehmende Ungleichgewicht: Den Robotern sind Menschen immer gleichgültig. Auch wenn sie den Anschein erwecken, etwas zu spüren, sind das nur operationalisierte Imitationen menschlichen Verhaltens. Zweitens muss die Hierarchie immer klar sein: Menschen müssen in ihrem eigenen Interesse stets bereits sein, bei einem Roboter auch den Stecker zu ziehen. Drittens das Überwachungspotential: „Nette“ Roboter können auch zum Ausspionieren menschlichen Verhaltens dienen, mitunter versteckt in Spielzeugen. Ein Beispiel ist „My Friend Cayla“, eine blonde Puppe, die eine verborgene Sendeanlage sein kann und im Winter 2016/17 für Diskussionen sorgte. Verbraucherschützer warnten vor solchen Spielzeugen, die deutsche Bundesnetzagentur forderte Verkaufsstellen auf, sie aus dem Angebot zu nehmen, und riet, vorhandene "Anlagen" zu vernichten (Kühl 2017). Beispiel 2: Algorithmen – Propheten ohne Verantwortung und Moral Automatisiertes Entscheiden ist ein weiteres Beispiel für eine immer bedeutsamer werdende, aber sehr komplexe Thematik, für die ein neuer, diverse Expertisen bündelnder institutionalisierter Zugang sinnvoll sein dürfte (vgl. auch Prinzing 2019a). Algorithmisierte Mustersuchvorgänge in großen Datensätzen können einerseits rasch Vorschläge liefern, die für eine sachgerechte Entscheidung nützlich sind – über eine Operation, einen Kredit, eine Fortbildung – und können damit hilfreiche Werkzeuge sein. Andererseits können Algorithmen je nach Programmierung Schieflagen und Fehler erzeugen; auch „lernende“ Systeme bringen sich teilweise etwas anderes bei als geplant. An der Universität Stanford wurde ein lernender Algorithmus eingesetzt, um anhand von Fotos Hautkrebsdiagnosen vorzunehmen. Bei einer Überprüfung wurde festgestellt, dass der Algorithmus begonnen hatte, dann Haut- Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 63 krebs anzuzeigen, wenn er ein Lineal „entdeckt“ hatte. Er hatte offenbar durch etliche Beispiele im Material „gelernt“, dass das Merkmal "Lineal" mit Krebs zusammenhing. Denn dann, wenn ein Arzt bereits selbst einen Krebsverdacht bei einer Leberfleckveränderung hatte, maß er sie mit dem Lineal, und deshalb war dieses auf dem Bild zu sehen. Eine solche „erlernte“ Kombination war freilich eine Fehlentwicklung und nicht das Ziel, weshalb man die Fotos algorithmisch prüfen ließ (vgl. Fuest 2019). Das macht klar: Automatisierung entbindet nicht von Kontrolle. Im Gegenteil. In Algorithmen müssen Kontrollmechanismen eingebaut werden, um sie darauf zu testen, wie sie in Grenzfällen reagieren. Und es muss geregelt werden, wo diejenigen, die solche Entscheidungsprozesse anstoßen, in der Verantwortung sind, und wie diejenigen, die von solchen Entscheidungen betroffen sind, eingebunden werden. Algorithmen können zwar Vorhersagen treffen, also Wahrscheinlichkeiten ausrechnen, aber sie haben keinen Personen-Status, sondern erfüllen nur stur die ihnen aufgetragenen Aufgaben. Sie können diese aber weder moralisch bewerten noch haben sie ein Gewissen noch können sie Verantwortung tragen. Wenn es keine Möglichkeit zu einem menschlichen Korrektiv gibt und intransparent ist, ob Entscheidungen als Ergebnis automatisierter Prozesse erfolgen, dann höhlt dies Grundrechte wie Menschwürde, Privatheit und Selbstbestimmtheit aus und damit die Demokratie. Denn eine Demokratie funktioniert nur mit souveränen Bürgerinnen und Bürgern. Wer hinnimmt, dass er fortwährend überwacht und bewertet wird, gibt letztlich seine Privatsphäre preis und damit Grundrechte, die konstitutiv sind für eine Demokratie. Der Netzfreiheitsbericht der Nichtregierungsorganisation Freedom House warnt vor wachsenden Digitaldiktaturen, die auch innerhalb von demokratischen politischen Systemen heranwachsen können und durch ihr ungezügeltes Datensammeln die Wände um unsere Privatsphäre einrei- ßen. Regierungen, Unternehmen, Polizei etc. destabilisieren das Vertrauen in das Netz und in Institutionen (Freedomhouse 2018). Die Europäische Kommission (2019) empfiehlt zwar eine menschliche Kontrolle automatisierter Entscheidungsprozesse, schreibt sie aber nicht vor. Der massive Datenhandel von Digitalkonzernen wie Google, Apple, Facebook und Amazon verschärft die Gesamtsituation. Zweifellos sind hier mehrere in der Pflicht, zum Beispiel der Journalismus, zivilgesellschaftliche Einrichtungen und die Forschung. Journalismus beispielsweise bezieht bislang seine Watchdog-, Kritik- und Beobachter- Funktion auf menschliche Entscheidungen, muss künftig aber auch automatisierte Entscheidungen erfassen. Teilweise überschneidend mit journalistischen Funktionen, leisten Nichtregierungsorganisationen bedeutsame Marlis Prinzing 64 Aufklärungsarbeit. Irights e.V. erklärte von September 2017 bis März 2018 am Beispiel einer fiktiven Person Anna und in Expertengesprächen, wie Wohnen, Einkaufen, soziales Leben und Gesundheitsvorsorge z.B. durch Techniken Künstlicher Intelligenz, Algorithmen und Big Data beeinflusst werden, wie Menschen beobachtet und vermessen werden (https:// www.annasleben.de/). Algorithm Watch (2019b) recherchierte die Lage in EU-Mitgliedsstaaten: Wo wird automatisierte Entscheidungsfindung betrieben? Wie verlaufen die politischen und wissenschaftlichen Debatten? Wo setzen regulatorische und selbstregulatorische Überlegungen an? Aus welchen Erfahrungen lässt sich lernen? Algorithm Watch empfiehlt zum Beispiel für Deutschland ein Register, in dem Automatisierungsgrad, Teilhabe und Einfluss auf die Gesellschaft verzeichnet sind. Im Stil einer Task Force könnte dieses dann Anknüpfungspunkte für Kontrollen, aber auch für Debatten liefern. Wissenschaftliche Expertise schärft den Blick auf andere Punkte, bei denen Handlungsbedarf besteht. Ein Beispiel sind die Empfehlungen von Wachter und Mittelstadt (2018), die rechtliche Kontrolle über das hinaus auszudehnen, was die auf europäischer Ebene im Mai 2018 wirksam gewordene Datenschutzgrundverordnung (DSGVO) vorsieht. Sie regle bislang vor allem, wie die Daten erhoben werden, müsse aber auch kombinierte Datensätze und daraus gezogene Rückschlüsse als personenbezogene Daten auffassen und regulieren. Die Forscher verlangen außerdem Auskunftsrechte: Sobald anhand algorithmisch erzeugter Muster automatisiert Entscheidungen getroffen werden, müsse das den Betreffenden mitgeteilt werden, und sie müssten die Chance haben, sich gegen ein möglicherweise fehlerhaftes Bild zu wehren. Beide Vorschläge – zu einem ein Register für Einsatzbereiche automatisierten Entscheidens sowie zu Auskunftswegen für Bürgerinnen und Bürger – ließen sich relativ gut miteinander verknüpfen. Dieses wiederum liefert ein Argument dafür, eine zentrale Anlaufstelle wie einen Digitalrat einzurichten, zu deren Aufgaben es gehört, Ideen zu sammeln und auch deren Umsetzung voranzutreiben. Beispiel 3: Der "Rezo-Effekt" -Einblick in eine riskante Parallelwelt Die Effekte, die Youtuber Rezo mit seinem Klima- und Wahlvideo in Deutschland am Vorabend der Europawahl im Mai 2019 erzeugte, sind ein weiteres Argument dafür, zumindest auf nationaler Ebene eine zentrale Instanz für digitale Themen einzurichten (vgl. Prinzing 2019a; Rezo 2019). Denn das Phänomen, das durch die Wirkungsmacht seines Videos "Jetzt Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 65 reicht´s. Zerstörung der CDU" offenkundig wurde und sich in 17,6 Millionen Aufrufen äußerte (Zähler des Rezo-Zweitkanals, 18. Mai 2019), ist weder an Wahlen gebunden noch an eine Partei oder ein Thema, sondern spiegelt das durch Netzkanäle enorm gewachsene Macht- und Einflusspotenzial Einzelner auf Viele wider. Die Medienforschung kennt seit langem den „Two-Step-Flow of Communication". Er besagt, dass Meinungsführer die öffentliche Meinung markant beeinflussen können. Das weitere Video mit der Solidaritätsreaktion von mehr als Youtubern zeigt, dass dies auch ein „Multi-Step-Flow“ sein kann. Deren Erfolg lag bei 4,6 Millionen Aufrufen (Zähler des Rezo- Zweitkanals, 24. Mai 2019) und bestätigt, was die Kommunikationswissenschaft „Uses and Gratifications“ nennt: Die Wirkung wächst, wenn das Publikum von Informationen etwas hat und sich für das Thema interessiert. Die Kraft der Klimapolitik- und Wahlvideos rührt daher, dass der Zielgruppe das Klimathema wichtig ist. Sie kann mit den Botschaften – auch zur Europawahl – etwas anfangen und schenkt diesen Meinungsführern, den Youtube-Influencern, Vertrauen. Aber die Effekte werfen auch etliche Fragen auf: Mit welchem Phänomen haben wir es da tatsächlich zu tun? Ist das eine Meinungsäußerung eines Einzelnen? Eine PR-Kampagne, bei der der „Fridays for Future“-Effekt in der Zielgruppe genutzt wird, um den eigenen Marktwert zu steigern? Ist das Journalismus, selbst wenn Journalismus eigentlich kontinuierliche Beobachtung und Recherche umfasst, Rezo einen solchen Anspruch aber selber gar nicht erhebt und obgleich der Pressekodex von Journalisten verlangt, offenzulegen, wenn sie als Journalisten auftreten? Und was wäre, wenn es hier nicht um Aussagen zur Klimapolitik ginge, die relativ viele Menschen teilen, sondern wenn extremistisch orientierte Führerfiguren ihre Themen ähnlich wirkmächtig über digitale Quasi-Fernsehkanäle verbreiten, die keiner Medienregulierung unterworfen sind und sich auf keinen ethischen Kodex verpflichten? Was, wenn abseits von Parteien und Parlamenten Polit-Influencer untereinander darum ringen, wer mehr Follower, mehr Leute hinter sich versammelt? Als Kernfrage kristallisiert sich also heraus: Wie begegnen Gesellschaften dem bedrohlichen Phänomen, das hier ebenfalls offenkundig wird? Bei näherer Betrachtung wird der „Rezo-Effekt“ letztlich zwar eine Episode bleiben, offenbart aber eine komplexe Herausforderung. Es gibt einen Presserat, einen Werberat, einen Public Relations-Rat, die jeweils als Selbstregulierungseinrichtungen eine ständige Anlaufstelle sind für jeden, den eine Berichterstattung, eine PR- oder eine Anzeigenkampagne empört oder ins Zweifeln bringt; und es gibt jeweils einen Empfehlungskatalog, also einen Presse-, Werbe- oder PR-Kodex mit Richtlinien, Marlis Prinzing 66 anhand derer ein Gremium in diesen Räten begutachtet, ob hier verantwortungsorientiert vorgegangen und die Kodex-Bestimmungen eingehalten wurden oder ob Anlass für Verbesserungen oder zu einer Rüge an die Urheber des Artikels, der Kampagne oder der Anzeige besteht. Aber es fehlt weiterhin eine vergleichbare Anlaufstelle für Digitalthemen. Das Rezo-Beispiel illustriert dies, indem es zeigt, dass in digitalen Räumen Hybridformen von Kommunikation entstehen, bei denen gar nicht so klar ist, ob das nun PR oder Journalismus oder eine persönliche Meinungsäußerung ist und hinter denen Phänomene stecken, mit denen eine Gesellschaft sich dringend auseinandersetzen muss. Doch ehe wir uns der Betrachtung einer institutionellen Strategie zuwenden, bedarf es noch einer Gesamtschau: Wie lassen sich Phänomene, die hier exemplarisch in drei Feldern gezeigt wurden, in einer gesamtgesellschaftlichen Betrachtung verknüpfen, die uns den Blick auf die inneren Zusammenhänge und Antriebskräfte freilegt? Inwiefern beeinflusst digitale Mediatisierung die normative Bedeutung des öffentlichen Raumes als Raum der Aufklärung? Die Bedeutung des öffentlichen Raums als Raum der (digitalen) Aufklärung Knoblauch und Löw (2020) führen aus, wie notwendig es ist, gesellschaftliche Dynamik über Raum und Raumordnung zu erfassen, um die Gesellschaft zu „re-figurieren“. Sie weisen der digitalen Mediatisierung eine Schlüsselrolle zu. Sie verändert die Art, wie kommunikatives Handeln übertragen wird: direkt persönlich oder über Objekte und Techniken. Und sie ermöglicht weitere Varianten des Kommunizierens, Koordinierens (Smart Home) und Kontrollierens (Überwachung, Connected Cars) bis hin zu quasi-autonomen Handlungs- und Entscheidungsoptionen (z.B. selbstfahrende Autos; automatisiertes Entscheiden). Digitale Mediatisierung gestaltet somit die Interaktion von Menschen, schafft neue Formen von kommunikativen Räumen und verändert die Beziehungen von sozialen Räumen zueinander. Diese Transformationen der Gesellschaft umfassen einen institutionellen Prozess, der teilweise aber erst noch zu gestalten ist. Diese Auffassung des Raums als soziale Konstruktion vertrat bereits Immanuel Kant (1724–1804) und bezog sie in seinem Aufsatz „Was ist Aufklärung?“ (1784) auf die aufgeklärte Gesellschaft. Kant verstand Raum als ein die Wahrnehmung von der Welt ordnendes, offenes Prinzip, das ermöglicht, Bezüge zwischen Dingen herzustellen und ihnen damit Sinn zuzuschreiben. Er bezog ausdrücklich die Diskursbeziehungen von Men- 1.2 Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 67 schen und damit das kommunikative Handeln ein. Raum kann damit sowohl ein Rahmen als auch ein Resultat von sozialen Prozessen sein und umfasst die Instrumente, mit denen interagiert wird, die Verhaltens- und Handlungsstrukturen sowie die dafür vereinbarten Regeln, also die normative und damit letztlich institutionalisierte Struktur der Räume. Das ist im analogen Raum konstitutiv wie im digitalen: Wurde z.B. in einer Printzeitung mit dem Instrument des Leserbriefs interagiert, so sind in digitalen Medien die Kommentarfunktionen Interaktionsinstrumente. Kants Vorstellung des Raums korrespondierte mit seinem Verständnis von Öffentlichkeit, das von den Forderungen der Aufklärung geprägt ist. Er wollte einen Raum für eine Öffentlichkeit, die geformt ist durch Meinungs- und Pressefreiheit – als Gegenstrategie zu staatlicher Zensur, also gegen das bewusste Zurückhalten von Informationen, die eigentlich für eine Gesellschaft bedeutsam wären, die aber für die Obrigkeit unbequem sein könnten. Diesem Raum sollte der freie Austausch von Positionen und Argumenten weitere Form geben. Kant verortete solche Gespräche freier Bürger zwar noch vor allem in privaten Kreisen und geschlossenen Zirkeln, erhob aber bereits die Öffentlichkeit zur Bedingung für eigenes Denken. Dem Einzelnen falle es schwer, wirklich mündig aufzutreten; wenn er hingegen im öffentlichen Austausch mit anderen von seiner Vernunft Gebrauch mache, sei dies einfacher. Dann wirken alle daran Beteiligten zusammen und entwickelten sich fast unausbleiblich zu einem sich selbst aufklärenden Publikum. Der Philosoph und Soziologe Jürgen Habermas griff die aufklärerische Funktion von Öffentlichkeit auf und führte diese Idee in seiner Schrift „Faktizität und Geltung“ (1992) weiter in eine Vorstellung, Öffentlichkeit sei weder System noch Institution, sondern „Netzwerk für die Kommunikation von Inhalten und Stellungnahmen“; „menschliche Kommunikationsflüsse“ würden dabei so „gefiltert und synthetisiert“, dass sie sich zu „öffentlichen Meinungen verdichten“ (Habermas zitiert nach Brüggemann 2008: 43 f.). Habermas verwendete Begriffe aus der Architektur, um Öffentlichkeit zu fassen: Raum, Forum, Bühne. In diesen Verortungen wurde im Diskurs um vernünftige Positionen und damit um Einfluss gerungen. Den Informationsmedien kam hierbei die Aufgabe zu, zwischen dem gesellschaftlichen beziehungsweise politischen System und einem aufgeklärten Publikum zu vermitteln, das politische und gesellschaftliche Entwicklungen kritisch kommentierte. Indem privatwirtschaftlich oder öffentlichrechtlich organisierter Informationsjournalismus den Diskursraum schuf und bewirtschaftete, erzeugte er zugleich den Raum, in dem sich Bürgerinnen und Bürger ihre Meinung bildeten. Marlis Prinzing 68 Diese Art von vielstimmiger Diskurs-Öffentlichkeit gilt bis heute als konstitutiv für demokratische Gesellschaften. Doch es ist zumindest zu hinterfragen, inwiefern diese Vorstellung in einer digitalen Gesellschaft, in der z.B. durch Bots verbreitete, bewusste Desinformation oder Shitstorms in Windeseile Argumente, Recherchen, evidenzbasierte Expertenbefunde und konstruktive Debatten unter sich begraben, weiterhin zutrifft. In diesen Varianten scheinen viele Regeln und Verhaltensrichtlinien, die in der klassischen Vorstellung von Öffentlichkeit akzeptiert waren, kaum noch Bindungs- und Orientierungskraft zu haben. Auch die Vorstellung von privatwirtschaftlich organisierten Informationsmedien als orientierender Kraft im Raum öffentlicher Auseinandersetzung, die das Bundesverfassungsgericht aus Anlass der „Spiegel-Affäre“ (das Nachrichtenmagazin hatte eine kritische Recherche zum Zustand der Landesverteidigung veröffentlicht) in seinem Urteil von 1966 bestätigt hat, erodiert. Ebenso die Anerkennung eines dem im Kern entsprechenden Leistungsauftrags, eines Public Service, den öffentlich-rechtliche Medien zu erfüllen haben und der ein wichtiger Bestandsträger in demokratischen Gesellschaften ist. Klassische Medien haben durch soziale Medien und digitale Techniken nicht ihre Deutungsmacht, aber ihre Breitenwirkung verloren. Rezo veröffentlichte sein „Klima-Video“ nicht über eine traditionelle Medienplattform, sondern über seine Kanäle, „Fridays for Future“ mobilisiert über eigene Netzwerke. Doch höchste Wirkung entfalten ihre Positionen dann, wenn ihnen klassischer medialer Raum zuteil wird: indem über sie berichtet wird, indem sie eigenen Raum erhalten und Anerkennung – Rezo z.B. als Kolumnist bei "Zeit online" und im Frühjahr 2020 durch die Auszeichnung seines Videos mit dem Nannen-Preis in der Kategorie „Webprojekt“. War seine Intention zunächst unklar, so ist er damit aufgenommen ins Umfeld von mit einer Qualitätsmarke verbundenem Journalismus und erreicht ein Publikum, das weit breiter gefächert ist, als das, das er zuvor erreicht hat. An den Schleusen in den öffentlichen Raum haben neben jenen, die dort traditionell saßen, zahllose Initiativen, Einzelpersonen etc. Platz genommen. Doch Vieles ist unklar: Wer bestimmt nun, was öffentlich relevant ist? Mit welcher Autorität bzw. Legitimation? Inwiefern bringen diese Veränderungen mehr Demokratisierung? Die Vorstellung, nur "Vernünftigen" den Zugang zum öffentlichen Raum zu geben, die sich in analogen Zeiten technisch relativ gut umsetzen ließ, erzeugt nicht unbedingt einen „gerechten“ Diskurs, der wirklich die relevante Vielstimmigkeit einer Gesellschaft abbildete und auch Stimmen Gehör gab, die sich weniger gut artikulieren oder behaupten konnten gegenüber kräftigen Stimmen, die mächtige Deutungsrahmen setzen. Frames können helfen, komplexe The- Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 69 men besser zu vermitteln, und sie können die öffentliche Meinung beeinflussen. Die Digitalisierung erweiterte die Vielfalt solcher Deutungsgeber über den Kreis von Journalisten und PR-Experten hinaus. Sie haben lange Zeit einen Großteil dieser „Frames“ entwickelt, das heißt Informationen ausgewählt, betont, begründet und moralisch bewertet oder empfohlen, was nun zu tun ist (vgl. Entman 1993). Charakteristisch für die aktuellen Öffentlichkeiten ist, dass sie sich allein mit der Raummetapher nicht mehr greifen lassen. Geschwindigkeit ist ein weiterer wichtiger Faktor geworden: Codes und Bots können sekundenschnell Themen- und Empörungswellen auslösen. Vieles ist in Bewegung, und es ist unüberschaubar, wo sich die nächsten Stürme zusammenbrauen. Die massive Empörung wegen eines umgedichteten Kinderlieds eines WDR-Chors über Umweltfrevel der Generation ihrer Großeltern zur Jahreswende 2019/20 veranschaulicht dies. Die Art der Reaktionen (Shitstorm, Pranger für die Klimastreikbewegung, User in sozialen Netzwerken wollen Köpfe rollen sehen, den öffentlich-rechtlichen Rundfunk einstellen, die Spitze des Westdeutschen Rundfunks in Köln nimmt den Song sofort aus dem Netz, Politiker diverser Parteien ziehen Vergleiche zu Diktatur und DDR-Praktiken etc.) offenbarte, wie unkontrollierbar solche Empörungswellen sind, und dass sie wenig dazu beitragen, den Diskurs im öffentlichen Raum zu gestalten. Im Gegenteil: Sie lenkten vom eigentlichen Thema (hier des Generationenkonflikts) ab, ihre Vehemenz verunsicherte so, dass in diesem Fall z.B. der verantwortliche Sender nur mit Mühe seiner eigentlichen Aufgabe nachkam, das „Ereignis“ und seine öffentliche Relevanz einzuordnen. Dieses Beispiel markiert ein weiteres Mal, wie notwendig die Reflexion über eine Neuordnung von Verantwortungszuweisung und Grenzziehungen in digitalen Räumen ist und damit auch eine Institutionalisierung und ein strategisches Vorgehen. Wenn öffentlicher Raum von solch reißenden Flüssen so leicht überschwemmt wird, muss eine Gesellschaft, der die Bedeutung eines öffentlichen Raums für ein demokratisches Miteinander bewusst ist, lernen, gegen den Strom zu schwimmen und für Abgrenzungen, für Staudämme, für Ordnung zu sorgen sowie für (Re-)Institutionalisierung. Vielstimmigkeit ist nicht dasselbe wie Meinungsvielfalt. Sie kann durchaus nur eine Variation von immer Gleichem, von Gequassel, Polemik und auch Hass sein. Solche Varianten können eine Gesellschaft nicht befriedigen und viele Debatten nicht voranbringen zu einem Ergebnis, mit dem man arbeiten kann. Auch unter veränderten Raumbedingungen bleibt es in der Verantwortung und Möglichkeit jedes Einzelnen, im Kant ´schen Sinne seinen Verstand zu gebrauchen, die Grundideen der Aufklä- Marlis Prinzing 70 rung in eine digitale Aufklärung fortzuschreiben und die Intelligenz des Einzelnen auszuweiten zu einer gesellschaftlichen Intelligenz. Apokalyptische Warnungen: In zunehmend überwachten Räumen verlieren Menschen sich und ihre Autonomie Geert Lovink (2019) und Shoshana Zuboff (2018a, 2018b) analysieren die sich verändernden Räume der digitalen Gesellschaft. Ihr Fazit: Sie sehen unsere Gesellschaften an einem Scheideweg und am Rande von Abgründen. Medientheoretiker Lovink sieht menschliche Abgründe, erzeugt durch zwanghaftes Vernetztsein bis hin zur Selbstaufgabe und bodenloser Traurigkeit. Ökonomin Zuboff sieht kapitalistische Abgründe, erzeugt durch rigorose Ausbeutung und Kommerzialisierung menschlichen Verhaltens. Beide sind der Überzeugung, dass es (auch noch) anders geht, sobald man sich seine Lage vor Augen führe. Lovinks Plädoyer lautet, in digitalen Räumen bewusst und selbstbestimmt zu kommunizieren – oder es zu lassen, also wieder abschalten zu lernen. Zuboffs Plädoyer steht dazu nicht im Widerspruch, sondern ergänzt: Jedem sollte klar sein, welche kommerzielle Seite sein Vernetztsein mit sich bringe, wie seine Onlinepräsenz vermarktet wird und welche Möglichkeiten er hat, sein Verhalten zu ändern. Sie plädiert für mehr Empörung gegen die Auswüchse von Kommerzialisierung und Überwachung und wünscht sich Bürgerinnen und Bürger, die Sand in dieses Getriebe streuen. Lovink: "Programmierte Traurigkeit" in "Luftschlössern digitaler Kommunikation" Der Medientheoretiker Geert Lovink (2019) vertieft insbesondere den Punkt der Emotionalisierung in Sozialen Medien. Er beschreibt „Luftschlösser digitaler Kommunikation“ und beschreibt als „programmierte Traurigkeit“, dass die digitale Kommunikation die Menschen zu einem Dasein in den „Ruinen von Luftschlössern“ geführt habe (Lovink 2019). Wischen, weitermachen, dabeibleiben, nur nicht ignoriert werden, seien die treibenden Kräfte: „Social Media und Psyche haben sich vereinigt und machen das tägliche Leben zu einer,sozialen Realität´, die – ähnlich wie künstliche und virtuelle Realität – unsere Wahrnehmung der Welt und ihrer Bewohner in Besitz nimmt.“ Die soziale Realität sei ein körperschaftlicher Hybrid zwischen den mobilen Medien und der psychischen Struk- 1.3 Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 71 tur der Nutzer. Das soziale Ranking lasse sich nicht mehr auf die Interessen staatlicher und privatwirtschaftlicher Plattformen reduzieren. Die "Online-Subjekte" seien oft so tief involviert, dass das soziale Leben „in den Peer-to-Peer-Modus übergegangen“ sei. Alles drehe sich um das Ich, um das eigene Profil, die Zahl der Follower bestimme den Status. Und sobald die Motivation zur Selbstoptimierung nachlässt oder die Optimierungstechniken versagen, sinke man im Ranking und versinke deswegen in Traurigkeit. Social Media Accounts vernetzten zwar, setzten Menschen aber auch immer stärker unter Druck: durch die dauernde Optimierungserwartung, durch unrealistische Schönheits- und Statusideale, durch das Risiko, von Trollen attackiert zu werden. Google und Facebook, warnt Lovink, profitierten von negativen Emotionen, weil sie mit hoher Wahrscheinlichkeit wieder Reaktionen auslösen und damit weitere profitable Daten erzeugen. Diese Tech-Unternehmen fänden personalisierte Wege, um bei Nutzern eine schlechte Stimmung zu erzeugen, auch durch das Gefühl, ausgeliefert zu sein: dem "unablässigen Wechsel zwischen Telefon und Leben“, dem „immerwährenden Jetzt, das den,smarten´ Zustand definiert“, der dauernden Partizipation, aus der sie nicht auszubrechen wagen "aus Angst, sich wertlos und leer zu fühlen" trotz zahlloser Likes, Kommentare und Selfies. Lovink mahnt, sich diesen Mechanismus und diese Konsequenzen bewusst zu machen und sich ihnen nicht einfach weiter auszusetzen. Er selbst hat sich aus sozialen Medien teilweise verabschiedet, sein Facebook-Konto stillgelegt. Zuboff: Überwachungskapitalistische Ausbeutung und Manipulation ohne Legitimation Aufklärung, sich Zusammenhänge bewusst machen, nachdenken, sind auch die Treiber in Shoshana Zuboffs Plädoyer für einen Erhalt der Selbstbestimmtheit im – wie sie es nennt – "Zeitalter des Überwachungskapitalismus". Voraussetzung sei, genau hinzusehen, was eigentlich da gerade vor sich gehe: Das "lehrt uns den Wert unserer größten und unersetzlichen moralischen und politischen Leistungen, indem es sie zu zerstören droht. Es erinnert uns an das Vertrauen, das der einzig wahre Schutz vor der Ungewissheit ist.“ Sie appelliert: „Es ist jetzt an uns, unser Wissen einzusetzen, unsere Orientierung wiederzufinden, andere dazu aufzurütteln, dasselbe zu tun und für einen neuen Anfang zu sorgen.“ (Zuboff 2018a: 599). Das sei keine Illusion, sondern machbar, erläutert sie an historischen Beispielen. Der Fall der Berliner Mauer sei auch dem Willen der Menschen zu verdanken, die nicht mehr so weiterleben wollten, wie sie es in der ehema- Marlis Prinzing 72 ligen DDR mussten; ihr Aufbäumen sei ein wesentlicher Treiber gewesen für den Wandel. Der Wille zur Veränderung und der Unwille, weiter zu machen wie bislang, seien aneinandergekoppelt. Zuboff (2018b) wünscht sich bei Bürgerinnen und Bürgern, Journalistinnen und Journalisten, Politikern etc. einen vergleichbar anwachsenden Unwillen gegenüber dem Überwachungskapitalismus. Nur so lasse sich dessen Ausbreitung und seinen Auswüchsen Einhalt gebieten: Sobald Menschen spüren, was sie verlieren oder was ihnen genommen wird, wenn sie nicht aktiv werden, erhalte die öffentliche Meinung das Potenzial, zum entscheidenden Korrektiv zu werden. Zuboff listet die Gefährdungen auf: Indem der Mensch anderen den Zugriff auf persönliche Daten erlaube, setze er aufs Spiel, „Herr über sein eigenes Leben und Urheber seiner eigenen Erfahrung zu sein“, gefährde ferner das Grundprinzip sozialer Ordnung in einer Informationszivilisation sowie das „Recht als Individuen und Gesellschaften, eine Antwort auf die alten Fragen zu finden: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet?“ (Zuboff 2018a: 595). Überwachungskapitalismus mache menschliche Erfahrungen zu Marktgütern, indem sie in Datenform verkauft werden (vgl. Zuboff 2018b). Das sei teilweise nützlich: Manche Daten würden verwendet, um Produkte oder Dienstleistungen zu verbessern. Entscheidend sei aber der „behavorial surplus“, der „Verhaltensüberschuss“ aus über solche Verbesserungen weit hinausgehenden Daten. Das habe bei Daten aus dem Online-Verhalten auf sozialen Medien oder bei Recherchen in Suchmaschinen begonnen und umfasse heute jede Bewegung, jedes Gespräch, jeden Gesichtsausdruck, jeden Laut, jeden Text, jedes Bild. Jedes „smarte“ Gerät werde zum Knotenpunkt eines riesigen Nachschubnetzes, das weiteren Verhaltensüberschuss aufspüre und ansauge, private Erfahrung universell enteigne und in Vorhersagen ein weiteres Mal kommerzialisiere. Denn menschliches Verhalten sei auch Quelle für die Entwicklung neuer Produkte. Überwachungskapitalismus verlocke mit der Sehnsucht, sich von Anonymität, Stress und Ungleichheit zu befreien, er profitiere von einer weitverbreiteten institutionellen Gleichgültigkeit und locke mit Begriffen wie „Selbst-Ermächtigung“, „Personalisierung“ und „Bequemlichkeit“. Er habe sich auf nahezu alle Bereiche wirtschaftlicher Aktivität ausgedehnt – Versicherungen, Gesundheitssektor, Einzelhandel, Unterhaltung, Transport, Bildung – und daraus eine Überwachungswirtschaft entwickelt. Letztlich sei dies eine weitere Variante von Kapitalismus: Zunächst ging es um Profite aus Produkten, dann aus Dienstleistungen, schließlich aus Spekulationen und jetzt um Profite aus der Überwachung. Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 73 Die Harvard-Ökonomin beschreibt die Wettbewerbsdynamik rund um die Anhäufung von Verhaltensüberschuss bis hin zu Diversifikation und Datendiversität, die die Nachschubbeschaffung für das Maschinenlernen immer noch tiefer in die intime Erfahrungswelt der Menschen treibe und Stimmen, Gesichter, Persönlichkeiten und Emotionen abschöpfe. Ziel sei nicht mehr nur, möglichst alles über sie in Erfahrung zu bringen, sondern ihr (Kauf- und Konsum-) Verhalten zu manipulieren. Digitales Verbundensein werde für Marktziele ausgenützt. Das, so Zuboff, belege, dass der Vernetzung nicht quasi immanent Moral eingeschrieben sei. Die Macht, Verhalten zum Profit Dritter zu manipulieren, entbehre zudem der demokratischen oder moralischen Legitimation und löse neue Formen sozialer Ungleichheit aus. Denn die Asymmetrien an Wissen wüchsen rasant. Überwachungskapitalisten verschafften sich immense Macht, indem sie fast alles über die Menschen in Erfahrung bringen, aber über Wege und auf eine Art und Weise, die für diese nicht erkennbar seien. Zuboff empört sich über diese Entwicklung, hält sie aber nicht für unumkehrbar. Denn Digitalisierung sei keineswegs untrennbar mit Überwachungskapitalismus verknüpft. Er baue auf Algorithmen und Sensoren, Maschinenintelligenz und Plattformen, aber er sei nicht mit diesen gleichzusetzen. Je nachdem, welche gesellschaftliche und ökonomische Logik die Entwicklung digitaler Technologien antreibe, verändern sich deren Formen und Folgen. Zuboffs Analyse stützt auch die Argumentation, die Zusammenhänge seien derart komplex geworden, dass es Multistakerholder-Expertise sowie eine gebündelte und auch institutionalisierte Kraft braucht, um Innovationen und Entwicklungen im digitalen Kommunikationsraum darauf zu prüfen, welche Folgen sie für menschliche Autonomie und demokratische Souveränität auslösen (vgl. auch Abschnitt 1.1, Beispiel 2). Eine Institution, die eine Anlaufstelle sein kann für vieles, was Menschen rasch nützt: für Beschwerden, für Kompetenztrainings, für Reflexionen. Wenn die Erfahrungen mit einer solchen Einrichtung gut sind, kann dies genau die verbreitete Gleichgültigkeit gegenüber Institutionen abbauen, die vor allem jenen nützt, die von überwachungskapitalistischen Strukturen profitieren, und ein Vertrauen aufbauen mit dem Potential, zu einer bedeutsamen Gegenkraft zu wachsen. Marlis Prinzing 74 Quellen der Zuversicht: Mündige Entscheidungskraft, institutionalisierte Rücksichtnahme Wir sind den Auswüchsen auch in digitalen Kommunikationsräumen keineswegs zwangsläufig ausgeliefert. Gegenkräfte lassen sich zunächst aus der Philosophie mobilisieren. Hannah Arendt zum Beispiel bietet Orientierung für die Einschätzung der Qualität von automatisiertem Entscheiden und damit für die Beantwortung, wann und aus welchem Grund Menschen sich dem nicht aussetzen sollten (Arendt 1958; vgl. auch Prinzing 2019a). Arendt nennt drei Prinzipien menschlicher Entscheidungsprozesse: Pluralität, Natalität, Urteilskraft. Wenn Menschen sich treffen, um Entscheidungen zu entwickeln, dann erfolge dies – idealerweise – auf drei Grundlagen: erstens einer hohen Vielfalt und Vielzahl an Argumenten, zweitens der Fähigkeit der Beteiligten, aus dem gemeinsamen Gespräch heraus, also deliberativ, etwas Neues zu entwickeln, und drittens ihrer Fähigkeit, reflektiert abzuwägen (Arendt 1958, vgl. auch Canovan 1992). Weil diese drei Qualitäten in automatisierten Prozessen gar nicht einlösbar sind, dürfen insbesondere bei Entscheidungen, die Reflexion und Aufbruch zu Neuem umfassen, von Algorithmen errechnete Voraussagen nur den Rang von Hilfsprozessen haben. Ob also ein straffällig gewordener Mensch später auf Bewährung freikommt, kann demzufolge niemals ausschließlich aufgrund einer automatisiert errechneten Wahrscheinlichkeit des Resozialisierungserfolgs entschieden werden. Denn diese Berechnung basiert auf Daten, die die Vergangenheit des Betroffenen berühren. Weitere Faktoren wie die empathische Reflexion und der Austausch von Argumenten, der auch einen neuen Eindruck über eine Person ergeben kann, können algorithmisch nicht erfasst werden, sind aber wichtig, damit ein Urteil von solcher Tragweite wirklich verantwortbar wird. Menschen haben zumindest das Potenzial, gerechtere Urteile hervorzubringen (wenngleich damit nicht garantiert ist, dass sie das dann auch machen). Der Rückgriff auf Arendts Überlegungen liefert zudem eine Begründung für unseren Anspruch darauf, Auskunft zu erhalten, ob und auf welcher Datenbasis automatisierte Prozesse angewendet werden und wie wir uns gegen Fehlentscheidungen wehren können. Der Wert gemeinsamen Überlegens im Arendt´schen Sinne knüpft an Kants (1874) Aufklärungskernsatz an, sich seines Verstands zu bedienen. Er lässt sich leicht anwenden auf eine digitale Gesellschaft, in der zwei wichtige Werte gegenwärtig sehr gefährdet sind: Freiheit und Gerechtigkeit. Algorithmen ermitteln im „Wissensschatz“ großer Datensätze Muster, aus denen sich nützliche Informationen erschließen lassen, aber auch ein 2. Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 75 manche Personen oder Personengruppen diskriminierendes Wissen, oder ein Wissen, das sich rasch und mit hoher Reichweite manipulativ verzerren lässt. Der freie Zugang zu Wissen ist stets auch eine Frage der Gerechtigkeit sowie der Teilhabe an demokratischen Prozessen: Nur wenn wir Zugang haben zu den nötigen Informationen, können wir als Bürgerinnen und Bürger unser Wahlrecht wirklich sachgerecht wahrnehmen. Der Philosoph John Rawls ist einer der bekanntesten Gerechtigkeitstheoretiker des 20. Jahrhunderts. Er verwurzelte seine Theorie der Gerechtigkeit in einer Art von Naturzustand, in der Menschen unter dem „Schleier des Nichtwissens“, welche Position sie dereinst in dieser selbst einnehmen werden, eine gerechte Gesellschaft entwerfen (Rawls 1979). Der Reiz hierbei ist die Idee der Verallgemeinerbarkeit, die im Grunde auch als Bezug gesehen werden kann auf den kategorischen Imperativ, den Kant aufstellte und der dem Menschen auftrug, so zu handeln, dass dies ein allgemeines Gesetz werden könnte – und damit letztlich so, dass er es gut akzeptieren könnte, wenn die Folgen eines solchen Handelns auch den Handelnden selbst betreffen. Der Sozialphilosoph Axel Honneth entwickelte Rawls Gerechtigkeitstheorie weiter. Ihm ist Rawls abstrakter Ansatz zu unbestimmt. Honneth plädiert dafür, stattdessen Gerechtigkeitsnormen in Abhängigkeit zu institutionellen Gegebenheiten zu entwickeln. In seiner Abhandlung „Das Recht der Freiheit. Grundriss einer demokratischen Sittlichkeit“ (Honneth 2011) beschreibt er Institutionen als die Räume, die Werte verkörpern, über die wir in die Pflicht genommen werden. Gerechtigkeit bedeutet für Honneth, Freiheit für möglichst alle zu ermöglichen: Freiheit sei der zentrale Wert – mit drei Varianten: als gleicher Anspruch eines jeden Menschen auf bestimmte Grundrechte, als Anspruch auf ein eigenes Urteil über moralische Normen, und als "soziale Freiheit", die Honneth, an Georg Wilhelm Friedrich Hegel anknüpfend, als eine Form der "Anerkennung" beschreibt: Jeder wolle, dass andere ihn in seinem sozialen Handeln respektieren und ihn in seinen Zielen fördern, und genau dieses Beziehungsgeflecht müsse symmetrisch erfolgen: als ein gegenseitiges Fördern und Ergänzen im Bereich der persönlichen Beziehungen ebenso wie in den Marktbeziehungen und im Bereich der demokratischen Politik, indem Honneth unter sozialer Freiheit eine durch Moral und Recht bedingte „demokratische Sittlichkeit“ versteht. Die Wirklichkeit, so sein Befund, sieht aber anders aus: Verleugnete Wertgrundlagen führten in manchen sozialen Institutionen zu Fehlentwicklungen; der Markt löse sein Versprechen von Freiheitserfahrung nicht ein; immer mehr Marktteilnehmer wollen ohne Rücksicht auf andere nur für sich das Beste erreichen; Politik werde immer mehr zum Instrument Marlis Prinzing 76 der Wirtschaft; die aus der sozialen Freiheit der Teilnahme an öffentlicher Beratung und demokratischer Willensbildung erwachsenen Institutionen der demokratischen Gesellschaft erodieren. Und anknüpfend an Hannah Arendt und Jürgen Habermas, konstatiert Honneth, dass Massenmedien einst die Ausweitung der bürgerlichen Öffentlichkeit beförderten und der politischen Information der Bürger sowie ihrer Beteiligung an öffentlichen Diskursen dienten, heute aber solche Aufgaben nicht mehr erfüllen und ihr Publikum in unpolitischer Entspannung versenken. Solche Entwicklungen aufhalten oder sie verändern könne man nur über institutionelle Formen mit Raum für gegenseitige Verständigung und Rücksichtnahme. Die nachfolgende Abbildung fasst die Kernpunkte der Argumentation zusammen in drei Zugängen: (digitale) Aufklärung, (menschliche) Entscheidungsverantwortung, Gerechtigkeit und (soziale) Freiheit. Ein Vorschlag, wie sich diese institutionell auf mehreren Ebenen verankern lassen, wird danach in Kapitel 3 als Digital Triangle vorgestellt. (Digitale) Aufklärung (Menschliche) Entscheidungsverantwortung Gerechtigkeit und (soziale) Freiheit • Verstand • Diskurs • Kategorischer Imperativ • Bezug: Kant • Pluralität, Natalität, Urteilskraft: Reflektieren, neue Sichtweisen entwickeln, abwägen als Prozess • Bezug: Arendt • „Schleier des Nichtwissens“ • Grundrechte, moralische Autonomie, soziale Freiheit • institutioneller Rahmen für Werte • Bezug: Honneth (Rawls) Abb. 1: Auf dem Boden philosophischer Erkenntnis (eigene Darstellung) Digital Triangle: Politik, Governance Foren und Digitalrat als Eckpunkte Strategische Überlegungen Digitalisierung hat alle Lebensbereiche durchdrungen und birgt klassische und neue Herausforderungen. Die beschriebenen Beispiele zeigen, dass die Politik bislang offenbar keine Strategie entwickelt hat, um diesen zu be- 3. 3.1 Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 77 gegnen. Zu beschwören, Digitalisierung sei wichtig, genügt nicht. Demokratie, Sicherheit, Privatheit, Wohlstand – vieles ist zunehmend gefährdet. Wir müssen handeln, Verantwortung übernehmen und eine Strategie entwickeln, die die Mechanismen digitaler Kommunikationsräume erfassen, sie auf unser Wertesystem beziehen und Verantwortlichkeiten zuweisen kann. Drei Hauptzugänge liegen generell nahe: Erstens über Regelungsstrukturen, die aus einer Kombination von ethischen und sozialen Normen, von Vertragsvereinbarungen, Gesetzesrecht und technischen Gesetzmäßigkeiten entstehen. Zweitens über die Prozesse, in denen Regelungen für digitale Kommunikationsräume gebildet werden. Und drittens über Akteure, die Regelungen aushandeln und denen Verantwortung und Legitimität zugeschrieben wird. Für Deutschland vermisst z.B. Spielkamp (2019) bislang ein erkennbar planmäßiges Vorgehen. Zwar riefen Regierung und Parlament Kommissionen, Expertengruppen und Organisationen ins Leben, doch vieles überschneide sich oder laufe parallel. Zudem fehle es an Ideen, um den beträchtlichen Risiken effektiv zu begegnen. Eine weitere Voraussetzung mahnt Debatin an (2016): Kompetenz sowie ein Konzept, wem Verantwortung zuzuweisen ist. Er argumentiert, nur wenn Verantwortung klar und eindeutig in Ethikkodizes festgelegt und Akteuren zugewiesen wird, sei vermeidbar, „dass die Verantwortung nach Belieben zwischen den Individuen und zwischen Individuen und Organisation hin- und hergeschoben wird“. Eingedenk der mehrfach beschriebenen Gründe für eine institutionelle Verankerung des Themas, wird im Folgenden ein kombinierter Ansatz vorgeschlagen und vorgestellt, eine Digital Triangle. Ein kombinierter Ansatz mit einem nationalen unabhängigen Digitalrat Die Digital Triangle besteht aus drei institutionellen Adressaten, die miteinander im Austausch stehen: 1. Nationale Digitalpolitik (Staatsministerium) / Digitalministerium, 2. Internet Governance Forum (inter- und transnational und national), 3. nationaler Digitalrat. 3.2 Marlis Prinzing 78 Internet Governance Foren • internationale und nationale Ebene • Debatte • Multistakeholder, Bottom-up Digitalrat • nationale Ebene: DIREKTE Anlaufstelle • Selbstregulierung, unabhängig, Legitimation ggf. co-regulativ • Beschwerdestelle / Digitalkodex • Grundsatzdebatte • Task Force-Gruppen zu aktuellen Themen • Multistakeholder Politik / Staatsministerium / Digitalministerium • nationale Ebene • Gestaltung/Rahmensetzung • Beratungsmandat an Digitalrat Abb. 2: Digital Triangle: Eckpunkte einer Digitalstrategie (eigene Darstellung) Politikebene: Raum für Rahmensetzungen Der Politik wird der Auftrag zugeschrieben, den Rahmen zu gestalten. Der Auftrag adressiert politische Mandatsträger und Regierung. Das Haus dazu kann ein Digitalministerium sein, das aber kein Superministerium sein sollte, in dem „alles, was mit digital zu tun hat“ aus anderen Ressorts zusammengezogen wird, sondern ein Raum, wo Weichenstellungen entwickelt werden, die in allen Ressorts nützlich sind, zumal Digitalisierung ja auch in alle Ressorts hineinwirkt. Die Politik ist hier zwar längst in der Pflicht, bekundet in Deutschland bislang aber offensichtlich Mühe, vorwärts zu machen. Erstens, weil die digitale Entwicklung in Verwaltung, Breitbandinfrastruktur und Bildung rückständig ist; das wird zwar eingesehen, aber es wird kaum gehandelt. Das liegt am zweiten, strukturellen Punkt: Die meisten Zuständigkeiten für digitale Themen sind gegenwärtig auf das Verkehrs-, das Wirtschaftsund das Innenministerium verteilt; um in diesem Themenfeld zu koordinieren, wurde 2018 Dorothee Bär als Staatsministerin im Kanzleramt ernannt, erhielt aber kein Ministerium, in dem diese Themen unter einem Dach gebündelt sind, obwohl dies im Koalitionsprogramm versprochen wurde. Ein Bündnis aus dem Bundesverband deutscher Startups, den Wirtschaftsverbänden Bitkom und Eco, den parteinahen Digitalvereine D64, Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 79 cnetz und Load (vgl. Reuter 2018) will über eine Petition erreichen, dass ein solcher Digitalminister ernannt wird, und schlug gleich ein "Stellenprofil" vor (vgl. Digitalministerium 2018). In Frankreich, Großbritannien, Polen und Österreich gibt es solche Ministerien, die sich allerdings in der Aufgabenstellung unterscheiden. Internet Governance Foren: Raum für internationale Multistakeholder- Perspektiven Eine weitere Spitze der Digital Triangle bilden die auf internationaler wie nationaler Ebene eingerichteten Internet Governance Foren (IGF) der UN (vgl. IGF (Deutschland); IGF (UN)). Dessen auf UN- und EU-Ebene sowie auch in Deutschland angewendeter Governance-Ansatz passt auch deshalb gut in das Triangle-Konzept, weil er auf demokratische Deliberation, Aufklärungsprinzipien und Kooperation aufbaut. Der Begriff Internet Governance wurde Ende der neunziger Jahre entwickelt, gerade um klar zu machen, wie komplex die Fragen sind, die sich mit dem Internet stellen, und wer sich alles zu den Regierungsvertretern an den Tisch setzen muss, um gemeinsam tragfähige Lösungen zu entwickeln (vgl. Esch 2018). Die „Stakeholder“ dieser „ersten Stunde“ – Personen aus Informationstechnik, Politik, Wirtschaft, Wissenschaft, Zivilgesellschaft – sind letztlich die gleichen geblieben. Beim UN-Weltgipfel zur Informationsgesellschaft (WSIS) 2005 in Tunis haben 193 Staats- und Regierungschefs diesen „Multistakeholder“-Ansatz als den zielführenden für eine konstruktive, dezentral sowie global ausgerichtete Internetpolitik etabliert. Über eine Bottom-up Struktur werden Politikvorschläge von der Basis aus nach oben getragen. Umsetzungsbeispiel neben den IGF ist die ICANN (Internet Corporation for Assigned Names and Numbers), die Verwaltung für Internetressourcen (Domainnamen, IP-Adressen, Root Server). Die Offenheit für zivilgesellschaftliche Expertise und damit für die transnationale Perspektive ist ein Hauptkritikpunkt an diesem Governance-Ansatz. Im Kontext der vorgeschlagenen Digital Triangle passt diese aber gut. Die IGF repräsentieren darin zwar den speziell netzpolitischen Fokus und die Brücke zwischen nationalem und internationalem Diskurs. Aber ihre institutionelle Struktur ist dem Konzept ähnlich, dem ein Digitalrat folgen sollte, der im nächsten Punkt beschrieben wird, kann also befördern, dass diese Einrichtungen sich recht mühelos ergänzen. Den Digitalrat im Multistakeholder-Prinzip zu strukturieren, folgt der Logik, Marlis Prinzing 80 dass Internet-Regulierung und Internet-Politik letztlich Ergebnisse von und für vernetzte Zusammenhänge sind. Ein Beispiel: Entscheidungen zur Überwachung am Berliner Südkreuz tangieren Selbstbestimmtheit, Datenschutz, Meinungsfreiheit, Menschenwürde. Die Überwachungstechnik muss sicher sein und sie soll sich rechnen. Folglich müssen sich Informatiker, Philosophen und Ethiker, Politiker, Ökonomen etc. an einen Tisch setzen und aus ihren jeweiligen Blickwinkeln und auf normativen Grundlagen aufbauend argumentieren, aber auch das Transdisziplinäre, die Verknüpfung, das Gesamte im Blick haben: Wohin entwickelt sich eine Gesellschaft, wenn an immer mehr öffentlichen Plätzen solche Techniken eingesetzt und unsere Verhaltensweisen überwacht und kommerzialisiert werden? Wie sieht es auf internationaler Ebene in diesem Bereich aus? Digitalrat: Task Forces, Beschwerdestelle, Diskursforum Der Digitalrat (nicht zu verwechseln mit der im Sommer 2018 eingesetzten gleichnamigen Beratungskommission der Bundesregierung) ist gedacht als eine zentrale und unabhängige Anlaufstelle für Fragen der digitalen Gesellschaft vor allem in Deutschland. In diesem Multistakeholder- Gremium vertreten sein müssten Politik, Wissenschaft, Wirtschaft, Medien, zivilgesellschaftliche Gruppen, Fachexperten und -expertinnen z.B. aus Verbänden wie Eco, Communities rund um die Digitalkonferenz re:publica und den Chaos Computer Club oder spezialisierter Forschungstransfergruppen wie u.a. das Forum Privatheit. Das Portfolio des Digitalrats sollte breit angelegt sein. Eine Aufgabe sind Recherchen und Debatten über Grundsatzfragen. Der Digitalrat sollte ferner rasch handlungsfähige, bewegliche TaskForces für aktuelle Fragen und Konzepte bilden, die z.B. ein Automatisierungsregister entwickeln. Beim Digitalrat angesiedelt sein müsste zudem eine Anlaufstelle für Beschwerden aus der Bevölkerung, die digitale Themen betreffen, sowie für digitale Bildung. Hier oder im Rahmen einer TaskForce sollte ein Digitalkodex entwickelt werden: als ethischer Kompass ähnlich dem Pressekodex und ebenfalls aufbauend auf Denkansätzen z. B. der Aufklärung, aber auch auf teilweise schon weit gediehenen, bestehenden Vorstößen (z.B. digitalcharta.eu). Und der Digitalrat müsste ein Konzept entwickeln und vorschlagen, welches Handlungsverantwortung relevanten Gruppen zuweist: z. B. an die Privatwirtschaft für eine Strategie zur Corporate Digital Responsibility, an die Politik in ihrer gesetzgeberischen Bildungs- und Forschungsverantwortung, ferner an die Informatik und an den Journalismus. Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 81 Im Bildungsbereich könnten von hier aus auch Anstöße kommen für eine Bundeszentrale für mathematische Bildung. Mathematics Literacy ist in einer digitalen Gesellschaft eine der Grundvoraussetzungen für autonomes Handeln; entsprechend müssen ein mathematisches Grundverständnis sowie ein Grundwissen z. B. über Statistik und Algorithmen zu Kulturtechniken werden wie Lesen und Schreiben (vgl. O´Neil 2018, Prinzing 2018). Der Digitalrat muss inhaltlich unabhängig arbeiten können, kann aber zum Beispiel co-regulativ durch das Parlament eine Legitimation erhalten. Er könnte alternativ auch stiftungsgetragen installiert sein. Wichtig ist, dass er ein Mandat erhält, an der Internetpolitik wirklich mitarbeiten zu dürfen. Als Expertise-Pool kann er Brücken über parteipolitische Interessen hinweg bauen. Und in einer solchen Institution ließe sich in Deutschland vielfältig vorhandene, aber bislang auf vielerlei Initiativen verteilte Expertise auch verknüpfen zu gebündelter, kreativer Kraft. Fazit Die Transformation digitaler Kommunikationsräume beruht auf Prinzipien und Mechanismen, die unsere Freiheit, unveräußerliche Menschenrechte wie jenes auf Privatheit und unsere Selbstbestimmtheit kosten können. Diese Mechanismen können die Demokratie in eine digitale Diktatur stürzen mit einer das menschliche Verhalten kapitalisierenden Ökonomie und einer Gesellschaft, deren Miteinander sich durch über soziale Medien ausgespielten Druck zunehmend reduziert. Die digitale Gesellschaft steht am Rande solcher Abgründe, hat aber auch die Option, Wege zu bauen, die in eine andere Zukunft führen: Zum Beispiel, indem ein Kant´scher Kernsatz zur Aufklärung – „Habe Mut, Dich Deines Verstands zu bedienen“ – in die digitale Gesellschaft übertragen wird. Indem in der Tradition von Hannah Arendt menschlicher Reflexion genügend Raum gegeben und ihr – insbesondere bei sensiblen Themen – automatisierte Entscheidungsprozesse untergeordnet werden. Indem mit John Rawls am Ziel einer möglichst gerechten Gesellschaft festgehalten und mit Axel Honneth die soziale Freiheit eines verständnisorientierten, sich gegenseitig fördernden Miteinanders durch institutionelle Rahmung vorangebracht wird. Aus dieser philosophischen Perspektive heraus lässt sich eine Handlungsstrategie ableiten. Sie fasst den digitalen Raum als "Digital Triangle" mit Politik-Perspektive, (internationaler wie nationaler) Internet Governance-Perspektive sowie der Institutionalisierung eines breiten Portfolios an Aufgaben für Fragen der digitalen Gesellschaft in Deutschland in einem als Multistakeholder-Gremium strukturierten unabhängigen Digitalrat. Dieser Vorschlag 4. Marlis Prinzing 82 zu einer strategischen, ethisch orientierten Neugestaltung digitaler Räume soll zugleich die Debatte befeuern über eine durch die digitale Mediatisierung angetriebene Re-Figuration der Gesellschaft und damit über Antworten auf letztlich traditionelle ethische Grundsatzfragen: Wer ist in der Verantwortung? Auf welcher normativen Grundlage und wofür? Wie werden Publikumsbeschwerden behandelt? Für welche Herausforderungen bedarf es flexibler Task-Force-Strukturen? Literatur Algorithm Watch (2019). Atlas der Automatisierung. Automatisierte Entscheidungen und Teilhabe in Deutschland. https://atlas.algorithmwatch.org/. Anna – das vernetzte Leben. Hg. von Irights (2017–2019) https://www.anasleben.de. Arendt, Hannah (1958). The Human Condition. Chicago: University of Chicago Press. Arendt, Hannah (2007). Über das Böse: Eine Vorlesung zu Fragen der Ethik. München und Zürich: Piper [Erstveröffentlichung 1965]. Brüggemann, Michael (2008) Europäische Öffentlichkeit durch Öffentlichkeitsarbeit? Die Informationspolitik der Europäischen Kommission. Wiesbaden: VS. Canovan, Margaret (1992). Hannah Arendt. A Reinterpretation of Her Political Thought. Cambridge: Cambridge University Press. Darling, Kate (2017). 'Who's Johnny?' Anthropomorphic Framing in Human-Robot Interaction, Integration, and Policy (March 23, 2015). In: Robot Ethics 2.0, Hg. von P. Lin, G. Bekey, K. Abney, R. Jenkins, Oxford University Press, 2017: http:// dx.doi.org/10.2139/ssrn.2588669 (Abfrage am: 25.5.2019). Debatin, Bernhard (2016). Verantwortung. Grundbegriffe der Medienethik. In: Communicatio Socialis 1, 2016, 68–73. Deutscher Presserat. www.presserat.info. Deutscher Public Relations Rat. http://drpr-online.de/. Deutscher Werberat. https://www.werberat.de/. Digitalcharta. https://digitalcharta.eu/. Esch, Johanna (2018). Internationale Internet-Governance. Das Internet als Herausforderung für etablierte Medienpolitik. In: Aus Politik und Zeitgeschichte 40– 41/2018. http://www.bpb.de/apuz/276561/internationale-internet-governancedas-internet-als-herausforderung-fuer-etablierte-medienpolitik?p=all (Abfrage am: 25.5.2019). Entman, Robert (1993): Framing: Towards a Clarification of a Fractured Paradigm. In: Journal of Communication 43 (3). 1993. S. 51–58, https://doi.org/10.1111/ j.1460-2466.1993.tb01304.x (Abfrage am: 25.5.2019). Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 83 Europäische Kommission (2019). Künstliche Intelligenz. 8.4.2019. https://ec.europa.eu/commission/news/artificial-intelligence-2019-apr-08_de. (Abfrage am: 25.5.2019). Fuest, Benedikt (2019). Außer Kontrolle. In: Welt am Sonntag, Nr. 21, 26.5.2019. Habermas, Jürgen (1981a). Theorie des kommunikativen Handelns. Band 1: Handlungsrationalität und gesellschaftliche Rationalisierung. Frankfurt / M.: Suhrkamp. Habermas, Jürgen (1981b). Theorie des kommunikativen Handelns. Band 2: Zur Kritik der funktionalistischen Vernunft. Frankfurt / M.: Suhrkamp. Honneth, Axel (2011). Das Recht der Freiheit. Grundriss einer demokratischen Sittlichkeit. Frankfurt: Suhrkamp. Internet Governance Forum (IGF UN). https://www.intgovforum.org/multilingual/ Internet Governance Forum (IGF Deutschland). https://www.intgovforumdeutschland.org/ Kant, Immanuel (1999/1784): Was ist Aufklärung? In: ders.: Was ist Aufklärung? Ausgewählte kleine Schriften, Hg. von H. Brandt, Philosophische Bibliothek, Bd.512, Hamburg: Meiner, 20–27. Knoblauch, Hubert / Löw, Martina (2020): The Re-Figuration of Spaces and Refigured Modernity – Concept and Diagnosis. In: Historical Social Research, Jg. 45, Nr. 2. doi: 10.12759/hsr.45.2020.2.263 – 292, S. 263–292. Kühl, Eike (2017). My Friend Cayla: Vernichten Sie diese Puppe. In: Zeit-online, 17.2.2017. https://www.zeit.de/digital/datenschutz/2017-02/my-friend-cayla-puppe-spion-bundesnetzagentur (Abfrage am: 25.5.2019). Lovink, Geert (2019). Programmierte Traurigkeit. In: Lettre International 123, Winter 2018, https://www.lettre.de/print/13972; Englisch: Sad by design. Eurozine https://www.eurozine.com/sad-by-design/?pdf N.N. (2018). Digitalministerium. https://digitalministerium.org/ O Neil, Cathy (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown. Prinzing, Marlis (2018). Versöhnt Euch mit der Zahl. In: Schweizer Journalist 10/11– 2018. Prinzing, Marlis (2019a). Auf dem Weg in eine Diktatur der Wahrscheinlichkeit? Fragen nach der Verantwortung beim Einsatz von Prognosesoftware. In: Friedewald, M., Ochs, C. (Hg.) Die Zukunft der Datenökonomie. Springer VS. Prinzing, Marlis (2019b). Alles Rezo – oder was? In: Tagesspiegel, 2.6.2019, https:// www.tagesspiegel.de/gesellschaft/medien/media-lab-alles-rezo-oder-was/ 24412714.html (Abfrage am: 25.6.2019). Prinzing, Marlis (2019c). Entblößt im Glashaus oder auf Kurs in eine selbstbestimmte Zukunft? Von der Notwendigkeit einer systematischen ethischen Vermessung des Privaten als Basis digitaler Aufklärung – ein Essay. In: Ettinger, P., Eisenegger, M., Prinzing, M., Blum, R. (2018): Intimisierung des Öffentlichen. Zur multiplen Privatisierung des Öffentlichen in der digitalen Ära. 289–305. Marlis Prinzing 84 Prüfer, Tillmann (2019). Sie kommen. In: Zeit Magazin, 18.5.2019, https:// www.zeit.de/zeit-magazin/2019/21/roboter-mensch-technologie-robotik-privatleben (Abfrage am: 25.5.2019). Rawls, John (1979). Eine Theorie der Gerechtigkeit. Frankfurt: Suhrkamp. Reuter, Markus (2018). Wirtschaftsverbände werben mit Petition für Digitalministerium. In: Netzpolitik.org, 14.2.2018 https://netzpolitik.org/2018/wirtschaftsverbaende-werben-mit-petition-fuer-digitalministerium/ (Abfrage am: 25.5.2019). Rezo (2019). Jetzt reicht´s. Zerstörung der CDU. https://www.youtube.com/watch? v=4Y1lZQsyuSQ&t=1142s Spielkamp, Matthias (Hg.) (2019). Automating Society. Taking Stock of Automated Decision-Making in the EU. Berlin: AW Algorithm Watch. https://algorithmwatch.org/automating-society-maintanance/ Stapf, Ingrid, Prinzing, Marlis, Filipovic, Alexander (Hg.) (2017). Gesellschaft ohne Diskurs? Digitaler Wandel und Journalismus aus medienethischer Perspektive. Baden- Baden: Nomos (Kommunikations- und Medienethik 5). Wachter, Sandra, Mittelstadt, B. (2018). A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI. In: Columbia Business Law Review, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3248829 (Abfrage am 4.2.2019). Zuboff, Shoshana (2018a). Das Zeitalter des Überwachungskapitalismus. Frankfurt, New York: Campus. Zuboff, Shoshana (2018b). Keynote am 11. Oktober 2018 auf der Konferenz „Zukunft der Datenökonomie“ des Forum Privatheit; unveröffentlichte Mitschrift der Verfasserin. Eine deutsche Fassung der Keynote erschien in „Aus Politik und Zeitgeschichte“, Ausgabe 24–26/2019, „Datenökonomie“, Hg. von der Bundeszentrale für politische Bildung. Aufgeklärt und selbstbestimmt: Vorschlag für eine Strategie 85 Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung. Betrachtungen zur ethischen Mehrdimensionalität öffentlicher Kommunikation Klaus-Dieter Altmeppen Abstract Verantwortung kann als ein Leitbegriff angewandter Ethik angesehen werden. Allerdings ist dieser Leitbegriff so vielsagend wie ausdruckslos, weil viele ihn nutzen und dabei zugleich überstrapazieren, ohne aber auch nur annäherungsweise deutlich zu machen, wer oder was damit gemeint ist. Die Fragen, wer wofür auf welcher Grundlage wem gegenüber verantwortlich ist, schaffen sehr diffizile Verantwortungsebenen. So ist Facebook beispielsweise nicht für reißerische Themen von Polittalkshows im öffentlich-rechtlichen Fernsehen verantwortlich. Sehr wohl aber ist Facebook verantwortlich für verschiedenste Formen von Hassreden im Netz, für die aber zugleich auch die Verfasser_innen verantwortlich sind. Antworten auf die Frage nach verantwortlichem Handeln und der Zuschreibung von Verantwortung sind, so ist festzuhalten, schwierig. Sie unterscheiden sich zum Beispiel nach dem Verantwortungssubjekt (Redaktionen, Facebook), dem Verantwortungsobjekt (Nutzer_innen, Publikum, Quellen) und den Normen der Verantwortung (Pressekodizes, EU-Recht). Die wenigen Beispiele weisen bereits auf die Vielfalt von Verantwortung hin, die in diesem Beitrag mit der Vielfalt von Themen und der Vervielfältigung von Öffentlichkeiten gemeinsam thematisiert werden. Vervielfältigungen von Wirklichkeit: Die Problemlage Der Ausgangspunkt der theoretischen Überlegungen sind Themen. Sie stehen als Dachbegriff für unterschiedlichste Inhalte und es ist davon auszugehen, dass sich die Aufmerksamkeit der verschiedenen Publika in erster Linie dadurch konstituiert, dass ein Interesse an einem Thema oder mehreren Themen besteht. Das Smartphone wird nicht des Smartphones wegen genutzt (jedenfalls nur sehr selten), sondern aus unterschiedlichen Weilund Um zu-Motiven (s. hierzu Schütz/Luckmann 1988: 253 ff.), die mit Inhalten zu tun haben. Themen sind folglich von erheblicher individueller 1. 87 und gesellschaftlicher Relevanz und Themen sind mit Fragen nach Verantwortung verknüpft, das eine Thema intensiver (Klimawandel), das andere loser (Tempolimit). Eines der großen Probleme der Forschung zum Öffentlichkeitswandel besteht darin, das Ineinandergreifen (oder Auseinanderfallen) verschiedener – an technologische Strukturen gebundener – Öffentlichkeiten zu erfassen. Bei dieser Forschung können Themen helfen, anhand derer sich die Verläufe öffentlicher Diskurse aufzeigen lassen: die analogen wie digitalen Orte ihrer Entstehung, die Verbreitung (oder eben auch Nichtverbreitung) über die verschiedenen Medien und Plattformen und die Veränderung von Themen. Themen sind somit Landkarten, um den Strukturwandel der Öffentlichkeit nachzuzeichnen. Dazu wird ein Wabenmodell von Öffentlichkeiten expliziert und diskutiert. Der Zusammenhang von Themen, Öffentlichkeiten und Verantwortlichkeiten entsteht in einem rekursiven, reflexiven Kommunikationsprozess. Rekursiv bedeutet, dass soziale Strukturen – wie Öffentlichkeit – in einem fortlaufenden Prozess durch das Handeln der Akteure hervorgebracht und reproduziert werden (Giddens 1997: 52). Öffentlichkeitsstrukturen ermöglichen öffentliches Handeln und beschränken es zugleich, und zwar hinsichtlich des Handelns der Akteure, der rekursiv mit dem Handeln verbundenen Strukturen und der kommunikativen Inhalte. Rekursivität schafft eine Interdependenz zwischen den Themen, ihren Kontexten und Vermittlungsformen (Strukturen) und den Beiträger_innen, also den Akteuren, die Themen behandeln. In diese Konfiguration ist Verantwortung eingewebt, denn ihr Vorhandensein (oder Fehlen) manifestiert sich im Handeln. Spannend wird dieser Komplex durch die Digitalisierung, die die öffentliche Kommunikation kräftig aufmischt. Gleichwohl ist Digitalisierung noch ein schwer fassbares Phänomen. Eine sehr brauchbare Definition für diesen schillernden Begriff bieten Jünger/Schade an (2018: 500), wonach digitale Technologien die Realität und die Beobachtung dieser Realität verändern. Dieser Zusammenhang dürfte von grundlegender Bedeutung für den Strukturwandel der Öffentlichkeiten und seine Erforschung sein, denn die digitalen Geräte sind die Beobachtungsinstrumente der Realität, die sich durch die Geräte zugleich selbst verändert. Diese Feststellung trifft im gleichen Maße auf das traditionelle Mediensystem (Fernsehen, Hörfunk, Print) zu. Es verändert sich durch digitale Technologien grundlegend und in zweifacher Form: die traditionellen Medien werden digitalisiert und verändern darüber ihre Strukturen und Leistungen, während digitale Technologien zugleich medienähnliche Strukturen (Institutionen und Organisationen) und Leistungen neu entstehender ökonomi- Klaus-Dieter Altmeppen 88 scher Akteure ermöglichen. Und alle individuellen wie kollektiven Akteur_innen des Handlungsfeldes Öffentlichkeit beobachten zugleich die neu entstehenden Realitäten mit den digitalen Technologien. Als maßgebliche Akteure werden in der Regel die GAFA genannt (Google, Apple, Facebook, Amazon). Sie werden alltagssprachlich wie in den Wissenschaften umstandslos als Medien bezeichnet. Ihre Leistungen sind aber allenfalls medienähnlich, sie liegen in der Distribution von Inhalten, die sie durch Werbung finanzieren. Während traditionelle Medien (Print, Hörfunk, Fernsehen) – mittlerweile längst auch voll digitalisiert – den Orientierungshorizont der Öffentlichkeit mit seinen demokratiefunktionalen Anforderungen (Information, Kritik und Kontrolle, Aufklärung, Anwaltschaft) zumindest mitbedenken, agieren die digitalen Plattformen allein entlang des Orientierungshorizontes der Wirtschaft (zahlen/nicht zahlen). Dem Journalismus ähnliche oder auch nur dem Journalismus vergleichbare Leistungen (gerade auch im Sinne der Erfüllung von gesellschaftlichen Funktionen) erbringen sie überhaupt nicht. Im Folgenden werden die Zusammenhänge von Themen, Öffentlichkeiten und Verantwortung kapitelweise diskutiert. Vielfältige Themen Der Begriff Themen wird bislang meistens ungerichtet oder in aggregierter Form benutzt, etwa bei der Untersuchung von Themenkarrieren, Themenverdrossenheit und Themensetzung (Agenda Setting). Konkret werden Themen, die gesellschaftlich relevant sind wie derzeit etwa Klimawandel, Tempolimit, Rentenkompromiss oder Pflegenotstand, in der Kommunikationswissenschaft eher randständig behandelt. Diese Themen sind aber „unumgängliche Erfordernisse der Kommunikation“ (Luhmann 1996: 28): „Sie repräsentieren die Fremdreferenz der Kommunikation. Sie organisieren das Gedächtnis der Kommunikation. Sie bündeln Beiträge zu Komplexen des Zusammengehörigen, so dass in der laufenden Kommunikation erkennbar ist, ob ein Thema beibehalten und fortgesetzt oder ob es gewechselt wird. Auf thematischer Ebene kommt es deshalb zu einer laufenden Abstimmung von Fremdreferenz und Selbstreferenz innerhalb der systemeigenen Kommunikation.“ (Luhmann 1996: 28) Themen geben umfassend Auskunft über Inhalte und Beiträger_innen, über deren Ansichten und Einstellungen sowie über das, was die Gesellschaft besprechen will. Diese Leistungen erbringen Themen jenseits der Dualität von analog und digital. Das macht Themen so wertvoll für die 2. Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 89 Analyse des Strukturwandels der Öffentlichkeit (Altmeppen/Evers 2020). Zwei Aspekte sind zentral: (1) Der Fakt, dass durch Themen in der laufenden Kommunikation erkennbar ist, ob ein Diskurs oder einzelne Aspekte daraus beibehalten, fortgesetzt oder ob es gewechselt werden, ist von zweifachem analytischem Wert. Erstens auf einer internen Ebene: Dort kann durch Themen ermittelt werden, ob ein Diskurs innerhalb eines Mediums oder einer digitalen Plattform das Thema beibehält oder ob es wechselt. Zweitens kann auf einer externen Ebene durch Themen nachverfolgt werden, ob und welche Themen zwischen den technologisch möglichen Öffentlichkeiten wechseln, welche also von der Berichterstattung in klassischen journalistischen Umgebungen in die Plattformöffentlichkeit springen und/oder umgekehrt. (2) Diese Option des Wechselns führt dazu, dass die thematische Abstimmung von Fremdreferenz und Selbstreferenz nicht mehr innerhalb einer systemeigenen Kommunikation stattfindet, sondern kommunikative Grenzen überspringt. Hassreden sind ein beredtes Beispiel für diese kommunikativen Grenzüberschreitungen. Hassreden beziehen sich auf bestimmte Themen (Ereignisse), die in kuratierter Form in Medien behandelt, auf den digitalen Plattformen aber in gänzlich anderer kommunikativer Weise adaptiert und verändert werden. Themen leisten aber noch mehr (vgl. zum Folgenden Altmeppen/Evers 2020). Sie ordnen Kommunikationszusammenhänge, weil sich Beiträge auf das Thema beziehen können; sie schaffen langfristige Sinnzusammenhänge, weil Themen Beiträge überdauern; sie regulieren, „wer was beitragen kann. Themen diskriminieren die Beiträge und damit auch die Beiträger“ (Luhmann 1987: 213), nicht nur im Journalismus, sondern auch die Beiträger_innen auf den Social Media-Netzseiten. Erkennbar werden Akteure, sofern nicht die Personen selbst das Thema sind, etwa in den selbstbezüglichen öffentlichen Beiträgen zu Prominenz, wenn sie sich auf Themen beziehen. Und schließlich sind auch Formen wie Konflikt, Konkurrenz, Kooperation und Tausch erkennbar deutlich und unzweifelhaft an Inhalte gebunden (Neuberger 2014). Selbst ein Konflikt, der nur des Konfliktes wegen gesucht wird, braucht ein Thema, an dem er entzündet werden kann; getauscht wird nicht des Tausches wegen, sondern um Artefakte, Wissen etc. zu handeln; Konkurrenz und Kooperation erfolgt nicht per se, sondern bezieht sich auf Phänomene (Markt, Forschungsgelder, politische Alleinstellungsmerkmale), die als Themen gedeutet werden können. In nahezu allen Beispielen spielt Verantwortung implizit und/oder explizit eine Rolle. Klaus-Dieter Altmeppen 90 Verschiedene Studien zeigen, dass Themen auch in digitalen Kontexten eine große Rolle spielen. Dies gilt für Newsroom-Strukturen, wo sich Teams um Themen herum bilden, „the topics that take centre stage.“ (García-Avilés/Kaltenbrunner/Meier 2014: 577). Und auch die Nachrichten in den digitalen Plattformen, als „Beifang“ abgetan (Kümpel 2019: 37), funktionieren vor allem dann, wenn Nachrichten an Themen gebunden sind. Öffentliche Meinungsbildung setzt dann ein, wenn Themen in den Fokus rücken wie beim Syrien-Konflikt, bei der Betreuungsgeld-Debatte und beim Breivik-Prozess (Geiß 2015) oder beim Handelsabkommen TTIP (Leißner 2017). Der Blick auf die technischen Strukturen verstellt die Erkenntnis, dass es die Diskursstrukturen (Ritzi 2014: 8) über Themen sind, die den Wandel der Öffentlichkeit ausmachen und die die Grenzen von Öffentlichkeiten sichtbar machen (Westerbarkey 2013: 32; s. auch Evers 2019: 156). Neben den latenten Themen, also solchen, die gerade entstehen, gibt es manifeste Themen, also solche, die bereits (länger) sichtbar sind und dauerhaft bestehen. Hierzu gehört eine Reihe von Phänomenen, die als normative Schlüsselkonzepte bezeichnet werden können. Als Schlüsselkonzepte erfahren Zusammenhalt und Gemeinwohl aufgrund gesellschaftlicher Konflikte (Rechtsextremismus, Unternehmensverantwortung) öffentlich hohe Aufmerksamkeit, es können aber auch viele weitere genannt werden wie etwa Solidarität, Gerechtigkeit und Gleichheit (Altmeppen et al. 2019). Für Schlüsselkonzepte gilt, dass sie prägende Normen gesellschaftlicher Lebensvorstellungen sind. Dies macht sie zu manifesten Themen, deren charakteristisches Merkmal darin liegt, dass sie auf öffentliche Kommunikation angewiesen sind. Wenn Normen von der Gesellschaft geprägt werden und sie die Gesellschaft ihrerseits prägen, wenn diese Normen unbestimmt und offen sind, dann ist die Entstehung, Wirksamkeit, Bewahrung und Veränderung dieser Schlüsselkonzepte das Ergebnis von Aushandlungsprozessen und damit untrennbar daran geknüpft, dass öffentlich (verhandelt) wird, was mit diesen Schlüsselkonzepten verstanden werden soll. Bei einem Strukturwandel von Öffentlichkeiten müssen sich nicht zwangsläufig die Schlüsselkonzepte ändern, es verändern sich aber die Rahmenbedingungen ihrer öffentlichen Definition und Perzeption. Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 91 Vielfältige (digitale) Öffentlichkeiten Konzeptionen von Öffentlichkeit Forschungen zum Strukturwandel der Öffentlichkeit nehmen derzeit einen breiten Raum ein, ausgelöst vor allem durch die digital-technologischen Innovationen und deren ökonomische Verwertung. Unstrittig ist, dass sich die Arenen öffentlicher Kommunikation vervielfältigen. Umstritten ist, wie diese Vervielfältigung theoretisch gefasst werden kann. Daher mangelt es derzeit nicht an Vorschlägen, Öffentlichkeiten und öffentliche Meinungsbildung neu zu denken (s. zum Folgenden und vor allem zum Zusammenhang von Öffentlichkeitskonzeptionen und Themen Altmeppen/Evers 2020), wobei Öffentlichkeiten, auch digitale, grundsätzlich als jene fortlaufenden Prozesse angesehen werden, „in dem sich die Mitglieder einer Gesellschaft darüber verständigen, wie sie leben wollen“ (Klaus 2017, 22). Pfetsch/Löblich und Eilders (2018: 479) schlagen vor, „Kommunikation in Öffentlichkeiten (...) mit dem Interpretationsrahmen von Dissonanzen neu zu begreifen, um so die disparaten und vielschichtigen Prozesse sowie die widersprüchlichen Folgen des Öffentlichkeitswandels zum Gegenstand zu machen“. Dissonanzen sollen „die Vielfalt und (…) die Synchronität nicht notwendigerweise aufeinander bezogener Stimmen und Botschaften als Kennzeichen von Öffentlichkeiten“ erkennbar werden lassen (Pfetsch/ Löblich/Eilders 2018: 480). Dissonante Öffentlichkeiten sind komplex, aber auf andere Weise als komplexe Öffentlichkeiten, wie sie Waldherr definiert. Nach Waldherr (2017: 537) ist ein komplexes System definiert „als ein System heterogener, vernetzter Komponenten, die sich ohne zentrale Kontrolle selbst organisieren und emergente, nichtlineare Makrophänomene hervorbringen.“ Die Wirkmechanismen dieser Öffentlichkeiten sind Vernetzung, Selbstorganisation, Emergenz, Nichtlinearität und Heterogenität, die für komplexe Öffentlichkeiten stehen. Mit dem Vordringen digitaler Technologien in die privatesten Bereiche ist zugleich eine Umkehr der klassischen Rollenverteilung zwischen Produzenten und Konsumenten verbunden. Dieses Phänomen nimmt Klinger (2018: 260) neben anderen zum Anlass, Öffentlichkeit als Raum für spezifische Kommunikationsbeziehungen zu konzipieren. Sie unterscheidet öffentliche, semiöffentliche und private Kommunikation in Verbindung mit verschiedenen Formen sozialer Beziehungen (Klinger 2018: 248). Unter diesen Voraussetzungen wird es durch die Verbindung von Öffentlichkeitstheorie und relationaler Soziologie möglich, „die Transformation von 3. 3.1 Klaus-Dieter Altmeppen 92 Öffentlichkeit als eine Transformation der Kommunikationsbeziehungen innerhalb von Öffentlichkeit zu verstehen.“ (Klinger 2018: 249) Ein in der Kommunikationswissenschaft wenig beachteter Zweig der Forschung zum Strukturwandel der Öffentlichkeit entstammt der Politikwissenschaft. Unter Rückgriff auf Postdemokratisierungsautoren wie Crouch und Rancière hat Ritzi (2014) ausgearbeitet, wie gesellschaftlicher Wandel medialen Wandel initiiert und vorantreibt. Sie arbeitet mit der Basishypothese, „dass das Hegemonialwerden des Neoliberalismus ab den 1980er Jahren einen zweiten Strukturwandel der Öffentlichkeit bedingt hat, der bewirkt, dass die zeitgenössische Öffentlichkeit stärker vom Ideal demokratischer Öffentlichkeit abweicht als es zuvor der Fall war. (….) Der Neoliberalismus wird hier also als Ursache und Motor eines zweiten Strukturwandels betrachtet, der sich nicht nur auf die gewandelten Produktionsbedingungen von Öffentlichkeit und ihre Konsequenzen bezieht, sondern der auch neue Entwicklungstendenzen in den Strukturen öffentlicher Diskurse begründet hat.“ (Ritzi 2014: 223) Während postdemokratische Entwürfe von Öffentlichkeit auf politische Interessen verweisen, nehmen neuere Konzeptionen die Folgen der Digitalisierung und der damit verbundenen Plattformisierung in den Blick. Zentrales Kriterium der Digitalisierung ist „ein weitreichender Technologie- Glauben in die beinahe unbeschränkte Transformations-, Lösungs- und Heilungskraft digitaler Technologien“, so dass von einem digital-solutionistischen Gesellschaftsmodell gesprochen werden kann, dessen leitende Vorstellung darin liegt, „dass es für (beinahe) jedes soziale Problem auch eine digital-technologische Lösung (Solution) gibt und dass alle gesellschaftlichen Probleme als technologische Probleme definierbar sind“ (Eisenegger/Udris 2019: 16). Der kursorische Blick auf Öffentlichkeitskonzeptionen zeigt, dass Themen dort eher eine Nebenrolle einnehmen. Sie werden allenfalls als Impuls angesehen, nicht aber als Träger des Strukturwandels der Öffentlichkeiten. Daher wird im Folgenden ein Versuch gestartet, Themen und den Strukturwandel von Öffentlichkeiten theoretisch zusammen zu bringen (3.2 und 3.3), bevor Verantwortung (4.) in diese Konzeption eingefügt wird. Ein Wabenmodell von Öffentlichkeiten Auffällig an der neuen Lust an der Theoretisierung über Öffentlichkeiten ist eine perspektivische Vielfalt. Themen kommen in diesen Entwürfen jedoch zu kurz. Verfolgt man bestimmte Themen auf ihrem öffentlichen 3.2 Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 93 Weg, fällt – wie oben (2.) bereits kurz vermerkt – ein Charakteristikum auf: unterschiedliche Themen nehmen unterschiedliche öffentliche Wege. Während manche Themen in den Öffentlichkeiten traditioneller Medien verharren, springen andere Themen von dieser Öffentlichkeit in andere Öffentlichkeiten, die beispielsweise durch digitale Plattformen hergestellt werden. Dieser Prozess ist ebenso umgekehrt zu beobachten, Themen springen von Plattformöffentlichkeiten in massenmediale. Vor die Aufgabe gestellt, für dieses Charakteristikum ein angemessenes theoretisches Bild zu finden, wird die Metapher der Wabe gewählt. Ein Blick in die Biologie zeigt: von allen möglichen lückenlos aneinander reihbaren Formen haben sechseckige das beste Verhältnis von Wandmaterial zu Volumen. Damit sind zwei zentrale Anforderungen erfüllt. Das ‚Wandmaterial‘ signalisiert eine Widerständigkeit. Themen können nicht ohne Weiteres von einer in eine andere Öffentlichkeit springen, dazu braucht es spezifische Strukturen und Widerstände, die zu überwinden sind. Hierzu gehören beispielsweise Selektionsregeln des Journalismus, Aufmerksamkeitsregeln der Nutzer_innen und strategische Interessen von Personen, Gruppen und Institutionen. Zu den Widerständen gehört zudem auch, dass die Themen ihre „Verpackung“ ändern (müssen): Formate, Darstellungsformen, multimediale Elemente und vieles mehr wird den Strukturen der jeweiligen Öffentlichkeiten angepasst. Das ‚Volumen‘ signalisiert bestimmte Formen der Aufnahmekapazität. Diese liegt weniger in der Menge an Themen, die eine Öffentlichkeit enthalten kann, als vielmehr an den Strukturen des Erkennens, Behaltens und Vergessens von Themen. Themen müssen von mehreren Akteur_innen als interessant erkannt werden, sie müssen für eine Weile im Aufmerksamkeitsfokus bleiben, damit sie behalten werden. Die digitalen Technologien des Internets heben zudem die Strukturen des Vergessens auf, weil lange verborgene Themen plötzlich wieder hervorgeholt oder weil aktuelle Themen mit vergessenen Aspekten verknüpft werden. Die Erklärungskraft dieses Modells und seine Unterschiede sind gegen- über anderen Modellen (wie etwa Netzwerken) signifikant, weil (1) eine (analytische) Unterscheidung von Entstehungs-, Verarbeitungs- und Ergebnisöffentlichkeiten eingefügt wird und (2) mit dem Modell analysiert werden kann, dass Themen zwischen manchen Öffentlichkeiten wechseln (können), zwischen anderen aber nicht. Die (empirisch oder im Alltag) zu beobachtende Feststellung, welche Themen zwischen welchen Öffentlichkeiten wechseln (können), gibt grundlegende Hinweise zu den Strukturen und Bedingungen des Zusammenspiels von Öffentlichkeiten. So wäre nach dem Lauf von Themen zu fragen, die von der Nachricht über einen Tweet zum Facebookpost und Klaus-Dieter Altmeppen 94 zum Instagrameintrag werden. Welche Gründe gibt es für diesen Lauf? Und, auf der anderen Seite: Welche Themen schaffen es nicht, über mehrere Öffentlichkeiten vermittelt zu werden? Von besonderer Relevanz für ein Wabenmodell öffentlicher Kommunikation sind emergente Phänomene. Hierzu gehören sich selbst verstärkende Spiralprozesse, die wahlweise zu konsonanten, polarisierenden oder fragmentierenden Prozessen führen können. Das Wabenmodell zwingt dabei zur Unterscheidung zwischen jenen Prozessen, die sich über mehrere, verschiedene Medien und Plattformen ausbreiten, und solchen, die nur wenige öffentliche Räume erreichen und ausfüllen. Zu ermitteln sind dabei die Schwellen zwischen den Öffentlichkeiten und ihren Räumen. Eine themenzentrierte Sichtweise kann helfen, entstehende kaskadenartige Prozesse zu erkennen, denn wenn die Gründe und Ursachen dieser Wellen öffentlicher Aufmerksamkeit eruiert werden, lässt sich nachvollziehen, wo, wann und warum Themen Auftrieb erhalten oder brechen. So können auch Kurven der Nichtlinearität analysiert und erklärt werden, durch die sich öffentliche Thematisierungsprozesse auszeichnen. 2 Entstehungs- öffentlichkeiten Verarbeitungs- öffentlichkeiten Ergebnis- öffentlichkeiten Verarbeitungs- öffentlichkeiten Ergebnis- öffentlichkeiten Entstehungs- öffentlichkeiten Verarbeitungs- öffentlichkeiten Verarbeitungs- öffentlichkeiten Ergebnis-öffentlichkeiten Themenwechsel zwischen Öffentlichkeiten Kein Themenwechsel zwischen Öffentlichkeiten Vielfalt vo Öffentlichk it n (Wa enmodell) Abbildung 1: Differenziertes Wabenmodell von Öffentlichkeiten Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 95 Der Lauf der Themen zwischen den Öffentlichkeiten gibt zudem Auskunft darüber, wo welche Themen vorrangig entstehen (wie beispielsweise durch Politikertweets), wohin sie wandern (von Twitter zu Facebook zu den Medien), welche Form sie annehmen in anderen Öffentlichkeiten (vom Tweet zur Nachricht) und in welcher Weise sie dort bearbeitet werden (Veränderung der inhaltlichen Aussagen). Zudem lassen sich mit dem Wabenmodell auch Auskünfte darüber erlangen, wo Themen (ver-)enden, zumindest vorläufig. Dies soll versucht werden mit den ausschließlich analytischen Kategorien von Entstehungs-, Verarbeitungs- und Ergebnisöffentlichkeiten zu erfassen. Entstehungs-, Verarbeitungs- und Ergebnisöffentlichkeiten Als Entstehungsöffentlichkeiten werden jene Öffentlichkeiten angesehen, in denen oder durch die Ereignisse und Themen öffentlich werden. Alle Akteure, die einen Zugang zu den Entstehungsöffentlichkeiten haben, können eine prinzipiell unbegrenzte Zahl an Ereignissen und Themen öffentlich machen. Entstehungsöffentlichkeiten basieren häufig (aber nicht zwangsläufig) auf technischen Plattformen (Medien) (technologische Eindimensionalität) und werden in einem bestimmten Format veröffentlicht (Bericht, Foto, Tweet, Facebookpost, etc.). Beiträger_innen suchen die für ihre Themen passende mediale Verbreitungsmöglichkeit und nutzen das entsprechende Format. Das ist bei Journalist_innen ein Bericht, das ist beim amerikanischen Präsidenten ein Tweet, das ist in vielen Fällen ein Facebookeintrag. Entstehungsöffentlichkeiten beruhen unter den Bedingungen von Algorithmen nicht mehr unbedingt auf Artefakten. In Verarbeitungsöffentlichkeiten werden Themen aus den Entstehungsöffentlichkeiten aufgenommen und weiter kommuniziert. Wenn Themenanstöße aus den Entstehungsöffentlichkeiten aufgegriffen werden, setzt sich der Kommunikationsprozess fort. Im Gegensatz zur Eindimensionalität der Entstehungsöffentlichkeiten erweitert sich das Spektrum der medialen Verarbeitungsöffentlichkeiten ganz erheblich (technologische Mehrdimensionalität). Die medialen Verarbeitungsöffentlichkeiten hängen von den sozialen Verarbeitungszielen in Kombination mit den technologischen Optionen ab. Sie verändern sich mit dem Übergang in andere Öffentlichkeiten. So kann ein Tweet zu einem Bericht oder Kommentar werden; das Thema kann auf Facebook geliked werden, es wandert als Foto von Instagram in eine Fernsehsendung, während umgekehrt Fernsehbeiträge auf Youtube veröffentlicht werden. Die so entstehenden Öffentlichkeiten können dissonant oder konsonant sein, sie können überlappen oder voneinan- 3.3 Klaus-Dieter Altmeppen 96 der getrennt sein. In Verarbeitungsöffentlichkeiten vervielfacht sich die Zahl der Beiträger_innen, Themenaspekte bzw. Lesarten können stabil bleiben oder ergänzt werden, auch kann sich der Diskurs um ein Thema gänzlich wandeln (Evers 2019: 161 ff.). Ergebnisöffentlichkeiten markieren (häufig vorläufige) Endpunkte eines Öffentlichkeitsprozesses. Die Akteure haben sich mitgeteilt, die Aspekte des Themas sind genannt, die relevanten medialen Verbreitungskanäle sind bespielt worden. Wie beim Agenda Setting schon festgestellt, verdrängen neue Themen bereits vorhandene Themen. Allerdings können die meisten Themen durchaus wieder auf die Agenda kommen. Das geschieht in der Regel dann, wenn ein neues Ereignis innerhalb eines Themenfeldes die öffentliche Aufmerksamkeit findet. Nur wenige Themen sind so besonders ereignisbezogen, dass sie nach Abschluss des Ereignisses beendet sind. Vielfältige Verantwortung Begriff, Kontexte und Relationen von Verantwortung Verantwortung spielt bei nahezu allen Themen – zumindest hintergründig – eine Rolle. Verantwortung zeichnet sich grundsätzlich dadurch aus, dass sie nur als ein Sozialverhältnis konstituiert werden kann, für das je nach Verantwortungsbereich spezifische Bedingungen und Rechtsverhältnisse vorliegen. Damit Verantwortung wahrgenommen und sanktioniert werden kann, ist es notwendig, dass innerhalb der jeweils gültigen Verantwortungsbereiche oder Subsysteme der Gesellschaft „institutionell geprägte und normativ […] gesicherte Wahrnehmungsmuster und Zurechnungskonstrukte zur Verfügung“ gestellt werden, die es ermöglichen, „eine verantwortliche Person oder ein zuständiges Kollektivum ausfindig zu machen“ (Bühl 1998, S. 16). Die Wahrnehmungsmuster und Zurechnungskonstrukte beziehen sich in erster Linie auf diejenigen Wahrnehmungspraxen, die durch öffentliche Kommunikation hergestellt werden. In diesem Verantwortungsbereich wird Verantwortung aufgrund öffentlicher Kommunikation attribuiert, Attributionssender, -gegenstand und -adressat werden benannt (Gerhards/ Offerhaus/Roose 2007). Für Analysen von Verantwortung generell, aber auch in der öffentlichen Kommunikation, umfasst der Kontext der Attribuierung von Verantwortung nur einen Teilbereich, denn damit wird keine Aussage darüber getroffen, ob ein Verantwortungsträger tatsächlich verantwortlich handelt. Es ist daher notwendig, einen erweiterten Verantwortungsbegriff zu ver- 4. 4.1 Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 97 wenden, der (1) „Verantwortung als Zurechnungsfähigkeit und Zuständigkeit“, (2) „als folgenbasierte Legitimation“, (3) „als kontextualistisches Reflexionsprinzip“ sowie (4) „als Struktur- und Steuerungselement“ auffasst (Heidbrink 2017: 8) (vgl. zum Folgenden auch Altmeppen/Brakelmann/ Drössler 2020). Verantwortung als Zurechnungsfähigkeit und Zuständigkeit rekurriert darauf, dass Akteure nicht automatisch verantwortlich sind, sondern ihnen wird Verantwortung attribuiert – aufgrund von Normen und Regeln, aufgrund bestimmter Rollen und Aufgaben, durch ihre Zugehörigkeit zu einer Organisation oder Korporation oder als Bürger eines politischen Gemeinwesens. Im Hinblick auf öffentliche Kommunikation resultiert Verantwortung aus dem dreiteiligen Kommunikationsprozess, also aus der Information (Fakt oder Fake), aus der Mitteilung, also der formalen wie inhaltlichen Befassung mit den Informationen und den daraus resultierenden Themen, und sie ergibt sich aus den distributiven Strukturen, also der Verantwortung für die Verbreitungs- und Verstehensleistungen. Zuständigkeitsverantwortung kann auch Entlastung bedeuten, etwa dann, wenn digitale Konzerne keine Verantwortung für die Inhalte ihrer Plattformen übernehmen (wollen), da diese ja von Nutzer_innen eingestellt würden. Die Konzerne berufen sich auf eine verantwortliche Nicht-Zuständigkeit. Eine folgenbasierte Legitimation beruht darauf, dass Verantwortungsethiker „Handlungen nicht in Hinsicht auf, sondern im Ausgang von den erwartbaren Folgen“ beurteilen (Heidbrink 2017: 13). Verantwortung bezieht sich daher auf vergangene wie auf künftige Handlungen, deren Folgen sich unter Bezug auf Handlungsnormen rechtfertigen lassen müssen, und zwar in einer Weise, dass eine Verhältnismäßigkeit von Mitteln und Zwecken gewährleistet ist. Das ist für verantwortliches Handeln von besonderer Bedeutung, denn ethische Richtlinien lassen sich nicht auf Dauer verbindlich festlegen, sondern unterliegen einem steten Aushandlungsprozess, um der Vielschichtigkeit und Veränderlichkeit der zugrundeliegenden Kontexte gerecht zu werden. Verantwortung als kontextualistisches Reflexionsprinzip dient der Suche nach angemessenen Entscheidungsgründen vor dem Hintergrund komplexer Handlungsfelder. Dabei werden kategoriale und situative Bewertungsnormen erforderlich. Das Handlungsfeld Journalismus unterliegt anderen Kontexten, Kategorien und situativen Momenten als etwa Influencer_innen oder als diejenigen, die auf Netzplattformen posten. So liegt die Metaverantwortung von Journalismus darin, existierende Regeln und Normen zu prüfen und situationsadäquat neue, kontextabhängige Regeln zu entwickeln. Dabei kann es zu Prioritätenregeln kommen, um in Konfliktfällen eine Abwägung vornehmen zu können. Gleichermaßen können die Klaus-Dieter Altmeppen 98 Verpflichtungsgrade verantwortlichen Handelns fixiert werden auf einer Skala von obligatorisch bis fakultativ. Das bietet die Möglichkeit, Regeln für die öffentliche Kommunikation nicht definitorisch a priori festzulegen, sondern Argumente für Einzelfallentscheidungen zu bieten. Mit den Struktur- und Steuerungselementen von Verantwortung wird das Verantwortungsprinzip auf höherstufige Handlungsprozesse zurückgeführt. Damit sind Fragen kollektiver und korporativer Verantwortung angesprochen, etwa bei Ereignissen, die von Akteuren verursacht werden, aber nicht auf sie zurückgeführt werden können. In diesen Bereich gehören Handlungen von aggregierten Akteurformationen (wie Redaktionen oder Medien) oder von komplexen Handlungssystemen (wie transnationalen Konzernen oder digitalen Plattformen). Bei Struktur- und Steuerungsthemen werden das prozedurale Steuerungsprinzip und die Kontextsteuerung hervorgehoben. Beides läuft darauf hinaus, dass das Handlungsfeld selbst seine Verantwortung regulieren sollte. Um verantwortliches Handeln näher bestimmen zu können, müssen die mehrstelligen Relationen detaillierter definiert werden. Die für die Attribution von Verantwortung vorgesehenen Kategorien Sender, Gegenstand und Adressat reichen nicht aus, um festzustellen, ob verantwortliches oder unverantwortliches Handeln vorliegt. Hierfür wird auf mehrstellige Relationen zurückgegriffen, die den normativen Kontext einbeziehen: „Ein Subjekt oder ein_e Träger_in (Wer?) ist verantwortlich für ein Objekt oder einen Gegenstand (Wofür?) vor einer Instanz (Wovor?) gegenüber einem Adressaten bzw. einer Adressatin (Warum?) auf der Grundlage normativer Kriterien (Inwiefern?)“ (Loh 2017: 39; Bracker 2017: 51). Mit diesen Relationen wird es möglich, die Komplexität von Verantwortung und verantwortlichem Handeln zu erfassen. Tabelle 1 zeigt beispielhaft ausgewählte Verantwortungsrelationen allein für den Journalismus. Tabelle 1: Verantwortungsrelationen am Beispiel Journalismus Subjekt Gegenstand Instanz Norm/Regel Journalismus ist für die Reflektion seiner Handlungen gegenüber der Gesellschaft aufgrund seiner gesellschaftlichen Funktionen verantwortlich. Journalismus ist für die Richtigkeit der Berichterstattung gegenüber den Rezipient_innen aufgrund professioneller und qualitativer Standards verantwortlich. Journalismus ist für die Wahrung des Informantenschutzes gegenüber seinen Quellen aufgrund seiner Rechte und Pflichten verantwortlich. Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 99 Diese Beispiele sind bei weitem nicht erschöpfend und deuten die vielfältigen Verantwortlichkeiten des Journalismus nur an. Nur einige von ihnen können auf andere Akteur_innen der öffentlichen Kommunikation übertragen werden, wie etwa die Reflexion der Handlungen. Andere sind typisch allein für den Journalismus, wie es auch typische Verantwortungsrelationen für andere Institutionen gibt. Ein weiteres Beispiel stellt Werbung dar, im Folgenden illustriert am Beispiel von Mediaagenturen (s. Tabelle 2). Sie sichern die Finanzen von Medienunternehmen durch die Verteilung von Werbegeldern. Da sie für die Vermarktung die Reputation und Präsenz des Journalismus nutzen, haben sie auch Verantwortung für dessen Bestand. Tabelle 2: Verantwortungsrelationen am Beispiel Werbung Subjekt Gegenstand Instanz Norm/Regel Mediaplaner sind für die Finanzierung von Medienunternehmen aufgrund ihrer ökonomischen Funktionen verantwortlich. Mediaplaner sind für die Sicherung von Journalismus aufgrund ihrer Finanzierungsfunktion verantwortlich. Ein besonderes Handlungsfeld stellen digitale Plattformen dar, deren (un-)verantwortliches Handeln derzeit intensiv öffentlich diskutiert und politischer Regulierung unterzogen werden soll (s. Tabelle 3). Tabelle 3: Verantwortungsrelationen am Beispiel Plattformen Subjekt Gegenstand Instanz Norm/Regel Facebook ist für das Recht auf informationelle Selbstbestimmung gegenüber seinen Nutzer_innen aufgrund rechtlicher Regeln und ethischer Standards verantwortlich. Facebook ist für Datenschutz gegenüber seinen Nutzer_innen aufgrund rechtlicher Regeln und ethischer Standards verantwortlich. Facebook ist für würde- und respektvolle Inhalte gegenüber der Gesellschaft aufgrund allgemeiner Normen verantwortlich. Eine Vielzahl der ethischen Probleme digitaler Plattformen resultiert aus kaum geklärten Verantwortungsrelationen, wie drei Beispiele zeigen (Rath 2014: 42 ff.): Klaus-Dieter Altmeppen 100 • Digitale Plattformen ermöglichen Öffentlichkeiten, sie zählen sich selbst aber nicht zur Branche der Medienunternehmen. Mit deren Verantwortungsnormen (Presserecht), wie sie etwa Verlage akzeptieren, wollen sich digitale Plattformen nicht messen lassen. • Digitale Plattformen ziehen sich darauf zurück, nur Distributeure zu sein, für die Inhalte seien die Nutzer_innen verantwortlich. Kriterien journalistischer Verantwortung lehnen die Plattformkonzerne ab. • Die Inhalte auf digitalen Plattformen werden von Nutzer_innen (auch als arbeitende Kunden etikettierbar) erstellt. Für diesen Kreis von Akteur_innen existieren bislang kaum Kriterien verantwortlichen Handelns. Aktuelle Herausforderungen, Verantwortungsnetzwerke und Neupriorisierung von Verantwortungsrelationen Die bisherigen Definitionen und Konfigurationen von Verantwortung reichen für die digitalen Herausforderungen wohl nicht aus. Es braucht offensichtlich eine intensive Analyse der Strukturen und des Handelns von Verantwortung unter digitalen Bedingungen, damit sich eine angemessene Verantwortungskultur entwickeln kann (Jarren 2019). Dies resultiert daraus, dass die Funktionen, Positionen und Rollen in digitalen Öffentlichkeiten multioptional sind: Nutzer_innen sind Produzent_innen, Influencer_innen sind Journalist_innen, Werbung ist Inhalt wie redaktionelle Beiträge, technologische Plattformen sind Medien (oder werden als Medien bezeichnet). Aktuelle Herausforderungen müssen diese Komplexität aufnehmen und die Wahrnehmungsmuster und Zurechnungskonstrukte (Bühl 1998) neu bestimmen. Dafür liegen erste Vorschläge vor, die aus der Beschäftigung mit digitalen Handlungsfeldern wie Robotik entwickelt wurden, wie zum Beispiel der Begriff des Verantwortungsnetzwerkes (Neuhäuser 2014; Loh 2019). Bei solcherart Netzwerken werden alle Personen, Gruppen und Institutionen, die an Verantwortungsereignissen beteiligt sind, in die Prüfung der Verantwortungsrelationen einbezogen. Netzwerke werden üblicherweise gebildet, weil die Teilnehmer unterschiedliche Kompetenzen für ein gemeinsames Ziel einbringen. In Verantwortungsnetzwerken können dementsprechend die Verantwortungsanteile eines gemeinsamen Ereignisses bestimmt werden. Damit können Verantwortungskonstellationen wie etwa Hasstiraden auf Facebook entzerrt werden, bei denen ein verantwortliches (oder unverantwortliches) Handeln der technischen Plattform mit dem Verantwortungshandeln von Produsers zusammenfällt. 4.2 Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 101 Verantwortungsnetzwerke ermöglichen es, mehrere Subjekte zu bestimmen, sie erlauben die Formulierung differierender normativer Kriterien (Inhalteverantwortung und Technikverantwortung), sie ermöglichen es, verschiedene Funktionen der Beteiligten am gleichen Verantwortungsereignis (Produser als Subjekt vs. Produser als Adressat) zu ermitteln. Dafür scheint es sinnvoll, die Verantwortungsrelationen anders zu priorisieren. Am Beginn steht die Frage nach der Norm, zum Beispiel respektvolle, würdevolle, nichtdiskriminierende Inhalte (s. Tab. 4). Diese sind der Gegenstand, der in der Instanz öffentlicher Kommunikation durch die Subjekte entlang ihres (un-)verantwortlichen Handelns zu bewerten wäre. Tabelle 4: Verantwortungsrelationen in digitalen Netzwerken Norm/Regel Gegenstand Instanz Subjekt Für respektvolle, würdevolle, nichtdiskriminierende Inhalte in der öffentlichen Kommunikation sind Plattformbetreiber, Influencer_innen und Nutzer_innen zuständig. Literatur Altmeppen, Klaus-Dieter et al. (2019): Öffentlichkeit, Verantwortung und Gemeinwohl im digitalen Zeitalter. Zur Erforschung ethischer Aspekte des Medien- und Öffentlichkeitswandels. In: Publizistik 64(1), S. 59–77. Altmeppen, Klaus-Dieter / Brakelmann, Hannah / Drössler, Kira (2020): Verantwortung durch Nichtberichterstattung. Ein medienethisches Reizthema. In: Communicatio Socialis 53(1), S. 80–96. Altmeppen, Klaus-Dieter / Evers, Tanja (2020): Worum geht es? Die Bedeutung von Themen für den Strukturwandel der (digitalen) Öffentlichkeiten. In: Eisenegger, Mark / Blum, Roger / Ettinger, Patrik / Prinzing, Marlis (Hg.): Digitaler Strukturwandel der Öffentlichkeit. Historische Verortung, Modelle und Konsequenzen. Wiesbaden, Springer (im Erscheinen). Bracker, Isabel (2017): Verantwortung von Medienunternehmen: Selbstbild und Fremdwahrnehmung in der öffentlichen Kommunikation. Baden-Baden: Nomos. Bühl, Walter L. (1998): Verantwortung für soziale Systeme. Klett-Cotta, Stuttgart. Eisenegger, Mark / Udris, Linards (2019): Eine öffentlichkeitssoziologische Theorie des sozialen Wandels in der digitalen Gesellschaft. In: Eisenegger, Mark / Udris, Linards / Ettinger, Patrik (Hg.) (2019): Wandel der Öffentlichkeit und der Gesellschaft. Gedenkschrift für Kurt Imhof. Wiesbaden: Springer VS, S. 3–28. Evers, Tanja (2019): Ich poste, also wähl‘ mich. Parteien auf Facebook im Bundestagswahlkampf. Baden-Baden: Nomos. Klaus-Dieter Altmeppen 102 García-Avilés, Jose / Kaltenbrunner, Andy / Meier, Klaus (2014): Media Convergence Revisited. In: Journalism Practice, 8(5), S. 573–584. Geiß, Stefan (2015): Die Aufmerksamkeitsspanne der Öffentlichkeit. Eine Studie zur Dauer und Intensität von Meinungsbildungsprozessen. Baden-Baden: Nomos. Gerhards, Jürgen / Offerhaus, Anke / Roose, Jochen (2007): Die öffentliche Zuschreibung von Verantwortung. In: Kölner Zeitschrift für Soziologie und Sozialpsychologe, 59(1), S. 105–124. Giddens, Anthony (1997): Die Konstitution der Gesellschaft. Grundzüge einer Theorie der Strukturierung, 3. Aufl., Frankfurt a. M.: Campus. Heidbrink, Ludger (2017): Definitionen und Voraussetzungen der Verantwortung. In: Heidbrink, Ludger / Langbehn, Claus / Loh, Janina (Hg.): Handbuch Verantwortung. Wiesbaden: Springer, S. 3–34. Jarren, Otfried (2019): Kommunikationsnormen für die digitale Kommunikationsgesellschaft. Kommunikationspolitik als Ansatz zur Etablierung einer neuen Verantwortungskultur. In: Medien Journal 43(4), S. 63–79. Jünger, Jakob / Schade, Henriette (2018): Liegt die Zukunft der Kommunikationswissenschaft in der Vergangenheit? Ein Plädoyer für Kontinuität statt Veränderung bei der Analyse von Digitalisierung. In: Publizistik, 63, S. 497–512. Klaus, Elisabeth (2017): Öffentlichkeit als gesellschaftlicher Selbstverständigungsprozess und das Drei-Ebenen-Modell von Öffentlichkeit. Rückblick und Ausblick. In: Klaus, Elisabeth / Drüeke, Ricarda (Hg.): Öffentlichkeiten und gesellschaftliche Aushandlungsprozesse. Theoretische Perspektiven und empirische Befunde. Bielefeld: transcript Verlag, S. 17–38. Klinger, Ulrike (2018): Aufstieg der Semiöffentlichkeit: Eine relationale Perspektive. In: Publizistik, 63(2), S. 245–267. Kümpel, Anna Sophie (2019): Und wieder siegt das Thema? Eine qualitative Studie zu Einflussfaktoren im Kontext der Nachrichtenrezeption auf Facebook. In: Weber, Patrick et al. (Hg.): Meinungsbildung in der Netzöffentlichkeit. Aktuelle Studien zu Nachrichtennutzung, Meinungsaustausch und Meinungsbeeinflussung in Social Media. Baden-Baden: Nomos, S. 37–54. Leißner, Laura (2017): TTIP in den Medien. Eine inhaltsanalytische Untersuchung zur deliberativen Leistung deutscher Printmedien im Streit um das Freihandelsabkommen. In: Publizistik, 62, S. 445–464. Loh, Janina (2017): Strukturen und Relata der Verantwortung. In: Ludger Heidbrink/ Langbehn, Claus/Loh, Janina (Hg.): Handbuch Verantwortung. Wiesbaden, Springer VS, S. 35–56. Loh, Janina (2019): Verantwortung und Roboterethik. Ein Überblick und kritische Reflexionen. In: Rath, Matthias / Krotz, Friedrich / Karmasin, Matthias (Hg.): Maschinenethik. Normative Grenzen autonomer Systeme. Wiesbaden: Springer VS, S. 91–106. Luhmann, Niklas (1987): Soziale Systeme: Grundriss einer allgemeinen Theorie. 1. Aufl., Suhrkamp: Frankfurt am Main. Luhmann, Niklas (1996): Die Realität der Massenmedien. 2. Aufl., Westdeutscher Verlag: Opladen. Vielfalt der Themen, Vielfalt der Öffentlichkeiten, Vielfalt der Verantwortung 103 Neuberger, Christoph (2014): Konflikt, Konkurrenz und Kooperation. Interaktionsmodi in einer Theorie der dynamischen Netzwerköffentlichkeit. In: Medien & Kommunikationswissenschaft, 62, S. 567–587. Neuhäuser, Christian (2014): Roboter und moralische Verantwortung. In: Hilgendorf, Eric (Hg.): Robotik im Kontext von Recht und Moral. Baden-Baden: Nomos, S. 269–287. Pfetsch, Barbara / Löblich, Maria / Eilders, Christiane (2018): Dissonante Öffentlichkeiten als Perspektive kommunikationswissenschaftlicher Theoriebildung. In: Publizistik, 63, S. 477–495. Rath, Matthias (2014): Ethik der mediatisierten Welt. Grundlagen und Perspektiven. Wiesbaden: Springer VS. Ritzi, Claudia (2014): Die Postdemokratisierung politischer Öffentlichkeit. Kritik zeitgenössischer Demokratie – theoretische Grundlagen und analytische Perspektiven. Wiesbaden: Springer VS. Schütz, Alfred / Luckmann, Thomas (1988): Strukturen der Lebenswelt, Bd. 1. Frankfurt a. M.: Suhrkamp. Waldherr, Annie (2017): Öffentlichkeit als komplexes System: Theoretisches Konzept und methodische Konsequenzen. In: Medien & Kommunikationswissenschaft, 65(3), S. 534–549. Westerbarkey, Jochen (2013): Öffentlichkeitskonzepte und ihre Bedeutung für strategische Kommunikation. In: Röttger, Ulrike / Gehrau, Volker / Preusse, Jochen (Hg.): Strategische Kommunikation. Umrisse und Perspektiven eines Forschungsfeldes. Wiesbaden: Springer VS, S. 21–36. Klaus-Dieter Altmeppen 104 Sind „moral machines” kulturrelativ? Maschinenethische Anmerkungen zu einem psychologischinformatischen Experiment1 Matthias Rath Abstract Der Beitrag geht der Frage nach, ob „moral machines“, also digitale Maschinen, die eigenständig normativ Entscheidungen fällen, auch als moralische Akteure bezeichnet werden können. Die Rede von nicht-menschlichen moralischen Akteuren ist in der angewandten Ethik, z.B. der Wirtschaftsethik in Bezug auf Unternehmen, nicht ungewöhnlich. Diese Rede ist aber nur „metaphorisch“ (vgl. Enderle 1992) zu verstehen. Akteure i.e.S. sind hier die Mitarbeiter*innen eines Unternehmens. Für die Maschinenethik ist hingegen interessant, ob Maschinen in nicht-metaphorischem Sinne als „moral actors“ qualifiziert werden können. Am Beispiel des online-Experiments „moral machine“ des Media Labs des Massachusetts Institute of Technology Boston, das 40 Millionen Menschen aus allen Erdteilen moralische Dilemmata im Bereich des autonomen Fahrens entscheiden ließ, wird erörtert, inwieweit daraus im nicht-metaphorisch Sinne für digitale Maschinen ein nicht kulturrelativer Status als „moral actor“ begründet werden kann. Ich möchte der Frage nachgehen, ob moralische Maschinen (Rath 2018b), also Maschinen, die sich an vorgegebene normative Prinzipien halten, wie sie z.B. in Programmierungen solcher Maschinen festgelegt werden, zugleich als „moral actors” bezeichnet werden können. Der ethische Bezugspunkt ist die Nutzung digitaler Medien und Maschinen in einer demokratischen Gesellschaft. Welche moralischen Regeln sollen für die Konstruktion, Funktion und letztlich Nutzung dieser digitalen Maschinen gelten? Wer soll diese Regeln festlegen? Und sind diese dann jeweils kulturrelativ? Nun ist es keineswegs ethisch irrelevant, welche Voraussetzungen ein potentieller Akteur auf der Basis moralischer Regeln erfüllt. Das besondere 1 Dieser Beitrag ist die gekürzte Fassung einen Vortrags, gehalten im Rahmen der internationalen Konferenz „Media in Transition 10“ am Massachusetts Institute of Technology am 17. und 18. Mai 2019. Ich danke dem DAAD für die Unterstützung dieser Vortragsreise durch ein Kongressreisestipendium. 105 an moralischen Regeln ist nämlich, dass sie gewichtige Voraussetzungen haben. Das Individuum, das diesen Regeln folgt, muss als Subjekt oder Person ausgezeichnet sein. Philosophie hat es sich bis ins 20. Jahrhundert hinein mit dieser Frage leicht gemacht. Subjekte und Personen waren einfach Menschen und nur Menschen. Unternehmen als moralische Akteure Diese einfache Gleichung ging aber schon seit dem 19. Jahrhundert nicht mehr auf. Deutlich wurde das zuerst im Wirtschaftssektor. Unternehmen wurden mehr und mehr von ihren Gründerinnen bzw. Gründern abgetrennt. Große Unternehmen waren quasi selbstständig geworden. Und im Alltagsverständnis wird Unternehmen auch moralische Verantwortung zugeschrieben: wir unterstellen ihnen Interessen, schreiben ihnen Entscheidungen zu und halten sie daher für die Folgen ihrer Handlungen für verantwortlich. Viele Wirtschaftsethiker haben daher versucht, dieses Problem dadurch zu lösen, dass sie Unternehmen wie „moralische Akteure“ betrachten (vgl. Enderle 1992; French 1995). Allerdings fehlen der Institution Unternehmen zwei grundlegende Kompetenzen, um ihr moralische Verantwortungsfähigkeit zuzuschreiben: ein individueller Wille und die Fähigkeit, Entscheidungen im Hinblick auf unterschiedliche Aspekte abzuwägen. Diese Fähigkeiten haben hingegen die Menschen in den Unternehmen. „Moralischer Akteur“ kann demnach nur als eine metaphorische Bezeichnung verstanden werden – im engeren moralischen Sinne sind verantwortlich nur die Menschen, die für das Unternehmen agieren. Vor diesem systematischen Hintergrund der applied ethics ist es sinnvoll, etwas aus ethischer Sicht zu der Frage zu sagen, ob wir auch Roboter oder digitale Maschinen i.w.S. als „moralische Akteure” verstehen könnten. Dies soll geschehen am Beispiel einer aktuellen Studie, die sehr viel Resonanz gefunden hat, das Moral Machine Experiment von Iyad Rahwan und seinem Team am Media Lab des Massachusetts Institute of Technology in Cambridge, MA (vgl. Moral Machine 2019). Das Moral Machine Experiment Dieses groß angelegte Online-Experiment hat viele interessante Aspekte. Einer der wichtigsten ist, dass wir in dieser Studie nachvollziehen können, 1. 2. Matthias Rath 106 wie 40 Millionen Internet-User in moralischen Dilemma-Situationen am Beispiel des Straßenverkehrs entscheiden würden. “The Moral Machine website was designed to collect data on the moral acceptability of decisions made by autonomous vehicles in situations of unavoidable accidents, in which they must decide who is spared and who is sacrificed”. (Supplementary Information „Methods“, in: Awad et al. 2018) Allerdings hatte das Projekt auch eine politische – und daraus abgeleitet eine pragmatische – Zielsetzung. Politisch ging es darum, die Akzeptanz von ethischen Argumenten dadurch zu sichern, dass wir die künstliche Intelligenz an den Moralvorstellungen ausrichten, die in einer Gesellschaft vorherrschen. “(…) even if ethicists were to agree on how autonomous vehicles should solve moral dilemmas, their work would be useless if citizens were to disagree with their solution, and thus opt out of the future that autonomous vehicles promise in lieu of the status quo. Any attempt to devise artificial intelligence ethics must be at least cognizant of public morality”. (Awad et al. 2018: 59) Das mag politisch klug sein. Alle autonomous vehicles müssen politisch gewollt und rechtlich zugelassen werden. Die dafür notwendige Entscheidungshilfe zu bieten, macht dann die pragmatische Zielsetzung des Experiments aus: “Before we allow our cars to make ethical decisions, we need to have a global conversation to express our preferences to the companies that will design moral algorithms, and to the policymakers that will regulate them.” (Ebd.: 63) Moral machines sind also offensichtlich actors, die eigenständige Entscheidungen fällen. Gleichzeitig haben wir gemeinhin klare Vorstellungen, wem wir diese Kompetenz einräumen. Nur wer bestimmte Fähigkeiten aufweist, wird als moralischer Akteur anerkannt. Dazu gehören die Fähigkeit zu einem freien Willen, zu eigenen Intentionen oder Präferenzen und zur rationalen Kompetenz sowie schließlich die Fähigkeit, die Folgen des eigenen Agierens zu erfassen und auf Nachfrage zu begründen. Sind “moral machines” kulturrelativ? 107 Brunos Problem Am Beispiel des Wirtschaftsunternehmens haben wir gesehen, dass „moral actor” eine metaphorische Bezeichnung dafür ist, dass die Menschen, die im Unternehmen agieren, bestimmte Normvorstellungen von ihrem Handeln haben. Übertragen wir diesen Gedanken, dann repräsentieren Roboter oder digitale Maschinen in ihrem Programm die normativen Vorstellungen derjenigen, die dieses Programm geschrieben haben (vgl. Wallach/ Allen 2008). Wie kann man dann aber sagen, die Maschine trifft eine Entscheidung? Die Kollegen um Iyad Rahwan schreiben, „we allow our cars to make ethical decisions” – was kann das meinen? In einem weiten und terminologisch nicht sehr differenzierten Sinne sind „ethical decisions” Entscheidungen, die moralische Prinzipien anwenden. Das kann auch eine Maschine. In diesem Fall verwenden wir „moralischer Akteur” in einem sehr einfachen Sinn: Das, was das Agieren des Akteurs bestimmt, ist normativ. In diesem Verständnis kann auch eine sehr einfach programmierte Maschine moralisch agieren – einfach weil sie tut, was ihre Programm sie determiniert zu tun. Dabei bleibt aber völlig offen, ob diese Regeln an sich, also ethisch, als moralische Regeln akzeptabel sind. Diese implizite Grundannahme des „moal machine“-Experiments hat jedoch einige Implikationen, vor allem im Hinblick auf die verantwortungsrelevante Frage nach dem Subjektstatus solcher Akteure. Diese Problematik umgangen hat die in den letzten Jahren als handlungstheoretische Alternative zu einem vermeintlich anthropozentrischen Subjektbegriff auf den Plan getretene „Akteur-Netzwerk-Theorie“ ANT (vgl. Latour 2005; Schulz-Schaeffer 2000), denn die ANT verzichtet auf die Annahmen von Kategorien wie Mensch vs. Maschine, sozial vs. technisch etc. Damit werden nicht einfach „Dinge“ (wie Maschinen, Algorithmen, Roboter) zu Menschen gemacht – also anthropologisiert –, sondern die Voraussetzung dieser Zuweisung wird außer Kraft gesetzt, nämlich einen Unterschied zwischen Menschen als Trägern ethisch ausgezeichneter Eigenschaften wie Vernunft, Freiheit, Intention usw. und „Nicht-Menschen“ anzunehmen, der quasi ontisch absolut und damit selbstverständlich wäre. ANT, so der spiritus rector der Theorie, Bruno Latour, „does not limit itself to human individual actors, but extends the word actor – or actant – to non-human, non- individual entities“ (Latour 1996: 369). Das Konstruktive dieses Modells ist, dass es den Kommunikationsprozess nicht nach Mensch und Medium differenziert, sondern als ein Netzwerk denkt, bei dem die einzelnen Akteure gleichbedeutend die Kommunikation (als Funktion des Netzwerks) inhaltlich und formal gestalten. Kommunikationen sind für die 3. Matthias Rath 108 ANT „Figurationen“, die durch alle Akteure gestaltet werden – also auch durch die Maschinen oder andere „non-humans“ (Latour 2005: 10). Dieses Konzept relativiert den Handlungsbegriff, der die Bedingung unserer Moral-Diskussion bisher war: „Handlungsfähigkeit wird zu der Eigenschaft, im Handeln Dritter eine Rolle zu spielen [...]. Nicht-menschlichen Aktanten muss unter dieser Definition weder Intention noch Bewusstsein zugesprochen werden, um ihnen dennoch Handlungsfähigkeit zu attestieren.“ (Philipp 2017: 52) Damit vermag die ANT zumindest oberflächlich die philosophisch bedeutsame Unterscheidung nach bewusster Intention und regelhaftem Automatismus zu unterlaufen, weil sie die (kommunikative) Handlung als Prozess betrachtet, für den die Intentionalität der Akteure unerheblich ist. In diesem Sinne transformieren Maschinen alleine oder in der Interaktion zwischen Menschen und Maschinen Maximen in selbststeuernde „Handlungen“. Doch dieser konzeptionelle Gewinn aus dem argumentativen Verzicht auf Freiheit ist nur auf den ersten Blick schlüssig. In der ANT wird ein handlungstheoretisches Akteursverständnis zwar ersetzt zugunsten eines funktionalistischen Wirkungsverständnisses. Durch eine bewusste Absehung von Intentionalität reduzieren wir aber die Maschinenethik-Diskussion auf den Stand der oben beschriebenen wirtschaftsethischen Rekonstruktion von Institutionen als „moralische Akteure“ in metaphorischem Sinne. Doch mit dieser Rekonstruktion maschinellen Tuns als moralisches „Handeln“ – und damit als ein moralisch beurteilbares Handeln, z.B. als „besser“ oder „schlechter“ – ist für die Frage nach einer Maschinenethik nichts erreicht. In einem engeren, philosophisch genauem Sinne sind „ethical decisions” Entscheidungen aufgrund von Reflexion auf die allgemeine Gültigkeit der angewandten moralischen Prinzipien. Und die notwendige Voraussetzung für Entscheidung in diesem Sinne, ist eben Freiheit (vgl. Rath 2018a) – für die die ANT systematisch blind ist. Die ethischen Gründe, die dann dafür sprechen, dass ein frei gewähltes Prinzip als Begründung anerkannt wird, sind allerdings nicht – wie das Moral Machine Experiment nahelegt – mehrheitsgebunden. Ein Prinzip wird ethisch nicht dadurch begründet, dass es von möglichst vielen Akteuren akzeptiert wird, sondern weil es vernünftige Argumente gibt, die dieses Prinzip als allgemein gültig auszeichnen. Die Frage ist also, woher die Maschine die Prinzipien nimmt, nach denen sie das eigene Agieren ausrichtet. Wir müssen demnach, statt die Intentionalität der Maschine außer Kraft zu Sind “moral machines” kulturrelativ? 109 setzen, nochmals darüber nachdenken, was eigentlich passiert, wenn Maschinen „urteilen“. Isaacs Lösung Der Frage, woher die Maschine als Akteur die Regel nehmen soll, wenn diese Regel zugleich auch ethisch vernünftig sein soll, stelle ich im Folgenden eine Lösung gegenüber, die schon verhältnismäßig alt ist. Es handelt sich um die drei Roboter-Gesetze oder three laws of robotics von Issac Asimov. Asimov hat diese three laws of robotics bereits 1942 in seiner Kurzgeschichte „Runaround” (Asimov 1942) formuliert und sie erfreuen sich noch immer großer Beliebtheit. So finden sich Verweise auf diese Robotergesetze z.B. in der Verfilmung der Asimov-Geschichte „The Bicenntenial Man” aus dem Jahr 1999 mit Robin Williams in der Titelrolle oder dem Blockbuster „I, Robot” aus dem Jahr 2004 mit Will Smith in der Hauptrolle, ebenfalls nach Motiven eines Romans von Isaac Asimov. Bei allem spektakulären Erfolg dieser Narrationen – viele Autoren haben bisher das Ungenügen dieser drei Gesetze oder Regeln beschrieben (vgl. Barthelmess/ Furbach 2014; Singer 2009; Van Dang et al. 2018). Schauen wir uns diese Regeln an, dann erkennen wir mehrere Probleme (Text aus Asimov 2004: 37). “One, a robot may not injure a human being, or, through inaction, allow a human being to come to harm.” “Two, (...) a robot must obey the orders given it by human beings except where such orders would conflict with the First Law.” “And three, a robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.” Zwei kritische Punkte an diesen laws of robotics werden meist genannt: in Regel Eins ist nicht klar, wie eine Maschine verstehen soll, was „human being” oder „harm” bedeuten. Heute wird in der Informatik versucht, diese Schwierigkeit durch Heuristiken und „Ontologien“ (vgl. Busse et al. 2014) zu lösen. Der zweite wichtige Einwand betrifft die Regel Zwei. Es ist, so wird argumentiert, nicht besonders wünschenswert, das Robots alle Anweisungen von Menschen befolgen sollten, da Menschen auch unsinnige Anweisungen geben könnten. Doch Isaac Asimov gibt uns in einem kleinen Youtube Mitschnitt, in dem er erklärt, was unter den drei Gesetzen zu verstehen sei, in Bezug auf das zweite Gesetz einen wichtigen Hinweis: 4. Matthias Rath 110 “The first law is as follows: A robot may not harm a human being or through inaction allow a human being to come to harm. Number two: a robot must obey orders given it by qualified personnel unless those orders violate rule number one. In other words a robot can’t be ordered to kill a human being. A rule number three: A robot must protect its own existence – because it’s an expensive piece of equipment – unless that violates rules one or two. A robot must cheerfully go into selfdestruction if it is in order to follow an order or to save a human life.” (Asimov 2009, Herv. v. MR) Hier kommt also bei Asimov eine wichtige Neuerung ins Spiel: Es geht nicht mehr allgemein um Befehle von Menschen, sondern um Vorgaben von qualifizierten Menschen. Roboter sind für Asimov demnach nicht fähig, über die Sinnhaftigkeit ihres Tuns irgendwelche Überzeugungen auszubilden. Daher müssen diejenigen, die robots Anweisungen geben, wissen, wann eine Handlung moralisch geboten oder zu unterlassen ist. Nun, im Einzelnen scheinen wir im Zuge der digitalen Maschinisierung ja bisher alles richtig gemacht zu haben. Denn gemeinhin bekommen Roboter (oder allgemeiner: alle programmierbaren Maschinen im weitesten Sinne, also auch Algorithmen), ihre Regeln durch professionelle Programmierer vorgegeben. Maschinenethik: Vom „Sein“ zum „Sollen“? Die Frage nach der politischen Akzeptanz maschinenethischer Regelungen, wie sie die Forscher*innen des MIT Media Labs verstehen, geht allerdings einen völlig anderen Weg. Und da sehe ich die demokratische Nutzung digitaler Medien und Maschinen als eine Herausforderung auch für die angewandte Ethik an. Iyad Rahwan und Kolleg*innen hoffen auf eine „consensual machine ethics“ (Awad et al. 2018: 63) – und um diese zu rekonstruieren, konfrontieren sie Menschen mit Dilemmata, um in einem komplexen Modell moralische Präferenzen zu formulieren. Wen würden sie in der Not opfern? Und zugunsten welchen anderen Lebens würden sie welche Opfer akzeptieren? Die Datenlage ist beeindruckend und die Analyse überwältigend. Und doch: was dabei herauskommt, ist keine machine ethics. Wir erfahren viel über differenzierte Präferenzen der beteiligten Menschen, unterscheidbar nach Alter, Geschlecht, kultureller Herkunft und politischer Orientierung. Zu den bestimmenden Faktoren scheinen die Zuneigung oder Abneigung gegenüber Tieren ebenso zu gehören wie die Bevorzu- 5. Sind “moral machines” kulturrelativ? 111 gung oder Zurücksetzung von Kindern gegenüber Älteren oder Mädchen gegenüber Jungen. Doch keine Mehrheitsverhältnisse, keine stärkeren oder weniger starken Korrelationen sagen irgendetwas aus über den moralischen Stellenwert dieser Präferenzen. Und dies aus einem ganz einfachen Grund: weil aus deskriptiven Aussagen keine normativen Aussagen folgen. Die Übertragung der Moralvorstellungen der Millionen Teilnehmer des Experiments auf das Regelwerk eines autonomen Fahrzeugs fällt unter das Is-Ought-Problem, das David Hume schon 1739 beschrieben hat (vgl. Sinnott-Armstrong 2000). Maschinenethik durch Konsens? Sicher haben die Forscher des Moral Machine Experiments Recht, wenn sie feststellen: „But the fact that broad regions of the world displayed relative agreement suggests that our journey to consensual machine ethics is not doomed from the start.” (Awad et al. 2018: 63) Allerdings verwenden sie dabei den Ausdruck machine ethics in zweifacher Weise missverständlich: Es handelt sich einerseits bei dem „relative agreement” nicht um eine Ethik, sondern um eine Übereinstimmung in den normativen Überzeugungen der befragten Menschen. Und andererseits, selbst wenn dieses Agreement eine Ethik wäre, so wäre dies keine Ethik der Maschine, sondern die Ethik der Menschen, die befragt wurden. Diese im Moral Machine Experiment befragten Menschen aber sind – erinnern wir uns an Issac Asimovs Modifikation des zweiten law of robotics – nicht „qualified personnel”, sondern die unprofessionellen Vertreter ihrer jeweiligen kulturellen, politischen, religiösen oder ideologischen Herkunft. Und selbst wenn man diese Beschränkung, im Endeffekt auf die Mehrheit zu setzen und die argumentative Begründbarkeit der moralischen Regeln au- ßer Acht zu lassen, wie das Team um Rahwan akzeptieren würde – der politische Konsens, der diesem Agreement Gewicht verleihen soll, ist sehr schwach: „Our data helped us to identify three strong preferences that can serve as building blocks for discussions of universal machine ethics, even if they are not ultimately endorsed by policymakers: the preference for sparing human lives, the preference for sparing more lives, and the preference for sparing young lives.” (Ebd.) 6. Matthias Rath 112 Human lives, more human lives, young lives – dieses normativen Präferenzen sind denkbar breit und unspezifisch. Wir würden diese Vorgaben in anderen Lebensbereichen jedoch nicht ohne weiteres akzeptieren – z.B. in der Frage nach Organtransplantation, in der Frage nach potentiellen militärischen Kollateralschäden oder bei der Organisation von Hilfsmaßnahmen nach Naturkatastrophen. Fazit Mit anderen Worten: für die Frage, ob Roboter oder digitale Maschinen und Algorithmen ihrer Aktionen an Mehrheitsentscheidungen oder aber an rationaler Argumentation ausrichten sollten, scheint nur die rationale Argumentation ein akzeptabler Weg. Es ist für ein demokratisch legitimiertes Vorgehen, digitale Maschinen moralisch zu orientieren, notwendig, die Programmierer*innen ethisch zu informieren, um sie zu befähigen, normative Regeln zu begründen. Insofern sollte die Grundintention ethikrelevanter Forschung zu machine actors wie im Moral Machine Experiment etwas pointierter – und damit ethisch normativ und nicht, wie bei Rahwan, nur deskriptiv und im Endeffekt pragmatisch – formuliert werden: “Before we allow our cars to make ethical decisions, we need to have a global ethical conversation to express our reasonable moral preferences to the companies that will design moral algorithms, and to the policymakers that will regulate them.” Literatur Asimov, Isaac (1942): Runaround. In: Campbell, JW (Hg.) Astounding science fiction. New York, USA: Street & Smith Publications, Inc., 1942, S. 94–103. Asimov, Isaac (2004): I, Robot. New York: Bentam Dell. Asimov, Isaac (2009): The Three Laws of Robotics. Horizon. https://www.youtube.co m/watch?v=AWJJnQybZlk. Awad, Edmond/ Dsouza, Sohan/ Kim, Richard/ Schulz, Jonathan/ Henrich, Joseph/ Shariff, Azim/ Bonnefon, Jean-Françios/ Rahwan, Iyad (2018): The Moral Machine Experiment. In: Nature, 563, 59–64. ht tps : / /doi .org/10 .1038 %2Fs41586-018-0637-6 Barthelmess, Ulrike/ Furbach, Ulrich (2014): Do we need Asimov’s Laws? https://arxi v.org/pdf/1405.0961.pdf. 7. Sind “moral machines” kulturrelativ? 113 Busse, Johannes/ Humm, Bernhard/ Lubbert, Christoph/ Moelter, Frank/ Reibold, Anatol/ Rewald, Matthias/ Schlüter, Veronika/ Seiler, Bernhard/ Tegtmeier, Erwin/ Zeh, Thomas (2014): Was bedeutet eigentlich Ontologie? Ein Begriff aus der Philosophie im Licht verschiedener Disziplinen. In: Informatik-Spektrum 37 (4), S. 286–297. https://doi.org/10.1007/s00287-012-0619-2. Enderle, Georges (1992): Zur Grundlegung einer Unternehmensethik: das Unternehmen als moralischer Akteur. In: Homann, Karl (Hg.): Aktuelle Probleme der Wirtschaftsethik. Berlin: Duncker & Humblot, S. 143–158. French, Peter A. (1979): The Corporation as a Moral Person. In: American Philosophical Quarterly, Vol. 16, No. 3, S. 207–215. Moral Machine (2019): Moral Machine Platform. http://moralmachine.mit.edu Rath, Matthias (2018a): Freiheit. Grundbegriffe der Kommunikations- und Medienethik (Teil 12). In: Communicatio Socialis, 51 (2), S. 192–198 https://doi.org/10.5771/ 0010-3497-2018-2-192. Rath, Matthias (2018b): Zur Verantwortungsfähigkeit künstlicher „moralische Akteure” – Problemanzeige oder Ablenkungsmanöver? In: Rath, Matthias / Krotz, Friedrich / Karmasin, Matthias (Hg.): Maschinenethik. Normative Grenzen autonome Systeme. Wiesbaden: VS, S. 223–242. Singer, Peter W. (2009): Isaac Asimov’s Laws of Robotics Are Wrong. Brookings, 18.05.2009. https://www.brookings.edu/opinions/isaac-asimovs-laws-of-roboticsare-wrong. Sinnott-Armstrong, Walter (2000): From ‘Is’ to ‘Ought’ in Moral Epistemology. In: Argumentation, vol 14 (2), S. 159–174. https://doi.org/10.1023/A:1007861512274. Van Dang, Chien/ Jun, Mira/ Shin, Yong-Bin/ Choi, Jae-Won/ Kim, Jong-Wook (2018): Application of modified Asimov’s laws to the agent of home service robot using state, operator, and result (Soar). In: International Journal of Advanced Robotic Systems. https://doi.org/10.1177/1729881418780822. Wallach, Wendell/ Allen, Colin (2008): Moral machines: teaching robots right from wrong. Oxford: Oxford University Press. Matthias Rath 114 Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht Nina Köberer, Christian Augustin, Ekkehard Brüggemann „Wir schauen immer auf die Puppe, nicht den Puppenspieler.“ (Shoshana Zuboff) Abstract Prozesse der Digitalisierung führen zu einem tiefgreifenden Wandel von sozialen, politischen, ökonomischen und damit auch ökologischen Strukturen und damit zu einer umfassenden Transformation auf gesellschaftlicher Ebene. Zentral ist für uns die Marx’sche Erkenntnis, dass die Verhältnisse nicht statisch, sondern historisch gewachsen und menschengemacht sind und folglich auch verändert werden können – und auch verändert werden müssen. Vor diesem Hintergrund beziehen wir uns in diesem Beitrag insbesondere auf eine – mit Shoshana Zuboff gesprochen – Mutation des Kapitalismus, den „Überwachungskapitalismus“. Dieser ist mit seiner ökonomischen Ausbeutung personenbezogener Daten und der damit verbundenen der Überwachung, Speicherung und Steuerung von Nutzer-Verhalten im Internet keine notwendige Folge der Technisierung. Vielmehr ist er in einem bestimmten sozialen und historischen Kontext entstanden und von Menschen gemacht. In diesem Beitrag stellen wir zunächst die aktuelle „Überwachungspraxis“ der großen und kleinen Player dar, um anschließend der Frage nachzugehen, was es braucht, um den Überwachungskapitalismus selbst zu transformieren. Einleitung Prozesse der Digitalisierung führen zu einer umfassenden Transformation – einer Transformation im Sinne einer politischen Umgestaltung (denken wir an neue Formen politischer Meinungsäußerung und Partizipation), im Sinne kulturrelevanter Phänomene und sozialer Veränderungen (beispielsweise die zunehmende soziale Spaltung, Fragen zur Genderproblematik etc.) als auch im Sinne der in den Medien oft beschworenen „Transformation der Arbeitswelt“, verbunden mit dem Schlagwort Industrie 4.0. Doch was ist der Kern solch einer umfassenden Transformation? Wie lassen sich die aktuell 115 vorfindbaren Umbrüche auf sozialer, politischer und wirtschaftlicher Ebene fassen und wohin führen diese Umwälzungen gesellschaftlich? Karl Marx war ein Analyst der Verhältnisse seiner Zeit. Wir wollen daher der Frage nachgehen, inwiefern seine Betrachtungsweise und seine Begrifflichkeit uns heute weiterhelfen. Zentral ist für uns die Marx’sche Erkenntnis, dass die Verhältnisse nicht statisch, sondern historisch gewachsen und menschengemacht sind und folglich auch verändert werden können – und auch verändert werden müssen. Wir möchten nachfolgend vor allem die Leistung fokussieren, die Marx vollbracht hat, indem er eine Analyse der sozioökonomischen Bedingungen seiner Zeit vorgenommen und dabei vor allem die Frage nach den Auswirkungen von technischen Entwicklungen (Stichwort „Industrialisierung“) auf die Gesellschaft und den Einzelnen in den Mittelpunkt gestellt hat. Was bedeutet das für die heutige Zeit bzw. Analyse der heutigen Entwicklungen? Und inwiefern ist diese anschlussfähig im Sinne medienethischer Betrachtung? In einem ersten Schritt nehmen wir in den Blick, was sich aufgrund von Prozessen der Digitalisierung im Sinne einer (umfassenden) Transformation verändert (hat) und was Marx dazu gesagt hätte. Vor diesem Hintergrund beziehen wir uns insbesondere auf den von Shoshana Zuboff beschriebenen „Überwachungskapitalismus“, den sie als Mutation des Kapitalismus beschreibt (ausführlich in Zuboff 2018, knapp in 2019). Denn der Überwachungskapitalismus ist bereits viel umfangreicher gediehen, als wir uns dies klarmachen. Und dabei ist er mit seiner ökonomischen Ausbeutung personenbezogener Daten keine notwendige Folge der Technisierung, sondern durch menschliche Profitinteressen induziert. Die damit verbundenen Praktiken werden in einem zweiten Schritt dargestellt, indem wir die Praxis des Zusammenspiels zwischen Entwicklern1 und Plattformen als Grundlage der Überwachung, Speicherung und Steuerung von Nutzer-Verhalten im nternet aufzeigen. Abschließend sollen die Perspektiven, die über Marx und Zuboff eingebracht werden, als Zugänge einer medienethischen Betrachtung dieser Entwicklungen selbst in den Blick genommen werden. Dabei stellt sich insbesondere die Frage nach der Übernahme von Verantwortung und damit verbunden der Anschluss an Bildung. Digital erwachsen zu werden ist nicht leicht. Es geht um Bewusstseinsbildung als einem ersten Schritt in einem emanzipatorischen Akt. Es geht auch um Vorschläge der Einhegung des Überwachungskapitalismus. Die Grenzen des moralisch 1 Aufgrund der besseren Lesbarkeit wird bei Personenbezeichnungen auf die explizite Nennung beider Geschlechter verzichtet. Angesprochen sind in allen Fällen selbstverständlich beide Geschlechter. Nina Köberer, Christian Augustin, Ekkehard Brüggemann 116 Vertretbaren müssen neu gezogen werden. Und um das alles letztlich in seinen Zusammenhängen motivational (Bewusstsein), konzeptionell (Überbau) und ökonomisch (Kapital) zu verstehen, kann uns Marx immer noch helfen, in vielerlei Hinsicht. Digitalisierung und Transformation(en): Was hätte Marx dazu gesagt? Prozesse der Digitalisierung führen zu einem tiefgreifenden Wandel von sozialen, politischen, ökonomischen und auch damit auch ökologischen Strukturen: Digitale Technik verändert die Art, wie wir uns selbst und die Welt wahrnehmen, uns Wissen aneignen und verwalten, miteinander kommunizieren, soziale Kontakte aufbauen und pflegen, arbeiten bzw. wie Arbeit strukturiert wird, wie wir uns bewegen und Sport treiben, aber auch für uns und andere berechenbarer werden. Es kommt zu Transformationen von Wertschöpfungsquellen und Wertschöpfungsketten, Märkten, Herrschaftskonfigurationen und Arbeitsorganisationen, die sich in Leitunternehmen der Digitalisierung wie beispielsweise Google oder Amazon exemplarisch beobachten lassen. Die Industrie verfügt ebenso über einen riesigen Datenschatz, denn Produktionsprozesse in der Industrie – ob in der Fahrzeugkonstruktion, im Maschinenbau oder im Transportwesen – haben sich im Zuge der Digitalisierung verändert. Zu fassen ist die Digitalisierung von Produktion, deren Kern die Faktoren Vernetzung und Selbststeuerung sind, unter dem Schlagwort Industrie 4.0. Auch die Grenzen zwischen Arbeitnehmern und Kunden, zwischen Produzenten und Rezipienten lösen sich in kollaborativen Produktions- und Konsumtionsprozessen sukzessive auf. Im Zuge der Digitalisierung und der „tiefgreifenden und rasanten Veränderungen der modernen Medienkultur“ (Wissenschaftsrat, 2007, 73, H.i.O.) findet sich in zunehmendem Maße eine konvergente Medienentwicklung wieder. Diese Medienkonvergenz, verstanden als ein Konglomerat aus Produktions-, Produkt- und Rezeptionsperspektiven hat – so Henry Jenkins (2006) – einen kulturellen Paradigmenwandel herbeigeführt: Nämlich den vom Zugang (access) zur Beteiligung (participation). Diese „aktive Erweiterung der Handlungsformen des Nutzers“ (Rath 2010, 21) sorgt dafür, dass die Rollenverteilung zwischen Produzent, Distributor und Rezipient sich auflöst und die Wertschöpfungskette bis zur Unkenntlichkeit verändert wird. Die so genannten Produtzer (vgl. Bruns 2009, 198f) werden selbst zu Inhalteanbietern (User Created Content) und Teil der Wertschöpfungskette. Mizuko Ito (2010) diagnostiziert hierbei eine grundlegende Verschiebung bisheriger Machtverhältnisse zwischen amateur media und professional media. 1. Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 117 Was bedeutet dies für den Einzelnen und die Gesellschaft? Befinden wir uns in einem Prozess umfassender Transformation – und wohin führt diese Entwicklung? Hierzu lohnt ein Blick in die aktuelle Transformationsdebatte (vgl. z.B. Brie u.a. 2016 / Kollmorgen u.a. 2015 / Brie 2015). Laut Ulrich Busch (2017) gilt für die heutige Transformationsdebatte, was auch für die gegenwärtige Kapitalismuskritik gilt: Der Fokus liegt zumeist auf der politischen Umgestaltung sowie auf sozialen Veränderungen und Entwicklungsprozessen, die Wirtschaftssphäre wird weitgehend ausklammert (vgl. ebd., 51). Nimmt man das Kapitalismusverständnis von Karl Marx2 ernst, ist es wichtig im Rahmen einer kritischen (Gesellschafts-)Analyse insbesondere die jeweilige Produktionsweise in den Blick zu nehmen, wenn nicht sogar genau hier anzusetzen. Nach Marx basiert die kapitalistische Gesellschaft, die sich über einen langen historischen Prozess heraus bildete, auf der industriellen Produktion und definiert sich durch das Kapitalverhältnis wie durch die industriemäßige Produktion und die damit verbundenen sozialen Verhältnissen (Busch 2017: 51).3 Nach Marx beginnt die “kapitalistische Produktion [...] in der Tat erst, wo dasselbe individuelle Kapital eine größere Anzahl Arbeiter gleichzeitig beschäftigt, der Arbeitsprozeß also seinen Umfang erweitert und Produkt auf größerer quantitativer Stufenleiter liefert” (MEW 23, 341). Folgt man dem Marx’schen Kapitalismusverständnis, kann von Kapitalismus nur dann gesprochen werden, wenn das Kapital die Produktionssphäre beherrscht oder anders ausgedrückt, wenn tatsächlich kapitalistisch produziert wird. Seine Betrachtung reicht bezogen auf sein Gesamtwerk über eine ökonomische Perspektive hinaus. Ein zentrales Ziel für ihn war das Wohl des einzelnen Menschen.4 In diesem Sinne knüpft Rahel Jaeggi (2017) bei der Kritik am Kapitalismus als einer Wirtschafts- und Gesellschaftsordnung an. 2 Im Unterschied dazu verstand z.B. Walter Benjamin Kapitalismus als Religion und Max Weber beispielsweise sprach von einer besonderen Geisteshaltung und Lebensauffassung. 3 Eine ähnliche Formulierung wählte Friedrich Engels, indem er die “kapitalistische Gesellschaft” als eine soziale Ordnung mit „kapitalistischer Produktion“ definierte. 4 Vgl. hierzu z. B. MEW 1: 391; darüber hinaus: “Alle Emanzipation ist Zurückführung der menschlichen Welt, der Verhältnisse, auf den Menschen selbst.” (MEW 1: 370); “Die Kritik der Religion endet mit der Lehre, dass der Mensch das höchste Wesen für den Menschen sei, also mit dem kategorischen Imperativ, alle Verhältnisse umzuwerfen, in denen der Mensch ein erniedrigtes, ein geknechtetes, ein verlassenes, ein verächtliches Wesen ist.” (MEW 1. 385) oder die im real existierenden Sozialismus häufig missachtete Stelle zur Freiheit des Einzelnen als Voraussetzung der Freiheit aller aus dem Kommunistischen Manifest (MEW 4: 482). Nina Köberer, Christian Augustin, Ekkehard Brüggemann 118 Befinden wir uns nun also aktuell in einem Zeitalter, in dem sich durch die Digitalisierung nicht nur tiefgreifende Veränderungen in sozialer Perspektive, sondern auch umfassende Umbrüche in der Wirtschaft vollziehen? Ist die Digitalisierung „nur“ eine Erscheinungsform der industriellen Produktions- und Lebensweise oder hebt sie diese perspektivisch auf? Busch (2017) zufolge rückt mit der Digitalisierung die technologische Entwicklung „insbesondere als Grundlage für soziale und kulturelle Veränderungen, weniger jedoch als Komponente der Wirtschaft, was sie doch aber vor allem ist“, in das Blickfeld der Transformationsforschung (ebd.: 57). Aktuell ist nicht absehbar, wie eine post-kapitalistischen Gesellschaft aussehen könnte. Insofern befinden wir uns in einem Umbruchprozess und in einer Gesellschaft im Übergang, in der einiges in Bewegung ist und sich neue Formen, wie beispielsweise der Überwachungskapitalismus, zeigen. Der Überwachungskapitalismus als Bedrohung bürgerlicher Autonomie Seit den 2000er Jahren wurden die entscheidenden Grundlagen für die Verbreitung der Informationstechnologien und für Big Data gelegt und damit für die umfassende internetbasierte Digitalisierung von Wirtschaft und Gesellschaft. Digitale Dienste erleichtern uns in vielerlei Hinsicht das tägliche Leben; sie sind erschwinglich, häufig sogar kostenlos. Tatsächlich zahlen wir viele dieser Annehmlichkeiten jedoch mit unseren persönlichen Daten, welche für entsprechende Unternehmen höchst profitabel sind. Doch sind Daten als immaterielle Güter überhaupt eigentumsfähig? Wem sollten welche Arten von Daten „gehören“? Vom Marx’schen Kapitalismusverständnis zum Überwachungskapitalismus „Kann die digitale Zukunft uns eine Heimat sein?“ (Zuboff 2018: 18) Diese Frage ist der Ausgangspunkt der Untersuchungen Shoshana Zuboffs. Sie sieht einen Überwachungskapitalismus am Werke, der „Vorhersageprodukte“ erzeugt. Digitaler Verhaltensüberschuss wird unhinterfragt und möglichst umfassend bei den Nutzern extrahiert, die daraus entstehenden Vorhersageprodukte werden in erster Linie in Profit verwandelt, indem sie an Werbekunden verkauft werden. Ziel ist hierbei, menschliches Verhalten anhand der der gewonnenen (Verhaltens-)Daten zu beeinflussen oder gar zu steuern. Zuboffs zentrale These lautet: Der Überwachungskapitalismus umfasst in seiner Totalität alle Lebensbereiche, löst die Privatsphäre auf und 2. 2.1 Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 119 wird in seinen massiven Auswirkungen von uns nur ansatzweise verstanden (vgl. Zuboff 2019: 4). Der sogenannte Überwachungskapitalismus ist somit eine nicht vorhergesehene ausbeuterische Form des Kapitalismus, denn alle Formen menschlicher Erfahrung werden ihm unterworfen, was die Frage nach Besitz und den Produktionsmitteln gänzlich neu stellt: „Im Grunde seines Wesens ist der Überwachungskapitalismus parasitär und selbstreferenziell. Er haucht der alten Vorstellung vom Kapitalismus als sich von der Arbeit nährenden Vampir neues Leben ein – wenn auch mit einem von Marx nicht vorhergesehenen Dreh: Anstatt von Arbeit nährt der Überwachungskapitalismus sich von jeder Art menschlicher Erfahrung.“ (Zuboff 2018: 24). Im Überwachungskapitalismus haben sich die Rollen verändert: Der Nutzer ist nicht der Arbeiter, liefert jedoch seine Verhaltensdaten, ohne dafür im klassischen Sinne entlohnt zu werden. Die Verhaltensdaten werden durch Maschinen zu Verhaltensdatenprodukten aufbereitet, die verkauft werden. Diese Produkte werden auf den – wie Zuboff sie nennt – Verhaltensdatenterminkontraktmärkten an Kunden verkauft. Dieser Kapitalismus funktioniert nicht nach dem klassischen Schema mit Wertaustausch, Produzent, Konsument. Es erfolgt vielmehr eine allumfassende Rohstoffgewinnung im Sinne der Unternehmen (ebd.: 25) und auf Kosten der gläsernen Nutzer. Hochproblematisch ist dabei, dass der Überwachungskapitalismus die naturrechtlich grundgelegte Souveränität des Einzelnen und damit die Grundlagen der Demokratie negiert, zugunsten eines allein auf Profit ausgelegten Ausbeutungsschemas, dem „Extraktionsimperativ“. Neuartig ist, dass es keine adäquaten Mittel gibt, gegen den Überwachungskapitalismus vorzugehen. Zentrale Rechte wie Unverletzlichkeit und Souveränität der Person und das Recht auf Privatsphäre sind nicht mehr gegeben, diese sind jedoch für Menschen in einem demokratischen, rechtstaatlichen Grundwesen unverzichtbar. Die Datenextrakteure vergessen nichts. Das Recht auf Vergessen im Internet, durch zwei Gerichtsentscheidungen eingefordert5, wird nicht allseits akzeptiert; insbesondere in den USA wird es vielfältig abgelehnt, auch staatlicherseits (vgl. ebd.: 81). Schutz der Privatsphäre aus eigenem Antrieb der Unternehmen ist kaum zu erwarten. Vielmehr erwarten Firmen wie Google und Facebook von den Nutzern Angaben zur Privatsphäre als Quidproquo für vermeintlich kostenlose Internetdienste. 5 Grundsatzentscheid des EuG im Mai 2014; „Online-Eraser-Law“ in Kalifornien vom Januar 2015. Nina Köberer, Christian Augustin, Ekkehard Brüggemann 120 Der Mensch als „Quelle der Rohstoffversorgung“ Der Weg von Google zur größten überwachungskapitalistischen Firma war nicht unvermeidlich oder durch die digitale Technik erforderlich. Zunächst war Google ein Suchmaschinen-Anbieter unter vielen. Die durch den Gebrauch der Suchmaschine anfallenden Verhaltensdaten wurden personenunspezifisch dazu genutzt, die Suchalgorithmen zu verbessern. Die beiden Gründer Larry Page und Sergey Brin wandten sich gar gegen eine weitere Nutzung der Verhaltensdaten der Benutzer mit dem Argument, dieses sei einer Verbesserung der Suchmaschine nicht zuträglich. Dies passte auch zu dem Motto des Unternehmens: „Don’t be evil“6. Alles änderte sich im Jahr 2000 mit dem Platzen der Dotcom-Blase (vgl. Borchers 2010) und der Angst um die Existenz des defizitären Unternehmens. Eher zufällig stieß man darauf, anfallende Benutzerdaten als Rohstoff für Werbung zu nutzen. Zentral ist hierfür das Zusammentragen von Nutzerprofil-Informationen (Zuboff 2018: S. 101). Unternehmen wie Google arbeiten seither im Trial- und Error-Verfahren an Systemen zur Sammlung und Nutzung von Verhaltensdaten und persönlichen Profilen zum Zwecke der gezielten Ansprache durch Werbung (z.B. über AdWords und später auch AdSense). Und die staatliche Reaktion auf die ungefragte Akkumulation personenbezogener Daten durch Google? Zwei Faktoren sind entscheidend: Zum einen gab es massive staatliche Überwachung nach der Terrorattacke am 11. September 2001, was in den USA zu einer Einstellung datenschutzrechtlicher Initiativen führte (vgl. ebd.: 109). Zum anderen gibt Google keine Einblicke in seine Suchalgorithmen oder die Form der Datenaufbereitung „Folge war eine kritische Mutation, die schließlich AdWords, Google, das Internet und den Informationskapitalismus an sich in ein erstaunlich lukratives Überwachungsprojekt verwandelte.“ (Zuboff 2018: 98). Damit verschoben sich die Gewichte: Der Nutzer ist seither nicht mehr Kunde, sondern „Quelle der Rohstoffversorgung“ (ebd.: 110). Und der Umfang der Datenextraktion war für Außenstehende kaum vorstellbar – und somit gut durchführbar. Der Überwachungskapitalismus ist bewusst hervorgebracht. Er setzt zwar die Digitalisierung voraus, könnte jedoch, wenn man dies wollte oder es gesetzliche Vorgaben gäbe, vermieden werden. Und die Reaktion der Nutzer? Es empören sich nur wenige, die Google- und auch Facebook-Welt nutzen viele. Doch unvermeidbar ist dieser Pakt nicht. Mit Zuboff gesprochen ist er „ein Menschenwerk, das sich wie schon so viele andere von 2.2 6 Google hat 2018 das Motto aus seinem Verhaltenskodex entfernt. Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 121 Menschenhand geschaffene Ungerechtigkeiten im Trojanischen Pferd eines technologischen Determinismus zu verstecken versucht.“ (ebd.: 9.). Auch wenn augenscheinlich die Situation nicht zu retten ist, so gibt es einen Weg, beginnend mit einem Aufruf zur Tat, nicht das Gegebene als unveränderbar zu akzeptieren, denn nach Zuboff: „beginnt der Kampf um die Zukunft des Menschen mit unserer Entrüstung. Wenn die digitale Zukunft uns ein Zuhause sein soll, ist es an uns, sie dazu zu machen.“ (Zuboff 2019: 9). Zur Praxis des Überwachungskapitalismus Um an den aktuellen Verhältnissen etwas zu ändern, schlägt Shoshana Zuboff (2018) vor, zunächst den Puppenspieler zu enttarnen. Für sie sind die großen Konzerne wie z.B. Google im Überwachungsgeschäft des Internets die „Puppenspieler“. Ergänzend möchten wir die Aufmerksamkeit auf eine weitere Gruppe an Puppenspielern richten, die Softwaredesigner und -entwickler und an Zuboffs Ausgangsfrage drei Fragen anschließen: Welche Rolle spielt das Publikum? Welche Rolle spielt die Bühne? Und zu guter Letzt: Welches Stück wird eigentlich gespielt? Diese Fragen versuchen wir im Folgenden anhand der Darstellung der aktuellen „Überwachungspraxis“ der großen und kleinen Player zu beantworten. Der Puppenspieler, die Profile und die Aufmerksamkeit des Publikums Großkonzerne wie Google stellen Systeme zur Sammlung und Interpretation der personenbezogenen Profile zur Verfügung, die es jedem Softwareentwickler und Designer von Webseiten, APPS oder Programmen (im Folgenden nur noch Entwickler genannt) extrem leicht und bequem möglich machen, an den Werbegewinnen der Plattformen beteiligt zu werden. Somit entstand ein geschlossenes Ökosystem gemeinsamer Abhängigkeiten mit Schneeballeffekt, welches auf gemeinsame Profitmaximierung durch gezielte Ansprache aus ist.7 Die Werbeplattformen stellen den Entwicklern keine personenbezogenen Daten direkt zur Verfügung. Die Plattform entscheidet aufgrund ihrer Analyse über das Gemessene und in den Profilen gespeicherte Verhalten 3. 3.1 7 Siehe auch „Google Data Collection“, Douglas C. Schmidt, Vanderbilt University: https://digitalcontentnext.org/wp-content/uploads/2018/08/DCN-Google-Data-Coll ection-Paper.pdf (Stand: 04.10.2019). Nina Köberer, Christian Augustin, Ekkehard Brüggemann 122 darüber, welche Werbung wem, wann gezeigt wird. Insofern bleiben die gewonnenen Nutzerdaten in einem geschlossenen System, auf das die Entwickler nur über Schnittstellen Zugriff erlangen8. Mit jeder Webseite oder APP, in der ein Entwickler ein solches Hilfsmittel zur Monetarisierung nutzt, weiß das hinter den Schnittstellen stehende Unternehmen unmittelbar, wie der Nutzer surft oder mit welcher APP er unterwegs ist und wie lange. Dasselbe passiert auch, wenn ein Entwickler kostenlose weitere Schnittstellen nutzt, um z.B. ein YouTube Video auf seine Webseite einzubinden oder einen Google-Zeichensatz9 auf seiner Website einfügt. Das Online-Profil des Nutzers der Webseite oder der APP reichert sich im Laufe der Zeit mit immer mehr Nutzungsdaten an und ein „Tracking“ über verschiedene Seiten und APPS wird für den Systembetreiber, nur bedingt aber für den Entwickler, möglich. Der gesamte Einblick in das gewonnene Profil bleibt dem Entwickler nämlich verborgen. Eine wichtige Erkenntnis in Bezug auf werbeumsatzabhängige Systeme ist, dass eine höhere Interaktionsrate mit einem Medium automatisch dazu führt, dass auch der Werbeumsatz steigt. Somit haben sowohl Entwickler als auch der Plattformbetreiber ein großes Interesse daran, einen Nutzer möglichst lange „drin“ zu halten. Katalysatoren sind verschiedene Mediendesignstrategien, die vermehrt auf verhaltenspsychologische Grundlagen setzen. Beispielhaft seien hier das aus der Spieltheorie entwickelte Konzept der Gamification und der verbundene Flow-Effekt als Erlebnissteuerung bei der Interaktion mit Medien (vgl. Pfeffermind 2019) genannt. Ein weiteres Beispiel sind die sog. „Hooks“, die das Potential haben, APPS oder andere interaktive Medien mit suchtfördernden Elementen zu versehen (vgl. z.B. Eyal 2014). Diese Form der „Kundenbindung“ (vgl. Jannsen/Tremmel 2019) trägt zu einer erhöhten Interaktion mit den Medien bei und rückt Software ganz nebenbei auch strukturell immer mehr in die Nähe von klassischen Glückspielautomaten. Das Publikum und die Bühne Um im Bild zu bleiben, sind die Puppenspieler sowohl die Plattformbetreiber als auch die Entwickler, die die Plattformen nutzen. Die Schnittstelle zum Publikum ist die Bühne, also Betriebssysteme und Webbrowser. 3.2 8 Zu den bereits genannten Werbesystemen AdWords und AdSense seien auch AdMob und GoogleSense genannt. 9 https://de.wikipedia.org/wiki/Google_Fonts (Stand: 10.10.2019) Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 123 Die Entwicklung der aktuellen Betriebssysteme läuft Hand in Hand mit einer „Entkomplexisierung“ der Benutzeroberflächen an der Schnittstelle zum Publikum „Mensch“. Hiermit werden sowohl Barrieren in der Nutzung gesenkt als auch neue Nutzergruppen erschlossen. Somit lenken moderne, vernetzte Oberflächen immer mehr von den darunterliegenden Funktionsweisen ab und sind im Rahmen ihrer vernetzten Funktionen z.B. für Bildungsprozesse nicht mehr auf der (Nutzer-)Oberfläche direkt nachvollziehbar. Will man sie grundlegend verstehen, bräuchte es einen gesamten Einblick in das (geschlossene) Netz – dieser ist aber aufgrund der operational geschlossen und verschlüsselten Netzwerkstruktur der Betriebssystemhersteller nicht gegeben. Auf Basis der Grundfunktionen der Betriebssysteme und der Browser gesellen sich nun weitere, von Zweit- und Drittherstellern zur Verfügung gestellte Systeme10 zur Erfassung und Verarbeitung von Nutzungsverhalten (Tracking und Analytics). Teilweise bauen diese sogar aufeinander auf, vor allem dann, wenn die Betriebssysteme selbst ebenfalls von den jeweiligen (Werbe-)Plattformbetreibern stammen. Somit laufen alleine bei der reinen Nutzung eines solchen Betriebssystems Informationen in den Profilen der Nutzer auf. Der Entwickler spielt das Spiel der Plattform – und mit dem Publikum sein eigenes Zusammenfassend lässt sich sagen, dass heutige Werbe- und Telemetriesysteme Hand in Hand gehen. Alle sammeln Verhaltensdaten zur Nutzerund Nutzungsanalyse. Dazu kommen die Analytics-Systeme, die Entwicklern einen Zugriff auf die in ihren eigenen Produkten generierten Nutzerdaten geben (ebenfalls wieder als Dienst der großen Player angelegt). Sie erhalten einen fein granulierten Zugriff auf die Verhaltensdaten der Nutzer ihrer eigenen APP, Software oder Webseite. Dieser Zugriff auf die Verhaltensdaten bedeutet einen erneuten Wettbewerbsvorteil. Denn der Entwickler ist nun in der Lage während der Entwicklung aufgrund von Beobachtung und Datengrundlage zu entscheiden, wie sich das gespielte „Stück“ verändern muss, um seine Umsätze zu erhöhen. Wir erinnern uns: 3.3 10 Google Analytics: https://marketingplatform.google.com/intl/de/about/analytics/, Social Networks z.B. https://analytics.facebook.com/, https://analytics.twitter.co m, AppAnalytics Top100: https://www.businessofapps.com/guide/app-analytics/ (Stand: 04.10.2019). Nina Köberer, Christian Augustin, Ekkehard Brüggemann 124 Ziel ist es, die Interaktion zu erhöhen und damit den Werbeumsatz. Somit ist der Entwickler als Puppenspieler heute nebenbei noch Regisseur und Dramaturg und passt die von ihm erzählte Geschichte (wenn wir APPS als Erzählungen betrachten)11 stets an seine Interessen an. Er spielt mit seinem Publikum, stellt Hypothesen auf, falsifiziert sie mit Daten und nimmt Anpassungen vor. Entwickler werden immer mehr zu Datenwissenschaftlern, die die Reaktionen ihres Publikums messen und nutzen; die Interessen des Publikums sind zweitrangig. Das vernetzte Profil der Plattform und verknüpfte Dienste Der hier für einen einzelnen Entwickler angesprochene Vorteil entwickelt sich für die Plattform selbst zu einem noch größeren Vorteil. Diese kann die gewonnenen Daten nun intern verknüpfen und sie mit ihren vorhandenen Daten aus allen eigenen Diensten, in Beziehung bringen. Ob und in wie weit ein Datensammelsystem intern mit einem anderen Datensammelsystem der Plattform verknüpft ist, erfährt der Nutzer nicht – und auch nicht der Entwickler. Denn die Verknüpfung und die hieraus gewonnenen Erkenntnisse der verschiedenen Dienste gelten als ein „Betriebsgeheimnis“ des Plattformbetreibers, der Zugriff auf das komplette Bild (Profil) ist ihm vorbehalten. Somit führen die Verknüpfungen der unterschiedlichen Dienste und Anwendungen zu einem wertvollen Gesamtprofil, zu dem viele freiwillig oder unfreiwillig beigetragen und dem Plattformbetreiber ein ziemlich komplettes Bild (Profil) geliefert haben. Es gibt Unternehmen, die das Verhalten über verschiedene Webseiten hinweg tracken und die gewonnenen Daten zusammenführen. Andere Unternehmen, wie z.B. Amazon, nutzen die eigenen Plattformdaten. Der eigene Datenschatz aus dem (Kauf-)Verhaltens seiner Nutzer auf der Plattform und in den eigenen Systemen (z.B. Kindle, FireTV, Echo) ist groß genug, um genügend „Vorhersagekraft“ für spezifische Ansprachen zu ermöglichen. Neben dem beschriebenen internen Verknüpfen der eigenen Dienste zum Zwecke der Anreicherung der Profile existiert heute ein weiterer Drittmarkt. Diese Dienstleister reichern Profildaten mit dazugekauften oder eigens gewonnenen Daten an und komplettieren damit Datensätze anderer. Schließlich möchten Marketingtreibende gerne mehr über ihre 3.4 11 Die Beschreibung passt sicher besser auf (Computer-)spieldesign. Wenn man aber bedenkt, dass auch APPS einem Narrativ folgen ist diese Vorstellung alles andere als abwegig. Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 125 Kunden wissen, als sie aus ihren eigenen Daten direkt ablesen können, um bessere Prognosen zu treffen.12 Viel perfider funktionieren aber psychometrische Datenanreicherungsstrategien und liefern noch weitere Profit-Optionen: Ein bekanntes Beispiel ist der Fall Cambridge Analytica13. Die strategische Ansprache von Zielgruppen im Rahmen einer Wahlwerbebotschaft wird hier über ein psychometrisches Modell ermöglicht. Cambridge Analytica hat über eine Datenschnittstelle eine Unmenge an Profildaten von Personen und deren Freunden direkt aus Facebook extrahieren können: Das Unternehmen betrieb dann Datenanalyse- und Interpretation auf Grundlage eines, zugegebenermaßen umstrittenen, psychologischen Persönlichkeitsmodells. Hierfür wurde ein bestehendes Profil mit einer Persönlichkeitstypus-Interpretation angereichert. In der Anwendung des BigFive oder OCEAN14 Models hat das Unternehmen fünf Persönlichkeitsformen über die Profildaten identifiziert, um damit eine personalisierte Ansprache je nach Typus zu ermöglichen. Das Prinzip der psychometrischen Anreicherung von Daten über die Interpretation derselben ist im Rahmen eines Informationsreichtums datengetriebener Unternehmen sehr verlockend und wird in Zukunft noch eine große Rolle spielen. Der Fall Cambridge Analytica war hier sicher nur eine kleine öffentlich einsehbare Eisbergspitze. Weitere Einsatzfelder für Datenanreicherungsstrategien bieten AI-basierte, also auf künstlicher Intelligenz aufbauende, Interpretationsmöglichkeiten, z. B. eine Software zur Erkennung der sexuellen Orientierung auf Grundlage von Fotos15. Somit kann man sagen: Profile werden über unterschiedliche Datenanreicherungsstrategien erst zu einem Schatz für strategische Ansprache. Die Interpretationen über die Daten sind für einen späteren Einsatz, z.B. zur werblichen Ansprache, mindestens genauso relevant wie die Daten selber. Das Publikum erfährt von solchen Interpretationen und Anreicherungen auf Grundlage seiner Profile nichts. Nutzer, die bei der Wirtschaftsauskunft „Schutzgemeinschaft für allgemeine Kreditsicherung“ (kurz: Schufa) 12 https://www.e-commerce-magazin.de/gekonnter-umgang-mit-kundendaten-custo mer-identity-resolution/ (Stand: 10.10.2019). 13 Lohnenswert: Die Geschichte rund um Christopher Wylie im Film „Cambridge Analyticas großer Hack“. 14 https://www.smart-digits.com/2017/02/cambridge-analytica-und-das-ocean-modell / (Stand: 04.10.2019). 15 https://psyarxiv.com/hv28a/ oder https://www.spiegel.de/netzwelt/netzpolitik/soft ware-kann-homosexuelle-anhand-von-fotos-erkennen-a-1166971.html (Stand: 04.10.2019). Nina Köberer, Christian Augustin, Ekkehard Brüggemann 126 Auskunft über ihre eigene Kreditwürdigkeit einholen, erhalten diese in Form eines Score-Werts. Die für die Berechnung genutzten Quellen, Gewichtungen, Interpretationen und Datenmodelle werden nicht offengelegt. Das gleiche gilt für auch für Unternehmen, die eine Auskunft einholen. Zusammenfassend lässt sich das Datenextraktionsmodell, nun exemplarisch (und ohne Anspruch auf Vollständigkeit) z.B. für das Google-Ökosystem, folgendermaßen beschreiben: Abbildung 1: Google Ökosystem exemplarisch mit 6 seiner Dienste dargestellt – nur 3 davon sind Werbedienste: Eine Webseite oder APP nutzt nun verschiedene Dienste. Hierbei können die Nutzungsdaten des jeweiligen Mediums in das bei Google liegende Profil auflaufen. Telemetriedaten, z.B. von Betriebssystemen, laufen in diesem Modell direkt im Profil des Nutzers auf und müssen ggf. keine Umwege über andere Dienste nehmen – oder sind ein eigener Dienst. Die Profilanreicherungsstrategie sorgt für weitere Daten über Interpretationen und reichert das Profil an. Das aus extrahierten und generierten Daten gewonnene Profil wird dann zur Verhaltensvorhersagegrundlage. - Modell und Bild © E.Brüggemann Abbildung 1: Google Ökosyst m exemplarisch mit 6 seiner Di n t dargestellt – nur 3 davon sind Werbed enste: Ei e Webseit oder APP nutzt nun verschiedene Dienste. Hierbei können die Nutzungsdaten des jeweiligen Mediums in das bei Google liegende Profil auflaufen. Telemetriedaten, z.B. von Betriebssystemen, laufen in diesem Modell direkt im Profil des Nutzers auf und müssen ggf. keine Umwege über andere Dienste nehmen – oder sind ein eigener Dienst. Die Profilanreicherungsstrategie sorgt für weitere Daten über Interpretationen und reichert das Profil an. Das aus extrahierten und generierten Daten gewonnene Profil wird dann zur Verhaltensvorhersagegrundlage. – Modell und Bild © E.Brüggemann Ausblick: Welches Stück möchten wir in Zukunft sehen? Die „schöne Google-Welt“ ist auf die Datenextraktion ausgelegt und zwingt ihre Benutzer, diese Daten zu liefern. Wenn man auf das Maschi- 4. Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 127 nenfragment (MEW 42: 590ff.) schaut, in dem Marx der Frage nachgeht, wie die Technisierung der Arbeit diese umgestaltet, lassen sich Analogien für die Nutzer der Dienste der überwachungskapitalistischen Firmen ziehen: Die Maschine bestimmt die Arbeit, nicht umgekehrt. Wie die Maschine konstruiert ist und welchen Zweck sie verfolgt, ist dem Arbeiter bzw. Nutzer nicht offensichtlich: „Die Tätigkeit des Arbeiters, auf eine bloße Abstraktion der Tätigkeit beschränkt, ist nach allen Seiten hin bestimmt und geregelt durch die Bewegung der Maschinerie, nicht umgekehrt. Die Wissenschaft, die die unbelebten Glieder der Maschinerie zwingt, durch ihre Konstruktion zweckgemäß als Automat zu wirken, existiert nicht im Bewußtsein des Arbeiters, sondern wirkt durch die Maschine als fremde Macht auf ihn, als Macht der Maschine selbst.” (MEW 42: 593) Somit bekommt es der Mensch mit der „fremden Macht“ zu tun. Ergebnis ist eine zunehmende Abhängigkeit im digitalen Zeitalter. Sich der Digitalisierung komplett zu verweigern, stellt auch keine Lösung dar. Vielmehr ist man gezwungen, auf die digitalen Möglichkeiten zurückzugreifen (vgl. Neffe 2017: 361). Zuboff (2018/2019) hat treffenderweise formuliert, dass wir nicht vorhersehen bzw. uns nicht ausmalen können, was auf uns zukommt, da dies den menschlichen Horizont überschreitet. Zudem schauen wir immer auf die Puppe, nicht den Puppenspieler. Der Blick auf den Puppenspieler zeigt im konkreten Fall des Zusammenspiels zwischen Entwicklern und Plattformen, wie diese als Grundlage der Überwachung, Speicherung und Steuerung menschlichen Verhaltens im Internet genutzt werden. Wenn man alle gewonnenen Daten von Menschen und Gruppen analysiert, ist man als Entwickler/Anbieter in der Lage, das Verhalten der Kunden in der Zukunft vorherzusagen. Das ist eine einfache statistische Wahrscheinlichkeitsrechnung auf Grundlage komplexer Datensammlungen; „Big Data“ ist nicht neu, aber nun sind die Rechner so schnell, dass sie diese Aufgabe erledigen können – mühelos. Somit kann man sagen, wie Zuboff es zusammenfasst: Die Erhebung von Daten (Extraktionsimperativ) wird zur Vorhersage von Verhalten in der Zukunft (Vorhersageimperativ). Plattformen erhalten durch diese Vorhersage einen Handlungsvorteil, welcher wiederum zur gesteuerten Verhaltensmodifikation führt. Formen „(digitaler) Selbstverteidigung“ haben im Sinne des Schutzes der eigenen Daten in diesen vernetzten Kontexten heute nur noch geringe Halbwertzeiten und funktionieren vielleicht gerade noch temporär, bis eine neue Browser- oder Betriebssystemversion oder auch eine Gegenmaßnahme der Betreiber erscheint (vgl. Claburn 2017), die die getätigte Verteidigungsmaßnahme wieder aushebelt. Nina Köberer, Christian Augustin, Ekkehard Brüggemann 128 Und so wird unser Dasein auch von den vorgegebenen Bahnen bestimmt, die uns der Überwachungskapitalismus vorgibt, der grenzenlos in die berufliche und private Sphäre eingreift, wenn wir ihm nicht Einhalt gebieten und seinen dem Profit verpflichteten Expansionsstreben entgegentreten. Dabei geht es nicht allein um den Gewinn. Mit Marx gesprochen: “Der Gebrauchswert ist also nie als unmittelbarer Zweck des Kapitalisten zu behandeln. Auch nicht der einzelne Gewinn, sondern nur die rastlose Bewegung des Gewinnens” (MEW 23: 168). Um diesem Beschleunigungsspiel den Stecker zu ziehen16, bedarf es klarer normativer Vorgaben sowie gesellschaftlicher Aufklärung – im Sinne Kants gesprochen: ein neues Zeitalter der Aufklärung. Der Überwachungskapitalismus ist Menschenwerk und sollte durch menschlichen Eingriff auch so weit eingehegt werden, dass “der Mensch an sich”, um den es Marx geht, weiterhin als Voraussetzung seiner Autonomie ein Recht auf Freistatt, auf Privatheit, auch in der digitalen Welt, erhält. Aktives Handeln ist gefragt: “Die Geschichte tut nichts, sie ›besitzt keinen ungeheuren Reichtum‹, sie ›kämpft keine Kämpfe‹! Es ist vielmehr der Mensch, der wirkliche lebendige Mensch, der das alles tut, besitzt und kämpft” (MEW 2: 98). Bewusstseinsbildung ist ein erster Schritt. Das Handeln folgt nicht zwangsläufig der Einsicht. Der Schutz der digitalen Privatsphäre muss als Bedürfnis erkannt werden, sonst folgt kein Handeln: Marx hofft darauf, dass die Menschen letztendlich nicht verharren, sondern aktiv werden.17 „Die Theorie wird einem Volke immer nur so weit verwirklicht, als sie die Verwirklichung seiner Bedürfnisse ist. […] Es genügt nicht, daß der Gedanke zur Verwirklichung drängt, die Wirklichkeit muß sich selbst zum Gedanken drängen“ (MEW 1: 386). Hoffen wir darauf, dass er in diesem Punkte Recht behält. 16 vgl. hierzu die Ausführungen bei Hartmut Rosa (2017). 17 „Der Mensch als ein gegenständliches sinnliches Wesen ist ein *leidendes* und, weil sein Leiden empfindendes Wesen, ein *leidenschaftliches* Wesen. Die Leidenschaft, die Passion ist die nach seinem Gegenstand energisch strebende Wesenskraft des Menschen.“ (MEW 40:.579). Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 129 Literatur Busch, Ulrich (2017): Wie aktuell ist Marx' Kapitalismusbegriff in Zeiten der Digitalisierung? In: Janke, Dieter / Leibiger, Jürgen / Neuhaus, Manfred (Hrsg.): Marx' "Kapital" im 21. Jahrhundert. Leipzig: Rosa-Luxemburg-Stiftung Sachsen e.V. S. 51–72. Brie, Michael / Reißig, Rolf / Thomas, Michael (2016): Transformation. Suchprozesse in Zeiten des Umbruchs. Münster: Lit Verlag. Brie, Michael (2015): Mit Realutopien den Kapitalismus transformieren? Beiträge zur kritischen Transformationsforschung. Eine Veröffentlichung der Rosa-Luxemburg-Stiftung. Hamburg: VSA Verlag. Borchers, Detlef (2010): Zehn Jahre Dotcom-Bust: Als die Blase platzte. Heise-online. Online unter: https://www.heise.de/newsticker/meldung/Zehn-Jahre-Dotcom- Bust-Als-die-Blase-platzte-951796.html (Stand: 18.10.2019) Bruns, Axel (2009): Vom Prosumenten zum Produtzer. In: Blättel-Mink, Birgit / Kai- Uwe Hellmann (Hrsg.): Prosumer Revisited: Zur Aktualität einer Debatte. Wiesbaden, S. 191–205. Online-Quelle: http://snurb.info/files/Vom %20Prosumenten %20zum %20Produtzer %20(final).pdf (Stand: 15.07.2019). Claburn, Thomas (2017): Revealed: The naughty tricks used by web ads to bypass blockers. A behind-the-scenes look at the cat and mouse game played by publishers and devs. Online unter: https://www.theregister.co.uk/2017/08/11/ ad_blocker_bypass_code?page=1 (Stand: 11.10.2019). Eyal, Nir (2014): Hooked – Wie Sie Produkte erschaffen, die süchtig machen. Redline: München. Kollmorgen, Raj/ Merkel, Wolfgang / Wagener, Hans-Jürgen (2015): Handbuch der Transformationsforschung. Wiesbaden: Springer VS. Ito, Mizuko (2010): Amateur Media Production in a Networked Ecology. Online-Quelle: http://www.itofisher.com/mito/publications/ amateur_media_p_1.html. (Stand: 06.07.2019). Jaeggi, Rahel (2017): Was (wenn überhaupt etwas) ist falsch am Kapitalismus? Drei Wege der Kapitalismuskritik. In: Jaeggi, Rahel / Loick, Daniel (Hrsg.): Nach Marx. Philosophie, Kritik, Praxis. 3. Aufl., S. 321–349. Janssen, Jan-Keno/ Tremmel, Sylvester (2019): So machen Apps süchtig. Die Psycho- Tricks der App-Entwickler. In: ct – Magazin für Computertechnik 22/2019. S. 64– 69. Jenkins, Henry (2006): Convergence culture: where old and new media collide. New York Marx-Engels-Werke (MEW): 43 Bände. Berlin 1956–1990. Neffe, Jürgen (2017): Marx. Der Unvollendete. Gütersloh: Bertelsmann Verlag. Pfeffermind (2019): Was Gamification aus der Flow Theorie lernen kann. Online unter: https://pfeffermind.de/flow-theorie-gamification-motivation/ (Stand: 26.09.2019). Nina Köberer, Christian Augustin, Ekkehard Brüggemann 130 Rath, Matthias (2010): Vom Flaschenhals zum Aufmerksamkeitsmanagement. Überlegungen zum Online-Journalismus und einer Ethik der öffentlichen Kommunikation 2.0. In: Zeitschrift für Kommunikationsökologie und Medienethik, Jg. 12, H. 1, S. 17–24. Rosa, Hartmut (2017): Klassenkampf und Steigerungsspiel: Eine unheilvolle Allianz. Marx’ beschleunigungstheoretische Krisendiagnose. In: Jaeggi, Rahel / Loick, Daniel (Hrsg.): Nach Marx Philosophie, Kritik, Praxis. 3. Aufl. Berlin: Suhrkamp. S. 394–411. Wissenschaftsrat (2007): Empfehlungen zur Weiterentwicklung der Kommunikationsund Medienwissenschaften in Deutschland. Drucksache 7901–07. Oldenburg 25.5.2007. Online-Quelle: www.wissenschaftsrat.de/texte/7901-07.pdf (Stand 07.06.2019). Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt a. M: Campus. Zuboff, Shoshana (2019): Surveillance Capitalism – Überwachungskapitalismus. In: APuZ – Datenökonomie. 69. Jg. 24–26/2019. S. 4–9. Die Digitalisierung und Wir – ein emanzipatorischer Beitrag, mit Marx gedacht 131 Digitale InnovationTeil II: Mediengesellschaft mit Zukunft? Anforderungen an Netzpolitik und Journalismus Hansi Voigt1 Abstract Das bisherige Geschäftsmodell klassischer Medienhäuser fällt in sich zusammen. Über übliche Wege (Anzeigen, Abos) lassen sich Medien kaum mehr finanzieren. Das bedeutet ein hohes demokratisches Risiko wie z.B. die sinkende Medienvielfalt. Die digitale Transformation erzwingt eine rasche Strukturveränderung des Medienmarkts. Diese gelingt nur, wenn aufeinander abgestimmt politische, finanzielle und technische Ansätze entwickelt werden, sowie eine Innovationskultur, die auch eine Fehlerkultur ist und das Scheitern als einen von mehreren Wegen zu lernen akzeptiert und nutzt. Inhalt, Technik, Politik, Ethik sind die Treiber einer digitalen Zukunftsstrategie, und zwar ins Digitale übertragen. Dazu sammeln wir in neuen Projekten gerade Erfahrungen: Bezogen auf Inhalte (z.B. stiftungsfinanzierte Lokalberichterstattung Bajour2), Technik (z.B. eigene Plattforminfrastrukturen, WePublish3), Politik (z.B. Netzwerk Verband für Medien mit Zukunft4) und Ethik. Auf dieser Grundlage werden hier nun vier Thesen formuliert und begründet zur 1 Hansi Voigt gehörte zu jenen, die relativ früh tief in den Digitaljournalismus eintauchten und ihn in leitender Funktion prägten: Von 2006 bis 2012 war er Chef der selbständigen Online-Redaktion von „20 Minuten“. Als diese 2013 mit der Print-Redaktion des Gratis-Blatts zusammengelegt wurde, ging er. Einige Zeit später startete er mit vielen ehemaligen Mitarbeitern von 20 Minuten Online das Newsportal „watson.ch“ das gegen Zusicherung einer langfristigen Finanzierung unter dem Dach des AZ-Medienhauses landete. Voigt verließ Watson nach der erfolgreichen Lancierungs- und Etablierungsphase. Seit 2018 arbeitet er als selbstständig als Unternehmensberater, Medienentwickler und Medienkritiker. Voigt ist ein Praktiker, der an seine Erfahrungen eine systematisierende Analyse andockt. 2 Bajour (https://bajour.ch/medienspiegel) ist ein Lokaljournalismus-Projekt in Basel. 3 Wepublish (https://wepublish.ch) ist ein Verein, der eine Open-Source-Journalismus-Infrastruktur baut. Damit lassen sich Projekte wie Bajour.ch einfacher realisieren. 4 Verband Medien mit Zukunft (https://www.medienmitzukunft.org/): gegründet von journalistischen Herausgebern, Verlegern und Publizisten; Ziele: Medienvielfalt stärken sowie die Verfügbarkeit demokratierelevanter, verlässlicher Informationen und Recherchen; Einmischung in medienpolitische Debatten; Engagement für eine offene publizistische Infrastruktur. 135 Etablierung einer neuen journalistischen Zukunft im Digitalen, die schon jetzt näher herangerückt ist, als es scheint. Die Thesen wurden zunächst als Keynote für die Tagung „Kommunikations- und Medienethik reloaded“ ausgearbeitet; hier folgt nun eine aktualisierte Version.5 Einleitung Die Corona-Pandemie hat deutlich gemacht, wie wichtig Journalismus für die demokratische Gesellschaft ist. Global, international, landesweit und vor Ort. Es hat sich zudem in nie dagewesener Deutlichkeit erwiesen, wie brüchig die bestehenden Geschäftsmodelle sind. Durch die in der Pandemie mit nochmals gesteigerter Schlagzahl verbreiteten Fehlinformationen und Manipulationen machten klar, wie wichtig eine durchdachte, digitale Strategie für einen Mediengesellschaft mit Zukunft ist. Aber auch gerade auf lokaler Ebene sind Medien in Zeiten, wenn etwa alte Menschen im Haus bleiben müssen, als glaubwürdige Vermittler und Vernetzer enorm gefragt. Das Lokaljournalismus-Projekt Bajour in Basel stützt sich auf Stiftungsmittel, Sponsoren und Mitgliedschaften. Die Plattform konnte sich sehr schnell Bekanntheit verschaffen und sich als Ort der Gemeinschaft und der Hilfsbereitschaft und als glaubwürdiger Moderator des lokalen Diskurses etablieren. Während der Corona-Pandemie wurde dies besonders deutlich. Die Krise ist ein weiteres Beispiel dafür, wie wichtig ein glaubwürdiges Medium auch im lokalen und regionalen Bereich ist. Journalismus betritt in digitalen Zeiten viel Neuland. Wichtig ist dabei, bei aller Neugierde und vielen neuen dialogischen Formen und Formaten, den ethischen Kompass, den sich Qualitäts-Medien grundsätzlich als Leithilfe auferlegt haben, nicht zu verlieren. Digitaler Journalismus sollte grundsätzlich mit guter Absicht die neuen Chancen nutzen. Die Zukunftsorientierung in der Mediengesellschaft ist deshalb auch stets eine Ausrichtung entlang den Fragen der journalistischen Verantwortung. Um sich Neuland zu erschließen, ist zudem bedeutsam, sich umzusehen, genau zu beobachten, abzuwägen und strategisch vorzugehen. 1. 5 Raphael Markert hat die bei der Tagung am 21./22. Februar 2019 mündlich und über Powerpointfolien dargelegten Thesen verschriftet und mit Informationen aus einem Gespräch verdichtet, das die Co-Herausgeberin dieses Bands, Marlis Prinzing, im Rahmen eines Fachtreffens von Journalismusprofessor*innen geführt hat. Ein herzliches Dankeschön an Raphael Markert! Hansi Voigt 136 Vier Thesen zur Etablierung einer neuen journalistischen Zukunft im Digitalen Grundthese ist: Die Medienbranche bewegt sich durch die Fliehkräfte der Digitalisierung rasant – und mit einer Wucht, die das Geschäftsmodell klassischer Medienhäuser auseinanderfallen lässt. Daraus resultieren vier Thesen zur Etablierung einer neuen journalistischen Zukunft im Digitalen, die schon jetzt näher ist, als es scheint. These Eins: Am Anfang der digital informierten Gesellschaft steht die Überwindung der bestehenden Informationssilos Früher lebten wir in einem Mediensystem, das funktionierte, weil es sich vor allem aus dem Prinzip der Informationsknappheit konstituierte: In einem System, in dem es keine (kostenlosen) Onlinenachrichtenportale gab, sondern nur die beschränkte Auswahl aus Zeitungen, die Geld kosteten, und täglich kurze Fernsehnachrichten. Für Medienkonzerne war Information damit ein knappes Gut, für das Rezipienten Geld zu bezahlen bereit waren. Heute sieht das System genau andersherum aus: In Zeiten von Onlineportalen, endlosen Speicherkapazitäten, sozialen Netzwerken und medialem Dauerfeuer erleben wir eine Informationsflut – das knappe Gut ist nicht mehr die Information, sondern die Aufmerksamkeit der Rezipienten, die aus dem Nachrichtenstrom die für sie relevantesten Inhalte filtern müssen. Somit ist als erste These zu konstatieren, dass am Anfang einer digital informierten Gesellschaft die Überwindung bestehender Informationssilos stehen muss – mit dem Ziel, neue, vernetzte Formen der Informationsvermittlung zu generieren. Der Begriff der Informationssilos beschreibt die Idee, dass wenige Unternehmen Informationen bündeln und siloähnlich lagern, damit der Nutzer sie an einem Ort wiederfindet. Für den Zugang zu diesem abgeschirmten Ort bezahlt man Eintritt. Diese Silos waren exklusiver Markenkern der Medienverlage. Doch mit der Digitalisierung kam die Diversifizierung der Information – und damit auch die Auflösung der Verlags-Silos. Anfangs nutzten die Verlage noch erfolgreich soziale Netzwerke wie Facebook, um Nutzer auf ihre Seiten zu locken. Das gelingt immer weniger. Einführung von „Instant Articles“ bei Facebook werden verlinkte Nachrichten nun direkt in der Facebook-Infrastruktur angezeigt, eine direkte Weiterleitung auf die Quellseite erfolgt nicht mehr. Der Tausender-Kontakt-Preis der digitalen Medienhäuser-Angebote ist damit nochmals deutlich eingebrochen. Mittlerweile ist es Facebook, das ein Informationssilo beziehungs- 2. Mediengesellschaft mit Zukunft? Anforderungen an Netzpolitik und Journalismus 137 weise eine Plattform aufbauen konnte, die Regeln bestimmt und etwa nach eigenen Kriterien die Algorithmen über Nacht so anpassen kann, dass journalistische Beiträge deutlich seltener in den Newsfeeds der Nutzerinnen auftauchen. Vor diesem Hintergrund wirkt die verzweifelte Idee der Verlage, ihre digitalen Inhalte sukzessive hinter Bezahlschranken zu verstecken, um nun auf diese Art Geld zu verdienen, anachronistisch. Dahinter steht der Wunsch, den Zugang zu Informationen wieder zu verknappen. Überspitzt ausgedrückt funktioniert dieser Ansatz am besten in einem Land wie Nordkorea: Also an einem Ort, an dem eine geringe Informationsdichte und eine kaum informierte Gesellschaft zusammenkommen und somit eine hohe Nachfrage nach Information unterstellt werden könnte. Diese hohe Nachfrage nach Information gibt es in westlichen Demokratien zum Glück nicht mehr. Dem digitalen Fortschritt und dem Marktversagen klassischer Medienhäuser mit einer uninformierten Gesellschaft entgegenzuwirken, ist absurd. Aber letztlich ist der Wunsch nach Medienförderung im Sinne einer breit informierten Bevölkerung bei gleichzeitigem Aufbau von Paywalls nichts anderes. Die Umkehrung des Medienmarktes von der Informations- zur Aufmerksamkeitsknappheit ist ein wichtiges medienethisches Thema, das insbesondere bei den in die Wege geleiteten Förderbemühungen eine Rolle spielen sollte: In einer Welt, in der mehr und mehr Informationen verfügbar sind, werden Nutzer die für sie vertrauenswürdigsten Medien herausfiltern und nutzen. Medienförderung muss Mediensteuerung im Sinne der Leserinnen und der Glaubwürdigkeit heißen. Es würde Sinn machen, diejenigen Medien, die zum Beispiel immer wieder gegen journalistische Grundsätze verstoßen, zu benachteiligen. Technisch wäre es kein Problem, so etwas wie einen Qualitäts-Algorithmus zu entwickeln, der sich in positivem oder negativen Distributions- und Fördermechanismen niederschlägt. Heute ist das Gegenteil der Fall. Man kann es drehen und wenden wie man will: Wir müssen heraus aus den Informationssilos, welche die bisherige Geschäftsgrundlage für klassische Medienplayer waren. Sie werden es nicht schaffen, ihr Geschäftsmodell derart zu revolutionieren, dass sie dieses Kernproblem lösen können werden: Wer heute noch Informationen teuer verkaufen will, hat keine Zukunftsperspektive. Mit diesen (Verlags-)Unternehmen muss eine faire, aber klare Abwicklungsdebatte geführt werden. Die Frage um ihre Zukunft ist auch gesetzgeberisch eine Pseudodebatte: Wir werden diese Unternehmen nicht retten können und sollten deshalb aufhören, unsere Zeit mit ihnen zu verschwenden. Hansi Voigt 138 These Zwei: Es braucht zur Verfügung stehende Infrastruktur-Angebote to the Profit of all, damit der Wettbewerb um unsere Aufmerksamkeit mit relevanten Inhalten entschieden werden kann und nicht durch technische Wettbewerbsvorteile Zugegebenermaßen wirkt diese These im ersten Moment sperrig – zur Illustration deshalb eine Parallele am Beispiel des Transportgeschäftes: Wie funktioniert dies? Wie wird die Kernaufgabe „Transport von Gütern” erfüllt? Einfach erklärt: Auf der einen Seite steht der Wettbewerb in Form von Dutzenden LKW, die um Aufträge konkurrieren. Auf der anderen Seite nutzen sie mit der Autobahn aber allesamt eine gemeinsame Infrastruktur, mit der das Kerngeschäft, der Transport, ungestört stattfinden kann. Ein klares Modell – und vereinfacht gesagt: Auch wenn die LKW Konkurrenten sind, nutzen sie durch eine gemeinsame Autobahn Synergien. Und im Mediengeschäft? Da können wir noch nicht mal klar trennen: Wo endet Infrastruktur, wo beginnt der Wettbewerb? Ist beispielsweise das Drucken noch Teil dieser Infrastruktur, oder schon das Geschäft? Wohin sortieren wir Vertrieb und Inhalt? Wir haben in der Medienbranche verpasst, Kerngeschäfte klar zu definieren und verschiedene Ebene zu trennen. Mögliche Synergieeffekte blieben deshalb bisher ungenutzt. Wer die größere Druckerei besaß, übernahm den Zeitungskonkurrenten, der eine neue Druckmaschine anschaffen musste. Oder auf das Transportbeispiel übersetzt: Jedes Medienhaus baut sein eigenes Stück Autobahn, anstatt eine gemeinsame Infrastruktur zu nutzen. Eine gemeinsame Autobahn gibt es nicht. Aber am Schluss gibt es nur noch zwei Transportunternehmer. Dabei bräuchten wir genau dies: Eine gemeinsame Infrastruktur für alle Medienkonzerne, mit der glaubwürdige, neue Marken wachsen können – mit dem Ziel, Inhalte zu vermitteln und eine glaubwürdige Debatte in die Gesellschaft zu tragen. Wie kann eine solche gemeinsame Infrastruktur aussehen? Zum Beispiel als eine Art Plattform, die alle Anbieter von glaubwürdigen journalistischen Inhalten gleichsam nutzen: Nationale wie regionale, Allgemeine wie Fachmedien. Eine Plattform, die nicht einem Mogul alleine gehört wie z.B. im Fall von Facebook, und die vielmehr wie bei einem genossenschaftlichen Modell als Profit to all funktioniert; also als Infrastruktur zu gleichen Wettbewerbsbedingungen zur Verfügung gestellt wird. Auf einer solchen Plattform können Kurationen und Kooperationen entstehen, beispielsweise aus einem Artikelpool, in den alle Medienhäuser als Nutzer der Plattform einzahlen und gleichzeitig Texte nutzen können. Aber auch so, dass jeder Teilnehmer seine Autonomie behält. Mediengesellschaft mit Zukunft? Anforderungen an Netzpolitik und Journalismus 139 Wichtig ist nur: Es sollen Synergien entstehen – wie die LKW, die alle dieselbe Autobahn nutzen. Und noch eine interessante, mögliche Analogie: Auf der Autobahn fahren alle LKW 80 Stundenkilometer. Nicht, weil sie nicht gern schneller fahren würden. Sondern weil sie müssen, weil sie wissen, dass sie sonst bestraft werden. Solche Regeln, ein Common Sense für alle Player, können auch auf dieser Plattform installiert und durchgesetzt werden. Maßgeblich sind hier die gesetzlichen Standards und die branchenüblichen Anforderungen, die wir an den Journalismus stellen. These Drei: Die Informationsexplosion in Folge der Digitalisierung führt nach den Gesetzen von Angebot und Nachfrage zu einer Informationswertigkeit nahe Null. Das Mediengeschäft der Zukunft liegt deshalb nicht mehr in der Informationsveräußerung, sondern in der Identifikation und in der Qualität der moderierten Debatte. Wir sehen, dass es Medienhäuser gibt, die sich auch in der digitalen Revolution zukunftsperspektivisch aufstellen. Erfolgreiche Beispiele sind die „New York Times“ oder der britische „Guardian“, deren Digitalabonnement-Zahlen ständig steigen. Aber warum? Deshalb, weil die Rezipienten unbedingt Inhalte abonnieren wollen, die sie gratis nicht bekommen? Dieser Service mag eine Rolle spielen, er ist aber wohl zweitrangig. Eben auch vor dem Hintergrund, dass Inhalte ja ohnehin überall abrufbar sind. Wichtiger ist ein anderer Faktor: Nämlich die Identifikation. Bleiben wir beim weit herumgereichten Paywall-Erfolgsbeispiel der „New York Times“. Nie haben sich die Digitalabonnements der „New York Times“ stärker vermehrt als zu der Zeit, in der Donald Trump ins Amt als Präsident kam. Und zwar deshalb, weil Menschen ein Gegengewicht bilden wollten, weil sie Unterstützer einer Idee sein wollten – sie haben sich mit dem Medium identifiziert, das Trump konsequent als Lügenpresse bezeichnet hat. Für die Identifikation mit einem Medium sind einerseits Sichtbarkeit und Nutzen entscheidend. Die Sichtbarkeit deshalb, um überhaupt erst auf das Produkt aufmerksam zu werden, der Nutzen deshalb, da der Mensch ja doch auch rational denkt. Aber die Faktoren „Bewegen“ und „Aktivieren“ sind nicht zu unterschätzen: Medien der Zukunft suchen Debatten und machen sie sichtbar. Sie binden ihre Leser ein, indem sie schlaue Nutzer auf ihren Kanälen „stattfinden“ lassen und einen kompetenten Dialog moderieren. Sie mobilisieren ihre Leser, starten Veranstaltungen, sind eine Stimme, Teil eines demokratischen Diskurses, erzielen Wirkung. Hierin wird die Zukunft der Medien liegen, nicht in der bloßen Informationsveräußerung. Und wenn ich, wie die „New York Times“, die „Republik“ oder „Bajour“ von Leserinnen unterstützt werde, kann ich Hansi Voigt 140 meine Leistungen irgendwo erbringen. Hauptsache sie werden geschätzt und die Identifikation mit dem Medium bricht nicht ab. Die inhaltlichen Leisten werden so befreit. Sie können überall stattfinden und müssen nicht weggeschlossen werden. These Vier: Medienförderung heißt, einen Markt zu veranstalten, der nach legitimierten Regeln die Ökonomie der Aufmerksamkeit und die Ansprüche der Gesellschaft an glaubwürdige Informiertheit belohnt. Die Medien-Wertschöpfung muss und kann heute wesentlich differenzierter, ganzheitlicher und dezentraler gedacht werden. Denken wir noch einmal zurück an den Anfang dieses Textes, an den Status Quo, in dem die Informationssilos die Grundlage des digitalen Mediengeschäfts waren. Es war auch ein Geschäft, in dem der User an Werbebannern, an Pop-Ups und Videospots entlangklicken musste. Das Ziel der Werbe-Anbieter war also, den Nutzer nach Möglichkeit zu stören. Das müssen wir umdrehen. In ein System, das nicht mehr stört, sondern belohnt. Das ist möglich, aber es kostet etwas. In Deutschland ist man an öffentlich-rechtliche Medienfinanzierung durchaus schon gewöhnt; acht Milliarden Euro fließen jährlich in die Rundfunkgebühr. Stellen wir uns vor, es gäbe nur zwei Milliarden, die jährlich in andere Medien fließen. Über einen Gutschein von beispielsweise jährlich 200 Euro für jeden Haushalt, der zweckgebunden für die Bezahlung von Medien eingesetzt werden muss. Dies wäre eine Möglichkeit, die Medien von morgen zu finanzieren. Für sie sollten wir ein Belohnungssystem installieren: Ein System, in dem Nachteile von Mediengattungen wie Lokalmedien, die es schwieriger haben Aufmerksamkeit zu generieren als nationale Medien, eingepreist werden; in dem ein Artikel nach der Zahl der Abrufe und dem Erfüllen qualitativer und ethischer Mindeststandards nach transparenten Kriterien in einem dynamischen Prozess finanziert werden; in dem Glaubwürdigkeit vielleicht sogar von Algorithmen gemessen und belohnt wird. So kehren wir den bisherigen Markt um – hin in eine dezentrale Wertschöpfung. Wer jetzt über riesigen Verwaltungsaufwand lamentiert, sollte sich mit den transaktionsbasierten Möglichkeiten einer Blockchain vertraut machen. Fazit: Vier Thesen – für eine ferne Zukunft oder schon die Gegenwart? Sind dies tatsächlich Thesen für die Zukunft? Eine Zukunft, die in weiter Ferne scheint? Durchaus. Aber die Zukunft hat längst begonnen. In der 3. Mediengesellschaft mit Zukunft? Anforderungen an Netzpolitik und Journalismus 141 Schweiz gibt es den neu gegründeten Verband „Medien mit Zukunft“, der diese Thesen in Teilen bereits jetzt umsetzt: Als Lobbyist in der Medienpolitik, als Treiber von Kollaborationen, als Hüter von Qualität und Unabhängigkeit und als Chance für eine digitalisierte Medienzukunft. 25 Medien sind bereits beteiligt. Der Verband fördert explizit auch die Stiftung „WePublish“, die genau dieser Maxime folgt: WePublish bietet Publishing- Tools auf Open-Source Basis, mit der teilnehmende Medien massiv Kosten sparen – sie teilen sich also eine Autobahn. Gleichzeitig können sich Medien zu einem Netzwerk zusammenschließen, das niemandem gehört, sondern dezentral angelegt ist. Partnermedien können auf freigegebene Inhalte im Netzwerk zurückgreifen. Sie haben damit die Möglichkeit, ihr eigenes Angebot abzurunden und sich auf ihre jeweiligen Kernkompetenzen zu konzentrieren. Die Ownership dieser Inhalte verbleibt jeweils beim Urheber und der Traffic auf die Contents wird ebenfalls dem Urheber zugerechnet. Mit „Bajour“ in Basel und „Tsüri“ aus Zürich laufen bereits zwei regionale völlig unabhängige Portale auf der gemeinsamen Infrastruktur von „WebPublish“, die laufend ausgebaut wird. Teil des sich austauschenden Netzwerkes sind bereits rund zehn Redaktionen. Vom Wissenschaftsmagazin bis zur Wochenzeitung. Über das dezentrale Netzwerk tragen alle teilnehmenden Medien zur Verbreitung der journalistischen Inhalte der Partner-Medien bei. User können jeweils auch die ausgespielten Inhalte der Partner-Medien kommentieren. Damit werden Diskussionen aus den Silos beziehungsweise den Filterblasen herausgeholt. „WePublish“ ermöglicht, von Synergieeffekten zu profitieren, neue Initiativen oder Geschäftsanforderungen schnell und einfach umzusetzen und so einen Beitrag dazu leisten, dass unabhängiger Journalismus mit geringerem Aufwand leistbar ist und Medienvielfalt langfristig bestehen bleibt. Für die Macherinnen haben glaubwürdige und fundierte Inhalte Vorrang vor Gewinnen und Dividenden. Denn auch wenn unabhängiger Journalismus kein Geschäftsmodell mehr ist, es braucht ihn weiterhin dringend. Hansi Voigt 142 Ethische Herausforderungen des automatisierten Journalismus. Zwischen Dataismus, Bias und fehlender Transparenz Colin Porlezza Abstract Obwohl der so genannte automatisierte Journalismus, also die Herstellung von narrativen Texten ohne das Zutun von Menschen, in zahlreichen etablierten Medien mittlerweile bereits institutionalisiert ist, bestehen eine ganze Reihe von unbeantworteten ethischen Fragen. Zwar befindet sich die automatisierte Erstellung journalistischer Inhalte technisch immer noch im Anfangsstadium. Aktuelle Umfragen, beispielsweise des Journalism AI-Projektes der London School of Economics, zeigen jedoch, dass immer mehr Medienunternehmen auf den Zug der KIgetriebenen Inhalteproduktion aufspringen. Dabei werden grundlegende Fragen zum Beispiel zur Transparenz, der Nachvollziehbarkeit und Erklärbarkeit von Algorithmen häufig einfach ausgeblendet. Dieses Verhalten ist umso fragwürdiger, da nicht nur das Publikum, sondern gerade auch (Daten-)Journalisten von der Faktizität und Objektivität von Daten und Algorithmen überzeugt sind. Das kann im schlimmsten Fall zu Verzerrungen und Diskriminierungen führen. Der Beitrag beleuchtet diese Entwicklungen kritisch, indem er drei spezifische Problemfelder – einen wachsenden Dataismus, das Problem des algorithmischen «Bias», Transparenz als vermeintliches Allheilmittel – näher betrachtet. Einführung Rückblende: 1957 erschien der von Walter Lang gedrehte Film «Desk Set». Obwohl es sich dabei um eine romantische Komödie mit Katharine Hepburn und Spencer Tracy handelt, nimmt der Film problematische Entwicklungen vorweg, die aktueller nicht sein könnten. Die Handlung des Films folgt dem Erfinder und «Effizienzexperten» Richard Sumner (Tracy), der einen Supercomputer namens EMERAC (Electromagnetic Memory and Research Arithmetical Calculator) entwickelt hat, welcher problemlos zahlreiche komplexe Aufgaben wie die Informationsbeschaffung und -verarbeitung übernehmen kann und deshalb deutlich effizienter arbeitet als Menschen. Mr. Azae, der Präsident eines Rundfunksenders, bittet Sumner 1 143 deshalb, das Einsparungspotential der Rechenmaschine, die von Sumner liebevoll «Miss Emmy» genannt wird, an der hauseigenen Informationsabteilung zu testen. Die von Bunny Watson (Hepburn) geleitete Informationsabteilung ist dafür zuständig, anderen Abteilungen des Medienunternehmens jegliche Art von Informationen aus der hauseigenen Bibliothek zukommen zu lassen. Nachdem bekannt wurde, dass die Informationsabteilung durch einen Supercomputer «verstärkt» werden soll, befürchten Watson und ihre Mitarbeiterinnen, dass der Computer sie allesamt ersetzen könnte. Das passiert dann auch tatsächlich indem der Computer selbst die Belegschaft feuert. Am Ende stellt sich dies allerdings als Fehler heraus, da der Computer nicht nur die Mitarbeiterinnen der Informationsabteilung entlässt, sondern die gesamte Mitarbeiterschaft des Unternehmens, einschliesslich des Präsidenten. Beim Dreh des Films liess sich Regisseur Lang von der Realität inspirieren: «Miss Emmy» war dem real existierenden Supercomputer UNIVAC I (Universal Automatic Computer) nachempfunden, der 1952 vom Fernseh- Network CBS dazu verwendet wurde, den Sieger des Präsidentschaftswahlkampfes zwischen Adlai Stevenson und Dwight D. Eisenhower vorauszusagen. Das gelang dem Computer auch tatsächlich, da er Eisenhower sogar einen Erdrutschsieg prophezeite. Die beiden Beispiele EMERAC und UNI- VAC zeigen auf, dass Computer im Journalismus keineswegs ein neueres Phänomen sind, sondern bereits auf eine knapp 70-jährige gemeinsame Geschichte zurückblicken können. Obwohl Computer seit längerer Zeit Teil der journalistischen Produktion sind, fanden diese in den Redaktionen aber erst nach der Erfindung des World Wide Web zu Beginn der 90er-Jahre weite Verbreitung. Erst die zunehmende Rechenleistung und das Aufkommen des digitalen Journalismus haben dazu geführt, dass der Journalismus seitdem weitgehend computergestützt produziert wird (Howard 2014). Zurück in die Gegenwart: Heutzutage ist der Computer nicht mehr aus der redaktionellen Arbeit wegzudenken. Im Gegenteil: Computer, Daten und Algorithmen nehmen eine zentrale Stellung im Journalismus ein und beeinflussen von der Informationsrecherche, über die Inhalteproduktion bis hin zur Distribution alle relevanten Tätigkeitsbereiche von Nachrichtenmedien (Diakopoulos 2019). Die zunehmende Konnektivität, die Omnipräsenz digitaler und mobiler Kommunikation sowie die Dominanz sozialer Medien haben nicht nur zu einer Datifikation der Gesellschaft geführt, sondern zogen auch eine Datafizierung des Journalismus nach sich (Porlezza 2019a). Dies führte zu einer Zunahme an quantifizierten Praktiken im Journalismus (Splendore 2019). Mit anderen Worten: es erfolgte Colin Porlezza 144 ein regelrechter «computational» (Coddington 2015) bzw. «algorithmic turn» (Napoli 2014). Die beiden Autoren fokussieren dabei auf die aus ihren Perspektiven jeweils relevanten Aspekte des Wandels: während sich Coddington (2015) die pervasive Verwendung von Computern (also die allesdurchdringende Vernetzung des Alltags) sowie die Automatisierung als neue Artikulation journalistischer Prozesse zur Beschreibung der sozialen Wirklichkeit konzentriert, fokussiert Napoli (2014) spezifisch auf die steigende Bedeutung von Algorithmen. Für die jüngsten technologischen Entwicklungen, die den Redaktionen heutzutage Formen der automatisierten Inhalteproduktion (van Dalen 2012) ermöglichen, gibt es keine einheitliche Taxonomie, denn je nach Autor werden diese Innovationen als automatisierter Journalismus (Graefe 2016), Roboterjournalismus (Clerwall 2014; Carlson 2015) oder als algorithmischer Journalismus (Dörr 2016a) bezeichnet werden. Graefe (2016) bezieht sich in seiner Beschreibung des automatisierten Journalismus auf die Unabhängigkeit vom Menschen bei der Textgenerierung. Er definiert automatisierten Journalismus demzufolge als «Prozess der Verwendung von Software oder Algorithmen zur automatischen Generierung von Nachrichtenbeiträgen, ohne menschliches Eingreifen nach der anfänglichen Programmierung des Algorithmus.»1 Im Gegensatz zu Graefe zielen Clerwall (2014) und Carlson (2015) in ihren Analysen stärker auf den Begriff des Roboters ab, zumal sie sich in ihren Analysen mehrheitlich mit den Auswirkungen von Automation auf die Arbeit (engl. labor) befassen. Algorithmischer Journalismus wiederum wird von Dörr (2016b: 8) als «(semi-) automatisierter Prozess der algorithmischen Textgenerierung» verstanden. Dörr orientiert sich stark an einem statischen Input- Throughput-Output-Modell (ebenda): «Zentral dabei ist die Selektion elektronischer Daten (Eingabe/Input), eine Gewichtung und Relevanzzuweisung verschiedener Daten-Eigenschaften in eine semantische Struktur (Verarbeitung/Throughput) und die Publikation des journalistischen Textes in natürlicher und grammatikalisch korrekter Sprache. Der Text ist auf einer Online- oder Offline-Plattform mit publizistischer Reichweite (Ergebnis/Output) sichtbar, wird innerhalb oder ausserhalb einer Redaktion professionell nach bestimmten Leitlinien und Werten produziert, erfüllt die Kriterien der Aktualität, Publizität, Periodizität und Universalität und stellt damit Öffentlichkeit her.»2 1 Vom Autor übersetzt. 2 Für die Auseinandersetzung mit der automatisierten Textgenerierung im Journalismus orientiert sich dieser Beitrag am Begriff des «automatisierten Journalismus». Ethische Herausforderungen des automatisierten Journalismus 145 Diese automatisierten Formen des Nachrichtenschreibens erfordern wenig bis gar keine menschliche Beteiligung (ebenda). Mit Hilfe einer Technologie namens Natural Language Generation verwandeln Algorithmen Daten in einen lesbaren Text. Eine solche Automatisierung erlaubt es den Redaktionen, eine nahezu unbegrenzte Anzahl von Artikeln zu einem niedrigeren Preis und mit höherer Geschwindigkeit im Vergleich zu ihren menschlichen Gegenstücken zu produzieren (Dörr 2016a). Die Einführung algorithmengetriebener Systeme wird oft damit begründet, dass sie die journalistische Arbeit effizienter gestalten, den Nutzern «relevantere» Inhalte anbieten oder Unternehmensressourcen einsparen (Beckett 2019). Algorithmen sind in der Nachrichtenproduktion von etablierten Medienunternehmen weitgehend institutionalisiert (Thurman 2019), stellen den Journalismus aber vor eine Reihe von Herausforderungen. So kann der Einsatz von Algorithmen wie im eingangs aufgezeigten Beispiel Ängste im Zusammenhang mit dem Verlust von Arbeitsplätzen schüren (Carlson 2015; Lindén 2017) und – was weitaus häufiger der Fall ist – zu einer Neuorientierung journalistischer Rollenkonzeptionen führen (Schapals/Porlezza 2020 im Erscheinen). Journalisten sind nicht länger direkte Inhalteproduzenten, sondern werden laut Napoli (2014) zu indirekten Produzenten, die Algorithmen Anleitungen erteilen, welche Texte mit welchen Daten erstellt werden sollen. Haim und Graefe (2018: 141) schlussfolgern deswegen, dass Journalisten damit ein weiteres «Stück journalistischer Deutungshoheit an Algorithmen bzw. die Entwickler von Algorithmen» abgeben. Die zunehmende Verbreitung automatisierter Nachrichtenproduktion ruft insbesondere eine Reihe ethischer Fragen auf. So hat weder die journalistische Praxis noch die Journalismusforschung zum Beispiel eine konkrete Antwort auf die Frage gefunden, wie Transparenz im Hinblick auf die Funktionsweise eines Algorithmus bzw. der Qualität der verwendeten Daten hergestellt werden soll. Offen bleibt auch die Frage, wie sich bewusste oder unbewusste Verzerrungen in der journalistischen Berichterstattung verhindern lassen, und wer verantwortlich ist, wenn aus automatisierter Textproduktion Irrtümer oder Diskriminierungen resultieren. Ziel dieses Beitrages ist es, diese ethischen Herausforderungen der Automatisierung des Journalismus zu analysieren. In diesem Zusammenhang geht der Beitrag auf drei spezifische Problemfelder ein: zunächst skizziert er die Gefahr eines zunehmenden Dataismus bzw. eines naiven Empirismus, die mit einem blinden Vertrauen in die Faktizität von Daten einhergeht. Daran anschliessend diskutiert der Beitrag das Problem der Zuverlässigkeit von Daten und das daraus resultierende «Bias-Problem». Damit in Zusammenhang steht auch die Frage nach der Verantwortung von algo- Colin Porlezza 146 rithmisch produzierten Texten (und Fehlern), zumal die Deutungshoheit zunehmend vom Menschen auf die Maschine übergeht. Ein drittes zentrales Problemfeld stellt die in Wissenschaft und Praxis häufig als Allheilmittel genannte Transparenz dar. Der Beitrag zeigt auf, dass nicht nur unklar ist, wie Transparenz hergestellt werden soll, sondern auch, dass Transparenz im Journalismus keinen absoluten Wert darstellt, sondern dass eine sorgfältige Abwägung zwischen Offenheit und anderen Normen wie Daten- oder Identitätsschutz erfolgen muss. Wie Haim und Graefe betonen (2018: 156), befindet sich der Journalismus hinsichtlich der Verwendung von Algorithmen zwar immer noch in einem Anfangsstadium, umkehren lässt sich diese Entwicklung aber kaum. Gerade deshalb ist es wichtig, sich diesen offenen Fragen jetzt und nicht erst in Zukunft anzunehmen. Dataismus oder die Wiedergeburt eines naiven Empirismus Der Begriff Data-ism geht zurück auf einen Beitrag des amerikanischen Journalisten David Brooks. In einer Ausgabe der New York Times aus dem Jahr 2013 verwendete Brooks den Begriff «Data-ism» zum ersten Mal und beschrieb damit den blinden Glauben an das Lösungspotential von big data als eine scheinbar objektive und emotionsfreie Lösung für die vielen Probleme der Menschheit (Brooks 2013). Dieser blinde Glaube an das Erklärungspotential von grossen Datenmengen weist darauf hin, wie sich die kontextabhängige und auf gewisse soziale Bereiche beschränkte Verwendung von Daten zu einem die ganze Gesellschaft durchdringenden und führenden Prinzip entwickelt hat, zumal die gesamte soziale Realität in Echtzeit beobachtet, verfolgt und in strukturierte Daten verwandelt werden kann, was van Dijck (2014) als «life mining» bezeichnet. Das Vertrauen in das Erklärungspotential von Daten beruht jedoch auf der falschen Annahme, dass es sich bei Daten automatisch auch um Fakten handelt, was jedoch nicht der Fall ist. Wie Gitelman (2013) aufzeigt, können Daten gut oder schlecht sein, vollständig oder unzureichend. Aber sie sind auf jeden Fall interpretationsbedürftig. Mayer-Schönberger und Cukier (2013) bestätigen diese Perspektive, indem sie erklären, dass Datensätze verborgene Werte beinhalten können. Denn die Art und Weise, wie Daten gesammelt werden, sei immer mit einer gewissen Absicht verbunden. Die Automatisierung des Journalismus und der zunehmende Einsatz von Robotern, die selbständig journalistische Artikel verfassen, zwingen Journalisten dazu, sich mit dem sich verändernden Medienumfeld und den Herausforderungen von Daten und Algorithmen auseinanderzusetzen. Zahlreiche Nachrichtenredaktion setzen in der Datenbeschaffung und 2 Ethische Herausforderungen des automatisierten Journalismus 147 -Analyse immer häufiger auf KI-gestützte Instrumente. Diese neuen technischen Möglichkeiten, zusammen mit einer wachsenden Obsession für Statistiken zum Beispiel im Datenjournalismus, können dazu führen, dass auch Journalisten einem blinden Vertrauen in die Faktizität von Daten verfallen. Anderson (2018) spricht in diesem Zusammenhang von der Gefahr eines neuen «naiven Empirismus», wobei er sich auf den von Schudson (1978) entwickelten Begriff beruft. Laut Anderson (2018: 164f) besteht demnach die Gefahr, dass Redakteure sich zu einer Art journalistischen Philosophie verleiten lassen, die Daten bzw. Fakten als natürliche Vorkommnisse darstelle, deren Anhäufung automatisch zur Wahrheit führe. Ein bekanntes Beispiel dieser Haltung lieferte 2008 der damalige Chefredakteur der US-amerikanischen Tech-Zeitschrift «Wired», Chris Anderson, indem er in Anbetracht des Potentials von Big Data das «Ende der Theorie» ausrief (Anderson 2008): Nicht zuletzt aufgrund solcher Auswüchse schloss Howard (2014: 1) seine Empfehlungen im Umgang mit Datenjournalismus mit dem Ratschlag ab: «Be mindful of data-ism and bad data. Embrace skepticism.» Die Datenqualität und das Bias-Problem Das Verifizieren von Informationen ist eine Schlüsselkompetenz redaktioneller Arbeit. Richtigkeit und Wahrhaftigkeit in der Darstellung von Sachverhalten sind Grundpfeiler jeglicher journalistischen Berichterstattung. Diese Prinzipien treffen auch auf den automatisierten Journalismus zu. Allerdings zeigt sich hier ein spezifisches Problem, da Algorithmen Daten zwar verarbeiten können, ihr Potential im Hinblick auf die Datenverifikation und -Kontrolle aber (noch) limitiert ist. Die Entwicklung bei der automatischen Überprüfung von Behauptungen schreitet zwar rasch voran, doch erfordert diese Aufgabe immer noch eine menschliche Aufsicht (Graves 2018: 1). Darüber hinaus sind automatisierte Faktenchecks auf öffentlich zugängliche und strukturierte Daten angewiesen, ohne die sich eine Verifikation von Behauptungen erübrigt. Im Falle des automatisierten Journalismus gilt deshalb der Grundsatz: fehlerhafte Daten führen zu fehlerhaften Resultaten. Allerdings beschränken sich die Probleme nicht nur auf die für die Textproduktion verwendeten Daten. Auch die Entwicklung des eigentlichen Algorithmus ist vor Fehlern nicht gefeit: wird die Software mit fehlerhaften Daten trainiert, schleichen sich Fehler bei der Datenverarbeitung und folglich auch beim Output ein. Solche Verzerrungen oder «Biases» können durchaus bewusst erfolgen, zum Beispiel wenn es um die Produktion von Desinformation 3 Colin Porlezza 148 geht. Aber selbst bei der gutgläubigen Verwendung von Algorithmen können sich unbewusste Verzerrungen aus fehlerhaften Daten in die generierten Artikel einschleichen, was zu Fehlinterpretationen oder sogar zu unwahren Schlussfolgerungen führen kann (Belz 2019). Thurman et al. (2017) haben aufgezeigt, dass sich Journalisten manchmal der Gefahr einer verzerrten Berichterstattung bewusst sind. Gleichzeitig sind Journalisten aber auch überzeugt, dass eine algorithmisch produzierte Berichterstattung das Risiko unausgewogener Texte reduzieren kann. Wie Lewis und Westlund (2015) aufzeigen, fällt es gerade Datenjournalisten schwer, von einer erhöhten Datengläubigkeit abzulassen. Ein ähnliches Phänomen zeigt sich nun auch im Umgang mit Algorithmen, denen häufig eine grössere Objektivität (Gillespie 2014) als menschlichen Journalisten zugeschrieben wird, zumal deren Texte angeblich ohne menschliches Zutun produziert werden. Das stimmt allerdings nicht, da Algorithmen von menschlichen Programmierern mit subjektiven Werteinstellungen entwickelt werden (Steensen 2019: 187). Wie Dörr (2017: 44) darlegt, ist das Potential einer ausbalancierten journalistischen Berichterstattung deshalb «stark an die technischen Fähigkeiten bei der Programmierung, die Auswahl und Gestalt der Datenlage sowie die Qualität der Software rückgebunden». Die Diskrepanz bei der Einschätzung der Risiken einer algorithmischen Nachrichtenproduktion dürfte auch die Unsicherheit der Journalisten und deren mangelnde Datenkompetenz widerspiegeln. Nicht zuletzt wünschen sich Journalisten eine spezifischere Ausbildung im Zusammenhang mit KI und Algorithmen (Schapals/Porlezza 2020 im Erscheinen). Die Erkenntnis um die Chancen und Risiken trägt nicht nur zur Entmystifizierung der KI bei, sondern ist auch eine Grundvoraussetzung für einen kulturellen und institutionellen Wandel in den Redaktionen (Ryfe 2012). Da Algorithmen in der Gesellschaft mittlerweile eine zentrale Rolle spielen und zahlreiche Lebensbereiche beeinflussen, hat sich in diesem Zusammenhang ein neues journalistisches Genre herausgebildet, das sich spezifisch den «Biases» und Diskriminierungen von Algorithmen annimmt. Dieser «Algorithmic Beat» (Diakopoulos 2019) ist eine neue Spezialdisziplin des daten- und computergestützten Journalismus, der nicht nur untersucht, welche Macht Algorithmen ausüben, sondern deren Urheber bzw. Anwender auch zur Rechenschaft ziehen will. Diakopoulos (2016) spricht dabei von einer Neuausrichtung der traditionellen Watchdog-Funktion des Journalismus auf machtvolle aber fehleranfällige «Black-Boxes», die aufgrund der Intransparenz ihrer Entscheidungen eine genauere Untersuchung rechtfertigen. Ethische Herausforderungen des automatisierten Journalismus 149 Die stiftungsfinanzierte non-profit-Organisation Pro Publica, die investigativen Journalismus betreibt, übernahm bei dieser Art des «Algorithmic Accountability Reporting» eine Vorreiterrolle. Mit ihrer Serie «Machine Bias» deckte Pro Publica zum Beispiel auf, dass Algorithmen, welche das Rückfälligkeitsrisiko von Kriminellen voraussagen, Schwarze Häftlinge diskriminierten. Dieser «Algorithmic Beat» finden zwar immer mehr Verbreitung, stellt in den meisten Redaktionen aber immer noch ein Randphänomen dar. Dies ist insbesondere darauf zurückzuführen, dass dieser spezielle Beat hohe technische Ansprüche in Sachen Datenkompetenz an die Journalisten stellt und oft auch Kollaborationen mit Spezialisten aus den Bereichen der Computerwissenschaften voraussetzt, um die Funktionsweise von Algorithmen überhaupt eruieren zu können. Transparenz als Allheilmittel gegen «Black Boxes» In der Diskussion rund um das Thema der Kontrolle von Algorithmen und ihrer Anwendung im Journalismus sticht ein Aspekt immer wieder deutlich hervor: die Frage nach deren Transparenz, bzw. deren Nachvollziehbarkeit und Erklärbarkeit. In ihrem Gutachten zum Einfluss von Daten und algorithmischen Systemen hält die deutsche Datenethikkommission (2019: 169) folgendes fest: «Für eine belastbare ethische und rechtliche Bewertung algorithmischer Systeme ist es essenziell, dass ausreichend Informationen über dessen Reichweite, Funktionsweise, Datengrundlage und Datenauswertung zur Verfügung stehen. Nur ein im Ansatz transparentes System lässt sich darauf überprüfen, ob es einen legitimen Einsatzzweck verfolgt.» Auch aus der Medien- und Journalismusforschung kommen ähnliche Appelle wenn Pasquale (2015), Diakopoulos und Koliska (2017), Helberger et al. (2019) oder Porlezza (2019b) fordern, dass die zunehmende Verwendung von Daten und algorithmischen Systemen in der Nachrichtenproduktion neuer Richtlinien bedarf, um eine «algorithmische Transparenz» herzustellen. Dies ist nicht weiter überraschend, gilt Transparenz als ein zentrales Kriterium normativer Fragestellungen (Dörr/ Hollnbuchner 2016). Allerdings lässt sich Transparenz in Bezug auf Algorithmen nicht so einfach umsetzen. In einem wegweisenden Aufsatz zeigen Ananny und Crawford (2018) auf, dass das Konzept der Transparenz zahlreiche Einschränkungen umfasst, vor allem wenn es um deren Anwendung im Journalismus geht. So kann Transparenz durchaus auch schädliche Effekte beinhalten, wenn dabei zum Beispiel marginalisierte oder gefährdete Individuen oder Gruppen Gefahren oder Einschüchterung durch potenziell böswillige 4 Colin Porlezza 150 Akteure ausgesetzt werden. In anderen Fällen müssen Journalisten ihre Informanten (z.B. Whistleblower) bzw. deren Daten schützen und anonymisieren, da ihnen sonst gravierende Konsequenzen drohen. Dies zeigt auf, dass Transparenz in der journalistischen Arbeit keineswegs einen absoluten Wert darstellt, sondern immer auch im Verhältnis zu anderen Werten wie Datenschutz oder Privacy beurteilt werden muss. Transparenz ist kein präziser Endzustand, in dem alles plötzlich klar und offensichtlich ist (Phillips 2011). Dies zeigt sich umso mehr, wenn man nach mehr Transparenz im automatisierten Journalismus ruft: welche Elemente sollen auf welche Art und Weise offengelegt werden? Geht es um die verwendeten Daten, um die Funktionsweise des Algorithmus oder den Code? Oftmals können Algorithmen gar nicht offengelegt werden, da sie dem Geschäftsgeheimnis unterliegen. Offen ist auch die Frage, für wen Algorithmen transparenter gestaltet werden sollen? Für die damit arbeitenden Journalisten oder doch eher für das Publikum, das die Resultate zu sehen bekommt? Medienunternehmen sollten zumindest offenlegen, ob ein Beitrag von einem menschlichen Journalisten oder einem Algorithmus verfasst wurde. Allerdings zeigen sich auch bei der Erkennbarkeit der Autorenschaft grosse Unterschiede zwischen Medienunternehmen (Montal/ Reich 2016). Im Zusammenhang mit der Offenlegung der Automatisierung steht auch die Frage nach der Datenkompetenz, nicht nur des Publikums, sondern auch der Journalisten selber. Wie Steensen (2019: 198) aufzeigt, verfügen viele Journalisten nicht über die nötige Datenkompetenz, um das Funktionieren von Algorithmen vollständig zu begreifen. Da sich die algorithmische Datenverarbeitung den Journalisten aufgrund mangelnder Kodierkenntnisse in den meisten Fällen gar nicht erschliesst, sind die vom Journalismus produzierten Aussagen durch eine inhärente Unsicherheit charakterisiert. Damit stellt sich auch die Frage nach der Verantwortung für den algorithmischen Output, insbesondere wenn es um (Falsch-)Informationen geht, unabhängig davon, ob deren Veröffentlichung mutwillig oder fahrlässig erfolgte. Die Frage nach der rechtlichen Haftung ist bei der algorithmischen Produktion von Nachrichten ebenfalls weiterhin ungeklärt (Lewis/Sanders/Carmody 2018; Monti 2019). Obwohl sich die Implementierung von Transparenz im Journalismus als komplex herausstellt, nimmt die Zahl der wissenschaftlichen und praxisorientierten Publikationen zu, die versuchen, pragmatische Handlungsrichtlinien zu verfassen (vgl. z.B. Ananny 2016; Diakopoulos/Koliska, 2017; van Drunen et al. 2019; Helberger et al. 2019). Darüber hinaus haben sich auch zahlreiche öffentliche Institutionen der Frage nach den Auswirkungen von Algorithmen und KI-gesteuerten Instrumenten in den Me- Ethische Herausforderungen des automatisierten Journalismus 151 dien auf die Meinungsfreiheit und die Öffentlichkeit angenommen (Koene et al. 2019). Dabei werden vermehrt auch regulatorische Handlungsbedarfe diskutiert. Konklusio Der Beitrag zeigt, dass der automatisierte Journalismus mit zahlreichen ethischen Herausforderungen konfrontiert ist. Dabei geht es nicht nur um die Frage, wie transparent, erklärbar und nachvollziehbar der Algorithmen-getriebene Journalismus zu sein hat, sondern es geht auch um epistemologische Aspekte, welche die redaktionelle Wissensproduktion direkt beeinflussen: ein blindes Vertrauen in die Faktizität von Daten bzw. die Objektivität von Algorithmen öffnet Fehlern, «Biases» und Diskriminierungen Tür und Tor. Aus diesem Grund ist es notwendig, dass sich Medienunternehmen und Redaktionen eingehender mit der Frage nach einem ethischen Umgang mit Algorithmen auseinandersetzen. So fordern Helberger et al. (2019), dass Medienunternehmen spezifische Richtlinien erlassen mögen, wie Journalisten mit Algorithmen und KI-gestützten Instrumenten umgehen, und wie die daraus resultierenden Konsequenzen für das menschliche Urteilsvermögen sowie für die Öffentlichkeit beurteilt werden sollen. Helberger et al. (ebenda) weisen obendrein darauf hin, dass nicht nur Journalisten, sondern auch Richtlinien für die Rechte der Nutzer erlassen werden müssten, so zum Beispiel im Hinblick auf den Datenschutz. Grösstenteils setzen die Regierungen dabei weiterhin auf die Medienselbstregulierung. So hat in der Schweiz die vom Bundesrat beauftragte, interdepartementale Projektgruppe «Künstliche Intelligenz, Medien & Öffentlichkeit» folgendes festgehalten: «Im Fall des sogenannten algorithmischen Journalismus dürfte sich eine grundlegend neue Qualität der Funktionsweise durch den Einsatz von KI vorläufig nicht ergeben. Auch ist bislang keine Verschlechterung der journalistischen Qualität durch den Einsatz von KI festzustellen (vgl. Goldhammer et al. 2019: 27). Zwar stellen sich Fragen bezüglich Nachvollziehbarkeit, Transparenz und Verantwortung aufgrund des Einsatzes von KI auch im Medienbereich. So lange sich die Medien jedoch zu einer Arbeitsweise nach journalistischen Kriterien verpflichten, resp. die entsprechenden Vorschriften aufgrund des RTVG (SRG SSR/Online, Radio und Fernsehen) durchgesetzt werden können, drängt sich keine Regulierung in Bezug auf die Verwendung von KI bzw. Algorithmen auf» (BAKOM 2019). 5 Colin Porlezza 152 Die zurückhaltende Regulierung lässt sich zwar mit dem Argument der Medienfreiheit begründen, allerdings kann die Selbstregulierung den aktuellen Entwicklungen im Rahmen der Algorithmisierung nicht Rechnung tragen. Dafür sind die Zusammenhänge des neu entstandenen Medienökosystems, das sich eben nicht nur aus einzelnen Medienunternehmen zusammensetzt, viel zu komplex: social media Plattformen (Gillespie 2014), Datenbroker wie Chartbeat (Cherubini/Nielsen 2016), Softwareentwickler wie Narrative Science (Carlson 2015) und sogar Werbeagenturen – sie alle tragen zu den dynamischen Verhältnissen, gegenseitigen Abhängigkeiten und wechselseitigen Interessen bei. Um dieser Konstellation Herr zu werden reicht Selbstregulierung nicht aus, sondern es bedarf neuer «Governance-Taxonomien», welche das ganze Ökosystem transparenter und verantwortungsvoller gestalten (van Dijck/Poell/de Waal 2018: 145). Die momentane Situation zeigt, dass hinsichtlich der Verwendung von Algorithmen im Journalismus zahlreiche ethische Fragen weiterhin unbeantwortet sind. Diese weitgehende Strategielosigkeit von Medienunternehmen im Umgang mit Algorithmen spiegelt sich auch in der kürzlich im Rahmen des JournalismAI-Projektes durchgeführten Umfrage der London School of Economics (Beckett 2019): zwei Drittel aller Medienunternehmen, die KI-basierte Tools verwenden geben an, über keine integrierte Strategie im Umgang mit Algorithmen zu verfügen. Dass ethische Richtlinien zu Algorithmen spärlich gesät sind, passt in dieses Bild. Für die Journalismusforschung bedeutet dies in erster Linie, dass hier noch einiges an (interdisziplinärer) Forschungsarbeit geleistet werden kann und muss. So zeichnet sich bereits eine intensivere Zusammenarbeit mit Forschern aus dem Bereich der Human-Computer-Interaction ab, die insbesondere Design-Aspekte bei der Entwicklung von KI-gestützten Tools untersuchen (Lewis et al. 2019). Darüber hinaus besteht bereits ein etablierter Korpus an Forschungsarbeiten, die aus einer Actor-Network-Perspektive dynamische Beziehungen zwischen Technologie und deren Anwender untersuchen (Wu et al. 2019). Und nicht zuletzt nimmt auch die Zahl der Arbeiten, die einen konkreten soziologischen Ansatz verfolgen – zum Beispiel anhand von Schudsons «four approaches» (Schudson 2010) – zu (Anderson 2018). All diese Forschungsstränge sind nicht nur nützlich, sondern notwendig, da es bei der Analyse der Einführung und Verwendung von algorithmischen Systemen im Journalismus aufgrund der komplexen Sachlage – ähnlich wie bei der Governance-Frage – nach einer multiperspektivischen Herangehensweise bedarf. Ethische Herausforderungen des automatisierten Journalismus 153 Literatur Ananny, Mike (2016): Towards an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness. Science, Technology & Human Values 41 (1), S. 93–117. Ananny, Mike / Crawford, Kate (2018): Seeing Without Knowing: Limitations of the Transparency Ideal and its Application to Algorithmic Accountability. In: New Media & Society 20 (3), S. 973–989. Anderson, Chris W. (2018): Apostles of Certainty – Data Journalism and the Politics of Doubt. Oxford: Oxford University Press. Anderson, Chris (2008): «The End of Theory: The Data Deluge Makes the Scientific Method Obsolete». Wired, 23. Juni 2008. https://www.wired.com/2008/06/pb-the ory/ BAKOM (2019): Künstliche Intelligenz, Medien & Öffentlichkeit. Bericht der Projektgruppe «Künstliche Intelligenz, Medien & Öffentlichkeit» vom 16. August 2019. Biel: Bundesamt für Kommunikation BAKOM. Beckett, Charlie (2019): New powers, new responsibilities. A global survey of journalism and artificial intelligence. London: London School of Economics. Online verfügbar unter: https://drive.google.com/file/d/1utmAMCmd4rfJHrUfLLfSJ-clp FTjyef1/view (Abfrage am: 15.05.2020) Belz, Anja (2019): Fully Automatic Journalism: We Need to Talk About Nonfake News Generation. Report by the School for Computing, Engineering and Mathematics, University of Brighton. Online verfügbar unter: https://truthandtrustonline.f iles.wordpress.com/2019/10/paper_29.pdf (Abfrage am: 15.05.2020) Brooks, David (2013): «The Philosophy of Data». New York Times, 5. Februar 2013. https://www.nytimes.com/2013/02/05/opinion/brooks-the-philosophy-of-data.ht ml Carlson, Matt (2015): The Robotic Reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority. In: Digital Journalism 3 (3), S. 416–431. Clerwall, Christer (2014): Enter the Robot Journalist. Journalism Practice 8 (5), S. 519–531. Coddington, Mark (2015): Clarifying Journalism’s Quantitative Turn. In: Digital Journalism 3 (3), S. 331–348 Datenethikkommission (2019): Gutachten der Datenethikkommission. Online verfügbar unter: https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/ themen/it-digitalpolitik/gutachten-datenethikkommission.pdf?__blob=publicati onFile&v=6 (Abfrage am: 17.05.2020) Diakopoulos, Nicholas (2016): Accountability in Algorithmic Decision Making. In: Communications of the ACM 59 (2), S. 56–62. Diakopoulos, Nicholas (2019): Automating the News: How Algorithms Are Rewriting the Media. Cambridge: Harvard University Press. Diakopoulos, Nicholas / Koliska, Michael (2017): Algorithmic Transparency in the News Media. In: Digital Journalism 5 (7), S. 809–828. Colin Porlezza 154 Dörr, Konstantin (2016a): Mapping the Field of Algorithmic Journalism. In: Digital Journalism 4 (6), S. 700–722. Dörr, Konstantin (2016b): Algorithmic Journalism. Deutsches Journalisten Kolleg. Berlin: DFJV. Dörr, Konstantin (2017): Algorithmischer Journalismus – Eine Analyse der automatisierten Textproduktion im Journalismus auf gesellschaftlicher, organisatorischer und professioneller Ebene. Dissertation. Universität Zürich: Philosophische Fakultät. Dörr, Konstantin / Hollnbuchner, Katharina (2017): Ethical Challenges of Algorithmic Journalism. In: Digital Journalism 5 (4), S. 404–419 Gillespie, Todd (2014): The Relevance of Algorithms. In: Gillespie, Todd / Boczkowski, Pablo / Foot, Kirsten A. (Hg.): Media Technologies: Essays on Communication, Materiality, and Society. Cambridge: MIT Press, S. 167–194. Gitelman, Lisa (2013): Raw Data is an Oxymoron. Cambridge: MIT Press. Goldhammer, Klaus / Dieterich, Kevin / Prien, Tim (2019): Künstliche Intelligenz, Medien und Öffentlichkeit. Wissenschaftlicher Bericht an das Bundesamt für Kommunikation – BAKOM. Online verfügbar unter: https://www.goldmedia.co m/produkt/study/kuenstliche-intelligenz-medien-und-oeffentlichkeit/ (Abfrage am: 15.05.2020) Graefe, Andreas (2016). Guide to Automated Journalism. Tow Center for Digital Journalism Report. Online verfügbar unter: http://towcenter.org/research/guideto-automated-journalism/ (Abfrage am: 15.05.2020) Graves, Lucas (2018): Understanding the Promise and Limits of Automated Fact-Checking. Reuters Institute, University of Oxford. Haim, Mario / Graefe, Andreas (2018): Automatisierter Journalismus. Anwendungsbereiche, Formen und Qualität. In: Nuernbergk, Christian / Neuberger, Christoph (Hg.): Journalismus im Internet. Wiesbaden: Springer, S. 139–160. Helberger, Natali / Eskens, Sarah / van Drunen, Max / Bastian, Mariella / Moeller, Judith (2019): Implications of AI-driven Tools in the Media for Freedom of Expression. Report by the Institute for Information Law (IViR), March. Online verfügbar unter: https://rm.coe.int/coe-ai-report-final/168094ce8f (Abfrage am: 17.05.2020) Howard, Alexander B. (2014): The Art and Science of Data-Driven Journalism. Tow Center for Digital Journalism Report. Online verfügbar unter: https://academicc ommons.columbia.edu/doi/10.7916/D8Q531V1 (Abfrage am: 11.05.2020) Koene, Ansgar / Clifton, Chris / Hatada, Yohko / Webb, Helena / Richardson, Rashida (2019): A Governance Framework for Algorithmic Accountability and Transparency. Brussels: European Parliament. Lewis, Seth C. / Westlund, Oscar (2015): Big data and Journalism: Epistemology, Expertise, Economics, and Ethics. In: Digital Journalism 3 (3), S. 447–466. Lewis, Seth C. / Sanders, Amy Kristin / Carmody, Casey (2018): Libel by Algorithm? Automated Journalism and the Threat of Legal Liability. In: Journalism & Mass Communication Quarterly 96 (1), S. 60–81. Ethische Herausforderungen des automatisierten Journalismus 155 Lewis, Seth C. / Guzman, Andrea L. / Schmidt, Thomas R. (2019): Automation, Journalism, and Human–Machine Communication: Rethinking Roles and Relationships of Humans and Machines in News. In: Digital Journalism 7 (4), S. 409– 427. Lindén, Carl-Gustav (2017): Algorithms for journalism: The future of news work. In: The Journal of Media Innovations 4 (1), S. 60. Mayer-Schönberger, Victor / Cukier, Kenneth (2013): Big data: A revolution that will transform how we live, work, and think. Boston: Houghton Mifflin Harcourt. Montal, Tal / Reich, Zvi (2017): I, Robot. You, Journalist. Who is the Author? In: Digital Journalism 5 (7), S. 829–849. Monti, Matteo (2019): Automated Journalism and Freedom of Information: Ethical and Juridical Problems Related to AI in the Press Field. In: Opinio Juris in Comparatione 1 (1), S. 1–17. Napoli, Philip M. (2014): Automated Media: An Institutional Theory Perspective on Algorithmic Media Production and Consumption. In: Communication Theory 24 (3), S. 340–360. Pasquale, Frank (2015): The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press. Phillips, John (2011): Secrecy and Transparency: An Interview with Samuel Weber. In: Theory, Culture & Society 28 (7–8), S. 158–172. Porlezza, Colin (2019a): Deconstructing data-driven journalism. Reflexivity between the datafied society and the datafication of news work. In: Problemi dell’informazione 43 (3), S. 369–392. Porlezza, Colin (2019b): Data Journalism and the Ethics of Open Source. Transparency and Participation as a Prerequisite for Serving the Public Good. In: Daly, Angela / Devitt, Kate / Mann, Monique (Hg.): Good Data. Amsterdam: Institute of Network Cultures, S. 189–201. Ryfe, David M. (2012): Can Journalism Survive? Cambridge: Polity Press. Schapals, Aljosha Karim / Porlezza, Colin (im Erscheinen): Assistance or Resistance? Evaluating the Intersection of Automated Journalism and Journalistic Role Conceptions. In: Media & Communication 8 (3). Schudson, Michael (1978): Discovering the News. A Social History of American Newspapers. New York: Basic Books. Schudson, Michael (2010): Four Approaches to the Sociology of News. In: Curran, James (Hg.): Media and Society. London: Bloomsbury, S. 172–197. Splendore, Sergio (2016): Quantitatively Oriented Forms of Journalism and Their Epistemology. Sociology Compass 10 (5), S. 342–352. Steensen, Steen (2019): Journalism’s Epistemic Crisis and its Solution: Disinformation, Datafication and Source Criticism. In: Journalism 20 (1), S. 185–189. Thurman, Neil (2019): Computational journalism. In: The Handbook of Journalism Studies. S. 180–195. Thurman, Neil / Dörr, Konstantin / Kunert, Jessica (2017): When Reporters Get Hands-on with Robo-Writing. In: Digital Journalism 5 (10), S. 1240–1259. Colin Porlezza 156 van Dalen, Arjen (2012): The Algorithms Behind the Headlines. Journalism Practice 6 (5–6), S. 648–658 van Dijck, José (2014): Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society 12 (2), S. 197–208 van Drunen, Max / Helberger, Natali / Bastian, Mariella (2019): Know your Algorithm: what Mediaorganizations need to Explain to their Users about News Personalization. In: International Data Privacy Law 9 (4), S. 220–235. Wu, Shangyuan / Tandoc Jr., Edson C. / Salmon, Charles T. (2019): Journalism Reconfigured. In: Journalism Studies 20 (10), S. 1440–1457. Ethische Herausforderungen des automatisierten Journalismus 157 „Wert“-volle Algorithmen: zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit im Digitalen Charlotte Echterhoff Abstract Rund 90 Prozent der deutschsprachigen Bevölkerung ab 14 Jahren nutzt laut ARD/ ZDF-Onlinestudie das Internet (Beisch et al. 2019), die anhaltende Verschiebung der Mediennutzungsgewohnheiten in Richtung „online only“ verlangt von öffentlich-rechtlichen Medien eine umfassende Transformation (vgl. Ritzi 2018: 46), durch die Relevanz des Internets für die Meinungsbildung (Lobigs/Neuberger 2018: 86) entfällt die Frage, ob öffentlich-rechtlicher Rundfunk im Internet stattfinden sollte. Als Begriff für Online-Systeme, die Inhalte strukturieren, d.h. für „Plattformen im Bereich der sozialen Medien“ als auch „für algorithmisch gesteuerte Suchmaschinen“ (ebd: 68), hat sich der Begriff der „Intermediären“ durchgesetzt: Sie beeinflussen die öffentliche Kommunikation „als vermittelnde Instanzen“, ohne sie sind Meinungsbildungsprozesse nicht mehr denkbar (Schmidt et al. 2017: 98). In dieser strukturgewandelten (digitalen) Öffentlichkeit – ein anfangs nicht und auch heute nur rudimentär regulierter Raum1 – ist das Ziel nicht politische Information, sondern Betreiber von Plattformen setzen ihre jeweiligen kommerziellen Interessen durch (Lischka/Stöcker 2017: 36). Die daraus resultierende Art, wie über Algorithmen2 Öffentlichkeit und politische Meinungsbildung organisiert werden, ist der Demokratie abträglich. Im Folgenden wird dargestellt, warum und wie es anders sein könnte. 1 Hinsichtlich der Regulation sei auf den Unterschied zum linearen Fernsehangebot verwiesen, wo Staatsverträge, Lizenzen, Kontrollanstalten etc. die 24 Stunden Programm am Tag regulieren – im Vergleich zum online verfügbaren Material vernachlässigbar. 2 Sogenannte „Prozesse algorithmischer Entscheidungsfindung“ (algorithmic decision-making, ADM) (Lischka/Stöcker 2017: 12). 159 Digitale Öffentlichkeit vs. Demokratie Im kommerziell organisierten Internet geht es um Aufmerksamkeit, d.h. um Zeit. Das Interesse von Konzernen wie YouTube und Facebook besteht darin, die Nutzenden möglichst lange auf der eigenen Plattform zu halten, damit sie Daten liefern und Werbeanzeigen schauen. Jenseits des „machine bias“, d.h. der Voreingenommenheit im Code aufgrund von soziokultureller Prägung der Entwickler:innen (Jaume-Palasí/Spielkamp 2017: 5)3, funktionieren Algorithmen nicht im demokratischen Interesse, weil sie mit impulsiven Publikumsreaktionen arbeiten, Relevanz individuell gewichten und zudem für technische Manipulationen anfällig sind (vgl. Lischka/ Stöcker 2017). Angebote werden zumeist anhand ihrer Ähnlichkeit zu vorherigen Inhalten sortiert (Schmidt et al. 2018: 9), was auf psychologische Phänomene wie den sogenannten „confirmation bias“ zurückzuführen ist (vgl. Lischka/Stöcker 2017: 31ff.) und über Vielfaltsverengung (ebd.: 61) und Personalisierung (vgl. Schmidt et al. 2018: 9) zu Polarisierung (Lischka/Stöcker 2017: 8) und zur Formung von Filterblasen und Echokammern führt (vgl. Schmidt et al. 2017: 26f.). Mit dieser zunehmend fragmentierten Öffentlichkeit hängt es zusammen, dass die individuelle Nutzung im Internet eher durch eine thematische Monokultur charakterisiert ist, als durch die ebenso verfügbare Vielfalt. Der Wettkampf um Aufmerksamkeit ist ferner Grund dafür, dass im Zweifel nicht zwischen sogenannten „Fake News“ und Wahrheit unterschieden wird (Lischka/Stöcker 2017: 49) und politische Kommunikation zum „Spektakel“ verkommt (vgl. Ritzi 2018: 26), weil klickorientierte Algorithmen emotionalisierende Beiträge besser verbreiten als sachliche. Es ist fraglich, ob demokratische Meinungsbildungsprozesse unter diesen Bedingungen möglich sind. Algorithmen hinter personalisierten Sortier- und Empfehlungssystemen übernehmen die Gatekeeper-Funktion, die bis dato von Journalist:innen und in Redaktionen ausgeübt wurde; und das, obwohl sich die Relevanzkriterien von Algorithmen oftmals nicht mit journalistischen Qualitätskriterien decken (Lischka/Stöcker 2017: 11). Da es sich bei Algorithmen um Automatisierungen handelt, die den Zugang zu Öffentlichkeit strukturieren, erstarken Initiativen, die normativ formulierte Anforderungen an die öffentlich-rechtlichen Medien entwickeln (vgl. Jaume-Palasí/Spielkamp 1. 3 Dies ist etwa Gegenstand feministischer Studien, wenn festgestellt wird, „dass die sog. Biases automatisierter Entscheidungstechnologien als algorithmische Diskriminierung und damit als Phänomen sozialer Ungleichheit zu verstehen sind.“ (Prietl 2019: 316) Charlotte Echterhoff 160 2017: 17) und nach deren Rolle innerhalb dieser digitalen Öffentlichkeit fragen – und damit nach dem Leistungsauftrag. Die Normen für den öffentlich-rechtlichen Rundfunk sind niedergelegt in Paragraf 11 des Rundfunkstaatsvertrags (§ 11 RStV). Er wird durch den Medienstaatsvertrag (MStV) abgelöst, der spätestens zum 1. Januar 2021 in Kraft treten soll. In diesem wird der faktischen Bedeutung der Intermediären politisch und rechtlich begegnet und u.a. Forderungen an die Transparenz von Algorithmen gestellt (§ 93 MStV). Der Auftrag aus dem RStV bleibt als § 26 MStV wortgleich bestehen. Öffentlich-rechtlicher Auftrag – ein normatives Versprechen Die normativen Anforderungen, die den öffentlich-rechtlichen Rundfunk – als mit gesellschaftlichen Ansprüchen ausgestattetes Massenmedium – mitbestimmen, „entstammen […] dem Öffentlichkeitsideal der Aufklärung.“ (Lucht 2006: 33) Seit 2004 fasst Paragraf 11 im Rundfunkstaatsvertrag den „Auftrag“ als konstitutive Grundlage des öffentlich-rechtlichen Rundfunks (vgl. Stock 2008: 14) und betont die Verpflichtung gegenüber der Öffentlichkeit (vgl. Bullinger 1998: 116). Der Rundfunk wird als politisches Medium definiert, das einen Ort bereitstellt, in dem über öffentlichkeitsrelevante Themen berichtet wird. Mit den normativen Anforderungen des Auftrags wird auch der Unterschied zwischen öffentlich-rechtlichem und kommerziellem Rundfunk im dualen System manifestiert und verdeutlicht, dass die Zieldimension Öffentlichkeit mehr ist als das in der Nachfrage ablesbare Publikum (vgl. Echterhoff 2015). Die politische Dimension des Öffentlichkeitsbegriffs wird anknüpfend an Habermas mit der Bedeutung für Demokratie verbunden und ist Grundlage für Partizipation (vgl. Habermas 1995 [1962]: 22). Als Funktionen der öffentlich-rechtlichen Medien gelten die Integrationsfunktion, die Forumsfunktion, die Vorbildfunktion und die Komplementärfunktion (Lucht 2006: 174f.). Sie begründen seit jeher eine Medienregulation, deren Ziel eine positive Vielfaltsforderung ist. Öffentlichkeit als diskursethisches Prinzip benötigt Vielfalt als Grundlage für freie Meinungsbildung. Um Vielfalt garantieren zu können, ist ein öffentlich-rechtliches Angebot notwendig, da der im kommerziellen Bereich vorherrschende „Rentabilitätsdrucks“ zur systematischen Vielfaltsminderung führt (Rossen-Stadtfeld 2012: 12f.). Die gesellschaftliche Verankerung der öffentlich-rechtlichen Medien spiegelt sich zudem in deren Organisationsstrukturen wider (Dörr 2002: 317). 2. „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 161 Die Definition der öffentlich-rechtlichen Medien über Vielfalt, in Abgrenzung zur kommerziellen Konkurrenz und durch ihre Struktur ist kein Novum der digitalen Öffentlichkeit, sondern im Auftrag angelegt und folglich aus dem linearen Bereich bekannt. Die digitale Öffentlichkeit fordert die öffentlich-rechtlichen Medien und die Medienregulation heraus und es wird deutlich, dass eine Antwort gefunden werden muss, die sowohl die normativen Grundpfeiler des öffentlich-rechtlichen Rundfunks als auch die Medienspezifik des Internets berücksichtigt. Es geht im Folgenden also um die normative Gestaltung von Algorithmen, damit diese im Sinne des öffentlich-rechtlichen Auftrags eingesetzt werden können und helfen, die digitale Öffentlichkeit im demokratischen Sinne zu strukturieren. Digitale Öffentlichkeit normativ gestalten: öffentlich-rechtlich reloaded Mit den bisherigen Ausführungen wird deutlich, dass der durch kommerzielle Algorithmen geprägte Kommunikationsraum Internet zwar gegenwärtig nicht im Sinne von Öffentlichkeit und Demokratie funktioniert, dass aber die Abkehr von diesem Kommunikationsraum aufgrund von dessen Bedeutung für Öffentlichkeit und Demokratie nicht die Lösung sein kann. Stattdessen ist eine Gestaltung notwendig, die innerhalb der Medienspezifik normative Kriterien entwickelt und operationalisiert. Mit Lischka/Stöcker muss gefragt werden: „Welcher Binnenpluralismus bei der Priorisierung durch Intermediäre ist nötig, damit gesellschaftliche Integration durch deliberative Öffentlichkeit gelingen kann?“ (Lischka/Stöcker 2017: 47) Algorithmen sind letztlich als Rezept oder Wegeleitung zu verstehen, die Grundlagen für Entscheidungen liefern. In der Dimension öffentlichrechtlicher Medien nehmen sie damit Einfluss auf die Gesellschaft, weshalb eine normative Diskussion und spezifische Regeln nötig sind (Bertelsmann Stiftung/iRights.Lab 2019). Wenn in einem Algorithmus normative Kriterien berücksichtigt werden sollen, so bedeutet dies bspw. die Integration einer zusätzlichen Regel oder Kreuzung, die eine zusätzliche Abfrage begründet, deren Ergebnis in die eine oder andere Richtung weist. Im Folgenden werden Vorschläge formuliert, wie normative Kriterien in öffentlich-rechtlichen Algorithmen Berücksichtigung finden können. Dabei wird ausgehend von den „Funktionen“ der öffentlich-rechtlichen Medien (vgl. Lucht 2006: 174f.) an die „Empfehlungen“ von Schmidt et al. (2018: 28ff.) sowie an die „Ansatzpunkte für Interventionen“ (Lischka/ Stöcker 2017: 51ff.) angeknüpft und die „Algo.Rules“ (Bertelsmann Stiftung/iRights.Lab 2019) integriert. 3. Charlotte Echterhoff 162 Vielfalt durch Algorithmen und Zielgruppenansprache Im linearen Bereich wird der Leistungsauftrag (§ 11 RStV) anhand des Kriteriums der Informationsvielfalt operationalisiert und in der Programmgestaltung berücksichtigt (vgl. Echterhoff 2015: 249ff.). Während im linearen Bereich der Auftrag in ein konkretes, zeitlich abgeschlossenes und empirisch nachvollziehbares Programmangebot übersetzt wird, welches dann als Grundlage für Öffentlichkeit herangezogen werden kann, bleibt das Angebot im nicht-linearen Bereich aufgrund seiner Masse diffus. Um eine normative Öffentlichkeit herzustellen, ist ein öffentlich-rechtlicher Algorithmus nötig, der alle Zielgruppen im Sinne der Informationsvielfalt mit öffentlichkeitsrelevanten Themen und Meinungen versorgt. Hier kommen redaktionelle, technische und medientypische Überlegungen zusammen. Um Vielfalt zu realisieren, schlagen Schmidt et al. eine Mischform verschiedener Empfehlungssysteme vor (Schmidt et al. 2018: 29). Sie begründen dies mit der „engen persönlichen Vielfaltslogik“ in jedem einzelnen Empfehlungssystem, welcher durch die Kombination mehrerer Empfehlungslogiken entgegengewirkt werden soll (ebd.). Da die parallele Entwicklung und kontinuierliche Instandhaltung verschiedener Empfehlungssysteme innerhalb des öffentlich-rechtlichen Mediensystems nicht als praktikabel erachtet wird und selbst die Kombination mehrerer Empfehlungssysteme keine Vielfaltsgarantie liefert, wird im Gegensatz dazu in diesem Artikel die These vertreten, dass die Übertragung des öffentlich-rechtlichen Auftrags in Empfehlungssysteme vor allem eine Transformation auf redaktioneller Ebene bedeuten muss: Mit dem Wegfall des Programmschemas entfällt eines der wichtigsten Kriterien der Programmgestaltung aus dem linearen Bereich (vgl. Echterhoff 2015: 170ff.). Mit der Lösung vom linearen Programmkorsett hin zum nicht-linearen Programmpotpourri eröffnen sich Freiheiten für die Programmgestaltung, die einen großen Gewinn darstellen können, wenn mit den Kriterien „Thematisierungspflicht“ und „Zugang“ die Themen und die Nutzer:innen stärker in den Mittelpunkt rücken. Die notwendige Transformation des öffentlich-rechtlichen Rundfunks wird sich also redaktionell niederschlagen und mit dieser crossmedialen Herangehensweise werden neue Wege eröffnet, um Zugänge zu gestalten. Dies erfordert Daten, die Rückschlüsse auf die Form der erfolgreichen Vermittlung erlauben, etwa: Welche Form muss ich wählen, um eine bestimmte Zielgruppe mit diesem Thema zu erreichen? Ein solches Vorgehen würde bedeuten, dass es einen Konsens an Themen gäbe und sich die Personalisierung allein auf die Aufbereitung von Themen beziehen würde; es dürfte also keine personalisierte Themenauswahl stattfinden. Dies wäre 3.1. „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 163 eine Möglichkeit, um die Forumsfunktion der öffentlich-rechtlichen Medien in der digitalen Öffentlichkeit auszuüben und zu gewährleisten. Ein entsprechend breites Angebot an audiovisuellen Beiträgen ist dann die Grundlage, auf die der normativ kodierte Algorithmus verweist. Auf technischer Ebene bedeutet dies, dass Empfehlungssysteme Daten über die Vielfalt der individuellen Nutzung berücksichtigen. Hier ist die Unterscheidung zwischen Angebotsvielfalt und Nutzungsvielfalt gewinnbringend („diversity of supply“ vs. „diversity of exposure“, vgl. Helberger 2015: 1324f.): Algorithmen entwickeln schon heute Empfehlungen auf Grundlage der individuellen Nutzung. Es ist daher in einem öffentlichrechtlichen Empfehlungssystem möglich, entlang der bereits rezipierten Historie gezielt solche Beiträge vorzuschlagen, die das bereits Gesehene ergänzen und damit zu einer möglichst großen Nutzungsvielfalt beitragen. Diese redaktionellen und technischen Verfahrensweisen würden den Prozess des „Agenda Setting“ – seit langem ein elementarer Effekt von Journalismus und letztlich auch Bestandteil der Forumsfunktion von öffentlich-rechtlichen Medien – in die Medientypik des Internets übersetzen. In der Diskussion um Algorithmen wird dieser Prozess, Anreize zu setzen, als „Nudging“ bezeichnet (ebd.: 1328ff.) und verweist darauf, Nutzer:innen mit neuen, unerwarteten Inhalten zu überraschen (vgl. Schmidt et al. 2018: 20). „Nudging“ ist ein auf verhaltensökonomischen Prinzipien gestütztes alternatives Konzept, das Menschen zu „irrationalen“ Entscheidungen „schubsen“ soll: Im Medienbereich wäre das Ziel, Themen, die persönlich wichtig sind, mit gemeinsamen Themen zu verknüpfen, die für die gesellschaftliche Verständigung essenziell sind. Solche Verfahren sind auch in der Publizistik als „zuverlässige Überraschung“ (Schönbach 2005) bekannt und ein positiver Effekt von Journalismus. Diese Logik unterscheidet sich von den vorherrschenden Empfehlungssystemen im kommerziellen Bereich, die auf Personalisierung und Engführung hinauslaufen (vgl. Schmidt et al. 2018: 12). Sie zeigt auch die Notwendigkeit einer ethischen Diskussion, da eine mangelhafte Umsetzung von Vielfaltskriterien eine gravierende Beeinflussung der öffentlichen Meinung zur Folge hätte. Die Medientypik des Internets beschreibt schließlich die Herausforderung, ein algorithmisches System in der Form zu entwickeln, dass ein redaktionell bestimmter Themenpool trotz der individuellen Rezeptionsgewohnheiten Grundlage für demokratische Verständigungsprozesse sein kann, sodass die öffentlich-rechtliche Integrationsfunktion ausgeübt wird. Sie meint die „Integration der Gemeinschaft in allen Lebensbereichen“, die durch die öffentlich-rechtlichen Medien geleistet werden soll, indem diese „dem Bürger die erforderliche umfassende Information über das Charlotte Echterhoff 164 Zeitgeschehen und über Entwicklungen im Staatswesen und im gesellschaftlichen Leben“ verschaffen (BVerfGE 35, 202 [222]). Pöchhacker et al. beschreiben, wie Diversität per Design durch die Gestaltung von Algorithmen erreicht werden kann. Redaktionelle Praxis lasse sich mit Datenwissen kombinieren, um innerhalb der Teilpublika Alternativen zu der aufgrund von Personalisierung entstehenden Informationsselektion zu ermöglichen (Pöchhacker et al. 2018). Die Sorge, dass eine individualisierte Selektion dem öffentlich-rechtlichen Auftrag entgegensteht, ist jedoch kein originäres Problem des nicht-linearen Bereichs. Auch im linearen Bereich gilt die Unterscheidung zwischen Öffentlichkeit und Publikum und die Binnenpluralität des Programms wird nicht eins zu eins an die Zuschauer:innen übertragen (vgl. s.o.: „diversity of supply“ vs. „diversity of exposure“; Helberger 2015: 1324f.). Dies ist insofern ein blinder Fleck im linearen Programmangebot und die Forderung nach Transformation auf inhaltlicher Ebene, die zwar mit dem Wandel der digitalen Öffentlichkeit einhergeht, kann durchaus auch positive Effekte auf die Ausgestaltung des Auftrags im linearen Bereich bedeuten: Mit der Annahme, dass Selektion immer stattfindet, ist die Lösung in den Beiträgen selbst zu finden. Über die Binnenpluralität des gesamtheitlichen Angebots hinaus ist folglich Mikropluralität nötig. Die Vielfaltsgarantie erfolgt per doppeltem Boden nach der Personalisierung auf horizontaler Ebene zusätzlich durch inhaltliche Vielfalt auf vertikaler Ebene. Wenn jeder Beitrag Vielfalt liefert, dann wäre trotz einer individualisierten Selektion ein gewisses Maß an Vielfalt berücksichtigt. Und trotz Selektion wären sowohl Individuen als auch Teilpublika heterogener informiert. Für den idealen Meinungsbildungsprozess würden etwa „Pro- und Contra-Beiträge“ produziert oder ein Beitrag zum Beispiel zum Thema Mindestlohn würde sowohl die Perspektive der Arbeitnehmer:innen als auch die Perspektive der Arbeitgeber:innen umfassen. Mit der Herstellung von Vielfalt durch redaktionelle, inhaltliche und technische Maßnahmen grenzt sich ein öffentlich-rechtliches Empfehlungssystem durch das selbstbewusste Prinzip „Some of the other“ vom sonst vorherrschenden „More of the same“ ab. So strukturierte öffentlich-rechtliche Empfehlungsmechanismen locken die Nutzenden aus ihren Filterblasen heraus und sind Versuche, über gemeinsame Inhalte wieder eine einheitliche Informations- und Diskussionsgrundlage zu schaffen. Das „Ordnungsprinzip“ des Rundfunks (Schmidt et al. 2018: 6) verliefe dann also über gemeinsame Themen und nicht mehr über die eine Sendung, die alle geschaut haben. Mit der geplatzten Filterblase werden die Nutzenden damit konfrontiert, andere Meinungen als die „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 165 eigene auszuhalten – ein Wesenselement für eine funktionierende Demokratie. Vielfaltsfördernde Algorithmen sind somit diskursethisch notwendig, haben eine integrierende Funktion, sind immer aufklärerisch und sorgen für Verständigung. Da genau aus solchen Kriterien der Auftrag des öffentlich-rechtlichen Rundfunks besteht, folgt daraus auch, dass öffentlichrechtlicher Rundfunk online stattfinden muss – und zwar in Anwendung eines normativ bestimmten, vielfaltsfördernden Algorithmus‘. Definition durch Negation Ritzi argumentiert, dass die öffentlich-rechtlichen Akteure im Online- Wettbewerb an Bedeutung gewinnen, weil die Notwendigkeit von gutem Journalismus, d.h. einer zuverlässigen Orientierung, steigt (Ritzi 2018: 46). Diese Zuverlässigkeit als Wert kann dank Werbefreiheit und finanzieller, d.h. journalistischer Unabhängigkeit gewährleistet werden. Auch Schmidt et al. folgern aus den genannten Entwicklungen auf gesellschaftlicher Ebene und im Hinblick auf die Gestaltung der digitalen Öffentlichkeit die Notwendigkeit einer kompensatorischen Rolle durch öffentlich-rechtliche Anbieter (Schmidt et al. 2018: 7). Die oben beschriebene Vielfaltsgarantie bedingt Unterschiede zwischen öffentlich-rechtlichen und kommerziell betriebenen Algorithmen. Zudem wird das Interesse gesellschaftlicher Teilhabe bei den Nutzenden vorausgesetzt (vgl. ebd.: 17). Mit der Abkehr von der kommerziellen Nachfragelogik wird der Kommunikationsraum Internet gesellschaftlich nutzbar gemacht und die Nutzer:innen in ihrer Rolle als Bürger:innen gestärkt (Echterhoff 2015: 84f.). Im linearen System wird diese Rolle als „Lückenbüßerfunktion“ (Gundlach 1998: 60) bezeichnet, die auch mit der Finanzierungsart zusammenhängt: Die Gesellschaft leistet sich öffentlich-rechtliche Medien, die ein Alternativangebot bereitstellen, das der freie Markt nicht hervorbringt (vgl. Komplementärfunktion; Lucht 2006: 174f.). Kops benennt sechs Ursachen für Marktmängel im Rundfunk (Kops 2005). Marktversagen ist u.a. auf das Nutzungsbedürfnis nach Entspannung und Unterhaltung zurückzuführen (Reitze/Ridder 2011: 252; vgl. Echterhoff 2015: 117ff.) und legitimiert den staatlichen Eingriff zum Zwecke der Informationsversorgung. Mit der Setzung eines öffentlich-rechtlichen Angebots als Gegenmodell zu kommerziellen Anbietern hätte der öffentlich-rechtliche Rundfunk bereits Vielfalt auf einer Metaebene durchgesetzt (Lischka/Stöcker 2017: 53). Es werden normative Ansprüche realisiert, die aus der diskursethischen Bedeutung von Öffentlichkeit in der Demokratie resultieren, eine besondere 3.2. Charlotte Echterhoff 166 Verantwortung der Akteure bedeuten (Jaume-Palasí/Spielkamp 2017: 17) und auf die Gemeinwohlorientierung rekurrieren (vgl. Beining 2019): Erstens muss neben der individuellen Relevanz der kollektiven Relevanz von Inhalten eine besondere Bedeutung zugeschrieben werden (vgl. Schmidt et al. 2018: 4), wodurch der Personalisierung von Inhalten entgegengewirkt wird. Punkt Zwei: Statt der Strategie eines kurzfristigen Aufmerksamkeitsgewinns, in dem es um „Interaktionshäufigkeit“ geht, muss eine langfristige Strategie entwickelt werden, die dem Ziel einer informierten Öffentlichkeit nacheifert (vgl. Lischka/Stöcker 2017: 35f.). Daraus resultiert drittens die „Fokussierung auf Inhalte von gesellschaftlicher und/oder politischer Relevanz“ (Ritzi 2018: 46) zum Zwecke der Aufklärung und die Abkehr von rein unterhaltenden Inhalten, die ausreichend von kommerziellen Anbietern geliefert werden. Ziel eines öffentlich-rechtlichen Empfehlungssystems ist es, die Bürger:innen als Souverän in den Mittelpunkt zu stellen und ihnen aus der Vielfalt des Netzes Angebote zu bieten. Im Gegensatz zu kommerziellen Strategien geht es also explizit nicht darum, Nutzer:innen möglichst lange auf der eigenen Plattform zu halten, sondern die Nutzung möglichst nachhaltig zu gestalten. Dies kann bedeuten, dass auf externe Informationsangebote verwiesen wird, etwa auf Wikipedia, Presseartikel, Dossiers der Bundeszentrale für politische Bildung, private Blogs, die Bundes- oder Landespressekonferenz, auf Verbraucherzentralen o. ä. – eine Strategie, die in kommerziellen Systemen undenkbar ist.4 Ein öffentlich-rechtlicher Algorithmus funktioniert im Sinne der Bürger:innen, die die Angebote als Mittel zum Zweck (Information, Bildung, Unterhaltung) nutzen. Im kommerziellen System sind die Nutzenden und deren Zeit Mittel zum eigentlichen Zweck der Gewinnmaximierung. Aus der Souveränität der Nutzer:innen folgt die Notwendigkeit einer qualitativen Bewertung des Angebots als Alternative zur rein quantitativen Klickmessung: Als Grundlage für einen lernenden Algorithmus müsste ein qualitatives Urteil der Nutzer:innen vorliegen, das z.B. folgenden Fragen folgt: War das Thema für Sie relevant? Haben Sie etwas Neues erfahren? Werden Sie morgen jemandem von diesem Beitrag erzählen? Würden solche Fragen mit Sterne-Kategorien beantwortet, ergäbe dies Informationen über die qualitative Akzeptanz der Nutzer:innen, die über den reinen Konsum oder ein unbestimmtes „Like“ hinausgehen. Das wäre ein erster Weg, 4 Der bewusste Zusammenschluss öffentlich-rechtlicher Medien auf europäischer Ebene und mit anderen Bildungsanbietern wird im Projekt „European Public Open Spaces“ (EPOS) konzipiert (Thomaß et al. 2018). „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 167 um die Gratifikation einer Rezeption in Empfehlungssystemen zu berücksichtigen. Eine solche Möglichkeit einer qualitativen Bewertungsabfrage verweist auf den letzten Punkt dieser Analyse, auf die öffentlich-rechtlichen Prinzipien. Öffentlich-rechtliche Prinzipien Ein öffentlich-rechtlicher Algorithmus, der normativ funktionieren soll, bedeutet erhebliche regulatorische Voraussetzungen und es wird deutlich, dass dessen Gestaltung im Sinne der Gemeinschaft partizipativ und nachvollziehbar diskutiert werden muss. Um der öffentlich-rechtlichen Verantwortung gerecht zu werden, gelten als weitere Prinzipien für den Prozess der Transformation: Transparenz, Verantwortung und Offenheit (vgl. Vorbild-Funktion der öffentlich-rechtlichen Medien; Lucht 2006: 174f.).5 Transparenz ist die erste Forderung der Algorithmenethik (vgl. Beining 2019); sie gilt als Grundlage für weitere Forderungen wie der Möglichkeit der Partizipation durch Nachvollziehbarkeit. Transparenz und Partizipation in der Rundfunk- und Medienpolitik werden gefordert, da es um die Entwicklung diskursethischer Prinzipien geht, die die Bedingungen von Öffentlichkeit und politischer Kommunikation bestimmen. Hinsichtlich der Datensparsamkeit wird unterschiedlich argumentiert. Jaume-Palasí/ Spielkamp machen deutlich, dass allzu rigide Datensparsamkeit mitunter der Möglichkeit entgegensteht, Daten in einem gesellschaftlich wünschenswerten Sinne zu nutzen (2017: 21f.). Wichtiger seien daher Nachvollziehbarkeit und Verantwortung. Die Forderung nach Verantwortung entstammt ebenfalls dem ethischen Diskurs und macht deutlich, dass Algorithmen keine „neutrale Technik“ sind, sondern von Individuen entwickelt und gestaltet werden, die ggf. zur Verantwortung gezogen werden können müssen (ebd: 6ff.). Die Gestaltung von Algorithmen, die die Öffentlichkeit und damit die gesellschaftliche Kommunikation betreffen, muss partizipativ erfolgen, um die gesellschaftliche Verankerung der öffentlich-rechtlichen Medien auch strukturell abzubilden (vgl. Dörr 2002: 317). 3.3. 5 Die Weiterentwicklung des öffentlich-rechtlichen Rundfunks unter Wahrung seiner Prinzipien wird auch im Rahmen der „10 zentralen Thesen“ zur Zukunft der öffentlich-rechtlichen Medien diskutiert (https://zukunft-öffentlich-rechtliche.de). Charlotte Echterhoff 168 Die Entwicklung des Medienstaatsvertrags hat hier Standards gesetzt, die den richtigen Weg weisen6. Grundlage für Partizipation und Nachvollziehbarkeit ist eine „algorithmic literacy“ (Beining 2019: 33), die sich in die Diskussion um informationelle Selbstbestimmung einreiht. Hierfür liefert das „European Digital Competence Framework“ (Vuorikari et al. 2016) Anhaltspunkte: Es stellt digitale Kompetenzen dar, die als notwendig erachtet werden, um heutzutage in der digitalen Gesellschaft mündig zu sein. Schließlich muss für die Gestaltung öffentlich-rechtlicher Algorithmen und wiederum im Gegensatz zu kommerziellen Anbietern das Prinzip von Offenheit gelten: Neben der Offenheit im Prozess und der Offenheit möglicher Verknüpfungen ist eine Offenheit der medialen Produkte notwendig. Sollen die öffentlich-rechtlichen Inhalte, die anhand von Beiträgen durch die Allgemeinheit finanziert werden, nachhaltig und im Sinne dieser Allgemeinheit wirken, dann müssen sie gemeinfrei lizensiert werden. Und dann darf nicht eine Depublikationspflicht einer zeitsouveränen Nutzung entgegenstehen (vgl. Dobusch 2019). Eine freie Lizensierung ist zudem Voraussetzung für die souveräne Nutzung öffentlich-rechtlicher Medienprodukte. Hier geht es auch um die kreative Gestaltung von Medien: Für die Entwicklung von Medienkompetenz ist es notwendig, selbst produktiv mit Medien umgehen zu können (vgl. Gapski et al. 2018: 80); für die kreative Gestaltung von Medien ist es mitunter notwendig, bestehendes Material zu benutzen, bspw. für Kunst, Kritik oder Satire. Für die (Weiter-)Bearbeitung von öffentlich-rechtlichem Material schafft eine freie Lizenz (bspw. Creative Commons CC-BY) Rechtsklarheit. Mit diesen öffentlich-rechtlichen Prinzipien sind neben dem Gebot der Vielfalt und der notwendigen Abgrenzung vom kommerziellen Angebot Grundlagen für die ethische Gestaltung von öffentlich-rechtlichen Algorithmen benannt worden. Die Vorschläge basieren auf den vier Funktionen der öffentlich-rechtlichen Medien (Integrations-, Forums-, Vorbildund Komplementärfunktion; Lucht 2006: 174f.) und veranschaulichen, wie normative Kriterien für die bevorstehende Zeit des „online only“ operationalisiert und berücksichtigt werden können. Es ist ein gemeinsamer Themenpool, der zielgruppengerecht und dank Mikropluralismus auf inhaltlicher Ebene an die Bürger:innen vermittelt wird, es sind Verweise auf externe Angebote und es sind Transparenz und Offenheit, die notwendig 6 Wenngleich Lutz Hachmeister zurecht anmerkt, dass allein der Begriff der „Intermediäre“ die breite Partizipation der Gesellschaft ausschließe (vgl. Bartels 2020: 12). „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 169 sind, um die öffentlich-rechtlichen Grundsätze medienspezifisch zu realisieren. Angesichts der fortschreitenden Transformation des Mediensystems eine Aufgabe, der sich die Verantwortlichen in den öffentlich-rechtlichen Medien schnellstmöglich widmen müssen, damit die öffentlich-rechtliche Gestaltung von Öffentlichkeit im Digitalen der Meinungsbildung zuträglich ist und unsere Demokratie stärkt. Literatur: Bartels, Christian (2020): Das Dritte System. Erste Ergebnisse der IfM-Strategiegruppe zur Medien- und Netzpolitik. In: Medienkorrespondenz 2/2020, S. 12–14. Bertelsmann Stiftung / i.Rights.Lab (2019): Algo.Rules. Regeln für die Gestaltung algorithmischer Systeme. Online Verfügbar unter: https://algorules.org/typo3conf/ex t/rsmbstalgorules/Resources/Public/assets/pdf/Algo.Rules_DE.pdf (Abfrage am: 02.02.2020). Beining, Leonie (2019): Wie Algorithmen verständlich werden. Ideen für Nachvollziehbarkeit von algorithmischen Entscheidungsprozessen für Betroffene. Online verfügbar unter: https://www.stiftung-nv.de/sites/default/files/wie_algorithmen_verstandli ch_werden.pdf (Abfrage am: 02.02.2020). Beisch, Natalie / Koch, Wolfgang / Schäfer, Carmen (2019): ARD/ZDF-Onlinestudie 2019: Mediale Internetnutzung und Video-on-Demand gewinnen weiter an Bedeutung. In: Media Perspektiven 9/2019, S. 374–388. Bullinger, Martin (1998): Die Aufgaben des öffentlichen Rundfunks. Wege zu einem Funktionsauftrag. Studie im Auftrag der Bertelsmann Stiftung. Freiburg im Breisgau. BVerfGE 35, 202: Bundesverfassungsgericht, Urteil des Ersten Senats vom 05.06.1973, 1 BvR 536/72. Online verfügbar unter: https://www.servat.unibe.ch/dfr/bv03520 2.html (Abruf am 26.07.2020). Dobusch, Leonhard (2019): Neues aus dem Fernsehrat (37): Wir müssen endlich über Archive reden. Online verfügbar unter: https://netzpolitik.org/2019/neues-aus-de m-fernsehrat-37-wir-muessen-endlich-ueber-archive-reden/ (Abruf am 02.02.2020). Dörr, Dieter (2002): „Rundfunk, öffentlich-rechtlicher.“ In: Schanze, Helmut; Pütz, Susanne (Hrsg.): Metzler Lexikon Medientheorie, Medienwissenschaft. Ansätze, Personen, Grundbegriffe. Stuttgart: J.B. Metzler, S. 317–320. Echterhoff, Charlotte (2015): Programmentscheidungen im öffentlich-rechtlichen Fernsehen. Eine Suche nach Kriterien – denn die Quote kann nicht alles sein. Baden-Baden: Nomos. Gapski, Harald / Oberle, Monika / Staufer, Walter (2018): Medienkompetenz als Demokratiekompetenz. Herausforderungen für Politik, politische Bildung und Medienbildung. In: Knaus, Thomas / Meister, Dorothee M. / Narr, Kristin (Hg.): Futurelab Medienpädagogik. Qualitätsentwicklung – Professionalisierung – Standards. Kopaed: München, S. 71–83. Charlotte Echterhoff 170 Gundlach, Hardy (1998): Die öffentlich-rechtlichen Rundfunkunternehmen zwischen öffentlichem Auftrag und marktwirtschaftlichem Wettbewerb. (Duisburger Volkswirtschaftliche Schriften 32) Hamburg: S + W. Habermas, Jürgen (1995) [1962]: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Mit einem Vorwort zur Neuauflage 1990. 4. Auflage. Frankfurt am Main: Suhrkamp. Helberger, Natali (2015). Merely facilitating or actively stimulating diverse media choices? Public service media at the crossroad. In: International Journal of Communication: IJoC, 9, 1324–1340. Jaume-Palasí, Lorena / Spielkamp, Matthias (2017): Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung. AlgorithmWatch Arbeitspapier Nr. 4, Berlin. Kops, Manfred (2005): „Soll der öffentlich-rechtliche Rundfunk die Nachfrage seiner Zuhörer und Zuschauer korrigieren?“ In: Ridder, Christa-Maria; Langenbucher, Wolfgang R.; Saxer, Ulrich; Steininger, Christian (Hrsg.): Bausteine einer Theorie des öffentlich-rechtlichen Rundfunks. Festschrift für Marie Luise Kiefer. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 341–366. Lischka, Konrad / Stöcker, Christian (2017): Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Arbeitspapier. Gütersloh: Bertelsmann. Lobigs, Frank/Neuberger, Christoph (2018): Meinungsmacht im Internet und die Digitalstrategien von Medienunternehmen. Neue Machtverhältnisse trotz expandierender Internet-Geschäfte der traditionellen Massenmedien-Konzerne. Gutachten für die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK). die medienanstalten (= Schriftenreihe der Landesmedienanstalten, Band 51). Leipzig: Vistas. Lucht, Jens (2006): Der öffentlich-rechtliche Rundfunk: ein Auslaufmodell? Grundlagen – Analysen – Perspektiven. (Forschung Kommunikation) Wiesbaden: VS Verlag für Sozialwissenschaften. Pöchhacker, Nikolaus / Geipel, Andrea / Burkhardt, Marcus / Passoth, Jan-Hendrik (2018) Algorithmische Vorschlagsysteme und der Programmauftrag: Zwischen Datenwissenschaft, journalistischem Anspruch und demokratiepolitischer Aufgabe. In: Mohabbat Kar, Resa / Thapa, Basanta E. P. /Parycek, Peter (Hg.): (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft. Berlin: Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS, Kompetenzzentrum Öffentliche IT (ÖFIT). S. 417–439. Prietl, Bianca (2019): Algorithmische Entscheidungssysteme revisited: Wie Maschinen gesellschaftliche Herrschaftsverhältnisse reproduzieren können. In: feministische studien. Zeitschrift für interdisziplinäre Frauen- und Geschlechterforschung. Cyborgs Revisited: Zur Verbindung von Geschlecht, Technologien und Maschinen. 37. Jahrgang. Heft 2, 2019. Ettenheim: Franz X. Stückle Druck und Verlag e.K., S. 303–319. Reitze, Helmut; Ridder, Christa-Maria (Hrsg.) (2011): Massenkommunikation VIII. Eine Langzeitstudie zur Mediennutzung und Medienbewertung 1964 – 2010. (Schriftenreihe Media-Perspektiven 21) Baden-Baden: Nomos. „Wert“-volle Algorithmen: Zur öffentlich-rechtlichen Gestaltung von Öffentlichkeit 171 Ritzi, Claudia (2018): Gegen die Post-Demokratie: Die öffentlich-rechtlichen Medien im digitalen Zeitalter. In: ORF (Hg.): Der Auftrag: Demokratie. Public Value Studie. Wien: ORF-Druckerei, S. 26–47. Rossen-Stadtfeld, Helge (2012): Der Programmauftrag des öffentlich-rechtlichen Rundfunks in der dualen Rundfunkordnung. Verfassungsrechtliche Bezüge. (Arbeitspapiere des Instituts für Rundfunkökonomie an der Universität zu Köln 289) Köln: Institut für Rundfunkökonomie. Schmidt, Jan-Hinrik / Sørensen, Jannick / Dreyer, Stephan / Hasebrink, Uwe (2018): Algorithmische Empfehlungen. Funktionsweise, Bedeutung und Besonderheiten für öffentlich-rechtliche Rundfunkanstalten. Hamburg: Verlag Hans-Bredow-Institut, September 2018 (Arbeitspapiere des Hans-Bredow-Instituts Nr. 45) Schmidt, Jan-Hinrik / Merten, Lisa / Hasebrink, Uwe / Petrich, Isabelle / Rolfs, Amelie (2017): Zur Relevanz von Intermediären für die Meinungsbildung. Arbeitspapiere des Hans-Bredow-Instituts Nr. 40. Hamburg: Verlag Hans-Bredow-Institut. Schönbach, Klaus (2005): Das Eigene im Fremden. In: Publizistik, 50, S. 344–352. Stock, Martin (2008): Noch einmal zum Reformbedarf im „dualen Rundfunksystem“. Public-Service-Rundfunk und kommerzieller Rundfunk – wie können Sie koexistieren? (Arbeitspapiere des Instituts für Rundfunkökonomie an der Universität zu Köln 244) Köln: Institut für Rundfunkökonomie. Thomaß, Barbara / Dobusch, Leonhard / Euler, Ellen / Horz, Christine / Herzog, Christian / Ramsey, Phil Ramsey / Grassmuck, Volker (2018): European Public Open Spaces (EPOS). Kurzskizze. Online verfügbar unter: https://publicopen.spa ce/epos/wp-content/uploads/2018/11/EPOS_short_DE_180828.pdf (Abruf am 02.02.2020). Vuorikari, Riina / Punie, Yves / Carretero, Stephanie / Van den Brande, Lieve (2016): DigComp 2.0: The Digital Competence Framework for Citizens. Update Phase 1: The Conceptual Reference Model. Luxembourg Publication Office of the European Union. Charlotte Echterhoff 172 Über die Intermedialität von Ethik und Algorithmus. Ein Beitrag zur mathematisch-politischen Kontur der Algorithmenethik1 Andrea Günter Abstract Sofern Algorithmen als Mengen-Mathematik Verallgemeinerungsprozesse steuern, haben sie ein politisches Profil. Algorithmen müssen Viele(s), also Pluralität organisieren, und das außerdem in Form von Relationen und den diversen Funktionen, in denen „Mengen“ nicht nur definiert, sondern auch miteinander kooperiert werden. Wenn es sich bei den Signifikaten von Algorithmen explizit um Menschen, ihre Individualität und Pluralität handelt, steigert sich die ethische Herausforderung. Gerade die humane Dimension zeigt an, wie sehr die Algorithmenpraxis, ihre gesellschaftspolitischen Herausforderungen mit den Aufgaben von Ethik korrespondiert. Das Verständnis von Algorithmen steht in Wechselbeziehung mit dem von Philosophie, Ethik und Politik. Der Beitrag entfaltet diese Zirkularität, angefangen mit der Konturierung der politischen und ethischen Dimension, die algorithmischen Verfahrensweisen innewohnt. Sinnbild für diese Gemeinsamkeit ist ein diverses Verständnis des Gleichheitszeichens. Eine Kontur der Algorithmenethik soll umrissen werden, die verdeutlicht, dass es bei dieser Diskussion über Ethik um mehr als um eine Anwendungsethik geht. Sie führt mitten hinein in die Kritik der Ontologie.2 Für die Kommunikations- und Medienethik bietet eine solche Reflexion die Möglichkeit, die divergierende Medialität verschiedener Zahlenverständnisse, ihre kommunikativen und ethischen Herausforderungen und ihre Alternativen in den Blick zu bekommen. Dies bildet eine Voraussetzung dafür, Phänomenen wie der Digitalität mit einem stimmigen ethischen Theoriedesign zu begegnen. 1 Viele Aspekte meiner Überlegungen sind den Gesprächen mit den Mathematikern Lars Holzäpfel und Andreas Ostermann erwachsen, mit denen ich in den letzten Jahren immer wieder Seminare zu „Mathematik und Ethik“ durchgeführt habe. 2 Diese Teildisziplin der Philosophie beschäftigt sich mit allem, was es gibt und stellt Kernfragen wie z.B. was es heißt, dass es etwas gibt, und in welchem Verhältnis unterschiedlich kategorisierbare Objekte zueinanderstehen. 173 Digitalität und Ethikdiskurse Digitalisierung sei ein Megatrend. Das Digitale transformiere und durchdringe alle Lebensbereiche. Wir treten in eine neue Epoche der Technik und der Technisierung ein. – Solche Ansagen über die Menschen, ihr Leben und ihre Zukunft künden ein unausweichliches Schicksal an. Allerdings ist es auch ein Merkmal von Ankündigungen des Unausweichlichen, dass wenig differenziert wird, um welche Prozesse es sich eigentlich handelt. Was ist das Andere, das sich hier ankündigen will? Eine Ethik des Digitalen hat neben der Auseinandersetzung mit den konkreten Eigenschaften und Wirkungen dieses Phänomens weitere Aufgaben zu bewältigen. Sie sollte sich gerade auch mit den symbolischen Vorzeichen und den theoretischen Hintergründen befassen, mit denen über Digitalität kommuniziert wird. Die Logik der Andersheit ist ein solch symbolischer Zusammenhang, der die Sichtweise auf Digitalität und deren Bewertung leitet. Sie wird deutlich in den dualistisch strukturierten moralischen Bewertungen, die die Diskussion über Digitalität in den letzten Jahren maßgeblich strukturiert hat: gut oder böse? Freund oder Feind? Nutzen oder Schaden? Koevolution oder Landnahme? Hoffnung oder Terror? Enthusiasmus oder Skepsis? Beurteilt man Digitalität in den Kategorisierungen von Gut und Böse, muss sie abgelehnt, begrenzt, kontrolliert oder sofort mit voller Kraft durchgezogen werden. Für eine Ethik der Digitalität sind Moralisierung, Dualisierung, Verbote jedoch unpassend. Es ist eher kein Zufall, dass gleichzeitig in der Auseinandersetzung mit dem Klimawandel ein ähnlich moralischer Verbote-Diskurs geführt wird. Diese Koinzidenz führt zu der Annahme, dass das Bewusstsein für unterschiedliche ethische Konzepte, Reflexionsmöglichkeiten und Urteilsstrategien eher gering ist. Das Wissen darüber, welche unterschiedlichen Reflexionsmöglichkeiten Ethik anbietet, ist höchstens bei Fachethikern beheimatet.3 Denn ist Ethik gerade nicht die Auseinandersetzung mit dem Nicht-Eindeutigen und Nicht-Entscheidbaren, dem Zufälligen und Möglichen? Muss ebenso wie über Digitalität auch über Ethik aufgeklärt werden? Was 1. 3 Ein Beispiel: am Interdisziplinären Ethik-Zentrum Freiburg sind Fachethiker der Philosophischen, Theologischen und Medizinischen Fakultät beteiligt, um den Dialog zwischen Natur- und Geisteswissenschaften in der fachübergreifenden Ethik-Forschung zu verankern. Zur Relevanz der Unterscheidung von ethischen Konzepten und deren Auswirkungen im Zusammenhang mit Geschlechterfragen vgl. Günter, Konzepte der Ethik, a.a.O. Andrea Günter 174 kann über ihren Zusammenhang erkundet werden? Welche Grundlagenreflexion braucht es, um eine Ethik des Digitalen zu entwickeln? Inmitten von Prozessen zu stehen, Transformationen ausgesetzt zu sein, ist eine Grundeigenschaft menschlicher historischer Existenz. Blickt man anstatt mit der Logik der Andersheit mit einer Logik des Inmitten auf die Veränderungen, die Digitalität anzusagen scheint, kann man einen präziseren Blick auf diesen Veränderungsprozess werfen. Welchen Diskurs wir über Veränderungen führen, auch dafür müssen wir Verantwortung unternehmen. Die politische Kontur von Algorithmen Transformationen wie die Digitalität führen dazu, dass Grundsatzfragen des menschlichen Lebens auf neue Weise ins allgemeine Bewusstsein gespült werden. Die Funktionen und Prozessabläufe des Digitalen bringen es mit sich, dass es neue, mitunter noch unbekannte „Herren“ geben wird. Neue (globale) Kommunikations-, Organisations- und Herrschaftsstrukturen lassen sich ebenso vermuten wie neue Ausbeutungszusammenhänge. Neue Szenarien für Manipulation, Kontrolle, Zwang entstehen. Die Angst vor Cyberkriegen und Killerroboter lassen neue Formen von Gewaltaus- übung voraussehen. Dass Umweltbelastungen sich noch mehr steigern, wenn nicht gezielt entgegengesteuert wird, bleibt zu befürchten. Zusammen mit diesen Herausforderungen des Politischen werden auch die von Bildung und Wissen drängend. Es deutet sich an, dass Digitalität das Verhältnis von Bild und Denken verändert, eine neue Form von Medialität bzw. ein neues Zusammenspiel von Medialität, Kognition und Bewusstsein sich herausbilden wird, ähnlich den Veränderungen, die das Erlernen der Handschrift für dieses Zusammenspiel mit sich brachte. Des Weiteren werden einerseits neue Sprach-, Kommunikations- und Orientierungsmöglichkeiten gefunden, andererseits wird die Sprach-, Kommunikations- und Orientierungslosigkeit zunehmen. Menschheitsfragen treten in neuen Gewändern auf, Ungeklärtes wird verstärkt, vorläufig Beruhigtes büßt seine stabilisierende Wirkung ein. Digitalisierung ist vor allem eine Veränderung von Verarbeitungsweisen. Diese werden schneller, effizienter, können größere Mengen in immer kürzeren Zeiten bewältigen. Ferner können sie sich zunehmend selbst und miteinander organisieren. Was müssen Menschen verstehen können, um richtige Einschätzungen zu treffen und die Autopoiesis von Algorithmen zu gestalten? Gibt es überhaupt einen Kontrollverlust? Hat es bei den Neuerfindungen, die sogar eine neue Epoche begründen, jemals eine Kontroll- 2. Über die Intermedialität von Ethik und Algorithmus. 175 möglichkeit gegeben? So benennt Digitalisierung einen Gesamtkomplex von Entwicklungen in unterschiedlichen Bereichen mit unterschiedlichen Zielsetzungen, die als einzelne identifiziert, bewertet und beurteilt und im Einzelnen entschieden werden müssen. Digitalität stellt philosophisch kategorisiert keine Notwendigkeit dar. Vielmehr handelt sie von Möglichem, genauer gesagt von menschlichen Möglichkeiten. Als „Erfindung“ unterscheidet sie sich von Fakten und Notwendigkeiten (Bsp. genügend Schlaf, Stoffwechsel des Schlafs, …). Ihr kommt also nicht zu, dass sie gut oder aber böse „ist“. Sie muss als Möglichkeit behandelt, darf nicht in eindeutiges (ontologisches) Sein verwandelt werden. „Vereindeutigungsversuche“ erzeugen ein falsches Absolutes. Bezogen auf Ethik als Umgangsweise mit dem Möglichen wurde deshalb in der Antike auch die Erfahrung theoretisiert, dass diesbezüglich nicht argumentiert werden kann, sondern beraten werden muss (Aristoteles, Rhetorik 1357a). Eine güterethische Reflexion kann einem solchen Phänomen gerechter werden: Es gibt gute Gründe, warum etwas entstanden ist. Das muss und kann geprüft werden: Worin gründet sein Gutes? Gilt sein Gutes in dieser, in jener Entwicklung noch? Wie kann es als ein Gut tradiert werden? Soll es als ein Gut tradiert werden? Wie hängt es mit weiteren Gütern zusammen? Was kann dafür getan werden, dass sein Gutes tradiert wird und sein Schlechtes zugleich begrenzt, verhindert, überwunden wird? Als Ethik der tradierbaren Qualität unterscheidet sich Güterethik von teleologischer und von Folgen-Ethik. Sie erweist sich vielmehr als eine Ethik des Inmitten, die historische Entwicklungen in ihrer Prozesshaftigkeit begleiten kann. Mengen-Mathematik, Pluralität und Individualität Der Algorithmus stellt den Inbegriff dessen dar, was Digitalität als neuen Verarbeitungsmodus auszeichnet. Relativ zeitnah schoss eine Algorithmenethik aus dem Boden, der „Newsletter Algorithmenethik.de“, den die Bertelsmann Stiftung herausgibt, ist ein Symbol für diese schnelle Reaktion. Hier werden vor allem Anwendungsbereiche und Anwendungsweisen gesellschaftspolitisch diskutiert. Darüber hinaus kann man fragen: Warum braucht dieses mathematische Verfahren einen eigenen Ethik-Diskurs? Worin gründet ein Ethik-Diskurs, der sich mit speziell dem Algorithmischen auseinandersetzt? Wofür ist Mathematik, wofür ist der Algorithmus ein Gut? Ob als neues Hilfsmittel für staatliche Kontrolle oder als Ermöglichungsmodus neuer sexueller Aktivitäten, Algorithmen rühren an den 3. Andrea Günter 176 Grundfesten des Politischen bis hin zu den Geschlechterbeziehungen. Der Einsatz von Algorithmen in politischen Prozessen – z.B. bei Wahlen – zeigt insbesondere, dass diese das politische Verständnis von Pluralität (die Vielen) projektieren (Lischka/Stöcker 2017). Algorithmen verengen entweder die Erscheinungsweisen des Pluralen oder aber sie erweitern, steigern es. Sei es bei Bewerbungsverfahren, sei es in den Programmierungen „weiblicher“ Roboter wie Alexa, vorhandene (Geschlechter)Stereotypisierungen können – sogar gleichzeitig – ins Negative verkleinert oder aber verstärkt werden, werden sie nicht überprüft und korrigiert (ein aktueller Überblick bei Hustedt 2020). Als Neutralisierungs-, Verstärkungs- oder Minimierungsapparat bieten Algorithmen, zumal sie geradewegs auf Mengenmathematik basieren und eine Klasse von Problemen auf einen Schlag lösen wollen, einen ausgezeichneten gesellschaftlichen Spiegel für Ungleichheiten, Diskriminierungen, Herrschaft und Gewalt. Denn als Mengenmathematik haben Algorithmen die Funktion, Mengen miteinander in Beziehung zu setzen. Sowohl diese Mengen als auch ihre Beziehungen müssen definiert werden.4 Die algorithmische Verarbeitungsleistung und deren Grenzen verdeutlichen dabei, wie mit dem Umfang einer Verarbeitung der Anteil der Interpretation zunimmt. Algorithmen scheinen zwar aus nichts als aus Zahlen zu bestehen. Aber sie sind nicht neutral. Im Gegenteil, sie führen uns vor Augen, wie wenig neutral Zahlen sind, indem sie Zahlengefüge ins Extreme steigern und dabei Materielles nicht vernachlässigen können: die Materialität der „Gruppe“ oder der „Klasse“ der Probleme, die die Menge – die Vielen – bildet. Darüber hinaus kann ein eigentümliches Merkmal dieses Verhältnisses festgehalten werden. Selbst wenn Algorithmen anvisieren, Individualität zu vergrößern, als Mengen- und Klassenmathematik werden gerade Algorithmen niemals Individualität erfassen können. Algorithmen sind individualitätsabstinent. Auch dann, wenn sie Individualität verheißen, stereotypisieren sie auf extreme Weise. Gerade für soziale Gefüge ist das eklatant. Wer alles grüne Socken einkauft, habe zugleich eine Vorliebe für Erdnüsse: Für Werbung eingesetzte Algorithmen können als Sinnbild dafür dienen. Korrelationen stellen keine Kausalität dar. 4 Dabei kann man die These vertreten, dass eine Zahl im Grunde auch eine Menge darstellt, ein Apfel besteht aus Wasser-, Zucker-, … Molekülen, er kann folglich als Menge definiert werden. Ein Kilo Hefeteig wiederum weist einem Mehl-Zucker- Butter-Hefe-Milch-Salz-Gemisch die Eins zu. Nimmt man die Zutaten als Einzelgrößen, so stehen sie zugleich nicht in der Relation 1:1, ständen sie in der Relation 1:1, würde daraus kein Teig, aus dem man einen Hefezopf backen könnte, usw. … Über die Intermedialität von Ethik und Algorithmus. 177 Mögen Algorithmen verfeinert werden, das „Mengen“-Problem werden sie kaum loswerden. Es ist diese Eigenart, die dazu verhilft, neue Stereotypund Massenphänomene zu gerieren bzw. vorhandene Stereotyp- und Massenphänomene zu steigern. Der „Hass“ und die „Hetze“, die durch digitale Kommunikationsweisen geriert werden, haben ihre Ursache auch in dieser Struktureigenart des unendlichen Vergrößerns und Verkleinerns von Mengengebilden. Sofern solche Beschreibungen eine Dimension der Digitalität zu fassen vermögen, wird deutlich, dass Algorithmen Ähnlichkeiten mit Ethik haben. Sie sind nicht nur irgendeine Erfindung, sie sind eine Erfindung, die Probleme des Ethischen auf ihre Weise zutage treten lassen, sofern es um Praktiken der Verallgemeinerungen und Universalisierungen geht. Die Legitimierungs- und Begründungspraktiken des Allgemeinen und Universellen sind im Zuge der postmodernen Philosophiekritik jedoch geschwächt worden. Ihre Herausforderungen scheinen in Form des Digitalen neu virulent zu werden. Selbst wenn digitale Anwendungen auf den ersten Blick nicht direkt moralische und ethische Fragestellungen transportieren, so wird immer deutlicher, dass das Ethische ihnen als Strukturmoment innewohnt. Hierfür muss man nicht unbedingt die ganze Menschheit universalisieren. Das bloße Bilden von (Menschen)Mengen, die ein bestimmtes Produkt kaufen wollen, reicht aus. Das Modellieren von Prototypen erzeugt immer nur das, was ein Prototyp abstrahiert: an individuellen Einzelheiten, der verschiedenartigen Erscheinungsweise eines Selben und dem Phänomen der Pluralität als Kennzeichen des Lebendigen abzieht. Die Abstraktion bildet die andere Seite der Universalität. Man könnte demnach folgende These aufstellen: Der Algorithmus wird zum Medium des Ethischen, indem er dessen Problematik tradiert, neuartig sichtbar macht, verschärft. Immanuel Kant, Erfinder des Kategorischen Imperativs, also der Idee, Allgemeinheit und Universalismus als Aufgabe zu verstehen, die in einer Formel, genauer gesagt in ein paar wenigen Formeln formuliert werden können, wäre von den neuen Möglichkeiten vielleicht begeistert gewesen, zugleich aber genauso sehr frustriert. Zur Erinnerung: Kant arbeitet in der Metaphysik der Sitten und in der Kritik der Praktischen Vernunft insgesamt neun unterschiedliche Formulierungen des Kategorischen Imperativ aus. Dabei hält er fest, dass solche Varianten nötig sind, weil sie jeweils unterschiedlichen Zwecken folgen und daher auch unterschiedliche Verallgemeinerungsbegriffe nutzen müssen. In einer solchen Differenz des Verallgemeinerns müssen auch Algorithmen grundsätzlich gesichtet und gewertet werden. Diese Differenzen wahrzunehmen und zu bewerten, darin besteht die Verantwortung eines ethischen Diskurses. Andrea Günter 178 Die politischen Erfahrungen mit Algorithmen können uns dabei anleiten, nicht einfach nur Algorithmen blindlings zu vertrauen, sondern zugleich unser Verhältnis zur Zahl, zu Zahlen, zu Formeln, letztlich zu Mathematik zu überdenken sowie ihre Beziehung zum Ethischen zu entfalten. Im Folgenden wird Zahl/Zahlen und Mathematik immer wieder synonym gebraucht, da unter Mathematik erst einmal ganz allgemein die Lehre der Relationalität, die Zahlen miteinander bilden können, verstanden wird. Mathematik besteht in einer Theorie der Zahl, die davon ausgeht, dass eine Zahl nicht „für sich alleine“ steht. Eine Zahl denken beinhaltet vice versa, unausweichlich Mathematik zu denken. Eine Zahl wird immer wieder von neuem definiert, indem sie in Relation zu weiteren Zahlen, zu Dingen sowie den menschlichen geistigen Möglichkeiten gestellt wird, Relationen – Formeln und Programme – zu erfinden. Ontotheologiekritik und Zahlenethik Die bisherigen Überlegungen machen deutlich, warum eine Ethik des Algorithmus sich nicht auf die Ethik von dessen Einsatz beschränkt. Sie geht einher mit der Rekonstruktion einer Ethik der Zahl bzw. einer Ethik der Mathematik, die mehr anvisieren als eine Ethik des Gebrauchs von Zahlen oder von Mathematik (zur Ethik des Gebrauchs von Mathematik vgl. Lengnink 2002). Vom Verständnis von Zahlen/Mathematik hängt nämlich ab, was wir Algorithmen zutrauen, was wir von ihnen erwarten – erwarten wollen, können, dürfen und müssen – auch die Erwartungen spiegeln wesentliche Aspekte ihrer ethischen Struktur. Wenn für uns Zahlen und ihre Gebilde als neutral, eindeutig, absolut usw. gelten, dann prägt dieser Ruf auch das Verständnis des Algorithmischen. Wenn wir uns aber wiederum dessen Relativität bewusstwerden, dann muss das auch dazu führen, unser Verständnis von Zahl(en), Formeln, Programmen und Mathematik zu überdenken bzw. auszudifferenzieren. Mit einer solchen Rekonstruktion sind wir in guter Gesellschaft. Seit circa zwei Jahrzehnten dekonstruieren Didaktiker und Didaktikerinnen das Verständnis von Mathematik (z.B. Heintz 2000; Leuders 2010). Der mathematische Beweis als das Mittel, Eindeutigkeit zu kreieren, ist befragbar. Dass Mathematik all das zum Thema habe, was axiomatisch und beweisbar sei, wird mit der Diskussion über Primzahlen und der Auseinandersetzung damit, ob „1“ eine Primzahl sei, in Frage gestellt; das scheint nicht entscheidbar, sondern bleibt von Voraussetzungen abhängig, die nicht vereindeutigt werden können. Darüber hinaus rekonstruieren Mathe- 4. Über die Intermedialität von Ethik und Algorithmus. 179 matikdidaktikerInnen Mathematik als Lehre von Tätigkeiten. Das Beweisen ist nur eine Tätigkeit, die mit dem Praktizieren von Zahlen einhergeht (vgl. Leuders 2010). Es reiht sich ein in ein Tätigkeitsfeld, das aus Schätzen, Messen, Forschen, Experimentieren, Identifizieren, Visualisieren, Modellieren, Kalkulieren, Probleme definieren, Lösungen entwickeln, Kommunizieren usw. besteht (z.B. Heintz 2000; Prediger 2017). Mathematik wird nicht durchgeführt, Mathematik wird praktiziert. Didaktiker aber modellieren Prozesse und Praktiken des Mathematischen und folgen dabei Kriterien. Philosophiegeschichtlich sticht dabei ins Auge, dass die Mathematik – genauer gesagt, unser Allgemeinverständnis von dieser – mit dieser Deund Rekonstruktion eine Entwicklung nachholt, der die Philosophie der Moderne ausgesetzt war: die Überwindung der ontotheologischen Konzepten von Natur, Vernunft, Gott … und nun auch der Zahl/der Zahlengefüge. Ontotheologiekritik beinhaltet Konzeptionen, die so definieren, wie „Gott“ (monotheistisch) definiert wurde, etwas also als absolut, ewig, fest, eindeutig, nicht-determiniert usw. und folglich als theologische Verfahren zu enttarnen. Relationalität, Tätigkeit, Zeitlichkeit, Pluralität werden zum Ausgangspunkt eines alternativen Kategorisierens. Des Weiteren rückt als Alternative zum Sein die Ethik als Reflexionsweise des Nicht-Vereindeutigbaren, des Zufälligen und Möglichen, aber dennoch Entscheidbaren ins Zentrum (Günter 2014, v.a. 171–184; 2017, 167–171). Dass die Ontotheologiekritik nun auch in eine Kritik der Zahl und der Mathematik mündet, ist kein Zufall. Mathematik und Ontologie sind eng miteinander verflochten. Genauer gesagt waren Philosophie und Mathematik in den Anfängen der Wissenschaften eng miteinander verknüpft. Darum plädiert der französische Philosoph Alain Badiou dafür, die Mathematik wiederzuentdecken, um der Philosophie eine neue epistemologische Kontur zu geben (Badiou 2018). Für dieses Vorhaben greift er zu auf unterschiedliche Aspekte dessen, was Mathematik zu denken erlaubt. Ein zentraler Aspekt dieser Auseinandersetzung hängt mit dem mathematischen Phänomen Algorithmus zusammen: das Verhältnis von „das Eine“ und Pluralität ist grundsätzlich zu klären. Wissenschaften der Zahlen Der Zusammenhang des Verständnisses von Mathematik und einer reflektierten Einschätzung von Algorithmen kann also mit einer Kritik der Mathematik beginnen. Hier ist es wissenschaftsgeschichtlich und -politisch 5. Andrea Günter 180 aufschlussreich, die Diskussionen über das Verhältnis von Mathematik und Soziologie zu verfolgen. Während SoziologInnen aus der Systemsoziologie die Verstrickung der Soziologie mit Mathematik diskutieren (vgl. Lehmann 2018), gibt es keine "Soziologie der Mathematik". Die Mathematikdidaktik scheint die Aufgabe zu übernehmen, eine Kritische Theorie der Mathematik zu entwickeln. Hierdurch wird weniger das Verhältnis von Gesellschaft, Mathematik und Zahlengebilden, sondern vielmehr die Verbindung von Kognition, Kommunikation und Mathematik zum Anlass, Mathematikverständnisse zu diversifizieren. Die Diskussion über eine Soziologie der Algorithmen steckt in den Anfängen. Der Wissenschaftshistoriker, Mathematiker und Epistemologie Giorgio Israel vertritt die These, dass unser Verständnis von Mathematik und den Zahlen sich anders entwickelt hätte, wenn es sich nicht zusammen mit der Physik entwickelt hätte (Israel 2005). Er nimmt die Frage in den Blick, welches Verständnis von Mathematik sich entwickelt haben könnte, wenn die Entwicklung von Mathematik gemeinsam mit der von Wirtschaftswissenschaft bzw. Gesellschaftswissenschaften vonstattengegangen wäre. Israels Annahme lädt dazu ein, das Bezugsgewebe des mathematischen Denkens wahrzunehmen und es zu erweitern. Mathematik mit allen möglichen Wissenschaftsdisziplinen zu kombinieren, deren gemeinsame Entwicklung zu imaginieren und Hypothesen darüber auszubilden, was wir dann unter Mathematik und unter Zahlen verstehen könnten, heißt, unseren Sinn für diese Welterschließungs-Episteme zu vergrößern. Was aber wäre an unserem Verständnis anders, wenn sich Mathematik und Mengenlehre, Mathematik und Algorithmen zusammen entwickelt hätten? Zugleich, stimmt die These von Badiou, dass Ontologie und Mathematik sich zusammen entwickelt haben, so ohne Weiteres? Im Blick auf Platon handelt es sich um eine unzureichende Annahme. Hier kann zwar ausgesagt werden, dass sich Mathematik und Philosophie gleichzeitig entwickelt haben. Allerdings lässt sich Platons Philosophie nicht auf Ontologie reduzieren. Das wird insbesondere in seiner Schrift Politeia deutlich. Diese hat er der Fragestellung gewidmet, was Gerechtigkeit sei und wie mehr Gerechtigkeit praktiziert werden kann. Dabei wählt er als Ausgangspunkt für eine Epistemologie des Gerechteren nicht das Sein, sondern – in deutlicher Abgrenzung zur Ontologie – die Stadt und die politischen Verfassungen als Interaktions- und Organisationsweisen von Pluralität (vgl. Günter 2017, 139–154). Seine Ausführungen über Mathematik nehmen in diesem Kontext ihren Sinn an (vgl. Eckert 1995). Mit Platon gäbe es also eine Theorie von Zahl und Mathematik, die sich nicht entlang der Ontologie und Eindeutigkeit, sondern im Kontext von Pluralität, Mehrdeutigkeit und Gerechtigkeit entwickelt haben könnte. Diese teilt einen gemeinsa- Über die Intermedialität von Ethik und Algorithmus. 181 men Nenner mit der algorithmischen Denkungsart, da diese Mengen, Pluralität und Zahlen modelliert. Der wesentliche Unterschied zwischen der ontologischen und der pluralitätsorientierten Idee von Mathematik liegt nunmehr darin, dass die ontologische Sichtweise die Zahl an die Eins bindet, die zugleich „Alles“ ist (vgl. Betz 2010). Der gerechtigkeitsorientierte Definitionspunkt hingegen liegt in einem „Verhältnis“ – was wiederum dem Denken des Algorithmus entspricht, der Verhältnisse (Mengen) ins Verhältnis setzt. Das städtische Moment, das hierbei berücksichtigt werden muss, entspricht der Bedeutung des Individuellen und seinen „Begabungen“, das immer wieder von Neuem mit dem Verfassten in Beziehung gesetzt werden muss, womit sich das letztere ständig verändert. Mathematik impliziert demnach eine politische Dialektik, könnte man mit Aristoteles festhalten (Topoi, VIII3, 159a2 ähnlich Eckert 1995: 9). Platons Sinnbild für diesen Komplex ist der Kreisel: ein geometrisches Gebilde, das in seinem ersten, zugegebenermaßen idealen Bewegungsmoment höchste Mobilität mit höchster Stabilität verknüpft, außerdem in einem jeden Moment jeder Punkt an seinem Platz bleibt (Politeia 436d). Diese Kombination zu aktivieren hat zur Voraussetzung, einerseits ein Zusammenspiel aus richtigen Proportionen in einem passenden Material herauszubilden und den hergestellten Gegenstand entsprechend zu dynamisieren. Anderseits, nämlich als Sinnbild für gelingende politische Gefüge sowie für deren zugleich immer instabilen Entwicklungen, ist der Kreisel ein mathematisches Phänomen: ein spezifischer Gegenstand, der auf physikalischen und mathematischen Gesetzlichkeiten beruht und als genau dieser Formelkomplex erlaubt, Erfahrungen und Ideen des Politischen zu denken. Damit stellt der Kreisel das Beispiel für einen Gegenstand dar, dessen Figuration deutlich mehr ist als die Summe von Zahlen, mathematischen und physikalischen Gesetzlichkeiten und deren Transformation in Formeln und Programme. Indem Platon Mathematik als Diskurs über die Steuerung von Pluralität engagiert, verändert er die Bedeutung der Eins als axiomatischer Größe. Er betont ausdrücklich, dass die mathematische Bildung das Verständnis gerade dafür schärft, was überhaupt als „1“ gekennzeichnet werden kann. Statt des positivistischen Praktizierens von Zahlen als Rechnen will er mathematisches Denken fördern. Er plädiert für einen freien Umgang mit Zahlen und Zahlengebilden (vgl. a. Eckert 1995: 9). Dafür müssen Zahlengebilde diversifiziert werden. Das weist über das Phänomen der Zahl und der Eins als ontologischer Anfangsgröße hinaus. Zahlen sind für Platon darum nicht einfach quantitative, sondern vor allem qualitative Gebilde (vgl. Schneider 2010: 23). Neben die Arithmetik Andrea Günter 182 stellt er daher die Stereometrie, die Geometrie, die Astrologie und die Harmonielehre. Sie alle stellen unterschiedliche Lehren von unterschiedlichen Verhältnissen dar. Statt also von der Eins her Verhältnisse zu denken, wählt er das Denken von unterschiedlichsten Verhältnissen als Ausgangspunkt, um eine Eins, letztlich um Zahlengefüge zu denken. Diese Eins ist demnach kein Anfang, sie ist eher ein Resultat, eine Folge. Sie besteht aus einer Menge, ihrer Gestaltung und ihrer Dynamik, also aus ihren (politischen und moralischen) Gesetzen und deren Veränderungen. Darum theoretisiert Platon gerade nicht den „Staat“ als Einheit gerierende politische Größe, sondern die Stadt zusammen mit mehr Gerechtigkeit ermöglichende Verfassungsgebilden als politisches Gefüge der Vielen und Verschiedenen. Das Gleichheitszeiten, Gerechtigkeit und das unendlich Ungleiche Mathematik wird als Lehre kenntlich, die nicht (nur) die Gesetzlichkeiten des Seins, sondern gerade die der Welt – dem Seienden, so Eckart (1995: 3) – beobachtbar, definierbar und formulierbar macht: durch Formeln und Gesetze, als Tätigkeit in der Zeit. Was Platon hiermit aufgreift ist eine Bestimmung der Mathematik, die sich vom Bruch – also einem Zahlen-Verhältnis – herleitet und von der Mathematik der natürlichen Zahlen unterscheidet. Während für natürliche Zahlen nämlich gilt, dass zwischen einer Zahl und der nächsten keine weitere Zahl steht, so zeigt sich beim Bruch, das zwischen zwei Brüchen unendlich viele weitere Brüche – also Zahlengebilde – stehen können. Während die natürlichen Zahlen also eine Logik des Eindeutigen garantieren, verweisen Brüche auf das Moment des unendlich Ungleichen und der Transzendenz zwischen Zahlen. Diesen Unterschied festzuhalten, verändert grundlegend die Bedeutung der Mathematik, die auf einem Gleichheitszeichen beruht (womit der „Beweis“ als Inbegriff der Disziplin hinfällig bzw. in seiner Bedeutung relativiert wird). Oder aber das „Gleichheitszeichen“ verändert radikal seine Bedeutung: es wird zum Zeichen des unendlich Ungleichen und Transzendenten. Diesen Paradigmenwechsel zu vollziehen und unsere Einstellung zum Gleichheitszeichen zu differenzieren, ist gerade auch für den Umgang mit Algorithmen wichtig. Denn bei der Division im dualen Zahlensystem sind wir damit konfrontiert, dass dieses keine Brüche darstellen kann – es gibt kein 0,5 –, sondern auf- und abrundet, und das außerdem anders vornimmt als es im Zehnersystem üblich ist. Je nachdem, ob Preise oder Ver- 6. Über die Intermedialität von Ethik und Algorithmus. 183 sicherungsbeiträge mittels des Zehnersystems (Mensch) oder des dualen Systems (Algorithmus) ausgerechnet werden, gelangt man darum zu unterschiedlichen Ergebnissen (Kortenkamp 2018). Zugleich funktionieren Algorithmen als komplexe, großorganisierte Zahl-Formel-Verarbeitungsweisen nur in eine Richtung. Das heißt, die Umkehrrechnung führt nicht zum Ausgangspunkt zurück. Wenn beispielsweise die Farbwiedergabe eines Videos – ein großes duales Zahlenvolumen – mit einem Algorithmus in ein anderes Farbenspektrum umgewandelt wird, kann man das Ergebnis mit der Umkehrrechnung nicht wieder in die gleiche Farbstruktur des Ausgangsfotos zurückverwandeln (Kortenkamp 2018). Im Extremfall sieht man dann nur noch „schwarz“. Nun erklären die Algorithmen-Programmierer zwar, dass man die Umkehrrechnung bewältigt, indem für die Rückrechnung ein anderer Algorithmus gewählt wird. Was aber bleibt, ist die Erfahrung, dass das Gleichheitszeichen nicht länger das verspricht, was wir mit ihm verbinden. Es hat keine (Zahlen-)ontologische Basis mehr. Genau die gleiche Erfahrung aber machte Aristoteles in der Ethik mit dem Begriff der Gerechtigkeit. In der Nikomachischen Ethik definiert er diese mithilfe der Proportionalitätsformel „a : b = c : d“ (Ethik 1131a15). Wie Platon wählt er ein Verhältnis als Ausgangspunkt. Nachdem er das Gerechtigkeitsverfahren jedoch auf diese einfache Formel reduziert hat (während Platon die Verhältnisbildungsmöglichkeiten pluralisiert hat), kommt er nicht umhin zu konstatieren, dass derart niemals Gerechtigkeit erlangt werden könne, dass es vielmehr zusätzlich das Konzept der „transzendenten Gerechtigkeit“ brauche (Ethik 1137b20). Auch der Ethikdiskurs kommt nicht umhin, das Gleichheitszeichen aus der objektivierenden Interpretation zu befreien und letztlich in das Zeichen des unendlich Ungleichen und Transzendenten zu transformieren (vgl. Günter 2018). Damit lässt sich noch genauer festhalten, inwiefern Algorithmus und Ethik eine Art gemeinsames Schicksal teilen. Fazit Auf die Frage, warum es eine spezifische Algorithmenethik braucht, muss auch das Folgende geantwortet werden. Es braucht eine Algorithmenethik auch, weil Algorithmen dazu herausfordern, unser Verhältnis zu Zahlen, zur Mathematik und zu Gleichheitszeichen zu differenzieren und deren Verwandtschaft mit Herausforderungen des Ethischen zu reflektieren. Hierfür ist auf Seiten der Ethik – nicht nur der der Zahlen, gerade auch der des Politischen – zwischen einer Ethik der Ontologie und der der Ge- 7. Andrea Günter 184 rechtigkeit zu unterscheiden. Denn wie gezeigt werden konnte, handelt es sich um unterschiedliche philosophisch-hermeneutische Zirkel, die jeweils aktiviert werden. Für das Verhältnis von Algorithmen und Individualität kann präzisiert werden: Individualität scheint im Transzendenten aufzugehen, sie zu überschreiten und aufzulösen. Darin scheint der besondere Reiz algorithmischer Verarbeitungsweisen zu liegen. Für unsere Haltung gegenüber Algorithmen müsste dieser Mechanismus daher zu der Erkenntnis führen, dass die Epistemologie der Gerechtigkeit den denkerischen Rahmen bilden müsste, in der wir diese grundsätzlich einschätzen, profilieren und beurteilen. Digitalität macht den Zusammenhang von aus Zahlenverständnis und Algorithmen basierten Verallgemeinerungspraktiken (hin zur Eins und Eindeutigkeit von Mengen) sichtbar, dessen immanente Struktur auf Politik (Verarbeitung von Pluralität), Ethik (qualifizierende Praxis des Möglichen) und deren Zahlenverständnissen beruht. Ethik wäre derart kein Kommentar von außen, politische Verfassungen wären in diesen Verfahren als immanenter Faktor zu behandeln, statt das Politische auf die Furcht um die Auswirkungen auf das (demokratische) Politische zu reduzieren. Hier wäre eine echte Interdisziplinarität gefragt, in der Verfassungsund Pluralitätstheoretiker ebenso wie Mathematikdidaktiker Algorithmen mitgestalten und Ethiker sich onto-theologie-kritisch mit der Annahme der Eins als Bedingung ihres eigenen Diskurses auseinandersetzen, um dadurch die ethische Dimension, die in Digitalität eingeschrieben ist, explorieren und qualifizieren zu helfen. Für die Kommunikations- und Medienethik bedeutet eine solche Sichtung, sich des Gleichen nicht allein als eine beobachtende und kommentierende Anwendungsethik zu verstehen. Sie kann vielmehr die unbewussten Zahlentheoreme von Ethik-Diskursen analysieren, um diese entlang der Medialität von unterschiedlichen Zahlensystemen zu rekonstruieren. In der Folge kann sie helfen zu differenzieren, welche Zahlen-Konstrukte mit welchen ethischen Konzepten kompatibel sind. Sie kann entscheiden helfen, welche Zahlen-Medialität für welchen Sachbezug angemessen ist, so dass ein Sachbezug in seiner ethischen Dilemma-Eigenart in Bezug auf Zahlensysteme profiliert werden kann. Derart kann sie begründen helfen, inwiefern ein wie auch immer geartetes, also in Pluralität basiertes EINES (ge)recht sein könnte. Über die Intermedialität von Ethik und Algorithmus. 185 Literatur Aristoteles: Nikomachische Ethik, verschied. Ausgaben. Aristoteles: Rhetorik, verschied. Ausgaben. Aristoteles: Topoi, verschied. Ausgaben. Badiou, Alain (2018): Lob der Mathematik. Wien: Passagen-Verlag. Betz, Otto (2012): „Ein und Alles". Die Eins als Inbegriff des Anfangs und des umfassenden Ganzen. In: Jung, Hermann (Hg.): Symbole des Übergangs. Wesen anderer Sphären. Frankfurt am Main; Berlin; Bern; Wien [u.a.]: Lang. S. 229–236. Eckert, Thomas (1995): Die zentrale Bedeutung der Mathematik in Platons Lehrplan. Online verfügbar unter: https://www.mathematik.uni-marburg.de/~eckert/script s/politeia.pdf (Abfrage am 3.3.2020). Israel, Giorgio (2005): Die Mathematik des „homo oeconomicus“. In: Jochen Brüning (Hg.): Die mathematischen Wurzeln der Kultur. Mathematische Innovationen und ihre kulturellen Folgen, München: Beck, S. 153–172. Günter, Andrea (2010): Platons Politeia. Philosophie, Pluralität, Gerechtigkeit, Passagen Verlag: Wien. Günter, Andrea (2014): Konzepte der Ethik – Konzepte der Geschlechterverhältnisse, Passagen Verlag: Wien. Günter, Andrea (2016): Reconstructing ethics. Hans Jonas’ “The Imperative of Responsibility”, future generations and the ironical situation of ethics, http:// www.andreaguenter.de/9-reconstructing-ethics-hans-jonas-the-imperative-of-responsibility-future-generations-and-the-ironical-situation-of-ethics (eingestellt am 5.1.2016). Günter, Andrea (2017): Wertekulturen, Fundamentalismus und Autorität. Zur Ethik des Politischen, Passagen Verlag: Wien. Günter, Andrea (2018): Observing the use of equality and inequality in Aristotle’s discourse about justice. A deconstructive rereading for a just epistemology of diversity, Manuskript, im Erscheinen begriffen. Heintz, Bettina (2000): Die Innenwelt der Mathematik. Zur Kultur und Praxis einer beweisenden Disziplin, Wien [u.a.]: Springer. Hustedt, Carla (2020): Alexa, bist du Feministin? Plädoyer für emanzipatorische Perspektiven auf algorithmische Systeme. Online verfügbar unter: https://algorithmen ethik.de/2020/03/06/alexa-bist-du-feministin-plaedoyer-fuer-emanzipatorische-pe rspektiven-auf-algorithmische-systeme/ (Abfrage am 6.3.2020). Kortenkamp, Ulrich (2018): Think Big. Mathematik und Digitalisierung, Vortrag IMBF PH Freiburg – FACE, 2. Oktober. Lengnink, Katja (2002): Mathematisches in der Kommunikation. In: Susanne Prediger (u.a.) (Hg.), Mathematik und Kommunikation, Mühltal: Verl. Allg. Wiss., S. 121–137. Leuders, Timo (2010): Zahlenforschung und Beweisen, in: ders., Erlebnis Arithmetik zum aktiven Entdecken und selbständigen Arbeiten, Heidelberg: Spektrum Akademischer Verlag, S. 41–70. Andrea Günter 186 Lischka, Konrad/Stöcker, Christian (2017): Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Arbeitspapier. Online verfügbar unter https://algorithmenethik.de/2017/06/19/digitale-oeffentlichkeitwie-algorithmische-prozesse-den-gesellschaftlichen-diskurs-beeinflussen (Abfrage am 23.6.2018). Lehmann, Marion (2018): Eine schicksalhafte Verbindung: Mathematik und Soziologie, in: Nickel G., Helmerich M., Krömer R., Lengnink K., Rathgeb M. (Hg.): Mathematik und Gesellschaft. Historische, philosophische und didaktische Perspektiven, Wiesbaden: Springer Spektrum, S. 81–92. Platon: Politeia, verschied. Ausgaben Prediger, Susanne (2017): „Kapital multipliziert durch Faktor halt, kann ich nicht besser erklären“- Sprachschatzarbeit für einen verstehensorientierten Mathematikunterricht. In B. Lütke, I. Petersen, & T. Tajmel (Hg.), Fachintegrierte Sprachbildung – Forschung, Theoriebildung und Konzepte für die Unterrichtspraxis, Berlin; Boston: De Gruyter, S. 229–252. Schneider, Gregor (2012): Mathematischer Platonismus. Beiträge zu Platon und zur Philosophie der Mathematik. Online verfügbar unter: Dokumente/0 %20Digitalisi erung/Ethik%20der%20Zahl/Schneider%20Platon%20Mathematik.pdf (Abfrage am 3.3.2020). Über die Intermedialität von Ethik und Algorithmus. 187 Sachverhalte und Deutungen in der postfaktischen Zeit Teil III: Wahrhaftigkeit in den Medien – jenseits von Gut und Böse Sonja Schwetje1 Abstract Der Kampf gegen Desinformation verlangt konkretes Handeln auf verschiedenen Ebenen. Die Europäische Kommission richtete ein Beratungsgremium zum Kampf gegen Desinformation ein. Die Gruppe mit 39 Experten und Expertinnen aus Wissenschaft, Nachrichtenmedien, Organisationen der Zivilgesellschaft und Online- Plattformen nahm 2018 ihre Arbeit auf. Aufgabe war, das Ausmaß von Desinformation und ihren Folgen einzuschätzen sowie bereits getroffene Maßnahmen zu evaluieren. Handlungskonzepte sind auch in den einzelnen Medienhäusern nötig. Dazu gehört die in der RTL Group Ende 2018 gestartete Initiative „Factory – Filtering Fakes From Facts“. Zielgruppe sind all jene im Unternehmen, die sich gegen Desinformation im Internet engagieren sowie fördern wollen, dass insbesondere jüngere Nachrichtenkonsumierende medienkompetenter werden und wissen, wie man sich glaubwürdige Informationen beschaffen kann. Ein virtuelles Trainingsprogramm und ein internationaler Hackathon sollten Impulse liefern für die Entwicklung von Produkten und Dienstleistungen im Feld der Medien- und Digitalkompetenz. Solche Themen werden als Führungsthemen behandelt; deshalb ist die Factory ein Projekt des News Synergy Committee, einer Unternehmenseinheit, in der sich redaktionelle Führungskräfte zu Strategien im Informationsjournalismus austauschen. Kernanliegen ist die Orientierungssuche im Digitalen. Diese war Thema einer Keynote für die Tagung „Kommunikations- und Medienethik reloaded“; die Ausführungen werden hier in einer aktualisierten Version dargelegt. 1 ntv Chefredakteurin Sonja Schwetje ist seit 1998 bei der Mediengruppe RTL Deutschland tätig. Nach ihrem Studium der Betriebswirtschaft und Journalistik an der Universität Hamburg und in den USA begann die Diplomkauffrau ihre berufliche Laufbahn als Volontärin bei RTL Nord. Danach folgten Stationen als Reporterin, Redakteurin und Chefin vom Dienst. 2005 wechselte Schwetje als Redaktionsleiterin zu RTL West nach Köln. Hier war sie bis zu ihrem Wechsel als Nachrichtenchefin zu ntv im November 2010 auch als Chefin vom Dienst und als Moderatorin der Sendung "Guten Abend RTL" im Einsatz. Sie gehört einem Expertengremium an, das die Europäische Kommission als Beratungsgremium zum Kampf gegen Desinformation einsetzte. 191 Orientierungssuche im Digitalen – das Thema dieses Buches liefert ein exzellentes Stichwort: Orientierung. Dieser Begriff ist für unsere redaktionelle Arbeit bei ntv in jeder Hinsicht maßgeblich. Orientierung ist genau das, was wir unseren Zuschauern und Usern auf allen Plattformen geben möchten. Orientierung in einer komplexen Welt. Orientierung als Unterstützung für alle, die diese Welt besser verstehen wollen. Orientierung, um sich eine eigene Meinung zu bilden, in einem Umfeld, in dem mächtige globale Player Meinung systematisch manipulieren können. Die Art der Manipulation kann viele Facetten haben. Die subtilste, und vielleicht gefährlichste, ist das, was man oft unter dem Begriff „Fake News“ versteht. Dabei ist der Begriff ein Widerspruch in sich. Schließlich sind News der beste Weg, um Fakes zu bekämpfen. Und der Begriff Fake News steht mittlerweile exemplarisch für die Verunglimpfung eines Berufsstandes, der sich der Aufdeckung von Lügen, Desinformation und Unwahrheiten verschrieben hat. Zweifellos untergraben Fehler, die wir als Journalisten machen, die Glaubwürdigkeit. Aber um den Begriff zu schärfen, ist es wichtig, dass wir unterscheiden: Gemeint ist die gezielte Manipulation und Verbreitung von Information zu einem bestimmten Zweck. Was verbirgt sich also hinter dieser Form von Online Desinformation, wie es treffenderweise heißen muss? Zum Beispiel ein bewusstes Agenda- Setting. Bestimmte Themen werden unter sachkundiger Zuhilfenahme der Plattform-Algorithmen ins Bewusstsein von Usern gedrückt. Oder das gezielte Zündeln: Posts oder Kommentare, die treffsicher bestimmte Usergruppen erreichen, die empfänglich für polarisierende Botschaften sind. Botschaften, die genau bei ihnen auf fruchtbaren Boden fallen, wo sie verstärkt, zugespitzt, verzerrt und exponentiell weitergeleitet werden an Menschen, deren Weltbild sie bestätigen. Eine weitere Ausprägung von Online Desinformation zeigt sich in einer verzerrten Relation. Eine kleine, laute Minderheit erweckt den Eindruck, sie vertrete eine Mehrheitsmeinung. Das wiederum bringt Unentschlossene häufig zu der irrigen Annahme, wenn alle so dächten, müsse da wohl etwas Wahres dran sein. In demokratischen Gesellschaften ist der freie Zugang zu Informationen aus möglichst vielen Quellen ein wesentlicher Grundpfeiler. Menschen sollen sich ihre eigene Meinung bilden, basierend auf Fakten. Was aber, wenn sie nicht mehr wissen, was ein Fakt ist und was ein Fake? Wenn sie das Vertrauen in die Medien, in demokratische Institutionen und gewählte Volksvertreter verlieren, weil sie ihnen eine eigene Agenda unterstellen? Es gibt nicht wenige intelligente und gut gebildete Menschen, die glauben, Regierungssprecher Steffen Seibert telefoniere jeden Sonja Schwetje 192 Morgen mit allen Nachrichtenredaktionen in Deutschland und gäbe ihnen die Themen des Tages vor. Genauso wie es Menschen gibt, die eine nachweislich als Lüge aufgedeckte Geschichte mit der Bemerkung weiterverbreiten: „Ich weiß, dass es nicht stimmt, ich glaube es aber trotzdem.“ Herausfordernde Zeiten für Journalisten. Und ein Ansporn für uns alle, unseren Teil dazu beizutragen, dass journalistische Inhalte glaubwürdig bleiben und auch im digitalen Dschungel gefunden werden. Was können wir also tun? Zum einen: Sauber journalistisch arbeiten. Unseren Nachwuchs ausbilden, unsere Kolleginnen und Kollegen in den Redaktionen regelmäßig weiterentwickeln und ihnen den Raum geben für Recherche. Mit Hilfe von Korrespondenten, die sich vor Ort ein eigenes Bild machen, aber auch mit Hilfe von innovativer Technologie. Wir haben in der Mediengruppe RTL – wie viele andere Nachrichtenorganisationen auch -ein virtuelles Verifizierungsteam gegründet. Rund um die Uhr prüfen Experten mit besonderem Know-how und modernsten Tools die Echtheit von Videos und Fotos. Jedes Team bei ntv, das direkt am Sendegeschehen beteiligt ist, erhält regelmäßige Schulungen zu grundlegenden Verifizierungstechniken. Das Team besonders ausgebildeter Experten befasst sich zudem speziell mit den etwas komplizierteren Fällen. Ist eine Information, ein Bild, eine Szene echt? Oder manipuliert? Oder aus dem Kontext gerissen? Andreas Greuel leitet das Verifizierungsteam von RTL und ntv. Er erläutert in internen und externen Schulungen, wie vorgegangen wird, um zu sehen, was man leicht übersieht. Metadaten, Abgleiche von Räumen, Umgebungen, Kontext-Hinweise auf Kleidung oder Einrichtungsgegenständen – all dies sind Hinweise, die in Summe Grundlage für die Einschätzung der Verifizierungsexperten sind. Ein anschauliches Beispiel ergab sich bei einer Nachrichtenlage im September 2018 in Chemnitz. Dort war es mehrfach zu Ausschreitungen gekommen, nachdem am Rande des Chemnitzer Stadtfestes (24. bis 26. August) ein Mann durch Messerstiche tödlich und zwei weitere schwer verletzt worden waren. Rechte und rechtsextreme Gruppen ordneten dem mutmaßlichen Täter einen Migrationshintergrund bzw. Flüchtlingsstatus zu und riefen auf dieser Basis zu Protesten auf. Organisierte Rechte und Neonazis griffen Personen an, die sie für Migranten hielten, Gegendemonstranten, Polizisten, Journalisten und auch Passanten. Der damalige Präsident des Bundesamtes für Verfassungsschutz, Hans-Georg Maaßen, bewertete die Ausschreitungen öffentlich so irreführend, dass er unter anderem als Folge dessen in den einstweiligen Ruhestand versetzt wurde. Er hatte beispielsweise ein ins Netz geladenes Video als gefälscht bezeichnet, das zeigt, wie mehrere Männer andere beschimpfen und jagen. Greuels Wahrhaftigkeit in den Medien – jenseits von Gut und Böse 193 Team stellte fest, dass das Video kein „Fake“ war, sondern authentisch. Grundlage seiner Bewertung war unter anderem ein Abgleich der zeitlichen und räumlichen Situation auf dem Video mit der Realität: Eine Kirche sowie Busse der Chemnitzer Verkehrsbetriebe gaben Hinweise auf die korrekte Zuordnung des Ortes. Ein T-Shirt mit einem dem rechtsgerichteten Milieu zuzuordnenden Aufdruck belegte den Kontext. In anderen Fällen, z.B. beim Höhlendrama in Thailand 2018, ergab die Prüfung hingegen, dass es sich bei einem bestimmten Video um ein „Fake“ handelte. Die rund 100.000fach geklickten und vielfach geteilten Bilder stammten nicht aus der Höhle, in der das Unglück geschah. Wir als Journalisten und als Medienhaus – Mediengruppe RTL sowie RTL Group – wollen Teil der Lösung sein. Als die EU Kommission dieses Thema als gesamtgesellschaftliche Herausforderung in Angriff nahm, bildete sie eine Expertengruppe mit Vertretern aller beteiligten Interessensgruppen. Ich durfte in dieser Gruppe die RTL Group vertreten. Der Abschlussbericht der Experten ist Grundlage für weitere Maßnahmen der EU Kommission, von denen einige bereits umgesetzt wurden (Europäische Kommission 2018a, 2018b). Zwei Maßnahmen möchte ich hier besonders hervorheben. Eine ist der Code of Practice, den die Plattformen erarbeiten sollten, um Manipulationsmöglichkeiten entgegenzuwirken. Hier geht es um einen Rahmen, der bestimmte Prinzipien sicherstellen soll, die für Massenmedien wie TV und Radio durch ein komplexes Konstrukt an Regulierung bereits gelten: Die Achtung von Wahrheit und Menschenwürde, Unabhängigkeit der Berichterstattung, die Pflicht zur Richtigstellung, Vermeidung von Diskriminierung, etc. Die bestehenden Regulierungen für Print oder Broadcaster sind nicht eins zu eins anwendbar auf Plattformen. Es braucht aber auch für sie messbare Kriterien, die die Effektivität der Maßnahmen sicherstellen und gleichzeitig vermeiden, dass es zu einer Einschränkung von Meinungs- oder Pressefreiheit kommt. Der Code of Practice ist seit Oktober 2018 in Kraft und wurde von Facebook, Google, Microsoft, Mozilla, Twitter und verschiedenen europäischen Branchenverbänden unterzeichnet (Europäische Kommission 2018c). Im Oktober 2019 folgte eine erste Eigenbewertung der Plattformen. Die Europäische Kommission evaluiert nun, ob die Ergebnisse der Selbstregulierung durch den Code of Practice ausreichend sind. Abhängig von dem Ergebnis wird die Kommission weitere Schritte vorschlagen, ggf. auch regulatorischer Art. In ihrem Strategiepapier für die Digitalpolitik der Europäischen Kommission ist die Mitteilung „Gestaltung der digitalen Zukunft Europas“ enthalten, welche einen „Europäischen Aktionsplan für Demokratie“ ankündigt (Europäische Kommission 2020a). Die in der „Gemeinsame Mittei- Sonja Schwetje 194 lung – Bekämpfung von COVID-19-Desinformation: Fakten statt Falschmeldungen“ vorgeschlagenen Maßnahmen werden in den angekündigten Aktionsplan einfließen, das Thema Online Desinformation könnte dort insgesamt verankert werden (Europäische Kommission 2020b). Diskutiert wird zudem auch eine Verortung im Digital Services Act (Europäische Kommission 2020c). Eine weitere Empfehlung der High Level Expert Group an die EU Kommission ist die Stärkung von Medienkompetenz. Je bewusster sich Menschen darüber sind, wie Informationen im Netz manipuliert und verbreitet werden können, warum sie als User genau die Nachrichten erhalten, die sie erhalten, und warum Algorithmen möglicherweise verhindern, dass andere Nachrichten überhaupt zu ihnen durchdringen, desto besser. Ein hohes Maß an Sensibilität und Skepsis ist das beste Mittel, um Resilienz gegen Online Desinformation zu schaffen. Hier kommen erneut die traditionellen Medienmarken ins Spiel. Ein USP von professionellem Journalismus ist, dass er Sachverhalte transparent und ausgewogen von allen Seiten beleuchtet und den Menschen die Chance gibt, sich eine eigene Meinung zu bilden. Denn zu wissen, wer der Absender einer Information ist, macht einen großen Unterschied in ihrer Bewertung und Einordnung. Das zu erkennen, gehört zur Medienkompetenz dazu. Aus diesem Grund hat die RTL Group einen Ideenwettbewerb ausgerufen, der mit kreativen digitalen Produkten Bewusstsein für die Mechanismen im Netz schärfen soll. Hier kommen wir wieder zurück zum Ausgangspunkt meiner Gedankengänge: Orientierung. Alles, was auf dieses Thema einzahlt, hilft im Kampf gegen Online Desinformation. Ob bei Wahlen, gesellschaftlichen Debatten oder vermeintlichen Erfolgsbilanzen von Politikern oder Managern. Jeder kann für sich eine Bewertung der Informationslage vornehmen, die mag anderen gefallen oder auch nicht. Entscheidend ist aus journalistischer Sicht, dass am Ende eine Meinung steht, die auf Fakten basiert und nicht ausschließlich auf Emotionen. Wenn wir das erreichen, haben wir viel gewonnen. Literatur Europäische Kommission (2018a): Tackling online disinformation: a European Approach, 26.4.2018. Online verfügbar unter: https://ec.europa.eu/digital-single-mar ket/en/news/communication-tackling-online-disinformation-european-approach Wahrhaftigkeit in den Medien – jenseits von Gut und Böse 195 Europäische Kommission (2018b): A multi-dimensional approach to disinformation. Report of the independent High level Group on fake news and online disinformation, 12.3.2018 Online verfügbar unter: https://ec.europa.eu/digital-single-market/en/ news/final-report-high-level-expert-group-fake-news-and-online-disinformation Europäische Kommission (2020a): Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Eine europäische Datenstrategie, 19.2.2020. Online verfügbar unter: https://ec.europa.eu/info/sites/info/files/communication-europe an-strategy-data-19feb2020_de.pdf Europäische Kommission (2018c): Code of Practice on Disinformation, 26.9.2020. Online verfügbar unter: https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation Europäische Kommission (2020b): Gemeinsame Mitteilung an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen. Bekämpfung von Desinformation im Zusammenhang mit COVID-19 – Fakten statt Fiktion, 10.6.2020. Online verfügbar unter: https://eur-lex.europa.eu/legal-content/DE/TXT/?qid=1591873061977&uri=CEL EX:52020JC0008 Europäische Kommission (2020c): The Digital Services Act Package. Online verfügbar unter: https://ec.europa.eu/digital-single-market/en/digital-services-act-package Ukrow, Jörg / Etteldorf, Christina (2018): „Fake News“ als Rechtsproblem“ des EMR. Band 5 der Reihe EMR-Skript des Instituts für Europäisches Medienrecht. Online verfügbar unter https://emr-sb.de/fake-news-als-rechtsproblem/. Sonja Schwetje 196 „Troll“ oder „Glaubenskrieger“? Zur Differenzierung dysfunktionaler Formen der Medienkritik in Onlinekommentaren Tobias Eberwein Abstract Praktische Erfahrungen mit Onlinekommentaren auf journalistischen Nachrichten-Websites haben gezeigt, dass diese nicht automatisch für mehr Vielfalt sorgen, sondern im Gegenteil häufig dysfunktionale Effekte wie Hate Speech und systematisches Trolling mit sich bringen. Solchen Problemen stehen Journalisten bislang meist hilflos gegenüber – insbesondere, wenn sie dabei selbst zur Zielscheibe der Kritik werden. Ein Grund dafür ist mangelndes Hintergrundwissen über die kritischen Kommentierer: Was genau bringt Nutzer journalistischer Web-Angebote dazu, in Kommunikationsmuster wie Trolling oder Hate Speech zu verfallen? Was sind ihre Motive für Kritik an Journalisten und ihrer Berichterstattung? Ein zweistufiges qualitatives Forschungsdesign ermöglicht einen nuancierten Blick auf aktuelle Phänomene dysfunktionaler Anschlusskommunikation im Onlinejournalismus. Interviews mit Kommentierern zeigen, dass es den typischen ‚Troll’ – zumindest im deutschen Sprachraum – nicht gibt. Stattdessen erscheint eine Differenzierung anhand unterschiedlicher Motive für Kritik am Journalismus angebracht. Nicht selten lassen die interviewten Mediennutzer ein ausgeprägtes politisches oder anderswie beeinflusstes Sendungsbewusstsein erkennen, das sie eher als ‚Glaubenskrieger’ erscheinen lässt – und unterschiedliche Reaktionsmöglichkeiten offenbart. Vereint sind sie in ihrer Unzufriedenheit mit der Qualität journalistischer (Massen-)Medien, die sie kritisch und oft im scharfen Ton zum Ausdruck bringen. Ausgangslage und Zielsetzung Partizipation und Produsage galten sowohl in der Medienpraxis als auch in der Medienforschung lange als Zauberformel (vgl. Bruns 2008). Mittlerweile ist die anfängliche Euphorie in der Diskussion über Nutzerbeteiligung in Medien und Journalismus jedoch einer deutlich wahrnehmbaren Ernüchterung gewichen. Zwar ist nach wie vor unbestritten, dass manche Formen der kollaborativen Inhalteproduktion durchaus einen positiven Einfluss auf die Qualität 1. 197 der journalistischen Berichterstattung haben können. So verdeutlichen empirische Studien beispielsweise, dass Hinweise durch Nutzer über Onlinekommentare oder Social Media oft ein hilfreiches Instrument sind, um auf vernachlässigte Themen oder Fehler in der Berichterstattung aufmerksam zu machen und diese zu korrigieren (vgl. etwa Heikkilä et al. 2012; Neuberger et al. 2011). Im Idealfall können sie sogar zur Grundlage für einen gleichberechtigten deliberativen Diskurs werden, der alle am Produktions- und Rezeptionsprozess beteiligten Akteure einbezieht (vgl. Ziegele 2016). Allerdings zeigen praktische Erfahrungen mit Onlinekommentaren, dass diese keineswegs automatisch zu einem besseren Journalismus führen, sondern im Gegenteil häufig dysfunktionale Effekte mit sich bringen. Typischen Problemen wie Hate Speech und systematischem Trolling stehen Journalisten bislang meist hilflos gegenüber – insbesondere, wenn sie dabei selbst zur Zielscheibe der Kritik werden. Bisherige Brancheninitiativen, die es sich zum Ziel gesetzt haben, Journalisten beim Umgang mit Onlinehass zu unterstützen (vgl. etwa den Fünf-Punkte-Plan des Ethical Journalism Network – EJN o. J.), konnten daran wenig ändern. Und auch der medienethische Diskurs bietet bis dato kaum angemessene Orientierungswerte: Die Auseinandersetzung mit einer Ethik der Produsage (vgl. Köberer 2016) steckt gegenwärtig noch in den Kinderschuhen und wirft mehr Fragen auf, als sie Antworten bietet. Diese Schieflage mag auch eine Folge mangelnden Hintergrundwissens über die Urheber kritischer Onlinekommentare sein. Denn obwohl Medienforscher und -praktiker seit mindestens einem Jahrzehnt intensiv über verschiedene Phänomene der Nutzerpartizipation diskutieren, ist nach wie vor unklar, was genau manche Nutzer journalistischer Webangebote dazu treibt, in disruptive Kommunikationsmuster wie Flaming oder Trolling zu verfallen. Die hier zusammengefasste Studie verfolgt das Ziel, die individuellen Umstände und Beweggründe störender Kommentierer sowie vor allem ihre spezifischen Motive für Kritik an Medien und Journalismus auf der Grundlage einer qualitativen Interview-Studie zu hinterfragen. Das Forschungsdesign und ausgewählte Befunde werden nach einer kurzen Synopse der bisherigen Forschung in diesem Themenfeld genauer vorgestellt. Hintergrund und offene Fragen Die Untersuchung von Partizipation in Journalismus und Medien ist in den zurückliegenden Jahren zu einem Kernthema der empirischen Journa- 2. Tobias Eberwein 198 lismusforschung geworden. Gerade Nutzerkommentare zu journalistischer Berichterstattung haben sich zu einem beliebten Untersuchungsgegenstand entwickelt, der eine Fülle an nationalen und internationalen Studien motiviert hat (vgl. etwa den Überblick bei Barnes 2018). Dabei sind vielfältige Fragestellungen mit unterschiedlicher Trageweite und variierendem Ertrag für die redaktionelle Praxis erörtert worden. In Anlehnung an Springer (2014) lässt sich der aktuelle Forschungsstand zu Nutzerkommentaren im Journalismus grob anhand der drei Prozessstufen öffentlicher Kommunikation (Input, Throughput, Output) systematisieren: • In der Input-Phase sind vor allem die Entstehungsbedingungen von Nutzerkommentaren im Blick. Untersucht wurden hier beispielsweise die Einstellungen journalistischer Akteure zu Nutzerkommentaren und konkrete redaktionelle Strategien zum Umgang mit kommentierenden Publikumsakteuren (vgl. Braun/Gillespie 2011; Chen/Pain 2017; Graham/Wright 2015; Heise et al. 2014; Obermaier et al. 2018; Reich 2011) – oder auch die Frage, welche inhaltlichen und formalen Merkmale journalistischer Beiträge besonders häufig Kommentare hervorrufen (vgl. z. B. Tsagkias et al. 2010; Weber 2014). • In der Throughput-Phase richtet sich der Fokus auf Inhalt und Qualität der Nutzerdiskurse. In diesem Kontext wurden nicht nur die inhaltlichen Charakteristika von Kommentaren in unterschiedlichen Themenfeldern nachgezeichnet; vor allem analysierten zahlreiche Studien, inwieweit Nutzerkommentare den normativen Anforderungen deliberativer Diskurse genügen – mit durchaus widersprüchlichen Ergebnissen (vgl. Rowe 2015; Ruiz et al. 2011; Strandberg/Berg 2015; aber auch Coe et al. 2014). Relevant ist dabei nicht zuletzt die Frage, welche Ziele Mediennutzer eigentlich mit dem Verfassen von Onlinekommentaren verfolgen (vgl. Diakopoulos/Naaman 2011; Springer et al. 2015; Ziegele et al. 2013). • In der Output-Phase interessiert in erster Linie die Wirkung von Nutzerkommentaren. Untersucht wurden dabei die Einflüsse auf unterschiedlichste abhängige Variablen – wie beispielsweise die öffentliche Meinung (vgl. Friemel/Dötsch 2015), Risikowahrnehmungen (vgl. Anderson et al. 2014), Third-Person-Effekte (vgl. Houston et al. 2011), Vertrauen in Journalismus (vgl. Marchionni 2014) oder die Wahrnehmung journalistischer Qualität (vgl. Kümpel/Springer 2016; Prochazka et al. 2018). Studien wie diese machen deutlich, dass die empirische Forschung zu Nutzerkommentaren im Journalismus mittlerweile hoch spezialisiert ist. Die verschiedenen Ausprägungen dysfunktionaler Anschlusskommunikation, „Troll“ oder „Glaubenskrieger“? 199 die seit neuestem verstärkt unter dem Dachbegriff „dark participation“ (Quandt 2018) diskutiert werden, bleiben dabei bis heute allerdings unterrepräsentiert. Zwar liegen auch in der Kommunikationswissenschaft mittlerweile zahlreiche theoretisch und empirisch differenzierte Auseinandersetzungen mit Hassrede (z. B. Sponholz 2018) oder Trolling (z. B. Hardaker 2010) vor – und es scheint unbestritten, dass derartige Phänomene die Funktionalität des Journalismus in vielerlei Hinsicht beeinträchtigen (vgl. dazu die Fallstudien von Aghadiegwu/Ogbonna 2015; Edström 2016; Erjavec/Poler Kovačič 2012; Harlow 2015; für eine lesenswerte journalistische Auseinandersetzung mit Onlinetrollen vgl. Gorman 2019). Nichtsdestotrotz sind viele drängende Fragen, die gerade auch aus medienpraktischer Perspektive relevant erscheinen, nach wie vor ungeklärt. Was genau bringt Nutzer journalistischer Web-Angebote dazu, in Kommunikationsmuster wie Trolling oder Hate Speech zu verfallen? Was ist ihr spezifischer (biografischer, politischer usw.) Hintergrund? Was ist ihr Urteil über die Funktionen und Leistungen des Journalismus und der Medien? Was sind ihre genauen Motive dafür, Journalisten und ihre Berichterstattung zu kritisieren? Und welchen Umgang wünschen sie sich mit Redaktionen und Gleichgesinnten? Diese Aspekte stehen im Fokus der empirischen Studie, die in den nachfolgenden Abschnitten präsentiert wird. Forschungsdesign Zur Beantwortung der offenen Fragen wurde ein qualitatives Forschungsdesign mit zwei empirischen Teilschritten realisiert: In einem ersten vorbereitenden Schritt führten der Autor und sein Team1 informelle Hintergrundgespräche mit Onlinejournalisten und Social- Media-Redakteuren, die für einige der führenden Nachrichten-Websites im deutschen Sprachraum tätig sind – beispielsweise tagesschau.de, FAZ.net, Rheinische Post Online und manche mehr. Das Ziel dieser Vorerhebung war ein zweifaches: Zum einen sollten auf diese Weise typische Themenfelder identifiziert werden, in denen störende Nutzerkommentare am häufigsten vorkommen (wie z. B. Migration, der Nahost-Konflikt, aber auch Themen wie Gender, Gesundheit/Ernährung usw.); zum anderen sollten auch konkrete Hinweise auf typische Nutzerprofile von auffälligen Kommentierern 3. 1 Der Autor wurde in verschiedenen Phasen des Forschungsprozesses von Miriam Bunjes, Michael Hackl und Susanne Behrens unterstützt. Ihnen gilt sein herzlicher Dank! Tobias Eberwein 200 (und, sofern möglich, auf vielversprechende Strategien zur Kontaktaufnahme) gesammelt werden. Beide Typen von Hintergrundinformationen wurden anschließend genutzt, um die Hauptphase der Erhebung vorzubereiten und zu systematisieren. Dieser zweite Schritt bestand aus problemzentrierten Interviews (Witzel 2000) mit Mediennutzern, die regelmäßig und in großem Umfang dysfunktionale Kommentare auf journalistischen News-Plattformen veröffentlichen. Sie wurden gezielt ausgewählt anhand der Kriterien, die sich aus den Einsichten der Vorstudie ableiten ließen, um somit ein möglichst breites Spektrum der Auseinandersetzung mit verschiedenen journalistischen Medien und unterschiedlichen kontroversen Themen zu repräsentieren. Im Sinne des Prinzips der theoretischen Sättigung (Corbin/Strauss 2015) wurde das Sample so lange um neue Teilnehmer erweitert, bis sich ihre Argumente wiederholten und keine neuen Einsichten mehr für die Entwicklung weiterer analytischer Kategorien versprachen. Die Interviews folgten einem halbstandardisierten Leitfaden, der es den Interviewern ermöglichen sollte, die für die Analyse relevanten Themen zu strukturieren und sie gemeinsam mit den Gesprächspartnern möglichst umfassend zu reflektieren. Trotz erheblicher Probleme bei der Kontaktaufnahme mit den Respondenten ließen sich während des Sommersemesters 2017 schlussendlich 22 Telefoninterviews verwirklichen, von denen viele bis zu 80 Minuten dauerten. Sie wurden aufgenommen und anschließend transkribiert, um auf dieser Grundlage eine strukturierende qualitative Inhaltsanalyse (Mayring 2010) durchführen zu können. Der folgende Abschnitt dieses Beitrags fasst einige Kernbefunde des zweiten Teils der empirischen Studie zusammen.2 Ausgewählte Befunde Wer sind die störenden Kommentierer? Im Zuge der Datensammlung war zunächst zu klären, mit wem es die Interviewer überhaupt zu tun hatten: Welcher persönliche, berufliche, biografische und ggf. auch politische Hintergrund zeichnet die disruptiven Kommentierer im Sample der Studie aus? Angesichts der geringen Stichprobengröße lässt die hier dokumentierte Erhebung selbstredend keine sta- 4. 4.1 2 Für genauere Informationen zur Studie sei auf die ausführlichere Darstellung bei Eberwein (2019, 2020) verwiesen, die als Grundlage für diesen Beitrag dient. „Troll“ oder „Glaubenskrieger“? 201 tistischen Schlüsse zu. Allerdings weist die Zusammensetzung des Samples deutliche Parallelen zu den soziodemographischen Mustern in den Stichproben quantitativer Befragungen von Kommentierern im Allgemeinen auf (vgl. etwa Ziegele et al. 2013). Auf dieser Grundlage erscheinen vorsichtige Verallgemeinerungen naheliegend. Demnach lässt sich festhalten, dass störende Kommentierer offenbar überwiegend männlich sind; zumindest im Sample dieser Befragung war nur jeder vierte Teilnehmer weiblichen Geschlechts. Ein Großteil der Befragten war zum Zeitpunkt der Erhebung bereits über 40 Jahre alt. Die meisten von ihnen können auf starke soziale Bindungen verweisen: Rund zwei Drittel der Studienteilnehmer waren verheiratet; fast alle pflegten ein umfangreiches und lebendiges Netzwerk aus Freunden und Bekannten. Bemerkenswert ist auch das überdurchschnittlich hohe Bildungsniveau der Befragten: Viele von ihnen hatten studiert, einige wenige waren sogar promoviert. Ausnahmslos alle sind (oder waren) berufstätig – allerdings nicht zwingend im Kontext der Medienberufe. Es gab zwar keine Journalisten im Sample der Studie, sehr wohl aber hatten einige Teilnehmer wenigstens indirekte Verbindungen zur Medienpraxis (etwa durch eine Beschäftigung in der Werbebranche oder im IT-Bereich). Auffällig ist zudem, dass ein Großteil der befragten Kommentierer auf ein politisches oder soziales Engagement verweist, das in vielen Fällen in einer aktiven Unterstützung politischer Parteien (sowohl im linken als auch im rechten Spektrum), NGOs (z. B. Transparency International) oder anderer Interessenvertretungen zum Ausdruck kommt. Selbst diejenigen Gesprächspartner, die sich bewusst keiner Organisation angeschlossen haben („Ich operiere im Einzelkämpfer-Modus!“3), offenbarten eindeutige politische oder sonstige weltanschauliche Positionen, für die sie überzeugt eintreten. Im Verlauf der Interviews wurde in vielen Fällen deutlich, dass ihre Weltsicht durch einschneidende biografische Erfahrungen geprägt ist, die auch ihre Gewohnheiten als Mediennutzer beeinflussen. So berichteten einzelne Gesprächspartner von direkten oder indirekten Verwicklungen in politische Umbruchsituationen, wiederkehrenden Diskriminierungserfahrungen, prägenden beruflichen Enttäuschungen, einem erfolglosen Sorgerechtsstreit oder Fällen angeblicher Falschberichterstattung journalistischer Medien über die eigene Person. 3 Alle direkten Zitate ohne genauere Quellenzuordnung sind den für diese Studie realisierten Interviews entnommen. Tobias Eberwein 202 Unzufriedenheit mit Medien und Journalismus Neben den individuellen Lebensumständen der Studienteilnehmer waren im Zuge der Erhebung vor allem ihre Sichtweisen auf die Funktionen und Leistungen von Journalismus und Medien im Fokus. Im Verlauf der Interviews wurde schnell deutlich, dass es sich bei einem Großteil der Gesprächspartner um intensive und versierte Mediennutzer handelte. Viele von ihnen gaben zu Protokoll, nahezu die gesamte Freizeit der Lektüre und Kommentierung journalistischer Beiträge zu widmen. Sie rezipierten eine große Bandbreite unterschiedlicher Medienformate – sowohl etablierte „Mainstream“-Medien als auch spezialisierte Publikationen aus dem alternativen Spektrum. Und dafür gibt es ihrer Ansicht nach gute Gründe. Ein interviewter Nutzer erläuterte: „Ich blende keine Medien von vornherein aus. Ich habe erkannt, dass ich sonst kein vollständiges Bild der Realität bekomme, und schaue immer nach der anderen Seite. Damit ich mir meine Meinung bilden kann.“ Fast ohne Ausnahme ließen die Gesprächspartner durchblicken, dass ihre Medienrezeption von hohen normativen Ansprüchen begleitet ist, wonach Journalisten ein breites Spektrum an gesellschaftlichen Aufgaben (Informationsfunktion, Meinungsbildungsfunktion, Kritik- und Kontrollfunktion, Integrationsfunktion usw.) zu erfüllen hätten. Allerdings werden diese Erwartungen bei den Teilnehmern der Studie ganz überwiegend enttäuscht. Immer wieder ließen sich in den Interviews Anzeichen für eine generelle Unzufriedenheit mit dem aktuellen Nachrichten-Journalismus herausarbeiten, die sich mit einer langen Liste wiederkehrender Kritikpunkte präzisieren lässt. So wird „den Medien“ etwa eine einseitige Themenauswahl und ein Mangel an Meinungsvielfalt vorgeworfen; ebenso kritisieren die Gesprächspartner eine vermeintliche Parteilichkeit vieler Journalisten, eine Überrepräsentation bestimmter (politischer) Eliten, eine Dominanz des Agentur-Journalismus, einen allgemeinen „Herdentrieb“ in der Branche sowie einen zweifelhaften Umgang mit Fehlern. Mängelbeschreibungen wie diese führen unweigerlich zu einer Erosion des Vertrauens in professionell gestalteten Journalismus: „Ich habe vor einigen Jahren angefangen, selber zu recherchieren, und habe das dann immer wieder aufgedeckt, dass falsch, voreingenommen berichtet wird […] Ich glaube gar nichts mehr einfach so.“ Allerdings bringen die interviewten User ihr Misstrauen offenbar nicht nur im Gespräch für die Studie zum Ausdruck, sondern vor allem in regel- 4.2 „Troll“ oder „Glaubenskrieger“? 203 mäßigen öffentlichen Kommentierungen der kritisierten Berichterstattung. Die Nutzung der Kommentarfunktion auf journalistischen Nachrichten-Websites ist dabei nur ein verwendeter Kanal von vielen. Häufig wird dieser noch flankiert durch kritische Postings in Blogs und via Social Media – oder gar durch direkte Anrufe in der Redaktion. Eher ‚Glaubenskrieger’ statt ‚Troll’! Genau dieses Verhalten sollte die Interview-Studie genauer hinterfragen, weswegen im Verlauf der durchgeführten Gespräche möglichst ausführlich erörtert wurde, was genau einige Mediennutzer dazu treibt, Kritik an journalistischen Akteuren zu üben. Dabei zeigte sich, dass es den typischen ‚Troll‘ – zumindest im deutschen Sprachraum – nicht gibt; stattdessen erscheint es angebracht, störende Kommentierer anhand ihrer unterschiedlichen Motive zu differenzieren. Tatsächlich waren Internetnutzer, die nur deswegen destruktive Kommentare posten, weil sie andere belästigen und damit einen geordneten inhaltlichen Diskurs unterbinden wollen, in der Studie eher die Ausnahme. Eine Mehrzahl der Gesprächspartner präsentierte sich stattdessen als eine Art ‚Glaubenskrieger‘. In vielen Fällen sind sie von einem mehr oder weniger stark ausgeprägten politischen oder anderswie beeinflussten Sendungsbewusstsein angetrieben, für das sie öffentlich einstehen. Im Einzelnen lassen sich wenigstens fünf unterschiedliche Motivgruppen unterscheiden: • Wahrheitsfindung: Einige User hinterlassen störende Kommentare, weil sie nicht weniger als die „ganze Wahrheit“ aufdecken wollen, die aus ihrer Sicht in vielen professionell gestalteten journalistischen Beiträgen immer wieder ausgeblendet oder gezielt „vertuscht“ wird. • Meinungsbildung: Andere hingegen verfolgen ein weniger absolutes Ziel. Sie wollen den Journalismus nicht von Grund auf verändern, sondern stattdessen die Vielfalt der publizierten Meinungen vergrößern. Ihre persönlichen Sichtweisen verstehen sie dabei als gezielte Beiträge zur Stimulierung eines breiteren inhaltlichen Diskurses. • Provokation: Wieder andere Kommentierer betonen das Element der Provokation. Sie halten es für eine notwendige Strategie, andere Nutzer mit aufreizenden Wortmeldungen herauszufordern, weil sich auf anderem Wege in der Onlinewelt kaum Gehör finden lasse. Allerdings erscheint ihnen Provokation weniger als Selbstzweck, sondern vielmehr als bewusst eingesetztes Instrument zur Aufmerksamkeitssteuerung. 4.3 Tobias Eberwein 204 • Aggressionsbewältigung: Daneben gibt es eine Gruppe von Usern, die ihre Online-Aktivitäten als Akt der Aggressionsbewältigung beschreiben. Sie sind vom konventionellen Journalismus so enttäuscht, dass sie sich einen Kanal zum Frustrationsabbau suchen müssen. • Unterhaltung: Darüber hinaus offenbarten sich einige weitere Kommentierer, die zugaben, störende Postings nur zum Spaß zu veröffentlichen. Dieser Typus kommt dem Bild des typischen ‚Trolls‘ vermutlich am nächsten: Er tritt nicht als Anwalt einer Sache oder Personengruppe auf, sondern möchte sich in erster Linie auf Kosten anderer amüsieren. Praktische Erfahrungen mit Onlinekommentaren legen nahe, dass dieser letztgenannte Nutzertyp auf vielen Nachrichten-Plattformen oft sehr dominant wirkt. Im Sample der hier vorgestellten Studie war er jedoch unterrepräsentiert – was nicht zuletzt ein methodisches Problem darstellt: Im Vergleich zu anderen Kommentierern war diese Akteursgruppe deutlich schwieriger von einer Mitwirkung an der Interviewserie zu überzeugen. Lehren für die journalistische Praxis In Ergänzung zu der vorgeschlagenen Typologie unterschiedlicher Motive für kritische Kommentierungen journalistischer Berichterstattung war es ein weiteres Ziel der Studie, praktische Anregungen für einen konstruktiven redaktionellen Umgang mit dysfunktionaler Anschlusskommunikation zu sammeln. Welche konkreten Erwartungen oder Hoffnungen haben Kommentierer bei der Ansprache von Journalisten? Und was lässt sich aus redaktioneller Perspektive daraus lernen? Folgt man den Einlassungen der Studienteilnehmer, so divergieren die denkbaren Strategien zur Verbesserung der Funktionalität journalistischer Anschlusskommunikation erheblich. Im Einzelnen lässt sich unterscheiden zwischen (1) Reformen auf der Ebene des journalistischen Systems, (2) Innovationen auf der Redaktionsebene und (3) Optionen für die Nutzer-Selbstregulierung. Die Vorschläge zur Reformierung des journalistischen Systems sind dabei ohne Frage die radikalsten – und erscheinen gleichzeitig auch am wenigsten konstruktiv. „Mit dem vorhandenen Personal in den vorhandenen Strukturen geht es nicht. Ich denke nicht, dass sie sich verändern wollen und können“, gab beispielsweise ein Gesprächspartner zu Protokoll. Damit das vielfach geäußerte Ziel einer größeren Meinungsvielfalt in der Berichterstattung erreicht werden könne, seien zentrale Posten in den Redaktionen neu zu besetzen. Eine realistische Hoffnung auf eine grundsätzliche 4.4 „Troll“ oder „Glaubenskrieger“? 205 Neu-Ausrichtung des Journalismussystems besteht unter den Studienteilnehmern allerdings nicht. Eine größere Praxisnähe haben demgegenüber zahlreiche Empfehlungen der Interviewpartner, die verschiedene Innovationen auf der redaktionellen Ebene anregen. Ein Kommentierer forderte beispielsweise: „Es wäre mal ein Anfang, wenn die Journalisten ein gewisses Interesse am Dialog zeigen würden.“ Tatsächlich scheint der Wunsch, konkrete Rückmeldungen zu einem Kommentar zu bekommen, für viele Studienteilnehmer zentral. Verschiedene Erfahrungsberichte im Rahmen der Interviews zeigen, dass ein wie auch immer geartetes Feedback schnell zu einer vertrauensbildenden Maßnahme werden kann – auch, weil sich dadurch Missverständnisse zwischen Medienmachern und -nutzern ausräumen lassen. Neben dem Wunsch nach Dialog und angemessenen Formen der Moderation ist auch die Forderung nach größerer redaktioneller Transparenz in vielen Interviews ein wiederkehrendes Motiv. Dies betrifft zum einen die Vermittlung von mehr Hintergrundinformationen zu redaktionellen Abläufen und Entscheidungsprozessen, zum anderen aber auch ein besseres Fehlermanagement. Mehrfach wird im Verlauf der Erhebung zudem darauf hingewiesen, dass die genannten Kritikpunkte am Journalismus künftig verstärkt zum Thema in der Journalistenaus- und -weiterbildung gemacht werden sollten. Trotz aller Kritik am Journalismus gaben sich einige der interviewten Kommentierer im Gespräch auch selbstkritisch. Denn der Umstand, dass sie mit manchen provokanten Postings sowohl Journalisten als auch mitlesende Mediennutzer verletzen und damit einen zweckdienlichen Austausch erschweren, ist ihnen durchaus bewusst. Einzelne Studienteilnehmer verrieten daher ihre individuellen Strategien zur Vermeidung von dysfunktionalen Kommentarschlachten. „Schickt nicht alles sofort ab“, empfahl beispielsweise ein Gesprächspartner, und ein anderer versprach: „Ich habe mir vorgenommen, selber mehr auf die Zwischentöne zu achten und nicht mehr nur auf das maximale Provozieren“ – auch wenn dies in der Konsequenz weniger ‚Likes‘ bringe. Ob sich derartige Einsichten bereits als konkrete Formen einer Nutzer-Selbstregulierung auffassen lassen, soll an dieser Stelle unkommentiert bleiben. In jedem Falle zeugen sie von einem Mindestmaß an Selbstreflexion auf Seiten der Kommentierer, die für die Diskussion über einen angemessenen Umgang mit Hate Speech und Trolling nicht unerheblich ist. Tobias Eberwein 206 Zusammenfassung und Schlussfolgerungen In der Summe ermöglicht die empirische Studie einen nuancierten Blick auf aktuelle Phänomene dysfunktionaler Anschlusskommunikation auf journalistischen News-Seiten. Anhand von problemzentrierten Interviews mit disruptiven Kommentierern lässt sich zeigen, dass es den typischen ‚Troll‘ nicht gibt. Stattdessen erscheint eine Differenzierung anhand unterschiedlicher Hintergründe und Motive für Kritik an Journalismus und Medien angebracht. Trotz der offenkundigen Unterschiede in den Motiven der interviewten Mediennutzer sind nahezu alle Teilnehmer der Studie in einem zentralen Merkmal vereint: ihrer Unzufriedenheit mit der Qualität journalistischer (Massen-)Medien, die sie kritisch und oft im scharfen Ton zum Ausdruck bringen. Derartige Einlassungen werden von journalistischen Akteuren oft als lästig empfunden – erst recht, wenn dabei gängige Konversationsregeln auf der Strecke bleiben. Jedoch verdeutlicht die Studie, dass auch provokativ vorgetragene Kommentare von Onlinenutzern im Kern häufig mit einem inhaltlichen Anliegen verbunden sind, das anderen Formen der Medienkritik nicht unähnlich ist. Indem die Studie mit ihrem qualitativen Forschungsansatz versucht, die Ziele und Beweggründe dieser webbasierten Medienkritik zu verstehen, liefert sie neue Einsichten und Argumente für die Entwicklung konstruktiver redaktioneller Strategien zum Umgang mit Nutzerkommentaren – und damit eine empirische Datenbasis, die im Zeitalter ‚postfaktischer‘ Nachrichtenagenden umso wichtiger erscheint. Jedenfalls stellt nur ein kleiner Teil der interviewten Kommentierer den Journalismus im deutschen Sprachraum ganz grundsätzlich in Frage. Die meisten Gesprächspartner warten demgegenüber mit durchaus praxisnahen Anregungen auf, wenn sie nach ihren Ideen zur Erhöhung journalistischer Qualitätsstandards gefragt werden. Mehr als alles andere erwarten die Studienteilnehmer eine höhere Bereitschaft zum Dialog, der eine inhaltliche Auseinandersetzung mit den vorgetragenen Kritikpunkten überhaupt erst möglich machen würde. Ohne Frage wäre für den Journalismus viel gewonnen, wenn die Branchenvertreter gerade diese Ermahnung ernst nehmen und auch ihren unliebsamen Kritikern dann und wann ein offenes Ohr schenken würden. Feedback und Transparenz können – auch das hat die empirische Studie gezeigt – für enttäuschte Mediennutzer ein erster Schritt zur Klärung offenkundiger Missverständnisse über die Arbeit in Redaktionen sein und damit zur Grundlage für vertrauensbildende Initiativen werden, die für die journalistische Profession gerade in der gegenwärtigen Umbruchsituation so wichtig wären. Die genauen Ziele und Beweggründe einzelner ‚Glau- 5. „Troll“ oder „Glaubenskrieger“? 207 benskrieger‘ lassen sich ohnehin erst dann erschließen und verstehen, wenn man ihnen – wenigstens für einen begrenzten Zeitraum – zuhört. Zumindest in der hier präsentierten Studie hat sich diese Strategie bewährt. Literatur Aghadiegwu, Ukwueze Cornelius / Ogbonna, Uche Anthony (2015): The rise of hate and peace journalism in the Nigerian democratization process. The place of the new media. In: Communication Panorama 1 (1), S. 1–16. Anderson, Ashley A. / Brossard, Dominique / Scheufele, Dietram A. / Xenos, Michael A. / Ladwig, Peter (2014): The ‘nasty effect’: Online incivility and risk perceptions of emerging technologies. In: Journal of Computer-Mediated Communication 19 (3), S. 373–387. Barnes, Renee (2018): Uncovering online commenting culture. Trolls, fanboys and lurkers. Cham: Palgrave Macmillan. Braun, Joshua / Gillespie, Tarleton (2011): Hosting the public discourse, hosting the public. When online news and social media converge. In: Journalism Practice 5 (4), S. 383–398. Bruns, Axel (2008): Blogs, Wikipedia, Second Life, and beyond. From production to produsage. New York etc.: Peter Lang. Chen, Gina Masullo / Pain, Paromita (2017): Normalizing online comments. In: Journalism Practice 11 (7), S. 876–892. Coe, Kevin / Kenski, Kate / Rains, Stephen A. (2014): Online and uncivil? Patterns and determinants of incivility in newspaper website comments. In: Journal of Communication 64 (4), S. 658–679. Corbin, Juliet / Strauss, Anselm (2015): Basics of qualitative research. Techniques and procedures for developing grounded theory. Los Angeles etc.: Sage. Diakopoulos, Nicholas / Naaman, Mor (2011): Towards quality discourse in online news comments. In: CSCW ‘11 – Proceedings of the ACM 2011 Conference on Computer Supported Cooperative Work, S. 133–142. Eberwein, Tobias (2019): ‘Trolls’ or ‘warriors of faith’? Differentiating dysfunctional forms of media criticism in online comments. In: Journal of Information, Communication & Ethics in Society (ahead of print). Online verfügbar unter doi: 10.1108/JICES-08–2019–0090. Eberwein, Tobias (2020): In Enttäuschung vereint: Motive für dysfunktionale Anschlusskommunikation in Nutzerkommentaren – und Konsequenzen für den Journalismus. In: Blome, Astrid / Eberwein, Tobias / Averbeck-Lietz, Stefanie (Hg.): Medienvertrauen. Historische und aktuelle Perspektiven. Berlin: de Gruyter, S. 135–151. Tobias Eberwein 208 Edström, Maria (2016): The trolls disappear in the light. Swedish experiences of mediated sexualised hate speech in the aftermath of Behring Breivik. In: International Journal for Crime, Justice and Social Democracy 5 (2), S. 96–106. Erjavec, Karmen / Poler Kovačič, Melita (2012): “You don’t understand, this is a new war!” Analysis of hate speech in news web sites’ comments. In: Mass Communication and Society 15 (6), S. 899–920. EJN – Ethical Journalism Network (o. J.): Hate speech: A five-point test for journalists. Online verfügbar unter: https://ethicaljournalismnetwork.org/resources/publicat ions/hate-speech (Abfrage am: 17.03.2020). Friemel, Thomas N. / Dötsch, Mareike (2015): Online reader comments as indicator for perceived public opinion. In: Emmer, Martin / Strippel, Christian (Hg.): Kommunikationspolitik für die digitale Gesellschaft. Berlin: FU Berlin, S. 151–172. Gorman, Ginger (2019): Troll hunting. Inside the world of online hate and its human fallout. Richmond: Hardie Grant. Graham, Todd / Wright, Scott (2015): A tale of two stories from “below the line”. Comment fields at the Guardian. In: The International Journal of Press/Politics 20 (3), S. 317–338. Hardaker, Claire (2010): Trolling in asynchronous computermediated communication. From user discussions to academic definitions. In: Journal of Politeness Research 6 (2), S. 215–242. Harlow, Summer (2015): Story-chatterers stirring up hate. Racist discourse in reader comments on U.S. newspaper websites. In: Howard Journal of Communications 26 (1), S. 21–42. Heikkilä, Heikki / Domingo, David / Pies, Judith / Glowacki, Michal / Kus, Michal / Baisnée, Olivier (2012): Media accountability goes online. A transnational study on emerging practices and innovations. Tampere: Journalism Research and Development Centre. Online verfügbar unter: http://www.mediaact.eu/fileadmi n/user_upload/WP4_Outcomes/WP4_Report.pdf (Abfrage am: 17.03.2020). Heise, Nele / Loosen, Wiebke / Reimer, Julius / Schmidt, Jan-Hinrik (2014): Including the audience. Comparing the attitudes and expectations of journalists and users towards participation in German TV news journalism. In: Journalism Studies 15 (4), S. 411–430. Houston, J. Brian / Hansen, Glenn J. / Nisbett, Gwendelyn S. (2011): Influence of user comments on perceptions of media bias and third-person effect in online news. In: Electronic News 5 (2), S. 79–92. Köberer, Nina (2016): Editorial. In: Medien Journal 40 (2), S. 2–5. Kümpel, Anna Sophie / Springer, Nina (2016): Commenting quality. Effects of user comments on perceptions of journalistic quality. In: Studies in Communication | Media 5 (3), S. 353–366. Marchionni, Doreen (2014): Online story commenting. An experimental test of conversational journalism and trust. In: Journalism Practice 9 (2), S. 230–249. Mayring, Philipp (2010): Qualitative Inhaltsanalyse. Grundlagen und Techniken. 12., überarb. Aufl. Weinheim / Basel: Beltz. „Troll“ oder „Glaubenskrieger“? 209 Neuberger, Christoph / vom Hofe, Hanna Jo / Nuernbergk, Christian (2011): Twitter und Journalismus. Der Einfluss des „Social Web“ auf die Nachrichten. 3., überarb. Aufl. Düsseldorf: Landesanstalt für Medien Nordrhein-Westfalen. Obermaier, Magdalena / Hofbauer, Michaela / Reinemann, Carsten (2018): Journalists as targets of hate speech. How German journalists perceive the consequences for themselves and how they cope with it. In: Studies in Communication | Media 7 (4), S. 499–524. Prochazka, Fabian / Weber, Patrick / Schweiger, Wolfgang (2018): Effects of civility and reasoning in user comments on perceived journalistic quality. In: Journalism Studies 19 (1), S. 62–78. Quandt, Thorsten (2018): Dark participation. In: Media and Communication 6 (4), S. 36–48. Reich, Zvi (2011): User comments. The transformation of participatory space. In: Singer, Jane B. / Hermida, Alfred / Domingo, David / Heinonen, Ari / Paulussen, Steve / Quandt, Thorsten / Reich, Zvi / Vujnovic, Marina (Hg.): Participatory journalism. Guarding open gates at online newspapers. Chichester: Wiley-Blackwell, S. 96–117. Rowe, Ian (2015): Deliberation 2.0. Comparing the deliberative quality of online news user comments across platforms. In: Journal of Broadcasting & Electronic Media 59 (4), S. 539–555. Ruiz, Carlos / Domingo, David / Micó, Josep Lluís / Díaz-Noci, Javier / Meso, Koldo / Masip, Pere (2011): Public sphere 2.0? The democratic qualities of citizen debates in online newspapers. In: The International Journal of Press/Politics 16 (4), S. 463–487. Sponholz, Liriam (2018): Hate Speech in den Massenmedien. Theoretische Grundlagen und empirische Umsetzung. Wiesbaden: Springer VS. Springer, Nina (2014): Beschmutzte Öffentlichkeit? Warum Menschen die Kommentarfunktion auf Online-Nachrichtenseiten als öffentliche Toilettenwand benutzen, warum Besucher ihre Hinterlassenschaften trotzdem lesen, und wie die Wände im Anschluss aussehen. Berlin: LIT. Springer, Nina / Engelmann, Ines / Pfaffinger, Christian (2015): User comments. Motives and inhibitors to write and read. In: Information, Communication & Society 18 (7), S. 798–815. Strandberg, Kim / Berg, Janne (2015): Impact of temporality and identifiability in online deliberations on discussion quality. An experimental study. In: Javnost – The Public 22 (2), S. 164–180. Tsagkias, Manos / Weerkamp, Wouter / de Rijke, Maarten (2010): News comments. Exploring, modeling, and online prediction. In: ECIR 2010 – Advances in Information Retrieval, S. 191–203. Weber, Patrick (2014): Discussions in the comments section. Factors influencing participation and interactivity in online newspapers’ reader comments. In: New Media & Society 16 (6), S. 941–957. Tobias Eberwein 210 Witzel, Andreas (2000): Das problemzentrierte Interview. In: Forum Qualitative Sozialforschung 1 (1), Art. 22. Online verfügbar unter: http://www.qualitative-resear ch.net/index.php/fqs/article/view/1132/2522 (Abfrage am: 17.03.2020). Ziegele, Marc (2016): Nutzerkommentare als Anschlusskommunikation. Theorie und qualitative Analyse des Diskussionswerts von Online-Nachrichten. Wiesbaden: Springer VS. Ziegele, Marc / Johnen, Marius / Bickler, Andreas / Jakobs, Ilka / Setzer, Till / Schnauber, Alexandra (2013): Männlich, rüstig, kommentiert? Einflussfaktoren auf die Aktivität kommentierender Nutzer von Online-Nachrichtenseiten. In: Studies in Communication | Media 2 (1), S. 67–114. „Troll“ oder „Glaubenskrieger“? 211 Wahrheitsbedingungen digitaler Zeugenschaft: Frickers Theorie Epistemischer (Un-) Gerechtigkeit als kommunikationsund medienethischer Analyserahmen Saskia Sell Abstract Der Beitrag betrachtet mediatisierte Zeugenschaft als Grundlage öffentlicher Bedeutungsproduktion und konzipiert diese als mehrstufigen Übersetzungsprozess, innerhalb dessen an verschiedenen Punkten über Akzeptanz oder Abwehr von Testimonialwissen entschieden wird – und damit auch über die Anerkennung der Zeugin oder des Zeugen als Wissenssubjekt. Im Vordergrund steht die Auseinandersetzung mit der Theorie Epistemischer (Un-)Gerechtigkeit der Philosophin Miranda Fricker (2009). Frickers Modell beschreibt Hermeneutische und Testimoniale Ungerechtigkeit als Störfaktoren im Prozess der Zeugenschaft und zeigt auf, wie diesen entgegengewirkt werden kann. Ihre Arbeit ist anschlussfähig für Fragestellungen der Medien- und Kommunikationsforschung, die Ergebnisse empirischer Analysen nicht nur darstellen, sondern auch mit Blick auf normative Aspekte – hier insbesondere die Frage nach Gerechtigkeit und nach den Wahrheitsbedingungen digitaler Zeugenschaft – interpretieren und bewerten wollen. Frickers Perspektive kann, wie am Beispiel des medialen Umgangs mit Opferzeugen gezeigt wird, jenseits der Forschung auch hilfreich für die Reflexion der eigenen Arbeit und des Umgangs mit Quellen innerhalb der journalistischen Praxis sein. Einleitung: Zeugenschaft als Grundlage öffentlicher Bedeutungsproduktion Zeugenschaft ist ein elementarer Kommunikationsprozess, ein so zentrales wie auch fragiles Wissenskonzept und ein basaler Baustein öffentlicher Bedeutungsproduktion. Es handelt sich um einen diskursiven Prozess, der sich in digitalen Öffentlichkeiten verändert hat und auf den wir nach wie vor angewiesen sind, um unser Weltwissen zu erweitern. Gelingt er, gelingt individuelles wie soziales Lernen in der Gesellschaft. Wird er gestört, entstehen Leerstellen und Wissenslücken, die zu Benachteiligungen führen. Als kulturelles Muster hat Zeugenschaft gesellschaftsprägenden Charakter. An ihr wird das Verhältnis von Wahrheit und Wissen (Däumer et al. 2017: 10ff) bzw. Wahrheit, Erfahrung und Wahrnehmung (Walklate 1. 213 2017: 11) kontinuierlich in den Vordergrund gerückt. Sie ist zugleich ein sozialer Akt und eine Erkenntnisquelle (Scholz 2011), eine „Form der indirekten Kenntnisnahme und Wissensvermittlung“, als solche „eingebunden in ein Geflecht aus Vertrauen und Skepsis, Wahrnehmung und Darstellung, einfacher Information und sozialer Wirkmächtigkeit“ (Schmidt/ Voges 2011: 10). Zeugenschaft ist auch eine politische Praxis relativ zu einem spezifischen Ereignis. Mit Bourdieu beschrieben, ist sie ein Feld mit verschiedenen beteiligten Akteuren, Interessen, Positionen und Ressourcen, innerhalb dessen Vertrauen die Kernwährung darstellt (Ashuri/ Pinchevski 2009: 133, u.a. auch Schmidt/Voges 2011). Zeugnisse anderer bieten uns eine „performative Orientierungsfunktion für unser Denken“ (Schmidt 2011: 60), als Wissensquelle bleiben sie unverzichtbar (Schmidt 2019). Das Bezeugen von Ereignissen ist dabei auf Vervielfältigung und Wiederholung angelegt. Es ist auf Verbreitung und Archivierung angewiesen (Assmann 2007). In seiner Komplexität und Ambivalenz ist es nicht nur Bedingung für die Erweiterung von Wissen, sondern auch für die Aufarbeitung von Leid und für die Entwicklung der Gesellschaft insgesamt. Zeugenschaft als öffentlicher Kommunikationsprozess lässt sich – für die wissenschaftliche Auseinandersetzung mit öffentlicher Kommunikation zentral – an der Schnittstelle von Epistemologie, Ethik und Politik verordnen. Zum Konzept der Zeugenschaft wird bislang mehrheitlich in Zusammenhängen von Kriegs-, Gewalt- und Katastrophenberichterstattung geforscht. Mediatisierte Zeugnisse von Gewalt und Leid werden sowohl von Korrespondentinnen und Reportern (u.a. Tait 2011, Weidmann/Papsdorf 2010, Unger 2003), als auch vermehrt von Bürgerjournalisten und Mobilen Zeugen (Reading 2009) in den öffentlichen, digital vernetzen Diskurs eingespeist (vgl. u. a. auch Scott 2017, Andén-Papadopoulos 2014). Im Vordergrund steht die Untermauerung der Wahrhaftigkeit von übermittelter Informationen sowie von bezeugten Eindrücken und Erfahrungen. Die Subjektposition der Zeugenschaft ist für die Glaubwürdigkeit und Akzeptanz der transportierten Botschaft oder Erzählung von zentraler Bedeutung. Zugleich bleibt Zeugenschaft ein ambivalentes Kommunikationsund Wissenskonzept (u. a. Givoni 2014), „gleichzeitig notwendig wie prekär“ (Däumer et al. 2017: 15). Der „Augenzeuge“ beispielsweise gilt als „objektiver und verlässlicher Übermittler von Informationen – zugleich steht er unter Verdacht, diesem Anspruch der Objektivität und Zuverlässigkeit nie vollständig zu genügen“ (Schmidt 2011: 48). Trotz dieser Ambivalenz bleibt er eine journalistische „Schlüsselquelle“ (Wirtz 2014: 159). Der normative Anspruch an Zeugenschaft changiert zwischen sachlichunbefangener Darstellung als Bezeugung von Tatsachen (Unger 2003) – Saskia Sell 214 Peters (2001: 716) spricht hier von „passive witnessing“ – und aufgebrachter Affizierung (vgl. Schankweiler 2016, 2019, Schankweiler et al. 2019, Richardson/Schankweiler 2019 zu Affektzeugenschaft) sowie aktiver Handlungsaufforderung an ein Publikum durch den involvierten Korrespondenten am Ort des Geschehens (Tait 2011). Der Zeuge gilt als „Grenzgänger zwischen der authentischen Wahrheit und dem politischen Diskurs“ (Schmidt/Voges 2011: 10, in Orientierung an Arendt 1972). Er ist weder ein rein objektiver Vermittler von Wahrheit im Sinne eines mechanischen Abbild-Produzenten für bezeugte Geschehnisse, noch ist er ein rein politischer Akteur ohne Wahrheitsbezug (Schmidt/Voges 2011: 15). Er adressiert ebenso Vernunft und Wissen wie Affekte und Gefühlswelten. Von der Notwendigkeit des Überzeugens (Däumer et al. 2017: 16ff) ist die Praxis des Bezeugens dabei nie zu trennen. Dieser Beitrag beleuchtet das Verhältnis von Zeugenschaft, Wahrheit und Gerechtigkeit im Prozess medienöffentlicher Zeugenschaft und stellt dabei zwei Fragen in den Vordergrund: Wie verändert sich Zeugenschaft in den aktuell verbreiteten Formen digitaler Kommunikation? Unter welchen Bedingungen wird ein Zeugnis als wahr und damit eine Zeugin oder ein Zeuge als Wissenssubjekt anerkannt? Diese Fragen sind zentral für das Verständnis von Zeugenschaft als Prozess öffentlicher Kommunikation. Sie werden hier an verschiedenen Beispielen – vornehmlich in Auseinandersetzung mit digitalen Selbst- und Opferzeugnissen – diskutiert. Miranda Frickers Theorie Epistemischer (Un-)Gerechtigkeit (2009, siehe Kapitel 3) aus dem Feld der Philosophie stellt für diese Erkenntnisperspektive einen sinnvollen Analyserahmen dar, der nach der Darstellung von Zeugenschaft als Übersetzungsprozess (Kapitel 2) hier näher ausgeführt wird und dessen Ertrag für die Kommunikationsforschung wie für den praktischen Journalismus (Kapitel 4) dargestellt wird. Zeugenschaft als Übersetzungsprozess in potentiell globalen digitalen Öffentlichkeiten In digitalen Öffentlichkeiten überschreitet Testimonialwissen (Schmidt 2011) in Echtzeit Raum- und Zeitgrenzen, es zirkuliert heute mit erhöhter Geschwindigkeit. Im Aufnehmen und Teilen von Erlebnissen und Erfahrungen über Soziale Medien verbindet der Prozess der Zeugenschaft persönliche politische Partizipation mit vernetztem Handeln. Mit den Möglichkeiten der gemeinschaftlichen Generierung von Bedeutung entstehen neue Wege, Verantwortung zu übernehmen, sich zu solidarisieren, sich für 2. Wahrheitsbedingungen digitaler Zeugenschaft 215 andere einzusetzen. Sprachraum- und damit auch Verständnisgrenzen werden immer weiter abgebaut – einerseits durch den verstärkten Einsatz von Bild- und Videomaterial dort, wo mehr Übertragungsleistung zur Verfügung steht, andererseits durch immer einfacher zu bedienende, frei nutzbare Übersetzungstools. Der kommunikative Akt des Bezeugens selbst lässt sich dabei ebenfalls als ein erweiterter Übersetzungsprozess charakterisieren. Zeugenschaft beginnt in dem Moment, wo direktes Erleben oder unmittelbare Erfahrung in eine verständliche Äußerung übersetzt wird (vgl. Abb. 1), am Übergang vom Sein zum Sagen (Hartog 2017). „Sagen“ ist hier im weiteren Sinne als Kommunizieren zu verstehen: Der erste Transformationsschritt kann zu einer sprachlichen Äußerung, aber auch zu Schrift-, Bild- oder Videozeugnissen führen, je nachdem welche Art von Kommunikation der Zeugin oder dem Zeugen näher liegt. Die entstandenen Zeugnisse mit einem ihnen inhärenten Wahrheitsanspruch werden im nächsten Schritt (mit-)geteilt, bzw. im digitalen Raum z. B. über Soziale Medien ver- öffentlicht. Nun folgt ein weiterer Übersetzungsschritt. Die (mit-)geteilten Zeugnisse werden entweder ignoriert und wieder ausgeblendet oder von anderen, beispielsweise journalistischen Akteuren, aufgegriffen und in einem sozialen Kommunikationsprozess in eine öffentliche Erzählung, in ein kohärentes Narrativ übertragen. An dieser Stelle erfolgt der Eintritt in den öffentlichen Diskurs, es formieren sich Diskursstränge. Prozesse des audience-driven Agenda Setting (vgl. Sell 2016) finden statt, wenn beispielsweise Inhalte aus Sozialen Medien in klassische journalistische Formate überführt und Themen dort weiterbehandelt werden. Was darauf folgt, ist erneut entweder Akzeptanz oder Abwehr der auf Zeugnissen basierenden Erzählung und – bei Ersterem – entweder eine kurze Phase der Thematisierung oder ein längerfristiger, öffentlicher Aushandlungsprozess, der, im Idealfall, in einen gesellschaftlichen Problemlösungsprozess münden kann. An dieser Stelle spielen nicht nur die geäußerten Inhalte, sondern auch Identitätszuschreibungen gegenüber der Zeugin oder dem Zeugen eine Rolle, die, im Fall von Vorurteilen, Voreingenommenheit oder Stereotypisierungen, Störfaktoren im Prozess der Wissenserweiterung durch Zeugenschaft darstellen. Hier entscheidet sich, ob das im Prozess der Zeugenschaft generierte Wissen weiter öffentlich zirkuliert und erhalten bleibt – durch kontinuierliche (Weiter-)Erzählungen und gute Archivierung digital publizierter Inhalte, wenn möglich auch längerfristig. Oder ob es verworfen wird – womit Testimonialwissen verloren ginge und Leerstellen in unseren kollektiven hermeneutischen Ressourcen entstehen können, wie der nachfolgend abgebildete Prozess zeigt. Saskia Sell 216 Abbildung 1: Mediatisierte Zeugenschaft als mehrstufiger Übersetzungsprozess (eigene Darstellung) 1. Direktes Erleben, unmittelbare Erfahrung oder Beobachtung 2. Transformation in verständliche Äußerung: Sprache oder Bilder/Videos 3. (Mit-)Teilen von Zeugnissen mit Wahrheitsanspruch im digitalen Raum 4. Anerkennung des Zeugen als Wissenssubjekt oder Ausblenden des Zeugnisses 5. Transformation in öffentliche Erzählung, Eintritt in den Diskurs 6. Akzeptanz der Erzählung, oder Abwehr, Leugnung des Wahrheitsanspruchs 7. Zirkulation und Archivierung oder (Ver-) Schweigen und Verwerfung bbildung 1: Mediatisi rte Zeugen chaft als mehrstufiger Übersetzungsprozess (eigene Darstellung) Jenseits der Subjektposition des Zeugen oder der Zeugin ist auch die spezifische Medialität des Zeugnisses für diesen Übersetzungsprozess von Bedeutung. Audiovisuelle Zeugnisse haben gegenüber anderen Formen einen stärkeren „reality effect“ (Ellis 2009: 75). Sie vermitteln überzeugender den Eindruck von Direktheit und objektiver Betrachtung als gesprochene oder geschriebene Augenzeugenberichte oder Selbstzeugnisse. Ähnlich wie bei der Fotografie, die zugleich Zeugnisse und Spuren des Realen aus einer singulären Perspektive heraus produziert (Geimer 2017, Isermann 2015), ist die (Handy-)Kamera heute ein stummer Zeuge eines Ereignisses. Gleichwohl stehen diese Diskursfragmente nicht für sich. Der- oder diejenige, die aufnimmt und teilt, bleibt zentraler Einflussfaktor im Prozess der Zuschreibung von Glaubwürdigkeit, also der Anerkennung von Zeugenschaft. Nicht nur die Anzahl an durch Augenzeugen bezeugten Ereignissen ist in den letzten Jahrzehnten stark gestiegen, sondern auch die Anzahl an publizierten Selbst- und Opferzeugnissen, was sich beispielsweise im Länderund Sprachgrenzen überwindenden #MeToo-Diskurs (u. a. Starkey et al. 2019, Darrach et al. 2019) feststellen lässt, aber auch in anderen gesellschaftspolitischen Diskursen. Parallel dazu entwickeln sich in der Rezeption dieser Zeugnisse kulturell gefestigte Muster dessen weiter, was Miranda Fricker (2009) in ihrer Theorie Epistemischer (Un-)Gerechtigkeit als Testimoniale Ungerechtigkeit erfasst. Neben Hermeneutischer Ungerechtigkeit ist diese ein zentraler Störfaktor im Prozess der Zeugenschaft. Wahrheitsbedingungen digitaler Zeugenschaft 217 Zeugenschaft, Wahrheit und Gerechtigkeit: Frickers Theorie Epistemischer Ungerechtigkeit Fricker (2009) argumentiert an der für die Medien- und Kommunikationswissenschaft wichtigen Schnittstelle zwischen Ethik und Epistemologie, an der nach den Gelingensbedingungen für das Zustandekommen und den Austausch von Wissen im öffentlichen Diskurs gefragt wird. Sie liefert einen hilfreichen, für die Kommunikationsforschung adaptierbaren Analyserahmen und einen sinnvollen, ethischen Orientierungspunkt für die Medienpraxis. Ihre Theorie Epistemischer (Un-)Gerechtigkeit soll nun konkreter erläutert werden. Das Ergebnis des oben dargestellten Prozesses der Zeugenschaft sind entweder die Erweiterung von Wissen in der digitalen Gesellschaft oder der Verlust von Wissen bzw. die Vergrößerung von Leerstellen in dem, was Fricker unsere kollektiven hermeneutischen Ressourcen nennt, und damit in unseren Möglichkeiten, Erlebtes sinnhaft zu verstehen und Bedeutung zu generieren. Soll die Erweiterung unserer gesellschaftlichen Wissensbestände gelingen, braucht es Vertrauen – für Fricker die notwendige Grundhaltung im Zeugenschaftsprozess. Dahinter steckt zunächst einmal die Annahme, dass die Zeugin oder der Zeuge bestimmte Werte teilt – beispielsweise das Streben nach wahrheitsgemäßer Kommunikation. Die zweite Grundannahme ist, dass die Zeugin oder der Zeuge auch die Fähigkeiten besitzt, dementsprechend zu handeln, also sich verständlich auszudrücken und mitzuteilen. Vertrauen ist also der Ausgangspunkt für die Generierung von Wissen. Die Glaubwürdigkeit der Zeugin oder des Zeugen ist dabei zunächst nur abhängig vom Zugang zum Dargestellten, also von der räumlichen und zeitlichen Nähe oder von der Distanz zum Ereignis oder Erlebnis. Dieser Ansatz entspricht der klassischen kommunikationstheoretischen Definition von Zeugenschaft (Peters 2001, interdisziplinär u. a. auch Assmann 2007), die an anderer Stelle problematisiert (Peters 2009) und weiterentwickelt (Peters 2017) wurde, in ihren Grundzügen aber weiterhin gilt. In der Subjektposition der Zeugin oder des Zeugen ist eine Grundspannung inhärent zwischen dem, was Schmidt und Voges (2011) Epistemische Autorität nennen, also der Autorität der Sprechenden, die unmittelbar erlebt oder beobachtet haben, und den Auswirkungen Epistemischer Ungerechtigkeit. Letztere hat Fricker in ihrer Theorie ausdifferenziert in Testimoniale Ungerechtigkeit und Hermeneutische Ungerechtigkeit. Was heißt das jeweils? Testimoniale Ungerechtigkeit ergibt sich daraus, dass Vorurteile und Stereotype auf Zuhörerseite dafür sorgen, dass der Zeugin oder dem Zeugen 3. Saskia Sell 218 weniger Glaubwürdigkeit zuerkannt wird, als für den Prozess des Wissenserwerbs notwendig wäre. Fricker (2009) spricht in diesem Zusammenhang von einem Identity-Prejudicial Credibility Deficit, das den Prozess der Zeugenschaft stört. Dadurch wird die etwas bezeugende Person in ihrer Eigenschaft als Informant und als Wissenssubjekt geschädigt – eine Eigenschaft, die essentiell ist für den menschlichen Selbstwert. Es entstehen nicht nur gesellschaftliche Wissenslücken, sondern auch Folgeschäden für die Person, der aufgrund bestimmter Störfaktoren kein Gehör geschenkt wird. Das Identity-Prejudicial Credibility Deficit wirkt sich nicht nur auf Einzelne, sondern auf ganze Personengruppen aus. Der nachfolgend eingefügte Screenshot (Abb.2) einer Mikropublikation auf der Social-Media-Plattform Twitter verdeutlicht die zugrundeliegende Problematik anhand der Distinktionskategorie Geschlecht. Abbildung 2: Screenshot eines Kommentars zu Dynamiken Testimonialer Ungerechtigkeit in Onlinediskursen (Aufnahme vom 24.05.2018) Das zweite Element Epistemischer Ungerechtigkeit fasst Fricker (2009) als Hermeneutische Ungerechtigkeit. Aufgrund von Macht-Asymmetrien in der Gesellschaft entstehen Lücken in den kollektiven hermeneutischen Ressourcen. Es fehlt die Sprache, das Begriffsrepertoire, das notwendig wäre, um Erlebtes und Erlittenes überhaupt erst verstehend einzuordnen – also die Voraussetzung für das öffentliche Ablegen eines Zeugnisses und den Beginn eines Diskurses über ein bestehendes Problem. Sprachlosigkeit führt hier für bestimmte Personengruppen zu einer kognitiven Benachtei- Wahrheitsbedingungen digitaler Zeugenschaft 219 ligung und zugleich, mit Fricker (2009), zu Hermeneutischer Marginalisieriung. Darunter versteht sie die ungleiche Möglichkeit zur Teilhabe an Praktiken, durch die in einer Gesellschaft Bedeutung generiert wird. Wie im Falle von Testimonialer Ungerechtigkeit ergeben sich auch hier weitere manifeste Benachteiligungen. Wie die Mechanismen Epistemischer Ungerechtigkeit greifen, erläutert Fricker (2009) anhand von Beispielen aus einem Interviewband von Brownmiller (1999), die zur sogenannten „Zweiten Welle“ des Feminismus in den USA Zeitzeuginnen-Gespräche geführt und dokumentiert hat. Eine Zeitzeugin berichtet aus ihrer Jugend von studentischen Gesprächsgruppen, in denen sich Frauen gemeinsam mit Alltagsproblemen auseinandergesetzt haben. Für alle Frauen auf dem Campus stellten diese ein neues Format des kommunikativen Austauschs in der Gruppe dar. Sie beschreibt eines von mehreren prägenden Erlebnissen wie folgt: „[…] Die Studentinnen in meiner Gruppe fingen an über Postnatale Depression zu sprechen. In diesen 45 Minuten wurde mir klar, dass das, wofür ich mir selbst die Schuld gab und wofür mein Mann mir die Schuld gab, nicht meine eigene Unzulänglichkeit war. Sondern eine Mischung aus häufiger auftretenden, körperlichen Reaktionen und einem echten gesellschaftlichen Problem, der Isolation […]“ (Interviewauszug aus Brownmiller 1999, zitiert nach Fricker 2009: 149, eigene Übersetzung). In diesem Beispiel wurde durch den Austausch unter Gleichen aus heutiger Perspektive nachhaltig eine Wissenslücke geschlossen. Nur so konnte ein emanzipatorischer Schritt vollzogen und eine Verzerrung in den gesellschaftlichen Wissensbeständen korrigiert werden. Was zuvor als individuelles Versagen der Frau, als Faulheit oder „Hysterie“ abgetan wurde, war nun als weit verbreitetes, gesundheitliches und gesellschaftliches Problem erfassbar. Das eigene Erleben betroffener Frauen wurde sinnhaft verstehbar und damit kommunizierbar. Vorherige Sprachlosigkeit und damit verbundene Isolation wurden überwunden. Der Diskurs um Schwangerschaft, Geburt und Elternschaft hat sich verändert. Hilfsangebote, die darauf abzielen, ein Problem zu lösen und erlebtes Leid zu lindern, konnten in den darauffolgenden Jahrzehnten entwickelt werden. Unmittelbar in der Situation ließen sich für die Zeitzeugin Selbstzweifel und falsche Schuldgefühle verringern. Fricker geht auf weitere, ähnlich gelagerte Beispiele ein, wie die Auseinandersetzung mit Sexueller Belästigung und die Benennung der Problematik als solcher (Brownmiller 1999: 279ff). Auch hier liegt der Fokus mit dem Ausgleich Hermeneutischer Ungerechtigkeit nicht mehr auf Verharmlosung, Vereinzelung und Negation der Opferperspektive und – daraus resultierend – an sich und an der eigenen Wahrnehmung unangenehmer Über- Saskia Sell 220 griffigkeiten zweifelnden Individuen. In den Fokus rückt vielmehr ein strukturell verankertes, gesamtgesellschaftliches Problem – und das nicht erst seit #MeToo (vgl. Morris 1994 – „Everywoman’s Story“). Diese Arten von Austausch unter Menschen mit ähnlichen Erfahrungen finden heute vermehrt in digitalen Kommunikationsräumen statt. Das Korrektiv für Hermeneutische Ungerechtigkeit kann in der Netzöffentlichkeit erweitert werden. Gewonnenes Wissen kann jedoch auch dort durch strategische Desinformation gestört werden und Erkenntnisse können (wieder) an den Rand gedrängt werden. Es wäre falsch, davon auszugehen, dass der hier dargestellte Aushandlungsprozess ohne Widerstand und ohne Backlashes im Diskurs stattfinden kann. Diskursive Aushandlungsprozesse bleiben konflikthaft und prinzipiell unabgeschlossen, gerade, wenn es um gesellschaftspolitische Fragen geht, die den Kern des Zusammenlebens betreffen. Um diese Dynamik – und damit auch den Wandel von Diskursen und Sagbarkeitsfeldern – besser analysieren und verstehen zu können, ist Frickers Modell hilfreich. Ihre Perspektive lässt sich sinnvoll erweitern durch Rückgriff auf die Arbeiten von Manne (2019) und Dotson (2011, 2012). Insbesondere der den Prozess der Zeugenschaft störende Aspekt des Testimonial Smothering (Manne 2019: 35), der Aussagenunterdrückung, ist Teil des oben dargestellten Kreislaufs Epistemischer Ungerechtigkeit. Dabei handelt es sich um das Phänomen, dass die Sprecherin sich selbst zum Schweigen bringt, weil sie von vornherein annimmt, dass ihre Äußerung vergebens und zudem mit großem Risiko verbunden ist. Den Zuhörern fehlt es an Aussagekompetenz bzw. Testimonial Competence (Dotson 2011: 249). Ignoranz gegenüber bestehenden Perspektiven verhindert hier, verbunden mit Testimonialer und Hermeneutischer Ungerechtigkeit, den Zugewinn an Wissen und die Anerkennung der Zeugin als Wissenssubjekt. Der Lösungsansatz liegt in Frickers (2009) Theorie im Ausgleich der beschriebenen Nachteile, genauer gesagt in der Förderung Epistemischer Gerechtigkeit, die wie ihr Gegenpart aus Testimonialer Gerechtigkeit und Hermeneutischer Gerechtigkeit besteht. Fricker entwickelt hier die Subjektposition des Rechtschaffenen Zuhörers (im Original „virtuous hearer“, Fricker 2009: 75f). In dieser Positionierung liegt die Chance, den Sprechenden Vertrauen, Aufmerksamkeit und Empathie entgegenzubringen, den eigenen Bias zu hinterfragen und letzten Endes als Einzelne(r) und als Gesellschaft dazuzulernen. Der Rechtschaffene Zuhörer ist ein aktiver Zuhörer, er schafft ein Klima für den Dialog, sucht zusätzliche Evidenz für das Gesagte und unterstellt nicht jeder Zeugin oder jedem Zeugen gleich eine Lüge. Er hinterfragt nicht nur die Zeugenaussage, sondern auch die eigenen Muster der Glaubwürdigkeitszuschreibung. Fricker formuliert hier ein Plädoyer für eine gut gelingende, das Gegenüber mit seinen Erfahrungen als Wissenssub- Wahrheitsbedingungen digitaler Zeugenschaft 221 jekt anerkennende Kommunikation und für einen sozialen Austausch mit dem Ziel der Erweiterung von Weltwissen. Es geht ihr um eine Epistemic Affirmative Action: „when […] any member of a stereotyped group says something anomalous, assume you don’t understand it, not that the person is nuts“ (Fricker 2009: 170f). Dieser Perspektivenwechsel wird verstanden als Ausgleich von Benachteiligungen, explizit nicht als Form der Bevorzugung (Fricker 2009: 171). Gelingende Zeugenschaft setzt diese Form der Kooperation (vgl. dazu auch Däumer et al. 2017, Schmidt 2017, Krämer 2017) voraus sowie neben dem Wahrheitsanspruch im Akt des Bezeugens zudem die Anerkennung der Zeugin oder des Zeugen als Wissenssubjekt voraus. Ertrag der Theorie Epistemischer (Un-)Gerechtigkeit für die Medien- und Kommunikationsforschung und für die journalistische Praxis Was leistet diese Theorie für die Medienforschung und für den Journalismus und seinen Umgang mit digitalen Zeugen und Zeugnissen? Die Medien- und Kommunikationsforschung gewinnt neben einer Systematik für die Analyse von Zeugenschaftsprozessen auch einen normativen Bewertungsrahmen für die Auseinandersetzung mit Medieninhalten, mit redaktionellen Entscheidungsprozessen und Mediennutzungsmodi, zum Beispiel mit der Kommentierung von (über Soziale Medien häufig Mikro-)Publikationen aus verschiedenartigen Lebensrealitäten. Dieser ermöglicht eine ausführlichere Interpretation und eine normative Einordnung empirischer Ergebnisse. Es lässt sich somit mehr als nur die an Lasswell orientierte klassische medien- und kommunikationswissenschaftliche Frage nach dem detailreichen, gleichwohl eher deskriptiven Wie wird was von wem wann und wo an wen kommuniziert? beantworten. In dieser Art der Theorieerweiterung liegt die Möglichkeit, entlang der zusätzlich gestellten Frage Mit Blick auf was ist etwas gut oder schlecht, problematisch oder hilfreich für Individuum und Gesellschaft? wissenschaftlich fundierte Einordnungen und Bewertungen von Analyseergebnissen vorzunehmen. In diesem Fall sind die ethischen Orientierungspunkte einerseits die Gerechtigkeit, andererseits, damit eng verbunden, auch eine Stärkung individueller Mündigkeit und die Möglichkeit der Erweiterung von gesellschaftlichen Wissensbeständen. Beides geht einher mit einer sich ausdehnenden Kommunikationsfreiheit innerhalb der Gesellschaft. Frickers Theorie ergänzt unser fachliches Theorierepertoire. Sie bietet an verschiedenen Stellen Anknüpfungspunkte für bestehende Analyseperspektiven kritischer Medienforschung – beispielsweise für das Feld der Gender Media Studies, für Studien mit intersektionaler Perspektive in den Forschungsfragen, für Analysen zu Sichtbarkeiten und Unsichtbarkeiten im öffentlichen 4. Saskia Sell 222 Diskurs, oder – in der klassischen Journalismusforschung verortet – zu Perspektivenvielfalt und Ausgewogenheit als journalistischen Qualitätskriterien. Aus Frickers Modell, insbesondere aber in der Subjektposition des „virtuous hearer“ kann auch die Journalismuspraxis ethische Orientierung schöpfen – etwa in Form des Ziels, bewusst mehr für Epistemische Gerechtigkeit im öffentlichen Diskurs zu sorgen und gesellschaftliche Wissenslücken zu schließen. Dies findet bereits statt, beispielsweise im Konzept des Anwaltschaftlichen Journalismus (Altmeppen 2007), bzw. in einem Journalismus, der sich auch als Voice of the Voiceless positioniert und vom Zugang zu Quellen her betrachtet mit Formen des Citizen Journalism vergleichbar ist (Harcup 2011). Die Reflexion des eigenen kommunikativen Handelns kann mithilfe von Frickers abstrakter Modellierung des Phänomens besser und bewusster gelingen. Ihre Perspektive hilft, Erzählungen einzubeziehen, die zunächst vielleicht nicht bereits etablierten Deutungsmustern entsprechen. Auch die Grundhaltung, mit dem man einer Informantin oder einem Informanten gegenübertritt, spielt eine Rolle für den Ausgleich von Epistemischer Ungerechtigkeit. Wird der Person erstmal Vertrauen entgegengebracht, oder wird ihr von vornherein unterstellt, dass sie lügt? Hört man auch dann noch zu, wenn das Gesagte etwas bruchstückhaft daherkommt, möglicherweise auch Inkonsistenzen aufweist? In ihrer Arbeit als Kriegsreporterin hat die Journalistin Carolin Emcke (2013) auf genau diesen Aspekt des Umgangs mit Zeugenschaft in der journalistischen Praxis hingewiesen. Im aktiven Zuhören und in einer vertrauensvollen Grundhaltung liegt für Zeuginnen und Zeugen die Chance, auch unangenehme Erlebnisse, bzw. in Emckes Berichten auch grausame Gewalterfahrungen, in Worte fassen zu können und so der Rekonstruktion der Wahrheit näher zu kommen. Ein weiteres Beispiel soll verdeutlichen, wie mit neuen Formen von digitaler Zeugenschaft produktiv umgegangen werden kann. Zeugnisse von Gewalt werden häufig über soziale Medien geteilt. Der nachfolgend zitierte Bericht der britischen Zeitung The Mirror UK ermöglicht durch das Aufgreifen einer solchen Social-Media-Publikation die Auseinandersetzung mit den Folgen von häuslicher Gewalt, die ein gesamtgesellschaftliches Problem darstellt. Caroline Way, zum Zeitpunkt der Veröffentlichungen eine 41 Jahre alte britische Geschäftsfrau, die eine ganze Reihe von Selbstbildern geteilt hat (siehe exemplarisch Abb. 3), war 2017 Opfer ihres Ex-Partners geworden. Sie hat sich entschieden, selbst damit über Facebook an die Öffentlichkeit zu gehen. Das Boulevardmedium The Mirror UK hat ihre Geschichte aufgegriffen und sie im Interview erklären lassen, weshalb sie diese Selbstbilder veröffentlichte. Das journalistische Medium fungiert hier Wahrheitsbedingungen digitaler Zeugenschaft 223 als Verstärker für eine sonst im öffentlichen Raum eher marginalisierte Perspektive. Way äußert sich im Interview wie folgt zu ihren Selbstzeugnissen: „I became a selfie queen. I used to take a picture of my face every day just to see it changing and how I was getting better. I found it so therapeutic. This was a way of telling myself that because I could see my physical scars retreating, I knew my mental ones would too. Then I realised I could help other women by showing them what I had overcome so I posted the pictures on Facebook. The response was overwhelming.“ In diesem Diskursfragment wird eine weitere Ebene in den Prozess der Zeugenschaft integriert. Das Publizieren, das öffentlich Bezeugen und Teilen der eigenen Gewalterfahrung, hat für sie einen positiven Effekt. Es verbindet individuelles mit gesellschaftspolitischem Handeln, unterstützt hier den eigenen Heilungsprozess und zeigt gleichzeitig anderen, dass sie mit ähnlichen Gewalterfahrungen nicht alleine sind und dass es Wege gibt, um diese durchzustehen. Abbildung 3: Screenshot aus The Mirror UK-Beitrag über Caroline Ways Selbstbild-Publikationen (Aufnahme vom 08.10.2019) Saskia Sell 224 Das Beispiel verdeutlicht eine der Chancen, die sich uns durch soziale Medien bieten: Sie vergrößern unser soziales Sichtfeld und verdeutlichen gesellschaftliche Problemlagen, die ohne die durch entsprechende Plattformen erweiterte, demokratisierte Öffentlichkeit unterm Radar geblieben wären. Der Prozess der Anerkennung von Leid (vgl. dazu auch Benjamin 2019) wird durch digitale Zeugenschaft, hier das Veröffentlichen von Selbstzeugnissen, erst ermöglicht. Rückgekoppelt an Frickers Theorie Epistemischer Ungerechtigkeit wurde in diesem Beispiel also einerseits Hermeneutische Ungerechtigkeit ausgeglichen durch das Finden und aktive Nutzen einer Bildsprache zur Verarbeitung eigener Gewalterfahrung. Andererseits wurde auch Testimoniale Ungerechtigkeit ausgeglichen – nicht nur durch die positiven und die Zeugin als Wissenssubjekt anerkennenden Rückmeldungen über Facebook, sondern auch dadurch, dass ihr – als Stellvertreterin eines gesamtgesellschaftlichen Problems – durch das journalistische Medium eine größere Reichweite verschafft wurde. Frickers Theorierahmen ermöglicht es, Dynamiken wie diese im immer auch auf gelingende Zeugenschaft angewiesenen öffentlichen Kommunikationsprozess einzuordnen und normative Orientierungspunkte zu liefern. Fazit: Epistemische Gerechtigkeit als normativer Orientierungspunkt Zeugenschaft kann als basaler Prozess öffentlicher Kommunikation nur gelingen, wenn zumindest in Grundzügen ein kooperatives Verhältnis zwischen der Zeugin oder dem Zeugen und der Zuhörerschaft besteht. Als mehrstufiger öffentlicher Übersetzungsprozess stößt sie an Punkte, an denen über Anerkennung und Akzeptanz oder Abwehr und Leugnung des Bezeugten entschieden wird. Die Anerkennung der bezeugenden Person als Wissenssubjekt steht hier ebenfalls mehrfach zur Disposition. Mithilfe von Frickers (2009) Theorie Epistemischer (Un-)Gerechtigkeit konnte unter Rückgriff auf verschiedene Beispiele gezeigt werden, welchen Störfaktoren der Prozess der Zeugenschaft ausgesetzt ist. Der Epistemischen Autorität der Zeugen stehen Formen Hermeneutischer und Testimonialer Ungerechtigkeit gegenüber, die jedoch durch verschiedene Strategien von Epistemic Affirmative Action ausgeglichen werden können. Auf der Grundlage von Frickers Modell lässt sich das Verhältnis von Zeugenschaft, Wahrheit und Gerechtigkeit in öffentlichen Kommunikationsräumen systematisch analysieren und mit Blick auf Epistemische Gerechtigkeit bewerten. Ihre Theorie ist anschlussfähig an verschiedene Teilbereiche medien- und kommunikationswissenschaftlicher For- 5. Wahrheitsbedingungen digitaler Zeugenschaft 225 schung. Sie kann ebenfalls als normative, Orientierung stiftende Reflexionsgrundlage für die journalistische Praxis dienen. Literatur Altmeppen, Klaus-Dieter (2007): Differenzierung und Distinktion. Journalismus, unterhaltender Journalismus, Unterhaltungsproduktion. In: Scholl, Armin et al. (Hg.): Journalismus und Unterhaltung. Theoretische Ansätze und Empirische Befunde. Wiesbaden: Springer VS, S. 133–156. Andén-Papadopoulos, Kari (2014): Citizen camera-witnessing: Embodied political dissent in the age of ‚mediated mass self-communication‘. In: New Media & Society 16 (5), S. 753–769. Arendt, Hannah (1972): Wahrheit und Politik. In: Dies.: Wahrheit und Lüge in der Politik: Zwei Essays. Ungekürzte Taschenbuchausgabe, 2. Auflage (2015), München/Berlin: Piper, S. 44–93. Ashuri, Tamar/ Pinchevski, Amit (2009): Witnessing as a Field. In: Frosh, Paul/ Pinchevski, Amit (Hg.): Media Witnessing: Testimony in the Age of Mass Communication. Basingstoke/New York: Palgrave Macmillan, S. 133–157. Assmann, Aleida (2007): Vier Grundtypen der Zeugenschaft. In: Elm, Michael/ Kößler, Gottfried (Hg.): Zeugenschaft des Holocaust. Zwischen Trauma, Tradierung und Ermittlung. Frankfurt am Main/ New York: Campus Verlag, S. 33–51. Benjamin, Jessica (2019): Anerkennung, Zeugenschaft und Moral. Soziale Traumata in psychoanalytischer Perspektive. Gießen: Psychosozial-Verlag. Brownmiller, Susan (1999): In Our Time. Memoir of a Revolution. New York: The Dial Press/Random House. Däumer, Matthias/ Kalisky, Aurélia/ Schlie, Heike (2017): Über Zeugen. Testimoniale Konstellationen und Szenarien. In: Dies. (Hg.): Über Zeugen. Szenarien von Zeugenschaft und ihre Akteure. Paderborn: Wilhelm Fink Verlag, S. 7–28. Darrach, Amanda et al. (2019): The Reach of #MeToo. In: Columbia Journalism Review 58 (2), S. 102–105. Dotson, Kristie (2011): Tracking Epistemic Violence, Tracking Practices of Silencing. In: Hypatia 26 (2), S. 236–257. Dotson, Kristie (2012): A Cautionary Tale. On Limiting Epistemic Oppression. In: Frontiers: A Journal of Women Studies 33 (1), S. 24–47. Ellis, John (2009): Mundane Witness. In: Frosh, Paul/ Pinchevski, Amit (Hg.): Media Witnessing: Testimony in the Age of Mass Communication. Basingstoke/New York: Palgrave Macmillan, S. 73–88. Emcke, Carolin (2013): Weil es sagbar ist. Über Zeugenschaft und Gerechtigkeit. Frankfurt am Main: S. Fischer Verlag. Fricker, Miranda (2009): Epistemic Injustice. Power & the Ethics of Knowing. Oxford/New York: Oxford University Press. Saskia Sell 226 Geimer, Peter (2017): Remembrance of Things Past. Testimony and Imagination. In: Krämer, Sybille/ Weigel, Sigrid (Hg.): Testimony/Bearing Witness: Epistemology, Ethics, History and Culture. London: Rowman & Littlefield International, 209–222. Givoni, Michal (2014): The Ethics of Witnessing and the Politics of the Governed. In: Theory, Culture & Society 31 (1), S. 123–142. Harcup, Tony (2011): Reporting the voices of the voiceless during the miners' strike: An early form of 'citizen journalism'. In: Journal of Media Practice 12 (1), S. 27–39. Hartog, Francois (2017): The Presence of the Witness. In: Krämer, Sybille/ Weigel, Sigrid (Hg.): Testimony/Bearing Witness: Epistemology, Ethics, History and Culture. London: Rowman & Littlefield International, S. 3–16. Isermann, Holger (2015): Digitale Augenzeugen. Entgrenzung, Funktionswandel und Glaubwürdigkeit im Bildjournalismus. Wiesbaden: Springer VS. Krämer, Sybille (2017): Epistemic Dependence and Trust. On Witnessing in the Third-, Second- and First-Person Perspectives. In: Dies./ Weigel, Sigrid (Hg.): Testimony/ Bearing Witness: Epistemology, Ethics, History and Culture. London: Rowman & Littlefield International, S. 247–274. Manne, Kate (2019): Down Girl. Die Logik der Misogynie. Berlin: Suhrkamp Verlag. Morris, Celia (1994): Bearing Witness. Sexual Harassment and Beyond – Everwoman’s Story. Boston/New York/Toronto/London: Little, Brown and Company. Peters, John Durham (2001): Witnessing. In: Media, Culture & Society 23, S. 707– 723. Peters, John Durham (2009): An Afterword: Torchlight Red on Sweaty Faces. In: Frosh, Paul/ Pinchevski, Amit (Hg.): Media Witnessing: Testimony in the Age of Mass Communication. Basingstoke/New York: Palgrave Macmillan, S. 42–48. Peters, John Durham (2017): Like a Thief in the Night. Witnessing and Watching. In: Krämer, Sybille/ Weigel, Sigrid (Hg.): Testimony/Bearing Witness: Epistemology, Ethics, History and Culture. London: Rowmann & Littlefield International, S. 189–207. Reading, Anna (2009): Mobile Witnessing: Ethics and the Camera Phone in the ‘War on Terror’. In: Globalizations 6 (1), S. 61–76. Richardson, Michael/ Schankweiler, Kerstin (2019): Affective witnessing. In: Slaby, Jan/ von Schewe, Christian (Hg.): Affective Societies. Key Concepts. London/New York: Routledge, S. 166–177. Schankweiler, Kerstin (2016): Selfie-Proteste. Affektzeugenschaften und Bildökonomien in den Social Media. Working Paper SFB 1171 Affective Societies 05/16. Schankweiler, Kerstin (2019): „Moroccan Lives Matter“. Practices and politics of affecting. In: Dies. et al. (Hg.): Image testimonies. Witnessing in times of social media. London/New York: Routledge, S. 59–71. Schankweiler, Kerstin et al. (2019): Image testimonies. Witnessing in times of social media. In: Dies. (Hg.): Image testimonies. Witnessing in times of social media. London/New York: Routledge, S. 1–13. Wahrheitsbedingungen digitaler Zeugenschaft 227 Schmidt, Sibylle/ Voges, Ramon (2011): Einleitung. In: Schmidt, Sibylle/ Krämer, Sybille/ Voges, Ramon (Hg.): Politik der Zeugenschaft. Zur Kritik einer Wissenspraxis. Bielefeld: transcript, S. 7–20. Schmidt, Sibylle (2011): Wissensquelle oder ethisch-politische Figur? Zur Synthese zweier Forschungsdiskurse über Zeugenschaft. In: Schmidt, Sibylle/ Krämer, Sybille/ Voges, Ramon (Hg.): Politik der Zeugenschaft. Zur Kritik einer Wissenspraxis. Bielefeld: transcript, S. 47–66. Schmidt, Sibylle (2017): Sein Wort geben. Zeugenschaft als Wissenspraxis zwischen Epistemologie und Ethik. In Däumer, Matthias et al. (Hg.): Über Zeugen. Szenarien von Zeugenschaft und ihre Akteure. Paderborn: Wilhelm Fink Verlag, S. 69– 80. Schmidt, Sibylle (2019): Zeugenschaft zwischen Ethik und Politik. In: Zeitschrift für Praktische Philosophie 6 (1), 189–214. Scholz, Oliver R. (2011): Das Zeugnis anderer – Sozialer Akt und Erkenntnisquelle. In: Schmidt, Sibylle/ Krämer, Sybille/ Voges, Ramon (Hg.): Politik der Zeugenschaft. Zur Kritik einer Wissenspraxis. Bielefeld: transcript, S. 23–46. Scott, Sasha A. Q. (2017): Mediatized Witnessing and the Ethical Imperative of Capture. In: International Journal of E-Politics 8 (1), S. 1–13. Sell, Saskia (2016): Agenda Setting. In: Heesen, Jessica (Hg.): Handbuch Medienund Informationsethik, Stuttgart: J. B. Metzler Verlag, S. 121–125. Starkey, Jesse C. et al. (2019): #MeToo Goes Global: Media Framing of Silence Breakers in Four National Settings. In: Journal of Communication Inquiry 43 (4), S. 437– 461. Tait, Sue (2011): Bearing witness, journalism and moral responsibility. In: Media, Culture & Society 33 (8). S. 1220–1235. Unger, Thorsten (2003): Erlebnisfähigkeit, unbefangene Zeugenschaft und literarischer Anspruch. In: Blöbaum, Bernd/ Neuhaus, Stefan (Hg.): Literatur und Journalismus. Theorie, Kontexte, Fallstudien. Wiesbaden: Westdeutscher Verlag, S. 173– 194. Walklate, Sandra (2017): Witnessing and Victimhood. In: Oxford Research Encyclopedia of Criminology and Criminal Justice: Crime, Media and Popular Culture. New York: Oxford University Press, 1–24. DOI: 10.1093/acrefore/ 9780190264079.013.207. Weidmann, Anke/ Papsdorf, Jenny (2010): Witnessing trauma in the newsroom. Posttraumatic Symptoms in Television Journalists Exposed to Violent News Clips. In: The Journal of Nervous and Mental Disease 198 (4), S. 264–271. Wirtz, Rainer (2014): Der mediale Augenzeuge. In: Rösinger, Amelie/ Signori, Gabriela (Hg.): Die Figur des Augenzeugen. Geschichte und Wahrheit im fächerund epochenübergreifenden Vergleich. Konstanz/München: UVK, S. 159–171. Saskia Sell 228 Abbildungsquellen: Emily Hall: Brave domestic violence victim shares daily selfies of battered face during recovery to inspire others. Daily Mirror, 29.04.2017. https://www.mirror.co.uk/ news/uk-news/brave-domestic-violence-victim-documents-10324936 (Zugriff 08.10.2019). Twitter-Screenshot des Kommentars zu Dynamiken Testimonialer Ungerechtigkeit in Onlinediskursen, aufgenommen am 24.05.2018. https://twitter.com/NjamSch (Profil existiert nicht mehr). Wahrheitsbedingungen digitaler Zeugenschaft 229 Was sagen uns „Fake News“ (nicht) über Wahrheit? Medienethische Überlegungen zu Wahrheit und Wahrhaftigkeit im digitalen Zeitalter Ingrid Stapf Abstract Der Beitrag systematisiert „Fake News“ aus medienethischer Perspektive und ordnet sie mit Bezug auf normative Ansprüche an Wahrheit, Freiheit und Verantwortung ein. Wahrheit als oberste Maxime des Journalismus gilt als eine der zentralen ethischen Anforderungen an Medien in freiheitlichen Demokratien. Denn Medien haben einen verfassungsrechtlichen Auftrag, die Öffentlichkeit zu informieren und dadurch die Meinungsbildung und politische Teilhabe zu ermöglichen. Medien stehen allerdings immer wieder unter dem Verdacht der Manipulation, Täuschung und Lügen. Nicht nur der USA-Wahlkampf 2016 oder die Brexit-Entscheidung haben veranschaulicht, wie fragil das Verhältnis von Medien und Wahrheit sein kann. Es wird argumentiert, dass „Fake News“ sich inhaltlich zwar auf Wahrheit beziehen, dass aber in aktuellen Kontexten auch individuelle Gefühle und das soziale Klima in einer Gesellschaft eine Rolle spielen. Gleichzeitig bleiben wahre Informationen, aus medienethischer Sicht, Grundlage einer freien Gesellschaft, in der der Einzelne selbstbestimmt handeln und entscheiden kann. Einleitung „Fake News“ sind nicht neu. Der Stein, der mit der „Fake-News“-Debatte ins Rollen gekommen ist, ist historisch beladen. Schon 1835 hatte die Zeitung „New York Sun“ eine Artikelserie über die Entdeckung von Leben auf dem Mond veröffentlicht (Young 2017), die unter anderem fliegende Fabelwesen zeigte. Historische Fotomontagen, wie das Wegretuschieren des in Ungnade gefallenen Leo Trotzkis im Jahr 1927 aus einem historischen Bild mit Lenin von 1920 geben, so Jäger (2017: 38), „Auskunft über die Regeln dessen, was in einer Gesellschaft zu einer bestimmten Zeit auf welche Weise gezeigt werden durfte.“ Aber auch Beispiele wie die Entdeckung der „Hitler-Tagebücher“ durch das Magazin Stern im Jahr 1983, der retuschierte Schweißfleck der Bundeskanzlerin oder der Vorwurf, „Fake News“ hätten in Groß-Britannien die Brexit-Entscheidung oder gar den 1. 231 US-Wahlkampf 2016 manipuliert, verweisen auf eine Vielfalt an Erscheinungsformen wie auch der Möglichkeit, diese zu problematisieren. Betrachtet man Beispiele rund um die Frage nach „Fakes“, so zeigt sich ein breites Spektrum, das öffentliche und mediale Diskurse ebenso prägt, wie es derzeit zur gesellschaftlichen Verunsicherung, Regulierungsfragen sozialer Netzwerke sowie der Krise – aber auch einer Neufassung – des Qualitätsjournalismus führt. Im Folgenden werden „Fake News“ medienethisch systematisiert und differenziert. Davon ist auch die Frage betroffen, ob das Phänomen „Fake News“ überhaupt so bezeichnet werden sollte und wie es definiert werden sollte, um es im Kontext ethischer Prinzipien wie Freiheit und Verantwortung, Wahrheit und Lüge, Selbstbestimmung und Fremdbestimmung und der Reflexion des Phänomens in freiheitlichen Demokratien einordnen zu können. Dabei wird argumentiert, dass „Fake News“ sich inhaltlich zwar auf Wahrheit beziehen, dass es dabei aber auch um individuelle Gefühle und das soziale Klima in einer Gesellschaft geht. Denn Hoaxes, also Falschmeldungen, so Young (2017: 303), „infect our sense of what´s true – we come to mistrust not only others but also ourselves and our own instincts.“ Abbildung 1: Medienethisches Themenspektrum bei der Frage von Wahrheit und Medien Abbildung 2: “Lack of Truth” (Jaster/Lanius 2018) Wahrheit Demokratie  & Teilhabe Vertrauen &  Glaub‐ würdigkeit Selbstbe‐ stimmung &  Wahl Freiheit &  Verant‐ wortung Gesellschaft‐ liche  Integration  & Meinungs‐ bildung Abbildung 1: Medienethisches Themenspektrum bei der Frage von Wahrheit und Medien (eigene Darstellung) Ingrid Stapf 232 Mit der notwendig werdenden Definition rückt das Konzept von Wahrheit und Wahrhaftigkeit ebenso in den Blick wie die Rolle der Medien selbst in diesen Prozessen. Das Phänomen „Fake News“ – und das meint nicht nur das, was als „Fake News“ erscheint, sondern auch die gesellschaftliche Bedeutung, die dem Phänomen zugeschrieben wird – sollte als ein relationales Phänomen verstanden werden, das sich im Vieleck von Produzenten und Nutzenden1 von „Fake News“, denen, die sie verbreiten und denjenigen, die ein Interesse an ihnen haben, entfaltet und in der Folge nicht nur öffentliche Bedeutung, sondern auch politische Zugkraft erlangen kann. So wird mit Bezug auf eine Politik sogenannter „Alternative Fakten“ des US-Präsidenten Donald Trump mittlerweile von der „Schwelle zur postfaktischen Demokratie“ (Hendricks/Vestergaard 2017) gesprochen. Bei der Inaugurationsrede von 2017 hatte er trotz Regen von der scheinenden Sonne und Millionen von anwesenden Menschen gesprochen, was beides nachweislich nicht stimmte. Wie also lassen sich „alternative Fakten“ behaupten, wenn sie nachweislich falsch sind? Hendricks & Vestergaard (2017: 4) zufolge kann man Tatsachen nicht widersprechen, da dies bedeute, „der Wirklichkeit zu widersprechen […]. Ob wir es abstreiten oder nicht, und ob wir wollen oder nicht: Wenn die Sonne tatsächlich scheint, scheint sie – und zwar nur dann.“ Trump und sein Team konterten zu dieser Zeit, dass Gefühle wichtiger als Fakten seien (Jaster/Lanius 2019: 16). Beispiele wie diese legen nahe, dass der Bezug zur Wahrheit zwar wesentlich für das Phänomen von „Fake News“ ist, er aber allein nicht ausreicht, um es zu erklären. Ein Definitionsversuch des Phänomens „Fake News“ Eine philosophisch ansetzende Definition soll es erlauben, das Phänomen einzugrenzen, um zu beschreiben, was es kennzeichnet, was darunterfällt und was nicht, um es in der Folge auch problematisieren zu können. All dies ist selbst ein Prozess des Framings, der dazu führt, das Phänomen auf eine bestimmte Art und Weise zu sehen. In der folgenden Definition geht es um Fragen der Wahrheit und Wahrhaftigkeit sowie die Intention derjenigen, die solche Nachrichten produzieren oder verbreiten. Es geht aber 2. 1 Im folgenden Text wird auf eine spezielle gendersensible Schreibweise verzichtet, dabei werden aber bei Bezeichnungen grundsätzlich alle Geschlechterformen inkludiert. Was sagen uns „Fake News“ (nicht) über Wahrheit? 233 auch um die Perspektive auf das Phänomen, die hier eine medienethische ist. In ihrer Begriffsdefinition bezeichnen Lanius und Jaster (2018) die Diskussion um „Fake News“ als „fuzzy and worn-out“, wobei nicht mal klar sei, ob der Begriff überhaupt sinnvoll sei. Trotz „Zweifel an der Brauchbarkeit des Begriffs“ (Jaster/Lanius 2019: 10) käme man um eine Beschäftigung damit als Philosoph nicht aber umhin, da er aktuell nicht mehr aus dem öffentlichen Diskurs wegzudenken sei. Die Autoren bestimmen zunächst, was „News“ ausmacht und fassen darunter „Berichte über typischerweise jüngste Ereignisse“, deren „Adressat […] die Öffentlichkeit (oder eine Teilöffentlichkeit)“ ist und die „über die traditionellen oder sozialen Medien verbreitet“ werden (Jaster/Lanius 2019: 26). „Fake news”, so die Autoren, “is news that does mischief with the truth in that it exhibits both (a) a lack of truth and (b) a lack of truthfulness. It exhibits a lack of truth in the sense that it is either false or misleading. It exhibits a lack of truthfulness in the sense that it is propagated with the intention to deceive or in the manner of bullshit.” (Jaster/Lanius 2018) Kennzeichnend für „Fake News“ sind, ihnen zufolge, zwei Defizite: Nachrichten, die von Individuen oder Medien über Events an eine Öffentlichkeit gebracht werden, mangele es demzufolge sowohl an Wahrheit als auch an Wahrhaftigkeit. Der erste Teil der Aussage, „fake news lacks truth“, impliziert, dass Tatsachen verstellt oder falsch dargestellt werden, in dem es sich entweder um falsche Aussagen handelt oder diese Aussagen zwar eigentlich wahr, dabei aber irreführend sind, indem sie etwas Falsches kommunizieren. Darunter fallen die Beispiele der Pizzagate-Verschwörung über Hillary Clintons angebliche Verwicklung in einen Kindersexring von 2016 oder die Meldung des US-amerikanischen Online-Portals Breitbart von 2017, ein muslimischer „Mob“ habe Deutschlands älteste Kirche in Brand gesetzt (Jaster/Lanius 2019: 27; Hale 2017), als es in der Silvesternacht vor einer Dortmunder Kirche einen Tumult unter jüngeren Männern gegeben hatte. Diese Fälle zeichneten ein „unwahres Bild der Wirklichkeit“ und seien nicht an sich falsch. Vielmehr kommunizierten sie etwas Falsches mit oder sie suggerierten einen bestimmten Zusammenhang, der wirkmächtig werden kann. Ingrid Stapf 234 Der zweite Teil der Aussage, „fake news lack truthfulness“, meint, den Autoren zufolge, dass „Fake News“ eine Intention zur Täuschung unterliege, z.B. im Fall von offensichtlichen Lügen oder absichtlich irreführenden Aussagen. Hierbei gehe es um Einstellungen und Intentionen, die auf Falschheit und nicht auf Wahrheit zielen, wie die Aussage Trumps, er habe nichts über Zahlungen an die Pornodarstellerin durch seinen Anwalt gewusst (Jaster/Lanius 2019: 29; Kessler 2019). Auch möglich ist aber, dass „Fake News“ die Frage nach Wahrheit ausklammern, indem sie gar kein Interesse an Wahrheit oder Falschheit aufweisen, sondern eher als „Bullshit“ zu verstehen sind. Darunter fällt beispielsweise Trumps Aussage, er habe das größte Gedächtnis der Welt (Tur/Vitali 2015). Ähnlich darf auch Trumps Rede eingeordnet werden, wonach es in der Nacht zuvor einen Terroranschlag in Schweden gegeben haben soll – was irreführend, aber nicht falsch war. Aufgestellte Behauptungen dieser Art sollen, so Harry Frankfurt (2016), bestimmte Ziele erreichen: „His goal is not to report facts. It is, rather, to shape the beliefs and attitudes of his listeners in a certain way.” Der von Frankfurt (2005) in der Philosophie geprägte Begriff des Bullshits impliziert eine indifferente Haltung der Wahrheit gegenüber: „It is impossible for someone to lie unless he thinks he knows the truth. Producing bullshit requires no such conviction. A person who lies is thereby responding to the truth, and he is to that extent respectful of it. When an honest man speaks, he says only what he believes to be true; and for the liar, it is correspondingly indispensable that he considers his statements to be false. For the bullshitter, however, all these bets are off: he is neither on the side of the true nor on the side of the false. […] He does not care whether the things he says describe reality correctly. He just picks them out, or makes them up, to suit his purpose.” Bullshitter, so Tobias Hürter (2017: 24), inszenieren sich damit selbst als Überbringer der Wahrheit, obwohl das gerade nicht ihr Ansinnen sei. Im Time-Magazin bezeichnete Harry Frankfurt (2016) Donald Trump als paradigmatischen „Bullshitter“. Was sagen uns „Fake News“ (nicht) über Wahrheit? 235 Abbildung 2 “Lack of Truth” (Jaster/Lanius 2018) Mit dieser Definition können „Fake News“ nun abgegrenzt werden von anderen Erscheinungsformen wie journalistischen Fehlern (die im Arbeitsprozess entstehen), Satire und Parodie, Propaganda, hochselektiver Berichterstattung oder Bias. Unklar und hier nicht untersucht wird die Frage, inwieweit die Definition auf Bilder, Audio oder Video zutreffen kann. Der Bildforensiker Christian Riess (2019) verweist jedenfalls mit Blick auf Deep Fakes auf das Spannungsfeld, dass „durch den rapiden Fortschritt in der digitalen Automatisierung [...] auch die Erzeugung visuell glaubwürdiger, künstlicher Bilder und Videos zunehmend einfacher“ sei. Hierdurch werde auch „die Erstellung von Bild- und Videomanipulationen gewisserma- ßen „demokratisiert““, was in der Folge die Frage nach dem Vertrauen in Videos und Bilder neuartig aufwerfe. Insoweit es um Wahrheit und Wahrhaftigkeit geht... und was dabei noch eine Rolle spielt „Fake News“ sind nach der verwendeten philosophischen Definition also problematisch mit Blick auf die Forderung nach Wahrheit und Wahrhaftigkeit. Nach Michael Glanzberg (2018) ist „Truth […] one of the central subjects in philosophy. It is also one of the largest. Truth has been a topic of discussion in its own right for thousands of years. Moreover, a huge variety of issues in philosophy re- 3. Ingrid Stapf 236 late to truth, either by relying on theses about truth, or implying theses about truth.” Der Wahrheitsbegriff ist ein philosophischer Grundbegriff von signifikantem Status und nicht mit Begriffen wie „Stuhl“ oder „Mensch“ vergleichbar. Die Frage nach Wahrheit ist so alt wie die Philosophie selbst, die, so wörtlich, Liebe zur Wahrheit meint (Gloy 2004). So postuliert schon Aristoteles, dass Sätze dann wahr sind, wenn sie wiedergeben, was man denkt und man nicht anders denkt, als die Dinge sich verhalten. Die darauf aufbauende Korrespondenztheorie beschreibt, so Glanzberg (2018), eine Übereinstimmung der Erkenntnis des Subjekts mit dem Objekt. Es geht um die Natur der Wahrheit als eine „content-toworld-relation“, nach der etwas wahr ist, wenn es damit korrespondiert, wie etwas wirklich ist. Kohärenztheorien dagegen konzentrieren sich stärker auf das Subjekt in der Erkenntnisrelation. Wahrheit bezieht sich darauf, wie verschiedene Überzeugungen zueinander in Beziehung stehen im Sinne einer „content-to-content or belief-to-belief-relation.“ Erstere führen in der Konsequenz zur Idee der Spiegelung und zweitere zur Idee der Konstruktion von Wahrheit über Subjekte.2 Wahrheitstheorien sind damit sehr heterogen und lassen sich ganz unterschiedlich erfassen. So alt wie die Frage nach Wahrheit ist aber auch die Leugnung ihrer Existenz, Relevanz und Erkennbarkeit. Spätestens seit Nietzsche wird der Wahrheitsbegriff – bei ihm „die Art von Irrthum, ohne welche eine bestimmte Art von lebendigem Wesen nicht leben könnte“ (Nietzsche 1988: 506) zunehmend dekonstruiert. Die Wahrheit kann also absolut gesetzt werden. Dann ist die Erkenntnis von Wahrheit möglich und kann normativ eingefordert werden. Sie kann aber auch relativiert werden, indem behauptet wird, es gebe keine eine Wahrheit, sondern verschiedene Perspektiven darauf. Der Skeptizismus schließlich postuliert, dass es überhaupt keine Erkenntnis von Wahrheit gibt. Historisch hat sich ein Schritt von der Wahrheitsphilosophie, welche „die Wahrheit“ als „eine Wahrheit“ versteht hin zu Wahrheitstheorien ereignet, welche eine Pluralität von Theorien zulässt (Gloy 2004). In der aktuellen „Fake News“-Debatte zeigen sich verschiedene Konzepte: In der Kritik von „Fake News“ finden sich vor allem Ansätze einer Korrespondenztheorie und der Absolutsetzung von Wahrheit – insoweit es um (nachprüfbare) Fakten geht. Es findet sich aber auch eine Relativierung von Wahrheit, insoweit es um Perspektiven auf Geschehnisse geht. So kön- 2 Ontische Theorien als dritte Form konzentrieren sich auf die Objektebene und postulieren Seinswahrheiten, wie beispielsweise bei Heidegger (Gloy 2004). Was sagen uns „Fake News“ (nicht) über Wahrheit? 237 nen bestimmte Fakten interpretiert oder ausgelegt werden, auf eine bestimmte Art und Weise kontextualisiert oder auch für bestimmte Zwecke instrumentalisiert werden. Dies muss nicht „die Wahrheit“ gefährden. Es wäre damit aber zumindest anzuerkennen, dass Wahrheit perspektivisch verstanden, gedeutet und kommuniziert wird. Denn die Behauptung der Möglichkeit von Wahrheit bleibt als zentrale Maxime menschlicher Kommunikation im Allgemeinen und insbesondere im journalistischen Handeln relevant. Denn letztendlich ist das unterliegende Wahrheitskonzept ausschlaggebend dafür, ob man von Journalisten oder Politikern Wahrheit erwarten und einfordern kann. Auch wenn man die Absolutsetzung einer Wahrheit heute bezweifeln mag, so fordern wir von unserem Ehepartner oder der Bundeskanzlerin, dass sie uns nicht anlügen; wir erwarten, dass Fakten oder Ereignisse so wahr wie möglich dargelegt werden und dass Wahrheit eine Rolle spielt. Worauf es also in der Praxis ankommt ist die geschichtliche Dimension, aber auch die perspektivische Sicht auf Wahrheit. Denn Wahrheit hat „eine geschichtliche Dimension;“ es gibt Bedingungen ihrer Konstitution, d.h. Wahrheit konstituiert sich in einem bestimmten Kontext, einer Perspektive, einer Fragestellung (Gloy 2004: 46). Und in jede Perspektive flie- ßen der jeweilige (und mögliche) Wissensstand, Vorverständnisse, Erfahrungen, aber auch Emotionen der jeweiligen Subjekte mit ein. Wir beziehen uns also immer auf ein Wahrheitskonzept – ob für Wahrheit als zentrale Norm menschlicher Kommunikation, als Richtschnur politischen Handelns oder als oberstes Gebot der journalistischen Arbeit. Von der allgemeinen erkenntnis- und wahrheitstheoretischen Ebene, welche Fragen nach dem allgemeinen Verhältnis von Individuum, Welt und Gesellschaft sowie der Erkennbarkeit von Wahrheit stellt, sei nun der Fokus gerichtet auf die kommunikationspraktische journalistische Ebene. Sie fragt nach dem Sinn, der Relevanz und der Realisierbarkeit zentraler journalistischer Normen wie der Wahrheit (Bentele 1996). Es finden sich, so Hearns-Branaman (2016: 4), Ansätze des Realismus, aber auch des Pragmatismus: „If a journalist calls out a leader, be it domestic or foreign, for lying, their discourse is epistemological in nature, Realist, resting on the journalist´s ability to reveal the truth. If a producer books two opposing sides to discuss a topic on their show, this practice is also epistemological, Pragmatic, based on the need to provide a range of opinions to attract a wider audience and let them decide what is the truth”. Ingrid Stapf 238 Der Pragmatismus versteht Wahrheit, wie C.S. Peirce, als “the end of inquiry” oder, wie William James, als das, was nach ausreichender Untersuchung nützlich ist (Capps 2019). Auch wenn es eine Wahrheit gibt, so hat sie etwas Kontingentes: Sie ist abhängig vom Wissensstand, der Ideologie, der Sichtweise derer, die von ihr sprechen. In freiheitlichen Demokratien, in denen Journalisten eine Kontroll-, und Kritikfunktion ausüben, Öffentlichkeit herstellen und gesellschaftlich integrieren sollen, ist es, so Harcup (2009), normativ gesetzt, dass „journalists strive to give the most truthful version that can be obtained at any one time.“ Im pragmatischen Sinne geht es bei journalistischer Wahrheit also um einen Prozess hin zu mehr Verstehen. Folglich hilft, so Kovach & Rosenstiel (2007), der Blick auf journalistische Wahrheit als ein Prozess: „it is more helpful and more realistic, to understand journalistic truth as a process [toward] understanding [because journalism is] a practical or functional form of truth.” Die Frage nach Wahrheit stellt sich damit für den Journalisten anders als für den Philosophen. Nach Leonhardt (1976: 8f.) kann der Journalist die Frage „Was ist Wahrheit?“ nicht offenlassen: „Er steht alltäglich unter dem Zwang, eine Antwort zu finden“ und stößt auf eine „Fülle von möglichen Wahrheiten, Halbwahrheiten, Unwahrheiten“. Für Journalisten „stellt sich die Wahrheitsfrage auch als Frage faktischer Richtigkeit, ausgewogener Darstellung und gegebenenfalls auch dem Zugeständnis ihrer Nichtfassbarkeit. Aufgrund seiner kommunikativen Aussage in den öffentlichen Raum hat der Journalist zu differenzieren zwischen Fakten vs. Meinung, Wissen vs. Vermutung, Subjektivität vs. Objektivität. Im Zuge von Recherche, Schreiben und Überprüfen muss er sich immer wieder die Frage stellen, was die Wahrheit ist, wie sie erfahren werden kann, und ob sie aufgrund welcher Gründe kommuniziert werden kann, muss bzw. darf.“ (Stapf 2012: 169) Wahrheit gilt damit als zentraler Wert journalistischen Handelns (Stapf 2012: 168). „Die Achtung vor der Wahrheit, die Wahrung der Menschenwürde und die wahrhaftige Unterrichtung der Öffentlichkeit“ sind demzufolge, wie im Pressekodex in Ziffer 1 benannt, „oberste Gebote der Presse“ und, mit Käthe Hamburger (1979), der „leitende Wertbegriff, der das menschliche Zusammenleben regelt“. Aus dem verfassungsrechtlichen Auftrag von Medien für die Demokratie und die Herstellung von Öffentlichkeit im Zuge dafür garantierter Medienfreiheiten haben Journalisten damit eine Verantwortung dafür, die Öffentlichkeit wahrhaftig zu unterrichten. Und können dies nur insoweit, wie es auch Politiker tun. Weil freie Massenmedien nämlich als funktional für die freiheitliche Demokratie gelten, indem sie politische, gesellschaftliche, kulturelle und Was sagen uns „Fake News“ (nicht) über Wahrheit? 239 wirtschaftliche Funktionen für die Gesellschaft erfüllen, sind sie verfassungsrechtlich geschützt. Die Orientierungsfunktion von Medien und die Notwendigkeit der Herstellung von Öffentlichkeit in komplexen Gesellschaften (Pöttker 1999) begründet die Gemeinwohlorientierung des Journalismus. Aber Informationen werden immer gedeutet, verstanden, interpretiert, selektiv wahrgenommen und situationsspezifisch kommuniziert – von Individuen in konkreten Rahmenbedingungen. Dies ist ein Konstruktionsprozess und geht auch mit dem Erzählen von Geschichten einher, wie es Hannah Arendt (2017/1972: 89) in ihrem Essay Wahrheit und Politik postuliert: „Denn das, was wir unter Wirklichkeit verstehen, ist niemals mit der Summe aller uns zugänglichen Fakten und Ereignisse identisch und wäre es auch nicht, wenn es uns je gelänge, aller objektiven Daten habhaft zu werden. Wer es unternimmt zu sagen, was ist – legei ta eonta – kann nicht umhin, eine Geschichte zu erzählen und in dieser Geschichte verlieren die Fakten bereits ihre ursprüngliche Beliebigkeit und erlangen eine Bedeutung, die menschlich sinnvoll ist.“ Diese konstruktivistische Leistung des Vermittelns, aber auch des Verstehens von Wahrheit findet sich sowohl bei Journalisten wie bei Politikern oder Rezipienten: Wenn Donald Trump nachweislich falsche Statements verbreitet wie, er habe „the worlds largest memory“ (2015), oder die Aussage, die Bilder der Inauguration-Menge, die bei ihm eine kleinere Menge zeigten als bei Obama, als eine „Lüge“ bezeichnet; oder wenn er irreführende Statements äußert, wie „You look at what´s happening in Germany, you look at what´s happening last night in Sweden. Sweden, who would believe this?“ (2017), dann erscheint der Verweis auf Fakten oder Wahrheit nicht ausreichend. Vielmehr zeigt sich, dass der Sprecher hier – im Sinne Frankfurt´s Bullshit – überhaupt keine Wahrheitsansprüche erhebt, sondern vielmehr eine Haltung oder Sichtweise ausdrückt, die Zugehörigkeiten, Identitäten oder Sichtweisen verhandelt. Wahrheit hat, so Schockenhoff (2000), erstens einen Aussagensinn. Sie ist dann bezogen auf Sätze oder Fakten, die wahr sind und mit einer außersprachlichen Wirklichkeit übereinstimmen. Der kommunikative Sinn der Sprache liegt in der sachlichen Mitteilungsfunktion. Wahrheit hat zweitens aber auch einen personalen Sinn (als Selbstverhältnis). Wahrhaftigkeit als „personaler Wert der Wahrheit“ ist danach Teil einer Sprachhandlung, bei der sich Sprecher und Adressat im Verhältnis zur Wirklichkeit begegnen. Sie bezieht sich auf ein Sinnbedürfnis. Und Wahrheit hat drittens einen kommunikativen Sinn. Sie konstituiert sich danach in intersubjekti- Ingrid Stapf 240 ven Vermittlungs- und Austauschprozessen innerhalb eines sprachlichen und kulturellen Referenzrahmens – als Suche nach Verständigung und gemeinsamer Teilhabe.3 Damit ließe sich diskutieren, welche Motivationen dem Gebrauch von „Fake News“ unterliegen, warum sie konsumiert werden, und welche Konsequenzen der vermehrte Gebrauch von „Fake News“ gesellschaftlich oder politisch hat. Es ließe sich auch besser verstehen, wieso viele nachgewiesene Lügen oder Irreführungen im Falle Trumps kaum mit gesellschaftlichen oder gar politischen Sanktionen einhergegangen sind, obwohl Wahrheit als politischer, gesellschaftlicher und journalistischer Leitwert verstanden wird. Kontextsensitive Relationalität: Folgen und Folgenfolgen und die Bedeutung der Kontexte Den selektiven Aspekt kommunikativer Handlungen hat Robert Entman (1993) mit dem Framing-Begriff erfasst: „to frame is to select some aspects of a perceived reality and make them more salient in a communicating text in such a way as to promote a particular problem definition, causal interpretation, moral evaluation and / or treatment recommendation for the item described”. Dieser Prozess unterliegt einer (auch dieser) philosophischen Argumentation ebenso wie „Fake-News“ im Rahmen von politischem Framing. Selektive Prozesse im kommunikativen Handeln können dem Verstehen von Wirklichkeit dienen, indem über Vereinfachung Komplexität reduziert wird. Doch ist die Grenze zur Manipulation und Täuschung nicht immer klar bestimmbar. Entscheidend ist vielmehr das, was den zweiten Teil der Definition ausmacht: die Intention. So kennzeichnet „Fake News“ mit Blick auf die vorherige Definition, dass es sich nicht um versehentliche journalistische Fehler oder gar poor journalism handelt, sondern vielmehr um den Versuch der Lüge oder Täuschung. Eine „Lüge“, so Simone Dietz (2017: 22) ist ein „bewusster, aber verdeckter Widerspruch zwischen Aussage und innerem Fürwahrhalten, der verdeckten, aber weiter reichenden Absichten dient.“ Eine Lüge impliziert, 4. 3 Aus ersterer folgt, so Schockenhoff, das Ethos der Objektivität und Sachlichkeit, aus zweiterer das Ethos der Wahrhaftigkeit, und aus dritter das Ethos der gemeinsamen Teilhabe und Dialogbereitschaft. Was sagen uns „Fake News“ (nicht) über Wahrheit? 241 ihr zufolge, eine bewusste Unwahrheit und verstecktes Handeln, das sprachlich vollzogen wird. Hinter ihr steckt ein „Wille zur Unwahrheit“ und eine aktive (eher offensive) Täuschungshandlung oder ein (eher defensives) Nicht-Preisgebenwollen. Entscheidend ist dabei einerseits, dass eine Wahrheitsfähigkeit in der Form einer Aussage vorliegt, dass es einen bewussten Widerspruch zwischen der Aussage und dem inneren Fürwahrhalten gibt und dass der Lügner mit seiner Lüge einen Zweck verfolgt. Die Fähigkeit zu lügen verweist in diesem Denken damit auch auf eine grundlegende Freiheit. Die Freiheit nämlich eine Wahl zu haben und Ziele zu verfolgen. Lügen können auch sozial sinnvoll sein (z.B. Höflichkeitslügen), sie können schützen (z.B. eine Lüge, die eine Person schützt, die eigentlich unschuldig ist), oder sie können Ausdruck kreativen Denkens sein. Hinter der Fähigkeit zu lügen steckt, mit Hannah Arendt (2017/1972: 8f), immer auch das Potenzial der Veränderung oder „Raum für neues Handeln“. Denn Lügen implizieren die Fähigkeit, „uns vorzustellen, dass die Dinge auch anders ein könnten, als sie tatsächlich sind.“ Denn die „bewusste Leugnung der Tatsachen – die Fähigkeit zu lügen – und das Vermögen, die Wirklichkeit zu verändern – die Fähigkeit zu handeln – hängen zusammen; sie verdanken ihr Dasein derselben Quelle: der Einbildungskraft.“ Dietz (2017) versteht Lügen ebenfalls als ein bestimmtes Können, eine praktische Fähigkeit, Technik oder gar „Kunst“, die nicht an sich moralisch verwerflich sein muss. Aber an welcher Stelle sind sie problematisierbar oder gar moralisch verwerflich mit Blick auf „Fake News“? Was unterscheidet eine Höflichkeitslüge von der Watergate-Affäre? Einen retuschierten Schweißfleck von Social-Media-Fake-News-Kampagnen im Wahlkampf? Und was macht die eigentlich ethische Dimension der Lüge aus? Rigoristen wie die Philosophin Sissela Bok (1980) bezeichnen Täuschung als eine „Form von Gewalt“: denn ihr unterliege ein „Zwangsmoment“, das das Funktionieren der Gesellschaft beeinträchtige und das für Kommunikation notwendige Vertrauen aufs Spiel setze. „Lügen“, so Bok, „missachten die Verantwortung, die mit Macht einher geht und erschweren Selbstbestimmung. Denn Entscheidungen hängen von Einschätzungen dessen ab, was der Fall ist. Hierzu bedürfen sie wahrer Informationen.“ Denn was würde passieren, wenn Mitglieder der Gesellschaft wahrhaftige nicht mehr von lügnerischen Botschaften unterscheiden könnten? Welche Glaubwürdigkeit hätte die Warnung ein Brunnen sei (nicht) vergiftet? Eine Lüge kann falsch informieren, vom Ziel abbringen, neue Ziele schaffen, Alternativen ausschalten, Entscheidungen manipulieren, Unsicherheit oder gar Orientierungslosigkeit verursachen. Für Bok (1980: 41) liegt die moralische Brisanz der Lüge im Machtungleichgewicht, von der Ingrid Stapf 242 die Möglichkeit der Freiheit derer betroffen sein kann, die getäuscht werden. So scheinen unterhaltende Fake-Formen im Rahmen von Spielshows, wie Sag die Wahrheit (SWR) prinzipiell weniger problematisierbar, obwohl sie sowohl die Wahrheit umschiffen und eine täuschende Absicht verfolgen als „Fake News“, die bestimmte Gruppen, wie Geflohene kriminalisieren und dabei Einstellungen und Gefühle ansprechen, die den Raum des Demokratischen verlassen oder zu Entscheidungsgrundlagen für politisches Handeln werden. Dass Emotionen eine bedeutsame Rolle spielen, erklärt nicht nur die Bereitschaft „Fake News“ zu nutzen und zu verbreiten, auch wenn es nachweislich Täuschungsakte waren, sondern auch die Motivation derer, die sie produzieren und verbreiten. So zeigen Alcott & Gentzkow (2017: 217) in ihrer Studie, dass die Gründe zur Verbreitung von „Fake News“ einerseits monetär sind, wenn beispielsweise bei viral werdenden „Fake News“ große Anzeigenerlöse erzielt werden. So sollen mazedonische Teenager Nachrichten zugunsten sowohl Clintons als auch Trumps geschrieben haben, mit denen sie großen Summen an Geld verdient haben. Die Gründe sind aber daneben ideologisch, indem sie eine bestimmte Sichtweise verbreiten oder bestimmte politische Kandidaten diskreditieren. Das Phänomen jedenfalls, dass „Fake News“ die Wahlen 2016 in den USA beeinflusst haben sollen, verweist darauf, dass sie wirkmächtig sein könnten: In den USA erhalten 62 Prozent der Erwachsenen ihre Nachrichten über soziale Medien (Gottfried/Shearer 2016), obwohl diese nicht die dominante Nachrichtenquelle sind (Alcott/Gentzkow 2017: 223). Die populärsten „Fake News“ wurden verglichen mit populären Mainstream- Nachrichten am meisten über Plattformen wie Facebook verbreitet (Silverman 2016). Viele der Menschen, die „Fake News“ rezipiert haben, scheinen sie geglaubt zu haben (Silverman/Singer-Vine 2016) und von diesen favorisierten die meisten den Kandidaten Trump gegenüber der Kandidatin Clinton (Silverman 2016). Nach Alcott & Gentzkow (2017: 214) gibt es mehrere Erklärungsgründe, warum „Fake News“ vermehrt über soziale Netzwerke kursieren. Online-Inhalte können einfacher und schneller als je verbreitet und monetarisiert werden. Dies findet in einer Zeit statt, in der soziale Medien eine vorrangige Informationsquelle für viele Rezipienten geworden sind und sich dabei für die Verbreitung von „Fake News“ eignen. Warum Fake News leichtes Spiel haben erklären Jaster & Lanius (2019: 48) auch mit der Wissenschaftsforscherin Helga Nowotny, die soziale Medien als „beispiellose Verbreitungsmaschine“ für „Fake News“ bezeichnet hat. Was sagen uns „Fake News“ (nicht) über Wahrheit? 243 Im Zuge der Digitalisierung seien „neue Verbreitungswege und Anreizstrukturen entstanden, die einen fruchtbaren Boden dafür bereiten, Fake News zu veröffentlichen, zu teilen und zu konsumieren (Jaster & Lanius 2019: 50). Denn diese können in gezielte Milieus ausstrahlen, die in Zeiten abnehmenden Vertrauens in die Medien weniger stark traditionelle Gatekeeper-Medien rezipieren, sondern sich in „Echokammern“ begeben, in denen ihre politische Sichtweise verstärkt aufgefunden und reproduziert wird. Und dies trifft auf ein politisches Klima des Populismus, der diese Prozesse der Polarisierung und Emotionalisierung politischer Themen verstärkt. Ähnliches zeigt die Studie der Stiftung Neue Verantwortung zum Deutschen Wahlkampf 2017. Hier wurden „Fake News“ vor allem von Rechten, Rechtspopulisten und Rechtsextremen verbreitet, wobei die AfD die Speerspitze der Verbreitung aufweist, die unter den Top-10 der reichweitenstärksten Verbreiter standen (Sängerlaub et al. 2017: 2). Es zeigt sich aber auch, dass sich viele „Fake News“-Fälle an Poor Journalism oder unprofessionelle politische Öffentlichkeitsarbeit staatlicher Stellen anschlossen, die dann über rechtspopulistische Akteure „für ihre ideologische Kampagne als Teil ihrer Kommunikationsstrategie“ (ebd. 3) instrumentalisiert wurden. Interessant ist hierbei, dass sich das Themenfeld der „Fake News“ vorrangig um Flüchtlinge und Kriminalität drehte – Themen, die auf Unsicherheiten und Ängste der Bevölkerung stoßen und sich besonders zur Emotionalisierung eignen. Die Studie hat überdies aufgezeigt, dass „Fake News“ eine deutlich höhere Reichweite als ihr Debunking über Fact Checkers erzielten (Sängerlaub et al. 2017: 4). Gründe hierfür liegen aus Sicht der Autoren in der „Funktionslogik der Sozialen Medien, die affektive Handlungen eher anregen als kognitive.“ Emotionale, sensationelle Nachrichten verbreiteten sich damit deutlich schneller als nüchterne Richtigstellungen. Zudem spiele der Faktor Zeit eine Rolle, wenn ein umfangreiches Debunking zwischen 24–72 Stunden dauern kann. Und schließlich gelangen viele Institutionen, die Debunkung vorantreiben, auch gar nicht erst in die gleichen sozialen Netzwerke, in denen sich diejenigen aufhalten, die sie tendenziell glauben. Entscheidend für das Verstehen all dieser Prozesse erscheinen folglich andere Faktoren, die im menschlichen Individuum (Bedürfnisse, Haltungen, Gefühle), in der sozialen Gemeinschaft (Umgang mit Wahrheit, Moral, Sanktionen), aber auch in Institutionen und geltenden Normen einer Gesellschaft, dem politischen System (freiheitliche Demokratie versus repressive Totalherrschaft) und schließlich in den medialen Kontextbedingungen (Funktionslogik sozialer Medien) liegen. Ingrid Stapf 244 Besonders zentral erscheinen Gefühle oder das, was die Emotionssoziologin Arlie Hochschildt (2018, 2016), „Deep Stories“ nennt. Gemeint ist damit eine Wahrheit, an die Menschen glauben wollen. Eine subjektive oder kollektiv wahrgenommene Wahrheit, bei der tiefer liegende Narrative, aber auch Gefühle aktiviert werden: „What I came to feel and realize is that both the left and the right have different deep stories […]. A deep story is what you feel about a highly salient situation that is important to you. You take facts out of the deep story. You take moral precepts out of the deep story. It´s what feels true. I think we all have deep stories, whatever our politics, but that we´re not fully aware of them […].” (Hochschildt 2018) In diesen Prozessen spielen emotionale wie kognitive Mechanismen eine Rolle. So argumentieren Jaster & Lanius (2019: 54ff.) mit Bestätigungsfehlern und kognitiver Dissonanz, um den Erfolg von „Fake News“ zu erklären. Menschen glauben demnach das, was bisherigen Erwartungen entspricht, viel eher als Informationen, die dissonant damit sind. Informationen wird eine höhere Glaubwürdigkeit zugeschrieben, wenn sie mit bestehenden Überzeugungen korrelieren: „Informationen, die zu dem passen, von dem wir ausgehen, werden viel leichter zur Kenntnis genommen, als Informationen, die unsere Weltsicht in Frage stellen.“ (ebd. 57) So erklärt sich selektive Wahrnehmung oder Bias mit „Bestätigungsfehlern“; dass Menschen nämlich selektiv Informationen sammeln, erinnern und auch interpretieren. Zudem verstärkt sich dies durch Informationskaskaden (ebd. 61ff.), wenn Informationen glaubwürdiger wirken, allein weil eine Mehrzahl an Menschen sie bereits für wahr hält. Etwas, was in sozialen Medien und den daran diskutierten „Echokammern“ noch verstärkt wird. Hier rücken demzufolge auch psychologische und soziale Nutzungsmotive sowie damit einhergehenden Gratifikationen in den Vordergrund. Ethisch relevant werden aber neben dem Verstehen dieser Prozesse auch die Folgen und Folgenfolgen für eine Demokratie, das Vertrauen in Politik und Medien sowie das gesellschaftliche Vertrauen. Die Prozesse, dass sich etwas, was als wahr anfühlt wirkmächtiger ist als das, was als „Fakten“ präsentiert wird, ist nicht neu. Dies belegen unzählige Beispiele von historischen Verschwörungstheorien (Butter 2018; Young 2017, Keil/Kellerhoff 2017). Kontexte des steigenden Populismus und des medialen Strukturwandels kombiniert mit der aktuellen Regulierungskrise verstärken möglicherweise die Gefahr weiter fragmentierender Öffentlichkeiten und des politischen Extremismus, der sich schleichend in die Mitte der Gesellschaft bewegt. Was sagen uns „Fake News“ (nicht) über Wahrheit? 245 Die Krise der Qualitätsmedien, die eingeschränkte Regulierbarkeit sozialer Netzwerke, die Globalität der Phänomene und ihre Schnelligkeit, und das inhaltliche, aber auch das emotionale Agenda-Setting können damit, so Cass Sunstein (2017), zur „divided democracy in the age of social media“ führen. Sie können unsere Freiheit beeinträchtigen, wenn sie mit einem Klima der dauernden Möglichkeit von Täuschung einhergehen. Denn auch das wird möglicherweise zu einer Deep Story: Dass ich in einer Gesellschaft leben könnte, in der es immer sein kann, dass ich getäuscht oder belogen werde oder in einer Gesellschaft, in der nachgewiesene Lügen als Unterhaltungsmerkmal verharmlost werden, wenn sie eigentlich politisch motiviert sind. Diese Effekte sind empirisch schwer messbar, aber medienethisch hoch relevant. Fazit: Was auf dem Spiel steht: Medienethische Problematisierung von „Fake News“ „Fake News“ kann man also abtun oder zu ernst nehmen. Es kommt darauf an, den Begriff ausreichend zu definieren – auch mit Blick auf das implizite Wahrheitsverständnis. Gleichzeitig sind aktuelle Kontexte und Rahmenbedingungen, die empirische Forschung und globale politische Entwicklungen einzubeziehen. Aus medienethischer Sicht gilt es, die Wahrheitsnorm einzufordern, da sie zentral ist für individuelle und kollektive Selbstbestimmung, Meinungsbildung und politische Teilhabe in freiheitlichen Demokratien. Dazu braucht es Prozesse der kritischen Reflexion, Steuerung und Normierung, eine Professionsethik mit handlungsleitenden Kodizes, die Wahrheit zentral setzen und als Medienqualität verstehen (Wunden 1996) sowie ein breit angelegtes Fact-Checking. Dazu braucht es aber auch öffentliche Debatten zu bestehenden gesellschaftlichen Ängsten, eine wache Zivilgesellschaft, die Wahrheit einfordert und eine universitäre interdisziplinäre Forschung sowie Bildungsmaßnahmen wie Medienkompetenzprojekte. Eine kontextsensible Ethik (Krones/Richter 2003) betrachtet „Fake News“ unter dem Prinzip Wahrheit als Leitprinzip, das kulturell und situativ geltend gemacht oder verworfen werden kann, aber normativ leitend bleibt in den Entscheidungsprozessen Einzelner sowie in Gesellschaft und Politik. Nach Dietz (2017: 137) steht bei der Lüge vor allem eines auf dem Spiel, was sie von der Höflichkeit, dem Spiel oder dem möglichen moralischen Wert von Lügen unterscheidet: die Freiheit und selbstbestimmte Wahl. So liege die moralische Zulässigkeit der Lüge in der „Verteidigung gegen un- 5. Ingrid Stapf 246 berechtigte Angriffe auf die Freiheit und im Schutz der Privatsphäre“, die moralische Verwerflichkeit dagegen in der „Instrumentalisierung des Belogenen, in der Missachtung seiner Fähigkeit zu eigener Zwecksetzung.“ In dieser Hinsicht, so Arendt (2017: 83), gebe es auch keinen Ersatz für die Wahrheit: „Wo Tatsachen konsequent durch Lügen und Totalfiktionen ersetzt werden, stellt sich heraus, daß es einen Ersatz für die Wahrheit nicht gibt. Denn das Resultat ist keineswegs, dass die Lüge nun als wahr akzeptiert und die Wahrheit als Lüge diffamiert wird, sondern dass der menschliche Orientierungssinn im Bereich des Wirklichen, der ohne die Unterscheidung von Wahrheit und Unwahrheit nicht funktionieren kann, vernichtet wird.“ Bei „Fake News“ geht es also nur zum Teil um die Frage nach Wahrheit. Es geht auch um das, was Menschen für wahr halten wollen, was ihre Gefühle bestätigt oder sie in ihren Ängsten abholt. Es geht um ein Meinungsklima in zunehmend zersplitterten Öffentlichkeiten, aber auch um die Intentionen der „Fake News“-Produzenten: nämlich auch emotionales Agenda-Setting zu betreiben, in dem die Grenze zwischen Wahrheit und Täuschung flüssiger wird und diese Trennung als weniger bedeutsam wahrgenommen wird. Kurz: Insoweit es bei „Fake News“ um die Wahrheit geht, muss diese (etwas) wert sein, muss sie ein Wert bleiben. Literatur Allcott, Hunt/Gentzkow, Matthew (2017): Social Media and Fake News in the 2016 Election. In: Journal of Economic Perspectives, Vol 31, No. 2, Spring 2017; S. 211–236. Online unter: https://pubs.aeaweb.org/doi/pdfplus/10.1257/ jep.31.2.211 [Abfrage am 31.10.2019]. Arendt, Hannah (2017/1972): Wahrheit und Lüge in der Politik. München: Piper. Bentele, Günter (2016): Wahrheit. In: Heesen, J. (Hg.): Handbuch Medien- und Informationsethik. Stuttgart: Metzler; S. 59–66. Bok, Sissela (1980): Lügen. Vom täglichen Zwang zur Unaufrichtigkeit. Hamburg: Rowohlt (Original: Lying. Moral Choice in Public and Private Life). Butter, Michael (2018): „Nichts ist wie es scheint”. Über Verschwörungstheorien. Berlin. Capps, John (2019): The Pragmatic Theory of Truth. In: The Stanford Encyclopedia of Philosophy (Summer 2019 Edition). Hg. von Edward N. Zalta. Online unter: https://plato.stanford.edu/archives/sum2019/entries/truth-pragmatic [Abfrage am: 7.11.2019]. Was sagen uns „Fake News“ (nicht) über Wahrheit? 247 Dietz, Simone (2017): Die Kunst des Lügens: eine sprachliche Fähigkeit und ihr moralischer Wert. Reinbek bei Hamburg: Rowohlt. Entman, Robert (1993): Framing. Toward clarification of a fractured paradigm. Journal of Communication 43, S. 51–58. Frankfurt, Harry G: (2016): Donald Trump Is BS, Says Expert in BS. In: TIME vom 12.5.2016. Online unter: https://time.com/4321036/donald-trump-bs/ [Abfrage am: 1.11.2019]. Frankfurt, Harry G. (2005): On Bullshit. Princeton: Princeton University Press. Glanzberg, Michael (2018): Truth. In: Edward N. Zalta (ed.): The Stanford Encyclopedia of Philosophy (Fall 2018 Edition); online unter: https://plato.stanford.edu/ archives/fall2018/entries/truth [Abfrage am: 1.11.2019]. Gloy, Karen (2004): Wahrheitstheorien. Tübingen: Francke. Gottfried, Jeffrey/Shearer, Elisa (2016): News Use across Social Media Platforms 2016. Pew Research Center, May 26. http://www. journalism.org/2016/05/26/news-useacross- social-media-platforms-2016 [Abfrage am: 31.10.2019]. Hale, Virginia (2017): „Revealed: 1,000-Man Mob Attack Police, Set Germany´s Oldest Church Alight on New Year´s Eve”, 3.1.2017; online unter: https://www.breitbart.com/london/2017/01/03/dortmund-mob-attack-police-church-alight [Abfrage am: 1.11.2019]. Hamburger, Käthe (1979): Wahrheit und Ästhetische Wahrheit. Stuttgart: Klett-Cotta. Harcup, Tony (2009): Journalism: Principles and Practice. Thousand Oaks, CA: Sage. Hearns-Branaman, Jesse Owen (2016): Journalism and the Philosophy of Truth. Beyond Objectivity and Balance. New York/London. Hendricks, Vincent F./Vestergaard, Mads (2017): Verlorene Wirklichkeit? An der Schwelle zur Postfaktischen Demokratie. In: Aus Politik und Zeitgeschehen (APuZ) 13/2017: Wahrheit; S. 4–10; online unter: http://www.bpb.de/shop/zeits chriften/apuz/245227/wahrheit [Abfrage am 1.11.2019]. Hochschild, Arlie Russell (2018): The Deep Stories of Our Time. Interview on On Being am 18.10.2018; online unter https://onbeing.org/programs/arliehochschild-the-deep-stories-of-our-time-oct2018/#transcript [Abfrage am: 2.11.2019], Hochschild, Arlie Russell (2016): Strangers in Their Own Land: Anger and Mourning on the American Right. A Journey to the Heart of Our Political Divide. New York/ London: The New Press. Hürter, Tobias (2017): Bullshit. Weder Wahrheit noch Lüge. In: Aus Politik und Zeitgeschehen (APuZ) 13/2017: Wahrheit; S. 23–27; online unter: http://www.bpb.d e/shop/zeitschriften/apuz/245227/wahrheit [Abfrage am 1.11.2019]. Jäger, Jens (2017): Bilder und “Historische Wahrheit“. In: Aus Politik und Zeitgeschehen (APuZ) 13/2017: Wahrheit; S. 34–39; online unter: http://www.bpb.de/shop /zeitschriften/apuz/245227/wahrheit [Abfrage am 1.11.2019]. Jaster, Romy/ Lanius, David (2018): What is Fake News? In: Versus 127 (2018) Nr. 2, S. 207–224. Online unter: https://philpapers.org/rec/JASWIF. Ingrid Stapf 248 Jaster, Romy/Lanius, David (2019): Die Wahrheit schafft sich ab. Wie Fake News Politik machen. Stuttgart: Reclam. Keil, Lars-Broder/Kellerhoff, Sven Felix (2017): Fake News machen Geschichte. Gerüchte und Falschmeldungen im 20. & 21. Jahrhundert. Berlin. Kessler, Glenn (2019): Not just Misleading. Not Merely False. A Lie. 22.8.2019. Online unter: https://www.washingtonpost.com/politics/2018/08/23/not-just-misleading -not-merely-false-lie/?utm_term=9bda59465b1e [Abfrage am: 30.10.2019]. Kovach, Bill / Rosenstiel, Tom (2007): The Elements of Journalism: What Newspeople Should Know and the Public Should Expect. Three Rivers Press. Krones, Tanja / Richter, Gerd (2003): Kontextsensitive Ethik am Rubikon. In: Düwell, M. /Steigleder, K. (Hg.): Bioethik. Eine Einführung. Frankfurt a. M., S. 238–245. Leonhardt, Rudolf Walter (1976): Journalismus und Wahrheit. München: Piper/ Luzern: Reich. Nietzsche, Friedrich (1988): Nachgelassene Fragmente April-Juni 1885 34 [253]. In: ders. Sämtliche Werke. Bd. 11. Kritische Studienausgabe in 15 Einzelbänden. Berlin/New York. Pöttker, Horst (1999): Öffentlichkeit als gesellschaftlicher Auftrag. Zum Verhältnis von Berufsethos und universaler Moral im Journalismus. In: Funiok, R. et al. (Hg.): Medienethik – die Frage der Verantwortung. Bonn: Bundeszentrale für politische Bildung; S. 215–232. Riess, Christian (2019): Täuschend echt: Die Erzeugung von digitalen Bildfälschungen und ihre Erkennung. In Rudolph Freiburg (Hg.), Täuschungen – Erlanger Universitätstage 2018; S 95–113). Erlangen: FAU University Press. Sängerlaub, Alexander / Meier, Miriam / Rühl, Wolf-Dieter (2018): Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Stiftung Neue Verantwortung (März 2018); online unter: https://www.stiftung-nv.de/de/publikation/fakten-statt-fakes-verursacher-verbreit ungswege-und-wirkungen-von-fake-news-im [Abfrage am: 30.10.2019]. Schicha, Christian (2018): Analoge und digitale Ausprägungen von „Fake-News“ in Wort und Bild. Identifikationsmöglichkeiten und Vorschläge für einen konstruktiven Umgang mit falschen Fakten. In: Vierteljahresschrift für wissenschaftliche Pädagogik, 94 (2018); S. 22–39. Schockenhoff, Eberhard (2000): Zur Lüge verdammt? Politik, Medien, Medizin, Justiz, Wissenschaft und die Ethik der Wahrheit. Freiburg: Herder. Silverman, Craig (2016): “This Analysis Shows how Fake Election News Stories Outperformed Real News on Facebook.” In: BuzzFeed News, 16.11.2016. Silverman, Craig/Jeremy Singer-Vine (2016): “Most Americans Who See Fake News Believe It, New Survey Says.” In: BuzzFeed News, 6.12.2016. Stapf, Ingrid (2012): Wahrheit als moralische Grundlage der Zivilgesellschaft. Zur Rolle der Medien und der Medienethik in der Demokratie. In: Filipovic, A. et al. (Hg.) Medien- und Zivilgesellschaft. Band 1 – Reihe „Kommunikations- und Medienethik.“ Weinheim/Basel: Beltz Juventa 2012, S. 159–178. Was sagen uns „Fake News“ (nicht) über Wahrheit? 249 Sunstein, Cass R. (2017) #republic. Divided Democracy in the Age of Social Media. Princeton. Tur, Katy/ Vitali, Ali (2015): Amid latest controversy, Trump claims „world´s greatest memory.“ In: MSNBC vom 23.11.2015; online unter: http://www.msnbc.com/ms nbc/trump-claims-worlds-greatest-memory [Abfrage am: 1.11.2018]. Young, Kevin (2017): Bunk. The Rise of Hoaxes, Humbug, Plagiarists, Phonies, Post- Facts, and Fake News. Minneapolis. Wunden, Wolfgang (Hg.) (1996): Wahrheit als Medienqualität. Beiträge zur Medienethik, Bd. 3. Frankfurt a. M. Ingrid Stapf 250 Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? Roger Blum Abstract In einer Zeit, in der die Medien mit dem Vorwurf der „Lügenpresse“ konfrontiert sind, gilt nicht mehr als selbstverständlich, dass Journalistinnen und Journalisten nach der Wahrheit suchen. Die Öffentlichkeit hat aber Anspruch, die Wahrheit zu erfahren. Deshalb haben Faktenchecker an Bedeutung gewonnen, sowohl in den USA wie neuerdings auch in Europa. Dieser Beitrag untersucht die Seriosität und Unparteilichkeit von Faktenchecks am Beispiel zweier solcher Einrichtungen in der Schweiz. Ausgangspunkt war ein Urteil der Rundfunk-Beschwerdeinstanz, die einen Faktencheck massiv rügte. Aus der Analyse von 14 Faktenchecks der Zeitung „Tages-Anzeiger“ und der SRG-Online-Plattform „swissinfo“ geht hervor, dass die Quellen in der Regel transparent sind, aber die Auswahl der Aussagen nicht begründet wird und dabei teilweise ein Bias vermutet werden kann. Daher stellt sich die Frage, wer die Faktenchecker checkt. Die nicht ganz befriedigende Antwort lautet: Selbstregulierung sowie die Möglichkeit von Publikumsbeschwerden. Theoretischer Zugriff Als im Spätherbst 2018 der mehrfach preisgekrönte „Spiegel“-Journalist Claas Relotius der wiederholten Fälschung überführt wurde, war dies der größte Glaubwürdigkeitsdefekt des Journalismus seit den gefälschten Hitler-Tagebüchern, die der „stern“ 1983 publiziert hatte (Seufert 2008). Dass ein Journalist noch und noch mit unwahren Recherchen brillieren konnte, war ein Beispiel für das Versagen des journalistischen Binnen-Faktencheckings. Ausgerechnet der „Spiegel“, der sich stets mit seinem Archiv und mit seiner pingeligen Fakten-Überprüfung brüstete, musste eingestehen, dass man dem Nachrichtenmagazin problemlos erfundene Geschichten unterjubeln konnte („Der Spiegel“ 2019; Moreno 2019). Die Branche bestätigte damit unfreiwillig den Vorwurf der „Lügenpresse“. Dabei ist es gerade die ureigene Aufgabe des Journalismus, nach der Wahrheit zu suchen. Dies halten auch die verschiedenen berufsethischen Kodizes fest. So sagt der deutsche Pressekodex in Ziffer 1: „Die Achtung vor 1. 251 der Wahrheit, die Wahrung der Menschenwürde und die wahrhaftige Unterrichtung der Öffentlichkeit sind oberste Gebote der Presse.“1 Im österreichischen Ehrenkodex steht: „Der österreichische Presserat ist Plattform für alle, die sich zu einem der Wahrheitsfindung und Korrektheit verpflichteten Gebrauch der Pressefreiheit bekennen (…).“2 Und in der Schweizer „Erklärung der Pflichten und Rechte der Journalistinnen und Journalisten“ heißt es in Ziffer 1: „Sie (die Journalistinnen und Journalisten) halten sich an die Wahrheit ohne Rücksicht auf die sich daraus ergebenden Folgen und lassen sich vom Recht der Öffentlichkeit leiten, die Wahrheit zu erfahren.“3 Damit schließen die Journalistenkodizes an die philosophischen Wahrheitstheorien an, die die Wahrheit abgrenzen von Überzeugungen und Behauptungen. „Wahrheit und die Vermeidung von Irrtum sind Grundziele unserer Erkenntnisbemühungen.“ (Grundmann 2018: 14). Deshalb sei die Klärung des Begriffs und der Natur der Wahrheit die unverzichtbare Voraussetzung für die normative Erkenntnistheorie. Seit Aristoteles haben sich die Philosophen mit dem Wahrheitsbegriff auseinandergesetzt. Wahrheit, ein absoluter Begriff, müsse intersubjektiv zugänglich und mitteilbar sein, sagt Grundmann (Grundmann 2018: 17). Und genau hier setzt die Rolle der Medien ein: Sie haben die Aufgabe, Wahrheiten zu vermitteln. Fake News und Faktenchecks Was heute als Fake News bezeichnet wird, gab es schon immer. Nicht nur im Krieg betrieben politische und ökonomische Akteure Desinformation. Fürsten hatten ihre Chronisten, die durch Weglassen und Hochstilisieren die je eigene Wahrheit für ihren Herrn kreierten. Die Kirche bog Wahrheiten zurecht, Handelsgesellschaften, Firmen, Lobbies oder Gewerkschaften logen. In den großen ideologischen Auseinandersetzungen zwischen Liberalismus und Konservativismus und zwischen Kommunismus, Faschismus und Kapitalismus behauptete jeweils jede Seite, die Wahrheit für sich gepachtet zu haben. Medien spielten das Spiel mit. In neuster Zeit sind „alternative“ Medien auf den Plan getreten, die „alternative Fakten“ verbreiten. Teils handelt es sich um PR für bestimmte Interessen, teils um Verschwörungstheorien, teils um rechtspopulistische Positionen. Gemeinsam ist diesen „alternativen“ Medien, dass sie Fundamen- 2. 1 https://www.presserat.de/pressekodex.html 2 https://www.presserat.at/show_content.php?hid=2 3 https://presserat.ch/journalistenkodex/erklaerung/ Roger Blum 252 talkritik an den „Mainstream-Medien“ üben, die sie als „Lückenpresse“, „Lügenpresse“ oder gar als „Feinde des Volkes“ bezeichnen. Dies bewirkte, dass die Glaubwürdigkeit der traditionellen Medien Schaden nahm (Thoden 2015; Haupt 2016; Teusch 2016; Wernicke 2017). Gleichzeitig kursieren tatsächlich viele Falschmeldungen, Fake News und Lügen, bedingt auch durch die viel größere Zahl an Medienbühnen, die journalistisch nicht ausreichend geprüft sind, nämlich Talkshows, und bedingt durch die Social Media. Dies macht Faktenprüfungen nötiger denn je. Zu unterscheiden ist dabei zwischen neuen und alten Faktenchecks: • Der klassische Faktencheck besteht aus der traditionellen binnenjournalistischen Prüfung der Beiträge durch Gegenlesen, Sendungsabnahme, Abgleich dank Dossier-Kenntnissen oder Archivmaterial. Schon immer galt das Vier- oder Sechs-Augen-Prinzip als wichtige Maßnahme der Qualitätssicherung vor der Publikation oder Ausstrahlung eines journalistischen Werkstücks. • Der neue, zusätzliche Faktencheck gilt der Prüfung von durch Medien vermittelten Fremdaussagen, die Politiker, Wirtschaftsführer, Kirchenobere, Kulturveranstalter, Sportfunktionäre, Truppenführer und andere Personen der Zeitgeschichte an Medienkonferenzen, in traditionellen Medien, in Social Media oder auf ihren Schauplätzen gemacht haben. Diese neue Art des Faktenchecks ist ein Phänomen der letzten 25 Jahre. Die Funktion übernahmen Akteure sowohl außerhalb als auch innerhalb der traditionellen Medien. In den USA haben sich Stiftungen und Institute der Aufgabe angenommen, aber auch die „Washington Post“ hat eine entsprechende Stelle eingerichtet. Die meisten Faktenchecker überprüfen Aussagen von Politikern, die diese an Medienkonferenzen, in Reden oder in Tweets gemacht haben (Schlup 2018). Die nachfolgende Tabelle listet einige Beispiele auf: Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? 253 Tab. 1: Fact checking in den USA Akteure Träger Themen Snopes (1994) https://www.snopes.com Snopes Media Group, James Randi Educational Foundation, Virginia Gesellschaftliche Themen Factcheck (2003) https://www.factcheck.org/ Annenberg Public Policy Center, Pennsylvania Politiker-Aussagen Politifact (2007) https://www.politfact.com Poynter Institute, Florida Politiker-Aussagen Washington Post (2007) https://www.washingtonpost .com/news/fact-checker/?nor edirect=on&utm_term=30de 92962599 Washington Post, Washington Politiker-Aussagen Die amerikanischen Vorbilder haben Nachahmer auch in Europa gefunden. In Deutschland prüft beispielsweise das Faktenfinder-Team der ARD- „Tagesschau“ die Hintergründe zum Aktuellen.4 Die Talksendung „Hart aber fair“ prüft Aussagen in der eigenen Sendung5, ebenso „Maischberger“6. Das Medienbüro „correctiv“ betreibt Faktenchecks in Zusammenarbeit mit Facebook.7 In Österreich ist der Faktencheck der ORF-Sendung „Zeit im Bild 2“ sehr bekannt.8 In der Schweiz führen der „Tages-Anzeiger“9 und die SRG-Auslandplattform „swissinfo“10 Faktenchecks durch. Empirische Analyse Für die empirische Analyse werden hier Beispiele aus der Schweiz ausgewählt. Ausgangspunkt ist ein Entscheid der Unabhängigen Beschwerdeinstanz für Radio und Fernsehen der Schweiz (UBI) gegen einen Faktencheck von „swissinfo“. Der SRG-Auslandsdienst „swissinfo“ unterzog die Parlamentsdebatte zur Volksinitiative für die Abschaffung der Rundfunkgebühren (No-Billag-Initiative) einem Faktencheck. Dabei kam heraus, 3. 4 http://faktenfinder.tagesschau.de/ 5 https://www1.wdr.de/daserste/hartaberfair/faktencheck/index.html 6 https://www.daserste.de/information/talk/maischberger/faktencheck/index.html 7 https://correctiv.org/faktencheck/ 8 Als Beispiel https://www.facebook.com/watch/?v=10155614956941878 9 Jeweils unter www.tagesanzeiger.ch (e-Paper) 10 https://www.swissinfo.ch/eng/in-depth/fact-checks-by-swissinfo-ch Roger Blum 254 dass die Befürworter der Initiative mit ihrem Aussagen einen Wahrheitsgehalt von im Schnitt 40 Prozent, die Gegner aber einen solchen von 97 Prozent erreicht hatten.11 Dagegen erhoben die Urheber der No-Billag-Initiative Beschwerde bei der UBI. Die UBI zerzauste den Faktencheck förmlich und hieß die Beschwerde am 22. Juni 2018 mit 5:3 Stimmen gut.12 In der Begründung hieß es: „Die Bemessung des Wahrheitsgehalts, der jeweils am Ende der Checks prominent hervorgehoben und für die Meinungsbildung der Leserschaft von beträchtlicher Bedeutung war, ist in den meisten Fällen nicht nachvollziehbar. Die Analysen der geprüften Voten erfolgten nicht in unvoreingenommener Weise (…)“. Letztlich beschied die UBI, dass swissinfo beim Faktencheck willkürlich und parteiisch vorgegangen sei. Dies lässt aufhorchen, denn Faktenchecks müssten dadurch verlässlich sein, dass sie unvoreingenommen, neutral und absolut redlich durchgeführt worden sind. Wenn dies nicht gewährleistet ist, muss man sich fragen: Wer checkt die Faktenchecks? Wer stellt sicher, dass die „Washington Post“ bei der Prüfung von Reden und Medienkonferenzen Trumps nicht das heimliche Ziel hat, dem Präsidenten Fehler nachzuweisen, und deshalb nur Aussagen prüft, die anfechtbar sind? Wer garantiert, dass es bei der ARD-„Tagesschau“, beim ORF oder bei der SRG nicht einen Bias gibt, der Rechtspopulisten schlechter aussehen lässt als Liberale, Linke und Grüne? Aus diesem Verdacht ergab sich das Design für die empirische Untersuchung dieser Studie. Analysiert wurden die beiden Schweizer Faktenchecker von „Tages-Anzeiger“ und „swissinfo“. Der „Tages-Anzeiger“ ist eine unabhängige linksliberale Tageszeitung des Tamedia-Konzerns in Zürich. „swissinfo“ ist die Online-Auslandsplattform der SRG in Bern. In die Untersuchung einbezogen wurden fünf Faktenchecks mit total 33 Aussagen beim „Tages-Anzeiger“ und neun Faktenchecks mit total 25 Aussagen bei „swissinfo“. Das Faktencheck-Team des „Tages-Anzeigers“ überprüft ausschließlich Aussagen, die in der SRG-Fernseh-Diskussionssendung „Arena“ fallen. Alle einbezogenen Faktenchecks bezogen sich auf umstrittene Themen bevorstehender Volksabstimmungen, nämlich auf Debatten über das Geldspielgesetz, die Velo-Initiative, die Fair-Food-Initiative, das Sozialdetektive-Gesetz und die Selbstbestimmungsinitiative („Schweizer Recht statt fremde Richter“) der Schweizerischen Volkspartei (SVP). 11 https://www.swissinfo.ch/eng/public-broadcasting-debate_fact-check--the-case-forand-against-licence-fees/43548304 12 www.ubi.admin.ch/inhalte/entscheide/b_778.pdf Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? 255 Das Faktencheck-Team von „swissinfo“ behandelte Aussagen in Parlamentsdebatten, vor Volksabstimmungen sowie andere politische Behauptungen. In die Untersuchung einbezogen wurden Faktenchecks zum Asylgesetz, zur Initiative für eine grüne Wirtschaft, zur Atomausstiegsinitiative, zur erleichterten Einbürgerung der dritten Generation, zur No-Billag-Initiative, zur Selbstbestimmungsinitiative (Parlamentsdebatte), zur Fair- Food-Initiative und zur Hornkuh-Initiative. Dieses Untersuchungsdesign führte zu folgenden Forschungsfragen: • Wer trifft die Auswahl der Aussagen? • Wie wird die Auswahl begründet? • Wie verteilen sich die Aussagen auf die politischen Lager? • Sind die Quellen für den Faktencheck transparent? • Sie die Begründungen im Faktencheck evident? • Wie verteilen sich die „Lügen“ auf die politischen Lager? Für den „Tages-Anzeiger“ ergab sich Folgendes: In einer „Arena“-Sendung des SRG-Fernsehens werden in der Regel rund 50 Aussagen gemacht, darunter viele umstrittene. Die Faktencheck-Redaktion wählt daraus jeweils 6–8 aus, gemäß Angaben der Redaktion möglichst gleichmäßig verteilt auf das Regierungslager und das Oppositionslager. Die Auswahl wird nicht begründet. Im Detail sieht es wie folgt aus: Tab. 2: Ergebnisse der Faktenchecks des „Tages-Anzeigers“ Themen Quellen- Transparenz Quellen -evidenz Regierungslager Oppositions- Lager Zahl der Aussagen Anteil korrekt Zahl der Aussagen Anteil korrekt Geldspielgesetz 58,3 % ja 3 60,0 % 3 70,0 % Velo-Initiative 83,3 % ja 3 91,7 % 3 50,0 % Fair-Food-Initiative 83,3 % ja 3 75,0 % 3 60,0 % Sozialdetektive 71,4 % ja 4 37.5 % 3 70,3 % Selbstbestimmungsinitiative 50,0 % ja 4 77,5 % 4 32,5 % Aus der Tabelle geht hervor, dass in keinem Faktencheck alle Aussagen eindeutig bestimmten Sprechern zugeordnet wurden, im Falle der Selbstbestimmungsinitiative die Hälfte nicht. Es war zwar immer klar, dass die Sendung „Arena“ zum jeweiligen Thema die Quelle war, aber alles Übrige blieb eher diffus. Deutlich wird das Bemühen, im Prinzip gleich viele Aus- Roger Blum 256 sagen aus dem Regierungslager und aus dem Oppositionslager auszuwählen. Dass sich die „Lügen“ nicht einseitig auf eines der Lager verteilen, sondern im Regierungslager 31,7 Prozent und im Oppositionslager 43,4 Prozent betragen, deutet darauf hin, dass kein Bias besteht. Ganz beweisen lässt es sich allerdings nicht. „swissinfo“ wiederum begründet die Auswahl von Aussagen nicht jedes Mal neu, sondern stützt sich auf Kriterien, die in einem Guidelines-Paper festgehalten sind. Die Auswahl der einzelnen Aussagen ist politisch oft unausgeglichen. Die Quellentransparenz hingegen ist hoch. Das Ergebnis des Checks hält „swissinfo“ mit einem „Verdikt“ fest, das auf „wahr“, „fehlerhaft“, „falsch“ oder „unbewiesen“ lautet. Im Detail sieht das so aus: Tab. 3: Ergebnisse der Faktenchecks von „swissinfo“ Themen Quellen- Transparenz Quellen -evidenz Regierungslager Oppositions- Lager Zahl der Aussagen Anteil korrekt Zahl der Aussagen Anteil korrekt Asylgesetz positiv ja 0 - 1 0,0 % Grüne Ökonomie positiv ja 1 80,0 % 0 - Atomausstieg positiv ja 0 - 1 60,0 % Erleichterte Einbürgerung positiv ja 0 - 1 0.0 % No Billag (Parlament) negativ ja 3 96,6 % 7 40,0 % Geldspielgesetz positiv ja 2 60,0 % 3 73,3 % Selbstbestimmungsinitiative (Parlament) positiv ja 4 50,0 % 1 100,0 % Fair-Food-Initiative positiv ja 1 100,0 % 0 - Hornkuh-Initiative positiv ja 0 - 1 0,0 % Aus der Tabelle geht hervor, dass die Transparenz durchweg hoch ist. Problematisch ist hingegen, dass die Zahl der Aussagen mit 11 aus dem Regierungslager und mit 15 aus dem Oppositionslager etwas unausgeglichen ist und dass bei einzelnen Themen das Verhältnis 3:7 oder 4:1 beträgt. Auch ist fraglich, ob sich die „Lügen“ bei ausgeglichener Aussagen-Verteilung ebenfalls zu 22,7 Prozent auf das Regierungslager und zu 61,0 Prozent auf das Oppositionslager verteilt hätten. Man muss nicht einen bewussten Bias unterstellen, aber die Vermutung bleibt, dass die Wahl der Aussagen etwas willkürlich war. Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? 257 Fazit Faktenchecks sind eine wertvolle Ergänzung der journalistischen Qualitätssicherung. Sie sind ein Element der Infrastruktur, die den ethischen Kompass richten helfen, und tragen zur Erhöhung der Glaubwürdigkeit der Medien bei. Die etablierten Faktenchecker überprüfen Aussagen in der Regel seriös und gründlich. Die Quellentransparenz ist fast durchgehend hoch. Die Ergebnisse werden differenziert vermittelt. Problematisch ist hingegen, dass die Auswahl nicht nachprüfbar begründet wird. Die Zahl der Aussagen ist – jedenfalls in der Schweiz, anders als in den USA – notorisch gering. Ein gewisser Bias ist nie ganz auszuschließen. Wer checkt die Faktenchecker? Zunächst ist Selbstkontrolle nötig. Faktenchecker haben sich an die ethischen Kodizes zu halten und sich auf Unparteilichkeit, Sorgfalt und Transparenz zu verpflichten. Das Publikum wiederum hat Beschwerdemöglichkeiten, jedenfalls in den deutschsprachigen Ländern. Es kann sich gegenüber Print- und Onlinemedien an die Presseräte wenden, gegenüber Rundfunkmedien an die Rundfunkräte und Landesmedienanstalten in Deutschland, an die KommAustria in Österreich und an die UBI mit vorgeschalteten Ombudsstellen in der Schweiz (Blum 2016: 11–41). In den USA beispielsweise fehlen solche Beschwerdemöglichkeiten. Dort muss man sich auf Selbstkontrolle und Transparenz verlassen. Die Lösung ist unbefriedigend, aber Alternativen sind keine in Sicht. Literatur Blum, Roger (2016): Unseriöser Journalismus? Beschwerden gegen Radio und Fernsehen in der Schweiz. Konstanz: UVK. Denk, Peter (2015): Lügenpresse. Gelnhausen/Roth: J.K. Fischer. Der Spiegel (2019): Der Fall Relotius. Abschlussbericht der Aufklärungskommission. In: Der Spiegel 22, 25.5.2019, S. 130–146 https://www.spiegel.de/media/medi a-44564.pdf Grundmann, Walter (2018): Philosophische Wahrheitstheorien. Ditzingen: Reclam. Haupt, Heiko (2016): Wenn Medien lügen. Ein Blick hinter die Kulissen von manipulierten Medien und gekauften Journalisten. München: Redline. Moreno, Juan (2019): Tausend Zeilen Lüge. Das System Relotius und der deutsche Journalismus. Berlin: Rowohlt. Seufert, Michael (2008): Der Skandal um die Hitler-Tagebücher. Frankfurt a.M.: Fischer. 4. Roger Blum 258 Schlup, Claudia (2018): Rufer in der Wüste oder Retter der Demokratie? Ziele, Methoden und Wirkungen von Faktencheckern aus Deutschland, Österreich und der Schweiz. Masterarbeit. Universität Leipzig. Teusch, Ulrich (2016): Lückenpresse. Das Ende des Journalismus, wie wir ihn kannten. Frankfurt a.M.: Westend. Thoden, Ronald (Hg.) (2015): ARD & Co. Wie Medien manipulieren, Bd. 1. Frankfurt a.M.: Selbrund. Wernicke, Jens (2017): Lügen die Medien? Propaganda, Rudeljournalismus und der Kampf um die öffentliche Meinung. Frankfurt a.M.: Westend. Fakten, Fake News und Wahrheitssuche: Wer checkt die Faktenchecker? 259 Das PublikumTeil IV: Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? Das Publikum in der desinformierten Gesellschaft Rainer Erlinger, Marc Ziegele Abstract Vor einem halben Jahrhundert kritisierten die Forscher Peter Glotz und Wolfgang Langenbucher (1969), Journalismus schaue zu wenig auf seine Zielgruppen, und sie erfanden den Begriff des „missachteten Lesers“. In einer digitalen Gesellschaft, in der Journalisten kaum mehr Schleusenwärter sind, sondern das Publikum Quellen direkt nutzen sowie Kommentare und andere Äußerungen unmittelbar im Netz veröffentlichen kann, ist die Missachtung gar nicht mehr möglich. Das „beachtete Publikum“ ist die einzige Option (mehr hierzu in den Texten von Pierre Rieder und Daniel Fiene in diesem Band). Umgekehrt befinden wir uns in einer Gesprächsgesellschaft, in der die einen mit der digitalen Publikationsfreiheit sorgfältig umgehen, sich für Fragen des Sollens und des guten Lebens interessieren und sich darin schulen, andere aber mit vielerlei Inzivilität aufwarten. Dies zeigt ein Dilemma der Gesprächsgesellschaft, die ein (a)soziales Publikum generieren kann. Diesen Bandbreiten widmen sich die folgenden Interviews. Der Arzt, Jurist und Publizist Rainer Erlinger1 setzt sich seit zwei Jahrzehnten mit Gewissensfragen und Moral im Alltag auseinander – als Kolumnist, Vortragsredner und Gesprächspartner. Hier steht er Rede und Antwort zu seinen Erfahrungen mit dem „geschulten Publikum“. Marc Ziegele2 (2016a, 2016b, 2018) forscht unter anderem über Diskussionskultur im Internet. Darauf stützt er seine Einschätzungen zum (a)sozialen Publikum. (Interviewführung: Marlis Prinzing) 1 Rainer Erlinger beschäftigt sich aus den Blickwinkeln seiner drei Berufe mit dem Thema Verantwortung und daran geknüpften ethischen Fragen rund um Wahrheit und Lüge (vgl. u.a. Erlinger 2019). Als Jurist fokussiert er den Bereich des Verbots, als Publizist und Autor den des Gebots und schult sein Publikum in ethischen Abwägungen, z.B. von 2002-2018 in seiner Kolumne „Gewissensfrage“ im SZ-Magazin sowie in der WDR-Sendung richtig leben?! 2 Marc Ziegele ist seit 2018 Junior-Professor für politische Online-Kommunikation an der Universität Düsseldorf. Vor seiner Hochschullaufbahn war er Onlineredakteur beim Südwestrundfunk. Er forscht unter anderem über „Digitale Gesellschaft“, Demokratiekultur, Medienvertrauen und die Diskussionskultur im Internet. 263 Rainer Erlinger – Das geschulte Publikum. Marlis Prinzing: Sie sind Publizist, Arzt und Jurist. Herr Erlinger. Wie haben diese Welten in einer Person zusammengefunden? Rainer Erlinger: Ich habe bereits die Schülerzeitung herausgegeben. Der Klassiker! Das Schreiben lag mir also nahe. Und mich haben Medizin und Jura interessiert. Also habe ich beides studiert. Als ich damit fertig war, war gerade die große Zeit des „Gen-Feuilletons“, also der gesellschaftlichen Diskussion über Fragen der aufstrebenden Biowissenschaften, insbesondere Genetik, Stichwort: Entschlüsselung des menschlichen Genoms. Die „Süddeutsche Zeitung“ hatte damals zumindest im Feuilleton keinen Mediziner oder Biowissenschaftler in der Redaktion und war daran interessiert, dass ich zu den Fragen der Bio- und Medizinethik speziell auch an der Schnittstelle zwischen Medizin und Recht schreibe: Also neben der Genetik etwa über Beginn und Ende des Lebens oder die Autonomie des Menschen. Dadurch bin ich zum Schreiben über die Ethik gekommen. Irgendwann kam die Idee auf, eine Kolumne über Alltagsethik im Magazin der „Süddeutschen Zeitung“ aufzulegen, die „Gewissensfrage“. Ich wurde gefragt, ob ich mir vorstellen könnte, sie zu schreiben. Ich sagte ja. Keiner hat damit gerechnet, dass es 17 Jahre werden würden. Die Botschaft dieser Beständigkeit Ihrer Kolumne „Gewissensfrage“ scheint eindeutig: Es besteht ein sehr großes öffentliches Interesse an ethischen Fragen – und inmitten der vielen Klagen und Sorgen wegen eines verrohenden Dialogs im Netz ist dies eine geradezu tröstliche Botschaft: Ein breites Publikum interessiert sich dafür, was man soll und wo die Grenzen sind – und bildet sich über Ihre Kolumnen in solchem Denken weiter, Sie schulen so ihr Publikum. Mir gefallen die beiden anderen Positionen – das (a)soziale Publikum und vor allem das beachtete Publikum – so gut, dass ich eigentlich gar nicht so sehr speziell für die Position des „geschulten Publikums“ stehen möchte. Die 17 Jahre bedeuten im Rückblick circa 850 veröffentlichte Kolumnen. Aber sie bedeuten auch – und damit kommen wir zum beachteten Publikum – zehn- bis fünfzehntausend Fragen von Leserinnen und Leser, die ich gelesen und über die ich nachgedacht habe. Mein eigenes Arbeiten und Denken hat das sicher am nachhaltigsten beeinflusst: Dieses Erkennen der unglaublichen Mannigfaltigkeit der Fragen und der Tatsache, dass sich jedem Menschen aus seiner jeweiligen Lebensrealität und Perspektive Dinge etwas anders darstellen. Es gibt eine wundervolle Vorlesung von Hannah Arendt über Sokrates, in der sie die sogenannten Doxa erwähnt: Also die Idee, dass es für uns Sterbliche keine absolute Wahrheit gibt, von der 1. Rainer Erlinger, Marc Ziegele 264 zum Beispiel Platon ausging, oder wir sie zumindest nicht erkennen können, sondern nur die jeweiligen Doxa, also die auf Wahrnehmung fußenden Meinungen, weil sich die Wirklichkeit jedem einzelnen aus seiner Lebenswirklichkeit anders darstellt. Wichtig ist zu begreifen, dass auf der einen Seite jeder dieser Blickwinkel seine Berechtigung hat, dass aber auf der anderen Seite jeder oder zumindest der ethisch geschulte Mensch erkennen muss oder sollte, dass die eigene Meinung nicht die Wahrheit ist, sondern nur seine Perspektive auf die Wirklichkeit, die er oder sie vertritt, und deshalb sollte er sie auf eine Art und Weise vertreten, die ein Gegen- über idealerweise nicht verletzt. Weil dieses Gegenüber eine andere Perspektive auf die Wirklichkeit hat. Deshalb ist auch beim Blick auf das Publikum notwendig, diese verschiedenen Blickwinkel mit zu betrachten. Der „geschulte“ Leser kann also manchmal, wie seine Frage zeigt, wirklich etwas wissen wollen, vielleicht auch, ob sein Blick auf die Wirklichkeit, seine Doxa zutreffend ist, manchmal tritt er aber auch als Wutbürger auf, der davon überzeugt ist, dass seine Sicht die einzig richtige, die absolute Wahrheit ist. Hatten Sie es vor allem mit einem wohlwollenden Publikum zu tun? Naja, im Allgemeinen schon, aber ich war auch froh, dass ich eine Auswahl treffen konnte aus den Fragen, die mich erreichten. Das heißt, Sie hatten auch schwierige Fragen schwieriger Personen auf dem Tisch? Die gab es. Aber speziell als Jurist hatte ich immer auch einen Blick darauf, wann jemand in seinem Schreiben an mich einen bestimmten Hintergedanken verfolgte und nicht nur etwas fragen wollte. Die Idee meiner Kolumne war, dass sie immer eher neutral sein sollte; ob am Ende ein Ja oder Nein von mir darunter stand, war für mich relativ unbedeutend. Denn von der Schlussfolgerung in diesem einen speziellen Fall haben die Leser wenig. Interessant sind in erster Linie Weg und Herleitung meiner Betrachtung, ein philosophischer Gedanke oder Gedankengang, den man in solchen Fällen anwenden kann, wie man eine Sache sehen kann und was wichtig für eine Bewertung ist. Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 265 Welche Erklärung haben Sie für die Wut, die in manchen Rezipierenden steckt? Ich habe sehr oft die Beobachtung gemacht – deshalb gefällt mir der Begriff des „beachteten“ Lesers so gut – dass die größte Kränkung für Menschen überhaupt das Gefühl ist, nicht gehört, nicht beachtet zu werden. Es gibt typische Themen, bei denen man oft schon im ersten Satz wusste, worauf der Briefautor hinauswollte: Bei Erbschaftssachen zum Beispiel. Da konnte man das oft direkt sehen: Aha, da will jetzt jemand seine Position deutlich machen und hören, dass er oder sie ungerecht behandelt wurde. Da kam häufig im Laufe des Briefes ein Satz wie: „Ja, meine Schwester ist ja schon immer bevorzugt worden.“ Darin ließ sich erkennen, dass es eigentlich gar nicht so sehr um die Erbaufteilung ging, sondern um eine Zurücksetzung und langes Nichtbeachten oder das zumindest so empfunden wurde. Ich glaube, dass genau das im Großen auch gerade in unserer Gesellschaft passiert. Vielen Menschen, die sich beschweren oder auf die Barrikaden gehen, geht es in Wahrheit gar nicht um das, worüber gerade gestritten wird, sondern um ein Gefühl, ähnlich wie im Erbschaftsbeispiel: „Den anderen hat man ja schon immer lieber gehabt und sich besser um ihn gekümmert als um mich.“ Kommunikation kann verletzen und krank machen, aber auch konstruktiv sein, selbst bei strittigen Themen. Welche Methode war für Sie entscheidend, um einen verantwortungsorientierten Publikumsdialog zu fördern? Ich habe immer meine Aufgabe darin gesehen, wenn möglich jede Position in die Antwort aufzunehmen – damit meine ich nicht, sie einzunehmen. Es hat mich immer geärgert, wenn ich einen Leserbrief mit dem Vorwurf bekam, ich hätte eine Position nicht beachtet – weil schlicht und einfach manchmal der Platz nicht gereicht hat, diesen Aspekt, den ich nicht für entscheidend halte, explizit hinzuschreiben. Aber noch mehr hat es mich geärgert, wenn ich tatsächlich einen wichtigen Aspekt übersehen hatte. Eben weil es mir so wichtig war, alle Aspekte zu würdigen. Das war vermutlich auch ein Grund, warum die Kolumne so überraschend lange funktioniert hat: Eben dass jeder, auch wenn er mir nicht folgen wollte oder konnte, das Gefühl hatte, dass diese andere Betrachtungsweise auch Eingang gefunden hat. Das Gefühl: Ich bin beachtet worden. Genau. Da kommt bei mir auch wieder der Jurist durch: Der rechtliche Ermessensspielraum ist ja genau das: Der Staat, die Behörde darf in bestimmten Fällen, wenn das Gesetz es so vorsieht, gewisse Dinge nach Ermessen Rainer Erlinger, Marc Ziegele 266 entscheiden und hat dabei einen Freiraum, so oder so zu entscheiden, aber es ist ein Ermessensfehler, wenn beachtliche Belange nicht mit in den Prozess der Entscheidungsfindung eingeflossen sind. Genügt dies? Haben Sie bei ihren Kritikern immer Einsicht erreicht? Nein. In den meisten Fällen zwar schon, aber ich habe auch Briefe als Antwort auf meine Texte bekommen, die eher unflätig waren oder auffallend aggressiv. Wie gehen Sie damit um? Mit der Zeit habe ich Strategien entwickelt. Anfangs habe ich mich noch bemüht, sachlich zu antworten. Dann habe ich bei unflätigen Nachrichten gar nicht mehr reagiert. Und irgendwann habe ich angefangen zu spiegeln – das heißt, ich habe also die Antwort grundsätzlich in dem Ton verfasst, in dem die Nachricht an mich adressiert war. Jemandem habe ich dann geschrieben, ohne Anrede, wie es auch in seiner Mail war und mit der genau gespiegelten Formulierung: „Was soll so eine s..dumme Mail?“ Und dann habe ich weiter geschrieben: „Das ist nicht die Sprache, die ich sonst benutze, ich will Ihnen gerade nur spiegeln, was sie mir gerade geschrieben haben, und es würde mich interessieren, warum Sie mir so schreiben.“ Und das Interessante ist: Da gab es ein paar Renitente, aber die große Mehrheit hat mir zurückgeschrieben, wie in diesem Fall: „Ach, ich habe ja gar nicht damit gerechnet, eine Antwort zu bekommen, das ist ja toll! Und ich finde ja auch ihre Texte ganz toll und wollte Sie nur ein bisschen provozieren…“ Daraufhin habe ich die Theorie entwickelt, dass dieser Ton – der insbesondere im Internet verwendet wird – der Versuch ist, in einem Raum, in dem alle laut reden, nochmal lauter zu schreien, um gehört zu werden. Es geht wieder um den „beachteten Leser“ und die Kränkung, nicht gehört zu werden. Eine „Gewissensfrage“ handelte vom Austritt aus Facebook. Ein Leser haderte mit seinem Gewissen und fragte sich, ob es vertretbar sei, weiterhin Mitglied zu sein. Was haben Sie geraten? Für mich war die Frage schon deshalb interessant, weil ich auf der Plattform selbst eine Seite als Autor habe. Konsequenterweise müsste man für sich entscheiden, da nicht mitzumachen, wenn man die Plattform oder deren Agieren zum Beispiel gegenüber „Fake News“ oder Hate Speech ablehnt. Denn der bestimmende Mechanismus dort ist das Geld. Das ent- Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 267 steht über Werbeeinnahmen, für die die Anzahl der Nutzer entscheidend ist, und das Nichtmitmachen ist der einzige Ausdruck und die einzige wirkungsvolle Möglichkeit, zu erkennen zu geben, dass einem das Verhalten oder Geschäftsmodell von Facebook nicht passt – allerdings mit dem Risiko, sich damit in gewisser Hinsicht sozial zu isolieren. Aber wenn man selber wirklich überzeugt davon ist, dass Facebooks Geschäftsmodell nicht vertretbar ist, müsste man konsequenterweise seinen Account löschen. Eine andere Kolumne spielte die Verantwortungsfrage der digitalen Gesellschaft an: Wie nett sollte man zu Maschinen sein? Wenn man denn schon jeden Sprachassistenten mit Namen anspricht, müsse man zu ihnen dann auch höflich sein? Die Frage kam lustigerweise von einem Großvater. Sein Enkelkind fügte gegenüber dem Sprachassistenten hinter einer Eingabe immer noch ein „Bitte“ an – zum Beispiel „Malvorlage Pferd, bitte“. Der Großvater fragte sich, ob es eine solche Höflichkeitsformel gegenüber einer Maschine brauche. Das Schöne ist: Diese konkrete Frage lässt sich mit Kant beantworten. Der sagte nämlich, dass Kinder, bevor sie die Pflicht, also das Sollen, verstehen, Formen lernen, in diesem Fall die Höflichkeit. Das passt zu Aristoteles, der meinte, dass man die ethischen Tugenden nicht durch Belehrung, sondern nur durch Einübung erlernen kann. Und da hat Kant gesagt: Wenn Kinder nicht verstehen, warum man Bitte und Danke sagen soll – weil sie das Prinzip der Wertschätzung noch nicht erfassen – dann sollen sie zunächst die Form lernen. Zu verstehen warum, würde sich dann später einstellen, und das soll man mit ihnen durch Rückmeldung, am konkreten Beispiel üben. Deshalb gibt es die konkrete Diskussion, ob diese Sprachassistenten eine „Kinderfunktion“ bekommen sollen, mit der der Sprachassistent dann wirklich nur noch auf Bitte und Danke reagiert, damit die Kinder es so erlernen können. Umgekehrt gab es z.B. auch einige Medienberichte in den USA, die proklamierten, dass wir kleine Monster großzögen, weil Kinder heute durch Sprachassistenten lernten, dass man dann auf sie hört, wenn sie Kommandos durch die Gegend brüllen. Vermenschlicht man auch damit letztlich Computer zu sehr, wenn man mit einem auf Künstlicher-Intelligenztechnik beruhenden Gerät menschliche Umgangsweisen pflegt? Kant hat gesagt, dass es keine moralischen Pflichten gegenüber Tieren gibt, weil sie selbst nicht moralisch denken könnten. Aber er sagte auch: Wer Tiere quält, der stumpft moralisch ab – und quält am Ende auch Menschen, weil man so gewisse Verhaltensweisen eingeübt hat. Dasselbe gilt Rainer Erlinger, Marc Ziegele 268 wohl auch für Roboter: Wenn ich die nicht anständig behandele, weil ich mir denke: Naja, das sind ja eh keine Menschen, auch wenn sie menschen- ähnlich aussehen oder agieren – dann färbt das tatsächlich ab. Es gab Untersuchungen, in denen man Menschen Videos gezeigt hat, in denen tier- ähnliche Spielzeugroboter schlecht behandelt wurden – und hat dabei die Gehirnaktivitäten der Zuschauer gemessen. Die Hirnaktivitäten waren ähnlich, als hätten sie eine tatsächliche Tierquälerei-Szene angesehen. Marc Ziegele – das (a)soziale Publikum Marlis Prinzing: Was hat Ihr Interesse geweckt, zur Diskussionskultur im Netz zu forschen? Marc Ziegele: Das entstand bei einem Bier mit meinem Doktorvater. Ich habe mich schon länger für die Kommentare interessiert, die Menschen unter Nachrichtentexte schreiben. Gemeinsam haben wir uns gefragt, woran es liegen könnte, dass manche so viele Kommentare bekommen und andere recht wenige. Das war der Startschuss für das Thema meiner Dissertation zum Diskussionswert von Onlinenachrichten. Das Thema wurde dann immer größer und hat sich verlagert in Richtung Inzivilität und Hasskommentare sowie Gegenstrategien. Und da bin ich heute noch. Sie vertreten Ihre Befunde ja auch in öffentlichem Rahmen. Sind Sie in der Folge davon auch selber Zielscheibe von Hasskommentaren geworden? Verglichen mit anderen Personen der Öffentlichkeit bin ich davon bislang weitgehend verschont geblieben. Ich habe auf der Digitalkonferenz Re:Publica gesprochen, und der Beitrag wurde auch YouTube gestellt. Unter dem Video gab es ein paar despektierliche Kommentare, ich sollte aus meiner „linksgrünversifften Blase“ ausbrechen. Und: Wer solche Thesen von sich gebe, dürfe sich „nicht Prof schimpfen“. Nach einem Auftritt beim WDR erhielt ich eine Nachricht, ich hätte keine Ahnung und sei „sowieso kein Wissenschaftler“. Es ist schon etwas anderes, wenn man von solchen Nachrichten persönlich betroffen wird. Aber das, was ich da erlebte, macht mir keine Sorgen. Die Kommunikations- und Medienethik hält weiterhin den vor allem von Jürgen Habermas entwickelten Ansatz des herrschaftsfreien und vernunftgeleiteten, also ethischen Diskurses hoch, der durch die Kraft der besten Argumente entschieden wird. Neigt dieses Fach angesichts von unübersehbaren Herausforderungen durch 2. Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 269 Hassrede, Verschwörungstheorien und anderer bewusster Fehlinformation zum Idealismus? Ich bin zwiegespalten. In meiner Doktorarbeit habe ich den Deliberationsansatz nur peripher verwendet. Ich habe argumentiert, dass das, was Nutzer und Nutzerinnen hier tun, Anschlusskommunikation ist, also etwas, dass es offline auch schon gegeben hat und gibt, nämlich ein Sich-Unterhalten über Medieninhalte, z.B. privat vor dem Fernseher, während die Tagesschau läuft, oder in Kneipen am Stammtisch. In der Dissertation habe ich daraus die Strukturen und Prozesse der Onlinediskussionen hergeleitet, ohne die Ansprüche auf Rationalität und Zivilität ganz hochzuhängen. Ich habe aber in meinen qualitativen Interviews mit Nutzern und Nutzerinnen, die Kommentare schreiben und lesen, gemerkt, dass diese häufig selber solche Ansprüche an eine vernünftige, sachliche und respektvolle Diskussion haben. Das ist nicht nur ein Ideal der Kommunikationswissenschaft oder der Medienethik, sondern die Nutzer und Nutzerinnen wünschen sich das zum Teil auch. Natürlich nicht in der Strenge, wie es im Habermas`schen Ansatz und in anderen deliberativen Ansätzen hochgehalten wird. Vom Ideal der Inklusivität oder von der Vorstellung, jeder Beitrag müsse argumentgeführt sein, ist man aber schon ein bisschen entfernt. In der Wissenschaft glaubt ebenfalls keiner mehr, dass man in den Onlinediskussionen eine ideale Diskurssituation findet. Man nimmt die Kriterien für eine solche aber weiterhin als Richtschnur, um zu untersuchen, wie weit die Diskussion von dieser Idealsituation entfernt ist. Sie beurteilen die Diskussionskultur im Internet als weniger katastrophal als dies oft dargestellt wird. Neigen wir zur Dramatisierung? Tendenziell ja. Wir Forscher nehmen oft das Laute, das Respektlose stärker wahr, als das Vernünftige und Besonnene. Nicht zuletzt, weil hier die gesellschaftliche Relevanz besonders dringlich wirkt. Aber auch Journalisten haben eine Neigung, den Nachrichtenfaktor Negativität überzubetonen. Aus Onlinediskussionen zitieren sie tendenziell eher die kurzen oder herabwürdigenden Kommentare als die langen und durchdachten Kommentare, das passt besser in den Text oder in die Sendung; solche Strukturen und Prozesse führen dazu, dass die platten Kommentare dann in der Folge etwas überbetont sind. In unseren Inhaltsanalysen sehen wir dagegen ganz klar, dass ein Großteil der Kommentare nicht respektlos und aggressiv ist, im Gegenteil: Hass in Form von Gewaltandrohung, offenem Sexismus und Rassismus finden wir in unseren Analysen vergleichsweise selten. Das hängt zwar auch damit zusammen, dass Medien in der Regel eine gute Moderation leisten – zumindest auf Facebook – und das ganz Schlimme Rainer Erlinger, Marc Ziegele 270 schon rausnehmen, ehe wir es sehen. Dennoch wäre es für die Debatte über diese Onlinediskurse gut, wenn man auch die konstruktiven Elemente besser zeigen würde, die wir ja regelmäßig in unseren Inhaltsanalysen sehen. Ihre Beobachtungen stützen Sie auf Empirie. In Ihrer 2015 aufgesetzten Studie analysierten Sie 11.000 Kommentare auf zehn verschiedenen Facebook-Nachrichtenseiten mittels Inhaltsanalysen nach verschiedenen Kategorien. Worin genau besteht die gute Nachricht? Über 60 Prozent der Kommentare enthielten Begründungen, waren also nicht einfach pauschale Meinungsäußerungen. Häufig enthielten sie Experten- und Insiderwissen, aber auch die Kritik legitimer Missstände und journalistischer Fehler. Diese Elemente werden oft übersehen. Die Feststellung früherer wissenschaftlicher Studien, wonach Menschen im Internet einfach ihre Meinung absondern – ein Nutzer sagte mir, viele würden einem sinnbildlich in den „Garten kacken“ und sich danach nicht mehr für die Folgen interessieren – hat sich in unseren Inhaltsanalysen nur eingeschränkt bestätigt. Wir haben darüber hinaus gesehen, dass viele Nutzer auch recht stark miteinander diskutieren, sich austauschen, aufeinander reagieren. Jeder dritte Kommentar enthielt Inzivilität, also Stereotypen, rassistische und extremistische Äußerungen, Beleidigungen und Hass. Wer macht so was? Was treibt sie an? Die Bandbreite der Gründe ist groß. Sie reicht von persönlichkeitsbezogen Merkmalen über situative Gründe bis hin dazu, ob man Mitglied in einer Organisation ist, die gezielt Hass verbreitet. Inzivilität und Respektlosigkeit geschehen oft aus dem Affekt heraus. Die meisten schalten nicht einfach ihren Computer an und sagen sich, heute wollen wir mal haten, sondern sie lesen etwas, das sie emotional trifft, werden wütend. Dadurch sinkt die Hemmschwelle, impulsiv zu kommentieren und z.T. auch respektlos zu reagieren. Wer schlechte Laune hat, neigt eher als affektiv ausgewogene Menschen dazu, inzivile Kommentare beizusteuern. Diese Impulsgesteuerten machen, meinem Eindruck nach, den Großteil der respektlos kommentierenden Menschen aus. Und dann gibt es noch solche, oft Trolle genannt, die dies aus strategischen Gründen machen, um eine politische Position stark zu machen, oder aus dem Vergnügen heraus, anderen zu schaden. Sie gehen intentional und übel vor. Untersuchungen haben bei solchen Personen unter anderem sadistische Persönlichkeitsmerkmale nachgewiesen. Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 271 Teilweise organisieren sich solche Menschen in Gruppen. Ein Beispiel ist die rechtsausgerichtete Gruppe Reconquista Germanica. Ist in Gruppen organisierte Inzivilität in der Tendenz rücksichtsloser? Ohne Zweifel ja. In den organisierten Gruppen stacheln sich die Menschen gegenseitig auf, sie bestätigen sich in ihrem Hass auf wen auch immer und gehen kollektiv und organisiert in die Diskussion rein, um andere zu diffamieren und herabzuwürdigen. Das geht mit einer deutlich grö- ßeren Schlagkraft und Radikalität vonstatten als es Einzelnutzerinnen und -nutzer könnten, die man ja auch als Seiten-Admin viel leichter blockieren kann als eine ganz Horde, die eine Onlinediskussion kapert und mit Hass und Hetze füllt. Gegen solche Gruppen haben sich auch Gegenbewegungen gebildet. Eine davon ist #ichbinhier. Sie haben ihre Wirkung erforscht, indem Sie 575 Mitglieder der Gruppe befragt haben. Was ist der Hauptbefund? Man muss sich bei solchen Gruppen aus deliberativer Sicht auch fragen, ob es wünschenswert ist, wenn Menschen sich zu Gruppen versammeln, die kollektiv und organisiert in Onlinediskussionen einsteigen, weil das letztlich zu strategischer Kommunikation wird, die nach Deliberationskriterien keine im weitesten Sinn aufrichtige Kommunikation mehr ist. Man kann das als problematisch ansehen. Gleichzeitig kann man sich fragen: Heiligt der Zweck die Mittel? #ichbinhier setzt sich ja dafür ein, dass die Diskussionskultur insgesamt respektvoller wird und dem Hass etwas entgegengesetzt wird. Wir haben durch Inhaltsanalysen herausgefunden, dass das zum Teil tatsächlich funktioniert. Wir haben die Qualität verglichen zwischen den Antworten auf Kommentare von #ichbinhier-Mitgliedern und Antworten auf Kommentare von Nicht-Mitgliedern. Generell sieht man hier eine Inzivilitätsspirale: hasserfüllte Kommentare ziehen weitere hasserfüllte Kommentare an. Umgekehrt gilt: Sachliche Kommentare führen zu tendenziell zivilen, sachorientieren Antworten. Dabei war aber weitgehend egal, ob diese sachlichen Kommentare von der #ichbinhier-Bewegung angehörenden Personen stammten oder von anderen. Also hat nicht die Gruppe, sondern der Inhalt der Kommentare bessere Kommentare stimuliert. Es lohnt sich folglich durchaus, sachlich in solchen Diskussionen hineinzugehen. Aber dafür muss man nicht zwingend organisiert sein. Rainer Erlinger, Marc Ziegele 272 Teil des Problems sind auch sogenannte Bystander, also Menschen, die quasi danebenstehen, wenn andere im Netz verbal verletzt werden. Wie kann man sie zu Zivilcourage ermuntern? Das ist eine große Herausforderung, weil die meisten wirklich nur lesen. Wie man sie aktivieren kann, ist noch nicht abschließend zu beantworten. Unsere Studien haben gezeigt, dass viel davon abhängt, als wie politisch selbstwirksam sich Menschen selbst wahrnehmen, ob sie also das Gefühl haben, sie könnten mit ihrem Einsatz zu einer Veränderung beitragen, ob online oder auch offline. Dann kann man über Bildung und Kompetenzvermittlung ansetzen, um sie zu aktivieren. Entscheidender Faktor ist auch, dass die Leute selbst Verantwortung übernehmen und diese nicht an andere Akteure auslagern. In den Studien sehen wir, je mehr die Leute sagen, es ist Facebooks Aufgabe oder die Aufgabe des Staats, sich um solche Kommentare zu kümmern, desto weniger Lust haben sie, selbst einzugreifen. Vor diesem Hintergrund kann man es auch als problematisch sehen, dass zurzeit Vieles über das Netzwerkdurchsetzungsgesetz geregelt werden soll, weil das eigentlich die Verantwortung von den Nutzern selbst wieder wegnimmt und sagt, der Staat und die Plattformanbieter sind in der Pflicht. Vielmehr müsste man den Leuten sagen: das ist Eure Gesellschaft, ihr tragt ebenfalls eine Verantwortung. Über solche Stellschrauben könnte man mehr erreichen. Es gibt auch Studien und Experimente zu im Grunde „konstruktiven Bots“, die automatisiert eine solche vernünftige, sachliche Kommunikation organisieren. Hilft das? Kurzfristig vielleicht, aber solche KI-Techniken funktionieren nur in manchen Situationen. Zudem sind die Menschen gut darin, Muster zu erkennen. Sie werden rasch solche Versuche, Diskussionen durch Bots zu versachlichen, erkennen und Mittel und Weg finden, dies wieder zu kapern. Wir tun uns keinen Gefallen, wenn wir die Versachlichung an Bots delegieren. Das setzt eine Spirale in Gang, weil dann andere auch wieder Bots verwenden etc. Die Grundidee solcher Bots ist zwar gut. Aber letztlich bleibt es eine Aufgabe der Gesellschaft, Versachlichung mit echter Manpower zu leisten. Als Folge unziviler Online-Diskussionen werden offenbar ja das Verhalten gegen- über Gruppen sowie die Einstellungen zu Streitfragen schroffer, manche Menschen diskutieren lieber gar nicht mehr mit. Könnte auch eine Handlungs- Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 273 maxime werden, die Habermas‘sche Diskursethik zu ergänzen, indem man Dissonanz als Teil der Debatten akzeptiert? Absolut! Menschen müssen lernen, dass eine Ablehnung ihres Arguments nicht eine Ablehnung ihrer Person bedeutet. Die Unfähigkeit vieler, nicht zwischen der Sache und dem persönlichen Angriff zu trennen, führt häufig dazu, dass die Diskussionen online so rau und ungesittet werden. Ein Gegenargument löst bei manchen sofort einen Verteidigungsreflex aus, als ob man seine Identität angegriffen hätte, und führt dazu, dass er auf eine herabwürdigende Art zurückschießt. Wir fühlen uns viel zu oft und viel zu schnell auf den Schlips getreten. Frühzeitig eine ordentliche Diskussionskultur zu vermitteln, wäre eine wichtige Stellschraube auf diesem Gebiet. Schon in der Schule müsste man verschiedene Diskussionsformate lernen und nachträglich analysieren, warum man etwa eine bestimmte Richtung genommen hat – und zwar in verschiedenen Kanälen, mit Probediskussionen in Onlineforen und in Chats. Da muss die Kompetenz vermittelt werden, wie man mit Differenz und Dissonanz umgehen kann. Für die, die nicht mehr in der Schule sind, könnten z.B. die Landesmedienanstalten und diverse zivilgesellschaftliche Organisation Vergleichbares anstoßen, wobei man natürlich nur einen kleinen Teil jener erreichen dürfte, die man ansprechen will. Aber es ist ein Anfang, stärker in unserer Gesellschaft zu verankern, dass Menschen diskutieren lernen. Macht die Online-Kommunikationskultur einfach nur sichtbar, was schon immer da war? Im Grunde ja. Aber „Online“ wirkt auch nochmals wie ein Katalysator, weil es auf der Bühne, in der Öffentlichkeit ausgetragen wird. Wenn jemand im Privaten mein Argument angreift, ist es einfacher zuzugeben, dass ich nicht recht habe, als dann, wenn ich denke, da schaut jetzt die halbe Welt zu und sieht, wie mir mein Unwissen vor Augen geführt wird. Die öffentliche Bühne macht die Bandagen härter, weil öffentlich wenige zugeben wollen, dass sie unrecht haben, und sich rasch blamiert fühlen. Das ist auch in der Politik und in anderen Öffentlichkeitsbereichen so. Kommen Medien Ihrer Einschätzung nach Ihrer Verantwortung für Ihre Communities und für einen sachgerechten, wertschätzenden Austausch mit ihnen in hinreichender Weise nach? Das hat sich sehr verbessert in den letzten Jahren, insbesondere auch im öffentlich-rechtlichen Rundfunk. Dort werden große Teams beschäftigt für das Community-Management, sie sind zudem stets bereit dazuzulernen. Rainer Erlinger, Marc Ziegele 274 Aber es gibt weiterhin Medien, die die Kommentarspalten geschlossen haben. Und es gibt Ausreißer wie die Bildzeitung. Die polarisieren mit ihren Beiträgen; dort geht es offensichtlich nicht darum, vor allem zivile Kommentare zu erzeugen, sondern möglichst viele, auch weil der Algorithmus der Plattformen das honoriert. Da gibt es Verbesserungspotential. Aber jene, die sich darauf verständigt haben, die Diskussionskultur zu fördern, bemühen sich sehr und probieren viel. Gerade im Lokalbereich z.B. im WDR in der Aktuellen Stunde oder in der Lokalzeit, sind sie sehr präsent, antworten direkt auf Kritik, aber auch auf Lob der Nutzer und Nutzerinnen. Das ist wirklich gut gemacht. Es bleibt das Problem der großen Kommentarmenge. Wenn z.B. bei ZDF heute ein Beitrag über Corona kommt, folgen oft innerhalb von fünf Minuten tausend Kommentare; da lässt sich schwer der Überblick behalten. Eine Verschwörungstheorie ist in den Kommentarspalten besonders präsent: Medien und Regierung haben sich heimlich gegen das Volk verschworen und manipulieren die Bevölkerung systematisch; „Lügenpresse“ und „Systemmedien“ sind Handlanger einer kleinen Elitegruppe. Die Corona-Krise hat solche Denkweisen zusätzlich befeuert und ihnen Zulauf verschafft. Inwiefern helfen hier ebenfalls die Strategien gegen Inzivilität? Das ist abhängig von der Radikalität, mit der solche Ideen vertreten werden, und von der Tiefe. Die 10 bis 15 Prozent, die tief in solchem Denken stecken und entweder einen tiefen Hass haben oder tief von einem Verschwörungsdenken überzeugt sind, die wird man nie erreichen. Aber die dazwischen im Graubereich, also nicht die Corona-Leugner, sondern die, die gewisse Zweifel haben. Werden diese Menschen ständig mit Verschwörungsgedankengut konfrontiert, ohne dass das eingeordnet oder dem widersprochen wird, ist das gefährlicher als wenn eine Form von Gegenrede darunter steht. Ein Allheilmittel ist das zwar nicht. Es kann auch gegenteilige Effekte geben, z.B. den Sleeper-Effekt3. Aber meistens ist es nützlich. 3 Der Sleeper-Effekt bezeichnet eine Einstellungsänderung, verknüpft mit Langzeiteffekten einer Mitteilung. Die Wirkung eines Inhalts, der von einem glaubwürdigen Sprecher kommt, nimmt über die Zeit hinweg ab, der eines unglaubwürdigen hingegen zu; nach etwa vier Wochen gleichen sich die Effekte an. In diesem Revalidierungsvorgang löst sich im Gedächtnis des Empfängers die Erinnerung an den Kontext und damit an seine Einstellung gegenüber dem Sender einer Information, er orientiert sich am Inhalt und passt ggf. seine Ansicht an (Discounting cue- Hypothese). Kontrollverlust oder Emanzipation, (a)sozial oder „ethisch geschult“? 275 Literatur: Erlinger, Rainer (2018): Gewissensfrage: Gefällt mir nicht. In: SZ-Magazin, 12.4.2018, https://sz-magazin.sueddeutsche.de/die-gewissensfrage/gefaellt-mir-ni cht-85406 Erlinger, Rainer (2019): Warum die Wahrheit sagen? Berlin: Duden. Garland, Joshua / Ghazi-Zahedi, Keyan / Young, Jean-Gabriel / Hébert-Dufresne, Laurent / Galesic, Mirta (2020): Countering hate on social media: Large scale classification of hate and counter speech https://arxiv.org/pdf/2006.01974.pdf. Glotz, Peter / Langenbucher, Wolfgang R. (1969): Der mißachtete Leser. Zur Kritik der deutschen Presse. Kiepenheuer & Witsch: Köln, Berlin. Ziegele, M., & Jost, P. B. (2016a). Not funny?: The effects of factual versus sarcastic journalistic responses to uncivil user comments. Communication Research, advance online publication, 1–30. doi:10.1177/0093650216671854 Ziegele, M. (2016b). Nutzerkommentare als Anschlusskommunikation: Theorie und qualitative Analyse des Diskussionswerts von Online-Nachrichten. Wiesbaden: Springer VS. Ziegele, M., Weber, M., Quiring, O., & Breiner, T. (2018). The dynamics of online news discussions: effects of news articles and reader comments on users’ involvement, willingness to participate, and the civility of their contributions. Information, Communication & Society, 21(10), 1419-1435. Rainer Erlinger, Marc Ziegele 276 Das beachtete Publikum. Eine institutionelle Perspektive Pierre Rieder Abstract Der Schutz des Publikums vor Manipulation durch die Rundfunkmedien war ein wichtiger Grund, dass der schweizerische Gesetzgeber eine Unabhängige Beschwerdeinstanz für Radio und Fernsehen schuf. Später ergänzte er das System der Programmaufsicht mit vorgelagerten Ombudsstellen. Vergleichbare Beschwerdemöglichkeiten gibt es zwar in vielen Ländern. Nirgends ist aber der Einfluss des Publikums auf die Tätigkeit der für Medieninhalte zuständigen Aufsichtsbehörden grösser als in der Schweiz. Die entsprechenden Verfahren sind kostenlos und auch für juristische Laien ohne Weiteres anwendbar. Bei Erfüllen der Voraussetzungen besteht ein Anspruch auf einen rechtsverbindlichen Entscheid. Das Publikum macht von seinen Beanstandungsmöglichkeiten vor allem bei als einseitig, tendenziös oder nicht faktengetreu taxierten Informationssendungen rege Gebrauch. Beim Entscheid über Beschwerden spielen aber die Medienfreiheit und die Programmautonomie eine große Rolle. Die meisten Beschwerden werden deshalb abgewiesen. Die Unabhängige Beschwerdeinstanz für Radio und Fernsehen UBI Überblick Die Einsetzung der Unabhängigen Beschwerdeinstanz für Radio und Fernsehen (UBI) erfolgte 1984. Das schweizerische Parlament entschied sich zu diesem Schritt, weil es die Aufsicht über die Inhalte von Radio- und Fernsehprogrammen einer unabhängigen Behörde übertragen wollte. Die Tätigkeit der UBI sollte namentlich dem Schutz des Publikums dienen, insbesondere dessen freier Meinungsbildung als wichtiges Element einer direkten Demokratie (UBI 2014: 45–46). Wichtigste Neuerungen in der schweizerischen Programmaufsicht seit 1984 sind die Schaffung von der UBI vorgeschalteten Ombudsstellen, und die Erweiterung der Beschwerdemöglichkeit auf Zugangsverweigerungen und auf Online-Inhalte der Schweizerischen Radio- und Fernsehgesellschaft SRG, des eigentlichen Service public-Veranstalters (Der Bundesrat 2016: 50–62). 1. 1.1. 277 Organisation Die UBI ist eine gerichtsähnlich ausgestaltete ausserparlamentarische Kommission des Bundes. Sie besteht aus neun nebenamtlich tätigen Mitgliedern und einem dreiköpfigen Fachsekretariat. Zurzeit gehören der UBI fünf Frauen und vier Männer aus allen vier Sprachregionen an. Nach der Instruktion der Verfahren durch das Sekretariat beschliessen die Mitglieder im Rahmen einer öffentlichen Beratung, ob die Beschwerde gutzuheissen oder abzuweisen ist. Der schriftlich begründete Entscheid kann anschliessend beim Bundesgericht angefochten werden. Aufgaben Die UBI hat festzustellen, ob redaktionelle Sendungen von nationalen, regionalen und lokalen Veranstaltern sowohl der SRG als auch privater Rundfunkmedien sowie Online-Publikationen der SRG einschlägiges nationales oder internationales Recht verletzen. Dazu gehören die Informationsgrundsätze wie das Sachgerechtigkeits- und das Vielfaltsgebot, die Beachtung der Grundrechte, das Diskriminierungsverbot, der Schutz der Menschenwürde, das Verbot von Gewaltverherrlichung und –verharmlosung, der Jugendschutz sowie der Zugang zum Programm. Das Beschwerdeverfahren vor der UBI dient dem Allgemeininteresse und nicht dem Rechtschutz des Einzelnen wie etwa beim Persönlichkeitsschutz. Dafür besteht der zivilrechtliche Gerichtsweg. Wirkung der Entscheide Stellt die UBI eine Rechtsverletzung fest, führt sie in der Regel ein Massnahmenverfahren durch. Der betroffene Veranstalter muss darlegen, welche Vorkehren er getroffen hat, um den Mangel zu beheben und entsprechende Verstösse in Zukunft zu vermeiden. (Rieder 2011: 139–140). Erachtet die UBI die getroffenen Massnahmen als ungenügend, kann sie beim Medienministerium beantragen, zu intervenieren und im Extremfall ein Sendeverbot zu auferlegen. Über eigentliche Sanktionsmöglichkeiten wie die Auferlegung von Bussen verfügt die UBI dagegen nicht. Die wohl grösste «Strafe» für den betroffenen Veranstalter ist das Publikmachen der Rechtsverletzung durch die UBI im Rahmen einer Medienmitteilung. Alle 1.2. 1.3. 1.4. Pierre Rieder 278 Entscheide der UBI seit 1998 sind in einer Datenbank auf der Website ver- öffentlicht. Das Publikum Rolle des Publikums Dem Publikum kommt im Beschwerdeverfahren eine zentrale Rolle zu. Das betrifft nicht nur den Umstand, dass die Tätigkeit der UBI dazu dient, dieses vor unzulässigen Sendungen zu schützen. Das Publikum entscheidet darüber, welche Publikationen die Behörde zu überprüfen hat und gibt mit seinen Rügen auch den Gegenstand des Verfahrens vor. Die UBI darf nicht von sich aus tätig werden, sondern nur auf Beschwerde hin. Bei Vorliegen der Beschwerdevoraussetzungen besteht ein Anspruch auf die Durchführung des Verfahrens und einen rechtsverbindlichen Entscheid der UBI zur angefochtenen Publikation. Eine anwaltliche Vertretung ist nicht notwendig und in der Mehrheit sind es denn auch juristische Laien, welche Beschwerde bei der UBI führen. Ein Prozessrisiko besteht nicht, weil das Beschwerdeverfahren im Grundsatz – mutwillige Beschwerden ausgenommen – kostenlos ist. Im Rahmen des Schriftenwechsels können die beschwerdeführenden Personen Stellung zur Beschwerdeantwort des Veranstalters nehmen, Verfahrensanträge stellen und schliesslich der öffentlichen Entscheidberatung der UBI beiwohnen. Rechtliche und faktische Hürden Wenn eine Person keine enge Beziehung zum Gegenstand der beanstandeten Publikation aufweist, muss sie die Voraussetzungen für eine Popularbeschwerde erfüllen. Mindestens 20 andere Personen müssen dabei die Eingabe unterstützen. Diese Anforderung, welche die missbräuchliche Verwendung des kostenlosen Verfahrens verhindern will, hat schon manche Beschwerde an die UBI verhindert. Das trifft in geringerem Masse auch auf die Formvorschriften wie die Schriftlichkeit zu, obwohl diese für ein rechtliches Verfahren eher gering sind. Etliche Personen begnügen sich aber damit, ihren Unmut über Medieninhalte mit einer E-Mail an die Redaktion oder einer Nachricht in den sozialen Medien auszudrücken. Abschreckend mag auch sein, dass die UBI den Grossteil der Beschwerden abweist. Der Medienfreiheit bzw. der Programmautonomie kommt im Rah- 2. 2.1. 2.2. Das beachtete Publikum. Eine institutionelle Perspektive 279 men des anwendbaren Rechts eine grosse Rolle zu. Es ist der UBI zudem verwehrt, ausserrechtliche Kriterien wie die Qualität, den Stil oder den Geschmack einer Publikation in die Beurteilung einfliessen zu lassen. Die Ombudsstellen Beschwerde bei der UBI kann erst nach Abschluss des Verfahrens vor der Ombudsstelle erhoben werden. Die Hürden bei der vorgelagerten Ombudsstelle sind weniger hoch als bei der UBI: eine innert 20 Tagen nach Veröffentlichung eingereichte einfache E-Mail mit kurzer Begründung genügt. Die Ombudsstelle prüft die Angelegenheit und orientiert die Beteiligten innert 40 Tagen in einem Bericht über die Ergebnisse ihrer Abklärungen. Sie hat keine Entscheidbefugnis, sondern soll zwischen den Beteiligten vermitteln. Es gibt insgesamt acht Ombudsstellen für die Rundfunkveranstalter in den vier schweizerischen Sprachregionen, fünf für die Programme der SRG und drei für die übrigen Veranstalter. Die Arbeitslast der einzelnen Ombudsstellen ist sehr unterschiedlich. Das trifft auch auf die Art und Weise zu, wie sie ihre Tätigkeit ausüben. Während sich die einen vor allem auf eine schriftliche Korrespondenz konzentrieren, versuchen andere in einem direkten Gespräch mit den Beteiligten eine einvernehmliche Regelung zu erzielen (vgl. Blum/Staub 2017: 44–63). Die seit 1992 bestehenden Ombudsstellen haben die UBI stark entlastet. In den letzten fünf Jahren verzeichneten die Ombudsstellen im Durchschnitt 512 Beanstandungen. Nur rund 5 Prozent der Fälle mündeten anschliessend noch in ein Beschwerdeverfahren vor der UBI. Das wenig verrechtlichte Verfahren vor der Ombudsstelle hat sich als effizient und publikumsfreundlich erwiesen. Es stellt eine ideale Ergänzung zur Tätigkeit der UBI dar, die mit ihrer langjährigen Rechtsprechung die Grundlage für die Arbeit der Ombudsstellen bildet. UBI und Ombudsstellen tauschen sich regelmässig aus, um eine kohärente Praxis und ein transparentes Aufsichtssystem zu gewährleisten. Fazit Die Tätigkeit der UBI mit den ihr vorgelagerten Ombudsstellen mag wenig spektakulär sein. Die Resonanz in den Medien auf Entscheide der UBI ist denn auch gering. Ihren Zweck erfüllt das Verfahren aber in verschiede- 3. 4. Pierre Rieder 280 ner Hinsicht. Untersuchungen bescheinigen der UBI, dass die Kommission trotz der vielen abgewiesenen Beschwerden unabhängig entscheidet (vgl. Gürtler/Niederer 2017). Die schweizerischen Veranstalter haben die aus den Entscheiden der UBI abgeleiteten journalistischen Sorgfaltspflichten zudem weitgehend implementiert. (Mayr von Baldegg/Strebel 2018: 258– 269). Krasse Rechtsverletzungen sind kaum mehr festzustellen. Die inhaltliche Kritik an den Veranstaltern und namentlich an der SRG, die zu einem beträchtlichen Teil durch die von allen Haushalten entrichtete Medienabgabe finanziert wird, ist allerdings nicht verstummt. Die meisten Beschwerden richten sich auch gegen Nachrichten- und andere Informationssendungen aus Programmen der SRG. Moniert wird regelmässig, die darin vermittelten Informationen seien unzutreffend («Fake News»), einseitig, unvollständig, tendenziös oder manipulativ. Die UBI beurteilt entsprechende Beschwerden im Lichte des Sachgerechtigkeitsgebots, welches die freie Meinungsbildung des Publikums gewährleistet. Es ist seit je die meist angerufene Bestimmung, zu welcher eine umfangreiche Spruchpraxis der UBI und des Bundesgerichts besteht (UBI 2014: 64–76). Der Umstand, dass bei der Tätigkeit der UBI die Beurteilung von Nachrichten- und anderen Informationssendungen aus Programmen der SRG im Vordergrund steht, entspricht allein dem Willen des Publikums. Dieses bestimmt mit seinen Eingaben die Agenda der UBI und der ihr vorgelagerten Ombudsstellen. Beschwerdeführende Personen zeigen sich zwar nach einem Abweisungsentscheid oft enttäuscht. Sie fühlen sich aber doch ernst genommen, wenn zuerst die Ombudsstelle den Sachverhalt abklärt und nachher die UBI eine eingehende Prüfung durchführt, im Rahmen einer öffentlichen Beratung einen Beschluss fällt und den Parteien schliesslich eine detaillierte Entscheidbegründung zustellt. Literatur: Blum, Roger / Staub, Ignaz (Hg.) (2017): Die Klagemauern der Schweizer Medien. Bern. Online verfügbar unter: https://www.ubi.admin.ch/inhalte/pdf/Dokument ation/Artikel/Artikel_DE/Broschuere__Ombudsmann_D_Online.pdf (Abfrage am 30.05.2020). Der Bundesrat (2016): Bericht zur Überprüfung der Definition und der Leistungen des Service Public der SRG unter Berücksichtigung der privaten elektronischen Medien. Online verfügbar unter: https://www.bakom.admin.ch/bakom/de/home/das-bak om/organisation/rechtliche-grundlagen/bundesratsgeschaefte/bundesratsberichtzum-service-public-im-medienbereich.html (Abfrage am 30.05.2020). Gürtler, Stefan / Niederer, Ruedi (2017): Urteilt die Unabhängige Beschwerdeinstanz UBI unabhängig? In: medialex 5/17. Das beachtete Publikum. Eine institutionelle Perspektive 281 Mayr von Baldegg Rudolf / Strebel, Dominique (2018): Medienrecht für die Praxis. Zürich, Konsumenteninfo AG. Rieder, Pierre (2011): Was bewirken Entscheide der UBI? In: medialex 3/11, S. 138– 141. Online verfügbar unter: https://www.ubi.admin.ch/inhalte/pdf/Dokumenta tion/Artikel/Artikel_DE/medialex_3_Rieder.pdf (Abfrage am 30.05.2020). Unabhängige Beschwerdeinstanz für Radio und Fernsehen UBI (Hg.) (2014): Zwischen Medienfreiheit und Publikumsschutz, Die Medienregulierung in der Schweiz und die Praxis der UBI. Bern. Online verfügbar unter: https://www.ubi.admin.ch/ inhalte/pdf/Dokumentation/Artikel/Artikel_DE/UBI_Jubilaeumsbroschuere_D E.pdf (Abfrage am 30.05.2020). Pierre Rieder 282 Das beachtete Publikum. Eine redaktionelle Perspektive Daniel Fiene Abstract Die Digitalisierung hat das Publikum unumkehrbar zu einem selber aktiv kommunizierenden Gegenüber von Journalist*innen gemacht. Dadurch bedarf es noch größerer und auch andersartiger Beachtung als traditionell. Darin liegt einerseits Potenzial für eine Community-Redaktions-Beziehung, die für alle Seiten ein Gewinn ist. Aber bekannt ist auch, dass es andererseits destruktiv kommunizierende Gruppen und Personen im Publikum gibt. Redaktionen sind gefordert ihrem Publikum hohe Beachtung zu schenken, aber – wo notwendig – auch Grenzen zu zeigen. Der Beitrag beginnt mit einer Darlegung zentraler Herausforderungen aus redaktioneller Sicht und beschreibt dann drei Beispiele: Erstens die Strategie der „Rheinischen Post“, die als eine der ersten deutschen Regionalzeitungen eine konsequente Strategie entwickelt und ein Audience-Engagement-Team etabliert hat; zu diesem gehört ein Listening-Center für einen mit digitalen Mitteln betriebenen redaktionellen Prozess auf der Grundlage von Leserdaten. Zweitens das Community- Buildung des neuen Projekts „Media Pioneer“. Und drittens die von der Landesanstalt für Medien NRW angestoßene Initiative „Verfolgen statt nur Löschen“, der sich die Rheinische Post als eines der ersten Medienhäuser anschloss. Zwei zentrale Herausforderungen für Redaktionen im Umgang mit dem Publikum Google und Facebook haben mehr Daten über Kleve oder Kempen, aber ich bin mir sicher: Die Kolleg*innen in den Lokalredaktionen am Niederrhein wissen mehr über die Städte. Sie können die Daten besser anwenden. Im besten Fall macht das den Journalismus besser. Nicht nur was die Auswahl an Themen und die Bindung zum Publikum angeht, sondern auch die Entwicklung neuer Formate. Der Umgang mit dem Publikum ist allerdings ein komplexer Prozess. Dieser beginnt mit einem Eingeständnis, der noch nicht in allen Redaktionsstuben verinnerlicht wurde: Der gesellschaftliche Diskurs findet im Netz statt, und nicht in der Redaktionskonferenz. Die Haltung, das eigene Bauchgefühl des Redakteurs wisse genau, was das Publikum bewegt und 1. 283 interessiert, stammt aus der Post-Digitalisierung. Der Plausch auf dem Marktplatz, beim Stammtisch und den Pausen der Ratssitzungen mögen damals ausgereicht haben, passt aber heute nicht mehr zur Publikumsrealität. Die Gemeinsamkeit des Publikums ist die Diversifikation — die Digitalisierung macht es möglich. Nicht nur die Medienlandschaft ist heute deutlich komplexer als vor 25 Jahren, auch die Mediennutzung ist heute eine andere: Was die Geräte, was die Inhalte aber auch was die Erwartung des Publikums an Medien angeht. Die Inhalte von Journalist*innen stehen heute nicht nur in Konkurrenz zu anderen Medien. Das lokale Topthema bekommt Konkurrenz durch den neuen Schul-Aufreger in einer Eltern- WhatsApp-Gruppe, den frischen Sonderangeboten bei Ebay-Kleinanzeigen, den unterhaltenden Ausgehtipps eines Instagram-Influencers oder zum ausführlichen Gesprächs der Bürgermeisterkandidatin in einem bekannten Podcast. In diesem Kontext bekommt der Begriff Relevanz für Journalisten eine ganz neue Bedeutung und führt zu größeren Herausforderungen: Die richtige Distanz zum Publikum aufbauen. Viele Journalist*innen sprechen gerne noch von einer Netz-Gemeinde oder tun Leserkommentare oder Facebook-Diskussionen als die Werke von Nerds ab. Was vielleicht in den Anfangsjahren des Netzes noch stimmte, ist überholt. Die Netz-Verbreitung liegt laut Digital News Report in Deutschland bei 96 Prozent (vgl. Newman et al. 2020). Eine Unterscheidung zwischen digitalem und analogem Publikum ist falsch. Die Beachtung des Publikums benötigt eine gewisse Nähe, die aber auch ihre Grenzen hat. Einige Journalisten ordnen die digitalen Kanäle nicht im Gesamtkontext ein und geben ihnen ein zu starkes Gewicht: 20 empörte E-Mails, 100 randalierende Tweets oder 500 vernichtende Facebook-Kommentare sind kein repräsentatives Meinungsbild des Publikums. Eine Reflexion ist nötig, sonst drohen sogar journalistische Grundsätze vernachlässigt zu werden – was besonders tragisch ist, wenn Kritik gelenkt oder orchestriert wird. Journalisten sollten durch Daten informiert, aber nicht getrieben werden. 1.1 Daniel Fiene 284 Eine empathische Bindung zum Publikum aufbauen. Wir befinden uns in einer zweiten Phase der Publikumsbeachtung. In den letzten Jahren hat der Journalismus (hoffentlich) gelernt, sich auf Augenhöhe des Publikums zu begeben. Aber das reicht heute nicht mehr. Wir müssen auch einen Schritt auf das Publikum zugehen. Das geht mit Empathie. Ein empathischer Umgang mit dem Publikum kann auf verschiedenster Weise erfolgen. Zwei Beispiele: Erstens: Die Kunst ist es, nicht nur über gesellschaftliche Gruppen zu berichten, sondern auch Inhalte für sie anzubieten. Dieser empathische Ansatz zählt zur Wachstumsstrategie von der digitalen US-Medienmarke Buzzfeed. Junge muslimische Amerikaner sind als Zielgruppe identifiziert worden. In den Medien ist oft über sie berichtet worden, aber es gab kein Angebot für sie als Zielgruppe. Buzzfeed hat ein Unterangebot gestartet und hat dieses Vertikalisierungs-Prinzip für weitere Zielgruppen wiederholt. Buzzfeed konnte so sein Publikum erweitern und hat noch dazu ein deutlich loyaleres Publikum erhalten.1 Zweitens: Medien müssen sich viel mehr mit der tatsächlichen Mediennutzung des Publikums beschäftigen und die Inhalte entsprechend aufbereiten. Der Erfolg des Youtubers Rezo zeigt, dass eine jüngere Generation sich sehr wohl für Politik und Medien interessiert. Sie nutzen die Inhalte von traditionellen Medien nicht, weil diese entweder nicht auf den Kanälen stattfinden, die dieses Publikum nutzt, oder weil sie keinen Zugang zu der Aufbereitung der Inhalte haben. Genau hier setzt die wichtige Arbeit der Teams an, die in vielen Häusern als Audience Engagement oder Audience Development bezeichnet wird. Es geht um einen strategischen Ansatz für den Umgang mit Social Media und neuen Plattformen um die eigene Medienmarke sinnvoll weiterzuentwickeln. Was ist im Ausblick auf die Zukunft die Hauptherausforderung, die noch zu bewältigen ist? Das Publikum zu beachten ist ein Prozess, der zu Beginn zeitintensiv ist und langfristig eine Regelmäßigkeit erfordert. Das widerspricht dem Druck auf Redaktionen möglichst effizient zu arbeiten. Die Auswirkungen der Corona-Pandemie waren zudem ein Katalysator auf diesen Druck. Die in das Publikum investierte Zeit hilft dem Redakteur nicht kurzfristig, die übervolle To-Do-Liste mit den Tagesaufgaben abzuarbeiten. Sie ist aller- 1.2 1 Der Verfasser war auf der SXSW 2018 bei einem Vortrag von Jonah Peretti und bezieht sich auf die Notizen, die er dort gemacht hat. Das beachtete Publikum. Eine redaktionelle Perspektive 285 dings ein langfristiges Investment in die Relevanz der Marke. Das Redaktionsmanagement muss eine Lösung für diese Herausforderung finden. Audience Engagement – Fallbeispiel „Rheinische Post“ Die „Rheinische Post“ hat dem Publikum früher als viele andere Medienhäuser hohe Aufmerksamkeit geschenkt. Was war der Anlass? Als unsere Chefredaktion kritisch hinterfragte, wie eigentlich über die Themen in die Zeitung und auf das Nachrichtenportal entschieden wird, fiel auf: Dieser Prozess hat sich in den letzten Jahren kaum verändert, auch wenn sich die Medienrealität des Publikums wie oben beschrieben deutlich verändert hat. Deswegen ist 2016 das Listening-Center eröffnet worden. Jeder Lokalredakteur erhält sein tägliches, personalisiertes Briefing mit Netztreffern aus der Region: Blog- oder Nachrichtenartikel, Twitter- Meldungen der Polizei oder ein Influencer-Video aus der Region landen in den thematisch sortierten Reportings. Die Redaktion kann nicht nur neue Themen entdecken, sondern auch sehen, wie intensiv andere Themen stattfinden. Die drei Haupt-Learnings waren folgende: 1.) Je spezifischer ein Thema ist, desto besser funktioniert das Listening-Center. Gerade deswegen hat die lokale Ausrichtung gut funktioniert, übrigens nicht nur in den großen Städten wie Düsseldorf oder Duisburg. Auch aus kleineren Orten gibt es genügend Treffer, die den Blick der Redaktion weiten. 2.) Für die Akzeptanz in den Redaktionen war es wichtig, wie das Listening- Center eingeführt wurde. Es sollte kein Bildschirm mit wechselnden Hinweisen sein, der irgendwo unbeachtet an der Wand hing, sondern zum täglichen Alltag der Journalisten dazugehören. Bei der Einführung haben wir darauf geachtet, dass Listening-Center als Werkzeug vorzustellen, dass einem den ständigen Blick in das Netz abnimmt. Auch, dass es am Ende nur ein Hinweisgeber und kein Entscheider über die Themensetzung ist. Die klassische journalistische Bewertung liegt weiter beim Redakteur. 3.) Social-Listening vermindert die blinden Flecken einer Redaktion. Auf einmal sind die Redaktionen auf Themen gestoßen, bei denen sie noch gar nicht wussten, dass es sie gab und haben Quellen berücksichtig, die sie normalerweise nicht scannen. Ein Beispiel: Eine Künstlerin vom Niederrhein hat in Ostdeutschland eine Ausstellung betrieben, die dort viel Beachtung bekam. In der dortigen Lokalpresse wurde die 2. Daniel Fiene 286 Ausstellung gefeiert. Ohne Listening-Center hätten die Kollegen in der Lokalredaktion am Niederrhein davon nichts mitbekommen. Aber es gab auch Ernüchterungen. Das Listening-Center ist ein unendlicher Fundus an relevanten Themen. Doch die Ressourcen zur Umsetzung sind begrenzt. Zwar ist es für die Redaktion gut, wenn sie die Themen aus einer breiteren Basis auswählt, aber es führt auch die begrenzten Ressourcen vor Augen. Dann gibt es noch eine Entwicklung, die Social Listening in seiner jetzigen Form in Zukunft schwieriger macht: Immer mehr Kommunikation findet in geschlossenen Messenger- oder Facebook-Gruppen statt. Diese können nicht durch Algorithmen von Social-Listening-Tools ausgewertet werden. Bisher zeigt die Erfahrung, dass relevante Diskussionen und Themen mit etwas Zeitverzug auch im zugänglichen Social-Web gespiegelt werden. Aber das kann noch zu einer Herausforderung werden. Das Publikum als Partner – Fallbeispiel „Media Pioneer“ Media Pioneer ist – wie der Name sagt – ein Pionierprojekt. Die Leitlinie zur Communityfunktion von Journalismus wird in der Mission von Media Pioneer in Punkt 5 erklärt: „Die Leserinnen und Leser sind für uns keine Zielgruppe und keine „User“, sondern Partner. Gemeinsam bilden wir eine Gemeinschaft kluger Köpfe. Experten werden zu Autoren und können künftig auch zu Miteigentümern werden.“ Das Publikum wird als Pioneers bezeichnet – sie stehen im Kern der Unternehmung. Einmal finanziert sich Media Pioneer nicht durch Werbung, sondern durch die Beiträge der Pioneers. Dann können sie aktiv an den Inhalten mitgestalten – auf unserem Nachrichten-Portal ThePioneer.de können sie sich als Experten bewerben und Texte veröffentlichen – auf Augenhöhe mit den anderen journalistischen Angeboten. Media Pioneer ist in diesem Jahr zudem in eine AG umgewandelt worden. In Zukunft sollen besonders engagierte Pioneers die Möglichkeit erhalten, Miteigentümer zu werden. 10 Prozent der Anteile sind für sie reserviert. Die Bedeutung des Publikums unterstreicht auch der Redaktionsort: Das Redaktionsschiff „PioneerOne“. Es ist ein Ort der Begegnung. Interviews führen die Journalisten nicht alleine, sondern laden auch die Pioneers an Bord. So kommt es auch zum regelmäßigen physischen Austausch. Der Kontakt zu den Podcast-Hörern, Newsletter-Lesern und Pioneers ist fest in der Redaktions-DNA verankert: Jeden Tag treffen Hunderte Mails 3. Das beachtete Publikum. Eine redaktionelle Perspektive 287 ein, die alle persönlich beantwortet werden. Das gehört auch zu den Aufgaben der Redaktion. Nicht selten werden Vorschläge zu Themen oder Ansprechpartnern direkt umgesetzt. Viele Gesprächsteilnehmer der Podcast-Reihe „Der Achte Tag“ setzen sich aus Vorschlägen der Zuhörerschaft zusammen. Das Publikum als (a)sozialer Gegenüber – „Verfolgen statt nur Löschen“ Mitunter ist der Austausch mit dem Publikum aber nicht konstruktiv. Auch dann sollte eine Redaktion einen Plan haben. „Verfolgen statt nur Löschen“ ist eine der Gegeninitiative gegen die redaktionelle „Dauer-Aufgabe“, gegen Hass aus dem Netz anzukämpfen. Das Projekt „Verfolgen statt nur löschen“ ist 2017 durch die Landesanstalt für Medien Nordrhein- Westfalen ins Leben gerufen worden. Neben Medienwächtern sind auch Justiz, Polizei und Medienhäuser Teil der Arbeitsgemeinschaft. Neben der RTL Mediengruppe, dem WDR und anderen, nimmt auch die Rheinische Post teil. Aus meiner Sicht hilft die Initiative vor allem in zwei Bereichen weiter: Einmal gibt es einen besseren Austausch und ein besseres Verständnis zwischen den Beteiligten. Schon alleine, dass sich die Community- Teams der unterschiedlichen Medien über Methoden und Erfahrungen austauschten, hat allen geholfen. Auch ein besseres Verständnis für die Arbeit von Strafverfolgern hilft bei der täglichen journalistischen Arbeit: Wann ist ein Kommentar justiziabel? Wann sollte man ihn anzeigen? Wie zeigt man korrekt an? Der andere Bereich betrifft die Berichterstattung: Ein großes Manko ist fehlendes Unschuldsbewusstsein bei einem Teil des Publikums, denn Hass im Netz ist kein Kavaliersdelikt. Hassverbreiter fürchten häufig nur eine Sperre oder dass ihre Inhalte gelöscht werden. Doch Hass wird auch für die Strafverfolgung immer häufiger zum Thema. Neben Strafanzeigen und Hausdurchsuchungen kommt es auch zu Urteilen, die nicht nur aus Geldstrafen bestehen. Die Berichterstattung über solche Fälle kann dem Publikum helfen, das eigene Handeln besser zu beurteilen. Literatur Media Pioneer: Mission. https://mediapioneer.com/ Initiative „Verfolgen statt nur löschen“: Webauftritt bei der Landesanstalt für Medien NRW. https://www.medienanstalt-nrw.de/themen/hass/verfolgen-statt-nurloeschen-rechtsdurchsetzung-im-netz.html 4. Daniel Fiene 288 Newman, N. mit R. Fletcher, A. Schulz, S. Andi & R. Kleis Nielsen (2020): Digital News Report 2020, hg. vom Reuters Institute for the Study of Journalism. Oxford. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2020-06/DNR_20 20_FINAL.pdf Das beachtete Publikum. Eine redaktionelle Perspektive 289 Konsequenzen für die Kommunikations- und Medienethik Teil V: Die Medienethik und der Heilige Geist. Theologische Impulse für eine Kultur der Digitalität1 Thomas Zeilinger Abstract: Ausgehend von einer kurzen Skizze theologischer Beiträge zur deutschsprachigen Medienethik wird die Leistungskraft der Rede vom Heiligen Geist für ein interdisziplinäres Verständnis des digitalen Wandels und die sich entwickelnde Kultur der Digitalität erkundet. An ausgewählten Beispielen beschreibt der Beitrag das Miteinander von institutionellen, personellen und konzeptionellen Impulsen der Theologie – katholisch wie evangelisch – für die Entwicklung der Medienethik. Dabei kommen normative und hermeneutische Verständnisse der Ethik in den Blick. Vor dem Hintergrund der mit Felix Stalder und Dirk Baecker skizzierten Kultur der Digitalität entwickelt der Autor die von Helmut Gorski formulierte These der Relevanz der christlichen Rede vom Heiligen Geist für die digitale Gegenwart weiter. Unter Rückgriff auf medientheoretische und ethische Arbeiten der Theologen Philipp Stoellger und Johannes Fischer werden zehn Impulse zehn Impulse der Rede vom Heiligen Geist für Medien, Religion und Kultur in digitalen Zeiten entfaltet. Die Figur des Heiligen Geistes impliziert dabei sowohl kritische wie konstruktive Potentiale für eine der dynamischen Realität des digitalen Zeitalters angemessene Medienethik. Personen – Orte – Konzepte: Der historische Beitrag der Theologie zur deutschsprachigen Medienethik Am Anfang steht die historische Perspektive: Was hat die Theologie zur Entwicklung der Medienethik beigetragen und wie hat sie dies getan? Meine These hierzu schlägt einen ersten Bogen von der Medienethik zum Heiligen Geist und lautet: Ohne das Kraftfeld des Heiligen Geistes wäre die Geschichte der deutschsprachigen Medienethik nur unvollständig begrif- 1. 1 Antrittsvorlesung als apl. Professor an der Friedrich-Alexander-Universität Erlangen-Nürnberg am 19. Juli 2019. Eine Vorfassung des Beitrags wurde im Februar vorgetragen auf der Jahrestagung „Kommunikations- und Medienethik – reloaded“ in Köln. 293 fen. Institutionen, Personen und Konzepte lassen sich zwar unterscheiden, aber nicht voneinander trennen. Wenn man auf die jüngere Geschichte der Medienethik im deutschsprachigen Raum blickt, hängt das eine mit dem anderen eng zusammen. Gleich ob man auf die handelnden Personen, die diskutierten Konzepte oder die Orte des Geschehens blickt: Theologie und Kirche waren auf jeden Fall vielfach beteiligt, als die Medienethik aus der Taufe gehoben wurde. Ohne die Beiträge von Publizisten wie Hermann Boventer oder Michael Schibilsky,2 ohne die Verankerung des Netzwerks Medienethik an der Hochschule für Philosophie des Jesuitenordens in München mit der Person Rüdiger Funioks oder die Beiträge des Gemeinschaftswerks der Evangelischen Publizistik in den Anfangsjahren des Netzwerks gäbe es die Medienethik so wie wir sie kennen wohl nicht.3 Aus Erlanger Sicht sind dabei die Abteilung Christliche Publizistik am Fachbereich Theologie der Philosophischen Fakultät der Friedrich- Alexander-Universität und die Person von Johanna Haberer eigens zu nennen.4 Der theologische Bezug gilt dabei nicht nur für die Orte und Personen, sondern auch für die konzeptionellen Grundlagen. Besonders deutlich scheint dies bei den Begriffen von Freiheit, Verantwortung und Gerechtigkeit: Natürlich sind diese Begriffe und Konzepte keineswegs exklusiv theologisch grundiert, die philosophische Tradition benötigt nicht notwendig eine theologische Begründung. Unabhängig davon sind die Konzepte jedoch verkürzt verstanden, wenn ihre theologischen Wurzeln nicht im Blick sind. Es ist hier nicht der Ort, dies für die in der Medienethik etablierten Termini ausführlich aufzuzeigen. Ich verweise nur knapp auf einige dazu vorliegende Beiträge: In der Medienethik werden theologische Beiträge häufig in ihrer normativen Funktion wahrgenommen. So erscheint der Begriff der Verantwortung bei Rüdiger Funiok als Leitbegriff einer gleichermaßen theologisch wie philosophisch instruierten Medienethik (vgl. Funiok 2007). Johanna Haberer akzentuiert in ihren Überlegungen den Begriff der Freiheit auf dem Hintergrund der reformatorischen Aufbrüche hinsichtlich der Medien als Instrumenten der Freiheit (vgl. Haberer 2016: 35ff.) An anderer Stelle plädiert sie mit Roland Rosenstock in der biblischen Perspektive des Schalom dafür, Gemeinwohlorientierung und Gerechtigkeit als Kenn- 2 Vgl. Boventer 1984; zu Schibilsky: Rosenstock 2006. 3 Vgl. zu den institutionellen Beiträgen: Wunden 2001. 4 www.theologie.fau.de/institut-pt-landing/professur-fuer-christliche-publizistik. (Abruf 26.8.2019). Thomas Zeilinger 294 zeichen einer „Medienethik aus christlich-jüdischer Perspektive“ zu sehen (Haberer/Rosenstock 2010: 120f.). Jüngst hat Gotlind Ulshöfer die Begriffe von Wahrheit und Wahrhaftigkeit in ihrer Relevanz für die aktuellen Diskurse um Wahrheit und Täuschung hervorgehoben (vgl. Ulshöfer 2018). Der theologische Beitrag wäre freilich seiner Pointe beraubt, würde er ausschließlich normativ entfaltet oder gesehen. Ein Beitrag der Theologie zu einer Medienethik im digitalen Zeitalter versteht sich vielmehr auch als hermeneutisches Konzept, das zu einem zeitgemäßen Welt- und Selbstverständnis beiträgt. Insofern es mit der Ethik um ein orientierendes Verstehen geht, ist die Ethik stets komplementär an anthropologische und kosmologische Perspektiven gewiesen. Gerade theologische Impulse für die Medienethik können dabei an vorliegende hermeneutische Beiträge anknüpfen: Auf die konstitutive Interaktion von Religion und Medien weisen die mediengeschichtlichen und medienwissenschaftlichen Analysen von Jochen Hörisch ebenso hin wie die praktisch-theologischen Beiträge von Wilhelm Gräb (z.B. Hörisch 2004; Gräb 2002). Aber auch die Hinweise von Alexander Filipović zur medienethischen Relevanz von Beteiligungsgerechtigkeit im Horizont öffentlicher Kommunikation einer Wissensgesellschaft bergen eine die normativen Horizonte überschreitende hermeneutische Dimension (vgl. Filipović 2007: 170ff.). In praktisch-theologischer Perspektive hat jüngst Horst Gorski vorgeschlagen, die Lehre vom Heiligen Geist für das digitale Zeitalter neu zu bedenken, seien in ihr doch Wirksamkeit und Entzogenheit, Individualität und Gemeinschaft, Präsenz und Distanz, Virtualität und Realität gemeinsam gedacht und aufeinander bezogen (vgl. Gorski 2018). Diese Spur werden die folgenden Überlegungen aufnehmen. Die Kultur der Digitalität als Signatur der Gegenwart Wie im Untertitel formuliert, versuche ich mit diesem Beitrag, theologische Impulse für eine "Kultur der Digitalität" zu geben. – Der Schweizer Kultur- und Medienwissenschaftler Felix Stalder hat in seinem gleichnamigen Buch den grundlegenden Wandel kultureller Ordnungen beschrieben, der mit dem Prozess der Digitalisierung einhergeht (Stalder 2016). Er sieht drei kulturelle Formen der Digitalität am Werk, „die trotz der verwirrenden Vielfalt an Bestrebungen, Konflikten und Widersprüchen dieser kulturellen Umwelt als Ganze ihre spezifische Gestalt verleihen: Referentialität, Gemeinschaftlichkeit und Algorithmizität.“ (ebd.: 95) Die im Hyperlink ihren symbolischen Ausdruck findende Referentialität ermöglicht es den Individuen, sich selbst nicht nur als Konsumenten, sondern auch als Pro- 2. Die Medienethik und der Heilige Geist. 295 duzenten in kulturellen Prozessen zu beteiligen. Globale und jederzeitige Kommunikation ermöglicht Ausdruck und Beteiligung, produziert zugleich jedoch eine in allen Bereichen der Kultur zu beobachtende Unordnung. Beheimatung in temporären und freiwillig gewählten Gemeinschaften ist das zweite von Stalder konstatierte Merkmal der Kultur der Digitalität. Netzwerkdynamiken konfigurieren die Pole von Freiwilligkeit und Zwang, Autonomie und Fremdbestimmung in neuer Weise. Möglich wird diese neue Konfiguration ihrerseits überhaupt nur durch technische Verfahren automatisierter Entscheidungen. Erst durch die Algorithmizität wird die von Maschinen produzierte Datenfülle zu einer für die menschliche Wahrnehmung zugänglichen Information: „Angesichts der von Menschen und Maschinen generierten riesigen Datenmengen wären wir ohne Algorithmen blind.“ (ebd.: 13).5 Stalder sieht zwei mögliche Ausgänge der sich abzeichnenden Kultur der Digitalität, die er mit den Stichworten „Postdemokratie“ und „Commons“ bezeichnet: Die Entwicklungslinie hin zur Postdemokratie schaffe eine im Kern autoritäre Gesellschaft, in der die Menschen zwar an der Oberfläche eine kulturell reiches und selbstverantwortliches Leben führen, jedoch die politischen und ökonomischen Strukturen unter denen dies passiert, kaum mehr beeinflussen könnten. Demgegenüber stehe die Entwicklungslinie zu den Commons (vgl. Creative Commons usw.), die eine Erneuerung der Demokratie verheiße, „aufbauend auf Institutionen jenseits von Markt und Staat“ (ebd.: 280). Durch datenintensive Beteiligungsverfahren werde eine neue Verbindung der ökonomischen, sozialen und ökologischen Dimensionen des Alltags möglich. So zeige sich, dass die Zukunft nicht alternativlos auf einen Ausgang festgelegt, sondern offen sei: „Unser Handeln bestimmt, ob wir in einer postdemokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und der Partizipation leben werden.“ (ebd.: Klappentext) Welchen Beitrag kann und soll nun eine Theologie des Heiligen Geistes zu dem mit der digitalen Welt einhergehenden Kulturwandel beisteuern? 5 Vgl. hierzu auch den Hinweis von Andreas Hepp: „Medien sind zunehmend nicht einfach ‚nur‘ Mittel der Kommunikation mit anderen Menschen. In dem Moment, in dem diese Medien digitalisiert sind und in umfassende Kommunikationsinfrastrukturen eingebunden werden, sind sie zusätzlich Mittel einer algorithmisierten Wirklichkeitskonstruktion.“ (Hepp 2016: 230). Thomas Zeilinger 296 Mediengeschichte in systemtheoretischer Perspektive Nach Ansätzen einer Theologie in der digitalisierten Welt sucht Horst Gorski (2018) in seinem bereits erwähnten Versuch. Nicht die moralische Positionierung – emphatisches Pro oder entrüstetes Contra – steht für ihn am Beginn, sondern die Aufgabe, die Veränderung der Welt zu verstehen. Gorski unternimmt dies mit Hilfe der Systemtheorie Niklas Luhmanns. Dirk Baeckers Überlegungen zur „next society“ folgend, zeichnet Gorski zunächst Luhmanns mediengeschichtliche Epochengliederung nach:6 Epoche Kulturform Religiöse Form Stammesgesellschaft Grenze (ordnet das Geheimnis) Magie Schriftgesellschaft Zweck/Telos (bändigt Symbolüberschuss) Institution Gutenberg-Galaxie Unruhiges Gleichgewicht (bändigt Kritiküberschuss) Glaube (indiv. Haltung) Next Society (Computer/ Digitales) Form der Form (ordnet Kontrollüberschuss und korrespondierenden Kontrollverlust) ? Sprache als Überschusssinn Wer darf mit wem worüber sprechen? Von Ort und Zeit unabhängige Kommunikation Schriftlicher Vergleich bzw. Kritik Vernunft Politiker Philosophen Comp. bzw. Algorithmus kommuniziert Das Phänomen der Instanteneität und Rekursivität (die Reaktion zu meinem Tweet kommt in Echtzeit zu mir) bewirkt, dass Form nicht mehr als Gestalt, sondern nur noch als abstrakte einzelne Linie da ist: Dem subjektiven Erleben bietet sich keine Form mehr, die das Handeln strukturiert: „Das heißt, dass man bei jeder Handlung immer nur die momentane Anschlussfähigkeit zu einer anderen Handlung jenseits einer Linie suchen kann, ohne zu wissen, ob diese Handlung richtig oder falsch ist und ob die Handlung, zu der man den Anschluss sucht, im nächsten Augenblick so noch besteht.“ (Gorski 2018: 194) 3. 6 Eigene Grafik, basierend auf Luhmann (1997): 405ff., Baecker (2007): 14ff. und Gorski (2018): 190ff. Die Medienethik und der Heilige Geist. 297 Gorski konstatiert deshalb, dass „die Erschütterung, in einer instanten Welt zu leben, in der die nicht kontrollierbare Kommunikation permanent Irritation und Beschämung wie auch Stabilisierung und Bestätigung bereithält, ohne dass ich wissen kann, welches davon als Nächstes eintritt, ist allein mit den traditionellen Ressourcen nicht zu beantworten.“ (ebd.: 197f.) Welche Strukturform der Religion wird also Magie, Institution und Glaube folgen? Für Gorski ist genau die beschriebene Unsicherheit und Offenheit der Ort, an dem sich die Begegnung mit Gott ereignet. „Mitten in diesem Prozess ereignen sich Scheitern und Gelingen, Kreuz und Auferstehung. Dies kann verstanden werden als das Wirken des Geistes im Prozess. Das heißt, die ‚Form der Religion‘ in der digitalisierten Welt ist die Offenheit für den Heiligen Geist. Eine ‚Theologie in der digitalisierten Welt‘ ist nach dem Gesagten eine Theologie, die das fragile Leben unter der Prämisse reflektiert, dass Gott – als der Geist, der sich im undurchschaubaren Prozess des Lebens offenbart – auch dieses Leben hält.“ (ebd.:198) Ähnlich wie Bernhard Pörksen (2019) spielt auch Gorski bei seinen Überlegungen mit den Worten Kollektiv und Konnektivität: Letztere sieht er als „neues evolutionäres Existenzial“ des Menschen. Wo zuvor, im Kollektiv, Nähe und Distanz, privat und öffentlich reguliert werden konnten, lässt das Konnektiv „keine strukturelle Distanz und keine Regulierung zu. Sie ist immer da, ist ‚instant‘, sie gebiert ständige Irritation oder Stabilisierung, schafft Zukunftsunsicherheit, beschämt oder beglückt; sie ist nicht kontrollierbar.“ (Gorski 2018: 199) Das so beschriebene Existenzial erscheint dann in der Tat als eine äquivoke Beschreibung zu der Rede vom Heiligen Geist, sofern dieser seinerseits durch Unverfügbarkeit, Intimität, Beziehung und Verbundenheit charakterisiert erscheint. Die das Leben in digitalen Zeiten kennzeichnende Mischung aus Kontrollüberschuss und Kontrollverlust, von Instanteneität und Konnektivität, sieht Horst Gorski also als einen Ort, an dem das Wirken des Heiligen Geistes neu zu entdecken ist. Die Lehre vom Heiligen Geist als Medientheorie des Christentums Eine genuine Verbindung zwischen dem Medienbegriff und dem Heiligen Geist hat jüngst Philipp Stoellger in seinem Aufsatz „Die Medialität des 4. Thomas Zeilinger 298 Geistes oder: Pneumatologie als Medientheorie des Christentums“ entwickelt (Stoellger 2019). Dabei grenzt der in Heidelberg lehrende systematische Theologe sein Verständnis scharf ab gegen die gängige Gleichsetzung von Geist und Vernunft, die es ermögliche, eine metaphysische Identität von Gottesgeist und Menschengeist zu postulieren. Gegenüber der Fraglosigkeit einer überzeitlichen Geistmetaphysik plädiert Stoellger dafür, den Geist im christlichen Verständnis nicht ohne das Fleisch zu verstehen: nicht als „immediates ‚Gespenst‘“, sondern als wirksam und darin wirklich in Verbindung mit dem Leib: „Als Medium ist der Geist nie leblos, nie immediat oder immateriell, sondern konstitutiv sinnlicher Sinn. […] Das heißt, der Geist ist ‚leibhaftig gegenwärtig‘ in medialen Figurationen wie in sozialen Konfigurationen.“ (ebd.: 142) Inkarnation und das Skandalon des Kreuzes versperren den beruhigenden Ausweg einer überzeitlichen Identität und führen hinein in das, was Stoellger die mediale Wende der Pneumatologie nennt: „nicht vom Immediaten oder Innen, Körperlosen etc. auszugehen, sondern phänomenal von den Medienpraktiken und -pathiken.“ (ebd.: 143) Stoellgers Medientheorie des Heiligen Geistes gewinnt so Anschluss an die unter dem Stichwort Mediatisierung diskutierten medienwissenschaftlichen Einsichten in die grundlegende mediale Kondition der Existenz: „Vom Geist sei den Medien einer Kultur und Zeit entsprechend zu denken.“ (ebd.: 143) Für Stoellger ist die Medialität des Geistes dann zugleich produktive Bedingung seiner Kreativität. Es kommt in dieser Hinsicht auf die konkreten Formen an, die es in ihrer spezifischen Figuration wahrzunehmen gilt. Der Geist ist zwar nur in den Medienpraktiken gegenwärtig, aber er geht nicht in der jeweiligen Form auf: „Alles mag nur in mit und unter Medien gegeben sein, aber darum sind Medien nicht alles, was ist.“ (ebd.: 154). Unmittelbarkeit und Mittelbarkeit gehören paradox zusammen und halten einen Zwischenraum bestimmter Unbestimmtheit, der „Präsenz im Entzug“ bzw. der Unverfügbarkeit offen, der Innovation ermöglicht. „Geist ist Medium und nur in Medien präsent und wirksam, ohne dass Medien generell Geist wären“ (ebd.: 163). „Die Medien des Geistes provozieren die Frage nach dem Geist der Medien: in welchem Geist Medien gebraucht werden. Sind doch sc. nicht alle Medienpraktiken und -pathiken ‚gleich‘ und ‚gut‘.“ (ebd.: 155) Es geht also immer auch um – theologisch gesprochen – die Unterscheidung der Geister: „Der Geist, der als Geist Christi identifizierbar ist, markiert die Medien, die in seinem Geist kommunizieren.“ (ebd.: 163) Freilich liegt bereits im Begriff des Mediums als eines Dazwischen der Hinweis, dass hier keine strikte und darob eindeutige Kopplung (wahr/falsch – gut/böse) möglich Die Medienethik und der Heilige Geist. 299 ist. Vielmehr sind das Risiko des Zeugnisses und der Teilnehmerperspektive unhintergehbar. Dies verweist auf einen weiteren Aspekt, der nach Stoellger eine Brücke zwischen gegenwärtiger Medienrealität und theologischer Tradition schlägt: den Begriff der Immersion (ebd.: 167ff.). Was im Bereich von Virtual Reality-Technologien als Grundbegriff gebraucht wird, beschreibt eine „mitreißende“ Erfahrung: das Auflösen der Distanz, empathisches körperliches Erleben in räumlichen Kategorien. Das Eintauchen in virtuelle Welten wird als spielerischer Identitäts- und Medienwechsel erlebt. Was im Spiel normalerweise ungefährlich und folgenlos erscheint, ist in der religiösen Logik des Glaubens durchaus gefährlich und folgenreich (vgl. die Taufe). Dabei ist das Gepackt- oder Hingerissen- und Gezogen-Werden keineswegs nur subjektiv und individuell, sondern als soziales Phänomen der Vergemeinschaftung zu verstehen. Zugleich stellt sich in der Dynamik des Spiels wie der des Glaubens eine Art „pathischer Erkenntnis“ ein: das Verstehen folgt dem Widerfahrnis. Gerade weil das Immersionsbegehren in der aktuellen Technologie so erfolgreich bewirtschaftet wird, steht auch die Kirche vor der Frage, ob sie in ihrer Verkündigung ihrerseits den Pfad kompetitiver Immersionssteigerung (à la Crystal Cathedral) beschreiten soll. Stoellger plädiert für Zurückhaltung gegenüber den verfügbaren Möglichkeiten der Immersionsmedientechnik: Abstinenz gegenüber medialen Überwältigungspotenzialen könnte gerade religiös ihren Sinn haben: „Der Leib des Geistes ist nicht Kraft und Herrlichkeit, das wäre eine pneumatologia gloria(e), sondern überraschend unspektakulär: diskreter als gedacht“. (ebd.: 174) „So sehr Medienpraxis zum Leitbegriff für die Medienwissenschaft geworden ist, sollte dabei nicht vergessen werden, dass sie nie ohne Medienpathik auftritt: mit Leidenschaft und lust- wie unlustvollem Leiden. Affekt und Emotion, oder anders Pathos und Pathe, sind stets im Spiel der Medien. Wer ihre Sinnlichkeit und Materialität fokussiert, hat damit auch Passivität und Passion im Blick, selbst wenn er es nicht bemerkt.“ (ebd.: 147) Der Akzent auf der Medienpathik erlaubt dann auch eine kritische Perspektive einzunehmen – sowohl gegenüber einer konstruktivistischen Verkürzung, die für Widerständigkeit und Leiden keinen Platz hat, wie andererseits gegenüber der Dominanz der Vorstellung, es käme allein auf das Handeln an. „Zwischen Gotteswerk und Menschenwerk wirkt das Medienwerk, besser gesagt die Mediendynamik.“ (ebd.: 162) Die Perspektive, die die Rede vom Heiligen Geist weist, wirft ein machtbewusstes Licht auf die Zwischenräume bestimmter Unbestimmtheit. Mit dem Begriff der Medi- Thomas Zeilinger 300 endynamik weist Stoellger darauf hin, dass das handlungslogische Deutungsmuster der Medienpraktiken – nach dem Motto: „Hauptsache, das Handeln stimmt“ – zu kurz greift.7 Die Lehre vom Heiligen Geist und die Ethik Damit gelangen Stoellgers Überlegungen zur Medialität des Heiligen Geistes an einen Punkt, an dem sie sich mit grundsätzlichen Erwägungen des Ethikers Johannes Fischer zur Bedeutung der Dimension des Geistes für die Ethik treffen: „In den entscheidenden ethischen Problembereichen geht es um Fragen der Wahrnehmung, nicht allein um Fragen des Tuns. Die Frage der Wahrnehmung aber kann angemessen nur im Rahmen einer Ethik geistbestimmten Lebens reflektiert und beantwortet werden." (Fischer 1994: 206f.). In seinen Werken weist Fischer immer wieder darauf hin, dass es darauf ankommt, die Geist-Dimension als den umfassendsten Horizont der sittlichen Orientierung und der ethischen Reflexion wiederzugewinnen. Diese Dimension sei – so Fischer – für das moderne Bewusstsein verdunkelt. Was meint er damit? Es geht ihm um eine umfassende Ausrichtung des Lebens und Handelns, die „die vier Differenzen übergreift, welche sich dem modernen Bewusstsein eingeprägt haben: die Differenz zwischen Handeln und Sich-Ereignen, zwischen Affekt und Verstand, zwischen Innen und Außen und schließlich zwischen Subjekt und Objekt." (ebd.: 103) Fischer will nicht darauf hinaus, dass die in diesen Differenzen verfasste moderne Perspektive auf menschliches Handeln falsch ist. Vielmehr ist es ihm darum zu tun, den Irrtum zu korrigieren, menschliches Handeln folge per se derjenigen Struktur, die es in dieser Perspektive hat. Anders ausgedrückt: Wir brauchen mehr als den modernen Handlungsbegriff, der sich aus dem Konzept einer – wie Fischer es im Anschluss an Charles Taylor nennt – "desengagierten Vernunft" speist, in deren Gefolge die Konstruktion rationaler Argumente an die Stelle des Verstehens tritt (vgl. den Untertitel von Fischer 2010). Fischers Überlegungen zur Rolle des Geistes 5. 7 Vgl. zur Mediendynamik meine eigenen Überlegungen zur Wahrnehmung und Wirkung von Medien als Mächten. In: Zeilinger (2011): 85ff. Die Medienethik und der Heilige Geist. 301 in der Theorie der Ethik und Stoellgers Gedanken zur Medialität des Geistes kommen darin zusammen, dass es einerseits entscheidend auf die Medienpraxis ankommt, dass wir diese aber andererseits zu eng verstehen, wenn wir sie nicht in den größeren Horizonten wahrnehmen, die mit der Rede vom Geist aufgerufen sind. Zehn Impulse für eine Kultur der Digitalität Ich entnehme den bisher vorgestellten Anstößen zehn Impulse der Rede vom Heiligen Geist für unseren Blick auf Medien, Religion und Kultur in digitalen Zeiten: Impuls 1: Die Praxis steht in einem beziehungsreichen Kontext, wie ihn Stoellger mit dem Stichwort der Mediendynamik zu fassen sucht. Anders gesagt: Die mediale Praxis steht nicht still – und sie lässt sich auch von der Wissenschaft nicht Still-Stellen. Historisch mag das eingangs geschilderte Ineinander von Institutionen, Personen und Konzepten bei der Entstehung der Disziplin Medienethik als ein Beispiel dafür gelten. Aktuell zeigt sich das In-, Mit- und Untereinander von Bestimmtheit und Unbestimmtheit in einer ungeheuren Vielzahl unterschiedlicher kommunikativer Figurationen.8 Impuls 2: Die verschiedenen kommunikativen Figurationen sind am besten als Zwischenräume zu verstehen. Sie lassen sich nicht allein aus der spezifischen Konstellation der Akteure, noch aus einem handlungsleitenden Relevanzrahmen oder den mit einem Medienensemble verschränkten Kommunikationspraktiken beschreiben. Vielmehr tut die Beschreibung empirischer Phänomene gut daran, mit dem Wirken des Geistes zu rechnen, anders gesagt: ihre Einsichten offenzuhalten für die charakteristische Vernetztheit der Dinge in einer durch Referentialität, Gemeinschaftlichkeit und Algorithmizität ausgezeichneten Kultur, deren Strukturen als Netzwerk – oder geistbewusster gesagt – als rhizomatische Kraftfelder verfasst sind.9 6. 8 Vgl. dazu das gleichnamige Forschungsprojekt der Universitäten Bremen und Hamburg: www.kommunikative-figurationen.de. (Abruf 26.8.2019). 9 Es dürfte nicht zufällig sein, dass einerseits die genannten Stichworte in vielen Kontexten auf die Struktur eines Netzwerkes gedeutet werden (vgl. exemplarisch die Arbeiten von Dirk Baecker zur „Next Society“) – und andererseits auch in der Theologie die Metapher des Netzwerks aufgegriffen wird (vgl. Campbell/Garner 2016). Zum Begriff der rhizomatischen Kraftfelder vgl. die Aufnahme von Deleuze und Guattari beim im Juli 2019 verstorbenen Frank Hartmann (Hartmann 2000). Thomas Zeilinger 302 Impuls 3: Der Medienpraxis steht stets die Medienpathik zur Seite. Widerständigkeit und Leidenschaft, Affekt und Passion gehören stets mit zum medialen Spiel. Das heißt andererseits keineswegs, dass es in der Rede vom Geist um ein passives Bestimmt-Werden geht, sondern – wie Fischer formuliert – um die "Weise eines Sich-bestimmen-Lassens, das beide Momente, Bestimmt-Werden und Sich-Bestimmen in sich vereinigt" (Fischer 1994: 258f.). Impuls 4: Gerade für die Medienethik scheint mir in den Hinweisen von Fischer und Stoellger eine heilsame Erinnerung zu liegen, dass sie sich in ihrer Theorie, wie ihn Ihren Empfehlungen nicht zu schnell an bestimmten ontologischen Zuschreibungen festmacht. Medialität und Digitalität müssen als kommunikatives Geschehen transparent bleiben für die erwähnte Vernetztheit der Dinge. Eine hermeneutisch orientierte und bewusste Medienethik wird sich nicht einfach an einer vermeintlich intrinsischen Logik der technischen Struktur als solcher orientieren, so als wären es die Mediatisierung der Wirklichkeit oder die digitale Technologie als solche, die eine eigene Ontologie implizieren – Vielmehr ist es die jeweilige kommunikative und soziale Verfasstheit, aus der sich die spezifische Logik ergibt. Es geht um die kulturell ausgehandelten Bedeutungen, die wiederum in theologischer Perspektive in der Dimension des Geistes beschrieben werden können.10 Impuls 5: In medienkritischer Hinsicht eröffnet die Rede vom Geist die Nachfrage, in welchem Geist Medien jeweils gebraucht werden. Den Unterschied zwischen einer Medienkritik, die machtbewusst – und machtkritisch mit der Dimension des Geistes rechnet und einer kurzschlüssigen Medien- oder Technikfeindlichkeit, illustriert Soshana Zuboff in ihrem Opus Magnum mit dem Bild des Puppenspielers und der Puppe: „dass wir hinter dem Puppenspieler her sind und nicht hinter der Puppe.“ Nicht Suchmaschinen speichern von sich aus, "es ist der Überwachungskapitalismus, der speichern lässt." (Zuboff 2018: 30) Weil es auf die dahinterstehende Haltung im Sinne des bestimmenden Geistes, mit anderen Worten auf Praxis (und nicht in erster Linie auf Poiesis) ankommt, braucht (auch) die medienethische Reflexion mehr als den modernen Handlungsbegriff und mehr als das Konzept einer "desengagierten Vernunft".11 10 Vgl. das ähnliche Plädoyer von Latham and Sassen bereits 2005 für eine sozialwissenschaftliche Perspektive. 11 Vgl. Knut Lundby: “The media logic will then be de-masked and demystified, as one will observe actors and agents in play with the representations. Power relations behind the 'banal' religious expressions will be visible." (Lundby 2009: 112). Die Medienethik und der Heilige Geist. 303 Impuls 6: Für Horst Gorski ist die Offenheit für den Heiligen Geist die Form der (christlichen) Religion in der digitalisierten Welt. Philipp Stoellger weist andererseits auf die Verbindung zwischen Gotteswerk und Menschenwerk in der Mediendynamik hin: „Das mediale ‚Zwischen‘ (meta/ dia) ist die Dynamis, aus der Innovation hervorgeht […]“ (Stoellger 2019: 161). – Können dann auch Roboter und algorithmische Kommunikation durchaus verheißungsvoll, möglicherweise sogar eschatologisch Neues mit sich bringen? Kann im automatisierten Sortieren, Ordnen, Extrahieren, Arrangieren von Information und Kommunikation (und KI) ebenso ein kreatives Kraftfeld des Geistes emergieren, wie in anderen Beziehungsgeflechten (vgl. Welker 1992)? Jedenfalls erschiene es vorschnell, auszuschließen, dass die technische Organisation von Daten verheißungsvolle neue kommunikative Figurationen mit sich bringen kann.12 Impuls 7: Auch das Eintauchen in virtuelle Realitäten ist kreativ als mediale Figur bzw. Figuration des Geistes zu verstehen. Stoellgers Hinweise zur Pathik der Immersion weisen in eine Richtung, die Jaron Lanier in seinem für das Thema einschlägigen Buch so zusammengefasst hat: „Enjoying technology deeply and fully is the best way to own it; to not be owned by it. Dive in.” (Lanier 2017: 288). Worauf es ankommt, wird sein, das spielerische In- Bann-Gezogen-Sein mit der zweiten Hälfte von Laniers erstem Satz zusammenzubringen: „to not be owned by it.“ Impuls 8: Horst Gorski hat dazu in anthropologischer Perspektive treffend formuliert: „Unter den Bedingungen von Konnektivität und Instantaneität der digitalisierten Welt wird die kognitive Distanz vermutlich zum wichtigsten, wenn nicht sogar zum einzigen Mittel des Widerstands und der Resilienz.“ (Gorski 2018: 200) Theologisch sieht er den Heiligen Geist als die Quelle dieser Widerständigkeit: „Der Heilige Geist offenbart sich in den undurchschaubaren Prozessen des Lebens und stärkt und heilt dieses Leben, indem er zu kognitiver Distanz und zu emotionaler Resilienz befähigt.“ (Gorski 2018: 201).13 12 Vgl. die von Hepp 2016: 229f. unter dem Stichwort „Datafizierung“ angestellten Überlegungen zur Repräsentation sozialen Lebens in computerisierten Daten. – In der Perspektive des Heiligen Geistes wird dabei ein normatives Kriterium sein, dass die Fülle des Lebens von allen geteilt wird. 13 Parallel dazu hat Johanna Haberer darauf hingewiesen, dass die Kategorie des Geheimnisses in der biblischen Perspektive zentral für das Gelingen menschlichen Lebens ist: "Geheimnisse – nicht die dunklen, aber die intimen – gelten nach dem Erfahrungswissen der jüdisch-christlichen Überlieferung als das ganz andere Netzwerk des Vertrauens zwischen Menschen." (Haberer 2015: 179). Thomas Zeilinger 304 Impuls 9: Kopräsenz von kognitiver Distanz und Immersion: Dies scheint ein anspruchsvolles Programm, wenn und sofern Medienpraxis als Werk des Geistes Welterzeugung (und damit Innovation) ist. Frank-Walter Steinmaier hat 2019 auf dem Deutschen Evangelischen Kirchentag in Dortmund wiederholt, was er bereits im Mai auf der RePublica in Berlin gesagt hatte: „Digitalisierung heißt: vernetzt zu sein. Demokratie aber heißt: verbunden zu sein. In der Demokratie sind wir in einem tieferen, einem politischen Sinne aufeinander angewiesen als nur per Like oder Dislike. Diesen Schritt vom Vernetzt- zum Verbundensein, den müssen wir noch gehen.“.14 Was der Bundespräsident nicht gesagt hat: auch die Demokratie wird sich mit der Kultur der Digitalität wandeln und weiterentwickeln müssen. Auch wenn es im Moment global anders aussieht: Wer weiß, vielleicht bewirkt ja eine Union zwischen dem Heiligem Geist und den Creative Commons doch noch einmal mehr, als manche postdemokratische Tendenz des Augenblicks es nahelegt! Impuls 10: Johannes Fischer hat darauf hingewiesen, dass die theologische Rede vom Geist im Horizont allgemeiner Erfahrung am besten in einer Theorie der Kommunikation verständlich zu machen sei. "Die Ebene der Kommunikation liegt allen Handlungen und Handlungsgründen als Bedingung ihrer Möglichkeit voraus und muß von diesen unterschieden werden" (Fischer 1994: 257). Kommen, so betrachtet, die kommunikativen Bedingungen von Handlungen selbst mit in den Blick, bedeutet dies, dass die Dimension geistbestimmter Kommunikation die fundamentale Ebene darstellt. Auch das von Fischer eingeschärfte Bewusstsein für die kommunikative Einbettung (oder Geistbestimmtheit) der jeweiligen Medienpraktiken gilt es kopräsent zu halten mit dem dem christlichen Glauben eigentümlichen Zug nach unten: zur Wahrnehmung der jeweiligen Medienpraxis. Auf Seiten der Forschung findet dies dort seine Entsprechung, wo nicht die kommunikativen Großtheorien im Vordergrund stehen: Sei es im Blick auf „die Religion“ oder sei es im Blick auf „die Medien“. Es gilt, die „small sphericals of action and practice“ auf ihre produktiven und kreativen Potentiale hin zu erkunden, wie Stewart Hoover dies programmatisch formuliert hat (Hoover 2013: 268). In den Third Spaces, den Zwischenräu- 14 Zitiert nach: www.br.de/nachrichten/netzwelt/republica-steinmeier-fordert-demo kratisierung-des-digitalen,RPgRQwL. (Abruf 26.8.2019). Die Medienethik und der Heilige Geist. 305 men, ist die generative Qualität des Digitalen im Blick auf Religion – und vice versa – aufzuspüren, orientiert an einer in digitalen Praktiken erwachsenden Kultur der Digitalität. „Dive in!“ Literatur Baecker, Dirk (2007): Studien zur nächsten Gesellschaft (stw 1856). Frankfurt/M.: Suhrkamp. Boventer, Hermann (1984): Ethik des Journalismus. Zur Philosophie der Medienkultur. Konstanz: UVK. Campbell, Heidi / Garner, Steven (2016): networked theology. negotiating faith in digital culture. Grand Rapids: Baker Academic. Filipović, Alexander (2007): Öffentliche Kommunikation in der Wissensgesellschaft. Sozialethische Analysen. Bielefeld: W. Bertelsmann. Fischer, Johannes (1994): Leben aus dem Geist. Zur Grundlegung Christlicher Ethik. Zürich: TVZ. Fischer, Johannes (2002): Theologische Ethik. Grundwissen und Orientierung (Forum Systematik 11), Stuttgart: Kohlhammer-Verlag. Fischer, Johannes (2010): Sittlichkeit und Rationalität. Zur Kritik der desengagierten Vernunft (Forum Systematik 38), Stuttgart: Kohlhammer-Verlag. Funiok, Rüdiger (2007): Medienethik. Verantwortung in der Mediengesellschaft. (Kon- Texte 8), Stuttgart: Kohlhammer-Verlag. Gorski, Horst (2018): Theologie in der digitalen Welt. Ein Versuch. In: Pastoraltheologie 107, S. 187–211. Gräb, Wilhelm (2002): Sinn fürs Unendliche. Religion in der Mediengesellschaft. Güterlsoh: Chr. Kaiser. Haberer, Johanna / Rosenstock, Roland (2010): Theologische Perspektiven. In: Schicha, Christian / Brosda, Carsten (Hg.): Handbuch Medienethik, Wiesbaden: VS Verlag, S. 107 – 123. Haberer, Johanna (2015): Digitale Theologie. Gott und die Medienrevolution der Gegenwart. München: Kösel-Verlag. Hartmann, Frank (2000): Medienphilosophie. Wien: UTB/WUV. Hepp, Andreas (2016): Kommunikations- und Medienwissenschaft in datengetriebenen Zeiten. Publizistik 61 H.3, S. 225–246. Hörisch, Jochen (2004): Eine Geschichte der Medien. Vom Urknall zum Internet. Frankfurt/M.: Suhrkamp. Hoover, Stewart (2013): Concluding thoughts. Imagining the religious in and through the digital. In: Campbell, Heidi: Digital religion: Understanding religious practice in new media worlds. New York: Routledge, S. 266–268. Thomas Zeilinger 306 Lanier, Jaron (2017): Dawn of the New Everything. Encounters with Reality and Virtual Reality. New York: Henry Holt & Co. Latham, Robert / Sassen, Saskia (2005): Digital Formations. IT and New Architectures in the Global Realm. Princeton: Princeton University Press. Luhmann, Niklas (1997). Die Gesellschaft der Gesellschaft (stw 1360). Frankfurt/M.: Suhrkamp. Lundby, Knut (2009): Media logic: Looking for social interaction. In: Lundby, Knut (Hg.): Mediatization. Concept, Changes, Consequences. New York: Peter Lang, S. 101 – 119. Pörksen, Bernhard (2019): Eingeborene von Rezonesien. In: Süddeutsche Zeitung Nr. 127 v. 3.6.2019, S. 11. Rosenstock, Roland (2006): Kommunikative Kompetenz in der Mitte des Alltags. Michael Schibilskys Impulse für die evangelische Publizistik. In: Praktische Theologie 41(3), S. 186–194. Stalder, Felix (2016): Kultur der Digitalität, Frankfurt a. M.: Suhrkamp Verlag. Stoellger, Philipp (2019): Die Medialität des Geistes oder: Pneumatologie als Medientheorie des Christentums. In: Springhart, Heike / Thomas, Günter (Hg.). Risiko und Vertrauen. Risk and Trust. FS für Michael Welker zum 70. Geburtstag. Leipzig: EVA, S. 139–174. Ulshöfer, Gotlind (2018): Wahrheit und Wahrhaftigkeit als medienethisches Thema im Zeitalter der Digitalisierung. In: Hermeneutische Blätter Nr. 24/I, S. 169–183. Welker, Michael (1992): Gottes Geist. Theologie des Heiligen Geistes. Neukirchen- Vluyn: Neukirchener Verlag. Wunden, Wolfgang (2001): Netzwerk Medienethik – ein Experiment. In: Drägert, Christian / Schneider, Nikolaus (Hg.): Medienethik. Freiheit und Verantwortung. FS Manfred Kock (Christliche Publizistik 1) Stuttgart: Kreuz-Verlag, S. 319–333. Zeilinger, Thomas (2011): Netz.Macht.Kirche. Möglichkeiten institutioneller Kommunikation des Glaubens im Internet (Studien zur Christlichen Publizistik 20), Erlangen: CPV-Verlag. Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Berlin: Campus Verlag. Die Medienethik und der Heilige Geist. 307 Bewegte Objekte? Erweiterung medienethischer Objektbereiche und Konsequenzen für das Fach der Kommunikations- und Medienethik Larissa Krainer, Matthias Karmasin Abstract: Anhand einer historischen Skizzierung medienethischer Objektbereiche wird davon ausgegangen, dass das Fach der Kommunikations- und Medienethik sowohl die Mikroebene der Individuen als auch die Mesoebene der Organisationen und zudem (allerdings eher partiell) auch die Makroebene der Institutionen bzw. der Gesellschaft in den Blick nimmt und sich insofern die Objektbereiche kontinuierlich erweitert haben. Daran anschließend werden folgende fünf Schlussfolgerungen gezogen: Erstens wird für eine vertiefende interdisziplinäre Theoriebildung plädiert, zweitens dafür, eine adäquate Theorieentwicklung, welche die Mikro-, Meso- und Makroebene gleichermaßen adressiert, voranzutreiben, drittens eine stärkere Verbindung von regulativen Ansätzen aus der Rechtswissenschaft mit medienethischen Fragestellungen zu suchen, viertens kommunikations- und medienethische Fragestellungen empirisch stärker zu fundieren und fünftens nach einer breiteren Institutionalisierung kommunikations- und medienethischer Themen zu streben. Zur kontinuierlichen Erweiterung kommunikations- und medienethischer Objektbereiche Fragt man aus einer historischen Perspektive danach, welche Objektbereiche die Medien- und Kommunikationsethik bislang fokussiert hat, ist zugleich danach zu fragen, welche Subjekte bzw. Kollektive der Verantwortung in den Blick genommen wurden und werden. Zunächst wurde der Fokus primär auf die Rolle der JournalistInnen gelegt. Hier ist etwa an die Arbeiten von Hermann Boventer zu erinnern, der bereits 1984 ein Buch über die „Ethik des Journalismus“ vorgelegt hat (Boventer 1984). Die Profession steht bis heute im Zentrum der Aufmerksamkeit, wie etwa die Beiträge in Band 5 zur Kommunikations- und Medien- 1. 309 ethik aus 2017 mit dem Titel „Gesellschaft ohne Diskurs?“ zeigen (Stapf et al. 2017). In weiterer Folge wurden auch RezipientInnen in den Blick genommen. Hier ist zunächst ein Aufsatz von Clifford Christians zu nennen, der bereits 1988 fragte: „Can the Public be held Accountable? (Christians 1988, deutsche Erstveröffentlichung 1989). Des Weiteren sind die Arbeiten von Rüdiger Funiok (spätestens ab 1996) zu erwähnen. Auch diese Perspektive hat bis heute Relevanz, wie etwa an einem Beitrag von Matthias Rath (2016) ersichtlich wird, der diese Diskurslinie 2016 im Handbuch Medienund Informationsethik um die Perspektive der Nutzungsethik erweitert hat. Primär (wenn auch nicht ausschließlich) ging es zunächst um die Frage, welche Verantwortung Individuen in ihren Rollen als KommunikatorInnen oder eben auch als RezipientInnen oder NutzerInnen, letztlich auch als ProduserInnen übernehmen können oder sollen. Insofern lassen sich viele dieser Arbeiten als individualethische Untersuchungen klassifizieren. In weiterer Folge wurden kontinuierlich mehr Verantwortungsgruppen spezifiziert bzw. ausdifferenziert. Erstens richtete sich der Blick auf MedienunternehmerInnen bzw. MedieneigentümerInnen als RepräsentantInnen der ökonomischen Logik (s. dazu verschiedene Arbeiten von Matthias Karmasin, exemplarisch 1998), zudem wurde „Medienethik als Wirtschaftsethik medialer Kommunikation“ gefasst (Litschka 2013). Zweitens wurden auch jene Menschen in die Betrachtung aufgenommen, die kommunikative Umfelder der Medien gestalten, insbesondere in den Bereichen PR und Werbung (Förg 2004; Rademacher 2010; Bohrmann 2010; Bentele 2016; Köberer 2016). Drittes wurden auch Instanzen der Selbstkontrolle beobachtet, wie dies etwa im Sammelband von Horst Avenarius und Günter Bentele (2009) zu „Selbstkontrolle im Berufsfeld Public Relations“ der Fall ist. Damit wurde der Fokus auf die Individuen (Mikroebene) um die Mesoebene der Organisationen erweitert (Profession, Instanzen der Selbstkontrolle, Redaktionen, Medienunternehmen). Die Idee, neben der sozial- und individualethischen Dimension auch die Mesoebene, hier insbesondere die Medienunternehmung gleichsam als „third way“ in den Blick zu nehmen, hat ebenfalls eine längere Tradition. So trug etwa das erste Treffen des Netzwerkes Medienethik im Jahre 1997 den Titel „Medienethik als Wirtschafts- und Unternehmensethik?”. Der Umstand, dass die Konzentration medialer Märkte sowie Refinanzierungsbedingungen und Tendenzen der Kommerzialisierung die Produktion medialer Inhalte beeinflussen und damit auch zum Gegenstand und zur Herausforderung medienethischer Reflexion werden bzw. werden sollten, Larissa Krainer, Matthias Karmasin 310 stand damals im Mittelpunkt der kontroversen Debatte – und tut es bis heute. Mehrere AutorInnen (u.a. Zerfaß 1999; Karmasin 2000, 2005, 2010; Trommershausen 2011; Litschka 2013; Karmasin/Krainer 2015, 2016) haben darauf reagiert, indem sie das vielen medienethischen Problemen zugrunde liegende (problematische) Verhältnis von ethischer Vernunft und ökonomischer Rationalität oder – ins Kommunikationswissenschaftliche gewendet – das Verhältnis von publizistischer (kommunikativer) und wirtschaftlicher Qualität in den Blick genommen haben. Daraus folgte eine Konzeption von Medienethik als Wirtschaftsethik medial vermittelter Kommunikation (Litschka 2013; Karmasin/Litschka 2014) bzw. etwas weniger weitreichend als Unternehmensethik der Medienunternehmung, wie sie Karmasin (2014) argumentiert hat. Anknüpfungspunkte über die aktuelle CSR-Debatte hinaus (Raupp et al. 2010; Trommershausen 2011; Karmasin et.al. 2014; Diehl et al. 2017; Koinig et al. 2019) wären Stakeholder-Ansätze (Karmasin 2007, 2010), prozessethische Konzepte der Medienethik (Krainer 2001), die Frage nach dem Realisierungspotenzial von (journalistischen) Tugenden (Eberwein et al. 2015), die Gestaltung des Anreizsystems (Medienförderungen, aber auch innerhalb von Medienunternehmen) (Murschetz/Karmasin 2014) und von Selbstregulationsmechanismen im Sinne der Media Accountability (s. etwa Eberwein et al. 2019) bis hin zur Public Value-Debatte (Karmasin 2018), aber auch zur Frage nach der Verantwortung von Maschinen, wie z.B. Algorithmen, die in der öffentlichen Kommunikation eine immer relevantere Rolle spielen (Rath et al. 2019) und deren Einsatz immer öfter auch wirtschaftlich motiviert ist. Es geht in den meisten Ansätzen indes um eine Ergänzung und Erweiterung der medienethischen Debatte, nicht jedoch um die wirtschaftsethische Re-Konzeption der Medienethik. Anders formuliert: Nicht jede medienethische Fragestellung ist auch wirtschaftsethisch relevant. Nicht jede unternehmensethische Problemlage wird auch im Bereich der Medienethik schlagend. Nicht auf jede medienethische Fragestellung gibt es auch eine wirtschaftsethische Antwort. Aber viele aktuelle und praktisch wie theoretisch relevante ethische Debatten über die Herausforderungen des Strukturwandels von Medien, Wirtschaft und Gesellschaft durch Digitalisierung und Mediatisierung können – so das zentrale Argument – durch eine wirtschafts- und unternehmensethische Perspektive gewinnen: In heuristischer Hinsicht ebenso wie in curricularer. Schließlich wird auch gelegentlich die Makroebene der Institutionen (Politik als gesetzgebende Instanz) adressiert, wie dies etwa Axel Heinrich (2013) in seiner Arbeit über „Politische Medienethik“ macht. Erweiterung medienethischer Objektbereiche 311 Damit lassen sich unterschiedliche Entwicklungslinien nachzeichnen, nämlich einerseits von der Individualethik zur Sozialethik und andererseits von der Professionsethik zur Organisations- und Institutionenethik, wobei dies nicht primär als serielle Ablöse zu begreifen ist, sondern als kontinuierliche Perspektivenerweiterung von einem „partiellen zu einem umfassenden Fokus“, wie Larissa Krainer (2015) in einem Beitrag zur „Neuvermessung der Medienethik“ argumentiert. In jüngerer Zeit wurde der Objektbereich der Kommunikations- und Medienethik ferner um insbesondere digitale Technologien erweitert, was sich sowohl an Themenschwerpunkten von Tagungen (wie der DGPuK- Fachgruppe Kommunikations- und Medienethik oder des Interdisciplinary Media Ethics Centre – IMEC) als auch wissenschaftlichen Publikationen zur Maschinenethik (Rath/Krotz/Karmasin 2019) oder Roboterethik (exemplarisch Decker 2016) zeigt. Im empirischen wie theoretischen Diskurs werden solche Fragestellungen inzwischen auch aus verschiedenen wissenschaftlichen Perspektiven bearbeitet und es wird auf unterschiedliche philosophische, rechtliche oder technische Diskurse sowie Theorien und Modelle Bezug genommen. Damit hat sich die Kommunikations- und Medienethik in zunehmendem Ausmaß zu einem interdisziplinären Forschungsgegenstand entwickelt, wiewohl eine umfassendere interdisziplinäre Verständigung nach wie vor wünschenswert erscheint. Fünf Schlussfolgerungen zur weiteren Entwicklung der Medien- und Kommunikationsethik Vertiefende interdisziplinäre Theoriebildung Die kontinuierliche Erweiterung kommunikations- und medienethischer Objektbereiche bringt unweigerlich den Bedarf an kontinuierlicher Theoriearbeit (Anpassung wie Erweiterung) mit sich, und zwar sowohl innerdisziplinär (also insbesondere innerhalb der DGPuK-Fachgruppe) als auch interdisziplinär (also mit KollegInnen aus anderen Disziplinen und Forschungsrichtungen, was bei den Fachtagungen durchaus bereits passiert). Innerdisziplinär könnte das bedeuten, sich tatsächlich einmal eine Tagung zu gönnen, in der primär theoretische Perspektiven diskutiert werden. Der interdisziplinäre Bedarf erscheint uns aus zwei weiteren Gründen angezeigt: Zum einen wurden bereits vielfach Ansätze, die aus unterschiedlichen fachlichen Perspektiven (Philosophie, Soziologie, Wirtschaftswissenschaften etc.) entwickelt wurden, für die Medien- und Kommunikations- 2. 2.1 Larissa Krainer, Matthias Karmasin 312 ethik nutzbar gemacht – selten aber wurde darüber reflektiert, welche Konsequenzen dies für traditionelle medien- und kommunikationswissenschaftliche Theorien und Modelle hat. Zum anderen werden die genannten Objektbereiche der Medienethik in zunehmendem Ausmaß auch in anderen Disziplinen (Philosophie, Soziologie, Rechtswissenschaft etc.) bearbeitet und verhandelt, sodass ein Austausch über die gewonnenen Erkenntnisse wie theoretischen Perspektiven, aus denen die Gegenstände erfasst werden, sinnvoll wie potentiell perspektivenerweiternd erscheint, wozu wir exemplarisch zwei vorhandene Schnittstellen nennen möchten. Die erste Schnittstelle betrifft demokratiepolitische Fragen und damit verbunden Fragen der Gerechtigkeit und der Partizipation, für die einige AutorInnen prozeduralethische Ansätze nutzbar machen, wie etwa die Diskursethik, die Prozessethik oder den Stakeholder-Ansatz. Die Bezugnahme auf die Diskursethik erfolgt derzeit sowohl innerhalb der Kommunikationswissenschaft als auch der Politikwissenschaft mit ähnlichen und doch verschiedenen Blickwinkeln, was exemplarisch für den Diskurs innerhalb des Fachs der Kommunikations- und Medienethik ausgeführt werden soll (s. dazu vertiefend Krainer 2018). Hier wurde die Diskursethik von Jürgen Habermas (1991) bereits 1996 von Edmund Arens wie von Walter Lesch für die Medienethik nutzbar gemacht, wobei beide deren Stellenwert für Gerechtigkeit, Partizipation und Demokratie betonen. 2007 tritt Alexander Filipović für Teilhabemöglichkeit an öffentlichen Diskursen und an der medialen Öffentlichkeit ein und spricht von Beteiligungsgerechtigkeit. 2017 fordern Ingrid Stapf, Marlis Prinzing und Filipović für die Interaktion zwischen JournalistInnen und den aktiv kommunizierenden UserInnen: „Wir benötigen einen Diskurs, einen niveauvollen, also fair und mit Sachargumenten geführten Streit um gemeinsame Belange, Werte und Normen des Zusammenlebens“ (Stapf/ Prinzing/Filipović 2017: 11). Im gleichen Band leitet Prinzing (2017: 36) aus der demokratiepolitischen Funktion des Teilsystems Journalismus einen „Auftrag zum Publikumsdialog“ ab, für den Diskursregeln zu definieren seien. In politikwissenschaftlichen Debatten werden Fragen von Partizipation und Beteiligung aktuell in Konzepten deliberativer Demokratie behandelt (exemplarisch Friess/Eilders 2015), die vielfach auf „online deliberation“ bauen. Verfolgt wird grosso modo die Frage, wie Qualität öffentlicher Beratung unter Beteiligung möglichst vieler gesichert werden kann. Eine beachtliche Vielzahl empirischer Studien aus dem Fach zeigt, dass politische partizipative Diskurse im Internet durchaus möglich sind und auch erfolgversprechend sein können, sofern sie die Funktionsweise der unterschiedlichen Plattformen berücksichtigen und Moderation im Sinne der Prozess- Erweiterung medienethischer Objektbereiche 313 gestaltung einrichten, um eine höhere Qualität der Debatten zu sichern (für einen Überblick zu den Studien s. Esau/Friess/Eilders 2017). Die nähere Auseinandersetzung mit den Publikationen lässt allerdings zwei gravierende Unterschiede vermuten, die mit den KollegInnen zu diskutieren wären. Erstens: Während medien- und kommunikationsethische Untersuchungen eher die Mesoebene der Medienorganisationen betrachten, fokussieren politikwissenschaftliche Modelle eher die Makroebene der Politik bzw. der gesamten Gesellschaft. Zu klären wäre, was die unterschiedlichen Blickwinkel bedeuten, zu welchen ähnlichen oder divergenten Ergebnissen man gelangt und welche theoretischen wie empirischen (z. B. methodologischen) Konsequenzen sich daraus ergeben. Zweitens wäre zu diskutieren, ob es nicht eine erhebliche Differenz ausmacht, ob in partizipativen Prozessen von mitwirken oder mitentscheiden die Rede ist. Während Mitwirkung bereits durch ein digitales Voting nach dem Modell „bin dafür, bin dagegen, weiß nicht“ gegeben sein könnte, dessen Ergebnis für andere (z. B. repräsentativ gewählte) EntscheidungsträgerInnen relevant oder bindend (oder auch beides nicht) sein kann, würde Mitentscheiden eher meinen, dass tatsächlich alle Personen die Möglichkeit erhalten, am Entscheidungstisch Platz zu nehmen (was allerdings angesichts großer Gruppen bald an Grenzen der Organisationsmöglichkeit stößt) (s. vertiefend Krainer 2018). Eine andere interdisziplinäre Schnittstelle wird sichtbar, wenn man über verschiedene Modelle der Verteilung von Verantwortung in komplexen Zusammenhängen nachdenkt. Hier könnten gemeinsame Auseinandersetzungen von Technikethik und ökonomischen wie publizistischen Blickwinkeln von Interesse sein, die mit dem Modell der gestuften Verantwortung arbeiten. Im Bereich der Technikethik hat Hans Lenk 1987 gefragt, wie „die Entwicklung einer sozial anteilig mitzutragenden Verantwortung“ (Lenk 1987: 135) gelingen kann, wofür in weiterer Folge etwa Begriffe wie „partizipative Technikgestaltung“ (Rohracher/Ornetzeder 2003) oder „partizipative Technikbewertung“ (Kiepas 2006: 199) gewählt wurden. Damit wird explizit auf Partizipation in ethischen Entscheidungsfindungsprozessen bzw. auf Kooperation in der Übernahme von Verantwortung abgestellt. Aus einer medienökonomischen Perspektive werden Medien als korporative Akteure begriffen. Auf Basis der Erkenntnis, dass nicht „jeder prinzipiell für alles verantwortlich“ sein kann oder „dass bestimmte Gruppen oder Funktionsträger für bestimmte Vorgänge in der Gesellschaft allein verantwortlich gemacht werden können“, schlägt Karmasin (2014) ebenfalls ein Modell der „gestuften Verantwortung“ vor. Gemeint ist damit zweierlei: Zum einen, dass sich aus bestimmten Funktionen, die Menschen in Medienorganisationen übernehmen, jeweils be- Larissa Krainer, Matthias Karmasin 314 stimmte Anforderungen an die Wahrnehmung von Verantwortung ergeben. Zum anderen wird davon ausgegangen, dass mehr Macht auch mehr Verantwortung bedingt bzw. bedingen kann (Karmasin 2010: 219). In der aktuellen medienethischen Debatte wird dieses Modell der gestuften Verantwortung auch für die journalistische Ethik verwendet (z. B. von Rother 2015). Bezugnahmen auf die Technikethik erfolgen naheliegend ferner im Bereich der Informationsethik (Heesen 2016) oder der Maschinenethik (Rath/Krotz/Karmasin 2019). Adäquate Theorieentwicklung für die Mikro-, die Meso- und die Makroebene Die zweite Schlussfolgerung adressiert den bereits erwähnten innerdisziplinären Diskurs. Wir schlagen vor, nach theoretischen wie empirischen Konzepten zu suchen, die in der Lage sind, die Mikro-, Meso- und Makroebene jeweils adäquat sowie gemeinsam zu adressieren. Damit verbunden ist auch das Anliegen, bestehende Ansätze der Medienethik stärker miteinander zu verbinden, also zum Beispiel individualethische, sozialethische und organisationsethische Konzeptionen zusammenzubringen. Das könnte auch darin unterstützen, den Pfad der gegenseitigen Kritik zu verlassen und stärker kooperativ zu arbeiten. Zweifelsohne hat Michael Haller zu Recht mehrfach vor einer drohenden Verschiebung der ethischen Verantwortung vom Individuum auf die Ebene der Organisation (Redaktion, Medienunternehmen) gewarnt und 1996 seiner Sorge darüber Ausdruck verliehen, dass es zu einem „allmählichen Verschwinden des journalistischen Subjekts“ kommen könnte (Haller 1996: 37). Wir möchten vorschlagen, stets im Auge zu behalten, dass eine (verantwortungsethische) „Haltung, die sich an der Folgenhaftigkeit des Tuns“ orientiert, wie Haller (2017: 17) formuliert, ebenso unverzichtbar ist, wie man zugleich weiterhin auch eine kollektive Wahrnehmung von Verantwortung einfordern wird müssen, wo individuelle Entscheidungsbezirke nicht ausreichen, um ethische Verantwortung zu garantieren, wie dies etwa auch Bernhard Debatin (2016) vorschlägt. Unser Plädoyer ist allerdings, dabei den soziologisch geprägten Terminus der Gesellschaft der Organisationen nicht außer Acht zu lassen und die Relevanz von Organisationen (insbesondere aber Unternehmen) für Mediatisierung und digitale Innovationen genauer im Blick zu behalten. 2.2 Erweiterung medienethischer Objektbereiche 315 Verbindung von regulativen Ansätzen aus der Rechtswissenschaft mit medienethischen Fragestellungen Die dritte Schlussfolgerung lautet, dass es einen Bedarf an der Verbindung von regulativen Ansätzen aus der Rechtswissenschaft in Bezug auf Governance-Strukturen mit medienethischen Fragestellungen im Bereich von Media Accountability-Systemen gibt (Eberwein et al. 2018a, 2018b, 2019). Im Bereich der Rechtssetzung sind – zumindest in den meisten Demokratien – direkte Eingriffe in Medien unzulässig (es gelten ein Zensurverbot und das Grundrecht der Meinungsfreiheit). Es besteht aber ebenso ein Konsens darüber, dass die Qualität der Öffentlichkeit und die Qualität der Demokratie in engem Zusammenhang stehen und dass deswegen die Sicherung derselben eine wesentliche ordnungspolitische Aufgabe ist. Die theoretische Antwort darauf ist eine Regulierung, die sicherstellt, dass alle Medien bestimmte Mindeststandards erfüllen, ohne inhaltlich einzugreifen oder diese gar ex lege festzulegen. Der Bereich der regulierten Selbstregulierung oder Co-Regulierung stellt eine Nahtstelle zwischen rechtlichen und ethischen Argumenten dar, wo bewusst rechtliche Freiräume im Sinne der Medienverantwortung gefördert und gefordert werden. Im Bereich der Rechtsdurchsetzung wird allerdings zunehmend deutlich, dass Versuche, global agierende Unternehmen (die sich nationalen Rechtssetzungen entziehen, wie etwa die Big Five und die von ihnen in Verkehr gesetzten Algorithmen) darauf zu verpflichten, sich an bestimmte Rechtsnormen zu halten, an Grenzen stoßen. Das deutsche Netzwerkdurchsetzungsgesetz vom 1. 9. 2017 drückt diese Problematik bereits in seiner Namensgebung aus. Hier könnten interdisziplinäre Modelle gestufter Verantwortung, Anreizsysteme und innovative Formen der Regulierung (wie etwa algorithmische Regulierung) und Accountability-Modelle theoretisch und praktisch wirksam werden. Oder anders formuliert: Analog zur Argumentation aus dem CSR-Bereich geht es auch hier um freiwillige Selbstbindung aus Vernunft (Compliance) und um das Einfordern ethischer Einsicht, die Macht im Sinne von Modellen gestufter Verantwortung auch an Verantwortung bindet. Stärkere empirische Fundierung kommunikations- und medienethischer Fragestellungen Vierte Schlussfolgerung: Wir orten einen Bedarf an der empirischen Fundierung medienethischer Fragestellungen und an komparativer Forschung 2.3 2.4 Larissa Krainer, Matthias Karmasin 316 in allen genannten Bereichen, v.a. auch in Hinblick auf das Spannungsfeld von kulturellem und medienspezifischem Relativismus und (begründungstheoretischem) Universalismus vor dem Hintergrund von Digitalisierung, Mediatisierung und Globalisierung. Der Wandel der Objektbereiche und das Verständnis von Medienethik als „Ethik der mediatisierten Welt“ (Rath 2014) verlangt auch nach einer Ausweitung der empirischen Fundierung der Medienethik. Es geht nicht mehr länger ausschließlich um die Einstellungen von JournalistInnen und PR-ManagerInnen, nicht mehr nur um die Verantwortung des Publikums. In den Blick zu nehmen sind auch die Verantwortung der ProduserInnen, der ProgrammiererInnen sowie der ProfiteurInnen und VerliererInnen der Mediatisierung. Das bedeutet, dass neue ethische Problemlagen und Dilemmata empirisch zu rekonstruieren sind, allerdings auch nicht nur und nicht exklusiv. Denn: Empirie ist heuristisch wertvoll – aber in medienethischen Kontexten der Beginn, und nicht das Ende der Debatte. Weitere und breitere Institutionalisierung kommunikations- und medienethischer Themen Fünfte und letzte Schlussfolgerung: Wir sehen einen zunehmenden Bedarf, über breitere Formen der Institutionalisierung kommunikations- und medienethischer Themen und Fragestellungen nachzudenken. Dabei denken wir zunächst und naheliegend an den Bildungssektor und hier im Speziellen an die Hochschulen. Aus unserer Perspektive wäre auf curricularer Ebene nicht nur in Studienprogrammen, die den Medien- und Kommunikationswissenschaften zuzurechnen sind, sondern darüber hinaus in allen Studiengängen eine Thematisierung medien- und kommunikationsethischer Fragestellungen sinnvoll und wichtig, zumal in Zeiten der Produsage eine reflexive Medienkompetenz aller dringend geboten ist. Allerdings zeigt bereits eine Analyse von Studiengängen in der D/A/CH- Region, die den Medien- und Kommunikationswissenschaften zuzuordnen sind bzw. Medien als expliziten Gegenstand ausweisen, dass bei Weitem nicht alle davon medienethische Inhalte auf der Ebene der Curricula vorsehen. Für den Zeitraum 10/2018-04/2020 stellte sich das wie folgt dar: In Deutschland waren es 63 von 141 Studiengängen (44,6 Prozent), in Österreich waren es acht von 13 Studiengängen (61,5 Prozent) und in der Schweiz waren es zwei von 9 Studiengängen (22,2 Prozent) (Krainer et al. 2020). Zu wenig, wie wir meinen. 2.5 Erweiterung medienethischer Objektbereiche 317 Resümee Im Sinne einer Ethik der mediatisierten sozialen Welten geht es um Ethik als Querschnittsmaterie. Natürlich geht es auch weiterhin darum, in institutionalisierten Gremien der Selbstkontrolle wie des Jugendschutzes mitzuwirken und auch darum, medienethisch kompetente KollegInnen in Gremien der politischen Mediensteuerung zu etablieren bzw. dort Sitze einzufordern. Ferner muss es auch weiterhin darum gehen, den Austausch mit ProfessionistInnen, insbesondere aus dem Berufsfeld Journalismus zu suchen, nicht zuletzt um den immer häufiger kritisierten Berufsstand – Stichwort „Lügenpresse“ – deutlich zu stärken und wissenschaftlich fundiert zu unterstützen. Und damit verbunden meinen wir schließlich, dass wir auch nicht müde werden dürfen, uns öffentlich zu Wort zu melden, wenn von politischer wie öffentlicher Seite Grundprinzipien der Demokratie in Frage gestellt, Medien und Journalismus diskreditiert oder Tendenzen sichtbar werden, die gefährlich sind – für Demokratie wie Gesellschaft. Vermutlich ist das sogar der zentrale Kern der Medien- und Kommunikationsethik der Gegenwart. Literatur Arens, Edmund (1996): Die Bedeutung der Diskursethik für die Kommunikations- und Medienethik. In: Funiok, Rüdiger (Hg.): Grundfragen der Kommunikationsethik. Konstanz: UVK Medien/Ölschläger, S. 73–96. Avenarius, Horst / Bentele, Günter (Hg.) (2009): Selbstkontrolle im Berufsfeld Public Relations. Reflexion und Dokumentation. Wiesbaden: VS Verlag. Bentele, Günther (2016): Ethik der Public Relations. In: Heesen, Jessica (Hg.): Handbuch Medien- und Informationsethik. Stuttgart: Metzler, S. 313–319. Bohrmann, Thomas (2010): Werbung. In: Schicha, Christian / Brosda, Carsten (Hg.): Handbuch Medienethik. Wiesbaden: VS-Verlag, S. 293–303. Boventer, Hermann (1984): Ethik des Journalismus: zur Philosophie der Medienkultur. Konstanz: Universitäts-Verlag. Christians, Clifford G. (1988): Can the public be held accountable? In: Journal of Mass Media Ethics 3 (1), S. 50–58. Debatin, Bernhard (2016): Verantwortung. In: Communicatio Socialis 2016/1, S. 68– 73. Decker, Michael (2016): Roboterethik. In: Heesen, Jessica (Hg.): Handbuch Medienund Informationsethik. Stuttgart: J. B. Metzler, S. 351–357. Diehl, Sandra / Karmasin, Matthias / Mueller, Barbara / Terlutter, Ralf / Weder, Franzisca (Hg.) (2017): Handbook of integrated CSR Communication. Heidelberg / New York / Dordrecht / London: Springer. 3. Larissa Krainer, Matthias Karmasin 318 Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias (Hg.) (2019): Media accountability in the era of post-truth politics: European challenges and perspectives. London / New York: Routlegde. Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias (2018): Putting media accountability on the map. In: Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias (Hg.): The European Handbook of Media Accountability. London / New York: Routledge, S. 1–7. (Im Text zitiert als Eberwein et al. 2018a) Eberwein, Tobias / Fengler, Susanne / Kaufmann, Katja / Brinkman, Janis / Karmasin, Matthias (2018): Measuring media accountability in Europe – and beyond. In: Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias (Hg.): The European Handbook of Media Accountability. London / New York: Routledge, S. 285–337. (Im Text zitiert als Eberwein et al. 2018b) Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias / Porlezza, Colin / Ruß- Mohl, Stephan (2015): Eine Frage des Gewissens? Zur Wirksamkeit journalistischer Selbstregulierung unter den Bedingungen des Medienwandels. In: Prinzing, Marlies / Rath, Matthias / Schicha, Christian / Stapf, Ingrid (Hg.): Neuvermessung der Medienethik. Weinheim / Basel: Juventa, S. 223–243. Esau, Katharina / Friess, Dennis / Eilders, Christiane (2017): Design Matters! An Empirical Analysis of Online Deliberation on Different News Platforms. In: Policy and Internet 9 (3), S. 321–342. Filipović, Alexander (2007): Neue Medienkompetenz und Beteiligungsgerechtigkeit. In: Communicatio Socialis 40 (3), S. 233–245. Förg, Birgit (2004): Moral und Ethik der PR. Wiesbaden: VS Verlag. Friess, Dennis / Eilders, Christiane (2015): A systematic Review of Online Deliberation Research. In: Policy and Internet 7 (3), S. 319–339. Funiok, Rüdiger (1996): Grundfragen einer Publikumsethik. In: Funiok, Rüdiger (Hg.): Grundfragen der Kommunikationsethik. Konstanz: UVK Medien / Ölschläger, S. 107–122. Funiok, Rüdiger (Hg.) (1996): Grundfragen der Kommunikationsethik. Konstanz: UVK Medien / Ölschläger. Habermas, Jürgen (1991): Erläuterungen zur Diskursethik. Frankfurt am Main: Suhrkamp. Haller, Michael (1996): Das allmähliche Verschwinden des journalistischen Subjekts. In: Wunden, Wolfgang (Hg.): Wahrheit als Medienqualität. Frankfurt am Main: Gemeinschaftswerk der Evangelischen Publizistik, S. 37–46. Haller, Michael (2017): Die digitalen Medien: Rückkehr zur Individualmoral? In: Stapf, Ingrid / Prinzing, Marlis / Filipović, Alexander (Hg.): Gesellschaft ohne Diskurs? Baden-Baden: Nomos, S. 17–33. Heesen, Jessica (Hg.) (2016): Handbuch Medien- und Informationsethik. Stuttgart: Metzler. Heinrich, Axel (2013): Politische Medienethik. Zur friedensethischen Relevanz von Medienhandeln. Paderborn: Schöningh. Erweiterung medienethischer Objektbereiche 319 Karmasin, Matthias (1998): Medienökonomie als Theorie (massen-)medialer Kommunikation. Kommunikationsökonomie und Stakeholder Theorie. Graz: Nausner & Nausner. Karmasin, Matthias (2000): Medienethik im Kontext von Ökonomisierung und Globalisierung. In: Schicha, Christian / Brosda, Carsten (Hg.): Medienethik zwischen Theorie und Praxis. Münster, S. 195–208. Karmasin, Matthias (2005): Medienethik in der Wissens- und Informationsgesellschaft: Unternehmensethik und Stakeholder. In: Kübler, Hans-Dieter / Elling, Elmar (Hg.): Wissensgesellschaft. Neue Medien und ihre Konsequenzen. Bonn: CD der Bundeszentrale für politische Bildung (bpb). Karmasin, Matthias (2007): Stakeholder Management als Grundlage der Unternehmenskommunikation. In: Piwinger, Manfred / Zerfaß, Ansgar (Hg.): Handbuch Unternehmenskommunikation. Wiesbaden, S. 71–89. Karmasin, Matthias (2010): Medienunternehmung. (Zur Konzeption von Medienethik als Unternehmensethik). In: Schicha, Christian / Brosda, Carsten (Hg.): Handbuch der Medienethik. Wiesbaden: VS-Verlag, S. 217–231. Karmasin, Matthias (2014): Medienethik: Wirtschaftsethik medialer Kommunikation? Eine Ergänzung der sozial- und individualethischen Tradition der medienethischen Debatte. In: Communicatio Socialis, 3–4/2013, S. 333–348. Karmasin, Matthias (2018): Public Value als Wertschöpfungsbegriff? (Überarbeiteter Nachdruck): In: Mitschka, Konrad / Unterberger, Klaus (Hg.): Public Open Space. Zur Zukunft öffentlich-rechtlicher Medien, Wien: facultas, S. 247–251. Karmasin, Matthias / Weder, Franzisca (2008): Organisationskommunikation und CSR: Neue Herausforderungen für Kommunikationsmanagement und PR. Wien- London-Zürich: LIT Verlag. Karmasin, Matthias / Krainer, Larissa (2016): Medienethik in einer ökonomisierten Welt. In: Maring, Matthias (Hg.): Zur Zukunft der Bereichsethiken – Herausforderungen durch die Ökonomisierung der Welt. Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie, Bd. 8, Karlsruhe, S. 223–239. Karmasin, Matthias / Krainer, Larissa (2015): Ökonomisierung als medienethische Herausforderung. Potenziale der prozessethischen Entscheidungsfindung im Stakeholderdialog. In: Grimm, Petra / Zöllner, Oliver (Hg.): Ökonomisierung der Wertsysteme. Der Geist der Effizienz im mediatisierten Alltag. Stuttgart: Franz Steiner, S. 19–35. Karmasin, Matthias / Kraus, Daniela / Kaltenbrunner, Andy / Bichler, Klaus (2014): Media Ethics as Institutional Ethics – The Potential of Corporate Social Responsibility. In: Eberwein, Tobias / Fengler, Susanne (Hg.): Media Accountability. Köln: von Halem, S. 227–245. Karmasin, Matthias / Litschka, Michael (2014): Medienethik als Wirtschaftsethik medialer Kommunikation? Möglichkeiten und Grenzen der Integration zweier aktueller Bereichsethiken. In: Maring, Matthias (Hg.): Bereichsethiken im interdisziplinären Dialog, Schriftenreihe des Zentrums für Technik- und Wirtschaftsethik am Karlsruher Institut für Technologie, Band 6, Karlsruhe: KIT, S. 367–383. Larissa Krainer, Matthias Karmasin 320 Kiepas, Andrzeij (2006): Ethik, partizipative Technikbewertung in der Zivilgesellschaft. In: Fischer, Michael / Badura, Heinrich (Hg.): Politische Ethik II. Bildung und Zivilisation. Bern: Peter Lang, S. 199–207. Koinig, Isabell / Weder, Franzisca / Diehl, Sandra / Karmasin, Matthias (2019): Media Accountability with a special focus on CSR and the Media Industry: A Topic of Relevance? In: Eberwein, Tobias / Fengler, Susanne / Karmasin, Matthias (Hg.): Media accountability in the era of post-truth politics: European challenges and perspectives: London / New York: Routlegde, S. 162 – 179. Köberer Nina (2016): Werbeethik. In: Heesen, Jessica (Hg.): Handbuch Medien- und Informationsethik. Stuttgart: Metzler, S. 319–325. Krainer, Larissa (2001): Medien und Ethik. Zur Organisation medienethischer Entscheidungsprozesse. München: Kopäd. Krainer, Larissa (2015): Medienethik als Aufgabe inter- und transdisziplinärer Reflexionsleistung. Ein Beitrag zur deutschsprachigen Fachgeschichte und Fachzukunft. In: Stapf, Ingrid / Prinzing, Marlies / Rath, Matthias / Schicha, Christian (Hg.): Neuvermessung der Medienethik. Bilanz, Themen und Herausforderungen seit 2000. Weinheim / Basel: Beltz Juventa, S. 35–55. Krainer, Larissa (2018): Kollektive Autonomie als kommunikations- und medienethische Selbstbestimmung. In: Medien- und Kommunikationswissenschaft 4, S. 485–501. Krainer, Larissa / Karmasin, Matthias / Behrens, Susanne (2020): Studieren Sie (keine) Ethik? Kommunikations- und Medienethik an deutschsprachigen Hochschulen. In: Communicatio Socialis 2020/2, S. 237–249. Lenk, Hans (1987): Über Verantwortungsbegriffe und das Verantwortungsproblem in der Technik. In: Lenk, Hans / Rapohl, Günther (Hg.): Technik und Ethik. Stuttgart: Reclam, S. 112–148. Lesch, Walter (1996): Diskursethik als Basistheorie der Medienkommunikation? In: Funiok, Rüdiger (Hg.): Grundfragen der Kommunikationsethik. Konstanz: UVK Medien / Ölschläger, S. 97–105. Litschka, Michael (2013): Medienethik als Wirtschaftsethik medialer Kommunikation. Zur ethischen Rekonstruktion der Medienökonomie. München: kopaed. Murschetz, Paul / Karmasin, Matthias (2014): Austria: Press Subsidies in Search of a New Design. In: Murschetz, Paul (Hg.): State Aid for Newspapers. Theories. Cases. Action. Press Subsidies in Europe and beyond. Heidelberg / New York / Dordrecht / London: Springer, S. 133–149. Prinzing, Marlis (2017): Digitaler Stammtisch versus Diskursethik? In: Stapf, Ingrid / Prinzing, Marlis / Filipović, Alexander (Hg.): Gesellschaft ohne Diskurs? Baden- Baden: Nomos, S. 35–52. Rademacher, Lars (2010): Public Relations. In: Schicha, Christian / Brosda, Carsten (Hg.): Handbuch Medienethik. Wiesbaden: VS-Verlag, S. 278–292. Rath, Matthias (2014): Ethik der mediatisierten Welt. Wiesbaden: Springer VS. Rath, Matthias (2016): Publikums- und Nutzungsethik. In: Heesen, Jessica (Hg.) (2016): Handbuch Medien- und Informationsethik. Stuttgart: Metzler, S. 298– 305. Erweiterung medienethischer Objektbereiche 321 Rath, Matthias / Karmasin, Matthias / Krotz, Friedrich (2019): Brauchen Maschinen Ethik? Begründungstheoretische und praktische Herausforderungen. In: Rath, Matthias / Krotz, Friedrich / Karmasin, Matthias (Hg.): Maschinenethik. Normative Grenzen autonomer Systeme. Heidelberg / New York / Dordrecht / London: Springer, S. 1–13. Raupp, Juliana / Jaromilek, Stefan / Schultz, Friederike (2010) (Hg.): Handbuch CSR. Wiesbaden: VS- Verlag für Sozialwissenschaften. Rohracher, Harald / Ornetzeder, Michael (2003): Partizipative Technikgestaltung und Nachhaltige Entwicklung. Graz: IFZ. Rother, Natascha (2015): Journalistische Ethik und Verantwortungszuschreibung im Falle medialer Skandalisierung. In: Stapf, Ingrid / Prinzing, Marlies / Rath, Matthias / Schicha, Christian (Hg.): Neuvermessung der Medienethik. Bilanz, Themen und Herausforderungen seit 2000. Weinheim / Basel: Beltz Juventa, S. 191– 205. Stapf, Ingrid (2018): Wenn Roboter im Kinderzimmer mitreden und Mobiltelefone als Körperteile erlebt werden: Überlegungen zu einer Kinder-Medien-Ethik in der mediatisierten Gesellschaft. In: Rosenstock, Roland / Sura, Ines (Hg.): Mediatisierung und religiöse Kommunikation. Herausforderungen für Theologie und Kirche; Freiburg: Kreuz, S. 281–316. Stapf, Ingrid / Prinzing, Marlis / Filipović, Alexander (2017): Einleitung: Der Journalismus und die Qualität des gesellschaftlichen Diskurses. In: Stapf, Ingrid / Prinzing, Marlis / Filipović, Alexander (Hg.): Gesellschaft ohne Diskurs? Baden-Baden: Nomos, S. 11–14. Stapf, Ingrid / Prinzing, Marlis / Filipović, Alexander (Hg.) (2017): Gesellschaft ohne Diskurs? Baden-Baden: Nomos. Trommershausen, Anke (2011): Corporate Responsibility in Medienunternehmen. Köln: von Halem. Zerfaß, Ansgar (1999): Soziale Verantwortung in der Mediengesellschaft. Handlungsspielräume und politische Ansätze einer ethisch aufgeklärten Unternehmensführung. In: Funiok, Rüdiger / Schmälzle, Udo / Werth, Christoph (Hg.): Medienethik – die Frage der Verantwortung. Bonn: Bundeszentrale für politische Bildung, S. 163–182. Larissa Krainer, Matthias Karmasin 322 Labor der Digitalisierungsforschung: Der Forschungsinkubator am Center for Advanced Internet Studies Christoph Bieber, Josephine B. Schmitt1 Abstract „Kommunikations- und Medienethik reloaded“ – das umfasst nicht nur Aufträge, die aus dem Fach heraus an andere gerichtet sind, sondern auch an das Fach selbst. Digitale Medienethik ist in mehreren Dimensionen zu entwickeln. Zum einen muss ein Dialog zwischen den Disziplinen über zentrale Werte, Positionen und Verfahren geführt werden, zum anderen sind Moralkonflikte immer auch gesellschaftlich auszuhandeln. Die Aufgabe der Wissenschaft ist es, diese Debatten in und mit der Öffentlichkeit zu führen, aber auch Strukturen zu schaffen, die einen gelungenen Transfer wissenschaftlicher Ergebnisse in die Gesellschaft bewerkstelligen können. Die angewandte Digitalisierungsforschung kann eine solche Schnittstelle hin zur Politik sein: Das Feld gilt längst als interdisziplinäres Anliegen, Künstliche Intelligenz und eine zugehörige „Ethik der KI“ sind nicht nur Themen für die Informatik, sondern auch für Geistes- und Sozialwissenschaften relevant. Es braucht also neue Ideen und Formate, um den Herausforderungen eines beschleunigten digitalen Wandels produktiv begegnen und neue Lösungen entwickeln zu können. Der Forschungsinkubator am Center for Advanced Internet Studies (CAIS) in Bochum soll gesellschaftliche Herausforderungen und Gestaltungswünsche im Kontext der digitalen Transformationen frühzeitig erkennen und analysieren sowie die Resultate nationaler und internationaler Forschung auswerten. Hierzu führt die innovative Organisationseinheit Maßnahmen durch, um relevante Un- 1 Die Verfasser*innen arbeiten am Center for Advanced Internet Studies (CAIS) in Bochum, dort entwickeln und gestalten sie das Programm des Forschungsinkubators. Einige Passagen des Textes sind als interne Arbeitspapiere am CAIS entstanden und auszugsweise auf der Website unter CAIS.nrw veröffentlicht. Bieber leitet zudem ein Forschungsprojekt zur „KI-Governance“, das bestehende Initiativen und Projekte wie KI-Förderprogramme, Ethik-Kommissionen oder Beiräte in den Blick nimmt. Ein systematischer Überblick zur politischen Verarbeitung des KI- Booms in Form neuer Gesetze, Akteure oder Regulierungsprogramme soll dazu beitragen, eine künftige KI-Governance durch staatliche Stellen effizient und wirkungsvoll gestalten zu können. https://www.cais.nrw/ki-gov/. 323 tersuchungsgegenstände und Fragestellungen für die kontinuierliche Weiterentwicklung und Aktualisierung der Forschungsagenda zu identifizieren und um die gesellschaftliche und wissenschaftliche Relevanz künftiger Forschungsprogramme sicherzustellen. In der Pilotphase (2020–21) verbindet der Inkubator disziplinär verschiedene Projekte und experimentiert mit Methoden agilen Arbeitens im Wissenschaftskontext. Was ist (und was macht) der Forschungsinkubator? Der Forschungsinkubator folgt der Idee einer agilen Wissenschaft, die schnell auf die Komplexität und Dynamik einer digitalisierten Welt reagiert. Das Ziel ist es, in einem innovativen Rahmen für Wissenschaft und Forschung bereichsübergreifende Vernetzung, interdisziplinäre Zusammenarbeit und die gemeinsame systematische Identifikation relevanter Forschungsthemen zu fördern. Der Inkubator ist in das zur Gründung vorgesehene NRW-Institut für Digitalisierungsforschung eingebettet. Zusätzlich sind unter dem Dach des Forschungsinkubators fünf Pilotprojekte zusammengefasst, die im Rahmen von Forschungspartnerschaften mit externen Einrichtungen durchgeführt werden.2 Seit dem Start im Januar 2020 finden wöchentlich gemeinsame Workshops mit den Forschenden aus den Projekten statt. Bis zur pandemiebedingten, vorübergehenden Schließung der CAIS-Räumlichkeiten im März wurden dabei Themen aus dem unmittelbaren Arbeitskontext der Projekte ebenso wie übergreifende Fragestellungen diskutiert, um u.a. mit Hilfe agiler Methoden den Austausch zwischen den disziplinär sehr unterschiedlich aufgestellten Teams zu verbessern. Zum Einsatz kommen dabei Arbeitsformen aus dem Bereich des Design Thinking, die methodisch vor allem auf Aktivierung, Feedback, Kreativität und Reflexion ausgelegt sind (vgl. Abschnitt 4). Unter den veränderten Bedingungen der Corona-Krise bearbeiten die Teams im Wochenrhythmus verschiedene Themen, die den Schwerpunkt virtueller Meetings bilden. statt. Um perspektivisch vor Ort agile Arbeitstechniken einsetzen zu können, werden zwei Großraumbüros/ Konferenzräume des CAIS in „Kreativbereiche“ umgewandelt, die von den Inkubator-Mitgliedern flexibel genutzt werden können. 1. 2 Heinrich-Heine-Universität Düsseldorf; Universität Duisburg-Essen; Dt. Universität für Verwaltungswissenschaften, Speyer; GESIS, Köln; RWI, Essen. Ein weiteres Projekt zur Wissenschaftskommunikation wird unmittelbar am CAIS verantwortet, vgl. https://www.cais.nrw/forschung/cais-forschungsprojekte/ Christoph Bieber, Josephine B. Schmitt 324 Woher stammen Idee und Konzept für den Forschungsinkubator? Wie ist der Forschungsinkubator (wissenschafts-)politisch eingeordnet? Die Idee zur Einrichtung eines Forschungsinkubators hat ihren Ursprung im Konzept für ein NRW-Institut für Digitalisierungsforschung, das Teil der Digitalstrategie NRW ist. Im Nachgang zur Entscheidung, das „Deutsche Internet Institut“ aus Bundesmitteln am Standort Berlin zu errichten (2017 als Weizenbaum-Institut gegründet), hat das in Bochum ansässige Center for Advanced Internet Studies (CAIS) ein Konzept für eine eigenständige Forschungseinrichtung in NRW entwickelt. In einem mehrstufigen, durch das Ministerium für Kultur und Wissenschaft NRW begleiteten Prozess wurde der Entwurf durch eine international besetzte Kommission positiv evaluiert. Bei der Evaluation wurde der Ansatz einer flexiblen und effizienten Ressourcensteuerung begrüßt, woraufhin das Modell des Forschungsinkubators konkretisiert und weiterentwickelt wurde. Im Frühjahr 2020 wurden erste Ergebnisse dieser strategischen Entwicklungsarbeit in Düsseldorf vorgestellt (vgl. https://www.cais.nrw/meldungen/zukunft-digitalisierungsfors chung/). Der Forschungsinkubator soll dabei gesellschaftliche Herausforderungen und Gestaltungswünsche im Kontext der digitalen Transformationen frühzeitig erkennen und analysieren sowie die Resultate nationaler und internationaler Forschung auswerten. Hierzu führt der Inkubator verschiedene Maßnahmen durch, um relevante Untersuchungsgegenstände und Fragestellungen für die kontinuierliche Weiterentwicklung und Aktualisierung der Forschungsagenda zu identifizieren. Die Ergebnisse dieser Arbeit sollen die gesellschaftliche und wissenschaftliche Relevanz künftiger Forschungsprogramme sicherstellen. Wie sieht das konkrete Arbeitsprogramm des Forschungsinkubators aus? Die unterschiedlichen Aufgaben des Forschungsinkubators wurden im Rahmen eines mehrteiligen Arbeitsprozesses aufgegliedert: Den Auftakt bildete 2019 eine durch das CAIS durchgeführte Real-Time-Delphi-Studie zur „Zukunft der Digitalisierungsforschung“. Dabei wurden eine erste Bestandsaufnahme von Forschungsthemen erhoben sowie die Bedarfe von Forscher*innen abgefragt, die Arbeitsschwerpunkte im Feld der sozialund gesellschaftswissenschaftliche orientierten Digitalisierungsforschung 2. 3. Der Forschungsinkubator am Center for Advanced Internet Studies 325 haben.3 Als Fortsetzung der Delphi-Befragung wurde für den Herbst 2020 eine Interviewstudie konzipiert, bei der insbesondere die Perspektiven interdisziplinärer Forschung im Themenfeld Digitalisierung diskutiert werden. Teil der Konzeptentwicklung war auch eine Bestandsaufnahme von Forschungseinrichtungen und -initiativen, die im Bereich einer sozial- und gesellschaftswissenschaftlich orientierten Digitalisierungsforschung verortet werden können. Ein Ziel ist dabei zum einen die Vernetzung in der nationalen wie internationalen Forschungslandschaft, zum anderen die Vorbereitung einer regelmäßigen „Desk Research“ über wissenschaftliche Forschungsprogramme und politische Digitalisierungsstrategien, Förderangebote von Stiftungen oder Stellenausschreibungen im Wissenschaftsbereich. Eigenständig angebotene Dialogformate wie Barcamps, Ideen-Sprints oder Hackathons mit Wissenschaftler*innen, Praktiker*innen aus Politik und Wirtschaft sowie Bürger*innen runden das Arbeitsprogramm ab. Verdichtet und kondensiert bilden die Resultate dieser verschiedenen Bausteine einen Pool an Forschungsthemen und Hinweise für deren interdisziplinäre Bearbeitung – in der Verschränkung dieser Ergebnisse entsteht letztlich die Grundlage für eine Ableitung von Forschungsprogrammen. Nach der für das Jahr 2021 vorgesehenen Gründung fließen die Ergebnisse in den weiteren Planungs- und Aufbauprozess des Forschungszentrums ein. Zukünftig sollen Arbeitsabläufe und Routinen des Inkubators in regelmäßigen Abständen wiederholt werden, um eine Aktualisierung des Forschungsprogramms zu ermöglichen. „Agile Wissenschaft“ als Thema und Experiment im Forschungsinkubator Während Agilität – die schnelle, flexible Reaktion auf Bedürfnisse von Kund*innen – und „New Work“ – innovative Konzepte für Führung und Zusammenarbeit – für Unternehmen schon länger wichtige Stichworte sind, bleibt wissenschaftliche Forschung und ihre Organisationsstruktur davon oft unberührt. Der Forschungsinkubator setzt gezielt Impulse des „New Work“ ein, um Kooperation in und zwischen Forschungsprojekten zu fördern. Übertragen auf den Kontext von Wissenschaft und Forschung bedeutet das: neben der „Scientific Community“ gerät die Bevölkerung als 4. 3 Eine Zusammenfassung der Ergebnisse ist auf der CAIS-Website dokumentiert (vgl. https://www.cais.nrw/digitalisierung-delphi/). Christoph Bieber, Josephine B. Schmitt 326 „Kund*innen“ wissenschaftlicher Forschung und als Empfänger*innen fertiger „Produkte“ in Gestalt von Forschungsergebnissen in den Blick. So können Bürger*innen auch bei der Identifikation von Forschungsfragen und -themen als relevante Zielgruppe eingebunden werden, im Rahmen von Open-Science-Konzepten ist ihre veränderte Rolle zu beachten (z.B. als aktiv Mitwirkende in Citizen Science-Projekten oder als Teilnehmer*innen an Befragungen oder Experimenten). Der Einsatz agiler Organisationsstrukturen in der Wissenschaft kann dazu beitragen, den Austausch in und zwischen interdisziplinären Teams zu verbessern. Formate zur Ideenfindung (z.B. Design Thinking, Idea Sprint) sowie für die Team- und Prozesssteuerung (z.B. Task Board, Timeboxing) gilt es zu erproben. Die Möglichkeiten für ein flexibles, auf flache Hierarchien setzendes Projektmanagement können sich auch in wissenschaftlichen Forschungsprojekten bewähren, bedürfen jedoch einer Anpassung an die spezifischen Rahmenbedingungen. Gemeinsam mit den Wissenschaftler*innen der CAIS-Forschungsprojekte werden im Forschungsinkubator Elemente eines Curriculums erarbeitet, das den Einsatz agiler Methoden im Forschungsprozess beschreibt. Die Inhalte der projektübergreifenden Arbeitsphasen werden für das Jahr 2020 in Quartalsschritten erarbeitet und erlauben so kurzfristige Änderungen. Wöchentlich werden die Arbeitsfortschritte der Einzelprojekte vorgestellt und diskutiert. Der Inkubator bietet außerdem die Möglichkeit, Inhalte und Teilergebnisse aus den Projekten in einem kollaborativen Arbeitsprozess zu teilen und weiterzuverarbeiten. Open Science Der Forschungsinkubator orientiert sich an der Idee einer Open Science4, welche vielfältige Wege eröffnet, um kollaborativ Wissen zu generieren und zu teilen. Dies gilt besonders für die aktuell im Inkubator zusammengefassten Forschungsprojekte. Gute wissenschaftliche Praxis und Transparenz bestimmen den Arbeitsprozess, gewonnene Erkenntnisse sind schnell und verständlich innerhalb und außerhalb der Forschungslandschaft zu kommunizieren. Damit verbunden ist stets die kritische Reflexion traditioneller Wissenschaftskulturen und deren Anpassung auf die spezifische Dynamik der Digitalisierungsforschung. 5. 4 Vgl. auch https://ag-openscience.de/open-science/ (Stand: 16. August 2020). Der Forschungsinkubator am Center for Advanced Internet Studies 327 Eine derart verstandene Open Science zielt auf Transparenz und Nachvollziehbarkeit sämtlicher Schritte im Forschungsprozess – begonnen bei Recherche, Studienplanung und Datenerhebung bzw. -sammlung bis hin zur Registrierung, Archivierung und Verbreitung von Daten, Syntax, Code und Erkenntnissen. Gefördert werden in diesem Zusammenhang sämtliche Praktiken und Prozesse in allen am CAIS bzw. einem Nachfolgeinstitut präsenten wissenschaftlichen Disziplinen, die der Partizipation und Zusammenarbeit, Zugänglichkeit und Nachnutzung sowie Transparenz und Überprüfbarkeit von Daten und wissenschaftlichen Erkenntnissen dienen. Umgesetzt werden soll das Konzept von Open Science in drei Bereichen: im Forschungsprozess der Inkubatorprojekte, im Rahmen der begleitenden Wissenschaftskommunikation sowie zukünftig in praxisorientierten Reallaboren. Die bisherigen Erfahrungen des Forschungsinkubators geben Hinweise auf die Relevanz eines solchen Ansatzes, begünstigt wird dadurch ein frühzeitiger Austausch zwischen den geförderten Projekten (vgl. Abschnitt 1). Die Offenlegung von erhobenen Daten und Korpora, die Diskussion von Erhebungsmodellen und Interview-Leitfäden oder die gemeinsame Diskussion von Zwischenergebnissen stärkt eine Zusammenarbeit im interdisziplinären Kontext. Dabei müssen auch forschungsethische Anforderungen wie Transparenz und Reproduzierbarkeit, die Nachnutzbarkeit von Daten, Copyright-Fragen und, etwa im Falle proprietärer Social-Media-Daten, nutzungsbedingte Einschränkungen miteinander in Einklang gebracht werden. Im Sinne einer Kultur offener und transformativer Wissenschaft werden die intensive Vernetzung und Kommunikation zwischen Forschung, Gesellschaft und Praxis unterstützt. Der Dialog mit gesellschaftlichen Gruppen aus allen relevanten Kontexten spielt eine wichtige Rolle für den Forschungsinkubator. Perspektivisch sollen über Formate wie Citizen Science und Datenspenden auch Bürger*innen in frühe Phasen des Forschungsprozesses einbezogen werden. Durch die nachhaltige Vernetzung von Wissenschaft und Praxis wird neben zeitlich begrenzten Kommunikations- und Kollaborationsformaten eine institutionalisierte Zusammenarbeit mit Praxispartnern angestrebt. Beabsichtigt ist die Entwicklung und Umsetzung gemeinsamer Projekte in so genannten „Reallaboren“ bzw. „Living Labs“. Dabei entwickeln Wissenschaftler*innen in enger Abstimmung mit Akteur*innen aus unterschiedlichen Bereichen der gesellschaftlichen Praxis gemeinsame Fragestellungen und Erkenntnisinteressen. Sie kooperieren bei der Umsetzung wissenschaftlicher Ergebnisse, der Lösung konkreter Probleme sowie bei der praktischen Erprobung von Pilotprojekten und Prototypen. Christoph Bieber, Josephine B. Schmitt 328 Forschungsinkubator und „programmorientierte Forschungsförderung“ Grundsätzlich ist der Forschungsinkubator als Beitrag zu einer Operationalisierung des Ansatzes einer „programmorientierten Forschungsförderung“ zu verstehen. Dabei geht es um eine disziplinen- und ggf. auch institutionenübergreifende Verteilung von Ressourcen im Forschungsprozess.5 Übertragen auf eine Einrichtung im Bereich der Digitalisierungsforschung bedeutet dies, dass die Allokation von Fördermitteln nicht unmittelbar zur Einrichtung konkreter Projekt- und Arbeitszusammenhänge (wie Forschungsprofessuren, Nachwuchsgruppen oder Graduiertenkollegs) führt, sondern zunächst ein thematischer Rahmen entwickelt wird, der institutionell verschieden interpretiert werden kann. Die konzeptuellen Vorarbeiten im Forschungsinkubator und die Erprobung innovativer Formen interdisziplinärer Kooperation in Projekten dienen somit der Vorstrukturierung künftiger Forschungsprozesse. Die Elemente des Forschungsinkubators sind auf ihre regelmäßige Wiederholbarkeit angelegt, um mit der hohen Entwicklungsdynamik von Digitalisierungsprozessen Schritt halten zu können. Die Ermittlung wichtiger thematischer, methodischer und theoretischer Konjunkturen sowie die Auseinandersetzung mit wichtigen Fragen zu digitalen Daten, Algorithmen und neuen Praktiken leitet den wissenschaftlichen Gestaltungsprozess an und wird in den Governance-Prozess des künftigen Forschungsinstituts integriert. 6. 5 Diesem Ideal hat sich zum Beispiel die Helmholtz-Gemeinschaft verpflichtet, vgl. https://www.helmholtz.de/forschung/programmorientierte_foerderung/ (Stand: 16. August 2020). Der Forschungsinkubator am Center for Advanced Internet Studies 329 Ethik als Akteurin für die Entwicklung einer digitalen Kultur. Das Verhältnis zu Wirtschaft und Politik am Beispiel des Diskurses um „Künstliche Intelligenz“ Alexander Filipović Abstract Jede neue Technologie, mit der schwierige Moralfragen verbunden sind, eröffnet der Ethik neue Aufgabenfelder und lässt eine steigende Reputation erwarten. So verhält es sich auch im Bereich der „Künstliche Intelligenz“ (KI), an der dies in diesem Beitrag exemplarisch gezeigt wird. Angewandte Ethik, als philosophische Subdisziplin, darf zwar auch um ihr Ansehen und um ihr Programm kämpfen, richtet sich aber aus an ihrem eigenen, realen Problemlösungspotential. Das mittlerweile durchaus komplexe Feld der Angewandten Ethik stellt einen breiten Diskurszusammenhang dar, die Ethik ist selbst zu einem „regulierungsrelevante[n] Diskurs in Auseinandersetzungen um Wissenschaft und Technik geworden“ und ist „nicht zuletzt: als vielseitige Beratungsinstanz in Form von Ethikkommissionen“ (Bogner 2013: 9) gefragt. Wie sich das konstruktive Potential der Ethik zu Wirtschaft und Politik verhält wird nun übertragen auf das Themenfeld der KI dargelegt. Vorausgeschickt werden Bemerkung zur allgemeinen Rolle und Bedeutung der Ethik in einer technisierten Welt. Einleitung: Die Rolle der Ethik als Problem Im Zuge der Technisierung der Welt ist mehr und mehr bewusst geworden, dass Technik normative Prämissen und Implikationen mit sich führt.1 Die Einsicht, dass Technik per se nicht ethisch neutral ist, hat sich noch immer nicht überall durchgesetzt. Technik führt aber ganz klar normative Prämissen mit sich und impliziert bestimmte menschliche Selbst- und Weltverständnisse. Normative Prämissen sind Voraussetzungen und Vor- 1. 1 Diesem Text liegt ein Vortrag zu Grunde, den der Autor am 4.12.2019 an der Hochschule der Medien in Stuttgart bei der Konferenz „KI-Ethik – Wie künstlich und wie intelligent ist Künstliche Intelligenz?“ (IDEpolis 2019) gehalten hat. Der Vortragsduktus wurde behutsam angepasst. 331 gaben, die sich auf ein bestimmtes „sein sollen“ auswirken, etwa eine Vorgabe, wie man sich verhalten soll. Das Selbstverständnis ist die Art und Weise, wie der Mensch sich auf sich selbst bezieht, wie er sich selbst versteht und sich und die anderen behandelt. Das Weltverständnis ist die Art und Weise, wie sich der Mensch auf die Welt bezieht, was er erfährt und erkennt und über die Welt weiß. Wenn Technik sich ändert, so der Schluss, geraten die Frage nach dem Guten und Richtigen wie auch das komplexe menschliche Selbst- und Weltverständnis in Bewegung, verändern sich. Die Ethik nun hat es mit solchen Prämissen und Implikationen zu tun. Ethik ist nicht einfach nur Wohlverhalten, etwa wie man von jemandem sagen mag, dass sie ein ethischer Mensch sei und sich ethisch verhalte. Ethik ist die Reflexion der normativen Prämissen und die Reflexion auf die Voraussetzungen, die das Selbst- und Weltverhältnis der Menschen prägen. In unserem Fall: Ethik ist die Reflexion derjenigen normativen Prämissen, die Technik mit sich führt, und ist die Reflexion des Veränderungspotentials des menschlichen Selbst- und Weltverhältnisses, das Technik impliziert. Die Gestalt der Technik ist auch abhängig von politischer Steuerung, ökonomischer Innovation bzw. Kapital und wissenschaftlicher Leistungsfähigkeit. Welcher Platz bleibt da eigentlich für die Ethik? Alexander Bogner formuliert: Ethik macht es sich „zur Aufgabe, das Schicksal der Technik nicht einfach politischen Interessen, ökonomischen Sachzwängen oder dem technischen Selbstlauf zu überlassen“ (Bogner 2013: 7). Das klingt nach Kampf und Widerstand: Offenbar sind die Inhalte der Ethik gegen Politik, Wirtschaft und Technik vorzubringen. Jedenfalls ist Ethik überall anzutreffen, der Ethik-Boom hält unvermindert an. Seit den 1970er Jahren, seit der „Rehabilitierung der praktischen Philosophie“ (Riedel 1972), wird Ethik immer relevanter. Dies liegt zunächst an der Bioethik, die zunächst Medizinethik war. Sicher spielt dafür auch eine Pluralisierung von gesellschaftlichen Moralvorstellungen eine Rolle, mit Sicherheit trifft dies auf eine für „Forschungsverbrechen“ sensibilisierte Öffentlichkeit seit den Nürnberger Ärzte-Prozessen in den späten 1940er Jahren. Direkter Auslöser waren dann aber „jene ärztliche Entscheidungsdilemmata in Fragen der Lebensverlängerung und Lebenserhaltung, die in Folge des technischen Fortschritts aufbrachen“ (Bogner 2013: 8). Im Rückblick ist es eine Erfolgsgeschichte, dass und wie die Ethik diese Herausforderung annahm. Sie musste sich dafür umstellen: Nicht mehr der abstrakte Theoriediskurs stand im Vordergrund, sondern der Ansatz bei den „konkreten Einzelfällen des professionellen Alltags“ (Bogner 2013: 8). Der Aufstieg der Ethik ist also mit ihrer von Stephen Toulmin u.a. so Alexander Filipović 332 bezeichneten „kasuistischen Wende“ verbunden (vgl. Jonsen und Toulmin 1988). Dies ging einher mit dem Optimismus, dass mit Ethik tatsächlich rationale Übereinstimmung bei neuartigen Problemfällen erreicht werden könne. Toulmins Formulierung war ja, dass die Medizin der Ethik das Leben gerettet habe (Toulmin 1997). Endlich was zu tun, sozusagen. Jede neue Technologie, insofern mit ihr schwierige Moralfragen verbunden sind, hält die Ethik weiter am Leben, so auch die Künstliche Intelligenz. Das kann despektierlich wirken, ist und soll aber nicht der eigene Anspruch der Ethik sein. Angewandte Ethik, als philosophische Subdisziplin, kann – wie jede Disziplin – sich auch um ihr Ansehen kümmern, entscheidend ist aber, dass sie sich ausrichtet an ihrem eigenen Problemlösungspotential. Wie bildet sich das heute im Fall der KI ab? Wirtschaft „Künstliche Intelligenz (KI)“ ist eine umfassende, sich ständig fortentwickelnde Technologie, die immer mehr Aspekte unseres Lebens berührt, darunter auch zentrale Werte wie menschliche Freiheit, Würde und Gleichheit, die zugleich als Grundlage der Menschenrechte sowie als Säulen demokratischer Verfassungen fungieren. Aus diesem Grund sind Regelungen notwendig, die diese zentralen Werte schützen und sicherstellen können. Dies bezieht sich mitunter auf Fragen des verantwortungsvollen Umgangs mit den von Künstlicher Intelligenz genutzten, notwendigen Daten, oder z.B. direkt auf Mensch-Maschine Interaktionen. Die Europäische Union hat sich deshalb zum Ziel gesetzt, das Vertrauen in eine auf den Menschen ausgerichtete KI zu stärken und hat hierfür eine Expertengruppe berufen, die sich die Aufgabe geben hat, Ethik-Leitlinien für KI auszuarbeiten. Im April 2019 hat diese Expertengruppe diese Leitlinien veröffentlicht. Im Kontext der Arbeit dieser Kommission hat sich eine scharfe Debatte ergeben, die in unserem Thema (also wie das Verhältnis von Ethik und Wirtschaft im Feld der KI verfasst ist) interessant ist (vgl. dazu Roberts 2019). Die Debatte lief zwischen Thomas Metzinger, Philosoph und Mitglied und zugleich Kritiker der Expertengruppe, und Christoph Lütge, Direktor des neuen, Facebook-finanzierten Instituts für KI-Ethik an der TU München (Metzinger 2019; Lütge 2019). Im Rahmen der Debatte verweist Christoph Lütge zunächst darauf, dass Menschen aufgrund der angestiegenen Komplexität zunehmend dazu ge- 2. 2.1 Ethik als Akteurin für die Entwicklung einer digitalen Kultur. 333 zwungen sind, auf Technologie zu vertrauen. Metzinger fasst dagegen „Vertrauenswürdigkeit“ als spezifisch menschliche Eigenschaft auf und spricht KI das Attribut „vertrauenswürdig“ ganz ab. Er sieht eine Gefahr darin, dass mit der Hilfe von KI den Regierungen oder Unternehmen noch mehr Spielraum eingeräumt wird, um noch weniger vertrauenswürdig zu handeln. Lütge sieht dies pragmatischer, er verweist auf die positiven Erfolge, die bislang mit dem Einsatz von Programmen und Software-Einsätzen z.B. im Compliance-Bereich bei Unternehmen erzielt werden konnten. Grundsätzlich stimmen beide also darin überein, dass künftig Menschen auf KI zurückgreifen werden. Jedoch empfehlen beide, aufgrund unterschiedlicher ethischer Ausrichtungen, verschiedene Umgangsweisen mit KI. Metzingers Vorwurf lautet „Ethics Washing“: Ethics Washing (oder auch Ethics Theatre) meint: Wenn ein Unternehmen mit einer Hand „AI for good“ -Initiativen fördert und mit der anderen Hand Technologie für den „Überwachungskapitalismus“ an Regierungen und Unternehmenskunden verkauft. Ethik werde zur Verschönerung von wirtschaftlichen Investitionsstrategien genutzt, die Wirtschaft initiiere und organisiere die notwendige Debatte, die letztlich zivilgesellschaftlich stattfinden sollte. Das, so Metzinger, führe zur Ablenkung und Verzögerungen, wodurch letztlich tatsächliche Regulierungen unterbunden würden. Lütge hingegen plädiert dafür, auch bezogen auf „Ethics Washing“ eine grundlegende Unterscheidung vorzunehmen, nämlich zwischen der Motivation für eine Handlung und der Folge einer Handlung. Eine Gruppe von Kritikern kritisiere Unternehmen oft aufgrund ihrer Motivation, aber ungeachtet möglicher positiver Folgen für die Gesellschaft. Ethisches Handeln, so Lütge, sei nicht zwingend von der „richtigen Gesinnung“ abhängig bzw. würde man auf die Motivation (der Unternehmen) fokussiert bleiben, würden keinerlei (gesellschaftliche) Veränderungen erzielt werden können. Metzinger ist also offenbar auf die Prinzipien bzw. die Motivation ethischen Handelns, oder auf Leitlinien hierfür fokussiert, Lütge konzentriert sich nahezu ausschließlich auf die Folgen von Handlungen (oder lässt dies als Kriterium für substanzielle ethische Prinzipien gelten). Ein weiterer Diskussionspunkt der Debatte ist die Einbeziehung von Ethikern in die Expertengruppe zur Formulierung der KI-Richtlinien. Metzinger kritisiert die von der EU eingesetzten Expertengruppe dahingehend, dass darin zu wenig Ethiker eingebunden seien, um ethische Richtlinien zu generieren. Einerseits betont er zwar die Notwendigkeit der Expertise anderer Bereiche, bemängelt jedoch zugleich die Anzahl der Ethiker insgesamt als zu gering (vier von 52 Mitgliedern). Metzinger bemerkt zudem, Alexander Filipović 334 dass die anfangs von den Experten formulierten roten Linien hinsichtlich des Umgangs mit KI (z.B. Einsatz autonomer tödlicher Waffensystemen) letztlich abgeschwächt oder ganz aus der veröffentlichten Version der Ethik-Leitlinien der KI gestrichen wurden. Demgegenüber vertritt Lütge die Ansicht, dass gerade über Ethik-Richtlinien nicht nur Ethiker entscheiden können und sollten. Die Einbindung von Unternehmen (neben Wissenschaft, Zivilgesellschaft, politischen Akteuren) bei der Findung und Formulierung ethischer Leitlinien erweise sich als notwendig für die realistische Umsetzung ethischer Leitlinien für die KI. Würde man etwa nur die Motivation der Unternehmen beurteilen, beschwört Lütge gar einen Teufelskreis des (wirtschaftlichen) Stillstands herauf, in dem keinerlei Fortschritt oder Verbesserung erzielt werden könne. Für ihn ist daher die Einbeziehung möglichst aller Interessen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik grundlegend wichtig. Beide Ethiker bringen je ein wichtiges Argument ein: Wenn Ethik wirtschaftliche Interessen nur verschleiert oder bloßes und riskantes Gewinnstreben reinwäscht, Ethik also nur ein Feigenblatt ist, dann läuft es falsch, da desavouiert sich auch die Ethik. Allerdings geht es bei Ethik immer auch um Verantwortung und ganz konkrete Akteure. Die Ethik handelt nicht selbst, ihre Ideen und Argumente müssen andere umsetzten. Unternehmen haben eine wichtige Rolle in der moralisch guten und richtigen Gestaltung unserer technischen Welt. Ohne die Unternehmen geht es jedenfalls nicht. Unter dem Stichwort „Corporate Digital Responsibility“ werden die spezifischen Verantwortungen der Unternehmen im Kontext der Digitalisierung gerade diskutiert, auch im Medienkontext (vgl. Altmeppen und Filipović 2019; Koska und Filipović 2019; Filipović und Altmeppen 2020), der die aktuellen digitalen Verantwortlichkeiten von Unternehmen untersucht. Politik Das Verhältnis von Ethik und Politik ist noch komplizierter. Es ist naheliegend anzunehmen, dass Bezüge zu ethischen Fragestellungen in Technikkontroversen mitunter häufig den Versuch bestimmter Akteure darstellen, den jeweiligen Technologiebegriff – hier etwa die KI – in ihrem Sinne zu politisieren. Auf diese Weise wird Moral, wie Wolfgang van den Daele in Bezug auf die Moralisierung von Technikkonflikten beschreibt, als Gegenmacht gegen ein sogenanntes liberales Regime der Innovation mobilisiert (van den Daele 2013). Was ist dieses liberale Regime der Innovation? Es ist 2.2 Ethik als Akteurin für die Entwicklung einer digitalen Kultur. 335 die Tendenz, Technik vor die Klammer der politischen Gestaltung zu ziehen. Es besteht aus zwei Annahmen: • Technik wird als ethisch neutral eingestuft. Es komme nur darauf an, wie sie genutzt werde, ihre Existenz und Entwicklung ist noch nicht problematisch. • Was technisch möglich ist, wird irgendwann auch kommen. Das ist die Kapitulation der Politik vor der Technik und der Wirtschaft. Die politische Gestaltung in diesem liberalen Technikregime beschränkt sich auf die Gestaltung von Anreizsystemen, um Innovation zu ermöglichen oder, in Regimes mit weniger liberaler Ausrichtung, auf die Lenkung von Innovationen in eine bestimmte Richtung. Sobald die Menschen bemerken, dass sie wenig auf die Politik zählen können bei der „Bändigung“, weil wirtschaftliche Chancen im Vordergrund stehen, begehren sie auf und mobilisieren dazu Moral oder Ethik. Zivilgesellschaftliche Gruppen oder kritische Journalisten laden dann Ethikerinnen und Ethiker ein, damit diese ihre Befürchtungen flankieren und ihrer Skepsis Nachdruck verleihen. Dabei handelt es sich um die Gegenseite von „ethics washing“: Ethik wird hier zur Profilierung des Gefahrendiskurses missbraucht. Doch auch die Politik des liberalen Regimes schätzt ihre Ethikerin/ ihren Ethiker, weil ihr klar ist, dass eine wirtschaftliche Dynamik sich nur dann entfalten kann, wenn die Menschen angstfrei mitziehen. Einen Ethiker dabei zu haben, hilft hier, man betreibt ein „ethics washing“ nach dem Motto: Wir wissen, das ist moralisch heikel, aber wir haben einen Ethiker dabei, macht Euch also keine Sorgen. Manchmal entlarvt sich diese Art von Politik und Strategie selbst, indem sie die Notwendigkeit von Ethik damit begründet, dass die Menschen sich Sorgen machen. Aber Ethik der KI z.B. ist ja nicht Sorgenmanagement einer ängstlichen Bevölkerung, sondern Ethik ist notwendig, weil es moralische Probleme gibt (für die die „Sorgen“ der Bevölkerung aber durchaus Hinweise sein können). Was sollen (Medien-)EthikerInnen in öffentlichen Diskursen machen? Wenn man sich nun von den Erwartungen an die Ethik hinwendet zur Rolle, die die Ethik gleichsam von sich aus z.B. im KI-Diskurs spielen sollte, sei hier unterschieden zwischen der Position gegenüber der Wirtschaft und der Position gegenüber der Politik. Gegenüber der Wirtschaft muss man betonen, dass Ethik Geschäftsmodelle auch als bedenklich und moralisch zweifelhaft einstufen kann. Ethik tut ökonomisch oft weh, verlängert den Weg zum Gewinn oder verhindert 3. Alexander Filipović 336 ihn sogar. Ethik hat aber auch die kritische Funktion, die Ethik-Waschmaschinen der Unternehmen und Institutionen aufzudecken. Wenn Ethikrichtlinien nur Allgemeinplätze und das rechtlich Gesollte auflisten, machen sie ethisch keinen Sinn. Sie sind dann nur sinnvoll als strategische Kommunikation. Wenn Ethikrichtlinien nur strategische Kommunikation sind, muss man sie kritisieren. Gegenüber der Politik muss man geduldig erklären, dass Ethik nicht nur Möglichkeiten verhindert, sondern auch positive Ziele formuliert, in welche Richtung Regulierung dann gehen kann. Ich wehre mich zudem gegen den Ruf an den Ethiker, rote Linien zu ziehen. Ich habe gar nichts gegen rote Linien, im Gegenteil. Aber ich glaube nicht, dass es die Aufgabe von Ethik ist, diese zu formulieren und zu ziehen. Das ist eine Frage von Autorität und Legitimation. Ethik kann Argumente sammeln und testen, warum eine rote Linie sinnvoll ist. Ob es diese dann aber gibt und sie sich in Gesetzen niederschlägt, muss demokratisch durch Parlamente entschieden werden. Fazit Ethik ist philosophische Forschung – umsonst ist sie nicht zu haben. Menschen müssen Texte lesen, Diskurse nachvollziehen, sich in Sachkontexte einarbeiten, auf Konferenzen fahren, Stellungnahmen abgeben. Das kann man weder an die Kirchen delegieren noch an ein durch Facebook finanziertes KI-Ethik-Institut. Ich wäre froh, wenn bei den KI-Strategien auch der Aufbau der Geisteswissenschaften mitbedacht würde – vor allem natürlich die Ethik. Ethik der Digitalität, Ethik der KI ist wichtig und zentral – und arbeitet an den neuralgischen Punkten der Entwicklung unserer Welt und unserer Gesellschaft. Es geht um eine digitale Kultur, die wir erst ausprägen müssen und Ethik ist ein wichtiger Akteur dabei. Ethik muss daher öffentlich finanziert werden – in viel größerem Umfang als bisher. 4. Ethik als Akteurin für die Entwicklung einer digitalen Kultur. 337 Literatur Altmeppen, Klaus-Dieter / Filipović, Alexander (2019): Corporate Digital Responsibility. Zur Verantwortung von Medienunternehmen in digitalen Zeiten. In: Communicatio Socialis 52 (2), 202–214. DOI: 10.5771/0010–3497–2019–2–202. Bogner, Alexander (2013): Einführung: Zur Ethisierung der Technik. In: Bogner, Alexander (Hg.): Ethisierung der Technik – Technisierung der Ethik. Der Ethik- Boom im Lichte der Wissenschafts- und Technikforschung. Baden-Baden: Nomos (Wissenschafts- und Technikforschung, 11), S. 7–25. Filipović, Alexander / Altmeppen, Klaus-Dieter (2020): Digitale Verantwortung von Medienunternehmen. In: Bertelsmann Stiftung und Wittenberg-Zentrum für Globale Ethik (Hg.): Unternehmensverantwortung im digitalen Wandel. Ein Debattenbeitrag zu Corporate Digital Responsibility, S. 200–205. Jonsen, Albert R. / Toulmin, Stephen (1988): The abuse of casuistry. A history of moral reasoning. Berkeley: University of California Press. Koska, Christopher /Filipović, Alexander (2019): Blackbox AI – State Regulation or Corporate Responsibility? In: Digitale Welt 3 (4), S. 28–31. DOI: 10.1007/s42354– 019–0208–5. Lütge, Christoph (2019): Über Ethik-Waschmaschinen und andere Fabelwesen. In: Der Tagesspiegel, 12.04.2019 (Background). Online verfügbar unter https://backgrou nd.tagesspiegel.de/ueber-ethik-waschmaschinen-und-andere-fabelwesen. Metzinger, Thomas (2019): Nehmt der Industrie die Ethik weg! In: Der Tagesspiegel, 08.04.2019. Online verfügbar unter https://www.tagesspiegel.de/politik/eu-ethik richtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195 388.html. Riedel, Manfred (Hg.) (1972): Rehabilitierung der praktischen Philosophie. Band I: Geschichte, Probleme, Aufgaben. Freiburg: Rombach (Sammlung Rombach NF, 23). Roberts, Cindy (2019): Ethikdebatte in der KI – Alles nur ein Fake? In: zem::dg.de, 05.07.2019. Online verfügbar unter https://zemdg.de/2019/06/05/ethikdebatte-in -der-ki-alles-nur-ein-fake/. Toulmin, Stephen (1997): How medicine saved the life of ethics. In: Jecker, Nancy S. / Jonsen, Albert R. / Pearlman, Robert A. (Hg.): Bioethics. An introduction to the history, methods, and practice. Boston: Jones and Bartlett, S. 101–109. van den Daele, Wolfgang (2013): Moralisierung in Technikkonflikten. In: Bogner, Alexander (Hg.): Ethisierung der Technik – Technisierung der Ethik. Der Ethik- Boom im Lichte der Wissenschafts- und Technikforschung. Baden-Baden: Nomos (Wissenschafts- und Technikforschung, 11), S. 29–50. Alexander Filipović 338 Autorinnen und Autoren Klaus-Dieter Altmeppen, Dr., ist Professor für Journalistik an der Katholischen Universität Eichstätt-Ingolstadt. Er ist Co-Leiter des zem::dg – Zentrum für Ethik der Medien und der digitalen Gesellschaft und gibt gemeinsam mit Kollegen die Zeitschrift Communicatio Socialis heraus. E-Mail: klaus-dieter.altmeppen@ku.de Christian Augustin ist Schulleiter der Albert-Einstein-Schule Laatzen. E-Mail: augustin@kgslaatzen.eu Christoph Bieber, Dr., ist Inhaber der Welker-Stiftungsprofessur für Ethik in Politikmanagement und Gesellschaft; derzeit ist er an das Center for Advanced Internet Studies (CAIS) beurlaubt, leitet dort den Forschungsinkubator sowie darin das Projekt „KI-Governance: Künstliche Intelligenz als Gegenstand politischer Steuerung“. Mail: christoph.bieber@uni-due.de Roger Blum, Dr., ist emeritierter Professor für Medienwissenschaft an der Universität Bern und Ex-Ombudsmann für die SRG Deutschschweiz. E-Mail: mail@roger-blum.ch Ekkehard Brüggemann ist Leiter des Medienzentrums des Landkreises Harburg und Medienpädagogischer Berater am Niedersächsischen Landesinstitut für schulische Qualitätsentwicklung (NLQ). E-Mail: brueggemann@nibis.de Bernhard Debatin, Dr., ist Professor für Multimedia Policy an der E.W. Scripps School of Journalism der Ohio University of Athens, Ohio (USA) und Direktor des dortigen Institute for Applied and Professional Ethics (IAPE); er ist Co-Herausgeber dieses Bands. E-Mail: debatin@ohio.edu Tobias Eberwein, Dr., ist Senior Scientist und Forschungsgruppenleiter am Institut für vergleichende Medien- und Kommunikationsforschung (CMC) der Österreichischen Akademie der Wissenschaften und der Alpen-Adria-Universität in Wien. E-Mail: tobias.eberwein@oeaw.ac.at. Charlotte Echterhoff, Dr., promovierte an der Rheinischen Friedrich-Wilhelms-Universität Bonn. Derzeit ist sie als wissenschaftliche Referentin beim DLR-Projektträger in der Abteilung „Digitalisierung in der Bildung“ tätig. E-Mail: charlotte.echterhoff@gmx.de Rainer Erlinger, Dr., Dr. ist Arzt, Jurist und Publizist; er referiert, diskutiert und schreibt über ethische Fragen, z.B. von 2002–2018 in seiner Kolumne „Gewissensfrage“ im SZ-Magazin sowie in der WDR-Sendung richtig leben?! E-Mail: info@rainererlinger.de 339 Daniel Fiene, ist Journalist. Er leitete das Audience-Engagement-Team bei der Rheinischen Post/RP online und ist derzeit im Team des Medienschiffs Media Pioneer in Berlin. Fiene ist Moderator (u.a. Antenne Düsseldorf, Deutschlandfunk Nova), Dozent und Webentwickler. Seine Schwerpunkte sind Medienwandel, Social Media und Medienjournalismus. E-Mail: daniel.fiene@gmail.com Alexander Filipović, Dr., ist Professor für Medienethik an der Hochschule für Philosophie München und Mitglied der Enquete-Kommission „Künstliche Intelligenz – gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“. E-Mail: alexander.filipovic@hfph.de Andrea Günter, Dr. Dr., ist Privatdozentin für Philosophie, sie lebt in Freiburg/ Brsg. Website: andreaguenter.de. E-Mail: Andrea.Guenter@gmx.de Matthias Karmasin, Dr., ist Universitätsprofessor am Institut für Medien- und Kommunikationswissenschaft der Alpen-Adria-Universität Klagenfurt (AAU) und Direktor des Institutes für vergleichende Medien- und Kommunikationsforschung der österreichischen Akademie der Wissenschaften und der AAU. E-Mail: matthias.karmasin@aau.at Nina Köberer, Dr., ist Referentin für Medienethik am Niedersächsischen Landesinstitut für schulische Qualitätsentwicklung (NLQ) und Co-Herausgeberin dieses Bands. E-Mail: koeberer@nlq.nibis.de Larissa Krainer, Dr. , ist ao. Universitätsprofessorin am Institut für Medien- und Kommunikationswissenschaft der Alpen-Adria-Universität Klagenfurt. E-Mail: larissa.krainer@aau.at. Geert Lovink, Dr., ist Medientheoretiker, Netzkritiker und Leiter des Instituts für Netzkultur an der Amsterdamer Fachhochschule (HvA). E-Mail: geert@xs4all.nl Colin Porlezza, Dr., ist Professor für Journalismus an der City, University of London. E-Mail: colin.porlezza@city.ac.uk Marlis Prinzing, Dr., ist Professorin für Journalistik an der Hochschule Macromedia Köln Sie ist Sprecherin der Fachgruppe Kommunikations- und Medienethik der DGPuK und Co-Herausgeberin dieses Bands. E-Mail: marlis.prinzing@das-rote-sofa.de Matthias Rath, Dr. Dr., ist Professor für Philosophie an der Pädagogischen Hochschule Ludwigsburg. Dort leitet er die Forschungsstelle Jugend – Medien – Bildung sowie die Forschungsgruppe Medienethik. Seine Schwerpunkte sind u.a. Medienethik und empirische Medienbildungsforschung. E-Mail: rath@ph-ludwigsburg.de Pierre Rieder, Dr., ist Leiter des Sekretariats der Unabhängigen Beschwerdeinstanz für Radio und Fernsehen in Bern (CH). E-Mail: pierre.rieder@ubi.admin.ch Autorinnen und Autoren 340 Christian Schicha, Dr., ist Professor für Medienethik an der Friedrich-Alexander- Universität Erlangen-Nürnberg am Institut für Theater- und Medienwissenschaft. E-Mail: christian.schicha@fau.de Josephine B. Schmitt, Dr., ist Forschungsreferentin am Center for Advanced Internet Studies (CAIS). Sie forscht u.a. zu organisatorischen Fragen interdisziplinärer Digitalisierungsforschung sowie zu Inhalt, Verbreitung und Wirkung von Hate Speech, extremistischer Propaganda und (politischen) Informations- und Bildungsangeboten im Internet. E-Mail: josephine.schmitt@cais.nrw Sonja Schwetje, ist ntv-Chefredakteurin. Sie arbeitet seit 1998 bei der Mediengruppe RTL Deutschland. Von RTL West, wo sie Redaktionsleiterin und Moderatorin von „Guten Abend RTL“ war, wechselte sie zu ntv. Sie gehört einem Expertengremium an, das die Europäische Kommission als Beratungsgremium zum Kampf gegen Desinformation einsetzte. E-Mail: sonja.schwetje@n-tv.de Saskia Sell, Dr., ist Wissenschaftliche Mitarbeiterin am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin. E-Mail: saskia.sell@fu-berlin.de Ingrid Stapf, Dr., forscht am Internationalen Ethikzentrum der Universität Tübingen und habilitiert sich zu einer Kinder-Medien-Ethik im digitalen Zeitalter an der FAU Erlangen (www.ingridstapf.com). E-Mail: ingridstapf@web.de Hansi Voigt, ist Journalist und arbeitet selbständig als Unternehmensberater, Medienentwickler und Medienkritiker. Von 2006 bis 2012 war er Chef der Online- Redaktion von „20 Minuten“; mit ehemaligen Mitarbeitern dieser Redaktion gründete er das Newsportal „watson.ch“. E-Mail: hansi.voigt@gmail.com Thomas Zeilinger, Dr., ist Beauftragter der Evang.-Luth. Kirche in Bayern für Ethik im Dialog mit Technologie und Naturwissenschaft und als außerplanmäßiger Professor an der FAU Erlangen-Nürnberg tätig. E-Mail: thomas.zeilinger@fau.de Marc Ziegele, Dr., ist Junior-Professor für politische Online-Kommunikation an der Universität Düsseldorf. Er war Onlineredakteur beim Südwestrundfunk. Er forscht unter anderem über „Digitale Gesellschaft“, Demokratiekultur, Medienvertrauen und die Diskussionskultur im Internet. E-Mail: ziegele@hhu.de Autorinnen und Autoren 341

Abstract

Media environments and public communication are becoming increasingly digital, and the coronavirus crisis has accelerated this development. The changes connected to this relate to key ethical values and norms, such as informational autonomy, privacy and transparency. This not only demands an empirically based discourse underpinned by theory, but also consideration of what courses of action may result from this and, from a normative perspective, what recommendations for action can be formulated. Media and communication ethics is thus confronted with some fundamental questions: Are its existing concepts and models still viable in the face of these digitally induced changes? Should they be altered or expanded? Where should this ‘reloading’ start? The contributions in this book develop important guidelines in this respect, for example on ethical demands on innovations and on truth and our world view in this post-factual society. With contributions by Klaus-Dieter Altmeppen, Christian Augustin Christoph Bieber, Roger Blum, Ekkehard Brüggemann Bernhard Debatin, Tobias Eberwein, Rainer Erlinger, Daniel Fiene, Alexander Filipović, Andrea Günter, Matthias Karmasin, Nina Köberer, Larissa Krainer, Geert Lovink, Colin Porlezza, Marlis Prinzing, Matthias Rath, Pierre Rieder, Christian Schicha, Josephine B. Schmitt, Sonja Schwetje, Saskia Sell, Ingrid Stapf, Hansi Voigt, Thomas Zeilinger and Marc Ziegele.

Zusammenfassung

Medienumgebungen und öffentliche Kommunikation werden digitaler, mobiler und plattformdominierter, die Corona-Krise hat diese Entwicklung weiter beschleunigt. Damit verbundene Veränderungen adressieren zentrale ethische Werte und Normen, darunter u.a. informationelle Selbstbestimmtheit, Privatheit, Transparenz. Das verlangt einen empirisch fundierten und theoriegestützten Diskurs sowie Überlegungen, welche Handlungsfolgen sich daraus ergeben und welche Handlungsempfehlungen sich aus normativer Sicht formulieren lassen. Es stellen sich also grundlegende Fragen an die Kommunikations- und Medienethik: Sind bestehende Konzepte und Modelle angesichts dieser digitalisierungsbedingten Veränderungen noch tragfähig? Müssen sie verändert oder erweitert werden? Wo müsste ein Reload der Kommunikations- und Medienethik ansetzen? Die Beiträge dieses Bands entwickeln hierzu Wegmarken: z.B. zu ethischen Anforderungen an Innovationen sowie zu Wahrheit und Weltbild in der postfaktischen Gesellschaft. Mit Beiträgen von Klaus-Dieter Altmeppen, Christian Augustin Christoph Bieber, Roger Blum, Ekkehard Brüggemann Bernhard Debatin, Tobias Eberwein, Rainer Erlinger, Daniel Fiene, Alexander Filipović, Andrea Günter, Matthias Karmasin, Nina Köberer, Larissa Krainer, Geert Lovink, Colin Porlezza, Marlis Prinzing, Matthias Rath, Pierre Rieder, Christian Schicha, Josephine B. Schmitt, Sonja Schwetje, Saskia Sell, Ingrid Stapf, Hansi Voigt, Thomas Zeilinger und Marc Ziegele.

References

Abstract

Media environments and public communication are becoming increasingly digital, and the coronavirus crisis has accelerated this development. The changes connected to this relate to key ethical values and norms, such as informational autonomy, privacy and transparency. This not only demands an empirically based discourse underpinned by theory, but also consideration of what courses of action may result from this and, from a normative perspective, what recommendations for action can be formulated. Media and communication ethics is thus confronted with some fundamental questions: Are its existing concepts and models still viable in the face of these digitally induced changes? Should they be altered or expanded? Where should this ‘reloading’ start? The contributions in this book develop important guidelines in this respect, for example on ethical demands on innovations and on truth and our world view in this post-factual society. With contributions by Klaus-Dieter Altmeppen, Christian Augustin Christoph Bieber, Roger Blum, Ekkehard Brüggemann Bernhard Debatin, Tobias Eberwein, Rainer Erlinger, Daniel Fiene, Alexander Filipović, Andrea Günter, Matthias Karmasin, Nina Köberer, Larissa Krainer, Geert Lovink, Colin Porlezza, Marlis Prinzing, Matthias Rath, Pierre Rieder, Christian Schicha, Josephine B. Schmitt, Sonja Schwetje, Saskia Sell, Ingrid Stapf, Hansi Voigt, Thomas Zeilinger and Marc Ziegele.

Zusammenfassung

Medienumgebungen und öffentliche Kommunikation werden digitaler, mobiler und plattformdominierter, die Corona-Krise hat diese Entwicklung weiter beschleunigt. Damit verbundene Veränderungen adressieren zentrale ethische Werte und Normen, darunter u.a. informationelle Selbstbestimmtheit, Privatheit, Transparenz. Das verlangt einen empirisch fundierten und theoriegestützten Diskurs sowie Überlegungen, welche Handlungsfolgen sich daraus ergeben und welche Handlungsempfehlungen sich aus normativer Sicht formulieren lassen. Es stellen sich also grundlegende Fragen an die Kommunikations- und Medienethik: Sind bestehende Konzepte und Modelle angesichts dieser digitalisierungsbedingten Veränderungen noch tragfähig? Müssen sie verändert oder erweitert werden? Wo müsste ein Reload der Kommunikations- und Medienethik ansetzen? Die Beiträge dieses Bands entwickeln hierzu Wegmarken: z.B. zu ethischen Anforderungen an Innovationen sowie zu Wahrheit und Weltbild in der postfaktischen Gesellschaft. Mit Beiträgen von Klaus-Dieter Altmeppen, Christian Augustin Christoph Bieber, Roger Blum, Ekkehard Brüggemann Bernhard Debatin, Tobias Eberwein, Rainer Erlinger, Daniel Fiene, Alexander Filipović, Andrea Günter, Matthias Karmasin, Nina Köberer, Larissa Krainer, Geert Lovink, Colin Porlezza, Marlis Prinzing, Matthias Rath, Pierre Rieder, Christian Schicha, Josephine B. Schmitt, Sonja Schwetje, Saskia Sell, Ingrid Stapf, Hansi Voigt, Thomas Zeilinger und Marc Ziegele.