Content

Armin Grunwald, Digitalisierung als Prozess. Ethische Herausforderungen inmitten allmählicher Verschiebungen zwischen Mensch, Technik und Gesellschaft in:

zfwu Zeitschrift für Wirtschafts- und Unternehmensethik, page 121 - 145

zfwu, Volume 20 (2019), Issue 2, ISSN: 1439-880X, ISSN online: 1439-880X, https://doi.org/10.5771/1439-880X-2019-2-121

Browse Volumes and Issues: zfwu Zeitschrift für Wirtschafts- und Unternehmensethik

Bibliographic information
PDF download Citation download Share
Armin Grunwald* Digitalisierung als Prozess Ethische Herausforderungen inmitten allmählicher Verschiebungen zwischen Mensch, Technik und Gesellschaft Die Digitalisierung ist diejenige technikgetriebene Entwicklung mit dem zurzeit stärksten transformativen Potential für Wirtschaft und Gesellschaft. Ihre ethischen Fragen betreffen praktisch alle Handlungsfelder. Dieser Beitrag widmet sich Ursprüngen ethischer Herausforderungen, die sich aus allmählichen technikphilosophischen und gesellschaftlichen Verschiebungen im Rahmen der Digitalisierung als Prozess ergeben. Schlagwörter: Technikphilosophie, Hermeneutik, Konsequentialismus, Gestaltung, Technikdeterminismus, Vorsorge Digitalization as Process. Ethical Challenges Rooted in Gradual Shifts Between Humans, Technology, and Society The ongoing digitalization is currently the technology-driven development with the highest transformative potential for society and economy. Resulting ethical challenges affect almost all fields of human life. This paper focuses on the origins and roots of ethical challenges which arise from gradual shifts between humans, technology and society in the process of digitalization. Keywords: Philosophy of Technology, Hermeneutics, Consequentialism, Technology Design, Technology Determinism, Precaution Digitalisierung als Prozess Die Digitalisierung überformt praktisch alle Bereiche individueller und kollektiver Lebensgestaltung. Der technische Fortschritt zusammen mit innovativen Nutzungsideen und Geschäftsmodellen eröffnet neue Handlungsoptionen (vgl. z. B. Neugebauer 2018): globale Kommunikation in Echtzeit, schnellen und ortsunabhängigen Zugriff auf Information und Unterhaltung durch mobiles Internet, Mustererkennung durch Big Data Analytik, Effizienzsteigerung der industriellen Logistik und Produktion, Beschleunigung von Innovationsprozessen, individualisierte Dienstleistungen, bessere medizinische Diagnosen und Therapien, Roboter als künstliche Assistenten, lernende Algorithmen, selbstfahrende Autos und vieles 1. * Prof. Dr. Armin Grunwald, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT), Karlstr. 11, D-76133 Karlsruhe, Tel.: +49-(0)721-60822500, E-Mail: armin.grunwald@kit.edu, Forschungsschwerpunkte: Theorie und Praxis der Technikfolgenabschätzung, Ethische Fragen neuer Technologien, Nachhaltige Entwicklung, Inter- und transdisziplinäre Forschung. zfwu 20/2 (2019), 121–145, DOI: 10.5771/1439-880X-2019-2-121 mehr. Die Digitalisierung läuft seit nunmehr über fünfzig Jahren und hat in mehreren Wellen die wissenschaftliche und öffentliche Debatte beschäftigt. Seit einigen Jahren dominiert sie gesellschaftliche Technikdiskurse wie kein anderes Technikfeld. Visionäre Erzählungen von erheblicher und teils dramatischer Reichweite verleiten dazu, sie als Epochenbruch und menschheitshistorische Disruption, als ›digitale Revolution‹ zu bezeichnen. Philosophie und Ethik werden zur Orientierung nachgefragt, vor allem zu den ›großen‹ moralischen und anthropologischen Fragen nach der Zukunft des Menschen und des Verhältnisses zur Technik (vgl. z. B. Mainzer 2016; Misselhorn 2018; Nida-Rümelin/Weidenfeld 2018; Precht 2018). Gerade zu den ›großen Fragen‹ der so genannten digitalen Revolution stehen Philosophie und Ethik jedoch vor einem Problem. Während ihre Vertreter in der öffentlichen Debatte weniger als Fachwissenschaftler, sondern eher als öffentliche Intellektuelle gefragt sind, ziehen die aktuellen Anerkennungsstrukturen wissenschaftlicher Qualität und Exzellenz sie eher in Richtung auf die Befassung mit isolierten Problemen, zu denen sich schneller und leichter Publikationen in referierten Fachzeitschriften unterbringen lassen. Engagement als öffentliche Intellektuelle hingegen wird akademisch wenig honoriert. Der vorliegende Beitrag versucht, beide Welten zu verbinden, indem er viele der ethischen Sorgen zur Digitalisierung direkt der öffentlich geführten Debatte entnimmt (vgl. Grunwald 2019) und in dieser Befassung den Weg bereitet, die Debatten auf eine wissenschaftliche Basis zu stellen. In diesem Sinne hat der vorliegende Beitrag gleichermaßen eine essayistische wie eine wissenschaftliche Seite. Wie der technische Fortschritt generell, ist die Digitalisierung bzw. sind viele ihrer Ausprägungen in sich ambivalent (vgl. Grunwald 2010a). Den Vorteilen stehen bereits eingetretene oder für die Zukunft befürchtete nicht intendierte Folgen und Risiken gegenüber, beispielsweise für den Arbeitsmarkt, in Bezug auf Mediensucht oder für die Demokratie. Die Digitalisierung bringt Gewinner und Verlierer hervor, die auf verschiedene gesellschaftliche Gruppen unterschiedlich verteilt sind. Auch Fragen nach Verantwortung im Umgang mit nicht intendierten Folgen, nach Machtverteilung und Kontrolle, nach Gerechtigkeit und Demokratie (vgl. z. B. Hofstetter 2016) stellen sich, immer wieder auch nach der Zukunft der Gattung Mensch (vgl. Bostrom 2014; Mainzer 2016). Ethische Herausforderungen der Digitalisierung stellen sich in konkreten Anwendungsfeldern auf je unterschiedliche Weise, so etwa im Umgang mit Daten (vgl. z. B. Rolf 2014; Kolany-Raiser et al. 2018), bei Pflegerobotern (vgl. Kehl 2018), selbstfahrenden Autos (vgl. Ethik-Kommission autonomes und vernetztes Fahren 2017) oder in der industriellen Produktion und der Zukunft der Arbeitswelt (vgl. Hirsch-Kreinsen et al. 2015; Börner et al. 2018). Ethik muss einerseits im Selbstverständnis der Angewandten Ethik derartige thematische Einzelfragen reflektieren und diesbezügliche Entscheidungsprozesse orientieren (vgl. Nida- Rümelin 2005). Andererseits jedoch erschöpft sie sich nicht in Computerethik, Datenethik, Internetethik oder Maschinenethik mit konkreten Anwendungsfragen. Vielmehr muss sie sich auch, so die erste Prämisse, um Digitalisierung als transformativen und globalen gesellschaftlichen Prozess kümmern, der technische, 122 Armin Grunwald soziale, ökonomische und politische, sicher auch kulturelle, psychologische und anthropologische Facetten in sich vereint. Dieser Prozess generiert vielfältige gegenwärtige Folgen bzw. motiviert Erzählungen mit Hoffnungen wie Befürchtungen zu möglichen zukünftigen Folgen, hinter denen sich häufig ebenfalls ethische Fragen öffnen. Eine umfassende ethische Sicht auf Digitalisierung als Prozess in Ergänzung zu der Befassung mit den unzähligen Einzelfragen, etwa zur Blockchain-Technologie, zur Sicherung von Privatheit angesichts zunehmender Video- Überwachung oder zur Mensch/Maschine-Interaktion bei Pflegerobotern, ist aus zwei Gründen erforderlich. Erstens, so der ethikimmanente Grund, können nur so ethische Fragen nach dem vernünftigen Umgang mit Einzelthemen in übergreifende Zusammenhänge eingeordnet werden und ihren Platz im Gesamtgefüge der Digitalisierung erhalten. Zweitens, so der externe Grund, sind Philosophie und Ethik aus Wirtschaft, Öffentlichkeit und Politik heraus gerade zu den großen und langfristigen, teils auch spekulativen Fragen der Digitalisierung angefragt und sollten auch auf dieser Ebene ihrer Verantwortung der Gesellschaft gegenüber gerecht werden. Im Fokus des vorliegenden Beitrags liegt die Exploration des ethisch-reflexiven Blicks auf Digitalisierung als Prozess. Die zunehmende Ausstattung aller Bereiche des individuellen und kollektiven Lebens, zusehends aber auch der gebauten Umwelt in Gebäuden, Ortschaften und Infrastrukturen mit digital funktionierenden Sensoren und Geräten, ist eine notwendige und ermöglichende Bedingung für diesen Prozess. Sie stellt damit sozusagen die Grammatik für Digitalisierung als Prozess bereit, sagt jedoch noch nichts über ihre, metaphorisch gesprochen, semantischen und pragmatischen Dimensionen aus. Digitalisierung als Prozess bezieht sich im Folgenden auf die technisch ermöglichte Transformation gesellschaftlicher Zusammenhänge, so etwa in Bezug auf Bildung, durch die Umstellung der Wirtschaft auf eine Daten- und Wissensökonomie, neue Kooperationsformen zwischen Mensch und Technik, Veränderungen der Arbeitswelt, des Kommunikationsverhaltens, der staatlichen Governance und in der Selbst- und Weltwahrnehmung von Menschen. Das wesentliche, die transformative Leistung erst ermöglichende Element der Digitalisierung liegt, so die zweite Prämisse, in der digitalen Verdopplung der Welt. Der analogen Welt aus Materie und Energie wird eine digitale Welt aus Daten, Modellen und Algorithmen zur Seite gestellt, in der Datenabbilder die Gegenstände der analogen Welt in gewissen Hinsichten repräsentieren sollen. Der Begriff der ›digitalen Zwillinge‹ bringt diese Verdopplung auf den Punkt: »Ein Digitaler Zwilling ist eine digitale Repräsentanz eines materiellen oder immateriellen Objekts aus der realen Welt« (Wikipedia). Diese Begrifflichkeit stammt aus der Produktionstechnik, ist aber auf andere Bereiche übertragbar wie z. B. Geschäftsabläufe, Gebäude oder Menschen. Konsumprofile eines Menschen sind genauso Elemente seines digitalen Zwillings wie die über ihn verfügbaren medizinischen Daten. Digitale Zwillinge entstehen aus Daten über die realen Objekte, sind häufig in Modellform angeordnet und können Algorithmen enthalten, die ihr Vorbild mit seinen Eigenschaften beschreiben. Weil die Zwillinge digital sind, sind sie speicher- und kopierbar, durch Algorithmen schnell für Mustererkennung aus- Digitalisierung als Prozess 123 zfwu, 20/2 (2019) wertbar und verknüpfbar, jedenfalls solange keine Regulierung dagegensteht, durch Suchbefehle nach bestimmten Eigenschaften recherchierbar, und auch manipulierbar. Die in der Parallelwelt der digitalen Zwillinge gewonnenen Erkenntnisse, etwa durch Mustererkennung oder Profilentwicklung, können in die analoge Welt zurückübertragen und für dortige Operationen genutzt werden. Dieser Mechanismus erlaubt die Transformation der analogen Welt durch Berechnungen in der digital bearbeitbaren Parallelwelt. Die ›digitale Transformation‹ ist eine digital gestützte Transformation der analogen Welt, auf die sie letztlich abzielt. Die digitale Technik, ohne die dies alles nicht möglich wäre, tritt dabei in den Hintergrund, wird oft geradezu unsichtbar und verschwindet hinter den Nutzerschnittstellen komplexer Applikationen. Der Traum der digitalen Revolution ist, so lassen sich entsprechende Erzählungen verstehen, möglichst vollständige digitale Zwillinge aller analogen Objekte zu erzeugen, diese im Hintergrund quasi unsichtbar mit schnellen Algorithmen auszuwerten und die Ergebnisse für die analoge Welt zu nutzen. Ob es sich um digitale Zwillinge von Geschäftsprozessen, der Erdoberfläche und Siedlungsstrukturen, terroristischen Vereinigungen, erkrankten menschlichen Organen oder ganzen Gesellschaften handelt: das Prinzip ist überall das gleiche. Die Qualität digitaler Zwillinge und ihre Nutzbarkeit für Dienstleistungen und Geschäftsmodelle beruht auf der verfügbaren Datenmenge und -qualität mit der bekannten Folge des Datenhungers z. B. der Digitalkonzerne. Die darauf basierende digitale Datenübertragung und -auswertung ist im Vergleich zur Auswertung in der analogen Welt dramatisch beschleunigt. Durch schnellen Datentransport werden Geschäftsprozesse, etwa in der Finanzwelt, aber auch Prozesse politischer Mobilisierung weitgehend unabhängig von Entfernungen. Der Wegfall der ›Dämpfung‹ durch die räumlichen und zeitlichen Dimensionen vieler Prozesse in der analogen Welt führt zu erheblichen Beschleunigungseffekten und erhöht sowohl Möglichkeit als auch Risiko disruptiver Veränderung. Die Digitalisierung als Prozess wird von einer Vielzahl unterschiedlicher Akteure mitgestaltet: von Digitalvisionären etwa aus dem Silicon Valley, von IT- Spezialisten und Managern, von Datenschutzbeauftragten und Lehrern, von Staatsbürgern und Unternehmern, von Nutzern digitaler Dienstleistungen und politisch-rechtlicher Unterstützung und Regulierung. In ethischer Hinsicht ist entscheidend, Digitalisierung nicht bloß als Prozess zu betrachten, der ethisch relevante Folgen erzeugt, die es zu reflektieren gilt, sondern als nach Interessen und Werten gemacht (siehe Abschnitt 4). Im Verständnis von Ethik als Reflexionsdisziplin (vgl. Gethmann/Sander 1999) bemisst sich die ethische Relevanz der Digitalisierung am Auftreten normativer Unsicherheit, etwa aus mangelnder Akzeptanz etablierter Regeln, wegen eines Konflikts in moralischer Hinsicht, aufgrund von Gerechtigkeitsproblemen, einer gesellschaftlichen Orientierungslosigkeit oder auch nur einer Unentschiedenheit (vgl. Grunwald 2012a). Sie entsteht häufig dadurch, dass neue Technologien und ihre Nutzung durch ihre Ziele, die eingesetzten Mittel oder mögliche Folgen moralische Fragen aufwerfen, zu deren Beantwortung die etablierten moralischen 124 Armin Grunwald und teils rechtlich kodifizierten Üblichkeiten nicht mehr hinreichend sind (vgl. Hubig 2007; Grunwald 2013a). Entsprechend ist in der Suche nach Ursprüngen ethischer Herausforderungen der Digitalisierung nach Entwicklungen zu fragen, die bestehende normative Üblichkeiten und Sicherheiten herausfordern (siehe Abschnitt 3). Dies geschieht im vorliegenden Beitrag im Fokus auf die ethische Relevanz möglicher allmählicher Verschiebungen in anthropologischen und gesellschaftlichen Konstellationen (siehe Abschnitt 2). Ethische Fragen in allmählichen Verschiebungen Um ethische Dimensionen der Digitalisierung als Prozess in den Blick zu bekommen, fokussiert die Analyse auf allmähliche Verschiebungen in technikphilosophischen, anthropologischen und gesellschaftlichen Konstellationen, die ethisch relevante Folgen in Gang setzen können. Es soll hier nicht um mögliche Endpunkte von Entwicklungen in der Zukunft und deren ethische Beurteilung gehen, sondern um die Entwicklungen als allmähliche, reflektierbare und gestaltbare Prozesse selbst, wie sie sich heute darstellen, entweder als bereits beobachtbare Veränderungen oder in Erzählungen über in der Zukunft für möglich gehaltene Veränderungen und Effekte. An dieser Stelle bemühe ich eine möglicherweise unerwartete Analogie, um den Fokus des Beitrags herauszuarbeiten. Hans Jonas (1979) hat betont, dass die gro- ßen ethischen Herausforderungen moderner Technik nicht aus ihrem Versagen oder aus Unfällen resultieren, sondern Folge ihres reibungslosen Funktionierens sind. Seine Analyse bezog sich auf Umweltfolgen, und in der Tat ist beispielsweise der Klimawandel nicht Folge technischen Versagens, sondern Resultat des Funktionierens von Millionen von Verbrennungsmotoren und Tausenden von Kohle-, Öl- und Gaskraftwerken. Nicht der Misserfolg, sondern der Erfolg der Technik führt zu den großen ethischen Herausforderungen. Diese zeigen sich im Umweltbereich als schleichende, nur allmählich sicht- und messbar werdende Veränderungen in der natürlichen Umwelt. Die dritte Prämisse dieses Beitrags besteht in der Vermutung, dass dies in der Digitalisierung als Prozess analog ist, mit dem Unterschied, dass es hier weniger um Umwelt-, sondern um Gesellschaftsfolgen geht. Es ist gerade der atemberaubende und schnelle Erfolg vieler Entwicklungen im Rahmen der Digitalisierung, der zu allmählichen Verschiebungen z. B. in Mensch/Technik-Verhältnissen, in Verantwortungsfragen, im Sicherheitsbedürfnis, im Verständnis von Freiheit, in der Möglichkeit von Individualität, in Zeitverhältnissen, im Blick auf Solidarität und im Menschenbild führt oder führen kann (siehe vertiefend Abschnitt 3). Es sind gerade allmähliche Verschiebungen dieser Art, ob nun bereits beobachtbar oder erst für die Zukunft befürchtet, die den Kern der teils aufgeregten öffentlichen Debatte zur Digitalisierung und vieler weitreichender Befürchtungen darin ausmachen (vgl. Grunwald 2019). Diese Verschiebungen sind häufig nicht unmittelbar Anlass ethischer Reflexion, jedoch Quelle vieler Fragen mit ethischen Aspekten. Daher liegt der Fokus dieses Beitrags auf der Suche nach Ursprüngen ethischer Herausforderungen der Digitalisierung, die 2. Digitalisierung als Prozess 125 zfwu, 20/2 (2019) sich aus allmählichen Verschiebungen relevanter Konstellationen im Rahmen der Digitalisierung als Prozess ergeben oder wenigstens ergeben können. Oft wurde diagnostiziert, dass Ethik als bloße ›Reparaturethik‹ (vgl. Mittelstraß 1991) der technischen Entwicklung ohnmächtig hinterherlaufe: »It is a familiar cliché that ethics does not keep pace with technology« (Moor/Weckert 2004: 305). Ethische Reflexion, so die dahinterstehende Annahme, werde erst unternommen, wenn Probleme erkannt seien: »Die Ethik als theoretische Reflexion (...) kommt daher immer erst nachträglich zum Zuge, d. h. nachdem entsprechende problematische Situationen eingetreten sind« (Rohbeck 1993: 269). Es wäre jedoch angesichts der Eingriffstiefe und Diffusionsgeschwindigkeit moderner Technikentwicklungen, wieder mit Hans Jonas gesprochen, unverantwortbar zu warten, bis negative Entwicklungen so massiv eingetreten sind, dass sie unübersehbar Opfer fordern und Gegenmaßnahmen überlebensnotwendig werden. Stattdessen besteht hier eine ethische Verpflichtung zum vorausschauenden Denken, im Einklang mit dem Anspruch problemorientierter Ethik, zur Gestaltung beizutragen. In den letzten ca. fünfzehn Jahren hat es eine Reihe von Bemühungen gegeben, diesem Auftrag durch möglichst frühzeitige ethische Reflexion zu begegnen. Jedoch ist hier das aus der Technikfolgenabschätzung (vgl. Grunwald 2010a) bekannte Collingridge-Dilemma (vgl. Collingridge 1980) zu beachten: zwar ist in frühen Phasen prinzipiell der weitere Gang der Dinge besser zu beeinflussen als in den späteren, wenn die Konstellation durch Pfadabhängigkeiten bereits stark verfestigt ist. Allerdings darf nicht übersehen werden, dass dann das erforderliche Folgenwissen über Innovationspfade, Produktlinien und Geschäftsfelder, Akzeptanz auf den Märkten und Nutzerverhalten zwangsläufig noch hochgradig unsicher ist oder auch ganz fehlt. Statt belastbarer Prognosen oder wenigstens plausibler Szenarien liegen üblicherweise nur mehr oder weniger spekulative Erwartungen oder auch Befürchtungen vor, deren epistemischer Gehalt oft kaum einschätzbar ist (vgl. Grunwald 2013b). Die Narrative zur Nanotechnologie vor knapp zwanzig Jahren, der Synthetischen Biologie vor gut zehn Jahren und jetzt der Digitalisierung, insbesondere zur Künstlichen Intelligenz, sind aus genau diesem Grund voller divergierender Zukunftsbilder zwischen, emphatisch gesprochen, Erlösung und Apokalypse, Paradies und Untergang der Menschheit (vgl. Grunwald 2012b). Die allmählichen Verschiebungen, von denen oben gesprochen wurden, werden angesichts des unzureichenden Wissensstandes oft übereilt zu Großprognosen extrapoliert, in denen teils gar die Zukunft der Gattung Mensch in hellen oder düsteren Farben ausgemalt wird. Der Blick in Tageszeitungen und Fachzeitschriften, in Wissenschaftsmagazine und auf Beiträge in Fernsehen und Internet, auf Konferenzen und in Social Media zeigt diese Spannung an. Entsprechend ist in diesen Fragen der Auftrag von Hans Jonas (1979) an die Wissenschaften nicht oder kaum einlösbar, belastbares Wissen über die ›Fernwirkungen‹ der Digitalisierung zu gewinnen. Valides Folgenwissen mit der Möglichkeit konsequentialistischer Beurteilung mag es zu vielen Einzel- und Teilfragen der Digitalisierung geben, zu technischen Innovationen, Produkten, Dienstleistungen, Geschäftsmodellen und Regulierungsoptionen. Für Digitalisierung als Prozess 126 Armin Grunwald jedoch, wie oben eingeführt, ist belastbares Wissen über langfristige Folgen allmählicher Verschiebungen kaum verfügbar. Zu vieles ist offen und zu viel spekulativ, zu viele mögliche Entwicklungen kreuzen sich in einer unbekannten Zukunft auf eine ebenso unbekannte Weise, sodass Zukunftswissen hier mehr oder weniger subjektive Glaubenssache bleiben muss. Die wissenschaftsimmanent naheliegende Schlussfolgerung, dass Ethik sich zurückhalten solle, bis besseres Wissen verfügbar ist (vgl. Nordmann 2007), verbietet sich angesichts der hohen Relevanz und teils Dringlichkeit derartiger Debatten in allen Bereichen der Gesellschaft. Hier ist orientierende Intervention gefragt, nicht vornehme Zurückhaltung. Darin jedenfalls sehe ich eine der Rollen von Philosophie und Ethik, deren Fachvertreter neben der Entwicklung des Fachs sich auch als öffentliche Intellektuelle engagieren sollten. Die teils sicher aktuell überhitzte Zukunftsdebatte zur Digitalisierung hat Vorgänger, aus denen Ethik aktuell lernen kann. Der Klassiker war die frühe Debatte zur Nanotechnologie mit ihren übersteigerten Erwartungen und Befürchtungen (vgl. z. B. Drexler 1986; Joy 2000; Grunwald 2007; Grunwald/Hocke-Bergler 2010). Aber auch die weltweiten Debatten zum Human Enhancement und zur Synthetischen Biologie hatten diese an die aktuelle Diskussion zur Digitalisierung als Prozess erinnernden Züge, wie folgendes Zitat zeigt: »Fifty years from now, synthetic biology will be as pervasive and transformative as is electronics today. And as with that technology, the applications and impacts are impossible to predict in the field’s nascent stages. Nevertheless, the decisions we make now will have enormous impact on the shape of this future« (Ilulissat Statement 2007: 2). Mehrere Lehren aus diesen kommunikativen Wellen wurden gezogen. Erstens ist die Warnung ernst zu nehmen, dass die Bewegung hin zu frühen Entwicklungsstadien nicht dazu führen darf, dass rein spekulative Zukünfte (vgl. Grunwald 2012b) zum Gegenstand erregter ethischer Debatten gemacht werden, wie dies in der Auseinandersetzung um die ›spekulative Nano-Ethik‹ deutlich wurde (vgl. Nordmann 2007; Grunwald 2010a). Zweitens wurde klar, dass das Collingridge- Dilemma überspitzt ist. Die Frage, ob Ethik früh oder spät, prospektiv oder erst im Fall belastbarer Folgenaussagen einsetzen sollte, erscheint als falsche Alternative (vgl. Grunwald 2008). Denn es geht hier nicht um ein Entweder/Oder, sondern um eine Differenzierung ethischer Reflexion nach Problemstellung und Validität verfügbaren Folgenwissens. Drittens dienen frühe ethische Überlegungen zu allmählichen Verschiebungen eher der konzeptionellen Verständigung und Aufklärung dessen, worum es dabei in normativer Hinsicht geht, der Sensibilisierung für mögliche Fehlentwicklungen und der Herausbildung adäquater Begrifflichkeiten und ethischer Alternativen, weniger jedoch der direkten Mitwirkung an der Gestaltung etwa politischer oder unternehmerischer Maßnahmen. Entsprechend ist die Befassung mit allmählichen Verschiebungen im Rahmen der Digitalisierung der Angewandten Ethik methodisch vorgelagert. Sie kann als explorative Philosophie bezeichnet werden (vgl. Grunwald 2010b), die sich technikphilosophisch, anthropologisch und gesellschaftstheoretisch mit den teils spekulativen Einschätzungen dieser Entwicklungen sowie möglichen Folgen für Mensch und Gesellschaft widmet, um kommende Debatten in begrifflicher, kon- Digitalisierung als Prozess 127 zfwu, 20/2 (2019) zeptioneller und methodischer Hinsicht vorzubereiten. Sie soll den Boden für Angewandte Ethik und Technikfolgenabschätzung zu den dann konkreter werdenden Entwicklungen bereiten. Diesem Zweck dient auch die im Folgenden vorgenommene Exploration von Ursprüngen für Themenfelder einer zukünftigen Ethik der Digitalisierung auf Basis der Beobachtung allmählicher Verschiebungen, wie sie sich heute darstellen. Analog zur hermeneutischen Erweiterung der Technikfolgenabschätzung (vgl. Grunwald/Hubig 2018) steht die Exploration derjenigen Quellen technik-, sozial- und wirtschaftsethischer Fragen und Themen im Vordergrund, die mit allmählichen Verschiebungen in Gesellschaft und im Mensch/Technik-Verhältnis korrelieren (siehe auch Abschnitt 3). Dieser Fokus ermöglicht auch die Einlösung der oben genannten Zielsetzung, Fragen der oft eher spekulativen öffentlichen Debatte zu rekonstruieren, zu reflektieren und damit in diese Debatte als öffentliche Intellektuelle zu intervenieren. Denn die dort geäußerten Sorgen sind oft von der Frage motiviert, wohin das denn noch hinführen soll, worin aktuelle Trends und Verschiebungen in eine ungewisse Zukunft hinein verlängert werden. Der Fokus auf allmähliche Entwicklungen und dazu geäußerte Sorgen als mögliche Ursprünge ethischer Fragen in Analogie zu den schleichenden Umwelteffekten bei Jonas bringt drei besondere Herausforderungen mit sich. Erstens sind allmähliche Verschiebungen oft nur schwer aufzudecken. Es besteht das Risiko erst später Entdeckung, so dass möglicherweise schon nur noch schwer beeinflussbare Pfadabhängigkeiten eingetreten sind, schlimmstenfalls ein Point of no Return überschritten wurde. Zweitens sind sie, selbst wenn sie zweifelsfrei beobachtet werden können, nicht umstandslos in die Zukunft extrapolierbar. Genau das wird jedoch häufig gemacht, sowohl in Bezug auf weitreichende Hoffnungen als auch Befürchtungen (vgl. z. B. Mainzer 2016; Precht 2018). Auf diese Weise entstehen die weitreichenden Erzählungen sowohl der Visionäre als auch der Warner und sie haben Folgen für die Debatten, auch wenn die zugrundeliegenden Diagnosen und Extrapolationen epistemologisch kaum gesichert sind. Häufig ist sogar das Gegenteil mit sehr spekulativen Annahmen der Fall, was die Debattenwirkung meist nicht schmälert. Und drittens läuft eine Bewusstmachung möglicher ethisch bedenklicher Zukunftsentwicklungen anlässlich allmählicher Verschiebungen angesichts starker Gegenwartspräferenzen vieler Akteure in die bekannten Kommunikationsprobleme vorsorgeorientierter Analyse und Reflexion. Auch der Klimawandel ist ein allmähliches Phänomen. Die Kombination normativer mit hoher epistemischer Unsicherheit macht Fragestellungen dieses Typs anfällig für Ideologie und Spekulation. Daher ist dieser Problemtyp in der Angewandten Ethik nicht unbedingt gern gesehen. Dennoch gehört es zur gesellschaftlichen Verantwortung von Ethikern und Philosophen, sich diesen Fragen zu stellen und Präzisierungen der Fragen, begriffliche und epistemische Klärungen oder tentative Antworten in die öffentliche Debatte einzubringen. Die hermeneutische Sicht als Reflexion auf gegenwärtig beobachtbare Verschiebungen und aktuelle Erzählungen über mögliche Zukünfte (vgl. Grunwald 2012b) verbleibt in der Immanenz der Gegenwart (vgl. Grunwald 2007). Sie verweigert sich der Versuchung langfristiger Extrapolation, die in der Modalform der Mög- 128 Armin Grunwald lichkeit verbleibt, wobei auch Aussagen zur Möglichkeit grundsätzlich nur gegenwärtige Aussagen sein können. Die Sensibilisierung in Bezug auf ethische Fragen allmählicher Verschiebungen soll gerade dazu beitragen, die aktuellen Entwicklungen und Narrative in den ebenso aktuellen technischen und ökonomischen Bedingungen und Möglichkeiten in den Blick zu nehmen und sie im Hinblick auf mögliche Zukünfte und deren normative Implikationen zu reflektieren. Damit ist der Anspruch verbunden, das gestaltende Denken in Bezug auf die digitale Transformation in sein Recht zu setzen (dazu Abschnitt 4) und ihm Motivation und Orientierung zu geben. Es geht in der hermeneutischen Perspektive darum, nicht auf vermutete Endpunkte der digitalen Entwicklung zu schauen – diese bleiben im Dunkel der Zukunft verborgen –, sondern auf den Prozess und seine Mechanismen und Gestaltungsmöglichkeiten. Damit wird der verbreiteten Frage, wo denn die digitale Reise hingeht, die Frage an die Seite gestellt, wo sie hingehen soll. Die prognostische Sicht auf Zukunft wird ergänzt, vielleicht gelegentlich sogar ersetzt durch die normative Sicht des Wollens und Sollens. Allmähliche Veränderungen im Prozess der Digitalisierung Die folgende thematische Erkundung basiert auf vielfältigen Anfragen und Positionen zu ethischen Fragen der Digitalisierung als Prozess, nicht unbedingt für Einzelfragen oder -technologien. Die identifizierten allmählichen Verschiebungen beziehen sich auf bereits heute bekannte Eigenschaften und Effekte der Digitalisierung bzw. auf Sorgen, Beobachtungen oder Befürchtungen, wie sie in der öffentlichen Debatte zur Digitalisierung immer wieder thematisiert werden (vgl. z. B. Grunwald 2019). Dabei lassen sich zwei häufig ineinander verflochtene Perspektiven unterscheiden, Verschiebungen in Mensch/Technik- und in gesellschaftlichen Konstellationen. Technikphilosophische Konstellationen werden durch die Digitalisierung als überwölbenden Transformationsprozess moderner Gesellschaften herausgefordert, fragwürdig oder gar obsolet. Diese Verschiebungen sind nicht a priori von ethischem Interesse, stellen aber eine Quelle vielfältiger normativer Unsicherheiten dar, auf die Technik- und Wirtschaftsethik Antworten bzw. Antwortangebote entwickeln sollen. Die Digitalisierung verändert ebenfalls teils schleichend, teils rasch soziale Gefüge, Hierarchien, Geschäftsmodelle, Wertmaßstäbe, Arbeitswelt, Kommunikationsverhalten, Politik und Öffentlichkeit. Diese Verschiebungen hängen teils direkt, teils indirekt mit Verschiebungen in Mensch/ Technik-Schnittstellen zusammen. Ihre ethische Relevanz ist meist unmittelbar erkennbar. Datafizierung aller Lebensbereiche Daten bilden das Rohmaterial der Digitalisierung (siehe Abschnitt 1) und sind insbesondere Ausgangspunkt für Geschäftsmodelle und Wertschöpfung in der digitalen Ökonomie. Die Datafizierung nahezu aller Lebens- und Wirtschaftsbereiche (vgl. Filipovic 2015) ermöglicht eine Fülle neuer Erkenntnisse durch Mustererkennung in großen Datenmengen mit schnellen Algorithmen, auch und gerade durch 3. 3.1 Digitalisierung als Prozess 129 zfwu, 20/2 (2019) Verschneidung komplexer Datensätze. Dadurch ist so etwas wie ein neues Erkenntnisorgan technisch etabliert worden. Im Gesamtrahmen der Digitalisierung als Prozess sind einige der damit zusammenhängenden allmählichen Verschiebungen und involvierte ethische Herausforderungen bereits längere Zeit in der Diskussion, andere zeigen sich erst nach und nach oder sind eher im Stadium der reinen Sorge. An dieser Stelle kann nur ein kurzer Blick auf die Menge der Herausforderungen geworfen werden. Die erste Frage richtet sich auf die Erkenntnisart der Mustererkennung durch Big Data Algorithmen. Hier springt zunächst ins Auge, dass auf diesem Weg ausschließlich Korrelationen gefunden werden können. Ob hinter den Korrelationen Kausalverhältnisse stehen, ist auf diesem Weg nicht erkennbar. Das Ideal in Erkenntnis und darauf basierendem Handeln in Politik und Wirtschaft ist jedoch mit gutem Grund Kausalität, wie schwierig sie auch immer nachzuweisen ist. Ob eine datengetriebene Wissenschaft zu einer Wissenschaft von Korrelationen wird, in denen der Kausalitätsanspruch an Bedeutung verliert, ist eine offene Frage. Ethisch relevant ist, ob und inwiefern auf reiner Korrelation basierende Erkenntnis als handlungsleitend anerkennt werden darf. Daten entstammen zweitens ausschließlich der Vergangenheit, in der sie gesammelt wurden (vgl. Grunwald 2019). Wenn Entscheidungsprozesse rein datengetrieben wären, könnten sie sich nur auf Daten und Korrelationen aus der Vergangenheit beziehen. Auch Datenprofile von Konsumenten bilden nur die Vergangenheit entsprechender Konsumprozesse ab. Die Digitalisierung bzw. einige ihrer Bereiche könnten auf diese Weise konservativ werden, indem sie Zukunftsgestaltung nicht an neuen Ideen, sondern an alten Daten ausrichten. Angesichts der Bestimmung des Menschen als Wesen mit Zukunft, die nicht nur Verlängerung der Vergangenheit, sondern auch kreative Neuschöpfung im offenen Raum vieler Möglichkeiten sein kann, sogar mit kontrafaktischen und utopischem Charakter, kann es hier zu einer ethisch relevanten Engführung kommen. Drittens ist, und das ist ein Dauerthema der Digitalisierung seit Langem, an Privatheit und Datenschutz zu erinnern. Obwohl es regelmäßig zu Datenskandalen kommt und entsprechend eine gewisse Besorgnis herrscht, erscheint die Datenfreigiebigkeit der Nutzer digitaler Dienstleistungen bislang äußerst großzügig. Der in der digitalen Welt ermöglichte Komfort obsiegt über Befürchtungen von Überwachung, Manipulation und Kontrolle. Selbst perfide Argumentation wird ungerührt verbreitet. So etwa, dass nur diejenigen, die etwas zu verbergen haben, Wert auf Privatheit legen, oder dass nur die, die mit Schwarzgeld wirtschaften, etwas gegen die Abschaffung von Bargeld haben könnten: das Recht auf informationelle Selbstbestimmung als eine Angelegenheit von Kriminellen. Hier liegt vielleicht weniger ethische Relevanz vor, sondern vielmehr sind moralpsychologische Fragen nach den Gründen dieser Einstellungen zu klären. Viertens ist an das Phänomen der Monopolbildung der Datenkonzerne zu erinnern (vgl. Rolf 2014). Die Entstehung von Monopolen korreliert mit der Natur der Digitalisierung und ihrem Datenhunger: wer früh am Markt ist, kann mit Dienstleistungen viele Daten sammeln und dadurch seine Dienstleistungen weiter verbessern. Die Konkurrenz ist immer im Hintertreffen. Wie diesem monopolbil- 130 Armin Grunwald denden Mechanismus (die Konzerne des Silicon Valley bieten hier bestes Anschauungsmaterial) wirtschaftspolitisch begegnet werden kann, ist angesichts des Fehlens einer regulatorischen Instanz auf der globalen Ebene eine offene Frage. Immerhin ist in den letzten Jahren das Selbstbewusstsein europäischer Behörden und Gerichte gestiegen, zumindest im europäischen Umfeld die eigenen Standards gegen global operierende Konzerne durchzusetzen. Fünftens ist an die über Daten erfolgende Möglichkeit der Diskriminierung zu erinnern. Die Unterscheidung von gerechtfertigten Unterschieden in der Behandlung von Einzelpersonen auf der Basis gemachter Erfahrung und ethisch nicht legitimierter Diskriminierung ganzer Personengruppen etwa dadurch, dass sie unter Generalverdacht gestellt werden, ist hierfür zentral, gleichwohl ethisch wie methodisch schwer zu operationalisieren. Entsprechend ist zu erwarten, dass der Ausbalancierung von Gleichbehandlungsgebot und Diskriminierungsverbot auf der einen und gegenläufiger empirischer Datenlage auf der anderen Seite in den nächsten Jahren erhebliche Bedeutung zukommen wird. Sechstens ist an das Phänomen der Filterblasen zu denken. Individualität steht in der Wertschätzung der Moderne weit oben. Digitale Technologien unterstützen die weitere Individualisierung. Jeder Einzelne kann über das Internet globale Netzwerke schaffen, mit Hilfe von Suchmaschinen mühelos Gleichgesinnte oder an gleichen Themen Interessierte finden, Informationen oder auch nur Befindlichkeiten austauschen, seine Arbeit organisieren, für Themen sensibilisieren und mobilisieren, individuell zugeschnittene Dienstleistungen beziehen und vieles mehr (vgl. Grunwald 2019). Allerdings entstehen in der digitalen Welt geschlossene Bereiche um jedes Individuum herum. Algorithmen wachen darüber, dass die Individuen nichts erreicht, was nicht zu ihren Profilen passt. Das jeweils andere, das möglicherweise Überraschende und vorgefasste Meinungen Irritierende, das Fremde und das Neue würde von der Software weggefiltert. Das wäre jedoch keine Individualität (vgl. Simmel 1980; Frank 1986; Grunwald 2017), sondern nichts weiter als die Bestätigung und damit Konservierung vorgefasster Meinungen und Einstellungen. Individualität ist jedoch kein Zustand, sondern lebenslanger Entwicklungs- und Lernprozess, der Anregungen von außen benötigt. Schließlich ist siebtens an die politische Dimension dieser Entwicklungen zu denken. Demokratie, insbesondere die deliberative Demokratie (vgl. Habermas 1992) speist sich aus der lebendigen und engagierten Wechselwirkung autonomer Individuen. Wenn hier über Filterblasen oder andere Instrumente Manipulation droht, dann ist eine der Bedingungen der Möglichkeit der Demokratie bedroht. Das ist kein eigentlich ethisches Problem, denn Manipulation ist ethisch grundsätzlich verwerflich. Allerdings gehört es zu den Aufgaben der Ethik, mit auf den Erhalt und die Entwicklung der Bedingungen ihrer Möglichkeit zu achten. Normierung menschlichen Handelns Nach dem gängigen Verständnis sollen Technik und darauf aufbauende Dienstleistungen menschlichen Wünschen folgen, Bedürfnisse befriedigen und Probleme lösen. Dadurch soll die Optionenvielfalt menschlichen Handelns erweitert und die 3.2 Digitalisierung als Prozess 131 zfwu, 20/2 (2019) Emanzipation des Menschen befördert werden, so die Erzählungen seit der Aufklärung. Diese Perspektiven sind nicht falsch, umfassen jedoch nur die halbe Wahrheit. Denn während Technik auf der einen Seite in der Tat menschliche Handlungsoptionen erweitert, erzeugt sie auf der anderen Seite Anpassungsnotwendigkeiten bis hin zum Zwang. Damit Technik die erwarteten Leistungen erbringt, müssen Menschen so handeln, wie die Technik es von ihnen erwartet bzw. wie es von den Gestaltern der Technik festgelegt wurde. Technische Systeme strukturieren und regulieren menschliches Handeln, etwa durch Bedienungsanleitungen, Vorschriften und Benutzeroberflächen. Das ›Technik-Paradox‹ (vgl. Grunwald 2019) besagt, dass die Gewinnung neuer Freiheiten und Möglichkeiten durch Technik untrennbar mit Anpassungsleistungen an Technik erkauft wird. In vielen Feldern ist dies ethisch unproblematisch, etwa in der Nutzung eines Spatens mit den dafür notwendigen körperlichen Bewegungen oder in der Bedienung einer Waschmaschine gemäß der Bedienungsanleitung. Digitale Technik ändert jedoch subtil menschliches Handeln und Verhalten, möglicherweise ohne dass dies bemerkt wird. Die Debatte um ›Software als Institution‹ (vgl. Orwat et al. 2010) hat jedoch darauf aufmerksam gemacht, dass Software eine regulierende Kraft ausüben kann. Softwaresysteme beinhalten vielfach explizit oder implizit gesellschaftliche Regelsysteme und steuern Verhalten, sei es in Form von Regelungen von Transaktionen und Koordination oder von Zugangs- und Nutzungsrechten. So strukturieren privat geführte digitale Infrastrukturen die politische Kommunikation, sortieren Suchmaschinen mit von privaten Firmen wie Google entworfenen Algorithmen die Welt durch die von ihnen gesetzten Filter und Online- Plattformen strukturieren Geschäftsprozesse und das Crowd-Sourcing vor. In der entstehenden Arbeitswelt der Industrie 4.0 stellen sich Fragen, ob und wie sich Menschen anpassen müssen, um gelingende Kooperation mit Robotern zu ermöglichen, ähnlich beim autonomen Fahren im Mischverkehr. Die Ethik-Kommission autonomes und vernetztes Fahren (2017: 13) hat dazu empfohlen: »Um eine effiziente, zuverlässige und sichere Kommunikation zwischen Mensch und Maschine zu ermöglichen und Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden.« Dahinter steht die Befürchtung, dass technisches Denken, vermittelt über fortschreitende Digitalisierung, menschliches Handeln allmählich nach den Anforderungen technischer Systeme und technischer Kommunikation reguliert und immer stärker normiert werden könnte. Die Technisierung des Menschen (vgl. Grunwald/Julliard 2007) in der Digitalisierung als Prozess könnte, da sie allmählich und schleichend erfolgt, dazu führen, dass dies entweder gar nicht bemerkt oder angesichts des gesellschaftlichen Drucks in Richtung auf Anpassung an die Digitalisierung kritiklos hingenommen wird. Im Bemühen um menschliche Autonomie und Wahlfreiheit käme es auf diese Weise zum Gegenteil, nämlich zur schleichenden Normierung menschlichen Handelns und Eingrenzung der Freiheiten. Diese Sorge findet sich zurzeit vor allem in Debatten zum autonomen Fahren. Für autonome Fahrzeuge wird vor allem das Sicherheitsargument angeführt. Der weitaus größte Anteil der Unfälle und Verkehrsopfer geht auf das Konto unange- 132 Armin Grunwald messenen menschlichen Fahrens und expliziter Regelverstöße. Der Bordcomputer würde sich strikt an Regeln wie z. B. Geschwindigkeitsbegrenzungen halten. Im Rahmen eines ›Schiefe-Ebene-Arguments‹ wird befürchtet, dass mit dem Argument der Sicherheit menschliche Freiheit letztlich komplett ausgehebelt werden könnte. Auch dazu gibt es eine Stellungnahme der Ethik-Kommission: »Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen. (…) Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt« (Ethik-Kommission autonomes und vernetztes Fahren 2017: 20; Hervorhebung A. G.). Die Diskussion um eine vernünftige Balance zwischen Freiheit und Sicherheit geht freilich weit über das autonome Fahren hinaus und betrifft insbesondere auch die Frage der Überwachung im privaten und öffentlichen Bereich unter Sicherheitsargumenten. Sie wird eine der großen Fragen in der weiteren Ausgestaltung der Digitalisierung bleiben. Zunehmende Abhängigkeit bis zum Kontrollverlust Moderne Gesellschaften sind bereits heute auf Gedeih und Verderb vom reibungslosen Funktionieren kritischer Infrastrukturen abhängig. So kann das Internet nicht mehr abgestellt werden, ohne umgehend die Weltwirtschaft zu ruinieren. Während diese Infrastrukturen von Menschen aufgebaut werden, um menschlichen Zwecken zu dienen, verschiebt sich dieses Verhältnis jedoch allmählich: aufgrund steigender Abhängigkeit von der Technik müssen Menschen alles tun, um die Technik in gutem Zustand zu erhalten, also z. B. das Internet hegen und pflegen. Die Hegelsche Dialektik von Herr und Knecht manifestiert sich hier als schleichende Umkehrung von Abhängigkeiten. Während auf der einen Seite in der Tat die Optionenvielfalt steigt, verschwinden auf der anderen Seite unmerklich etablierte Optionen und machen neuen Abhängigkeit Platz. Die allmähliche Verdrängung des Bargelds ist ein aktuelles Beispiel. War zunächst der bargeldlose Zahlungsverkehr eine große Erleichterung für Wirtschaft und Privatleben und eine zusätzliche Option neben dem traditionellen Bargeld, wird letzteres allmählich verdrängt, teils durch Konsumentenverhalten, teils verstärkt durch Anreize und Regulierung aus Politik und Wirtschaft. Der Druck auf die noch verbliebenen Bargeldzahler steigt, sich ebenfalls umzustellen. Wenn sich schließlich der bargeldlose Zahlungsverkehr als einzige Option durchgesetzt haben sollte, wie dies in einigen Ländern bereits weitgehend der Fall ist, bleibt nur noch die Option, während die Wahlmöglichkeit verschwunden ist. Damit steigt die Angewiesenheit auf das Funktionieren der digitalen Abläufe (andere Probleme wie der Umgang mit den digitalen Daten gar nicht mit betrachtet, vgl. Abschnitt 3.1). Was erst eine zusätzliche Option war, wird dominant, schließlich zum Zwang mit der Kehrseite der Abhängigkeit. Zunehmende Abhängigkeit (in Bezug auf die Stromversorgung vgl. Petermann et al. 2011) wird bislang kaum als Problem wahrgenommen. Dabei gehört, auch wenn sie dort nicht explizit erwähnt wurde, Abhängigkeit in den Bereich der Diagnose von Hans Jonas (1979), dass die eigentlich dramatischen ethischen Heraus- 3.3 Digitalisierung als Prozess 133 zfwu, 20/2 (2019) forderungen moderner Technik ihrem reibungslosen Funktionieren geschuldet sind. Dieses Funktionieren, so etwa die extrem hohe Zuverlässigkeit der Stromversorgung und des Internet in westlichen Ländern, macht blind, die zunehmende Abhängigkeit von Technik noch bemerken zu können. Schwere Wirtschaftskrisen, technische Systemeffekte, ein Kollaps der staatlichen Ordnung oder Hacker- Angriffe sind jedoch nicht unmöglich. Ethisches Vorsorgedenken gebietet, die Abhängigkeiten zumindest bewusst zu machen und Strategien für digitale Blackouts zu entwickeln. Über die Normierung menschlichen Handelns durch digitale Technik hinaus (s. o.) kommen Fragen nach der Letztkontrolle auf. Die spontane Forderung, dass diese grundsätzlich bei Menschen liegen soll, klingt plausibel, führt aber rasch zu Zweifeln. Wenn der Bordcomputer eines Fahrzeugs am Fahrverhalten oder anderen Sensordaten bemerkt, dass der menschliche Fahrer übermüdet oder alkoholisiert ist, wäre es dann nicht ethisch geboten, ihm die Kontrolle zu entziehen (vgl. Brändle/Grunwald 2019)? Wenn der Bordcomputer aber entscheidet, ob der Fahrer fahrtüchtig ist, werden Algorithmen als Aufseher eingesetzt. Die Letztkontrolle durch Menschen gebunden an Voraussetzungen, deren Erfüllung der Algorithmus überprüft. Die Überwachung von Menschen in betrieblichen Kontexten führt auf ähnliche Fragen der Kontrolle: Wer entscheidet nach welchen Kriterien, ob und wann der Mensch die Letztkontrolle haben darf? Eine verbreitete Sorge zur Digitalisierung als Prozess ist, dass es zusätzlich zur Abhängigkeit allmählich zum Kontrollverlust von Menschen durch technische Systeme kommt. Sorgen eines allmählichen Kontrollverlusts betreffen insbesondere die Künstliche Intelligenz (KI). KI-Systeme können lernen, Elemente von Selbstorganisation ausprägen und ihre Eigenschaften in einer möglicherweise nicht vorherzusehenden Weise ändern. Damit verbunden kommt es zu Verschiebungen in den Subjekt- Objekt-Verhältnissen des Gestaltens. Ist im traditionellen Technikbegriff die Frage dahingehend eindeutig beantwortet, dass Menschen die Macher sind und Technik das Gemachte darstellt (Poser 2016), so kann KI-gestützte Technik allmählich selbst zum Macher oder zum Ko-Gestalter werden. Menschen stehen nicht länger einzelnen Geräten oder Maschinen gegenüber wie Subjekte zum Objekt, sondern werden zu Bestandteilen sozio-technischer Konstellationen, in der sie gelegentlich die Subjekt-, teils aber auch die Objektrolle innehaben. Weitreichende Projektionen des weiteren technischen Fortschritts in diesem Feld und die steigende Komplexität und Undurchschaubarkeit digitaler Systeme führt zur Sorge, dass es auf diese Weise zu einem schleichenden Kontrollverlust nicht nur bezogen auf einzelne Artefakte wie autonome Fahrzeuge, sondern generell kommen kann. Verantwortungsdiffusion In Kooperationsformen von Mensch und (digitaler) Technik werden Zuständigkeiten neu verteilt. Industrielle Produktion in der Industrie 4.0, autonomes Fahren und computer- oder robotergestütztes ärztliches Handeln sind Beispiele. Die öffentliche Debatte thematisiert immer wieder, welche Zuständigkeiten (um das Wort Verantwortung hier zu vermeiden) der Technik übertragen werden darf, kul- 3.4 134 Armin Grunwald minierend in der Frage, ob Bordcomputer im autonomen Fahrzeug oder militärische Drohnen über Leben und Tod entscheiden dürfen. Jedoch ist diese Redeweise anthropomorph und überträgt fehlleitende Konnotationen. Denn Algorithmen entscheiden nicht, sondern arbeiten Programme ab, die von Menschen erzeugt und zugelassen wurden. Einige soziologische Modelle sprechen zwar von verteilter Handlungsträgerschaft zwischen Mensch und Technik (vgl. Latour 2005; Rammert 2012) und mögen für bestimmte Beobachtungen durchaus einen Erklärungswert aufweisen. Sie können über Verantwortungszuschreibung im normativen Sinne jedoch nichts aussagen. Die Lokalisierung von Verantwortung wird allerdings im Rahmen der Digitalisierung zusehends komplex. Entscheidungen, z. B. über Leben und Tod, verbleiben zwar bei Menschen, jedoch auf eine über digitale Technik vermittelte Weise. Die damit verbundene Verantwortung wandert von den individuellen Autofahrern oder Soldaten zu Personen und Institutionen im Hintergrund, zu Firmen, Programmierern, Managern, Geheimdiensten, Generälen oder Regulierungsbehörden. Diejenigen Menschen tragen Verantwortung, die für Funktionsweise, Betrieb und Einstellung der autonomen Artefakte zuständig sind: »Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen« (Ethik-Kommission 2017: 11). Das erscheint als im Prinzip machbar, vor allem angesichts der vorliegenden Erfahrungen mit Verantwortungszuschreibung in komplexen und arbeitsteiligen Zusammenhängen, etwa in großen Unternehmen. Freilich wächst mit der Komplexität digital breiter zwischen Mensch und Technik verteilter Zuständigkeiten die Sorgfaltspflicht, diese komplexen Zuschreibungen explizit zu machen, um eine ›Verantwortungsdiffusion‹ ins Nichts zu vermeiden oder gar intentionaler Verantwortungsverschleierung Vorschub zu leisten. Gerade in digitalen Beratungsangeboten, so etwa bei Gesundheits-Apps, algorithmischer Rechtsberatung oder in Finanzgeschäften muss transparent bleiben, wem hier das Vertrauen entgegengebracht wird, worauf sich dieses gründet und wer welche Verantwortung trägt. Anderenfalls können allmählich undurchschaubare und zunehmend intransparente Konstellationen entstehen, welche die Bedingungen der Möglichkeit ethischer Reflexion untergraben würden. Beschleunigung bis hin zur Disruption Die Erhöhung der Rechengeschwindigkeit, die Möglichkeit, Millionen von Optionen in kürzester Zeit durchzurechnen, die Verknüpfung kreativer Ressourcen über das Internet und die Beschleunigung von Datentransfer und Kommunikation (siehe Abschnitt 1) verkürzen die Innovationszyklen. Seit einigen Jahren zieht die ›disruptive Innovation‹ Faszination und Attraktivität auf sich. Disruption meint Unterbrechung oder Abbruch. Disruptive Innovation ist das Gegenteil allmählicher Innovationsprozesse und denkt die digital ermöglichte Beschleunigung bis zum Äußersten. Bisherigen Produktlinien oder etablierten Marktpositionen droht 3.5 Digitalisierung als Prozess 135 zfwu, 20/2 (2019) das abrupte Aus, wenn digitalbasiert neue Geschäftsmodelle und Wertschöpfungsketten entstehen und sich rasch verbreiten. Die Sorge in vielen Unternehmen ist, dass Marktentwicklungen überraschend schnell verlaufen und unternehmerische Planungen obsolet werden lassen. Die Tendenz zur Beschleunigung ist Teil des kapitalistischen Wirtschaftssystems. Sie setzt Kreativität und Innovation frei. Allerdings kennt die klassische Wirtschaftstheorie auch zerstörerischen Wettbewerb. Die Beschleunigungsspirale ist nicht beliebig weit überdrehbar, sondern ist in Gefahr, die menschlichen und natürlichen Ressourcen zu übernutzen, aus denen sie sich speist. Eine der Sorgen in Bezug auf die Digitalisierung als Prozess bezieht sich gerade auf negative und möglicherweise ruinöse Folgen immer weiterer Beschleunigung. Insbesondere ist damit auch die Frage verbunden, ob und wann die Beschleunigung Bedingungen ethischer Reflexion unterminieren könnte. Zur ethischen Reflexion gehören das sorgfältige Bedenken und Beraten, das Abwägen von Alternativen, die Suche nach dem rechten Maß und ethisch legitimierten Kriterien. All dies benötigt in doppelter Weise Zeit: Zum einen beanspruchen die Beratungs- und Erwägungsprozesse selbst Zeit und sind nicht beliebig zu beschleunigen, zum anderen braucht es Zeit, ihre Ergebnisse in praktische Entscheidungen umzusetzen. Diese Beobachtung als Bedingung der Möglichkeit ethischer Reflexion ernstgenommen bedeutet, dass Beschleunigung nicht nur an mögliche Grenzen der Ressourcenverfügbarkeit und menschlicher Gewöhnung stößt, sondern auch an ethische Grenzen, insofern es zur Ethik gehört, sich um die Realisierung der Bedingungen ihrer Möglichkeit zu sorgen. Ein analoges Argument gilt auch für den Erhalt der Bedingungen der Möglichkeit von (insbesondere deliberativer) Demokratie (vgl. Grunwald 2019). Es ist berechtigt, der grenzenlosen Beschleunigungsrhetorik zu widersprechen, weil der Mensch als zoon politicon und als moralisches Lebewesen auf Nachdenken, Beratung und Dialog angewiesen ist. Angesichts der aktuellen Faszination um den Begriff der disruptiven Innovation ist eine weitere Sorge zu nennen. Die semantische Struktur der Disruption bringt es mit sich, dass über ihre Folgen im Vorhinein wenig oder nichts gewusst werden kann, da prospektives Wissen nur aufgrund von Kontinuitäten gewonnen werden kann. Disruptive Innovation ist jedoch begrifflich das ›ganz Andere‹ kontinuierlicher Innovationsverläufe. Komplett diskontinuierliche Vorgänge, wie dem Wortsinn nach Disruptionen, sind Sprünge in das komplett Unbekannte. Angesichts der Erfahrungen mit tiefgreifenden Ambivalenzen vieler Innovationen (vgl. Grunwald 2010a) ist es außerordentlich zweifelhaft, ob disruptive Innovation ein ethisch verantwortliches Modell für Zukunftsgestaltung sein kann. Auf jeden Fall verschärfen sich die bekannten Spannungen zwischen ethischem Beratungsbedarf und ökonomischem Wettbewerbsdruck weiter, mit Folgen für viele ethische Fragen der Digitalisierung. 136 Armin Grunwald Solidarität und Wettbewerb Die Digitalisierung findet nicht in einer nach Gerechtigkeitsmaßstäben idealen Welt statt, sondern inmitten einer kapitalistischen Wirtschaftsordnung, die auf globalen Wettbewerb setzt. Zwischen Leistungs-, Verteilungs- und Bedarfsgerechtigkeit muss ständig neu austariert werden. Dazu wurde in Deutschland ein ausgefeiltes System der Ausbalancierung in der Spannung von Solidarität und Liberalität mit Tarifparteien, Arbeitsverträgen und Regulierungen über Jahrzehnte entwickelt und implementiert. Die Globalisierung im Verein mit Liberalisierung und Deregulierung hat dieses System immer wieder stark herausgefordert. Während es sich bislang als in seinen Grundzügen stabil erwiesen hat, richten sich Sorgen auf den Fortgang der Digitalisierung. Befürchtet wird, dass hierbei die Durchsetzung von Solidarität durch Regulierung und Aushandlung immer schwieriger und am Ende unmöglich werden könnte, dass also am Ende eine rein liberalistische Wirtschaftsstruktur verbleiben könnte. Als Beispiel für diese Sorgen eignet sich das Konzept des Crowdsourcing (bzw. Crowdworking). Dabei werden Teilaufgaben in Projekten auf digitalen Plattformen über das Internet an freiwillig Mitwirkende ausgelagert (vgl. Börner et al. 2018). Teilnehmer können sich auf die Aufgaben bewerben und Leistungen für das jeweilige Projekt anbieten. Im Sinne der ›Schwarmintelligenz‹ wird erwartet, dass sich in der Menge der Angebote die kreativste Lösung für das jeweilige Problem finden lässt. Nur diese wird vergütet. Damit sollen Geschwindigkeit und Qualität von Innovationsprozessen gesteigert werden. Unternehmen gewinnen Flexibilität durch den Verzicht auf Arbeitsverträge. In der Crowd ohne Arbeitsvertrag, soziale Sicherungssysteme und Gewerkschaft zu arbeiten, bringt zwar auch für die Anbietenden Flexibilität und Freiheit, vor allem für agile junge Leute, die noch keine Verantwortung außer für sich selbst tragen, aber auch für kreative Köpfe in Schwellenländern durch neue Möglichkeiten, an der globalen Wertschöpfung zu partizipieren. Jedoch ist damit der Zwang verbunden, sich ohne die relative Sicherheit eines Arbeitsvertrags im globalen Wettbewerb zu behaupten. Über allmähliche Verschiebungen, so die Sorge, könnte das negative Zerrbild eines Kampfes aller gegen alle um Arbeit einkehren. Vertragliche Arbeitsmodelle und Solidarität könnten sich in der digitalen Arbeitswelt auflösen und die gesellschaftliche Stabilität gefährden (vgl. Kommission Sicherheit im Wandel 2019). Auf der Strecke können Sicherheit und Solidarität bleiben, auch Planungssicherheit etwa zur Familiengründung. Vielfach wären die Mitglieder der gesellschaftstragenden Mittelschicht besonders betroffen. Prognosen zur digital massiv veränderten Arbeitswelt gehen teils weit auseinander (vgl. Hirsch/Kreinsen et al. 2015; Börner et al. 2018). Ist zwar unklar, wie schnell und wie massiv die Digitalisierung als Jobvernichter fungieren wird, ist sie mit Sicherheit ein Jobwandler (vgl. Kommission für Sicherheit im Wandel 2019). Dabei verändern sich, wie das Beispiel des Crowdsourcing zeigt, nicht einfach Berufe und Berufsbilder, sondern es verändern sich grundlegend die Modelle und Konzepte des Arbeitens, damit auch Balancen zwischen Freiheit und Sicherheit oder zwischen Freiheit und Solidarität. Angesichts der Tatsache, dass moderne 3.6 Digitalisierung als Prozess 137 zfwu, 20/2 (2019) Gesellschaften Arbeitsgesellschaften sind, die über Arbeit stark die öffentlichen Einnahmen und die Sozialversicherungssysteme organisieren, sind Sorgen um den gesellschaftlichen Zusammenhalt verständlich (vgl. ebd.). Entsprechend ist Kreativität gefragt, neue und gerechte Modelle für die Digitalisierung der Arbeitswelt vorauszudenken und ethisch zu reflektieren. Die betrifft die globale Dimension angesichts der Begrenzungen nationaler Regulierung genauso wie die Sicherung der Finanzierung öffentlicher Haushalte und der Sozialsysteme. Technisierung im Menschenbild Die öffentliche Debatte zur Digitalisierung ist durchzogen von anthropologischen Elementen. Viele Akteure operieren mit als evident unterstellten Eigenschaften ›des‹ Menschen. Beispielsweise fokussieren Visionen einer digital vernetzten technischen Welt, die Menschen alle Wünsche von den Augen abliest und sie dann realisiert, auf Bequemlichkeit als zentrale menschliche Eigenschaft. Unsichtbar werdende digitale Technik (Ubiquitous Computing, vgl. Wiegerling 2013) verspricht das vollkommene Glück im Schlaraffenland eines zukünftigen Smart Home. Sicher spielt Bequemlichkeit eine Rolle in der Akzeptanz neuer Technik. Interessant ist jedoch, dass Bequemlichkeit hier implizit an die Spitze einer Hierarchie menschlicher Eigenschaften gesetzt wird. Andere Erzählungen projizieren erwünschte menschliche Eigenschaften auf digitale Technik. Erzählungen von Robotern als ›Artificial Companions‹ (vgl. Böhle/ Bopp 2014; Grunwald 2016) sind voll von Erwartungen an Roboter, die bisher eher auf entweder gute Freunde oder menschliche Dienstleister projiziert wurden. Roboter werden als ›bessere Menschen‹ beworben. Analog werden in Visionen eines Ersatzes von Politik durch Algorithmen Politiker als egoistisch, subjektiv, machtzentriert, nachtragend, ungerecht und anfällig für Korruption betrachtet (vgl. Pellissier 2018), Algorithmen hingegen als objektiv, gerecht und fair. Sie würden interessens- und emotionslos das tun, was ihnen einprogrammiert wurde: auf optimale Weise für Sicherheit, Wohlstand und Gesundheit sorgen (vgl. zur Kritik Grunwald 2019). In der Debatte zum autonomen Fahren wird analog immer wieder der Mensch als entscheidender Störfaktor im Straßenverkehr bezeichnet, der sich auf die Rolle als zu transportierendes Frachtgut zurückziehen solle, während der Algorithmus als idealer Autofahrer stilisiert wird. Angesichts immer leistungsfähigerer digitaler und autonomer Technik nehmen Menschen sich stärker als defizitäre Wesen gegenüber technisch perfektionierten Welten wahr, wobei Post- und Transhumanismus (vgl. Hurlbut/Samuelson 2016) nur die Extreme sind. Diese Sorgen betreffen vor allem die weitere Entwicklung des Arbeitsmarktes (vgl. Börner et al. 2018) angesichts vieler Erzählungen einer letztendlichen Unterlegenheit des Menschen (vgl. Grunwald 2019). Sie korrelieren mit einer Technisierung des Menschenbilds (vgl. Grunwald/Julliard 2007), nach dem Menschen in als Satz technisch modellierbarer Leistungsparameter und der Mechanismen ihrer Realisierung angesehen werden (vgl. Wolbring 2008). Wenn Menschen jedoch nicht nur für bestimmte (z. B. medizinische oder ergonomische) Zwecke als maschinelle Wesen modelliert werden, sondern naturalistisch als rein 3.7 138 Armin Grunwald technisch funktionierende Wesen verstanden werden, dann könnte es in der Tat nur eine Frage der Zeit und der Geschwindigkeit des technischen Fortschritts sein, bis Technik nicht nur in spezialisierten Funktionen wie Kopfrechnen oder Schachspielen, sondern in allem besser wäre. Ob eine solche Entwicklung ethische Herausforderungen birgt, sei hier dahingestellt. Dafür sind die Sorgen der allmählichen Technisierung des Menschenbilds zu spekulativ, und Gegenbewegungen sind denkbar. Aber gegenwartshermeneutisch ist es durchaus plausibel anzunehmen, dass die häufigen Erzählungen von der Unterlegenheit des Menschen und der Perfektionierung der digitalen Technik bereits heute reale Folgen haben (vgl. Grunwald 2007, 2016), Sorgen schüren und Unsicherheit säen, Druck erzeugen auf rasche digitale Bildung im Sinne einer vorauseilenden Anpassung an eine digitale Welt. Fatal wäre, wenn die Erzählungen der Unterlegenheit des Menschen dadurch einen selbsterfüllenden Charakter erhielten und auf diese Weise Gestaltungspotentiale verschütteten (siehe dazu Abschnitt 4). Gestaltung statt Technikdeterminismus Gegenwärtig dominiert in der öffentlichen Debatte der Eindruck einer eigendynamischen Entwicklung der Digitalisierung. Sie fahre wie ein Zug mit hoher Geschwindigkeit, den man weder aufhalten noch in seiner Richtung beeinflussen könne. Insbesondere Wirtschaftsvertreter sprechen gern von der Digitalisierung wie von einem unausweichlichen Naturereignis, etwa einem Tsunami oder einem Erdbeben. In dieser Perspektive bleibt der Gesellschaft und den Individuen nur die pure Anpassung. Diese Rhetorik operiert mit (vermeintlichen) Sachzwang-Argumenten und (ebenso vermeintlichen) Alternativlosigkeiten, wie etwa vor Jahrzehnten von den Befürwortern der Kernenergie. Wer technikdeterministisch die Digitalisierung als Naturgewalt ansieht, fragt nicht mehr nach den Akteuren hinter dem digitalen Fortschritt, ihren Werten und Interessen, nach Macht und Einfluss. Im Technikdeterminismus können diejenigen, die die Gestaltungsmacht haben, ihre Verantwortung auf anonyme Kräfte abschieben. Der Technikdeterminismus war in den 1970er und 1980er Jahren eine dominante Einstellung, in der von Mensch und Gesellschaft bloße Anpassung an den technischen Fortschritt erwartet wurde (vgl. Ropohl 1982). Er wurde durch sozialwissenschaftliche Forschung dekonstruiert (vgl. Bijker et al. 1987) und durch den Blick auf Technik als sozialen Prozess (vgl. Weingart 1989) mit Gestaltbarkeit abgelöst. Die Wiederkehr des Technikdeterminismus im Gewand des ›digitalen Determinismus‹ (vgl. Mainzer 2016) ist überraschend. Denn eine Einsicht des Sozialkonstruktivismus ist auch für die digitale Technik und ihre Nutzung evident: Technik und Innovationen müssen gemacht werden. Jede einzelne Zeile eines Programmcodes wird von Menschen geschrieben. Software läuft auf Hardware, die ebenfalls von Menschen angefertigt wird, bzw. von Maschinen, die von Menschen dafür entwickelt und programmiert wurden. Algorithmen, Roboter, digitale Dienstleistungen, Geschäftsmodelle für digitale Plattformen oder Einsatz- 4. Digitalisierung als Prozess 139 zfwu, 20/2 (2019) gebiete für Dienstleistungsroboter werden von Menschen erfunden, entworfen, hergestellt und eingesetzt. Die Software der Suchmaschinen, die Algorithmen der Big Data Technologien und die Social Media, sie alle sind von menschlichen Akteuren entworfen und umgesetzt. Diese Macher der Digitalisierung arbeiten in der Regel in Unternehmen, Institutionen oder Geheimdiensten. Sie verfolgen bestimmte Werte, haben Einschätzungen und Interessen, folgen einer Unternehmensstrategie, politischen Vorgaben, militärischen Erwägungen etc., die Einfluss auf ihre Entscheidungen nehmen. Wenn andere Akteure mit anderen Werten und Interessen gestalten oder auch nur mitgestalten könnten, könnte die Digitalisierung als Prozess in den betrachteten Bereichen einen anderen Lauf nehmen. Das Angebot an digitalen Dienstleistungen könnte in Richtung auf mehr Konsumentensouveränität erweitert werden, so dass Konsumenten und Nutzer Alternativen zur Verfügung hätten und nach ihren Werten und Präferenzen wählen könnten, wie dies in anderen Bereichen, etwa bei Lebensmitteln, längst der Fall ist. In diesem Gedankengang eröffnen sich eine ganze Reihe von Fragen der Art (vgl. Grunwald 2019): Welche Menschen, Unternehmen und Organisationen haben Einfluss darauf, wie die digitale Gesellschaft sich entwickelt? Nach welchen Interessen und Werten gestalten diese die digitale Zukunft? Welche Macht haben global handelnde Unternehmen aus dem Silicon Valley, Wirtschaftsverbände, Informatiker und die Geheimdienste? Haben die Nutzer von Internetdienstleistungen und Apps mit ihren vermutlich oft ganz anderen Werten und Interessen Mitsprachemöglichkeiten? Welche Gestaltungsmacht liegt bei den Nutzern? Haben Nutzer im digitalen Bereich überhaupt Wahlfreiheit und Konsumentensouveränität? Wo ist demokratische Gestaltung, wenn durch Software Anpassung erzwungen wird, von denen die ganze Gesellschaft betroffen ist (siehe auch Abschnitt 3.1)? Diese Fragen machen allein dadurch, dass sie gestellt werden, deutlich, dass es nicht die Digitalisierung bzw. nicht den einen Weg der Digitalisierung in die Zukunft gibt. Stattdessen ist die Zukunft der Digitalisierung ein Möglichkeitsraum voller Alternativen. Welche davon einmal real werden, ist nicht technisch determiniert, sondern hängt von vielen Entscheidungen auf den unterschiedlichsten Ebenen ab, in Unternehmen und Datenkonzernen, in Politik und Regulierung, in Märkten und Nutzerverhalten. Diese Entscheidungen wiederum haben evaluative und normative Seiten, zu denen Wirtschafts- und Unternehmensethik beitragen und damit den gestaltenden Blick auf die weitere Entwicklung digitaler Technologien zurückerobern können. Ethik hat dort ihren Platz, um in der vergleichenden Abwägung von Alternativen Prinzipien wie Menschen- und Bürgerrechten, Gerechtigkeit und Fairness, Privatheit und Inklusion Gehör zu verschaffen. Ganz analog wie in der Folge von Hans Jonas und vielen anderen die klassische techno-ökonomische Effizienzorientierung in Technik und Innovation um ökologische Aspekte erweitert wurde, steht es dringend an, die techno-ökonomische Ausrichtung der Digitalisierung um wirtschafts- und sozialethische Aspekte zu erweitern. 140 Armin Grunwald Das Instrumentarium steht bereit. In den letzten Jahrzehnten wurde eine Fülle von Ansätzen zur verantwortlichen Gestaltung von Technik und Innovation entwickelt. Hierzu gehören die Technikfolgenabschätzung (vgl. Rip et al. 1995; Decker et al. 2017), die vor allem im parlamentarischen Bereich und in der Politikberatung Anwendung findet (vgl. Grunwald 2010), die partizipative Technikfolgenabschätzung, welche Bürgerinnen und Bürger in die Gestaltung einbezieht, das Value Sensitive Design (vgl. van den Hoven et al. 2015) im Bereich der Informations- und Kommunikationstechnologien und der Ansatz des Responsible Research and Innovation (vgl. Owen et al. 2013; van den Hoven et al. 2014) in europäischen Forschungs- und Technologiepolitik. Epilog: Ethik zur Digitalisierung als Prozess Die Überlegungen zur Digitalisierung als Prozess (Abschnitt 1) haben gezeigt, dass sich viele der öffentlichen Sorgen auf allmähliche Verschiebungen zum Mensch/ Technik-Verhältnis oder zu gesellschaftlichen Relationen und ihren Verlängerungen in die Zukunft beziehen (Abschnitt 3). Die Digitalisierung wirft Fragen nach dem Selbstverständnis des Menschen, der Rolle von Individualität und Bequemlichkeit, nach Demokratie und Solidarität, nach Diskriminierung und Überwachung, nach Verantwortungsverteilung und Kontrolle auf. Hier liegen die Ursprünge vieler ethischer Fragen, wie sie sich dann anhand konkreter Fragen, Innovationen und Technologien zeigen. Das verbreitete Unbehagen an der Digitalisierung in der öffentlichen und insbesondere intellektuellen Debatte kontrastiert auf merkwürdige Weise mit dem meist schnellen und durchschlagenden Markterfolg neuer digitaler Angebote und Dienstleistungen. Hier könnte von einem gespaltenen öffentlichen Bewusstsein gesprochen werden: auf der einen Seite werden Komfort und Bequemlichkeit digitaler Applikationen fast blind geschätzt, andererseits werden Sorgen über die damit verbundenen Entwicklungen geäußert. Der Ursprung dieses Unbehagens liegt nach den vorgetragenen Überlegungen in der Kombination von zwei methodisch voneinander unabhängigen, in der Sache freilich verbundenen Einstellungen. Das Zusammenwirken (a) technikdeterministischer Muster (Abschnitt 4) mit (b) Extrapolationen allmählicher Verschiebungen in die Zukunft führt zu einem tiefgreifenden Unbehagen in Form von Fragen des Typs, wohin denn das alles führen solle und wer das noch beeinflussen könne. Die damit verbundene fatalistische Haltung stellt in Frage, ob hier überhaupt eine der Grundbedingungen der Möglichkeit einer Ethik zur Digitalisierung als Prozess erfüllt ist, nämlich das Vertrauen, diesen Prozess durch ethische Reflexion mitgestalten zu können. Ethik zur Digitalisierung als Prozess muss, wenn sie ihrer Aufgabe nicht nur als akademische Disziplin, sondern auch in der öffentlichen Debatte wahrnehmen will, dieses Unbehagen (Abschnitt 3) als Sorge und damit als Ressource verstehen: als Quelle notwendiger Sensibilisierung auf dem Weg in eine immer stärker digitalisierte Welt. Es besteht zunächst Aufklärungsbedarf in zwei Richtungen. Zunächst muss der ›digitale Determinismus‹ (vgl. Mainzer 2016) überwunden 5. Digitalisierung als Prozess 141 zfwu, 20/2 (2019) werden. Aus digitaltechnisch ermöglichten Potentialen wird nicht in determinierter Weise eine zukünftige Gegenwart, sondern hierüber befinden Entscheidungen auf den unterschiedlichsten Ebenen, die wertbehaftet und der ethischen Explikation und Kritik zugänglich sind (vgl. van de Poel 2009). Statt vorauseilender Anpassung an die vermeintlich eigendynamische Entwicklung der Digitalisierung geht es um ihre Gestaltung im Hinblick auf ein gesellschaftliches Wollen. In der Digitalisierung als Prozess müssen Mitgestaltungsmöglichkeiten eingefordert und umgesetzt werden. Beispielsweise ist die Ermöglichung von Konsumentensouveränität entgegen den heutigen Monopolstrukturen hierfür ein notwendiger Schritt. Des Weiteren ist Aufklärungsarbeit dahingehend zu leisten, dass Visionen und Extrapolationen Erzählungen in der Immanenz der Gegenwart sind, aber keine Tatsachen aus der Zukunft beschreiben (vgl. Luhmann 1990; Grunwald 2018). Ethik zur Digitalisierung als Prozess bedarf sodann des empirischen Wissens über die befürchteten allmählichen Veränderungen, um belastbare Klarheit jenseits der bloßen Spekulation zu ermöglichen. Auf der Basis dieser gegenwartsbezogenen Erkenntnisse müssen mögliche zukünftige Entwicklungen in den Blick genommen werden, um sodann folgenethisch (z. B. mit Jonas 1979) den Reflexionsprozess zu beginnen. Dabei sollte dem extrapolierenden Blick in die Zukunft der normative Blick gegenübergestellt werden, indem ethisch wünschenswerte digitale Zukünfte entwickelt und die Möglichkeiten ihrer Realisierung untersucht werden. Dazu ist Wissen über die Governance und die Faktoren der Beeinflussung der Digitalisierung als Prozess erforderlich. Angewandte Ethik zur Digitalisierung bedarf daher der Kooperation mit den empirischen Sozialwissenschaften, der Rechts- und Politikwissenschaft, der Psychologie und der Technikfolgenabschätzung. Die durch die Digitalisierung als Prozess erzeugten normativen Unsicherheiten hängen, jedenfalls was die in diesem Beitrag betrachteten allmählichen Verschiebungen betrifft, untrennbar mit empirischen Einschätzungen ihrer Relevanz, Ausprägung und Dramatik zusammen. Eine bloß appellative Ethik wird, darauf haben Soziologen oft hingewiesen (vgl. z. B. Luhmann 1989) ihren Auftrag nicht erfüllen können. Zwar ist es wichtig und richtig, einen ›digitalen Humanismus‹ (vgl. Nida-Rümelin/Weidenfeld 2018) oder ›digitale Mündigkeit‹ (vgl. Grunwald 2019) zu fordern – es darf aber mit der Forderung nicht sein Bewenden haben. Literaturverzeichnis Bijker, W./Hughes, T./Pinch, T. (Eds.) (1987): The Social Construction of Technological Systems. New Directions in the Sociology and History of Technological Systems. Cambridge (Mass.): Cambridge University Press. Böhle K./Bopp, K. (2014): What a Vision: The Artificial Companion – A Piece of Vision Assessment Including an Expert Survey, in: Science, Technology & Innovation Studies, Vol. 10/No. 1, 155–186. Börner, F./Kehl, C./Nierling, L. (2018): Chancen und Risiken mobiler und digitaler Kommunikation in der Arbeitswelt, Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Link: www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeits bericht-ab174.pdf (zuletzt abgerufen am 25.04.2019). 142 Armin Grunwald Bostrom, N. (2014): Superintelligenz. Szenarien einer kommenden Revolution, Frankfurt/Main: Suhrkamp. Brändle, C./Grunwald, A. (2019): Autonomes Fahren, in: Brendel. O. (Hrsg.): Handbuch Maschinenethik, Heidelberg: Springer (im Erscheinen). Collingridge, D. (1980): The Social Control of Technology, New York: Pinter. Decker, M./Weinberger, N./Krings, B.-J./Hirsch, J. (2017): Imagined Technology Futures in Demand-Oriented Technology Assessment, in: Journal of Responsible Innovation, Vol. 4/No. 2, 177–196. Drexler, K. E. (1986): Engines of Creation – The Coming Era of Nanotechnology, Doubleday: Anchor Books. Ethik-Kommission autonomes und vernetztes Fahren (2017): Endbericht. Link: https://www.b mvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publi cationFile (zuletzt abgerufen am 25.04.2019). Filipovic, A. (2015): Die Datafizierung der Welt. Eine ethische Vermessung des digitalen Wandels, in: Communicatio Socialis, Zeitschrift für Medienethik und Kommunikation in Kirche und Gesellschaft, Jg. 48/H. 1, 6–15. Frank, M. (1986): Die Unhintergehbarkeit von Individualität: Reflexionen über Subjekt, Person und Individuum aus Anlaß ihrer »postmodernen« Toterklärung, Frankfurt/Main: Suhrkamp. Gethmann, C. F./Sander, T. (1999): Rechtfertigungsdiskurse, in: Grunwald, A./Saupe, S. (Hrsg.): Ethik in der Technikgestaltung. Praktische Relevanz und Legitimation, Berlin: Springer, 117–151. Grunwald, A. (2007): Orientierungsbedarf, Zukunftswissen und Naturalismus. Das Beispiel der ›technischen Verbesserung‹ des Menschen, in: Deutsche Zeitschrift für Philosophie, Jg. 55/H. 6, 949–965. Grunwald, A. (2008): Auf dem Weg in eine nanotechnologische Zukunft. Philosophisch-ethische Fragen, Freiburg, München: Karl Alber. Grunwald, A. (2010a): Technikfolgenabschätzung. Eine Einführung, 2. Aufl., Baden-Baden: Nomos. Grunwald, A. (2010b): From Speculative Nanoethics to Explorative Philosophy of Nanotechnology, in: NanoEthics, Vol. 4/No. 2, 91–101. Grunwald, A. (2012a): Was ist ein moralisches Problem aus Sicht der Technikethik? In: Zichy, M./Ostheimer, J./Grimm, H. (Hrsg.): Was ist ein moralisches Problem? Zur Frage des Gegenstandes angewandter Ethik, Freiburg, München: Karl Alber, 412–435. Grunwald, A. (2012b): Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, Karlsruhe: KIT Scientific Publishing. Grunwald, A. (Hrsg.) (2013a): Handbuch Technikethik, Stuttgart: Metzler. Grunwald, A. (2013b): Der prekäre Status von Zukunftswissen zwischen hoher praktischer Relevanz und drohender Beliebigkeit, in: Banse, G./Hauser, R./Machleidt, P./Parodi, O. (Hrsg.): Von der Informations- zur Wissensgesellschaft, Berlin: Trafo, 343–360. Grunwald, A. (2016): The Hermeneutic Dimension of Responsible Research and Innovation, London: Wiley-ISTE. Grunwald, A. (2017): Abschied vom Individuum – werden wir zu Endgeräten eines global-digitalen Netzes? In: Burk, S./Hennig, M./Heurich, B. et al. (Hrsg.): Privatheit in der digitalen Gesellschaft, Berlin: Duncker & Humblodt, 35–48. Grunwald, A. (2018): Von Technikfolgenprognosen zur hermeneutischen Perspektive. Metamorphosen der Technikfolgenabschätzung, in: Friedrich, V. (Hrsg.): Technik denken. Philosophische Annäherungen, Stuttgart: Steiner, 83–94. Grunwald, A. (2019): Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, Robotern und Künstlicher Intelligenz, München: RIVA-Verlag. Grunwald, A./Hocke-Bergler (2010): The Risk Debate on Nanoparticles: Contribution to a Normalisation of the Science/Society Relationship? In: Kaiser, M./Kurath, M./Maasen, S./ Rehmann-Sutter, C. (Eds.): Governing Future Technologies. Nanotechnology and the Rise of an Assessment Regime, Dordrecht et al.: Elsevier, 157–177. Digitalisierung als Prozess 143 zfwu, 20/2 (2019) Grunwald, A./Hubig, C. (2018): Technikhermeneutik: ein kritischer Austausch zwischen Armin Grunwald und Christoph Hubig, in: Jahrbuch Technikphilosophie. Arbeit und Spiel, Baden-Baden: Nomos, 321–352. Grunwald, A./Julliard, Y. (2007): Nanotechnology – Steps Towards Understanding Human Beings as Technology? In: NanoEthics, Vol. 1/No. 2, 77–87. Habermas, J. (1992): Drei normative Modelle der Demokratie: Zum Begriff deliberativer Politik, in: Münkler, H. (Hrsg.): Die Chancen der Freiheit, München: Piper, 11–124. Hirsch-Kreinsen, H./Ittermann, P./Niehaus, J. (Hrsg.) (2015): Digitalisierung industrieller Arbeit. Die Vision Industrie 4.0 und ihre sozialen Herausforderungen, Baden-Baden: Nomos. Hofstetter, Y. (2016): Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt, Bielefeld: Bertelsmann. Hoven, J. van den/Doorn, N./Swierstra, T./Koops, B.-J./Romijn, H. (Eds.) (2014): Responsible Innovation 1 – Innovative Solutions for Global Issues, Dordrecht: Springer. Hoven, J. van den/Vermaas, P./ Poel, van de I. (Eds.) (2015): Handbook of Ethics, Values, and Technological Design, Dordrecht: Springer, 67–86. Hubig, C. (2007): Die Kunst des Möglichen II. Grundlinien einer dialektischen Philosophie der Technik, Bd. 2: Ethik der Technik als provisorische Moral, Bielefeld: transcript. Hurlbut, J. B./Tiroshi-Samuelson, H. (Eds.) (2016): Perfecting Human Futures. Transhuman Visions and Technological Imaginations, Wiesbaden: Springer. Ilulissat Statement (2007): Synthesizing the Future. A Vision for the Convergence of Synthetic Biology and Nanotechnology, Kavli Futures Symposium ›The Merging of Bio and Nano: Towards Cyborg Cells‹, June 11–15, 2007, Ilulissat, Greenland. Jonas, H. (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt/Main: Suhrkamp. Joy, B. (2000): Why the Future Does not Need Us, in: Wired Magazine, April 2000, 238–263. Kommission Sicherheit im Wandel (2019): Abschlussbericht: Gesellschaftlicher Zusammenhalt in Zeiten stürmischer Veränderungen, Berlin: Zentrum Liberale Moderne. Link: https://w ww.bwstiftung.de/uploads/tx_news/Abschlussbericht_Expertenkommission_Sicherheit_im _Wandel.pdf (zuletzt abgerufen am 30.04.2019). Kehl, C. (2018): Robotik und assistive Neurotechnologien in der Pflege – gesellschaftliche Herausforderungen, Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Link: www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsberichtab177.pdf (zuletzt abgerufen am 25.04.2019). Kolany-Raiser, B/Heil, R./Orwat, C./Hoeren, T. (Hrsg.) (2018): Big Data und Gesellschaft. Eine multidisziplinäre Annäherung, Wiesbaden: Springer VS. Latour, B. (2005): Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford: Oxford University Press. Luhmann, N. (1986): Ökologische Kommunikation. Kann die moderne Gesellschaft sich auf ökologische Gefährdungen einstellen? Opladen: Westdeutscher Verlag. Luhmann, N. (1990): Die Zukunft kann nicht beginnen: Temporalstrukturen der modernen Gesellschaft, in: Sloterdijk, P. (Hrsg.): Vor der Jahrtausendwende: Berichte zur Lage der Zukunft, Frankfurt/Main: Suhrkamp. Mainzer, K. (2016): Wann übernehmen die Maschinen? Heidelberg: Springer. Misselhorn, C. (2018): Grundfragen der Maschinenethik, Stuttgart: Reclam. Mittelstraß, J. (1991): Auf dem Wege zu einer Reparaturethik? In: Wils, J.-P./Mieth, D. (Hrsg.): Ethik ohne Chance? Erkundungen im technologischen Zeitalter, Tübingen: Mohr, 89–108. Moor, J./Weckert, J. (2004): Nanoethics: Assessing the Nanoscale from an Ethical Point of View, in: Baird, D./Nordmann, A./Schummer, J. (Eds.): Discovering the Nanoscale, Amsterdam: IOS Press, 301–310. Neugebauer, R. (Hrsg.) (2018): Digitalisierung. Schlüsseltechnologien für Wirtschaft und Gesellschaft, Heidelberg: Springer. 144 Armin Grunwald Nida-Rümelin, J. (Hrsg.) (2005): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, 2. Aufl., Stuttgart: Metzler. Nida-Rümelin, J./Weidenfeld, N. (2018): Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Edition Kindle. Nordmann, A. (2007): If and Then: A Critique of Speculative NanoEthics, in: Nanoethics, Vol. 1/No. 1, 31–46. Orwat, C./Raabe, O./Buchmann, E. (2010): Software als Institution und ihre Gestaltbarkeit, in: Informatik-Spektrum, H. 33, 626–633. Owen, R./Bessant, J./Heintz, M. (Eds.) (2013): Responsible Innovation: Managing the Responsible Emergence of Science and Innovation in Society, London: Wiley. Pellisser, H. (2013): Invent Utopia Now, Transhumanist Suggestions for the Pre-Singularity Era, Rakuten: Kobo. Petermann, T./Bradke, H./Lüllmann, A./Poetzsch, M./Riehm, U. (2011): What Happens During a Blackout. Consequences of a Prolonged and Wide-Ranging Power Outage, in: Technology Assessment Studies Series, Vol. 4, Norderstedt: Books on Demand. Poel, I. van den (2009): Values in Engineering Design, in: Meijers, A. (Ed.): Philosophy of Technology and Engineering Sciences, Vol. 9, Amsterdam: North Holland, 973–1006. Poser, H. (2016): Homo Creator. Technik als philosophische Herausforderung, Heidelberg: Springer. Precht, R. (2018): Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesellschaft, München: Goldmann. Rammert, W. (2012): Distributed Agency and Advanced Technology. Or: How to Analyze Constellations of Collective Inter-Agency, in: Passoth, J.-H./Peuker, B./Schillmeier, M. (Eds.): Agency Without Actors? New Approaches to Collective Action, London: Routledge, 89–112. Rip, A./Misa, T./Schot, J. (Eds.) (1995): Managing Technology in Society, London: Wiley. Rohbeck, J. (1993): Technologische Urteilskraft. Zu einer Ethik technischen Handelns, Frankfurt/Main: Suhrkamp. Rolf, A. (2014): Weltmacht Vereinigte Daten. Die Digitalisierung und Big Data verstehen, Marburg: Metropolis. Ropohl, G. (1982): Kritik des technologischen Determinismus, in: Rapp, F./Durbin, P. (Hrsg.): Technikphilosophie in der Diskussion, Braunschweig: Bibliographisches Institut, 3–18. Simmel, G. (1890): Über sociale Differenzierung. Link: www.deutschestextarchiv.de/book/sho w/simmel_differenzierung_1890 (zuletzt abgerufen am 25.04.2019). Weingart, P. (Hrsg.) (1989): Technik als sozialer Prozeß, Frankfurt/Main: Suhrkamp. Wiegerling, K. (2013): Ubiquitous Computing, in: Grunwald A. (Ed.): Handbuch Technikethik, Stuttgart: Metzler. Wolbring, G. (2008): Why NBIC? Why Human Performance Enhancement? In: The European Journal of Social Science Research, Vol. 21, 25–40. Digitalisierung als Prozess 145 zfwu, 20/2 (2019)

Abstract

The ongoing digitalization is currently the technology-driven development with the highest transformative potential for society and economy. Resulting ethical challenges affect almost all fields of human life. This paper focuses on the origins and roots of ethical challenges which arise from gradual shifts between humans, technology and society in the process of digitalization.

Zusammenfassung

Die Digitalisierung ist diejenige technikgetriebene Entwicklung mit dem zurzeit stärksten transformativen Potential für Wirtschaft und Gesellschaft. Ihre ethischen Fragen betreffen praktisch alle Handlungsfelder. Dieser Beitrag widmet sich Ursprüngen ethischer Herausforderungen, die sich aus allmählichen technikphilosophischen und gesellschaftlichen Verschiebungen im Rahmen der Digitalisierung als Prozess ergeben.

References
Bijker, W./Hughes, T./Pinch, T. (Eds.) (1987): The Social Construction of Tech-nological Systems. New Directions in the Sociology and History of Technologi-cal Systems. Cambridge (Mass.): Cambridge University Press.
Böhle K./Bopp, K. (2014): What a Vision: The Artificial Companion – A Piece of Vision Assessment Including an Expert Survey, in: Science, Technology & In-novation Studies, Vol. 10/No. 1, 155–186.
Börner, F./Kehl, C./Nierling, L. (2018): Chancen und Risiken mobiler und digita-ler Kommunikation in der Arbeitswelt, Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Link: www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht-ab174.pdf (zuletzt abgerufen am 25.04.2019).
Bostrom, N. (2014): Superintelligenz. Szenarien einer kommenden Revoluti-on, Frankfurt/Main: Suhrkamp.
Brändle, C./Grunwald, A. (2019): Autonomes Fahren, in: Brendel. O. (Hrsg.): Handbuch Maschinenethik, Heidelberg: Springer (im Erscheinen).
Collingridge, D. (1980): The Social Control of Technology, New York: Pinter.
Decker, M./Weinberger, N./Krings, B.-J./Hirsch, J. (2017): Imagined Technolo-gy Futures in Demand-Oriented Technology Assessment, in: Journal of Re-sponsible Innovation, Vol. 4/No. 2, 177–196.
Drexler, K. E. (1986): Engines of Creation – The Coming Era of Nanotechnolo-gy, Doubleday: Anchor Books.
Ethik-Kommission autonomes und vernetztes Fahren (2017): Endbericht. Link: https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publicationFile (zuletzt abgerufen am 25.04.2019).
Filipovic, A. (2015): Die Datafizierung der Welt. Eine ethische Vermessung des digitalen Wandels, in: Communicatio Socialis, Zeitschrift für Medienethik und Kommunikation in Kirche und Gesellschaft, Jg. 48/H. 1, 6–15.
Frank, M. (1986): Die Unhintergehbarkeit von Individualität: Reflexionen über Subjekt, Person und Individuum aus Anlaß ihrer »postmodernen« Toterklä-rung, Frankfurt/Main: Suhrkamp.
Gethmann, C. F./Sander, T. (1999): Rechtfertigungsdiskurse, in: Grunwald, A./Saupe, S. (Hrsg.): Ethik in der Technikgestaltung. Praktische Relevanz und Legitimation, Berlin: Springer, 117–151.
Grunwald, A. (2007): Orientierungsbedarf, Zukunftswissen und Naturalismus. Das Beispiel der ›technischen Verbesserung‹ des Menschen, in: Deutsche Zeitschrift für Philosophie, Jg. 55/H. 6, 949–965.
Grunwald, A. (2008): Auf dem Weg in eine nanotechnologische Zukunft. Phi-losophisch-ethische Fragen, Freiburg, München: Karl Alber.
Grunwald, A. (2010a): Technikfolgenabschätzung. Eine Einführung, 2. Aufl., Baden-Baden: Nomos.
Grunwald, A. (2010b): From Speculative Nanoethics to Explorative Philosophy of Nanotechnology, in: NanoEthics, Vol. 4/No. 2, 91–101.
Grunwald, A. (2012a): Was ist ein moralisches Problem aus Sicht der Techni-kethik? In: Zichy, M./Ostheimer, J./Grimm, H. (Hrsg.): Was ist ein moralisches Problem? Zur Frage des Gegenstandes angewandter Ethik, Freiburg, Mün-chen: Karl Alber, 412–435.
Grunwald, A. (2012b): Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, Karlsruhe: KIT Scientific Publishing.
Grunwald, A. (Hrsg.) (2013a): Handbuch Technikethik, Stuttgart: Metzler.
Grunwald, A. (2013b): Der prekäre Status von Zukunftswissen zwischen ho-her praktischer Relevanz und drohender Beliebigkeit, in: Banse, G./Hauser, R./Machleidt, P./Parodi, O. (Hrsg.): Von der Informations- zur Wissensgesell-schaft, Berlin: Trafo, 343–360.
Grunwald, A. (2016): The Hermeneutic Dimension of Responsible Research and Innovation, London: Wiley-ISTE.
Grunwald, A. (2017): Abschied vom Individuum – werden wir zu Endgeräten eines global-digitalen Netzes? In: Burk, S./Hennig, M./Heurich, B. et al. (Hrsg.): Privatheit in der digitalen Gesellschaft, Berlin: Duncker & Humblodt, 35–48.
Grunwald, A. (2018): Von Technikfolgenprognosen zur hermeneutischen Perspektive. Metamorphosen der Technikfolgenabschätzung, in: Friedrich, V. (Hrsg.): Technik denken. Philosophische Annäherungen, Stuttgart: Steiner, 83–94.
Grunwald, A. (2019): Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, Robotern und Künstlicher Intelligenz, Mün-chen: RIVA-Verlag.
Grunwald, A./Hocke-Bergler (2010): The Risk Debate on Nanoparticles: Con-tribution to a Normalisation of the Science/Society Relationship? In: Kaiser, M./Kurath, M./Maasen, S./Rehmann-Sutter, C. (Eds.): Governing Future Technologies. Nanotechnology and the Rise of an Assessment Regime, Dor-drecht et al.: Elsevier, 157–177.
Grunwald, A./Hubig, C. (2018): Technikhermeneutik: ein kritischer Austausch zwischen Armin Grunwald und Christoph Hubig, in: Jahrbuch Technikphiloso-phie. Arbeit und Spiel, Baden-Baden: Nomos, 321–352.
Grunwald, A./Julliard, Y. (2007): Nanotechnology – Steps Towards Under-standing Human Beings as Technology? In: NanoEthics, Vol. 1/No. 2, 77–87.
Habermas, J. (1992): Drei normative Modelle der Demokratie: Zum Begriff deliberativer Politik, in: Münkler, H. (Hrsg.): Die Chancen der Freiheit, Mün-chen: Piper, 11–124.
Hirsch-Kreinsen, H./Ittermann, P./Niehaus, J. (Hrsg.) (2015): Digitalisierung industrieller Arbeit. Die Vision Industrie 4.0 und ihre sozialen Herausforde-rungen, Baden-Baden: Nomos.
Hofstetter, Y. (2016): Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt, Bielefeld: Bertelsmann.
Hoven, J. van den/Doorn, N./Swierstra, T./Koops, B.-J./Romijn, H. (Eds.) (2014): Responsible Innovation 1 – Innovative Solutions for Global Issues, Dordrecht: Springer.
Hoven, J. van den/Vermaas, P./ Poel, van de I. (Eds.) (2015): Handbook of Ethics, Values, and Technological Design, Dordrecht: Springer, 67–86.
Hubig, C. (2007): Die Kunst des Möglichen II. Grundlinien einer dialektischen Philosophie der Technik, Bd. 2: Ethik der Technik als provisorische Moral, Bielefeld: transcript.
Hurlbut, J. B./Tiroshi-Samuelson, H. (Eds.) (2016): Perfecting Human Futures. Transhuman Visions and Technological Imaginations, Wiesbaden: Springer.
Ilulissat Statement (2007): Synthesizing the Future. A Vision for the Conver-gence of Synthetic Biology and Nanotechnology, Kavli Futures Symposium ›The Merging of Bio and Nano: Towards Cyborg Cells‹, June 11–15, 2007, Ilulis-sat, Greenland.
Jonas, H. (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die tech-nologische Zivilisation, Frankfurt/Main: Suhrkamp.
Joy, B. (2000): Why the Future Does not Need Us, in: Wired Magazine, April 2000, 238–263.
Kommission Sicherheit im Wandel (2019): Abschlussbericht: Gesellschaftlicher Zusammenhalt in Zeiten stürmischer Veränderungen, Berlin: Zentrum Libera-le Moderne. Link: https://www.bwstiftung.de/uploads/tx_news/Abschlussbericht_Expertenkommission_Sicherheit_im_Wandel.pdf (zuletzt abgerufen am 30.04.2019).
Kehl, C. (2018): Robotik und assistive Neurotechnologien in der Pflege – ge-sellschaftliche Herausforderungen, Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Link: www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht-ab177.pdf (zuletzt abgerufen am 25.04.2019).
Kolany-Raiser, B/Heil, R./Orwat, C./Hoeren, T. (Hrsg.) (2018): Big Data und Gesellschaft. Eine multidisziplinäre Annäherung, Wiesbaden: Springer VS.
Latour, B. (2005): Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford: Oxford University Press.
Luhmann, N. (1986): Ökologische Kommunikation. Kann die moderne Gesell-schaft sich auf ökologische Gefährdungen einstellen? Opladen: Westdeut-scher Verlag.
Luhmann, N. (1990): Die Zukunft kann nicht beginnen: Temporalstrukturen der modernen Gesellschaft, in: Sloterdijk, P. (Hrsg.): Vor der Jahrtausend-wende: Berichte zur Lage der Zukunft, Frankfurt/Main: Suhrkamp.
Mainzer, K. (2016): Wann übernehmen die Maschinen? Heidelberg: Springer.
Misselhorn, C. (2018): Grundfragen der Maschinenethik, Stuttgart: Reclam.
Mittelstraß, J. (1991): Auf dem Wege zu einer Reparaturethik? In: Wils, J.-P./Mieth, D. (Hrsg.): Ethik ohne Chance? Erkundungen im technologischen Zeitalter, Tübingen: Mohr, 89–108.
Moor, J./Weckert, J. (2004): Nanoethics: Assessing the Nanoscale from an Ethical Point of View, in: Baird, D./Nordmann, A./Schummer, J. (Eds.): Discov-ering the Nanoscale, Amsterdam: IOS Press, 301–310.
Neugebauer, R. (Hrsg.) (2018): Digitalisierung. Schlüsseltechnologien für Wirt-schaft und Gesellschaft, Heidelberg: Springer.
Nida-Rümelin, J. (Hrsg.) (2005): Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, 2. Aufl., Stuttgart: Metzler.
Nida-Rümelin, J./Weidenfeld, N. (2018): Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Edition Kindle.
Nordmann, A. (2007): If and Then: A Critique of Speculative NanoEthics, in: Nanoethics, Vol. 1/No. 1, 31–46.
Orwat, C./Raabe, O./Buchmann, E. (2010): Software als Institution und ihre Gestaltbarkeit, in: Informatik-Spektrum, H. 33, 626–633.
Owen, R./Bessant, J./Heintz, M. (Eds.) (2013): Responsible Innovation: Man-aging the Responsible Emergence of Science and Innovation in Society, Lon-don: Wiley.
Pellisser, H. (2013): Invent Utopia Now, Transhumanist Suggestions for the Pre-Singularity Era, Rakuten: Kobo.
Petermann, T./Bradke, H./Lüllmann, A./Poetzsch, M./Riehm, U. (2011): What Happens During a Blackout. Consequences of a Prolonged and Wide-Ranging Power Outage, in: Technology Assessment Studies Series, Vol. 4, Norder-stedt: Books on Demand.
Poel, I. van den (2009): Values in Engineering Design, in: Meijers, A. (Ed.): Philosophy of Technology and Engineering Sciences, Vol. 9, Amsterdam: North Holland, 973–1006.
Poser, H. (2016): Homo Creator. Technik als philosophische Herausforderung, Heidelberg: Springer.
Precht, R. (2018): Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesell-schaft, München: Goldmann.
Rammert, W. (2012): Distributed Agency and Advanced Technology. Or: How to Analyze Constellations of Collective Inter-Agency, in: Passoth, J.-H./Peuker, B./Schillmeier, M. (Eds.): Agency Without Actors? New Approa-ches to Collective Action, London: Routledge, 89–112.
Rip, A./Misa, T./Schot, J. (Eds.) (1995): Managing Technology in Society, Lon-don: Wiley.
Rohbeck, J. (1993): Technologische Urteilskraft. Zu einer Ethik technischen Handelns, Frankfurt/Main: Suhrkamp.
Rolf, A. (2014): Weltmacht Vereinigte Daten. Die Digitalisierung und Big Data verstehen, Marburg: Metropolis.
Ropohl, G. (1982): Kritik des technologischen Determinismus, in: Rapp, F./Durbin, P. (Hrsg.): Technikphilosophie in der Diskussion, Braunschweig: Bibliographisches Institut, 3–18.
Simmel, G. (1890): Über sociale Differenzierung. Link: www.deutschestextarchiv.de/book/show/simmel_differenzierung_1890 (zuletzt abgerufen am 25.04.2019).
Weingart, P. (Hrsg.) (1989): Technik als sozialer Prozeß, Frankfurt/Main: Suhrkamp.
Wiegerling, K. (2013): Ubiquitous Computing, in: Grunwald A. (Ed.): Handbuch Technikethik, Stuttgart: Metzler.
Wolbring, G. (2008): Why NBIC? Why Human Performance Enhancement? In: The European Journal of Social Science Research, Vol. 21, 25–40.

Abstract

zfwu is a scholarly journal. Through its interdisciplinary theoretical and practical orientation at the crossroads of economics and (practical) philosophy, it primarily provides the discipline as well as interested representatives of business, politics and other relevant institutions with a high level business and economic ethics discussion forum. The languages of publication are German and English.

Zusammenfassung

Die zfwu ist eine wissenschaftliche Fachzeitschrift. Durch ihre interdisziplinäre theoretische und praktische Ausrichtung an der Schnittstelle von Ökonomie und (praktischer) Philosophie stellt sie in erster Linie der Wissenschaft, aber auch interessierten Vertreterinnen und Vertretern von Wirtschaft, Politik sowie anderen relevanten Institutionen ein wirtschaftsethisches Diskussionsforum auf hohem Niveau zur Verfügung. Publikationssprachen sind Deutsch und Englisch.