Content

Alexander Friedrich, Petra Gehring, Christoph Hubig, Andreas Kaminski, Alfred Nordmann (Ed.)

Arbeit und Spiel

Jahrbuch Technikphilosophie 2018

1. Edition 2018, ISBN print: 978-3-8487-4279-0, ISBN online: 978-3-8452-8542-9, https://doi.org/10.5771/9783845285429

Bibliographic information
Jahrbuch [jtphil.nomos.de] Technikphilosophie Friedrich | Gehring | Hubig | Kaminski | Nordmann [Hrsg.] Arbeit und Spiel 2018 4. Jahrgang 2018 Jahrbuch Technikphilosophie 4. Jahrgang 2018 BUT_JB_Technikphilosophie_Friedrich_4279-0.indd 2 20.12.17 14:23 Arbeit und Spiel Alexander Friedrich | Petra Gehring | Christoph Hubig Andreas Kaminski | Alfred Nordmann [Hrsg.] Wissenschaftlicher Beirat: Dirk Baecker (Friedrichshafen), Cornelius Borck (Lübeck), Dominique Bourg (Lausanne/Schweiz), Gerhard Gamm (Darmstadt), Andreas Gelhard (Wien/ Österreich), Armin Grunwald (Karlsruhe), Mikael Hård (Darmstadt), Rafaela Hillerbrand (Karlsruhe), Erich Hörl (Lüneburg), Bernward Joerges (Berlin), Nicole C. Karafyllis (Braunschweig), Wolfgang König (Berlin), Peter A. Kroes (Delft/Niederlande), Carl Mitcham (Golden, CO/USA), Audun Øfsti (Trondheim/Norwegen), Claus Pias (Lüneburg), Michael M. Resch (Stuttg art), Günter Ropohl †(Frankfurt), Bernhard Siegert (Weimar), Dieter Sturma (Bonn), Guoyu Wang (Dalian/China), Jutta Weber (Paderborn) BUT_JB_Technikphilosophie_Friedrich_4279-0.indd 3 20.12.17 14:23 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d nb.de abrufbar. The Deutsche Nationalbibliothek lists this publication in the Deutsche Nationalbibliografie; detailed bibliographic data are available on the Internet at http://dnb.d nb.de ISBN 978 3 8487 4279 0 (Print) 978 3 8452 8542 9 (ePDF) British Library Cataloguing-in-Publication Data A catalogue record for this book is available from the British Library. ISBN 978 3 8487 4279 0 (Print) 978 3 8452 8542 9 (ePDF) Library of Congress Cataloging-in-Publication Data Friedrich, Alexander / Gehring, Petra / Hubig, Christoph / Kaminski, Andreas / Nordmann, Alfred Arbeit und Spiel. Jahrbuch Technikphilosophie 2018 Alexander Friedrich / Petra Gehring / Christoph Hubig / Andreas Kaminski / Alfred Nordmann (eds.) 376 p. Includes bibliographic references. ISBN 978 3 8487 4279 0 (Print) 978 3 8452 8542 9 (ePDF) Redaktion / Editorial Team: Suzana Alpsancar, Sabine Ammon, Rainer Becker, Hildrun Lampe Korrektorat / Copy Editors: Stefanie Cosgrove, Laura Grosser, Benjamin Müller, Anna Schütz, Tobias Surborg, Stefanie Theuerkauf, Sophia Trippe edition sigma in der Nomos Verlagsgesellschaft 1. Auflage 2018 © Nomos Verlagsgesellschaft, Baden Baden 2018. Gedruckt in Deutschland. Alle Rechte, auch die des Nachdrucks von Auszügen, der fotomecanischen Wiedergabe und der Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier. This work is subject to copyright. All rights reserved. No part of this publication may be repro duced or transmitted in any form or by any means, electronic or mechanical, including pho tocopying, recording, or any information storage or retrieval system, without prior permission in writing from the publishers. Under § 54 of the German Copyright Law where copies are made for other than private use a fee is payable to “Verwertungs gesellschaft Wort”, Munich. No responsibility for loss caused to any individual or organization acting on or refraining from action as a result of the material in this publication can be accepted by Nomos or the editors. Gefördert durch den VDI. / Supported by VDI. BUT_JB_Technikphilosophie_Friedrich_4279-0.indd 4 20.12.17 14:23 Editorial Spiel und Arbeit gelten als Gegensätze: Das Spiel als freie Betätigung menschlicher Vermögen, die Arbeit als deren Subordination unter einen äußeren Zweck. Die Festlegung des Spiels auf das Konsequenzlose und bloß Luxurierende hat ihm den Ruf des Unernsten eingetragen, während das Abzwecken der Arbeit auf die Nützlichkeit ihres Resultats im Bund mit der Sorge ums Dasein steht. In der Fortschreibung dieser beiden Linien hat man das Spiel wie die Arbeit mit den Begriffen homo ludens und homo faber zu verschiedenen Charakterisierungen der conditio humana nobilitiert. Auch in Bezug auf das in ihnen realisierte Verhältnis von Mittel und Zweck, so könnte argumentiert werden, scheinen beide Tätigkeiten auf den ersten Blick gut unterscheidbar: Ist in einem Arbeitsprozess der Zweck gesetzt, für den die geeigneten Mittel gesucht, eingesetzt und optimiert werden, so erlaubt das Spiel bei gegebenen Mitteln eine freie Suche, Variation und Erprobung möglicher, noch unbekannter Zwecke. Auf den zweiten Blick scheint der Gegensatz jedoch gerade in den entwickeltsten Ausprägungen beider Tätigkeitsformen zu verschwinden. So kann eine hochgradige Rationalisierung von Spielpraktiken in Arbeit umschlagen, wie etwa im Leistungsoder eSport. Oder ein komplexer Arbeitsvorgang kann selbstzweckhafte, explorative, gestalterische Momente und Eigendynamiken gewinnen, die ihm Spielcharakter verleihen. Auch ein hohes Maß an Verregelung, elaborierte Risikostrategien oder die Aussicht auf Verlust und Gewinn können beide Handlungsformen einander fast ununterscheidbar ähnlich werden lassen. Starke Rationalisierung oder hohe Komplexität von Regeln bedürfen wiederum oft elaborierter Techniken, um eine entsprechende Rationalität und Komplexität der fraglichen Prozessformen zu erlangen, zu sichern, zu befolgen, zu perfektionieren, zu unterlaufen oder zu modifizieren. Diese Techniken eröffnen ihrerseits neue Spielräume. Das mag gerade an der Spieltheorie, die selbst eine Entscheidungstechnik ist, und darauf beruhenden technischen Anwendungen wie etwa Finanzsimulationen oder leistungsbezogenen Anreizsystemen in kollaborativen Beschäftigungsverhältnissen besonders sinnfällig werden. Auch andere technologische Entwicklungen geben Anlass dazu, das Verhältnis von Spiel und Arbeit noch einmal grundsätzlich zu bedenken, etwa im Hinblick auf: adaptive Systeme in der Robotik, serious games, Kreativitätstechniken in Unternehmenskulturen, wissenschaftliche Experimentalanordnungen, Online-Rollenspiele oder die Kommodifizierung nicht-zweckrationaler Lebensvollzüge, die traditionell vom Begriff produktiver Arbeit ausgeschlossen waren. Die Beschaffenheit der jeweils zum Einsatz kommenden Mittel und Verfahren, 5 die Setzung, Variation oder Preisgabe von Zwecken sowie die Art der subjektiven oder kollektiven Bezugnahme auf die jeweiligen Tätigkeiten können den Charakter von Spiel und Arbeit sowie ihr Verhältnis zueinander bestimmen oder verändern. Dies ist umso mehr der Fall, als unter die Klasse potentieller Spieler und Arbeiter nun auch noch simulierte Akteure und Roboter zu zählen sind, die die Problematik mit Fragen wie »Können Computer wirklich spielen?« oder »Arbeiten Roboter tatsächlich?« eher noch verkomplizieren. Zu den im Laufe der letzten Jahre in dieser Hinsicht oft formulierten und diskutierten Diagnosen gehört die These, dass – infolge jüngster technologischer Entwicklungen – ›Spiel‹ und ›Arbeit‹ zunehmend einander vereinnahmen. Paradigmatisch für diese Entwicklung ist sicherlich die Debatte um die sogenannte Gamification, d.h. die Übertragung spieltypischer Elemente, Handlungsschemata und Mechanismen auf Arbeits- und Produktionszusammenhänge zum Zwecke einer effektiveren Motivierung zur Arbeit, damit die Ausbeutung von Arbeitskraft noch effizienter und die Mehrwertproduktion dafür umso fröhlicher werde. Entwicklungen dieser oder ähnlicher Art lassen sich als eine Korruption beider Bereiche bzw. Tätigkeitsformen verstehen, die letztlich auf eine Konvergenz von ›Spiel‹ und ›Arbeit‹ hinausläuft, sofern mit zunehmender Technisierung, Informatisierung und Kapitalisierung jegliches Spiel zugleich irgendeine Form von Mehrwertproduktion und jegliche Arbeit mehr und mehr Formen ihrer Ludifizierung aufweist – und sei es nur in Gestalt firmeninterner high scores oder quests. Der Umstand, dass der Ludifizierung von Arbeit bereits eine Verarbeitlichung des Spiels vorausgegangen ist, sofern die im Rahmen der Gamifizierung strategisch instrumentalisierten Spielelemente erst im Zuge der Industrialisierung des (digitalen) Spielemarktes entwickelt und ausdifferenziert worden sind, scheint die Konvergenzthese nur zu bestätigen. Der Konvergenzthese – und der damit verbundenen historischen Diagnose – lie- ßen sich jedoch andere entgegenstellen, etwa: (1) Die Differenz von Arbeit und Spiel ist per se unscharf, beide Bereiche überlappen sich immer schon; ein starker, gar ausschließlicher Gegensatz, und damit auch die These seiner Auflösung, ist nur eine ideologische Konstruktion, deren implizite Voraussetzungen freizulegen sind. (2) Es findet tatsächlich eine technisch-kulturell bedingte Konvergenz von Spiel und Arbeit statt, aber nicht erst seit kurzem, sondern viel länger schon; es lassen sich Beispiele und Befunde einer solchen Konvergenz bereits aus früheren Jahrzehnten und Jahrhunderten beibringen; wir haben es also mit keiner neuen Entwicklung zu tun.1 (3) Die scheinbar elementare Differenz von Spiel und Arbeit gründet in etwas Drittem, Gemeinsamen. Ein Wandel dieses beide Bereiche Umfassenden ist die ei- 1 In dem Zusammenhang ließe sich etwa auf Marx verweisen, demzufolge die durch den Kapitalismus freigesetzte Technisierung unfreie Lohnarbeit überflüssig mache; das Verhältnis zur Welt in Form von Arbeit und Kapital soll dadurch gleichsam in einen freien, spielerischen Umgang übergehen. Das Konzept einer rein libidinösen Arbeitsökonomie, in der sich »die größte Mühe in Spiel« verwandelt, wird in Fouriers Théorie des quatre mouvements (1808) bereits dezidiert 6 gentliche Ursache der beobachteten Veränderung. Es ist daher die Veränderung des noch genauer zu bestimmenden Dritten (›Technik‹, ›Ritual‹, o.a.) zu untersuchen. (4) Die Entwicklung neuer Technologien ermöglicht und forciert eine zunehmende gegenseitige Modifikation beider Bereiche, die zwar zu sehr neuartigen Gestalten spiel- und arbeitsförmiger Zusammenhänge führen, aber durchaus nicht zu deren Konvergenz. (5) Es gibt gar keine zwei ›Bereiche‹, folglich auch keine Konvergenz; Arbeit und Spiel können nicht sinnvoll objektstufig unterschieden werden, es handelt sich dabei vielmehr um Begriffe zur Charakterisierung eines Verhältnisses, das Handelnde zu ihren Tätigkeiten einnehmen und das kann bei ein und der selben Tätigkeit für verschiedene Akteure sehr unterschiedlich sein. (6) Alle bisherigen Thesen sind nur ein Indiz dafür, dass unser übliches Verständnis von Spiel und Arbeit durch aktuelle, vor allem technische Entwicklungen irritiert wird; weshalb die Voraussetzungen und die mögliche Kontingenz unseres Vorverständnisses neu zu bedenken sind. Die in dem diesjährigen Schwerpunkt versammelten Beiträge tragen in sehr unterschiedlicher Hinsicht zu einer Reflexion jener Bewegung bei, in die das Dreieck von Spiel, Arbeit und Technik auf die eine oder andere Weise geraten ist. Die Pointen und Argumente der verschiedenen Beiträge schließen sich dabei nicht zu einer Großthese zusammen. In der Gesamtschau zeichnen sich aber doch einige thematische Gemeinsamkeiten ab, an denen wir auch die Gliederung des Schwerpunkts ausgerichtet haben. Zwei gleichsam einführende Beiträge bieten grundbegriffliche Überlegungen zum Verhältnis von Arbeit, Spiel und Technik. Stefan Meißner schlägt eine Neubestimmung des Verhältnisses von Arbeit und Spiel unter dem Gesichtspunkt ihrer Technizität vor und hält der verbreiteten These der zunehmenden Amalgamierung beider Praxisformen die Kontingenz ihrer Verhältnisbestimmungen entgegen, welche im Wesentlichen auf einer technischen Grenzziehung zwischen Kontrollierbarem und Nicht-Kontrollierbarem sowie einer reflexiven Selbstanwendung von Technik beruhe, die einen spielerischen Umgang mit dem Kontrollierbaren erlaube. Die wesentlich zweckbezogene Bestimmung, die traditionellerweise der Unterscheidung von Arbeit und Spiel zugrundegelegt wird, ist Gegenstand einer kritischen Analyse von Oliver Laas: Mit dem Typus des instrumentellen Spielens – paradigmatisch das »playing with epistemic tools« – zeigt Laas eine hybride Tätigkeit auf, die sowohl selbstzweckhafte als auch instrumentelle Züge besitzt. Qua technologischer Diversifizierung trage diese zu einer zunehmenden Ludifizierung von Arbeit bei. entwickelt (und in davon inspirierten frühsozialistischen Siedlungsprojekten erprobt). Die Idee wird u.a. von Marcuse aufgegriffen und weiter ausgearbeitet. Hält er in Triebstruktur und Gesellschaft (1955) und noch in »Ende der Utopie« (1967) eine vom technischen Fortschritt bedingte »Konvergenz von Arbeit und Spiel« für möglich, diagnostiziert der spätere Marcuse eine (durch Technik vermittelte) kritische Verschränkung von Arbeit und Spiel, wofür die Rede von der »repressiven Entsublimierung« steht. 7 Eine zweite Gruppe von Untersuchungen befasst sich mit technischen und arbeitsförmigen Aspekten von Spielen im engeren Sinne (games) im Hinblick auf deren Instrumentalisierung, Moralisierung oder Pädagogisierung. In einem historisch ausgerichteten Beitrag rekonstruiert Florian Heßdörfer die Pädagogisierung des Spiels um 1900. Dabei zeigt er, wie die Differenz von Spiel und Arbeit für die sich herausbildende Erziehungswissenschaft zur Grundlage einer scheinbaren Lösung des Dilemmas von Freiheit und Zwang wird – sowie des systematischen Versuchs einer Verbindung von Schule und Leben. Beobachten lasse sich »eine fortschreitende Kontamination von Arbeit und Spiel«. Felix Raczkowski kritisiert im Hinblick auf aktuellere Diskussionen der game studies die der gamification-These zugrundeliegende Annahme der Existenz zweier separierter Bereiche von Spiel und Arbeit und plädiert für eine Reflexion ihres grundsätzlich liminalen Charakters. Hierdurch lasse sich Gamification als eine Re-Ritualisierung von Arbeit verstehen. Christian Klager nimmt den verbreiteten Verdacht der Gefährlichkeit von Computerspielen unter dem Gesichtspunkt einer »Ethik des Als-ob« in den Blick und fragt nach den verschiedenen Dimensionen, die bei Spielen unterschieden und untersucht werden müssen, damit sie als technische Erweiterungen unserer Welt – um die Dimensionen des Möglichen mit all den darin enthaltenen Implikationen – angemessen ethisch beurteilt werden können. Eine dritte Gruppe von Schwerpunkt-Beiträgen setzt sich mit Entwicklungen im Bereich Simulation und Robotik auseinander, die spielerische Motive in (insbesondere wissenschaftliche) Arbeitskontexte einführen oder die Arbeitswelt als solche grundlegend verändern. Nicole J. Saam und Alexander Schmidl zeigen in ihrem Aufsatz, inwiefern das Arbeiten mit wissenschaftlichen Simulationen ein spielerisches Forschen darstellt. Das Spielerische erweist sich hier als sowohl in der Technologie als auch Methodologie des Simulierens verankert; wodurch der Erfahrung eine zentrale Rolle in der Simulationspraxis zukomme – dies wiederum habe Konsequenzen für die Epistemologie der Simulation. Francesco Amigoni und Viola Schiaffonati gehen der Frage nach, welche Rolle Wettbewerbe in der Robotik spielen. Dabei beobachten sie, wie deren Charakter sich verändert habe: Wurden competitions zunächst eher als unterhaltsames Testverfahren verstanden, werden sie aktuell stärker als wissenschaftliche Experimente gestaltet. Insbesondere dadurch, dass es sich dabei weniger um Kontroll- als um explorative Experimente handele, finden hier spielerische Elemente in wissenschaftliche Arbeitsprozesse Eingang. G. Günter Voß untersucht Veränderungen der Arbeitswelt durch Roboter, die mit zunehmend menschlich wirkenden Fähigkeiten und Leistungen ausgestattet werden. Vor dem Hintergrund seiner Diagnose einer »Subjektivierung von Maschinen« fragt Voß nach verbleibenden nichttechnisierbaren Formen von Subjektivität und sucht diese in der lebendigen Natur des Menschen. Für die nähere Bestimmung einer eben dort vermuteten »ur- 8 sprünglichen Subjektivität« werden verschiedene Ansätze der philosophischen Anthropologie geprüft. Zwei Beiträge schließen den Schwerpunkt – oder öffnen ihn vielmehr für weiterführende Reflexionen und Perspektiven auf ein Thema, das mit den bisherigen Aspekten längst nicht abgehandelt ist. Wolfram Ette rekonstruiert in seiner Studie die arbeitstheoretischen und naturphilosophischen Implikationen einer Erzählung Alexander Kluges über »Herakles und die ›Gestalt des Arbeiters‹«, die zugleich im diesjährigen Archiv des Jahrbuchs abgedruckt ist. Ettes Rekonstruktion zufolge geht es bei Kluge um den Beitrag der Kunst an jener unablässigen Verwandlung der Welt, die der Mensch – qua Arbeit – selber ist. Dass unsere heutigen und mehr noch die zukünftigen Arbeitswelten vom Spiel »ebenso angetrieben werden wie die Turbinen des neunzehnten Jahrhunderts durch den Wasserdampf«, vermutet Markus Rautzenberg. In seinem Beitrag vertritt er die These, dass es sich beim Spiel um ein Geschehen handele, in dessen Zentrum die Aushandlung von Ungewissheit steht, womit sich – neben einer modifizierten Sicht auf das philosophisch nach wie vor erst schlecht erschlossene Thema gaming – auch die Gefahr einer möglichen »Tyrannei der Ludokratie« verknüpfe. Rückblickend zeigt sich in der Gesamtschau der Beiträge neben der bemerkenswert interdisziplinären Relevanz des Schwerpunktthemas auch ein über die Konzepte und Fragestellungen der Einzelfächer hinausgehender Bedarf an einer gemeinsamen Reflexion des in seinen Ausmaßen und Folgen noch kaum absehbaren Bündels an Entwicklungen. Dass sich begriffliche Anstrengungen hier lohnen, scheint uns der diesjährige Schwerpunkt zu belegen. Unter den Abhandlungen des aktuellen Jahrgangs finden sich vier Beiträge mit neuen Aspekten, Ansätzen und Perspektiven für die technikphilosophische Forschung. Christoph Hubigs Abhandlung erörtert die angemessene Ebene, auf der Kapps technikphilosophische und anthropologische Aussagen gelesen werden sollten (objektstufige vs. reflexionsbegriffliche Urteile), um auf diese Weise gängige Missverständnisse in der Rezeption aufzudecken und eine ergiebigere Lesart Kapps anzubieten. Jan C. Schmidt schlägt in einer Revision der anhaltenden Kontroverse um das Selbstoptimierungsparadigma einen über Angewandte Ethik und Technikfolgenabschätzung hinausgehenenden Entwurf einer kritischen Technikphilosophie des Neuro-Enhancements vor. Andreas Kaminski, Michael Resch und Uwe Küster beschäftigen sich mit einer neuartigen Form methodischer Intransparenz im Bereich der wissenschaftlichen Simulationsforschung, die durch eine Verbindung komplexer Technologie und Mathematik entstehe. Alfred Nordmann schließlich befasst sich mit der technischen Rationalität der nuklearen Rüstungskontrolle, für die eine Form von Klugheit notwendig geworden sei, über die uns die politische Philosophie Alexander Kluges informiert. 9 Die diesjähige Kontroverse ist dem Thema »Technikhermeneutik« gewidmet. Armin Grunwald und Christoph Hubig diskutieren in einem Briefwechsel die Frage, inwiefern ein technikhermeneutischer Ansatz die Grenzen der klassischen Technikfolgenabschätzung erweitern oder überwinden kann und in welchem Sinne von einer Hermeneutik der Technikzukünfte überhaupt die Rede sein kann. In der Rezensionsabteilung werden drei interessante technikphilosophische Neuerscheinungen besprochen. Nicole Karafyllis hat Hans Posers philosophische Bestandsaufnahme der ›Machbarkeit‹ für uns gelesen, die 2016 unter dem Titel Homo creator erschienen ist. Hildrun Lampe bespricht die Wissenschaft und Kunst der Modellierung, die 2015 von Bernhard Thalheim und Ivor Nissen herausgegeben wurde. Und Pieter Lemmens rezensiert die 2016 erschienene Studie On the Existence of Digital Objects von Yuk Hui. Ein Kommentar von Petra Gehring zu der Frage, was die Philosophie von bzw. seitens der Digital Humanities erwarten mag sowie eine Glosse von Andreas Brenneis über die Ritualisierung des Entpackens von Waren schließen das Jahrbuch Technikphilosophie 2018 ab. Allem voran stellen wir einen Nachruf, mit dem wir an unser geschätztes Beiratsmitglied Günter Ropohl erinnern. Die Herausgeber 10 Inhaltsverzeichnis Mehr als ein Technikphilosoph – Zum Tode von Günter Ropohl 15 Schwerpunkt Stefan Meißner Arbeit und Spiel – mit Technik neu bestimmt 19 Oliver Laas Instrumental Play 33 Florian Heßdörfer Das Spielgeld der Pädagogik Freiheit, Zwang und Arbeit in der Pädagogisierung des Spiels um 1900 51 Felix Raczkowski Play, Work and Ritual in Gamification 69 Christian Klager Die Ethik des Als-ob Video- und Computerspiele als technische Sphären der Ethik 85 Nicole J. Saam und Alexander Schmidl »A distinct element of play«. Scientific computer simulation as playful investigating 99 Francesco Amigoni and Viola Schiaffonati Robotic competitions as experiments: From play to work 119 G. Günter Voß Arbeitende Roboter – Arbeitende Menschen Über subjektivierte Maschinen und menschliche Subjekte 139 Wolfram Ette Kosmos Herakles Zu einer Erzählung Alexander Kluges 181 Markus Rautzenberg Einübung ins Ungewisse 201 11 Abhandlungen Christoph Hubig Der Deus ex Machina reflektiert Ernst Kapps Technik-Anthropologie zwischen Thomas von Aquin, Hegel und Latour 211 Jan C. Schmidt Die Selbstoptimierung des Selbst Zur Technikphilosophie des Neuroenhancements 227 Andreas Kaminski, Michael Resch und Uwe Küster Mathematische Opazität Über Rechtfertigung und Reproduzierbarkeit in der Computersimulation 253 Alfred Nordmann Four Horsemen and a Rotten Apple On the Technological Rationality of Nuclear Security 279 Archiv Alexander Kluge Heiner Müller und »Die Gestalt des Arbeiters« 297 Diskussion Nicole C. Karafyllis Homo faber revisited Eine philosophische Bestandsaufnahme der ›Machbarkeit‹ 301 Hildrun Lampe Modellieren: Ansätze für die Grundlegung zu einer interdisziplinären Praxis 307 Pieter Lemmens Transductive reticulation: How to reflect on digital thinghood 313 12 Kontroverse Technikhermeneutik: Ein kritischer Austausch zwischen Armin Grunwald und Christoph Hubig 321 Kommentar Petra Gehring Digitalissimo humanissimo! »Die DH« zwischen Marke und Methodik 353 Glosse Andreas Brenneis Unboxing 359 Autoreninformationen 361 13 Mehr als ein Technikphilosoph – Zum Tode von Günter Ropohl »Wo waren die Erfindungen, bevor sie gemacht wurden?« fragte Günter Ropohl ironisch in seiner Technologischen Aufklärung, einem seiner Hauptwerke. Neben dem Seitenhieb auf manch’ spekulierenden Techniktheoretiker im Elfenbeinturm verrät diese Frage sein Leitbild, das er auch im Titel der VDI-Initiative »Sachen machen« wiederfand: Seine Technikphilosophie als gesamtheitliche Deutung von Sachsystemen einschließlich ihrer Entstehung und Nutzung stand im Dienst der Technikgestaltung, Technikbewertung und Technikverantwortung. Als promovierter Maschinenbauingenieur (1970) sowie habilitierter Philosoph und Soziologe (1978) war Ropohl seit 1981 Professor für Allgemeine Technologie und Arbeitslehre an der Universität Frankfurt am Main. Mit seinen Standardwerken Allgemeine Technologie – Eine Systemtheorie der Technik sowie Ethik und Technikbewertung zählte er zu den führenden deutschen Technikphilosophen; sein Programm einer technologischen Aufklärung machte er auf vielen Foren öffentlichkeitswirksam geltend, u.a. im Zuge der Leitung des ARD-Funkkollegs »Technik«. Ropohl führte das Konzept der ›Soziotechnischen Systeme‹ in die internationale Diskussion ein. Technik ist demzufolge eben nicht nur die Gesamtheit der Konstrukte und Artefakte, die unter den Kriterien von Effizienz und Effektivität zu beurteilen und für sich gesehen als wertneutral zu erachten wären. Vielmehr werden durch Planung, Entwicklung und Produktion bereits entscheidende Weichenstellungen mit ökonomischen, ökologischen und sozialen Konsequenzen vorgenommen, die die Spielräume der Techniknutzung, ihre Chancen und Risiken strukturieren und prägen. Daher setzt die Technikverantwortung nicht erst mit einer Nutzung der Technik für gute oder schlechte Zwecke ein und kann nicht bloß an diejenigen delegiert werden, die mit der Technik umgehen. Aber auch die einzelnen Ingenieurinnen und Ingenieure im Feld von Entwicklung und Produktion blieben angesichts der komplexen Prozesse mit ihrer Technikverantwortung alleingelassen, weil ihre spezialisierte Expertise und beschränkte Handlungsmacht einer Verantwortungsübernahme für die tiefgreifenden und langfristigen Wirkungen der Etablierung technischer Systeme entgegensteht. Deshalb plädierte Ropohl immer dafür, die Forderung einer Übernahme von Technikverantwortung an Organisationen und Institutionen zu adressieren, innerhalb derer die Mitverantwortung der Stakeholder zu organisieren sei und Voraussetzungen einer Verantwortungswahrnehmung gewährleistet werden müssten. Dies betrifft sowohl Institutionen und Organisationen der Wirtschaft (Unternehmen, Verbände), der Exekutive (Gestaltung der Planungsprozesse komplexer Infrastrukturen, Überwachung, Verbraucherschutz etc.), des Bildungswesens (Technikunterricht 15 an Schulen, Ingenieurausbildung), der Politikberatung und nicht zuletzt die Berufsverbände wie z.B. den VDI. Ropohl war dem VDI eng verbunden und wirkte dort in dem 1961 eingerichteten – legendären – Ausschuss »Technik und Philosophie«, als Obmann des Ausschusses »Technikbewertung« (VDI 3780), als Vorsitzender des Bereichs »Mensch und Technik« mit sowie als Vordenker im Rahmen der Arbeit an den »Ethischen Grundsätzen des Ingenieurberufs«. Sein Engagement wurde mit der Ehrenplakette des VDI gewürdigt. Ropohl verstarb 78jährig im Januar dieses Jahres; erst vor kurzem war er im Jahrbuch Technikphilosophie im Rahmen einer »Kontroverse« als Diskutant präsent. Er hätte sich sicherlich über die Nachricht gefreut, dass der vom VDI geförderte und von ihm mitherausgegebene Bestseller Nachdenken über Technik. Klassiker der Technikphilosophie und neuere Entwicklungen einer vierten Auflage entgegensieht. Als hoch geschätztes Mitglied des wissenschaftlichen Beirats unseres Jahrbuchs vermissen wir Günter Ropohl sehr. Die Herausgeber 16 Schwerpunkt Stefan Meißner Arbeit und Spiel – mit Technik neu bestimmt1 Abstracts Arbeit und Spiel sind nicht erst in der Gegenwart semantisch aneinandergerückt und können sich nun begrifflich überlappen. Im Gegensatz zu einem begriffshistorisch sensiblen Vorgehen wird im Aufsatz eine analytische Perspektive auf das Begriffspaar von einem dritten Begriff – Technik – entfaltet. Mit einem spezifischen Technikbegriff, der nicht einseitig auf Maschinen und Artefakte abhebt und der keinen Bias bewirkt, weder für das luxurierende Spielen noch für das produktive Arbeiten, soll über das Verhältnis von Arbeit und Spiel aufgeklärt werden. Dieser Technikbegriff erlaubt es, einerseits Arbeit und Spiel als Differenz zu fassen, andererseits auch im Sinne einer reflexiven Form von Technik die Verknüpfung und Überlappung beider Begriffe in den Blick zu nehmen. Work and play are two concepts with strong differences. However, in contemporary working contexts, both concepts are more connected and semantically overlapped. In contrast to a historic sensitive approach such as the history of concepts, the analytical perspective, provided in this paper, argues with a third concept: technique. On the one hand, a particular conception of technique makes it possible to regard work and play as a difference. On the other hand, it also can perceive the connectivity and overlapping of the two concepts and regard this as a reflexive form of technique. Arbeit und Spiel können einerseits als gut voneinander unterscheidbare Bereiche menschlicher Praktiken begriffen werden: Arbeit wird dann mit Mühsal und Plage verbunden, in jedem Fall aber als ernste und ernstzunehmende Tätigkeit aufgefasst, während das Spiel dagegen als Freude, Entspannung und als außeralltäglicher Luxus begriffen wird. Diese Gegenüberstellung im alltäglichen Sprachgebrauch lässt sich anhand von Lexikondefinitionen der letzten 200 Jahre sehr gut nachzeichnen.2 Auch im gegenwärtigen Duden wird Arbeit als eine Tätigkeit oder eine Ausführung eines Auftrags und damit als zweckhafte Praktik gefasst, während das Spiel geradezu gegenteilig als Tätigkeit gefasst wird, die ohne bewussten Zweck zum Vergnügen, zur Entspannung oder aus Freude an ihr selbst ausgeübt wird.3 1 Ich danke der Redaktion des Jahrbuchs, insbesondere Alfred Nordmann, für einen instruktiven Unterscheidungsvorschlag, der eine klarere Argumentation erlaubte; noch bestehende Unklarheiten gehen zulasten des Autors. 2 Vgl. Stefan Meißner: »Arbeit und Spiel. Von der Opposition zur Verschränkung in der gegenwärtigen Kontrollgesellschaft«, in: Trajectoires. Travaux des jeunes chercheurs du CIERA, 2014, http://trajectoires.revues.org/915 (aufgerufen: 20.12.2016). 3 Vgl. hierzu die Online-Ausgabe: http://www.duden.de/rechtschreibung/Arbeit bzw. http:// www.duden.de/rechtschreibung/Spiel und dabei die erste und damit wichtigste Bedeutung des jeweiligen Worts (aufgerufen: 31.07.2017). 19 Gegenüber dieser guten Unterscheidbarkeit, ja fast Gegensätzlichkeit von Arbeit und Spiel ließe sich jedoch auch eine semantische Annäherung und Überlappung konstatieren. Einerseits kann eine semantische Ausweitung des Begriffs der Arbeit, beispielsweise an Neuschöpfungen wie Identitäts- oder Gefühlsarbeit, sichtbar gemacht werden. Arbeit wird dann nicht mehr auf den Beruf oder auf die Erwerbssphäre begrenzt, sondern ist auch in der Freizeit anzutreffen und dringt damit potenziell in jede Pore menschlicher Tätigkeit ein: Ein Treffen mit Gleichgesinnten wird zur Vernetzungsarbeit; der Restaurantbesuch mit dem Partner wird zur Beziehungsarbeit; selbst das Spielen mit dem Nachwuchs mutiert zur Erziehungsarbeit. Andererseits wird auch das Spielen zunehmend funktionalisiert. Wir erkennen nicht nur im spielerischen Umgang mit Problemen das ungeahnte Produktivitätspotenzial des Spielens überhaupt: Kreativität, Innovation oder Disruption – allesamt ohne eine spielerische Einstellung zur Welt, im Sinne einer Als-ob-Tätigkeit nicht möglich – werden vielmehr zum zentralen Ziel weiter Teile der Erwerbstätigkeiten. Mitarbeiter werden mithilfe spielerischer Mittel motiviert. Man nennt dies gegenwärtig beispielsweise Gamification4 und meint damit den bewussten, zweckhaften Einbau von spielerischen Mitteln in Arbeitsprozesse, um ausdauernder, intensiver und produktiver arbeiten zu lassen, da die Mitarbeiter einer permanenten Wettbewerbs- und Konkurrenzlogik unterworfen werden.5 Ähnlich verhält es sich mit sogenannten serious games, welche insbesondere das Lernen durch spielerische Elemente unterstützen sollen. Auch hier wird das Spiel in einen zweckhaften Rahmen eingefügt und dadurch funktionalisiert. Diese Überlappung des semantischen Gehalts der beiden Begriffe lässt sich freilich nicht nur in der jüngsten Gegenwart finden. So begreift schon Schiller das Spiel, das er bekanntermaßen hoch schätzte, als eine Verbindung von Ernst und Unernst – und damit als eine produktive Instanz.6 Ebenso ist der Arbeitsbegriff von Marx eben nicht auf die Erwerbssphäre beschränkt und wird auch nicht einzig als Mühsal und Plage verstanden. Vielmehr wird Arbeit bei ihm – ganz auf der Linie von Hegels Phänomenologie – als »Selbsterzeugung des Menschen als […] Prozess«7 gefasst und gerinnt damit zum anthropologischen Merkmal schlechthin. Die Selbstverwirklichungsträume der gegenwärtigen digitalen Bohème8 können daher auch als die letzten Endmoränen marxistischen Denkens erscheinen. Arbeit wäre dann einzig 4 Vgl. Sebastian Deterding, u.a.: »Gamification: Toward a Definition«, Vortrag, CHI 2011, Vancouver 2011. 5 Vgl. zu diesem Argument auch Meißner: »Arbeit und Spiel«, in: Trajectoires. 6 Vgl. hierzu Tanja Wetzel: »Spiel«, in: Karlheinz Barck, u.a. (Hg.): Ästhetische Grundbegriffe, Bd. 5, Stuttgart/Weimar 2003, S. 577–618, hier S. 588–589. 7 Karl Marx: Marx-Engels-Werke (MEW), Bd. 40, S. 574. 8 Vgl. u.a. Holm Friebe und Sascha Lobo: Wir nennen es Arbeit. Die digitale Bohème oder Intelligentes Leben jenseits der Festanstellung, München 2006. 20 selbstbestimmte Produktivität, die auch auf den spielerischen, d.h. unernsten Umgang mit der Welt bezogen werden kann. Nimmt man nun den anderen Begriff – das Spielen – in den historischen Blick, dann kann Meads Unterscheidung von play und game in den Sinn kommen. Mead nutzt die englischsprachige Unterscheidung zwischen Spiel und Wettkampf, um zwei Stufen der Identitätsbildung beim Menschen zu erläutern. Während das Kind beim Spielen zwar auch schon andere Rollen testweise einnimmt und »seine eigenen Reaktionen auf diese Reize« nutzt, um seine »Identität zu entwickeln«, so wird es erst im Wettkampf (game) nötig, »die Haltung aller in das Spiel eingeschalteten Personen zu übernehmen«.9 Damit bildet das Kind erst durch die Wettkampferfahrung den ›generalized other‹ aus und gelangt damit zur Identitätsbildung. Das Spielen wird also auch hier als produktiv betrachtet: Im und durch das Spielen bildet sich beim Kind eine Identität aus. Arbeit und Spiel können also einerseits als distinkte Bereiche menschlicher Praxis verstanden werden, andererseits wird, insbesondere unter einer Produktivitätsperspektive, auch immer schon eine Kombination, Überlappung oder Hybridisierung beider Praktikenformen sichtbar. Um daher das begriffliche Verhältnis von Arbeit und Spiel analytisch fassen zu können, muss ein externer Beobachtungsstandpunkt eingenommen werden. Ich möchte im Folgenden diesen Weg einschlagen und möchte einen dritten Begriff als analytischen Denkstandort nutzen, von dem aus das Verhältnis von Arbeit und Spiel neu beschreibbar ist – und er heißt: Technik. Diese Begriffswahl scheint keineswegs evident und soll daher kurz begründet werden, bevor dann eine Konturierung des Begriffs erfolgt, der sodann das Verhältnis von Arbeit und Spiel zu bestimmen helfen soll. Der hier einzuführende Technikbegriff kann erstens nicht in einer Vorstellung von Realtechnik (als Maschine oder Blackbox) alleinig aufgehen, vielmehr muss er auch menschliche Handlungsweisen wie Verfahren, Routinen oder Automatismen mit umgreifen, um über Arbeiten und Spielen aufklären zu können. Zweitens würde ein Technikbegriff fehlleiten, wenn darin einzig die instrumentelle Dimension der Naturbeherrschung ausgedrückt werden würde, denn insbesondere das Spielen könnte damit nur schlecht erfasst werden. Drittens darf jedoch auch nicht umgekehrt die Gegenüberstellung von Technik und Leben, verstanden als nicht-kolonialisierte und eben nicht-technische Existenz, begriffsbestimmend werden, da so das Arbeiten als produktive Weltaneignung nur schlecht einbezogen werden könnte. Es bedarf also eines spezifischen Technikbegriffs, der nicht einseitig auf Maschinen und Artefakte abhebt und der keinen Bias, weder für das luxurierende Spielen noch für das produktive Arbeiten, bewirkt – erst mit einem solchen Begriff kann sinnvoll über das Verhältnis von Arbeit und Spiel aufgeklärt werden. 9 George Herbert Mead: Geist, Identität und Gesellschaft aus der Perspektive des Sozialbehaviorismus, Frankfurt am Main 1973, S. 193. 21 Entwickelt werden soll dieser Begriff über Rückgriffe auf Blumenbergs Verständnis von Technisierung, auf Benjamins Andeutungen zum Begriff der zweiten Technik und schließlich auf Luhmanns Ausführungen zu Technik als »funktionierende Simplifikation«.10 Daraus soll ein hinreichend abstrakter Begriff von Technik gewonnen werden,11 der helfen kann, das Verhältnis von Arbeiten und Spielen besser zu bestimmen. Ein erster Teilaspekt des hier zu formenden Technikbegriffs liefert Blumenbergs bekannte Auseinandersetzung mit Husserls Phänomenologie.12 Sein Begriff von Technisierung betont den Prozesscharakter des »Übergang[s] aus der Selbstgenügsamkeit des Naturzustandes hin zum Luxurieren des Erfinderischen«.13 Gegen geläufige technikphilosophische Positionen wie der Antithese von Technik und Natur oder einer natürlichen Technizität des Menschen stellt Blumenberg seine Intuition, dass das husserlsche Projekt einer Phänomenologie helfen könne, das Problem der Technik besser zu fassen. Ausgangspunkt einer phänomenologischen Analyse sei nämlich die Distanzierung von der Lebenswelt und damit die Distanzierung vom (uns) Selbstverständlichen. Aber ebendiese Distanzierung zur Welt begreift Blumenberg – ganz gegen das Selbstverständnis Husserls, der die Phänomenologie als Therapie14 gegen die zunehmende Technisierung verstanden wissen wollte – selbst als Effekt neuzeitlicher Technisierung. Denn, so könnte das Argument zusammengefasst werden, der menschliche Intellekt sei selbst in seinen scheinbar voraussetzungslosesten Leistungen stets schon durch die von Husserl an der neuzeitlichen Wissenschaft problematisierten Formalisierung geprägt.15 Damit deutet Blumenberg den von Husserl beklagten »Sinnverlust« um zu einem selbst auferlegten »Sinnverzicht«.16 Am Beispiel der elektrischen Türklingel im Gegensatz zum Türklopfen veranschaulicht Blumenberg seinen Begriff der Technisierung. Hier könne gesehen werden, dass »die menschlichen Handlungen zunehmend unspezifisch« werden und dass die technisierte Welt »immer mehr durch Auslösefunktionen gekennzeichnet« 10 Niklas Luhmann: Die Gesellschaft der Gesellschaft, Frankfurt am Main 1997, S. 524. 11 Diese Erarbeitung eines Technikbegriffs basiert auf eigenen Vorarbeiten, die ausführlicher in der Publikationsfassung der Dissertation dargestellt werden. Während es darin um ein abstraktes Konzept der Techniken des Sozialen ging, ist hier der Anspruch etwas tiefer gehängt, da es »nur« um die Formulierung eines Beobachtungsstandpunkts geht, der es erlaubt, das Verhältnis von Arbeit und Spiel besser zu bestimmen. Vgl. Stefan Meißner: Techniken des Sozialen. Gestaltung und Organisation des Zusammenarbeitens in Unternehmen. Wiesbaden 2017. 12 Hans Blumenberg: »Lebenswelt und Technisierung unter Aspekten der Phänomenologie«, in: ders.: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede, Stuttgart 1999, S. 7–54. 13 Ebd., S. 16. 14 »Dem Immer-Fertigen setzt er das Immer-Anfangende des philosophischen Denkens entgegen«, ebd., S. 39. 15 Vgl. ebd., S. 43–44. 16 Ebd., S. 42. 22 sei.17 Während das direkte Klopfen an der Tür sehr spezifische Handlungen ermöglicht – vom leisen Klopfen bis hin zum dröhnenden Pochen –, löst der Druck auf den Knopf das immergleiche Klingeln aus. Dieses stets gleiche Schema lasse keine Fragen »nach dem Konstruktionsgeheimnis und Funktionsprinzip« oder gar »nach der Existenzberechtigung«18 mehr aufkommen. Dadurch sinke aber der technische Gegenstand »zurück in das ›Universum der Selbstverständlichkeiten‹, in die Lebenswelt«.19 Blumenberg schließt seinen Gedankengang mit der Feststellung, dass die »Antinomie der Technik […] zwischen Leistung und Einsicht«20 bestehe, und meint damit, dass Technik entweder funktioniere (etwas leiste) und dabei selbstverständlich werde (sich der Einsicht entziehe) oder eben nicht funktioniere und dadurch sichtbar und bemerkbar werde. Das zentrale Merkmal von Technik bestehe demnach darin, dass ihre »Anwendbarkeit unabhängig von der Einsichtigkeit des Vollzugs«21 möglich sei. Wir müssen nicht verstehen, wie ein technischer Gegenstand funktioniert, um ihn zu benutzen. Im Endeffekt entstehen daraus die uns heute so geläufigen technisierten Lebenswelten, die es uns erlauben, inmitten von technischer Artifizialität mit umstandsloser Selbstverständlichkeit agieren zu können. Bewusst wird dies immer erst im Nichtfunktionieren. Erst dann gibt es die Möglichkeit der Einsicht, um den technischen Gegenstand reparieren zu können oder um der vielfältigen und komplexen Voraussetzungen unserer technischen Lebenswelt gewahr zu werden. Beides zugleich, Leistung und Einsicht, ist nicht möglich. Die Rezeption von Benjamins Kunstwerkaufsatz, in dem er eine Verschiebung vom Kultwert und damit der Aura des einzigartigen Kunstwerks zum Ausstellungswert im reproduzierbaren Kunstwerk nachzeichnet und dabei es nicht bei einer kulturkritischen Klage über einen Verlust der Aura belässt, sondern vielmehr eine Fluchtlinie in Richtung einer emanzipatorischen Funktion des nunmehr reproduzierbaren Kunstwerks als Einübung in eine technisierte Lebenswirklichkeit zeichnet, bezog sich vorwiegend auf die erste und zweite Fassung des Aufsatzes und fokussierte damit auf die möglicherweise emanzipierende Wirkung der damals neuen Medien. Für den hier zu formierenden Technikbegriff soll dagegen auf die Urfassung des Kunstwerkaufsatzes22 und auf die darin enthaltene Unterscheidung von erster und zweiter Technik zurückgegriffen werden. 17 Ebd., S. 36. 18 Ebd., S. 37. 19 Ebd. 20 Ebd., S. 51. 21 Ebd., S. 42. 22 Diese Urfassung galt lange als verschollen und wurde schließlich erst im Archiv Max Horkheimers wiedergefunden. Während in der bekannteren Version von »zweiter Natur« gesprochen wird, geht es Benjamin in der hier im Mittelpunkt stehenden Version um die Prägung eines Begriffs von »zweiter Technik«. Vgl. hierzu: Rolf Tiedemann und Hermann Schweppenhäuser: »Anmerkungen der Herausgeber«, in: Walter Benjamin: Gesammelte Schriften, Bd. VII/2, 23 Die erste Technik, so meint Benjamin, setze den Menschen so stark wie möglich ein, während die zweite Technik dies so wenig wie möglich mache, sodass die Großtat der ersten das »Menschenopfer« darstelle, während die Erfüllung der zweiten Technik im Gegensatz dazu »auf der Linie der fernlenkbaren Flugzeuge, die keine Bemannung brauchen«,23 liege. Insofern ziele die erste Technik auf das »Ein für allemal«, im Unterschied zur zweiten Technik, die sich im »Einmal ist keinmal« erschließe.24 Im »Abstand von der Natur« und insofern im »Spiel« etabliere sich die zweite Technik als »Experiment und […] unermüdliche […] Variierung der Versuchsanordnung«.25 Statt einer Beherrschung der Natur habe es diese zweite Technik »auf ein Zusammenspiel zwischen der Natur und der Menschheit« abgesehen.26 Zweite Technik ist im Sinne Benjamins also gerade nicht als Gegenbegriff zur Natur oder zum Leben zu verstehen, vielmehr wird Technik an eine Entgrenzung von individuellen Möglichkeiten gekoppelt: Das Individuum sieht »seinen Spielraum unabsehbar erweitert«.27 Im Abstand und in der Distanz zur Natur und einer vermeintlichen Natürlichkeit wird das Spiel als »das unerschöpfliche Reservoir aller experimentierenden Verfahrungsweisen der zweiten Technik«28 begriffen. Insofern ist für Benjamin die spielerische Distanzgewinnung, die die Natur nicht negiert, sondern neuartige Möglichkeiten der Relationierung mit ihr austestet, ein zentraler Aspekt moderner Technik.29 Mit den bisher präsentierten Perspektiven von Blumenberg und Benjamin kommt ein Technikbegriff in den Blick, der weder in Maschinen, Apparaten und Artefakten Frankfurt am Main 1989, S. 523–726, hier 661ff. Die Urfassung des Aufsatzes wird im Folgenden aus folgender Quelle zitiert: Benjamin, Walter: »Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit (Zweite Fassung)«, in: ders.: Gesammelte Schriften, Bd. VII/1, hrsg. v. Rolf Tiedemann und Hermann Schweppenhäuser, Frankfurt am Main 1989, S. 350–384. 23 Benjamin: »Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit«, in: Gesammelte Schriften, S. 359. 24 Ebd. 25 Ebd. 26 Ebd. 27 Ebd., S. 360, Fußnote 4. 28 Ebd., S. 368, Fußnote 10. 29 An dieser Stelle kann an Helmuth Plessners Werkbundrede zur offenen Form erinnert werden. Die zentralen Merkmale des technischen Zeitalters sah er »in der beliebigen Erweiterungsfähigkeit und Umbildungsfähigkeit« (S. 54): »Die technische Welt […] unterscheidet sich ja dadurch von all den Welten […], grade durch den wesenhaft unabgeschlossenen und offenen Charakter gegenüber den Produkten, mit denen er [der Mensch, SM] sich umgibt« (ebd.). Ebendiesem Charakter des Zeitalters entsprechend müsse »wieder mit den Dingen in ein Spielverhältnis« (S. 56) getreten werden, um nicht die geschlossene Form einer vortechnischen Zeit zu erreichen, sondern um zu einer offenen Form zu gelangen: »Es ist eine neue Form, eine unsichtbare Form, die in ihrer Sichtbarkeit geöffnet sein will! Eine Form der unendlichen Möglichkeiten!« (S. 57). Auch Plessner versteht das für die moderne Technik konstitutive Konstruktionsverhältnis als ein unendliches Spiel- und Experimentierfeld, das erst in der Distanz zur Natur möglich wird. Vgl. Helmuth Plessner: »Wiedergeburt der Form im technischen Zeitalter. Rede zum 25. Jubiläum des Deutschen Werkbundes 1932«, in: archplus, Nr. 161, 2002, S. 52–57. 24 noch in Rationalisierung, Berechenbarkeit und Zweckhaftigkeit aufgeht, sondern der auf ein spezifisches Zusammenspiel von Mensch und Natur und damit auf ein besonderes Verhältnis zur Welt verweist. Es geht nunmehr nicht um den Menschen oder um die Natur im Gegensatz zur Technik, sondern um das spezifische Verhältnis zwischen beiden und damit um die Organisation der Differenz von Natur und Mensch. Technik als ein solcher Verhältnisbegriff bzw. als spezifische Beobachtungsform der Welt kann dann auch als spezifische Organisation von Erwartungen begriffen werden. Dies in zweierlei Hinsicht: zum einen als Organisation des Selbstverständlichen unserer Lebenswelt (Blumenberg) und zum anderen in der Rede vom Spiel als Möglichkeit der Generierung eines Abstands zur Natur (Benjamin). Die Erfahrungsqualitäten technisierter Lebenswelten sind nicht mehr im Sinne eines »Ein für allemal« zu werten. Vielmehr wird es für uns plausibel, dass mit Erwartungen an und in technisierten Lebenswelten experimentell gespielt werden kann (»Einmal ist keinmal«). Dies kann einerseits als Steigerung von Möglichkeiten in ungeahnten Möglichkeitshorizonten positiv oder andererseits als permanent manipulierender Eingriff in Natürlichkeit und Menschsein negativ bewertet werden. Hierfür eine Entscheidung herbeizuführen, war jedoch nicht der Sinn der vorstehenden Ausführungen. Vielmehr sollte damit der moderne Begriffshorizont von Technik eingeführt werden, der den nötigen semantischen Hintergrund liefert für die nun zu besprechende Formel von Niklas Luhmann: Technik als »funktionierende Simplifikation«.30 Mit ihr sollen ebenfalls nicht nur apparathafte und materiale Kausaltechniken beschrieben werden, sondern auch »Handlungsformalisierungen allgemeinerer Art, Regulierungstechniken, konditionale Programmierungen, Kalkulationstechniken« sowie »Kalküle« und »Konditionalprogramme«, die Luhmann zusammenfassend als »Informationsverarbeitungstechniken«31 bezeichnet. Bei Technik – so betont Luhmann – handele es sich in erster Linie um einen »Vorgang effektiver Isolierung; um Ausschaltung der Welt-im-übrigen; um Nichtberücksichtigung unbestrittener Realitäten«.32 Als Technik kommt so die Etablierung von Handlungsbereichen in den Blick, die dadurch ermöglicht werden, dass sie von übrigen in der Welt befindlichen Informationen effektiv abgeschirmt werden. Insofern Technik funktioniert – und das ist die erzeugte, selbstverständlich gewordene Erwartung –, wird von anderen Aspekten abgesehen. Dies birgt Vor- und Nachteile zugleich. Letztlich werde jedoch das »Risiko der Indifferenz gegen zahlreiche Informationen […] durch den evolutionär ausschlaggebenden Vorteil besserer Bestimmbarkeit höherer Kontingenz«33 aufgewogen. 30 Luhmann: Gesellschaft der Gesellschaft, S. 524. 31 Ebd. 32 Ebd. 33 Niklas Luhmann: Kontingenz und Recht. Rechtstheorie im interdisziplinären Zusammenhang, Frankfurt am Main 2013, S. 236. 25 Wenn man nun die drei vorgestellten Beschreibungsansätze von Technik miteinander kombiniert und zusammensetzt, kann folgender Begriff von Technik skizziert werden: Technik ist eine »funktionierende Simplifikation«. Funktionierend meint dabei, dass heterogene Elemente in einen neuartigen Wirkzusammenhang gebracht werden. Dies geschieht notwendig unter Absehung aller übrigen Aspekte bzw. der Welt im Allgemeinen und ist daher eine Simplifikation. Anders beschrieben, besteht Technik im Setzen einer Unterscheidung von kontrollierbar und nicht-kontrollierbar. Wird auf die Seite des Kontrollierbaren fokussiert, kommt vornehmlich der Akt der Kontingenzreduktion durch Technik in den Blick, den Blumenberg als Technisierung und damit als Selbstverständlichwerden von Technik beschrieb. Technik in dieser Hinsicht meint dann vor allem die Isolierung eines Wahlbereichs von Handlungsalternativen unter Absehung der Welt-im-Übrigen, um Erwartbarkeitsstrukturen jenseits von je konkreten, lebensweltlichen oder alltäglichen Erwartbarkeiten generieren zu können. Wird dagegen die Aufmerksamkeit auf die Seite des Nichtkontrollierbaren gelenkt, dann erkennt man, dass jede etablierte funktionierende Simplifikation auf der prinzipiellen Kontingenz der Differenzsetzung von kontrollierbar und nichtkontrollierbar selbst aufbaut. Der technisch zugeschnittene Handlungsbereich wird isoliert; er muss von anderen Dingen absehen, ja sie bewusst ignorieren – andere Simplifikationsmöglichkeiten bleiben jedoch weiterhin vorhanden, sodass die technische Grenzziehung auch modifiziert werden kann, indem andere Elemente ein- bzw. ausgeschlossen werden. In jeder Simplifikation ist somit stets der »Hinweis auf die Möglichkeit des Ausprobierens immer neuer Kombinationen, ja immer neuer Unterscheidungen«34 enthalten. Insofern kann die technische Differenz (kontrollierbar/ unkontrollierbar) unter Maßgabe des Machbaren experimentell eingesetzt und dann beobachtet werden, ob sich diese Differenz bewährt und zu einer selbstverständlich gehandhabten Handlungsgepflogenheit gerinnt. Dies hatte insbesondere Benjamins Begriff der zweiten Technik im Blick gehabt. Denn Technik ist eben keine linear zu verbessernde Struktur – dann würde Technik nur innerhalb des kontrollierbaren Bereichs verortet werden –, sondern eine kontingente, stets auch anders mögliche Struktur. Dieser Aspekt ist für einen sinnvollen Technikbegriff zu beachten. Zusammengefasst heißt dies, dass durch Technik – verstanden als funktionierende Simplifikation (Luhmann) – einerseits spezifische Erwartungen und Selbstverständlichkeiten ausgebildet werden können (Blumenberg), die jedoch andererseits – da die Unterscheidungssetzung von kontrollierbar/nicht-kontrollierbar prinzipiell kontingent bleibt – stets verändert, modifiziert und neu arrangiert werden können. Tech- 34 Niklas Luhmann: »Das Moderne der modernen Gesellschaft«, in: ders.: Beobachtungen der Moderne, Opladen 1992, S. 11–50, hier S. 22. 26 nik bleibt daher in ihrem Funktionieren stets eine kontingente Simplifikation, die auch anders zugeschnitten werden kann.35 Mithilfe eines solchen Technikbegriff kann nun das Verhältnis von Arbeit und Spiel erneut in den Blick genommen werden. Arbeit kann allgemein als eine zweckgesetzte und mitteloptimierende Tätigkeit verstanden werden. Die Produktivität einer Arbeitstätigkeit besteht ja in der Etablierung eines Wirkzusammenhangs. Einfache Arbeiten wie beispielsweise der Transport eines Gegenstands von einem zum anderen Ort genauso wie komplexe Tätigkeiten wie beispielsweise Beziehungsarbeit setzen daher stets einen vorgestellten Wirkplan voraus, der dann realisiert werden soll. Ohne eine solche selbst- oder auch fremdbestimmte Wirkungsabsicht bzw. Zwecksetzung würde wohl eine Tätigkeit nicht als Arbeit verstanden werden können.36 Mithilfe des eingeführten Technikbegriffs ließe sich daher Arbeit als Agieren innerhalb des kontrollierbaren Bereichs, der durch die technische Grenzziehung überhaupt erst entstehen kann, beschreiben. Das Spiel fokussiert demgegenüber auf die Mittel, die sich ihren Zweck erst noch suchen müssen. So ist das Spiel zum Beispiel für Huizinga weder eine zweckhafte Handlung noch eine zweckhafte Herstellung von Dingen, vielmehr ist es eine freiwillige Beschäftigung, die begleitet ist von dem »Bewußtsein des ›Andersseins‹ als das ›gewöhnliche Leben‹«.37 Spiel definiert sich für ihn38 also vor allem aus dem Gegensatz zum Ernst des Lebens, zum Reich der Notwendigkeit und damit auch der Arbeit. Wie u.a. auch Plessner herausstellt, ist diese Differenz von Ernst und Spiel jedoch eine »der Auffassung des Tuns« und keine äußerliche, der Tätigkeit anhaften- 35 Zwei Aspekte können dadurch deutlich werden: Erstens wird mit einer solchen Perspektive auf Technik eine Vorstellung von Technokratie hinfällig. Eine Herrschaft der Technik – oder bezogen auf Rationalität: das stählerne Gehäuse der Hörigkeit (Weber) – erscheint vollkommen unplausibel, da Technik nicht über die sie konstituierende Grenzziehung zwischen kontrollierbar/ nicht-kontrollierbar verfügen kann, bzw. anders formuliert: über die Grenzziehung der Technik kann selbst nicht technisch entschieden werden. Zweitens verweist die hier geführte Argumentation auf die (historische) Sackgasse von Kybernetik als Steuerungswissenschaft. Während eine Kybernetik erster Ordnung eben nur den kontrollierbaren Bereich betrachtet, auch wenn Feedbackschleifen einbezogen werden, so kommt erst eine Vorstellung von Kybernetik zweiter Ordnung im Sinne von Heinz von Foerster dem hier ausgeführten Technikverständnis nahe – mit dem forschungspolitischen Nachteil, dass nun nicht mehr (gesellschaftliche) Steuerungsgewinne in Aussicht gestellt werden können. Vgl. u.a. Heinz von Foerster: »Ethik und Kybernetik zweiter Ordnung«, in: Shortcuts, Hamburg 2002, S. 40–66. 36 Damit wäre zugleich ein Argument gefunden, warum sich in der Moderne der Bedeutungsrahmen von Arbeit nicht nur ausweitet, sondern geradezu entgrenzt. Sämtliche Tätigkeiten mit einer unterstellten Wirkabsicht können demnach als Arbeit begriffen werden. Daher können auch aus traditionellen Gründen oder aus Unterhaltungs- und Zerstreuungsgründen ausgeführte Tätigkeiten nunmehr als Arbeit verstanden werden, wenn ihnen eine Wirkabsicht unterstellt werden kann. 37 Johan Huizinga: Homo ludens. Vom Ursprung der Kultur im Spiel, Hamburg 1956, hier S. 34. 38 Ihm folgen viele andere nach. Für Caillois ist das Spiel frei, abgetrennt, ungewiss, unproduktiv, geregelt und fiktiv. Vgl. Roger Caillois: Die Spiele und die Menschen. Maske und Rausch, München, Wien 1964, hier S. 16. 27 de Unterscheidung.39 Es ist mithin eine beobachterabhängige Differenz. Mithilfe des vorgestellten Technikbegriffs wäre daher das Spielen in erster Linie als Akt der Differenzsetzung zwischen einem kontrollierbaren und einem nicht-kontrollierbaren Bereich zu begreifen. Dieser Isolierungsakt ist die notwendige Bedingung aller Spiele, wie sie beispielsweise auch in der einschlägigen Differenzierung von Caillois zwischen Agôn, Alea, Mimicry und Ilinx zum Tragen kommt.40 Während die ersten beiden Modi eher auf den selbstgesetzten (kontrollierbaren) Rahmen fokussieren, experimentieren die letzten beiden Modi vor allem mit der Grenzziehung selbst. Der Rausch, im Sinne von Ilinx, entsteht jedenfalls nicht in der Akzeptanz selbst gesetzter (Spiel-)Regeln, sondern im lustvollen Experimentieren mit der kontingenten Unterscheidung selbst.41 Ebenso könnte die im Englischen gebräuchliche Differenz von game und play aufgeklärt werden: Bezieht sich das game in erster Linie auf die regelhafte Form des kontrollierbaren Bereichs, so ist im play eher der improvisierende, die kontingente Grenze stets verschieben könnende Charakter des Spielens im Blick. Während also Spielen auf die Kontingenz der technischen Grenzziehung zielt und daraus seinen freien, unproduktiven Charakter zieht, ist Arbeit stets auf den kontrollierbaren Bereich der Zwecksetzungen und Wirkungsabsichten bezogen. Damit wäre die erste Form der Verhältnisbestimmung von Arbeit und Spiel als klare Unterscheidung rekonstruiert. Ein Erkenntnisgewinn aus dieser begrifflichen Neubeschreibung ließe sich jedoch erst dann ziehen, wenn gezeigt werden könnte, inwieweit mit diesem begrifflichen Arrangement auch die Überlappung und Verknüpfung von Arbeit und Spiel beschrieben werden kann. Die These des Beitrags besteht dann auch darin, dass diese zweite Form der Verhältnisbestimmung mit dem eingeführten Technikbegriff zu leisten ist – jedoch als reflexive Form von Technik. Diese reflexive Technik meint die Anwendung von Technik auf Technik selbst, sodass die technische Differenz von kontrollierbar/nicht-kontrollierbar auf die Seite des Kontrollierbaren wieder eingeführt wird – systemtheoretisch formuliert: die Fi- 39 Helmuth Plessner: »Spiel«, in: Erwin von Beckerath, u.a. (Hg.): Handwörterbuch der Sozialwissenschaften, Bd. 9, Göttingen 1956, S. 704–706, hier S. 704. Interessant ist an diesem kurzen Beitrag v.a. seine skizzierte Fluchtlinie künftiger Forschung: »Wie die Entwicklung des Spiels zum Sport den Zerfall der vorkapitalistischen, traditionellen Gesellschaft voraussetzt, Rekord und Training die unbegrenzte Konkurrenz, die rationale Arbeitsdisziplin auf das Spiel übertragen und aus ihm einen Zweig der Kulturindustrie machen, welcher die Abfuhr der von der modernen Arbeitswelt gezüchteten und zugleich unterdrückten Triebenergien gestattet, ist ein noch kaum studiertes Kapitel, aus dem die Sozialpsychologie der Spiele viel wird lernen können.« ebd., S. 706. 40 Vgl. Roger Caillois: Die Spiele und die Menschen. Maske und Rausch, München, Wien 1964, S. 19. 41 So verstehe ich auch Buytendijks Beschreibung des Spiels als »Abwechslung von Spannung und Lösung« (S. 122). Denn »Spielen ist […] nicht nur, dass einer mit etwas spielt, sondern auch dass etwas mit dem Spieler spielt« (S. 117). Vgl. Frederik J. J. Buytendijk: Wesen und Sinn des Spiels. Das Spielen des Menschen und der Tiere als Erscheinungsform der Lebenstriebe, Berlin 1933. 28 gur des re-entry.42 Wenn dies gemacht wird, entstehen weniger formalisierte Verfahren, Routinen oder (triviale) Maschinen, sondern eher etwas, das auch als Design, als Gestalten oder Organisieren beschreibbar ist. Dies soll nun zum Abschluss noch etwas näher ausgeführt werden. Wenn die einfache Form von Technik in der Erstellung eines Wirkungszusammenhangs durch die Grenzziehung von einem kontrollierbaren und einem nicht-kontrollierbaren Bereich gesehen werden kann, dann besteht eine reflexive Form von Technik in der Kontingenznutzung der technischen Grenzziehung selbst. Die Kontingenz der technischen Grenzziehung wird also für das Funktionieren, sprich für die Etablierung eines Wirkzusammenhangs selbst in Anspruch genommen. Die durch Technik erzeugte notwendige Ignoranz gegenüber all dem, was auf der Seite des Unkontrollierbaren verortet wird, kann dadurch abgeschwächt – bzw. technisch gehandhabt – werden, indem nun testweise und versuchshalber spezifische Elemente des Unkontrollierbaren auf die Seite des Kontrollierbaren gezogen werden. Um den einfachen kausaltechnischen Wirkzusammenhang wird damit eine weitere technische Grenze gezogen, die eine gezielte Manipulation und technische Handhabung der ersten Grenzziehung ermöglicht.43 Erst diese reflexive Form von Technik kann plausibilisieren, dass die hergestellten, funktionierenden Simplifikationen einerseits fiktive Erwartungen ausbilden und stabilisieren können, dass diese jedoch andererseits stets kontingent bleiben. Diese reflexive Form der Technik etabliert daher weniger konkrete Erwartungen als vielmehr ein spezifisches Testdesign, woran sich unterschiedliche Erwartungen anlagern können. Um diese reflexive Form von Technik noch etwas anschaulicher beschreiben zu können, sollen einige solcher Testdesigns in unserer Gegenwart vorgestellt werden: In der gegenwärtigen Webentwicklung sind zwei solcher Formen reflexiver Technik besonders präsent. Zum einen die agile Softwareentwicklung, zum andere das multivariate Testing von Websites. Agile Softwareentwicklung (bspw. Scrum) reagiert auf die Langsamkeit von etablierten Planungsprozessen für komplexe Produkte.44 Denn 42 Re-entry meint die Wiedereinführung einer Unterscheidung in das durch sie Unterschiedene. Reflexive Sozialtechniken könnten daher so beschrieben werden, dass sie die Unterscheidung von kontrollierbar und nichtkontrollierbar auf der Seite des Kontrollierbaren wieder einführen, sodass sich ein spezifisch Unkontrollierbares von einem allgemein Unkontrollierbaren (unmarked Space) unterscheiden lässt. Vgl. zum Konzept des re-entrys u.a. Luhmann: Die Gesellschaft der Gesellschaft, S. 179–183. 43 Für ein besseres Verständnis der getroffenen Unterscheidung zwischen den beiden Formen von Technik ist es vielleicht hilfreich, wenn der einfache Modus von Technik als Black Box der Kausalität von verschiedenen Elementen und der reflexive Modus von Technik als Black Box der technischen Form, die auf der Seite des Kontrollierbaren unterschiedliche Black Boxen der Kausalität beinhalten können, beschrieben wird. 44 Beim Bau des Berliner Flughafens wurden diese normalen Planungsprozesse zum großen Problem, da sich während der Planung, in jedem Fall vor der Fertigstellung des Flughafens, die Kontextbedingungen (insbesondere Brandschutzverordnungen, politischer Druck, gesellschaftliche Befürwortung, ökonomische Chancen etc.) wandelten, die dann aber nicht – oder eben jetzt nachträglich und kostenintensiv – in die Planung eingeflossen sind. 29 oft ändern sich im digitalen Bereich die Kontextbedingungen extrem schnell: Kundenbedürfnisse wandeln sich, neue Endgeräte und andere technische Standards werden etabliert; die Konkurrenz ist zumeist global etc. Eine normale Planung vor der Realisierung – im Digitalbusiness abschätzig als ›Wasserfallmodell‹ bezeichnet – kann daher nicht mehr funktionieren. Vielmehr werden aus einem großen Plan viele kleine, iterative Planungs- und Entwicklungsschleifen mit extrem kurzen, beispielsweise zweiwöchigen Zeiträumen gemacht, um so immer wieder neu auf die Änderungen der Umwelt reagieren zu können. Die Erwartung an Technik wird dadurch flexibilisiert, alles ist work in progress oder verbleibt im permanenten ›Beta‹-Modus. Scrum als solch ein Framework verändert damit nicht nur die Technik, sondern auch die soziale Organisation in den Unternehmen und die etablierten Entscheidungsbefugnisse.45 Der andere Fall betrifft gegenwärtige Praktiken der Websitegestaltung. Im sogenannten multivariaten Testing werden mehrere Webpage-Gestaltungen gegeneinander getestet. Wenn genügend Traffic (Nutzeraufkommen) vorhanden ist, werden nicht nur drei bis fünf Gestaltungsvarianten einer Seite gegeneinander ins Rennen geschickt, sondern tausende Varianten. So werden beispielsweise auf einer Bestellseite verschiedene Farbgebungen, Formularfeldbezeichnungen und -anordnungen, Hilfetexte, Buttonfarben und -größen etc. gegeneinander hinsichtlich verschiedener Kennzahlen, sogenannter Key Performance Indicators (KPIs), getestet. Die Orientierung, wie eine solche Seite gestaltet wird, löst sich damit weitgehend von etablierten Normen, Designstandards oder auch dem Folgen der Konkurrenz als dem empirisch Normalen. Bestehen bleibt nämlich einzig die Variante, die hinsichtlich der Kennzahlen am besten funktioniert. Warum sie dies tut oder wie lange dies funktioniert, bleibt unerheblich. Es werden daher wieder keine konkreten Erwartungen an einen konkreten Wirkzusammenhang – wie bei einfacher Technik – gelegt, sondern vielmehr Erwartungen hinsichtlich eines spezifischen Testdesigns ausgebildet. Es ließen sich meines Erachtens noch viele weitere Beispiele finden, in denen Arbeit und Spiel in dieser Weise miteinander in ein spezifisches Verhältnis gebracht wird, das ich als reflexive Technik beschrieben habe.46 So scheinen mir die Praktiken von Data Scientists im Umgang mit Big Data – also einer Vielzahl von rohen, 45 Vgl. zu einem genaueren Einblick meine empirische Studie in mehreren Unternehmen zur Frage der Zusammenarbeit: Meißner: Techniken des Sozialen. 46 Andere Beispiele ließen sich u.a. in der Studie von Uwe Vormbusch finden: Uwe Vormbusch: Die Herrschaft der Zahlen. Zur Kalkulation des Sozialen in der kapitalistischen Moderne, Frankfurt am Main, New York 2012. Meines Erachtens stellt auch die gegenwärtig populäre Rede von sogenannten Nudges eine Form von reflexiver Technik dar: Vgl. Richard H. Thaler, u.a.: Nudge. Wie man kluge Entscheidungen anstößt, Berlin 2009. Zudem ließen sich aus den zum Teil doch sehr kruden und affirmativen Beschreibungen von Pentland und Waber vom MIT unterschiedliche Beispiele für eine solche reflexive Form von Technik herausziehen: Vgl. Alex Pentland: Honest Signals. How They Shape Our World, Cambridge, Mass 2008; Alex Pentland: Social Physics. How Social Networks Can Make Us Smarter, New York 2014 und Ben Waber: People Analytics. How Social Sensing Technology Will Transform Business and 30 unstrukturierten Daten –, die durch verschiedene Methoden und Werkzeuge zum Sprechen gebracht werden sollen, also neue, überraschende Muster offenbaren sollen, nur durch eine spezifische Kombination von Arbeit und Spiel, das hier als Testdesign im Sinne einer reflexiven Form von Technik beschrieben wurde, plausibel beschreibbar.47 Die Pointe einer Beschreibung der spezifischen Verschränkung von Arbeit und Spiel als reflexive Form von Technik, das heißt der gezielten Kontingenznutzung der technischen Grenzziehung selbst, bei der die Grenze nicht invisibilisiert, sondern vielmehr sichtbar gehalten wird, um sie permanent austesten zu können, besteht darin, dass auch diese hochgetriebene Form weiter Technik bleibt. Auch sie entsteht einzig durch eine kontingente Isolation von und durch eine gezielte Ignoranz gegen- über der Welt – die technische Unterscheidung von ›kontrollierbar‹ und ›nicht-kontrollierbar‹ kann stets auch anders gezogen werden. Gegenwärtig öfter zu hörenden Thesen, die aus der begrifflich-semantischen Verschränkung, Überlagerung und Verknüpfung von Arbeit und Spiel eine empirische Amalgamierung dieser verschiedenen Praxisformen behaupten und dies als Fortschritt, Emanzipation oder gar Notwendigkeit ausflaggen, kann mit der hier vollzogenen begrifflichen Rekonstruktion die Kontingenz dieses Arrangements entgegengehalten werden. Denn auch reflexive Technik im Sinne von Design und Gestaltung ist nur ein Modus von Technik, der konstitutiv auf die technische Grenzziehung von kontrollierbar/nicht-kontrollierbar angewiesen ist. Diese Grenzziehung ist stets auch anders möglich und damit ebenso flüchtig wie eine im Spiel mit dem Kind erbaute Sandburg am Meer. What It Tells Us about the Future of Work, New Jersey 2013. Vgl. hierzu auch meine Ausführungen in: Meißner, Techniken des Sozialen, Kap. 6. 47 Aus meiner Sicht eine sehr ähnliche Perspektive nimmt Dirk Baecker ein, der jedoch dafür den Designbegriff ins Zentrum rückt: Dirk Baecker: »Designvertrauen: Ungewissheitsabsorption in der nächsten Gesellschaft«, in: Merkur 69 (2015), Heft 12, S. 89–97. 31 Oliver Laas Instrumental Play Abstracts Work and play are traditionally viewed as opposites: Work is instrumental since it is valuable as a way of using certain means to some external end, while play is autotelic because it is intrinsically valuable and an end in itself. Call this the work-ethic view of play. I will argue against this widespread view, and will present an account of the instrumental play attitude – a mixed attitude that is both autotelic and instrumental. In the first section of this essay, I will introduce the work-ethic view of play, and Bernard Suits’s definition of ›play‹ as a statement of it. Section two contains three arguments against the work-ethic view. Sections three and four attack Suits’s definition of ›play‹ and its presuppositions. Finally, section five justifies the introduction of a notion of instrumental play, and the concept itself is defined in section six. Arbeit und Spiel gelten klassischerweise als Gegensätze: Arbeit ist instrumentell, da sie im Einsatz von Mitteln für äußere Zweck einen Nutzen verfolgt, während Spiel autotelisch ist, da es Sinn und Zweck in sich selber hat. Nennen wir dies die arbeitsethische Auffassung von Spiel. Ich werde gegen diese weitverbreitete Betrachtungsweise argumentieren und einen Ansatz eines instrumentellen Spielverhaltens vorstellen – ein hybrides Verhalten, das sowohl selbstzweckhaft als auch instrumentell ist. Im ersten Abschnitt des Beitrags werde ich die arbeitsethische Auffassung von Spiel und Bernard Suits’ Spiel-Definition als eine Äußerung dieser Auffassung vorstellen. Der zweite Abschnitt enthält drei Argumente gegen diese arbeitsethische Betrachtungsweise. Abschnitt drei und vier kritisieren Suits’ Definition und deren Vorannahmen. Abschnitt fünf wird die Einführung des Begriffs des instrumentellen Spiels rechtfertigen; und Abschnitt sechs eine Definition des Begriffs geben. The work-ethic view of play The common view among philosophers and laymen alike is that play and work are antithetical. Work is an instrumental activity that is located within ordinary life while play is an autotelic activity that stands outside the pedestrian sphere of everyday affairs. Call this the work-ethic view of play because, historically, it stems from the Protestant work ethic as well as the urban industrial view of time, which viewed play as a waste of time. This view was predominant in Western culture for the last four hundred years. It rests on a fundamental and absolute distinction between work and play: work is obligatory, sober, serious, and not fun, while play is the opposite of all these things.1 1 See Brian Sutton-Smith: The Ambiguity of Play, Cambridge, Mass.: Harvard UP 2001, pp. 201– 202. 33 Examples of the work-ethic view can be found in multiple disciplines that study play and games. A classical and clear example comes from Bernard Suits, a prominent philosopher of sport and author of the book The Grasshopper, whose definition of ›play‹ is influential and codifies the central assumptions of the work-ethic view precisely. Besides its connection with the work-ethic view, another reason for focusing on Suits’s definition is that it acts as a foil against which to elaborate my account of instrumental play. Suits insists that play is an autotelic activity – an intrinsically valuable activity that is an end in itself – while work is an instrumental activity aimed at something extrinsic to itself.2 He defines play as follows: »x is playing if and only if x has made a temporary reallocation to autotelic activities of resources primarily committed to instrumental activities«.3 This is a loosely stated definition by genus and difference because Suits seeks to find an appropriate differentia specifica that would set play apart from other autotelic activities (›play‹ and ›autotelic activity‹ are not synonyms), such as the contemplation of God or a cat chasing its own tail, constituting the genus of his definition. Suits’s definition of ›play‹ can be formulated explicitly as a definition by genus and difference as follows: playing is an autotelic activity where resources primarily committed to instrumental activities have been temporarily reallocated to autotelic activities. Traditionally, the technique of defining by genus and difference, first studied by Aristotle,4 is understood as giving a real or essence definition that provides facts of essence about the entity referred to by the defined term.5 Discovering the real definition of some term X has commonly been taken to require investigating the thing that it denotes. If philosophically important terms have real definitions, then words like ›play‹ and ›game‹ have objective meanings uncoverable by conceptual analysis.6 That Suits likely had such goals in mind is suggested by his claim that we ought to seek a definition of ›game‹ by looking not at the commonalities between the things called games, but the things that are games.7 This was motivated by his reading of Wittgenstein and his disagreement with the latter’s claim that words 2 See Bernard H. Suits: The Grasshopper. Games, Life and Utopia, Toronto: Toronto UP 1978, pp. 161. 3 Bernard H. Suits: »Words on Play«, Journal of the Philosophy of Sport 4 (1977), pp. 117–131, here p. 124. 4 See Aristotle: The Complete Works of Aristotle, Vol. 1, ed. Jonathan Barnes, Princeton, N.J.: Princeton UP 1984, 101b30–103a5. 5 See Edward Schiappa: Defining Reality. Definitions and the Politics of Meaning, Carbondale and Edwardsville: Southern Illinois UP 2003, 6; Fabrizio Macagno and Douglas Walton: »Reasoning from Classifications and Definitions«, Argumentation: An International Journal on Reasoning 23 (2009), pp. 81–107. 6 See Douglas Walton: »Persuasive Definitions and Public Policy Arguments«, Argumentation Advocacy. The Journal of the American Forensic Association 37 (2001), pp. 117–132, here p. 124–125. 7 See Suits: The Grasshopper, p. ix–x. 34 like ›game‹ express family-resemblance concepts that cannot be defined in terms of necessary and sufficient criteria (e.g. by genus and difference). There are three noteworthy things about Suits’s definition. First, it purports to give the objective meaning of ›play‹ by stating certain facts of essence about the activities denoted by the term. Second, whether an activity can be classified as play according to this definition depends on the participants’ attitudes toward it: if a participant engages in the activity for its own sake, and it involves the reallocation of resources primarily intended for activities engaged in for external reasons, then it can be classified as an instance of playing. Note that using attitudes as a differentia specifica in an essence definition of ›play‹ is no more out of place here than they would be in a purported essence definition of ›propositional attitude‹: both expressions refer to situations that are distinguished from other kinds of situations by the attitudes of those involved. Defining ›play‹ in this way also attempts to do justice to the fact that almost any activity can become an instance of play, if the participants adopt a certain kind of stance toward it; and stances rest on attitudes. Third, Suits’s definition rests on a dichotomy between autotelic and instrumental activities since the differentia specifica of reallocated resources requires a sharp distinction between the two. This dichotomy presupposes the work-ethic view of play since it sees work as a paradigm of instrumental activities. Those are clearly separated from autotelic activities. It follows from Suits’s definition that activities like house-building or theorem-proving can be instances of play only if the attitude of the agent engaged in these activities is such that he treats them as ends in themselves.8 Suits goes on to argue for the logical independence thesis: from the fact that x is an instance of playing it does not follow that x is an instance of playing a game (i.e. game-playing), and from the fact that y is an instance of game-playing it does not follow that y is an instance of playing. According to Suits, this only seems incredible, because our ordinary locutions, such as »playing a game«, are confused – they involve at least three senses of ›play‹: ›play‹ as a synonym for performing (e.g. ›playing a trombone‹), ›play‹ as a synonym for operating some device (e.g. ›playing a pinball machine‹), and ›play‹ as a synonym for participating in some activity. Suits claims that such meanings may qualify as metaphorical meanings of ›play‹, but, whatever their place in our colloquial vocabularies, the mere existence of expressions like ›playing a game‹ does not establish a logical connection between playing and playing games.9 It follows that one can participate in a game without playing. For instance, when professional athletes perform in games for money, they are playing in the sense of performing, but are not playing in the sense of engaging in an autotelic activity. An earlier statement of this view can be found, for instance, 8 Indeed, Suits bases his account of utopia on this idea. See Suits: The Grasshopper. 9 See Suits: »Words on Play«, p. 120. 35 in Roger Caillois’s Man, Play and Games. He argues that professional players who make a living by playing – boxers, actors, etc. – are workers and not players.10 Suits’s supporting argument for the logical independence thesis is worth examining since it also supports the work/play opposition. He argues that games and play are two different types of categories: ›play‹ is a relative term that is always shadowed by its tacit opposite, ›work‹, while non-relative terms, like ›game‹, have no tacit opposite. To establish his point, he compares the relationships between two relative terms, ›play‹ and ›light‹, and two non-relative terms, ›game‹ and ›blue‹, to show that just as ›light‹ is logically independent from ›blue‹, so ›play‹ is logically independent from ›game‹. This is an argument from analogy. Such arguments have the following form: 1. A situation is described in case s. 2. P is plausibly drawn as an acceptable conclusion in case s. 3. Generally, case s is similar to case t. 4. Therefore, P is plausibly drawn as an acceptable conclusion in case t.11 Here, s is the source case that is used to set up the analogy, and t is the target case to which the source case is compared.12 An argument from analogy draws a conclusion about the target case on the basis of its similarity in some relevant respects with the source case.13 Suits’s argument, then, goes as follows: 1. The word ›play‹ is like the word ›light‹ (when referring to a color) in that both are relative terms which tacitly denote their tacit opposites – viz. ›instead of serious‹ and ›not dark‹, respectively – whereas the word ›game‹ is like the word ›blue‹ in that both are non-relative terms which have no tacit opposites. 2. Plausibly, the relative term ›light‹ is logically independent from the non-relative term ›blue‹ since one cannot infer the lightness of a color from its blueness nor the blueness of a color from its lightness. 10 See Roger Caillois: Man, Play and Games, tr. Meyer Barash, Chicago: Illinois UP 2001, pp. 5– 6. 11 I am aware that there are numerous alternative formulations of analogical arguments in the literature. Likewise, logicians disagree over whether arguments from analogy are deductive, inductive, or plausible arguments. I have opted for the plausibility interpretation, as can be seen from the argument form, because this is not a deductive argument and interpreting it as an inductive argument would make it weaker than would be warranted by the textual evidence. For additional arguments in support of interpreting analogical arguments in ordinary language argumentation as plausible arguments, see Marcello Guarini: »A Defense of Non-Deductive Reconstructions of Analogical Arguments«, Informal Logic. Reasoning and Argumentation in Theory and Practice 24 (2004), pp. 153–168. 12 See Douglas Walton: »Argumentation Schemes for Argument from Analogy«, in: Henrique Jales Ribeiro, ed., Systematic Approaches to Argument from Analogy, Cham: Springer, pp. 23– 40, here p. 24. 13 See Trudy Govier: A Practical Study of Argument, Enhanced 7th Edition, Wadsworth: Cengage Learning 2014, p. 318. 36 3. Generally, the relationship between the relative term ›light‹ and the non-relative term ›blue‹ is similar to the relationship between the relative term ›play‹ and the non-relative term ›game‹. 4. Therefore, plausibly the relative term ›play‹ is logically independent from the non-relative term ›game‹ since one cannot infer that one is playing from the fact that one is engaged in a game nor the fact that one is engaged in a game from the fact that one is playing.14 If this argument is cogent, then playing is independent from being engaged in a game, and there is an inherent opposition between work and play, since the argument’s cogency demands that (1) must be acceptable. Note that (1) draws a distinction between two categories, play and game, based on a similarity between the terms used for expressing them, and the terms ›light‹ and ›blue‹. On the one hand, just as the term ›light‹ makes sense only relative to something else, so too can ›play‹ be understood only in relation to things that are not play (e.g. work). On the other hand, ›game‹ is like ›blue‹ in that both can be understood by themselves and independently of other things. Thus, Suits claims that when we classify something as an instance of playing, then we are tacitly saying that those involved in the activity are not treating that which they are playing with as it is normally treated, that is, seriously and instrumentally. Premise (1) is supported by Suits’s definition of ›play‹ that presupposes the autotelic/instrumental dichotomy. Thus, an attempt to challenge the work/play opposition or to blur the boundaries between the two should address Suits’s definition and argument. I will do so in the next three sections by giving three general arguments against the work-ethic view of play, presenting three objections against Suits’s argument for the logical incompatibility thesis, and by adopting the Wittgensteinian Thesis on Defining,15 which claims that definitions in general do not give us facts of essence about the things denoted by the defined term. This should open the way for an account of instrumental play. Criticisms of the work-ethic view There are a number of problems with the work-ethic view of play. I will highlight some of these problems by considering three arguments against this view (in no particular or chronological order). 14 See Suits: »Words on Play«, p. 121. William J. Morgan: »Some Further Words on Suits on Play«, Journal of the Philosophy of Sport 35 (2008), pp. 120–141, here p. 123. 15 See Oliver Laas: »On Game Definitions«, Journal of the Philosophy of Sport 44 (2017), pp. 81–94. 37 First, play can be very serious for the players – they earnestly strive for important personal and social results that cannot easily be attained in any other way.16 Unless the players are deluded about their attitudes and motivations, play is not always a frivolous endeavor. Call this the seriousness of play objection. Second, Huizinga has argued that play has a fundamental function in human life and society.17 Play contributes to the emergence of numerous characteristic features of culture by creating a symbolic and poetic world alongside the natural one. For example, he argues that philosophy arose out of riddle-solving contests. Even though he sometimes overstates the role of play in culture and society, Huizinga’s study indicates that play can be productive and serious. Call this the functionality of play objection. Third, the work/play opposition is not as universal as it might initially seem. There are societies where play is an integral part of religious and work ceremonies. Thus, the work/play opposition appears to be specific to Western culture.18 Call this the ethnographic objection since it rests on empirical ethnographic evidence. Criticism on Suits But what about Suits’s argument for the logical independence of play from games? If his argument is cogent, then one could argue against the seriousness objection that player’s attitudes about their activity have no bearing on the logical nature of the relational term ›play‹ that partly derives its meaning from an inherent opposition to serious activities. Likewise, one could argue against the functional objection that Huizinga’s understanding of play is muddled, since he treats certain serious activities as instances of play, or that the fundamental play-activities he is talking about cease to be instances of play when they turn into cultural institutions like philosophy, jurisprudence or art, that is, into serious endeavors. Suggesting that such things are instances of play, because they might have originated from playful activities, would come close to committing the genetic fallacy: just because something originated from play does not mean that it still is play. Finally, Suits’s argument could allow one to claim against the ethnographic objection that if being opposed to serious activities is an essential feature of the meaning of ›play‹, then the ethnographers and their informants are simply using the term loosely when describing certain parts of ceremonies and rituals as play. Thus, obser- 16 See Sutton-Smith: The Ambiguity of Play, p. 202. 17 See Johan Huizinga: Homo Ludens. A Study of the Play-Element in Culture, Boston: Beacon 1955. 18 See David F. Lancy and B. Allan Tindall, eds., The Anthropological Study of Play: Problems and Prospects, West Point, N.Y.: Leisure 1976. 38 vations of play-like activities in ceremonies and rituals do not undermine the workethic view since such activities are not genuine instances of playing. These considerations show that in addition to the arguments given against the work-ethic view, Suits’s argument for the logical incompatibility thesis must be addressed as well. A challenge to Suits’s argument for the logical independence thesis is the problem of mixed motives, as it is called in the literature:19 even if autotelicity is necessary for play, it is unclear why an activity that has some external end could not also be desired for its own sake. Suppose I invent a new game, Wall Ball, which involves throwing a rubber ball against a wall, and catching it with my hands. It has rules, techniques, a scoring system – all the features of a game. Suppose the game catches on, and eventually others are paying to watch me and my friends start playing – we have become professional wall ballers. According to Suits, whether an activity qualifies as an instance of play depends on the participant’s attitudes toward it. But if my attitude toward the game has not changed – I retained my love for Wall Ball, was happy to be paid for playing it, hopeful that I will continue to be paid for playing it, etc. – then when exactly was the game transformed into work? The first time I was paid for playing it? Would it become an instance of playing the moment I stopped getting paid? My attitudes toward the game could be mixed: I could be happy for being paid to play, but would still play without remuneration. More generally, intrinsic and extrinsic values, as well as autotelic and instrumental aims, may coexist in the same activity, for instance, when one’s vocation is also one’s hobby. In such cases, one engages in one’s work both for its own sake as well as for the sake of some instrumental good, such as money. It seems that professional philosophers (Socrates’s objections against the sophists notwithstanding), artists, and athletes are relevant examples of people who engage in their chosen activities with mixed motives. Finally, another example of an activity with mixed motives is engaging in politics, at least according to Aristotle,20 since its ultimate aim is autotelic – the good of man, but the means for attaining it are often instrumental – e.g. the solution of some particular practical problem with the ultimate aim of moving toward the good of man. Suits’s definition of ›play‹ also suffers from the divided resources problem. The definition requires the reallocation of instrumental resources – resources that are normally the objects of instrumental attitudes – to autotelic activities. Suppose Johnny likes to play alone outside without any implements whatsoever; his favorite pastime was simply »gamboling about on the greensward«.21 Since Johnny is not playing with anything – he is not reallocating any resources for his amusement – it seems 19 See Randolph Feezell: »A Pluralist Conception of Play«, Journal of the Philosophy of Sport 37 (2010), pp. 147–165, here p. 154. 20 See Aristotle: The Complete Works of Aristotle, Vol. 2, ed. Jonathan Barnes, Princeton, N.J.: Princeton UP 1984, 1094a18–1094b11. 21 See Suits: »Words on Play«, p. 125. 39 that he is not playing according to Suits’s definition. But if we recognize that time, like balls and bats, is a resource, then Johnny is playing after all, since he is committing his time to something that he wants to do rather than what he has to do. But this raises the divided resources problem: whether or not the reallocation of a single resource like time is sufficient for Suits’s definition when applied to things like games. For example, baseball involves resources like balls, bats, and so on, in addition to time. Which of these resources must be diverted for baseball to count as an instance of playing according to Suits’s definition? Johnny’s case is simple since it involves a single resource, but things are not as clear-cut in more complex cases involving multiple resources.22 The Wittgensteinian Thesis on Defining Suppose the mixed motives problem shows that Suits’s argument is not cogent (at least not without additional arguments), and objections against the work-ethic view cannot be challenged by appealing to it. Also, suppose that the divided resources problem raises a relevant objection against his definition of ›play‹. One could still argue that if his real definition of ›play‹ captures facts of essence about playing, that show the logical opposition of autotelic activities to instrumental activities, then the work-ethic view of play is correct, regardless of empirical evidence or the logical (in)dependence of playing from game-playing. Thus, I must address the idea that Suits’s definition of play, or any definition for that matter, can provide facts of essence about the entities denoted by the defined term. Elsewhere I have defended the so-called Wittgensteinian Thesis on Defining (WTD). It states that: 1. definitions are of different kinds; 2. definitions are relative to the definer’s purpose; 3. definitions do not capture the essences of things; 4. the meanings of definitions, like the meanings of concepts and linguistic entities in general, are language-game and theory-dependent.23 Claims 2–4 are compatible with the argumentative view of definitions asserting that definitions outside of formal languages are »either prescriptions or empirical hypotheses concerning the synonymy of the definiens with the definiendum«.24 From this perspective, definitions have argumentative character in ordinary language dis- 22 See Morgan: »Some Further Words on Suits on Play«, p. 126–127. 23 See Laas: »On Game Definitions«. 24 Chaim Perelman and Lucie Olbrechts-Tyteca: The New Rhetoric. A Treatise on Argumentation, Notre Dame: Notre Dame UP 1969, p. 211. 40 course and argumentation: they can be supported by arguments or they can be arguments. For example, the autotelic/instrumental dichotomy implicit in Suits’s definition of ›play‹ provides the grounds for premise (1) in his argument in support of the logical incompatibility thesis. Claim 3 of the WTD is the most relevant one for arguing against the idea that Suits’s definition of ›play‹, or anyone else’s for that matter, captures facts of essence about playing. On the one hand, real definitions purportedly describe the true essence of the entity being defined. In philosophy, such definitions are commonly elicited by Socratic questions of the form »What is x?« (i.e. what is x in reality?), and they purport to report facts of essence about x. A persuasive definition, on the other hand, gives a word – in mala fide or bona fide – a new descriptive meaning while keeping its emotive meaning fixed to alter the audience’s attitudes by praising or denigrating what the defined term designates.25 In other words, a persuasive definition is a non-neutral characterization that conveys a positive or negative attitude in the course of naming a thing, and the name is an implicit argument that the entity referred to by the name should be viewed in a particular way. Such an argument is actually never advanced, and the definition is put forward as if it were uncontroversial, while the supporting argument is smuggled in during the act of defining.26 The presence of persuasive definitions is signaled by two indicators: 1. The presence or prominence of emotive meaning. 2. The metaphoric use of words like ›real‹ or ›true‹ where such words have the persuasive force of »to be accepted«. For instance, »real courage« is »the strength to stand against adverse public opinion«. These indicators are useful when persuasive definitions are presented as resulting from logical analysis. According to the argumentative view of definitions and the WTD, real or essence definitions should be treated as special kinds of persuasive definitions that make a claim about the essence or nature of some x that it is F (e.g. »the essence of religion is love«). Such definitions are commonly expressed in the following ways: »the 25 The descriptive meaning or sense of a word picks out its referent in all possible worlds and states the ways in which the world must be for the word to be applicable. See Charles L. Stevenson: »Persuasive Definitions«, Mind 47 (1938), pp. 331–350. The emotive meaning or tone of a word is its historically accrued conventional power to express emotions and alter attitudes by presenting things in a laudatory or derogatory way through the evocation of emotions. See Ibid. Regarding to persuasive definitions see also Junichi Aomi: »Persuasive Definitions in Social Sciences and Social Thought«, in: Eugenio Bulygin, Jean-Louis Gardies, and Ilkka Niiniluoto, eds., Man, Law and Modern Forms of Life, Dordrecht: D. Reidel, pp. 187–190, here p. 187. 26 See David Zarefsky: »Strategic Maneuvering through Persuasive Definitions. Implications for Dialectic and Rhetoric«, Argumentation: An International Journal of Reasoning 20 (2006), pp. 399–416, here p. 404. 41 essence of x  is F«, »x is by nature F«, »real x is F«, and so on. The two-stage strategy for proposing such definitions usually proceeds as follows: 1. The author begins with a dictionary or common definition of a term, and proceeds to argue that it must be redefined to gain a »true« or »real« understanding of the concept. 2. On the grounds given in (1), the author then proclaims the term’s ›real‹ definition. Essence definitions should be seen as hypotheses or tentative proposals intended to persuade others to further inquire into the object denoted by the defined term from a particular point of view. In the face of strong counterarguments, an essence definition should either be defended with arguments or abandoned as a failed hypothesis.27 Although this entails giving up answers to Socratic questions about play, games, and other phenomena, the cost is not as great as it may initially seem. Questions in the form »What is x?« are the vaguest of all because they admit a potential infinity of answers. They are also pernicious since they can lead to insoluble metaphysical disagreements, and ›save‹ us from the trouble of spelling out what it is that we want to know about x.28 According to this view, Suits’s definition of ›play‹ is at best a proposal for viewing play from a particular point of view. It does not capture facts of essence about playing. Claim 2 of the WTD states that definitions are relative to the definer’s purpose. Definitions are closely related to classification, since classifying some x as a so-andso rests on a definition of so-and-so’s. Classification is a matter of choosing words in support of a point of view and against other contending points of view. Defining in argumentation is often tantamount to advancing an opinion and an argument about a situation, both of which are often left implicit.29 Those who argue in favor of some definition wish to influence the way in which the defined concept is normally used.30 This is the case because defining is guided by our beliefs, needs, and interests. Definitions are normative and prescriptive because they affirm or deny specific interests while encouraging particular linguistic and non-linguistic behaviors.31 The 27 See Douglas Walton: Fundamentals of Critical Argumentation, Cambridge: Cambridge UP 2006, p. 251; Douglas Walton and Fabrizio Macagno: »Classification and Ambiguity. The Role of Definition in a Conceptual System«, Studies in Logic, Grammar and Rhetoric 16 (2009), pp. 245–264, here p. 246 and Rubert Crawshay-Williams: Methods and Criteria of Reasoning. An Inquiry into the Structure of Controversy, New York: Humanities 1957. 28 See Richard Robinson: Definition, Oxford: Clarendon Press 1950, p. 190. Schippa: Defining Reality, p. 10. Walton et al.: »Classification and Ambiguity«, p. 246. 29 See Douglas Walton, Chris Reed, and Fabrizio Macagno: Argumentation Schemes, Cambridge: Cambridge UP 2008, p. 67. 30 See Perelman et al.: The New Rhetoric, p. 213. 31 See Schiappa: Defining Reality, pp. 66–70. 42 purpose of Suits’s definition, for instance, is to establish play as a separate kind of autotelic activity that is opposed to instrumental activities. Finally, claim 4 of the WTD states that the meanings of defined terms in philosophy, like ›play‹, are similar to defined terms in science in that both are theory-dependent. ›Phlogiston‹ has the meaning it does relative to a particular theory, and the evidence supporting it are factual within that theory.32 Likewise, Suits’s definition of ›play‹ presupposes the work-ethic view of play, and the claims it makes about play are supported by data that is factual relative to that view. Supporting data are not factual outside of all frameworks since one does not empirically observe or intellectually intuit the essence of an entity in an unbiased, value-neutral manner before codifying the results of one’s inquiry in a real definition. Real definitions are, like all other definitions, first and foremost linguistic entities, and as such they are historically contingent on the definer’s circumstances, goals, and commitments. According to the WTD, Suits’s definition is relative to the workethic view of play and his purposes, and does not capture facts of essence. Hence, it should be evaluated according to pragmatic criteria in light of how well it solves certain philosophical puzzles, not by claiming that it captures certain essential features about playing. To be clear, the WTD supports a plurality of definitions of ›play‹ and theoretical frameworks in which they are advanced. However, the WTD rejects the idea that any one of these definitions is privileged because it captures the essence of the entity referred to by the defined term. It follows that the autotelic/instrumental dichotomy at the heart of the work-ethic view cannot be defended by appealing to Suits’s real definition of play, since real or essence definitions are hypotheses open to criticism, and the arguments against Suits’s definition given above put forward good reasons for rejecting it as a hypothesis about all play-activities. The Wittgensteinian approach to definitions of ›play‹ is supported by the ambiguity of play. This is due to the diversity of play forms (children’s play, tourism, daydreaming), the diversity of players (children, adults, gamblers), the variety of play equipment (balls, bats, boards), play scenarios (playpens, playhouses, sports fields), play duration (from a few seconds to entire seasons) and scholarly perspectives on play (as adaptation, metacommunication, or the manifestation of power relations).33 We should come to terms with the idea that there is no essence of play. Instead, there are multiple approaches for studying play. Each approach picks out certain properties relevant to its theoretical and explanatory perspective whilst ignoring others. However, none of them provide a complete account of play. We should be content with a non-reductive, pluralist account of play where different approaches are seen 32 Ibid., pp. 64–65, 105. 33 See Sutton-Smith: The Ambiguity of Play, pp. 3–7. 43 as making significant contributions to our overall understanding of the complex and ubiquitous phenomenon that is play.34 An argument from technology for the instrumental play attitude I agree with Suits that whether an activity is an instance of playing or not depends on the participant’s attitudes. Attitudes involve evaluations of and emotional responses to some object. Although attitudes are commonly taken as differing from beliefs in that the latter are cognitive while the former are not, both exhibit intentionality or aboutness, meaning that attitudes and beliefs are about certain objects which they represent in a particular way. According to Suits’s definition, activities like house-building or theorem-proving are instances of play only if they are treated as purely autotelic activities. I wish to argue that such activities can be both autotelic and instrumental, viz. that they can be instances of instrumental play. Even if the work/play opposition cannot be upheld, what justification is there for blurring the boundaries between the two? It can be argued that introducing the notion of instrumental play is motivated by certain technologies that involve activities and objects that have traditionally been excluded from the sphere of work, and the use of which involves a mixed attitude that is both autotelic and instrumental. Before presenting my argument from technology in support of introducing the notion of instrumental play, a word on ›technology‹. The term ›technology‹ was defined in numerous ways,35 but probably one of the broadest definitions was proposed by John Dewey who, in his later years equated ›technology‹ with the method of inquiry itself. For him, technology consisted of tools for attaining certain ends-inview. Ends-in-view are »projections of possible consequences […] conditioned by antecedent natural conditions as is perception of contemporary objects«36; they are »aims, things viewed after deliberation as worthy of attainment and as evocative of effort [that] are formed from objects taken in their immediate and terminal qualities; objects once having occurred as endings, but which are not now in existence and which are not likely to come into existence save by an action which modifies surroundings«.37 34 See Feezell: »A Pluralist Conception of Play«, pp. 162–163. 35 For an overview of definitions of ›technology‹ see Carl Mitcham and Eric Schatzberg: »Defining Technology and the Engineering Sciences«, in: Anthonie Meijers, ed., Handbook of the Philosophy of Science, Vol. 9. Philosophy of Technology and Engineering Sciences, Amsterdam: Elsevier/North-Holland 2009, pp. 27–63. 36 John Dewey: Experience and Nature, 2nd Edition, La Salle, Ill.: Open Court Publishing Co. 1965, p. 86. 37 Ibid, p. 88. 44 In short, an end-in-view is a plan or hypothesis that guides present activity, is evaluated by its consequences and is revised throughout the activity guided by it. Ends and means reciprocally shape each other until the problematic situation that prompted the whole endeavor has been resolved. For Dewey, both engines and mathematical theories were instances of technology. One instance of a technology in Dewey’s pragmatic sense is the game paradigm. Games and game models are one of the oldest paradigms for studying cognition, reasoning and aspects of the world.38 Game-like thinking can already be found in the Socratic elenchus as well as in Aristotle’s Topics, where he discusses dialectical situations in terms of an answerer who must defend his thesis, and a questioner who tries to get the answerer to change his thesis by granting its opposite. These ideas were developed further in the medieval ars obligatoria, and resurfaced in the form of dialogical logic in the 20th century. Strategic games within game theory provide another example of a specific technology within the game paradigm. The purpose of John von Neumann’s and Oskar Morenstern’s economic game theory was to model situations of strategic interdependence as games;39 that is, situations where individual’s decisions are interrelated because they depend on expectations about what others are doing. The paradigms that inspired strategic games were wargames, such as the Prussian Kriegspiel, and parlor games like Poker. These game models of conflict, and their various extensions, have proven versatile for studying the strategic aspects of interactions between humans, firms, animals, and so on. A final example of a technology within the game paradigm is Ludwig Wittgenstein’s language-games. They were originally introduced for the purpose of solving philosophical problems. The notion of language-games rests on an analogy between language and chess, which was a suitable paradigm of a game for Wittgenstein’s purposes, since he saw both chess and language as rule-governed activities.40 The language-game analogy is powerful because it offers a familiar, normative, and rulegoverned activity to compare with language and its use. It encourages us to focus on the activities of language users, as well as to note the logical diversity and multiplicity of our speech activities.41 With the influence of game theory, language-games have been developed into semantic games for studying truth, reference, and language-world relationships, as well as into pragmatic games for studying communi- 38 For a survey see Ahti-Veikko Pietarinen: Signs of Logic. Peircean Themes on the Philosophy of Language, Games, and Communication, Dordrecht: Springer 2006, pp. 317–344. 39 See John von Neumann and Oskar Morgenstern: The Theory of Games and Economic Behavior, 3rd Edition, Princeton: Princeton UP 1953. 40 See Ludwig Wittgenstein: Philosophical Grammar, tr. Anthony Kenny, London: Basil Blackwell 1974, § 10. 41 See Gordon P. Baker and P. M. S. Hacker: Wittgenstein. Understanding and Meaning, Volume 1 of an Analytical Commentary on the Philosophical Investigations, Part I: Essays, 2nd Extensively Revised Edition, Oxford: Blackwell 2005, p. 64. 45 cation, implicature, and other pragmatic phenomena. Various other kinds of game models can be found in different disciplines: dialogue games in mathematics, logic, and computer science (for determining logical truth, the validity of proofs, and for modeling computational tasks), information-seeking games in epistemology and philosophy of science (for modeling inquiry as an interrogative process where scientists put questions to nature), and so on. The common denominator between these various kinds of games is typically a minimal set of concepts that include notions like ›players‹, ›universes‹, ›positions‹, ›rules‹, ›actions‹ and ›strategies‹.42 In each of these examples, game-like objects are played with for various instrumental purposes, such as decision-making, theorem-proving, or inquiring into the natural world. While each of these activities might be intrinsically valuable to some extent, they are also extrinsically valuable for the attainment of certain ends. The game paradigm is an example of a technology that mixes autotelic and instrumental activities. Therefore, the introduction of a notion of instrumental play is justified. But why can games be rationalized and turned into models? The WTD precludes essentializing answers. Games provide versatile tools for studying diverse intellectual realms because family-resemblance concepts like ›game‹ and ›play‹ refer to a vague cluster of phenomena. Different definitions of ›game‹ and ›play‹ – relative to the definer’s ends-in-view – are proposals for treating different features in those clusters as central for a particular purpose. For instance, game-theoretic definitions emphasize the strategic aspects of games while language-games emphasize the importance of rules and rule-following. The choice of paradigms for defining different kinds of game models is guided by cognitive values that reflect intellectual predilections and predispositions about the significance of the data at our disposal. There are orderly, rule-governed games, such as chess, and there are disorderly games, such as games of symbolic inversion. It seems that many Western philosophers have sought to rationalize play and games to show them as contributing to society.43 Another possible reason for the rationalizability of games, at least in game theory, is that unlike participants in plays, participants in games have to be able to reason about the roles and attitudes of other participants.44 If this is right, then games seem to have features that make them suitable for modeling strategic interactions. The cognitive 42 One could argue that all of these things are games in a metaphoric sense – none are games in the sense that football and basketball are games, and nobody plays them like they play those games. According to the WTD, concepts are defined pragmatically, relative to the definer’s purpose and ends-in-view. Thus, while some of these logical objects might have initially been based on analogies with other kinds of games (like poker in the case of strategic games or chess in the case of language-games), once they have been clearly defined for some specific purpose (e.g. studying the strategic interactions between economic agents), they are no less games than are those usually played for sport. 43 See Mihai Spariosu: Dionysus Reborn. Play and the Aesthetic Dimension in Modern Philosophical and Scientific Discourse, Ithaca, N.Y.: Cornell UP 1989. 44 See George H. Mead: Mind, Self, and Society. From the Standpoint of a Social Behaviorist, Chicago and London: Chicago UP 1934, pp. 151–152. 46 values underlying the desire to see games as contributing to society make philosophers choose certain kinds of paradigmatic games over others when constructing their theories and analogies. Thus, what makes games rationalizable is not something inherent to them, but the cognitive values and ends-in-view of theorists who privilege certain exemplary games over others when rationalizing games. A definition of instrumental play Since attitudes have objects, it is pertinent to distinguish the two. Following Chad Carlson, I will differentiate between playing and gaming as kinds of attitudes or distinct intentionalities toward things, and plays and games as distinct kinds of things that can be the objects of such attitudes. On the one hand, playing and gaming qua attitudes are ways in which we do things and engage with the world. Plays and games, on the other hand, are objects that can be experienced in and engaged with in certain ways depending on the kinds of attitudes one takes toward them.45 In the pluralist approach to play taken here, the most we can say about play, prior to adopting some specific theoretical framework, is that play is an attitude or frame that can be adopted toward anything.46 Playing qua attitude can, in principle, have both plays and games as its objects, and the same holds for gaming qua attitude. Generally, different kinds of attitudes can be distinguished by the kinds of objects they have. For instance, propositional attitudes have propositions as objects. Thus, in order to explicate the notion of instrumental play qua attitude more clearly, we should look for paradigmatic examples of the kinds of objects it has. How does one delimit the range of possible objects within a pluralist approach stating that playing qua attitude can be adopted toward anything? The WTD claims that concepts are defined pragmatically, relative to some ends-in-view. This suggests that we can narrow our search for the objects that the instrumental play attitude is directed toward by looking for those objects that are covered by concepts that were delimited for some instrumental purpose. Examples of game models from the game paradigm given in the previous section are good candidates for such objects, since they are defined with instrumental ends in mind, however, their use is also partly autotelic. Technology involves, among other things, tools as means for attaining certain desired ends. For Dewey, the notion of a tool was intended to supplant more metaphysical notions, like ›concrete‹ and ›abstract‹. 45 See Chad Carlson: »The ›Playing‹ Field. Attitudes, Activities, and the Conflation of Play and Games«, Journal of the Philosophy of Sport 38 (2011), pp. 74–87, here pp. 78–80. 46 See Helen B. Schwartzman: Transformations. The Anthropology of Children’s Play, Boston, Mass.: Springer 1979, p. 169. 47 »Consider the bare possibility that tools and works of art […] are precisely the sought-for alternative to physical, psychical and metaphysical entities. On this possibility, the ignoring of the characteristic features of this kind of thing is responsible for the unsettled and persistent controversy. Manufactured articles do not exist without human intervention; they do not come into being without an end in view. But when they exist and operate, they are just as realistic, just as free from dependence upon psychical states (to say nothing of their not being psychical states) as any other physical things. […] They are simply prior natural things reshaped for the sake of entering effectively into some type of behavior.«47 Models in general, and game models in particular, are epistemic tools. They are unfolding entities constructed from concrete representational means for attaining certain epistemic purposes. As unfolding entities, models include: the modeler’s epistemic purposes; the phenomenon into which the original problem was translated; the representational means for representing the (hypothetical or idealized) target system (this holds for so-called abstract mathematical models, too, since we typically interact with them through external representational means, such as diagrams and equations); relevant experiential and theoretical knowledge; new concepts and principles that result from modeling; and relevant observable or measurable parameters that link the model to the target system. The cognitive value of models derives from modeling, viz. the modeler’s interactions with models and the target system during model-building. From this perspective, modelers do not just represent some aspect of the target system, they proceed by building hypothetical model systems. If such systems give us expected results or replicate some features of the phenomenon, they provide information for further inquiry.48 In light of the foregoing, I propose to define ›instrumental play‹ qua attitude (and not qua object) as follows: Instrumental play: is a partly autotelic and partly instrumental mixed playing attitude. A few comments are in order. First, a paradigmatic example of instrumental playing is playing with epistemic tools, such as game models from the game paradigm. Second, if we treat scientific theories as models, then they, too, can be objects of the instrumental play attitude since they are epistemic tools as well. 47 John Dewey: »Logical Objects«, in: Jo Ann Boydston, ed., The Middle Works, 1899–1924, Vol. 10. Journal Articles, Essays, and Miscellany Published in the 1916–1917 Period, Carbondale: Southern Illinois UP, pp. 89–97, here p. 92. 48 See Mieke Boon and Tarja Knuuttila: »Models as Epistemic Tools in Engineering Sciences«, in: Anthonie Meijers, ed., Handbook of the Philosophy of Science, Vol. 9. Philosophy of Technology and Engineering Sciences, Amsterdam: Elsevier/North-Holland 2009, pp. 693–726, here pp. 700–701, 703–704 and 724. 48 Conclusion In this essay, I have argued against the work-ethic view of play in order to define a notion of instrumental play. I took Suits’s definition of ›play‹ as a clear statement of the work-ethic view of play asserting that work and play are opposed to each other. First, I gave three arguments against the work-ethic view in general, viz. the seriousness of play objection, the functionality of play objection, and the ethnographic objection. Second, I criticized Suits’s definition by showing that it suffers from the problem of mixed motives and the divided resources problem. The first set of objections was directed at the general view of play of which Suits’s definition is an instance, and the second set of criticisms was directed at the definition itself as an instance of the work-ethic view. I also adopted the Wittgensteinian Thesis on Defining (WTD) to show that no definition captures facts of essence about anything, including play and game as attitudes or as objects. Next, I argued that the introduction of a notion of instrumental play is warranted by the existence and use of certain technologies in Dewey’s pragmatic sense. This can be seen as a functionality argument – the notion of instrumental play qua mixed attitude should be accepted since playing has such a mixed function in the use of certain technologies. Finally, I defined instrumental play as a partly autotelic and partly instrumental mixed playing attitude. A paradigmatic example of instrumental playing is playing with epistemic tools. To play instrumentally with game models is to use epistemic tools for studying and changing the world, or some part of it. Thus, as the diversity of our epistemic tools increases, certain forms of broadly technological activities, such as inquiry, increasingly require that we play instrumentally in order to work.49 49 I would like to thank the editors and the anonymous reviewers for their helpful comments and suggestions which have greatly improved the quality of this essay. 49 Florian Heßdörfer Das Spielgeld der Pädagogik Freiheit, Zwang und Arbeit in der Pädagogisierung des Spiels um 1900 Abstracts Der pädagogische Blick auf das Spiel verbindet die Frage nach dem Wesen mit der nach dem Zweck: Was ist das Spiel und wofür lässt es sich nutzen? Eine zentrale Figur, die beide Fragen verknüpft, ist die Fähigkeit des Spiels, disparate Elemente produktiv zu integrieren. Freiheit und Zwang, Konzentration und Zerstreuung, Schein und Wirklichkeit scheinen im Spielgeschehen zu verschwimmen und lassen es als Medium der Versöhnung erscheinen. Als solches Medium versucht es die sich formierende Wissenschaft der Pädagogik zu integrieren. Drei Aspekte dieser Integration stehen im Mittelpunkt: Die spielerische Vermittlung von Freiheit und Zwang, ihre Anlehnung an die soziale Differenz von Spiel und Arbeit sowie die Frage nach dem Systemcharakter des Spiels, der in der pädagogischen Diskussion die Systemwerdung des Erziehungssystems reflektiert. Educational theory relates to the field of game and play in two ways – it combines the question of its nature with the question of its purpose. Both questions are interconnected by the game’s supposed ability to combine very disparate elements. Freedom and necessity, concentration and distraction, appearence and reality, seem to become indistinct in the game’s practice and suggest them as media of conciliation. This is the context in which the professionializing science of education tries to integrate the phaenomena of games. Three aspects of this integration are analyzed: The playful mediation of freedom and necessity, its dependence on the difference of work and play, and the characterization of games as systems. These reflect the implementation of education as a social system. Vorbemerkung ›Spielerisch‹ – in diesem Attribut verdichtet sich ein doppeltes Versprechen von Freiheit und Freude. Gerade in den Ohren von Pädagogen, deren Geschäft nicht selten unter den umgekehrten Vorzeichen von Zwang und dessen unlustvoller Befolgung steht, klingt dieses Wort wie Musik. Würden die Dinge nicht zwanghaft und griesgrämig erledigt werden, sondern ›spielerisch‹, so wandelte sich das gesamte Los des Pädagogen – seine Arbeit wäre beinahe ein Kinderspiel. Ähnliche Hoffnungen scheinen auch Elizabeth Magie bewegt zu haben, die am 5. Januar 1904 ein Patent auf ein Kinderspiel erhält. Unter der amerikanischen Patentnummer 748.626 lässt sie sich die Rechte an einem Brettspiel mit dem Titel ›The Landlord’s Game‹ sichern, das später unter dem Namen ›Monopoly‹ weltweit be- 51 kannt wird. Auch Magie will das Angenehme mit dem Nützlichen verbinden und auf unterhaltsame Weise belehren. Das Konzept des Spiels besteht im Sinne seiner Erfinderin darin, den Teilnehmenden die gemeinschaftsgefährdende Wirkung von Monopolbildungen vor Augen zu führen, weshalb die Spielregeln ursprünglich in zwei Varianten existierten: In der einen Variante liegt das Ziel im Ausschalten der Mitspieler zugunsten des eigenen Monopols – so wie wir es heute kennen –, in der anderen im allgemeinen Wachstum des öffentlichen Vermögens.1 Die vier Felder in den Ecken des quadratischen Plans lassen sich dabei als die strukturierenden Pole des gesamten Spiels lesen. Abbildung 1: Der Plan von ›The Landlord’s Game‹ in der Patentschrift US748626 A 1 Vgl. Philip Orbanes: Monopoly: The World's Most Famous Game. And how it Got that Way, Boston, MA, 2006. 52 Auf der einen Seite stehen sich das Gefängnis (»JAIL«) und ein verschlossenes feudales Anwesen (»Owner Lord Blueblood – No tresspassing, go to jail«) gegenüber, die den Pol des Privateigentums und der Einschließung markieren. Als Gegenachse befindet sich links unten ein öffentlicher Park, der in der rechten oberen Ecke von einem kreisrunden Feld ergänzt wird, das um die Abbildung eines Globus den Sinnspruch »Labor upon earth produces wages« wiedergibt. Neben der pädagogischen Gesamtstruktur des Spiels, die den Spielablauf als modellhaftes Argument für Henry Georges alternatives Steuermodell entwickelt,2 kehrt das pädagogische Denken im zentralen patentierten Spielmerkmal wieder: »The Landlord’s Game« bricht mit der bisher üblichen Spielplanarchitektur, indem es die Spielfelder aus der Linearität des vorgegebenen Ziel-Feldes befreit und in eine geschlossene Reihe ohne Anfang und Ende überführt. Das später »Monopoly« benannte Spiel gewinnt nicht der, der das meiste Geld auf seinem Konto versammelt. Die eigentlichen Gewinner sind das Spielgeschehen und seine Lehre; eine Lehre, die ohne eine Pädagogik der Vermittlung auskommt und sich allein in der lustvollen Einlassung auf die Regeln des Geschehens realisiert. Aus diesem Grund braucht ›Monopoly‹ kein Zielfeld, aber Spielgeld. Sein Ziel erfüllt sich in der Zirkulation eines Mediums, das keinem endgültig gehören soll, dessen Produktion und Bewegung jedoch zur Aufgabe aller erhoben wird. Eben dies gilt letztlich auch für die moderne Schule, die, wie Niklas Luhmann vorgeschlagen hat, über ein ganz eigenes Medium verfügt3 – das Kind. Vor diesem Hintergrund ergibt sich die aphoristische These, die im Folgenden in einem historisch informierten Blick auf den Zusammenhang von Bildungs- und Spieltheorie näher ausgeführt wird: Das Spielgeld der Schule sind die Lebensläufe der Kinder. Bildungs- und Spieltheorie begegnen sich zunächst im Angesicht eines zentralen pädagogischen Dilemmas – in jener Kontamination von Freiheit und Zwang, die Immanuel Kant in seinen Vorlesungen zur Pädagogik in der knappen Frage verdichtet: »Wie kultiviere ich die Freiheit bei dem Zwange?«4 Jeder, der eine Schule besucht hat, kennt die widerspruchsvollen Praxen und Diskurse, die sich um dieses Spannungsfeld herum entfalten. Stets werden die unzähligen Akte des Müssens und des Zwangs, die den pädagogischen Alltag strukturieren, von der Beteuerung flankiert, lediglich notwendige Mittel zu ihrem Anderen zu sein – zu jener Selbstbestimmung und Mündigkeit, deren Produktion die Pädagogik sich zu Gute hält. Spätestens seit Schiller (als Leser Kants) und seinen »Briefen über die ästhetische Erziehung« und Fröbel (als Leser Hegels) und seinen Ausführungen über »Die Spielgaben« durch- 2 Vgl. Ebd., S. 31. 3 Niklas Luhmann: »Erziehung als Formung des Lebenslaufs«, in: Schriften zur Pädagogik, Frankfurt am Main 2004, S. 260‒277. 4 Immanuel Kant: Schriften zur Anthropologie, Geschichtsphilosophie, Politik und Pädagogik, in: Werkausgabe in 12 Bänden, hrsg. v. Wilhelm Weischedel, Bd. 12, Frankfurt am Main 1977, S. 711. 53 zieht das Spiel die Pädagogik als eine Konstellation, in welcher das pädagogische Dilemma sich einer Lösung zu nähern scheint. Die folgende Untersuchung des Spiels als einem technisch-pädagogischen Versprechen konzentriert sich auf das Ende des ›langen 19. Jahrhunderts‹, in dem die Erziehungs- und Bildungswissenschaften entscheidende Veränderungen durchmachen. Drei Entwicklungslinien spielen in diesem Zusammenhang eine tragende Rolle: Die Aneignung von Begriffen und Methoden der experimentellen Psychologie, die Durchsetzung einer reformpädagogisch unterfütterten Individualisierungsmaxime sowie die Transformation des Bildungswesens zu einem zentralen Element der Nationalökonomie. Diese drei Tendenzen bilden den Hintergrund, vor dem die Differenz von Zwang und Freiheit bzw. von Arbeit und Spiel im Rahmen des pädagogischen Diskurses neu artikuliert wird. Im Folgenden stehen zwei Facetten dieser Artikulation im Mittelpunkt. Der erste Teil der Untersuchung rekonstruiert das Spiel in seinem Verheißungscharakter und bestimmt den diskursiven Ort, an welchem Spielen als eine ›Schlüsseltechnologie‹ zur Auflösung grundlegender pädagogischer Antinomien in Erscheinung treten kann. Die Differenz von Spiel und Arbeit liefert die Folie, auf deren Grundlage nicht nur das Dilemma von Freiheit und Zwang, sondern auch die Verbindung von Schule und Leben verhandelt wird. Anschließend befragt der zweite Teil den Systemcharakter des Spiels, der sich in der einschlägigen Literatur häufig im Topos der ›eigenen Welt‹ niederschlägt. Am Beispiel des Spiels entdeckt die Pädagogik Struktur und Dynamik geschlossener Systeme, reflektiert im Umgang mit dieser Entdeckung die Systemwerdung ihres eigenen Feldes – des ›Erziehungssystems der Gesellschaft‹5 – und integriert zugleich auf neue Weise ihre Basisoperationen der Erziehung und der Auslese. Das Spiel als Arrangement der Freiheit Freiheit und Zwang »Ich kann wohl ein Kind zu einer Arbeit zwingen […], ich kann es aber nicht zwingen, die Arbeit spielend zu tun.«6 In dieser kurzen Bemerkung aus einem »Handbuch der Pädagogik« deutet sich das eigentümliche Verhältnis der Pädagogik zum Spiel an. Einerseits endet dort, wo das Spielen beginnt, die Reichweite des Zwangs, andererseits scheint eben das, wozu der Zwang gemeinhin führen soll – zum Ernst und der Arbeit –, auch mit den Mitteln des Spiels erreichbar zu sein. Man kann ›spielend arbeiten‹! Diese Entdeckung gleicht einem pädagogischen Heureka und er- 5 Niklas Luhmann: Das Erziehungssystem der Gesellschaft, Frankfurt am Main 2002. 6 Erika Hoffmann: »Das Spiel«, in: Hermann Nohl und Ludwig Pallat (Hg.): Handbuch der Pädagogik, Bd. 3, Langensalza 1930, S. 208‒220, hier S. 219. 54 öffnet neue Wege auf der Landkarte der Erziehung. Dabei wird das Spiel als ›Methode‹ im eigentlichen Wortsinne begriffen: als methodos (μέθοδος), ein ›Weg zu etwas hin‹. So neu der Weg in seiner Verkündigung erscheint, so schöpft ein Großteil der Begeisterung über das Spiel »als natürliche Erziehungsmacht«7 daraus, dass diese neue Macht zum gleichen alten Ziel führt, dieses Ziel jedoch leichter und menschenfreundlicher zu erreichen verspricht. Auch das Spiel soll helfen, »Kräfte wachzurufen«,8 die »Bildung der Selbstbestimmung« und die »Ausbildung werkthätiger und sachbezüglicher Fähigkeiten und Fertigkeiten«9 zu unterstützen, den »Geist auf das Schöne lenken«10 und zugleich »Ordnung«, »Ausdauer« und »Hingabe«11 üben. Die spezifische ›Leichtigkeit‹ der Spiel-Methode beruht hauptsächlich auf zwei Elementen: der Reduktion des Zwangs und der Steigerung der Naturgemäßheit. Indem das Spiel das notwendige Maß pädagogischer Heteronomie minimiert, erleichtert es die Aufgabe des Pädagogen und weist ihm jene neue Rolle des Moderators zu, die uns heute sehr vertraut ist. Denn die spielende Tätigkeit des Kindes »ist seine eigene Leistung, zu der ich es nur ermuntern kann«,12 und stellt den erwachsenen Ermunterer vor das strukturelle Dilemma, »anzuregen, ohne durch den Eingriff das Gefühl der Freiheit und die Freude am Spiel zu stören.«13 In der Position des Anregers und Förderers können sich Erzieher nicht nur aufatmend vom alten Schreckbild des ›Steißtrommlers‹ distanzieren, sondern auch die Last der Verantwortung von den eigenen Schultern in die Hände des Zöglings verschieben. Je mehr dessen Tun vom freien Charakter des Spiels geprägt wird und als seine nicht zu erzwingende ›eigene Leistung‹ erscheint, desto deutlicher bereitet sich jener Perspektivenwechsel vor, der später als »shift from teaching to learning«14 apostrophiert werden wird. Wer auf die Lehre des Spiels setzt, verabschiedet sich vom unilateralen Modell der ›Vermittlung‹ und ersetzt das Handwerk der »Anleitung«15 durch die Kunst des Arrangements eines vorbereiteten und »umfriedet[n] Raum[s]«.16 Doch bei aller Betonung der inhä- 7 Ernst M. Roloff (Hg.): Lexikon der Pädagogik der Gegenwart, Bd. 4, Freiburg im Breisgau 1915, S. 1140. 8 Wilhelm Rein (Hg.): Enzyklopädisches Handbuch der Pädagogik, Bd. 7, Langensalza 1908, S. 732. 9 K. A. Schmid (Hg.): Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 9, Gotha 1873, S. 102. 10 Gustav A. Lindner (Hg.): Encyklopädisches Handbuch der Erziehungskunde mit besonderer Berücksichtigung des Volksschulwesens, Wien 1884, S. 871. 11 K. A. Schmid (Hg.): Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, Gotha 1859, S. 226. 12 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 219. 13 A. Dannemann (Hg.): Enzyklopädisches Handbuch der Heilpädagogik, Halle an der Saale 1911, S. 1631. 14 Johannes Wildt, Ulrich Welbers und Olaf Gaus (Hg.): The shift from teaching to learning. Konstruktionsbedingungen eines Ideals, Bielefeld 2005. 15 A. Casper: »Spiel«, in: Hermann Schwartz (Hg.): Pädagogisches Lexikon, Bd. 4, Bielefeld 1931, S. 692. 16 Ebd. 55 renten Freiheit des Spiels kommt das pädagogische Verhältnis zu ihm nicht ohne Erinnerung an jenen Zwang aus, den es vorübergehend suspendiert und zugleich in der Hinterhand behält. Dieselbe Autorin, die zu bedenken gibt, dass man zum Spiel nicht zwingen könne, erläutert die Zeit des Spiels als gewährte Frist. Was innerhalb der spielerischen Frist nicht realisiert werden kann, wartet auf den Säumigen anschließend unter den Vorzeichen des Zwangs. Das spielend arbeitende Kind müsse durchweg wissen, dass das spielerische Tun des Notwendigen »nur eine gütige Frist ist, das Verlangte freiwillig und heiter zu tun, und daß es unaufhaltsam mit Zwang auftritt, wenn der eigene Entschluss nicht gelingt.«17 Als pädagogisch realisierte Freiheit verspricht das Spiel zugleich jene Fesseln der Individualität zu lösen, um die sich die Pädagogik seit Rousseau Sorgen macht. »Darnach wäre das Spiel die Methode der Selbstausbildung des Menschen, das Naturverfahren seiner Selbsterziehung.«18 Gerade die reformpädagogisch akzentuierte Sorge um die individuelle Natur findet hier ein Medium, dessen Natürlichkeit stets betont wird. Spielen sei die »natürlichste Tätigkeit des Kindes«,19 »der Kindesnatur Bedürfnis«20 und der natürliche Modus, in dem »sich die Kräfte des Kindes […] entwickeln und üben«21 – »sein Spiel hemmen hieße mithin seine Entwicklung hemmen«.22 Vor dem Hintergrund der zunehmenden Betonung der unterschiedlichen ›Anlagen‹ und ›Begabungen‹ der Erziehungssubjekte setzt das Spiel nicht nur auf die Karte Freiheit, sondern auch auf die der Individualisierung. Spielende Tätigkeit gelinge stets dann, wo die besonderen Anlagen und Interessen der Spielenden angesprochen und entwickelt werden. Damit wird ›Spielen‹ geradezu zum Indikator für gelingende Lernprozesse – wie bei Schiller der Mensch dort Mensch ist, wo er spielt, ist nun der Mensch dort, wo er spielt, Lernender: »Denn das Kind hat nur so lange Interesse am Spiel, als es dabei immer wieder Neues entdeckt, sei es in der Erweiterung und Bereicherung seiner Vorstellungen oder seiner Vorstellungsverbindungen, sei es in wechselnder Anregung zu immer neuen Tätigkeiten.«23 17 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 219. 18 Max Enderlin: »Das Spielzeug in seiner Bedeutung für die Entwicklung des Kindes«, in: Zeitschrift für Kinderforschung (1907), Heft 1, S. 9–16, hier S. 12. 19 Roloff: Lexikon der Pädagogik der Gegenwart, S. 1149. 20 Lindner: Encyklopädisches Handbuch der Erziehungskunde, S. 871. 21 Roloff: Lexikon der Pädagogik der Gegenwart, S. 1152. 22 Ebd. 23 Georg Kerschensteiner: »Produktive Arbeit und ihr Erziehungswert«, in: Der Säemann 2 (1906), Heft 4, S. 101–120, hier S. 106 f. 56 Die Arbeit als Gegenspieler Der spezifische Spielbegriff der Pädagogik zeigt sich vor allem in Abgrenzung und Nähe zum Begriff der Arbeit. Am deutlichsten fällt die Zone ihrer Überschneidung dort ins Auge, wo es um die Kleinsten geht, die ihrer Entwicklung gemäß noch gar nicht ›richtig‹ arbeiten können. Das Spiel erscheint dort als die genuine ›Arbeit des Kindes‹, dessen »Thätigkeit und zwar Selbsttätigkeit« das entscheidende »Gattungsmerkmal […] mit der Arbeit gemein«24 habe. Solange die eigentliche Arbeit dem Kinde fremd ist, gilt eine grundlegende Analogie von Spiel und Arbeit, nach der das Spiel »für das Kind den größten Ernst hat« und »wie ein Geschäft, ja wie eine Arbeit«25 betrieben wird. Häufig wird für die weitere Entwicklung der Heranwachsenden ein Prozess der Ablösung skizziert – »zuerst Arbeit und dann Spiel!«26 –, der auf der Zunahme der Arbeit und der Abnahme des Spiels basiert, wobei das Spiel die immanente und notwendige Vorstufe der Arbeit bildet: »Nachdem die spielende Betätigung des Kindes seine Kräfte in dem Maße entwickelt hat, daß physisch und psychisch die Möglichkeit der Arbeit gegeben ist, wird es notwendig, als neues Erziehungsmittel die Arbeit einzustellen«.27 Neben diesem Stufenmodell vereinen sich in der Thematisierung der Arbeit zwei widersprüchliche Bestimmungen. Auf der einen Seite gilt die Arbeit als eigentliches telos des kindlichen Spiels, ist »Vorspiel und Vorschule der Arbeit«;28 auf der anderen Seite erfolgt eine starke Kontrastierung von Arbeit und Spiel, die ihre Wesensfremdheit betont. Für den teleologischen Übergang von Spiel zu Arbeit sind vor allem die Dimensionen der Sozialität und der Produktivität entscheidend: Während das Spiel zum Eigensinn tendiere, rechne die Arbeit zum »Dienst an der Erhaltung und Sicherung des eigenen Volkes«;29 während das Spiel seinen Wert in sich finde, habe die Arbeit ihren Wert »in dem, was dadurch erreicht werden soll.«30 An diese Kontrastierung von Eigensinn/Gemeinschaftssinn und Selbstzweck/Fremdzweck schließen sich weitere Gegensätze an, die anhand des spezifischen Verständnisses der Arbeit Licht auf das Gegenmodell des Spiels werfen. So wird Arbeit durch ihren Impuls eines äußerlichen Zwangs markiert, der dort, wo er verinnerlicht wird, die Gestalt der Pflicht annimmt: »Alle Arbeit soll in dem Bewußtsein, eine Pflicht zu erfüllen«31 geleistet werden und stellt damit die Fähigkeit der »Selbstüberwindung«32 unter Beweis. In Anknüpfung an die christliche 24 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 9, S. 88. 25 Hermann Rolfus (Hg.): Real-Encyclopädie des Erziehungs- und Unterrichtswesens nach katholischen Prinzipien, Bd. 2, Mainz 1864, S. 611. 26 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 226. 27 Roloff: Lexikon der Pädagogik der Gegenwart, S. 1150. 28 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 226. 29 Wilhelm Hehlmann (Hg.): Pädagogisches Wörterbuch, Leipzig 1942, S. 11. 30 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 718. 31 Roloff: Lexikon der Pädagogik der Gegenwart, S. 1151. 32 Ebd. 57 Überlieferung weitet sich diese innere und äußere Notwendigkeit der Arbeit ins Register von Strafe und Erlösung aus. »Du mußt arbeiten, um zu leben! […] Es ruht zwar Erlösung auf der Gnade; aber dennoch ist das Leben des Erlösten Arbeit […]. In der That, kein religiöses, kein sittliches Leben ist denkbar ohne Arbeit; kaum das physische, vegetative; nichts thun heißt nichts sein.«33 In pädagogischer Fortführung dieses Motivs besetzt Arbeit eine doppelte Position. Wie der Weg zur Erlösung mit Arbeit gepflastert ist und zugleich auf einen Zustand abzielt, in dem Arbeit nicht schlichtweg ›erledigt‹ ist, so fungiert Arbeit nicht nur als »Mittel der Erziehung«, sondern auch als ihr »Zweck«.34 Wo sich Arbeit zum allgemeinen Medium des Daseins ausweitet, verschwindet die Frage nach ihrem Ende und verschiebt sich hin zur Frage ihrer angemessenen Einrichtung. Statt die Arbeit als Skandal des Daseins zu beklagen, richtet sich die Sorge nun auf den Makel ihrer falschen Handhabung und entwirft die Konturen einer Ökonomie der Arbeit, deren Schlagwort »das richtige Maß«35 ist. In diesem Wandel existieren zwar weiterhin die Losungen einer klassischen Arbeitsethik – wahre Arbeit dürfe nicht von den fragwürdigen Motiven des »Eigennutzes« oder des »Ehrgeizes«36 verunreinigt werden –, in ihrem Fortdauern reihen sich diese Schlagworte jedoch unmerklich in die Gestalt einer neuen Ethik ein, deren zentraler Wert der des Gelingens ist.37 Was von der Arbeit ferngehalten werden muss, müsse sich »nicht nur als unsittlich, sondern auch als unnöthig und unwirksam«38 erweisen. In dieser knappen Formulierung verdichtet sich eine neue Ordnung der Arbeit: Was richtig und falsch in ihr ist, entscheidet sich weniger in den Kategorien einer ihr äußerlichen Sittlichkeit, sondern anhand der Maßgabe ihres inneren Funktionierens. Die ›falsche‹ Arbeit ist das Tun dessen, was ›nicht nötig‹ und ›nicht wirksam‹ ist; die ›wahre‹ Arbeit hingegen ist effektiv und markiert so den »strukturell vorgezeichneten Konflikt […] von Wahrheit und Effektivität.«39 33 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 225. 34 Ebd. 35 Ebd. 36 Ebd. 37 Michel Foucault untersucht einen analogen Wandel auf dem Feld der Regierung und ihres Wissens und markiert ihn als Übergang vom Register der Legitimität zu dem des Erfolgs: »anders gesagt, es wird Erfolg oder Mißerfolg geben, Erfolg oder Mißerfolg, die nun das Kriterium des Regierungshandelns sind, und nicht mehr Legitimität oder Illegitimiät.« Michel Foucault: Die Geburt der Biopolitik. Geschichte der Gouvernementalität II, Frankfurt am Main 2006, S. 34. 38 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 225. 39 Niklas Luhmann: »Das Erziehungssystem und die Systeme seiner Umwelt«, in: Niklas Luhmann und Karl Eberhard Schorr (Hg.): Zwischen System und Umwelt. Fragen an die Pädagogik, Frankfurt am Main 1996, S. 14–52, hier S. 32. 58 Die Elemente der Freiheit Diese Verschiebung innerhalb der Arbeit äußert sich dort am deutlichsten, wo sie das Spiel nicht mehr als ihren Antipoden, sondern als ihr Ideal erkennt. In dieser Figuration des Spiels als ›erlöste Arbeit‹ steigt es zu jener Höhe menschlicher Tätigkeit auf, deren Gipfelpunkt Friedrich Schillers bekannte Formulierung markiert: Der Mensch sei »nur da ganz Mensch, wo er spielt.«40 Für die pädagogische Aufwertung des Spiels sind vor allem fünf Elemente von entscheidender Bedeutung: (1) Die Freiheit des Spiels als Selbstzweck; (2) das Befriedigungsgefühl der Spielenden; (3) die Passung von Spieltätigkeit und Spielenden; (4) die Produktivität und Innovativität des Spielprozesses, sowie (5) die Autonomie der Spielhandlung. Das Element der Freiheit favorisiert die Pädagogik vor allem deshalb, weil das Spiel Freiheit nicht als Freiheit von Gesetz und Zwang verspricht, sondern diese Pole prozesshaft zu vermitteln scheint: »In freiwilliger (autonomer) Unterordnung fügt sich das spielende Kind unter die Regel«,41 »das Spiel ist ein Akt geistiger Freiheit« und »vermittelt in zwangloser Weise das Gesetz«,42 »das Freiheitsbewußtsein des Spielenden« wird nicht beeinträchtigt vom »Zwang der Spielregel, der vom Spielenden in freier Tat bejaht wird.«43 Diese vorübergehende Überwindung der Dichotomie von Freiheit und Zwang wird von einer spezifischen Gefühlslage begleitet, die als »Befriedigung«, »Freude«44 oder »Lust«45 beschrieben wird, welche die »in sich selbst genußreiche Betätigung«46 des Spiels gewährt. Zu den strukturellen Voraussetzungen dieses »Lustcharakter[s]«47 des Spiels gehört das ideale Passungsverhältnis zwischen den individuellen Voraussetzungen des Spielenden mit seiner Spieltätigkeit. Im Spiel »kann sich die individuelle Art des Einzelnen so, wie nirgends sonst, bilden«;48 »nirgends entwickelt sich die Individualität und der Charakter des künftigen Mannes so entschieden«49 wie hier. Auch als Folge dieser idealen Kopplung von Individuum und Tätigkeit offenbaren sich gerade im Spiel die Potentiale des Einzelnen und die ganze Weite der Möglichkeiten. Im Spiel vollziehe sich »die Eröffnung grenzenloser Möglichkeiten«,50 der »natürlich[e] Schaffens-, Erfindungs-, Entde- 40 Friedrich Schiller: »Über die ästhetische Erziehung des Menschen, 2. Teil«, in: Die Horen, 2. Stück, Tübingen 1795, S. 45–124, hier S. 88. 41 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 714. 42 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 216 u. S. 219. 43 Casper: »Spiel«, in: Schwartz (Hg.): Pädagogisches Lexikon, Bd. 4, S. 687. 44 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 9, S. 88. 45 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 225. 46 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 705. 47 Dannemann: Enzyklopädisches Handbuch der Heilpädagogik, S. 1625. 48 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 713. 49 Rolfus: Real-Encyclopädie des Erziehungs- und Unterrichtswesens nach katholischen Prinzipien, S. 613. 50 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 214. 59 ckungstrieb«51 bekomme Raum und wo »an die Stelle des Zwangs von außen die eigenen Triebkräfte der Seele treten«, gelinge es, latente »Kräfte wachzurufen«.52 Da es im Spiel um eine formbildende, gestaltende Kraft gehen soll, wird seit Jean Pauls 1806 erschienener Erziehungslehre »Levana«53 gerne der an sich formlose Sand als das genuine Material der kindlichen Spielproduktivität bemüht54 und die uns immer noch vertraute Warnung bezüglich der Spielgeräte ausgesprochen: »Aber an reicher Wirklichkeit verwelkt und verarmt die Phantasie«!55 »[N]icht zu viel Spielzeug! Und kein Phantasie ertötendes Spielzeug!«56 lauten die besorgten Losungen, die im Spiel das genuine Produktionsverhältnis der kindlichen »Schöpferkraft«57 erkennen. Zugleich deutet sich im Material des Sandes das letzte Element des Spiels an, seine Autonomie. Weil sich die Spielrealität als ›eigene Welt‹ konstituiert, benötigt sie fast nichts von jener Wirklichkeit vollendeter Tatsachen, von der sie sich im offenen Spielprozess abkoppelt – ein Häufchen Sand genügt ihr, um Baustellen, Wüsten und Kriegsschauplätze58 zu erschaffen: »der kleine Ausschnitt […] rundet sich zu einem Ganzen.«59 Die »Ungebundenheit« und »frei[e] Beweglichkeit«60 der Spielwelt, das »Losgelöstsein von der Realität und ihren Grenzen«61 markieren das Spiel als ein in sich geschlossenes System, dessen Freiheit und Produktivität nicht ohne seine Abkopplung zu denken sind. 51 Wilhelm Rein (Hg.): Enzyklopädisches Handbuch der Pädagogik, Bd. 3, Langensalza 1905, S. 165. 52 Schmid: Encyclopädie des gesammten Erziehungs- und Unterrichtswesens, Bd. 1, S. 723. 53 Jean Paul: »Levana oder Erziehungslehre«, in: Werke, Bd. 5. München 1967, S. 513–878. 54 Vgl. Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 715 sowie Rolfus: Real-Encyclopädie des Erziehungs- und Unterrichtswesens nach katholischen Prinzipien, S. 612. 55 Ebd., S. 605. 56 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 715. 57 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 213. 58 Ein ›unverkrampftes‹ Verhältnis der Pädagogik zu allen Arten von Kriegsspielzeug zeigt sehr anschaulich der Artikel »Spielzeug in der Kriegszeit« (Paul Groß: »Spielzeug in der Kriegszeit«, in: Die Arbeitsschule 28 (1914), Heft 12, S. 353–362), der in der Dezemberausgabe der »Arbeitsschule« erschienen ist. Das pädagogische Feingefühl erstreckt sich hier auch auf die Auswahl der richtigen Spielzeugwaffen und Spielsoldaten unter dem Weihnachtsbaum. Wer die eigene Herstellung von solchen in die Hand nehmen wolle, müsse sich bewusst sein, dass sie »wenn Sie einwandfrei werden sollen, scharfe Überlegung und geschmackliche Reife« (ebd., S. 354) erfordern. Die Übersetzung von Kriegs- in Spielgeschehen gehört dabei zum Alltag: »Daß jeder Junge eine Kriegskarte haben muß, auf der er mit selbstgefertigten Fähnchen die Stellungen unserer Heere bezeichnet, ist selbstverständlich.« (ebd., S. 355) 59 Casper: »Spiel«, in: Schwartz (Hg.): Pädagogisches Lexikon, Bd. 4, S. 688 60 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 703. 61 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 214. 60 Das Spiel als System Die Welt des Spiels Die pädagogische Beschreibung des Spiels lässt sich als exemplarische Auseinandersetzung mit jener Eigen- bzw. Differenzlogik verstehen, für die der Begriff des Systems steht. Was die zeitgenössische Theorie als »Spielsphäre« gegen die »Realität« setzt, als Kinderwelt gegen »die Welt der Großen«62 oder als »Scheinwelt« gegen die »Wirklichkeit«,63 weist auf eine Differenz hin, die sowohl den Grenzverlauf dieser Bereiche betont, als auch auf die eigentliche Aufgabe der Pädagogik, die sich die Vermittlung dieses Getrennten zuschreibt. In der Thematisierung von Spiel und Arbeit scheint die Wissenschaft der Erziehung zugleich die Systemwerdung ihres eigenen Gegenstandes zu reflektieren. Wie die Scheinrealität der Spielhandlung der Realität außerhalb des Spiels opponiert und ihr zugleich dient, sie verarbeitet und erweitert, so verhält sich auch die Schulrealität zum ›Leben‹. Je mehr ›Schule‹ zu einer sich ausdifferenzierenden und institutionalisierten Welt in der Welt wird, desto deutlicher wird sie von der Sorge um ihre Weltfremdheit heimgesucht. »Unsere Schule muß aus einer wirklich bestehenden Entfremdung vom Leben heraus«,64 lautet das exemplarische Motto einer Institution, welche ihre Systemwerdung als Entfremdungsprozess erfährt und in der Sehnsucht nach einer Verschmelzung von Schule und Leben die Paradoxien ihrer eigenen Möglichkeitsbedingung artikuliert. Vor diesem Hintergrund übt das Mikro-System des Spiels seine pädagogische Faszination aus: Das Spiel erscheint als Exempel einer ›positiven‹ Entfremdung – es verabschiedet sich von der Welt und konstruiert in der Spielsphäre ein Mischung aus Schonraum und Laboratorium, in dem die uneingelösten Möglichkeiten dieser Welt erkundet werden können. Könnte sich die Schule die Technologie des Spiels erfolgreich aneignen, würde sie nicht nur zum verlorenen Leben aufschließen, sondern es sogar übertreffen.65 Damit verarbeitet die Differenz von Spiel und Arbeit nicht nur die übergeordnete Differenz des Schulsystems zu anderen gesellschaftlichen System,66 sondern birgt zudem die Möglichkeit, diese Differenz als pädagogisch lösbare Paradoxie zu entfalten. 62 Ebd. 63 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 707. 64 E. Petzold: Handwörterbuch für den deutschen Volksschullehrer, Bd. 1, Dresden 1874, S. 30. 65 In seinem Modell der ›produktiven Arbeit‹ hat Georg Kerschensteiner eine solche Kopplung von Arbeit und Spiel skizziert – auf den Spuren des kindlichen Spielhandelns deutet sich darin die Blaupause der ›neuen Arbeitswelt‹ an (Kerschensteiner: »Produktive Arbeit und ihr Erziehungswert«, in: Der Säemann 2; dazu ausführlicher: Florian Heßdörfer: »Die Regierung des Möglichen. Optimieren und Messen als pädagogisches Projekt um 1900«, in: kultuRRevolution. Zeitschrift für angewandte Diskurstheorie 69 (2015), S. 79–84. 66 Vgl. Luhmann: »Das Erziehungssystem und die Systeme seiner Umwelt«, in: Luhmann und Schorr (Hg.): Zwischen System und Umwelt. 61 Erziehen und Auslesen Dem Versprechen des Spiels – die Widersprüche der Schule zu besänftigen – sind jedoch systemische Grenzen gesetzt. Niklas Luhmann hat auf zwei Basisoperationen des Schulsystems hingewiesen, die sich im pädagogischen Selbstverständnis nur schwer vertragen: Erziehen und Auslesen. Er schildert diese als ungleiches Paar, das sich aus der Bearbeitung der pädagogischen Paradoxie der Gleichheit ergibt. Weil sich die professionalisierende Pädagogik über den Bruch mit der Ungleichheit der Ständeordnung etabliert und die ›Gleichheit‹ der Menschen zum Bestandteil ihrer Geschäftsgrundlage macht, handelt sie sich das liberale Dilemma der Individualität ein – das Problem der Besonderheit des Gleichen. Weit davon entfernt, das Scheitern der pädagogischen Mission zu bewirken, entfaltet diese »Paradoxie der Ungleichheit des Gleichen«67 eine unendliche Aufgabe, deren Bearbeitung sich in der Aufspaltung Erziehen/Auslesen vollzieht. Unter dem Gesichtspunkt der Erziehung treten die Zöglinge im idealen Licht ihrer universalen Gleichheit auf – während sie das Auge der Auslese in der Profanität ihrer Eigenheiten und Unterschiede erfasst. Luhmann betont vor allem das typische Unbehagen der Pädagogik an ihrer immanenten Selektionsfunktion. Gerade weil das tradierte Erziehungsprogramm einer allseitigen menschlichen Vervollkommnung quer zum binären »Selektionscode«68 steht, neigt die Pädagogik dazu, die ›Werte‹ ihres Programms (Gleichheit, Selbstbestimmung) zu überhöhen und darin die Funktion ihres Codes (besser/schlechter, soziale Auslese) zu überblenden. Eine übliche Strategie im Umgang mit dieser Spannung besteht darin, das Problem der Ungleichheit neu zu formatieren und zugunsten des Modells der Unterschiedlichkeit zu verschieben. Diese Aufwertung der Unterschiedlichkeit geht mit dem Desiderat ihrer umfassenden und richtigen Erfassung einher – der Lehrer muss »jeden einzelnen Schüler nach der ihm eigenthümlichen Empfänglichkeit und Fassungskraft, nach seiner Individualität kennen zu lernen bemüht sein«.69 Erst die Einsicht in die unterschiedlichen Schülernaturen verspricht jenes Dem-Einzelnen-gerecht-Werden, das die Ungleichheit in den pädagogischen Raum übersetzt, ohne ihren Konflikt mit dem Gleichheitsideal zu berühren. Auf dieser Basis erhält die Auslesefunktion ihr pädagogisches Fundament und wird zur Aufgabe, den Einzelnen jenen Ort im Leben zuzuweisen, der ihren Fähigkeiten und Interessen entspricht. 67 Ebd., S. 26. 68 Niklas Luhmann: »Codierung und Programmierung. Bildung und Selektion im Erziehungssystem«, in: Schriften zur Pädagogik, Frankfurt am Main 2004, S. 23–47, hier S. 29. 69 J.G.C. Wörle (Hg.): Encyklopädisch-pädagogisches Lexikon, Bd. 1, Heilbronn 1835, S. 22. 62 Testen und Spielen Wo sich die Auslese von der ›digitalen‹ Codierung in gute/schlechte Schüler entfernt und sich auf das eher ›analoge‹ Register individueller Eignung verlegt,70 macht sie sich anschlussfähig für das Spiel. Immer wieder betonen die pädagogischen Erläuterungen der Spieltätigkeit die Tatsache, dass spielende Kinder von sich aus jene Spieltätigkeiten suchten, die ihnen gemäß sind. Damit erhält das Spiel Ausdrucksqualität – es erscheint als sichtbarer Widerschein innerlicher Qualitäten und Dispositionen, die sonst unsichtbar unter der Oberfläche der Zöglinge ruhen. »Man glaubt, im Spiel gibt sich das Kind, wie es ist, […] und meint, wenn überhaupt Spuren von besonderen Kräften und Neigungen im Kinde schlummern, so müßten sie sich im unbeeinflußten Spiele verraten.«71 Schon Fröbel, als Pionier der pädagogischen Wissenschaft vom spielenden Kind, hat diese Übersetzungsfunktion des Spiels in der »Dreieinigkeit von dem Unsichtbaren – Unsichtbar-sichtbaren und Sichtbaren«72 betont: Es gehöre zu jenem Reich der ›Vermittlung‹ und des »Unsichtbar-sichtbaren«, in dem die Grenze zum Unsichtbaren durchlässig wird und sich dem wissenden Auge der Blick hinter die Oberflächen eröffnet. Mit der Einsicht, »daß das Spiel eine Ausdrucksmöglichkeit aller unserer Kräfte ist«,73 erhält es nicht nur die Fähigkeit Inneres in Äußeres zu übersetzen, sondern zugleich die Fähigkeit, aus der Gegenwart auf Zukünftiges zu deuten und »Spuren der künftigen Entwickelung«74 anzuzeigen. In diesem Sinne lässt sich die kindliche Spielsituation als ein implizites Testarrangement lesen, das dem erwachsenen Beobachter »Fingerzeige« gibt, »zu was ein jedes [Kind] besondere Anlage und Neigung von Natur hat«,75 und damit die »ersten Proben des Talentes«76 gewährt. Doch das Spiel, das lesbare Zeichen von den Anlagen seiner Spieler produziert und »vermittelst seiner Beobachtung« die Frage beantwortet, »zu welchem Handwerk oder welcher Kunstfertigkeit sich das Kind eignet«,77 öffnet sich nicht nur auf die Zukunft hin, sondern deutet zugleich die Konturen einer ›offenen‹ Testsituation an, welche die Freiheit der Getesteten mit einbe- 70 Andreas Gehlhard: »Das Dispositiv der Eignung. Elemente einer Geschichte der Prüfungstechniken«, in: Zeitschrift für Medien- und Kulturforschung 1 (2012), Heft 1, S. 44–60. 71 Oskar Frey: »Über Spielzeuge als Erziehungsmittel und die Einrichtung öffentlicher Spielzimmer und Beobachtungsstätten«, in: Zeitschrift für pädagogische Psychologie und experimentelle Pädagogik 19 (1918), Heft 6, S. 373–394, hier S. 385 f. 72 Friedrich Fröbel: »Der Ball, das erste Spielwerk der Kindheit«, in: Vorschulerziehung und Spieltheorie. Ausgewählte Schriften, Bd. 3, Stuttgart 1993, S. 13–34, hier S. 32. 73 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 211. 74 Fröbel: »Der Ball, das erste Spielwerk der Kindheit«, in: Vorschulerziehung und Spieltheorie, S. 32. 75 Rolfus: Real-Encyclopädie des Erziehungs- und Unterrichtswesens nach katholischen Prinzipien, S. 613. 76 Aloys Fischer: »Über das Bauen und die Bauspiele von Kindern«, in: Zeitschrift für pädagogische Psychologie und Jugendforschung (1918), S. 234–245, hier S. 244. 77 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 3, S. 167. 63 zieht. Eben dieses Freiheitsmoment ist innerhalb der klassischen Testpsychologie, die Anfang des 20. Jahrhunderts einen enormen Aufschwung erlebt und Einzug in pädagogische Erkenntnis- und Entscheidungsprozesse hält,78 nur zu geringen Teilen vorhanden und wird unter dem Schlagwort der »Mechanisierung«79 auch häufig beklagt. In standardisierten Testverfahren kommen Schüler tendenziell als ›triviale Maschinen‹ vor, deren Wissen binär auf vorhanden/nichtvorhanden bzw. richtig/ falsch geprüft wird. Um dieser Tendenz zu entgehen und Prüfungsverfahren auf der Höhe der zeitgenössischen Intelligenzdefinition zu entwickeln – Verfahren, welche die »allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens«80 unter Beweis stellen –, bietet die ›Ludifizierung‹ des Tests die Alternative zu seiner zunehmenden Mechanisierung.81 Wie diese Verschränkung von Spiel- und Testarrangement aussieht, illustriert das Beispiel des ›Bogenschen Käfigs‹ »ein vergittertes Gestell, das durch Zwischenwände mit Durchlässen in mehrere Teile geteilt ist. Der Boden stellt zum Teil schiefe Ebenen dar. Es gilt, einen im Gestell befindlichen Ball durch verschiedene Durchlässe hindurch und gegen die schiefe Ebene bis zu einem Ausgang zu schaffen.«82 Zu Beginn des Test-Spiels präsentiert dessen Leiter »den (aus zwei hohlen Halbkugeln bestehenden Ball), öffnet ihn, legt vor den Augen des Pg. [Prüflings] einen Bonbon (Stück Schokolade) hinein, verschließt ihn«, legt den Ball in den Käfig und verkündet anschließend Ziel und Regeln des Tests: »Hole dir den Ball mit dem Bonbon drin jetzt aus dem Käfig heraus und iß den Bonbon auf! Du kannst dazu alles nehmen, was hier auf dem Tisch liegt!«83 78 Vgl. Leila Zenderland: Measuring Minds. Henry Herbert Goddard and the Origins of American Intelligence Testing, Cambridge 2001. 79 William Stern und Otto Wiegmann (Hg.): Methodensammlung zur Intelligenzprüfung von Kindern und Jugendlichen, Leipzig 1926, S. IX. 80 William Stern: Die Intelligenz der Kinder und Jugendlichen und die Methoden ihrer Untersuchung, Leipzig 1920, S. 3. 81 Auf den Verpackungen zahlreicher Spiele für Kleinkinder findet sich heute die gegenläufige Tendenz. Unter Überschriften wie »Dieses Spiel fördert …« finden sich Hinweise auf tradierte psychologische Register, in welchen der Umgang mit dem Spiel als förderlich beworben wird: ›Auge-Hand-Koordination‹, ›Feinmotorik‹, ›Zahlenverständnis‹, ›Gedächtnis‹, ›freies Spiel‹, ›Wir-Gefühl vermitteln und erleben‹, ›Farben- und Symbole erkennen und benennen‹ lauten die Kaufanreize für Eltern, die mit dem Holzspielzeug zugleich ein Test- und Fördermaterial kaufen. 82 Stern und Wiegmann (Hg.): Methodensammlung zur Intelligenzprüfung, S. 126. 83 Ebd., S. 127. 64 Abbildung 2: Ein Prüfling mit dem sogenannten »Bogenschen Käfig«, aus: Stern und Wiegmann: Methodensammlung zur Intelligenzprüfung von Kindern und Jugendlichen, S. 127. Ähnlich wie sich hier das Testarrangement dem Spiel annähert – und so tiefere Aufschlüsse über die »psychischen und motorischen« Fähigkeiten sowie die »gnostische« und »praktische« Intelligenz geben soll84 –, involviert auch die organisierte Bemühung um das kindliche Spiel Elemente der Testung. So führt ein Artikel über »Spielzeuge als Erziehungsmittel«85 die zunehmende Verbreitung industriell gefertigten Spielzeugs als Voraussetzung für vergleichende Beobachtungsstudien an. Reichsweit könnten Eltern Aufzeichnungen über das kindliche Spielverhalten anfertigen, welche aufgrund des quasi-standardisierten Spielmaterials zahlreiche Vergleiche ermöglichten und damit Wohnzimmer in informelle Testräume verwandeln.86 Gleichzeitig berichtet der Artikel von der Einführung sogenannter ›öffentlicher Spielzimmer‹ während des 1. Weltkrieges und deutet bereits in deren Benennung die systematische Überblendung von Spiel und Test an: »Spielzimmer und Beobachtungsstätten«87 gestatteten Einblick in die »Resonanzbedingungen, die das Spielzeug 84 Ebd., S. 126. 85 Oskar Frey: »Über Spielzeuge als Erziehungsmittel und die Einrichtung öffentlicher Spielzimmer und Beobachtungsstätten«, in: Zeitschrift für pädagogische Psychologie und experimentelle Pädagogik 19 (1918), S. 373–394. 86 Ebd., S. 375. 87 Ebd., S. 373. 65 im Geistes- und Triebleben«88 finde. Dabei bestehe die Kunst der gelingenden Kopplung von Spiel und Test darin, die empfindliche ›Resonanz‹ zwischen Kinderpsyche und Spielmaterial herzustellen und zu beobachten – ohne jedoch die Eigenlogik des Spiels zu korrumpieren: »Die Spielzeuge dürften […] nicht den Charakter von Apparaturen für Reaktionsversuche annehmen.«89 Gerade diese Warnung weist auf eine Schnittmenge von Test und Spiel hin, deren Unterscheidung eher an den je spezifischen Kontexten hängt, denn an den involvierten Elementen. Jede Testsituation muss ihre spielerischen Elemente im Zaum halten, um den Ernstfall der Testlogik zu wahren und sich gegen das ›Ausarten‹ »zu dilettantischer Spielerei und bedenklicher Pseudowissenschaft«90 zu versichern – genauso wie jede Spielsituation das Eindringen des Ernstfalls beschränken muss, um die feine Linie um das »Spielparadies«91 und das Als-Ob des Spiels zu ziehen. Diese Arbeit an den Grenzen lässt sich als Hinweis auf den Systemcharakter des Spiels lesen. Das System Spiel kann, genauso wie das System Schule, seine Umwelt gerade deshalb ›verarbeiten‹, weil es sich als in sich geschlossene Welt von ihr abgrenzt. Auffällig ist dabei, wie sich Spiel und Schule in der Abgrenzung von einem gemeinsamen Gegenelement – dem Geld – behaupten, welches als Gefährdung ihres inneren Funktionierens thematisiert wird. Spiel sei zwar »überhaupt nur möglich […] aus einem inneren Reichtum heraus« – sobald jedoch der äußere Reichtum in Gestalt des Geldes und seines Gewinn-Kalküls eindringt, zerstöre dieser seine pädagogische Qualität. »Jedes Spiel hört auf erheiternd und unschuldig zu seyn, sobald es dabei auf Geldgewinn ankommt. In eben diesem Augenblick […] wird das Spiel, welchen Namen es auch haben mag, der Schlüssel zu einer Hölle«.92 Wie jedes Spiel zum Medium der Wahrheit werden kann, indem es zu einer impliziten Test- oder Prüfungssituation transformiert wird, so lässt es sich genauso gut ins andere Leitmedium der Moderne – das Geld – übersetzen und zum Gewinn-Spiel machen. Allein die zweite Möglichkeit bricht offenbar mit dem Feld der Pädagogik, da das Geld als »fremdartiges Element« die innere Freiheit des Spiels untergräbt und »den Segen, den das rechte Spiel bringen kann, in Fluch«93 verwandelt. 88 Ebd., S. 374. 89 Ebd., S. 375. 90 Stern und Wiegmann: Methodensammlung zur Intelligenzprüfung, S. IV. 91 Frey: »Über Spielzeuge als Erziehungsmittel«, in: Zeitschrift für pädagogische Psychologie und experimentelle Pädagogik 19, S. 375. 92 Matthias Cornelius Münch: Universal-Lexicon der Erziehungs- und Unterrichtslehre, Bd. 2, Augsburg 1842, S. 621. 93 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 721. 66 Schlussbemerkung – Das Spielgeld der Schule Zusammenfassend lässt sich die eigentümliche Anziehungskraft des Spiels für die Pädagogik als Effekt seiner Brückenstellung verstehen. Weil die Pädagogik einerseits nur durch die Ausdifferenzierung und Institutionalisierung des Erziehungssystems zu einem eigenständigen Wissensgebiet werden konnte und andererseits die Klage über diese Differenz zwischen ›Schule‹ und ›Leben‹ zu ihren bleibenden Geburtsfolgen gehört, steht sie im Bann dessen, was diese Differenz zugleich erinnert und aufzuheben verspricht. Eine solche Aufhebung signalisiert das Spiel. In seinem Reich verschwimmt der Unterschied zwischen spielender Arbeit und arbeitendem Spiel, das alte Kopfzerbrechen über die Frage, wie »die Freiheit bei dem Zwange«94 gedeihen soll, erledigt sich in der freiwilligen Unterwerfung unter die Regeln des Spiels, das »ein Produkt der idealen Natur des Menschen, eine Erscheinung seines freien geistigen Wesens«95 sei. Im Anschluss an die Frage, ob Spielen überhaupt Bestandteil des Erziehungs- und Bildungsprozesses sein kann, beginnt die Arbeit an der Frage nach seiner richtigen Einrichtung: Was unterscheidet das gute vom schlechten Spiel? Wie ist das richtige Verhältnis von Spiel und Spieler, von Spiel und Nicht-Spiel auszutarieren, um die Kinder nicht »überspielt« oder »verspielt«96 werden zu lassen oder gar eine »gefährliche Spielleidenschaft« zu entfesseln, »die bis zu einem rauschähnlichen Zustand gehen kann«?97 Neben dieser Aushandlung des richtigen Maßes98 fordert die pädagogische Kolonisierung des Spiels vor allem seine Reinigung von Konkurrenz und Egoismus, die in einer Verschiebung des Gewinnmotivs resultiert. Was jedoch ist im Leben zu gewinnen? Ihre eigene Antwort auf diese Frage findet die Pädagogik in der Nachbarschaft tradierter Angebote. Dabei gleicht ihr Gewinnversprechen nicht dem Heil, das die profanen Varianten des 94 Kant: Schriften zur Anthropologie, Geschichtsphilosophie, Politik und Pädagogik, S. 711. 95 Julius Schaller: Das Spiel und die Spiele. Ein Beitrag zur Psychologie und Pädagogik wie zum Verständnis des geselligen Lebens, Weimar 1861, S. 6. 96 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 217 u. S. 219. 97 Rein: Enzyklopädisches Handbuch der Pädagogik, Bd. 7, S. 716. 98 Diese Sorge um das richtige Maß markiert den normalistischen Rahmen des Spielparadigmas. Statt einer moralisch begründeten Pro-/Contra-Entscheidung über die pädagogische Legitimität des Spiels, zeigt sich die normalistische Perspektive im Rückgriff auf das ›ökonomische‹ Austarieren des Maßes (vgl. Jürgen Link: Versuch über den Normalismus. Wie Normalität produziert wird, Göttingen 2013.) – wieviel Spiel ist zu viel, wie viel Spiel ist zu wenig, wie viel Spiel ist für welches Alter angemessen? Diese Einlassung der Spielfrage ins Kontinuum der Normalität reflektiert sich nicht zuletzt in der wiederkehrenden Kopplung von Spieltätigkeit und Gesundheit. Das normal-gesunde Kind spielt, während das anormal-kranke Kind am Mangel der Spieltätigkeit zu erkennen ist: »Es wäre vielmehr ein Zeichen einer nicht normalen Entwicklung, und wir hätten mit Recht für die Zukunft des Kindes zu fürchten, wenn dasselbe nicht spielte.« (Schaller: Das Spiel und die Spiele, S. 2) »Ein Kind, das nicht spielt, ist entweder physisch oder psychisch krank.« (Petzold: Handwörterbuch für den deutschen Volksschullehrer, S. 299). 67 Gewinns zugunsten seiner jenseitigen Erwartung aufkündet.99 Auch liegt ihr Gewinn nicht im Bereich der Wahrheit – pädagogische Praxis erschöpft sich nicht in der Erkenntnis oder Vermittlung eines ›wissenschaftlich‹ Wahren. Noch weniger gleicht der pädagogische Gewinn dem Profit, dessen materielles Kalkül die Pädagogik als Bedrohung ihres idealistischen Kerns von sich weist. Die eigentliche Gestalt des pädagogischen Gewinns liegt schlichtweg im Zuwachs des Könnens, das im Bildungskontext jedoch weniger im Register des Profits, sondern in dem der Entfaltung verbucht wird – als Ergebnis jener Anlagen-Entfaltung, welche das jeweilige Können zur realisierten Aktualität menschlichen Potentials erklärt. Damit lebt das Spiel der Pädagogik von einer dreifachen Abgrenzung: Im Spiel brechen die Spieler zwar mit dem Ernst des Lebens, das Jenseits des Alltags öffnet sich ihnen jedoch nicht auf Erlösung, sondern höchstens auf Erholung hin. Ebenso verabschiedet das Spiel den Anspruch auf Wahrheit – sein Gelingen verläuft quer zum Wahren und innerhalb der »scheinhafte[n] Betätigung«100 der Simulation. Zuletzt verwehrt sich das pädagogische Spiel gegen den Profit – der einzige Gewinn, den es gelten lässt, ist der Gewinn an Fähigkeiten. Als Übungserfolgs stellt dieser Gewinn eine zentrale pädagogische Legitimationsgröße des Spiels dar. Seine eigentliche Attraktivität erhält das Spielparadigma jedoch dadurch, dass es diese dreifache Grenze gegenüber dem Heil, der Wahrheit und dem Profit nicht nur zu ziehen erlaubt, sondern sie gleichzeitig durchlässig macht und das Ausgegrenzte in verwandelter Form wieder eingliedert. Diese Durchlässigkeit zeigt sich nicht zuletzt in der fortschreitenden Kontamination von Arbeit und Spiel. Wo das Spiel als das Andere der Arbeit verblasst, breitet sich jene Zone der Ununterscheidbarkeit aus, in der die Logik des Profits das Spiel erfasst, die Arbeit über die Form des Lebens entscheidet und dessen Erlösung als Frage nach dem richtigen Maßverhältnis von Arbeit und Leben neu verhandelt wird – als ökonomisches Problem ihrer gelingenden Balance. 99 Exemplarisch im Wortlaut der Textbibel (Emil Kautzsch: Textbibel des Alten und Neuen Testaments, Tübingen 1899): »Denn wer sein Leben retten will, der wird es verlieren; wer aber sein Leben verliert um meinetwillen, der wird es gewinnen.« (Mt. 16:25). 100 Hoffmann: »Das Spiel«, in: Nohl und Pallat (Hg.): Handbuch der Pädagogik, S. 215. 68 Felix Raczkowski Play, Work and Ritual in Gamification Abstracts The paper examines a specific rhetoric of productivity that has become part of the discourse of digital games in the last few years. Under the term ›Gamification‹ business consultants, PR managers, educators and game designers argue for a use of game design elements in non-game contexts, which entails the hope of ›transplanting‹ the captivating enjoyment of digital games into situations and environments that are not very engaging by themselves, e.g. jobs or schools. The paper argues that the attempts to make digital games useful must be understood in the context of those theories of play that connect play and games to ritual acts. These rituals as precursors of play open spaces of transition, thus enabling the establishment of new, temporary rules that structure moments of social transformation. The process of transitioning between two diametrically opposed spheres of life (like adolescent/grown up or work/leisure) can then be connected to the goals of Gamification, which is to be considered as an attempt to re-ritualize work through game elements. Der Beitrag setzt sich mit einer spezifischen Rhetorik der Produktivität auseinander, die in den letzten Jahren unter dem Begriff ›Gamification‹ in den Diskurs digitaler Spiele Einzug gehalten hat. Unternehmensberater, PR-Manager, Bildungsreformer und Game Designer plädieren für eine Übertragung von Spielelementen auf außerspielerische Zusammenhänge. Damit geht die Hoffnung einher, die fesselnden und motivierenden Aspekte digitaler Spiele auf weniger motivierende Umgebungen und Tätigkeiten zu übertragen, etwa den Berufsalltag oder die Schule. Der Text geht von der These aus, dass es zum Verständnis des Wunsches nach produktiven, nützlichen Spielen notwendig ist, sich mit der Kulturgeschichte des Spiels und des Spielens und seinen Wurzeln im Ritual zu befassen. Dabei sind speziell Rituale des Übergangs von Interesse, die liminale Räume eröffnen, in denen zeitweilige Regeln soziale Transformationsprozesse strukturieren. Es ist zu zeigen, dass Gamification sich besonders auf (digitale) Spiele bezieht, insofern diese wie liminale Rituale die Möglichkeit bieten, Übergangsräume hervorzurufen, in denen etwa der Unterschied zwischen Arbeit und Freizeit verschwinden gemacht werden kann. Gamification operiert damit als Re-Ritualisierung von Arbeit durch Spielelemente. The relationship between play and work in today’s media environments is negotiated within and through digital games. This assumption may be grounded in a number of different, albeit interconnected observations that I will summarize briefly before focusing on one of them in greater detail. Specifically, this paper is concerned with Gamification as an emerging strategy to combine work and play and the theoretical ramifications that this combination entails. I will demonstrate how Gamification can be thought of as re-connecting games, play and ritual through liminoid spaces, that is, through spaces (or phases) of transition. It will then become possible to regard (digital) games themselves as transitional or liminoid media. Gamification will be discussed in detail following the first paragraph. I will use the elucidation to de- 69 scribe the field of theoretical approaches and practical applications. This will stand in contrast to my analysis of the relationship between work and play. From a media-historical point of view, all digital games can be said to be machines built for the naturalization of work. This perspective is especially prevalent in German Media Theory and German Game Studies. It conceives digital games as artifacts that are only possible; meaning, an artifact can only come into being as a consequence of certain historical and discursive formations that are decidedly non-ludic in nature. When digital games appear, they’re not just a civilian application for a military technology (the computer), but they implement training regimes for reflexes, decision-making or strategic thinking.1 These training regimes can be traced back to various fields of knowledge, e.g. psychological experiments or scientific management. Following Pias, action games can be characterized as time-critical reaction tests that ›train‹ their players to fulfill repetitive tasks quickly and efficiently, similar to the »one best way«2 of completing specific operations during workflow that Frederick W. Taylor focused on in his research during the early 20th century. Other theories addressing the relationship between video games and working environments point out similarities between the interfaces of professional and entertainment software. Both are striving for an ease of use that makes the complexities of the underlying technology disappear or emphasize the importance of rhythm for scientific management as well as modern digital games.3 The accounts of Pias and Nohr depict the computer as a historical object and digital games as artifacts that are at the same time connected to historical, discursive formations of optimization and training while also always hiding their historical and scientific inheritance. The main accomplishment of this approach is to uncover the discursive formations that enable digital games in the first place and to thus open the field to a study of games that is explicitly not concerned with modern, commercial videogames. It becomes possible to outline the continuities between digital games and military technologies, cybernetics, behavioral research or scientific management. Consequently, a media-historical analysis of the interdependencies between games, play and work should amongst other things focus on the role of the computer as a machine for work and on the way the personal computer is integrated into working environments. The question of play is then connected to the way interfaces are designed and optimization as well as bureaucratic task-management is integrated into professional and entertainment software, bridging the gap between work and play. In a development that might be taken as the confirmation of these theories, we can currently witness an actual convergence between the cultural spheres 1 See Claus Pias: Computer Spiel Welten, Zurich: Diaphanes 2010. 2 See Robert Kanigel: The One Best Way. Frederick Winslow Taylor and the Enigma of Efficiency, Cambridge Mass.: MIT Press 2005. 3 See Rolf Nohr: Die Natürlichkeit des Spielens. Vom Verschwinden des Gemachten im Computerspiel, Munster: LIT 2008. 70 of ›work‹ and ›(digital) gameplay‹, both in terms of games that become fields of employment for their players and in working environments that are to be structured like games.4 While this article will mainly focus on the latter, a short explanation of the former is necessary to fully flesh out the argument I want to present. Although digital games today are still predominantly considered leisure-time pursuits, it has become entirely possible to play them in a professional way and thus, to work in or with the game. There are several ways this can happen. Two of those I want to discuss: the first one is professionalization through competition and mainly concerns ›eSports‹, that is, all kinds of professional, competitive gameplay in digital games.5 To participate in eSport on a professional level means adhering to a rigid training regime, playing one’s game of choice daily and eventually (through a system of sponsors and prize money quite similar to that of ›analogue‹ sports) getting paid to do so. As far as working in games is concerned, eSports may be discussed in terms of Caillois’s account of professional sports. He points out that in all cases of ›professionalized‹ games, the participants are not actually playing, but instead working – they are paid to play and thus, their participation is not voluntary.6 Caillois’s definition of the terms game and play perceives them as highly idealistic concepts. The ›purity‹ is constantly endangered by the influx of non-game-elements or non-play-motivations like profit and monetary gains. In this he follows Huizinga’s earlier definition that still proves to be a central point of reference for game studies, although Huizinga and Caillois differ greatly in their ideological frame of reference respectively.7 I will return to these theories in the third paragraph. The idealistic way of thinking about games as a cultural practice that is deliberately removed from, or marked off against work and more serious pursuits continues to implicitly shape many arguments that are developed by scholars of digital games. Consequently, every instance of profitable or professionalized game-playing is treated as a curiosity, a novelty or an aberration. This is also true for the second example of digital games as places of work that I want to discuss. 4 I will use the terms play and game interchangeably, since they signify a difference of degree, not of kind. While the term ›game‹ is usually reserved for rule-based structures and their materiality, ›play‹ can mean both the act of engaging with formulated rule-based structures and a form of spontaneous, non-formal ludic action. Both terms are used in the English translations of Johan Huizinga’s and Roger Caillois’s work and I will follow Caillois’s theory in considering rulebased and free play as being situated on opposite ends of a fluid continuum encompassing all ludic phenomena. 5 See Michael G. Wagner: »On the Scientific Relevance of eSports«, in: Proceedings of the 2006 International Conference on Internet Computing & Conference on Computer Games Development, ICOMP 2006. 6 Roger Caillois: Man, Play and Games, Chicago: Illinois UP 2001, pp. 6. 7 Alexander Galloway: Gaming. Essays on Algorithmic Culture, Minneapolis: Minnesota UP 2006, pp. 19–25. 71 The rising popularity of massively multiplayer online games since the late 1990 s,8 which culminated in World of Warcraft’s success with more than 12 million players at the height of its popularity, enables a development that fascinates journalists,9 economists10 and scholars of media alike.11 MMOs have become parallel economies whose (entirely virtual) goods like fictional herbs, magic swords or futuristic spaceships are traded among players for ›real‹, out-of-game currency. Either the goods themselves are sold on third-party marketplaces like eBay or on specialized websites. Alternatively, the corresponding in-game currency can be bought for dollars or euros. While there are numerous questions arising from these practices, attempting to answer them is beyond the scope of this article.12 In this context, it is sufficient to point out one obvious consequence of virtual, ludic economies that become intertwined with real-world economies: playing these games can earn the players money and playing them in a way that is solely focused on optimizing the gain of marketable goods can become a job. Dibbell has explored these emerging services at length and since his account has been published,13 the market for virtual goods has continually grown, with most of the work (usually referred to as ›gold farming‹) being outsourced to countries like China and to low-skilled and low-paid workers in a sweat-shop working environment to save costs. Both examples, eSports and gold farming, demonstrate that digital games have – all theories regarding the supposed purity and non-productivity of games and play aside – become places of work in which play can be both mandatory and productive. It is possible to go ›to work‹ in or with a digital game. While these practices are marginal in comparison to ›regular‹ video game uses, they still raise questions concerning our concepts of game, play, work, and their correlations. I will return to those in the third paragraph. Like Aarseth once noted regarding the bias game scholars tend to exhibit towards the rare unusual and creative practices of play, it sometimes makes sense to focus on these practices to find out what makes certain 8 Massively Multiplayer Online Games (MMOs) are online games designed for many (several thousand) simultaneous players. They usually take place in persistent environments, that is, the game world is continuous and it changes and develops regardless of whether or not an individual player is present and acts or not. In short: the ›world‹ of World of Warcraft is always present and accessible to those with active subscriptions for the game, whether they actually decide to log in and play or not. 9 See Julian Dibbell: Play Money or, How I Quit My Day Job & Made Millions Trading Virtual Loot, New York: Basic s 2006. 10 See Edward Castronova: Synthetic Worlds. The Business and Culture of Online Games, Chicago: Chicago UP 2005. 11 See Joyce Goggin: »Playbour, farming and leisure«, in: Ephemera. Theory & Politics in Organization 11 (2001), pp. 357–368. 12 Among other things, the trading of virtual (in-game) goods raises the question to whom these goods belong legally, with most game publishers claiming the rights to all goods generated in their games as part of their intellectual property while players point to the time they invested to collect the virtual items as working hours. 13 Dibbell: Play Money. 72 games stand out.14 I would add that creative gameplay is always worth considering, because it demonstrates the spaces of possibility opened by player-game interactions. In turn, they can contribute to shifts in the way the medium is perceived. Where the convergence of work and play is concerned, we even have to pay special attention to digital games, both as media and as technological artifacts, because they provide the spaces in which this convergence is currently taking place. As such, they appear to confirm the media-historical theory of digital games as phenomena that make their players work in one way or another, whether they realize it or not. I want to offer a different view on games as places of work by returning to the anthropological and cultural-historical theories that are the foundation of our concepts of game and play in digital contexts. Special attention will be paid to the relationship between play, work and the concept of ritual. I will connect it to the issues raised by Gamification following the third paragraph. Before doing so, however, we need to have a look at the development that is at the center of current debates around digital games and work: Gamification. Gamification So far, I have described the convergence of work and play in digital games as having two directions: digital games as places of work and working environments structured like games. The former is of lesser importance to the argument developed here, mainly because it appears to have less discursive relevance in the debate on games, play and work. It can also be connected to a long tradition of ›professionalized‹ gameplay in sports and thus can appear as an unsurprising, if not expected, development in digital gaming culture, regardless of the difficulties it causes with classical cultural theories of games and play. The latter, however, is presented as a novelty, as an innovative way to harness the potential of digital games for something else than ›mere‹ entertainment. The term that has emerged to encompass all these hopes, visions, strategies, business models and applications focused on ›using‹ digital games in non-game-contexts is called ›Gamification‹. Following Deterding et al., I will define Gamification as »the use of game design elements in non-game contexts«.15 As far as advocates for Gamification are concerned, ›game design elements‹ can mean anything from design paradigms and feedback mechanisms to visual clues and competitive statistical evaluation. When I compared several popular guidebooks on Gamification to outline the way they referred to digital games and 14 Espen Aarseth: »I Fought the Law: Transgressive Play and the Implied Player«, in: Proceedings of DiGRA 2007 Conference: Situated Play. 15 Sebastian Deterding et al.: »Gamification: Using Game Design Elements in Non-Gaming Contexts«, in: CHI 2011 Workshop Gamification: Using Game Design Elements in Non-Game Contexts, Vancouver, May 7, 2011. 73 their potential, several qualities were repeatedly attributed to games and singled out as ›useful‹ elements: digital games employ scoring mechanisms through which they reward and visualize progress, they enable competition through scoreboards, they are conductive to optimal experiences like flow (thus alleviating boredom), they offer cheap environments for training and experimentation and they valorize mundane tasks through narrative reframing (doing the dishes can be framed as a heroic deed).16 According to proponents of Gamification, these ›game design elements‹ can be removed from their ludic contexts and employed in marketing campaigns and PR strategies, as self-improvement techniques or in working environments. The broader reason for pursuing this transfer appears to be obvious: digital games can be highly motivating pastimes and their players willingly invest substantial amounts of time and effort into them. If one could single out those elements of digital games that are especially engaging, they could be used to enhance or restructure those mundane, non-ludic tasks that are by themselves less motivating, like jobs or household chores. Gamification can be (and has been) addressed in various ways. On the one hand, when adopted uncritically, it can become the central claim of consulting strategies, self-help advice, marketing guidebooks or utopian visions for the future of humanity.17 On the other hand, the concept has been criticized as an empty marketing ploy,18 as a capitalist strategy to thinly veil the alienation of work,19 or as a neo-behavioristic attempt at behavior modification.20 It has also been discussed in the light of some of the media-historical theories regarding digital games and work I mentioned above: DeWinter et al. describe Gamification as an updated resurgence of Taylorism that employs ›fun‹ to disguise strategies of optimization and even exploitation.21 While these criticisms, as well as the question of whether or not Gamifi- 16 See Felix Raczkowski: »It’s all fun and games… A history of ideas concerning gamification«, in: Proceedings of DiGRA 2013 Conference: DeFragging Game Studies, Atlanta, August 26– 29, 2013. 17 There are several published examples for either claim. However, discussing them here at length is beyond the scope of this article. For more information regarding the arguments presented by popular accounts of Gamification, see Raczkowski: »It’s all fun and games…« and Scott Nicholson: »Strategies for Meaningful Gamification: Concepts behind Transformative Play and Participatory Museums«, in: Paper Presented at Meaningful Play 2012, University of Michigan (East Lansing), October 18–20, 2012. 18 Ian Bogost: »Why Gamification is Bullshit«, in: Steffen P. Walz and Sebastian Deterding, eds.: The Gameful World. Approaches, Issues, Applications, Cambridge, Mass.: MIT Press 2014, pp. 65–79. 19 PJ Rey: »Gamification and Post-Fordist Capitalism«, in: Steffen P. Walz and Sebastian Deterding, eds.: The Gameful World. Approaches, Issues, Applications, Cambridge, Mass.: MIT Press 2014, pp. 277–295. 20 Raczkowski: »It’s all fun and games…«. 21 Jennifer DeWinter, Carly A. Kocurek and Randall Nichols: »Taylorism 2.0. Gamification, scientific management and the capitalist appropriation of play«, in: Journal of Gaming & Virtual Worlds, 6/2 (2014), pp. 109–127. 74 cation actually works when applied in practice,22 are important to consider when discussing the concept, I will not focus on them in this argument. Instead, I propose to consider Gamification as a popular idea and all the comments and criticisms associated with it as discursive phenomena that enable specific ways of speaking about work, games and play while making other statements unlikely to appear. Following Foucault, we can assume that there are certain conditions that allow the idea or the statement of Gamification to emerge and that govern our way of thinking and speaking about the various topics addressed by Gamification.23 I will try to clarify these conditions, both in their theoretical and their practical dimensions, in the following paragraphs. On Games, Play and Work The concept of Gamification requires a specific way of thinking about games, play and work. This encompasses digital games as media and technologies as well as broader, cultural assumptions about games and play and the borders separating them from work or other ›serious‹ pursuits. I will discuss these broader concepts of play and games first, while returning to the question of technology and digital games in the fifth paragraph. To consider the application of ›game design elements‹ to ›nongame contexts‹ a novel idea, one must (at least implicitly) view their strict separation as being the cultural status quo. It is a notion that will go uncontested in most debates about games. Games and play are perceived as separated from, or even as the opposite of everyday life and work. In language, the use of the terms game and play in proverbs or as metaphors indicates that they are strongly associated with non-serious, sometimes irresponsible behavior (e.g. ›Is this a game to you‹, ›Stop playing with me‹) or with childhood (›child’s play‹). To play with something means to engage with it in a non-serious way, not aiming for any productive outcomes. Digital games are delineated as entertainment software and marketed on other platforms than software for non-entertainment purposes. Finally, there are reservations and fears that games might somehow leave their assigned cultural space and influence the rest of the world they’re part of, as evidenced by the continuous debates on violent video games or the strict regulation of gambling. 22 Juho Hamari, Jonna Koivisto and Harri Sarsa: »Does Gamification Work? A Literature Review of Empirical Studies on Gamification«, in: Paper presented at 47th Hawaii International Conference on System Science 2014, Waikoloa (Hawaii), January 6-9, 2014, pp. 3025–3034. 23 Gamification, or rather the whole field of useful applications of games, could be considered a discursive formation in Foucault’s words, that is, a set of statements regarding a certain topic (thereby bringing forth said topic). See Michel Foucault: Archaeology of Knowledge, New York: Vintage 2002, pp. 34–43. 75 These implicit assumptions are formalized as part of two theoretical accounts of games and play that shape games research in the humanities and especially in game studies even today: Johan Huizinga’s Homo Ludens24 and Roger Caillois’s Man, Play and Games.25 In the light of the extensive reception of both texts in international game scholarship, it might seem redundant and unnecessary to return to them once more. On the contrary, I maintain that these ›classics‹ are especially relevant for the question at hand, mainly for two reasons: Firstly, the ubiquitous reception of both Huizinga and Caillois still (at least implicitly) determines the way games and play are addressed in game studies. Developments like the ones I described above can only appear surprising when viewed against the backdrop of idealized definitions of games and play. Secondly, Huizinga’s account in particular offers a rarely considered hint to develop another perspective on games, play and work that is better suited to discuss Gamification than the outright dismissal that would result from arguing for a strict separation of play and work. While both Huizinga’s and Caillois’s accounts have been written under very different circumstances, the broad perspective they develop on games and play is fairly similar. In the 1930 s, the Dutch historian Huizinga makes the bold argument that all human culture emerges from play. He defines play in the following way: »we might call it [play] a free activity standing quite consciously outside ›ordinary‹ life as being ›not serious‹, but at the same time absorbing the player intensely and utterly. It is an activity connected with no material interest, and no profit can be gained by it. It proceeds within its own proper boundaries of time and space according to fixed rules and in an orderly manner«.26 In the 1950 s, Caillois built upon Huizinga’s work to develop a more nuanced account of play and games, a theory that is remembered today for the attempt to offer an exhaustive classification of the types of play. Caillois’s definition lists the following essential qualities of play: »1. Free: in which playing is not obligatory; if it were, it would at once lose its attractive and joyous quality as diversion; 2. Separate: circumscribed within limits of space and time, defined and fixed in advance; 3. Uncertain: the course of which cannot be determined, nor the result attained beforehand, and some latitude for innovations being left to the player’s initiative; 4. Unproductive: creating neither goods, nor wealth, nor new elements of any kind; and, except for the exchange of property among the players, ending in a situation identical to that prevailing at the beginning of the game; 5. Governed by rules: under conventions that suspend ordinary laws, and for the moment establish new legislation, which alone counts; 24 Johan Huizinga: Homo Ludens. A Study of the Play-Element in Culture, London: Beacon 1980. 25 Caillois: Man, Play and Games. 26 Huizinga: Homo Ludens, p. 13. 76 6. Make-believe: accompanied by a special awareness of a second reality or of a free unreality, as against real life«.27 Although there is a lot to unpack in both definitions, I will focus on the questions raised by the concept of Gamification. Huizinga and Caillois explicitly exclude productivity of any kind, while at the same time emphasizing the ›separateness‹ of games and play. Especially Huizingas theory of play and its boundaries has become a point of debate in game studies, centered on the term »magic circle«28 that he uses to describe the special physical and imaginary area in which play happens.29 Huizinga points out the position of play in opposition to seriousness, although he objects the notion of considering this opposition as absolute: »Play turns to seriousness and seriousness to play«.30 Under the right circumstances, all play can become very serious indeed – Huizinga points to the close relationship between play and ritual that I will return to in the following paragraph. Yet seriousness in this context is not to be confounded with efficiency or productivity, which mark the end of play and games for Huizinga and Caillois, since they invite obligatory competition. Huizinga prophetically remarks: »Business becomes play. This process goes so far that some of the great business concerns deliberately instil [sic!] the play-spirit into their workers so as to step up production«.31 Unfortunately, he offers no example or source, although he contrasts the play-like businesses with the business-like play of professional sports. Both developments stand in conflict with another quality of play emphasized by both definitions: its voluntary nature or the freedom to play. Playing that becomes mandatory ceases to be play. Interestingly, both Huizinga and Caillois connect the question of freedom to the type of fun and enjoyment that are associated with play. Apparently, the fun in play and games is directly connected to the voluntary decision to take part in them. Finally, there is the matter of boundaries, of the separation of play and reality: the rules of any game and any playing activity are in effect only temporary; however, for the duration of the game, their status is absolute and unquestionable. In which way does the idea of Gamification factor into this? It is apparent that Gamification purposefully transcends the dichotomies in our view on play and games.32 Games are no longer defined through their unproductivity and the way they’re removed from everyday life, on the contrary, they are suddenly of interest for 27 Caillois: Man, Play and Games, pp. 9–10. 28 Huizinga: Homo Ludens, p. 10. 29 Regarding the concept of the magic circle in game studies, see Jaakko Stenros: »In Defence of a Magic Circle. The Social and Mental Boundaries of Play«, in: Proceedings of DiGRA Nordic 2012 Conference: Local and Global – Games in Culture and Society, Tampere, June 6–8, 2012. 30 Huizinga: Homo Ludens, p. 8. 31 Ibid., p. 200. 32 Of course it must be stated that the highly idealistic idea of games and play being concepts that exist completely removed from reality and that have no consequences beyond the artificial 77 consultants, managers and chairmen, because they can potentially be inserted into facets of everyday life to enhance productivity. This might appear as a novel and forward-thinking use of games and play precisely because it subverts the general understanding of how the cultural practice of play functions. Consequently, following Huizinga, the concept of Gamification could be regarded as the ultimate form of corruption of games and play. With Caillois it could be stated that Gamification relies upon the exploitation of people’s ludic desires by escalating the corresponding games in a specific, profit-oriented way (e.g. the desire for competition is transplanted into an office environment using ›agonal‹ game elements like high-score-lists). While the ideal of unproductive gameplay that is set apart from reality has been dismissed in game studies for some time now, it seems like Gamification is a central part (or a symptom) of a larger shift in the discursive formations that structure our way of thinking about games. Games and play are less regarded as childish pastimes or as potentially dangerous (as in the media harm debates), instead they are increasingly considered worthwhile and productive. This brings working and playing closer together, as one no longer necessarily excludes the other. Games (or, in case of Gamification, their elements) no longer follow the rules of exclusion, they are neither removed nor apart from ordinary life, but instead they appear to be designed to blur the lines between concepts that seem contradictory to us. Especially where work and play are concerned, (digital) games become spaces of mediation or of liminality – they are reconnected to their cultural-historical roots in form of ritualistic practices. The connection between games, play and ritual is a well-established assumption in anthropology and ritual theory that influenced Huizinga’s and Caillois’s writing. However, it is not usually discussed in the context of game studies, let alone of recent phenomena like Gamification. Closing this gap, I will argue that Gamification represents the ›re-ritualization‹ of both play and work and through this enables another perspective on (digital) games in our society: they are media of liminality. Liminal and Liminoid Huizinga argues that play can at the same time be unproductive, removed from everyday life, voluntary and serious. This seriousness is owed to the roots that play and games have in ritualistic practices, there is a »holy earnest«33 that permeates ritual and play alike. Huizinga lists several examples for play that happens in earnest, from constraints of their own rules has been thoroughly criticized in game studies. The ›borders‹ of games are usually regarded as being very permeable to the point of nonexistence and it is accepted that all rule-based play has consequences (if only teaching the players a better understanding of the rules for subsequent playing). 33 Huizinga: Homo Ludens, pp. 20–21. 78 the playing child to the sportsman and the actor,34 while pointing out that this serious commitment to a ›place‹ and a set of rules outside ordinary reality is proof of the connection between play and ritual: »The ritual act has all the formal and essential characteristics of play which we enumerated above, particularly in so far as it transports the participants to another world«.35 The relationship between ritual and nonserious play then becomes a mere question of degree: »[…] it is impossible to fix accurately the lower limit where holy earnest reduces itself to mere ›fun‹«.36 The transformation, the change between the two forms is fluid: it is impossible to tell where concentrated, earnest play ends and ritual begins. We can still discuss a specific type of ritual that highlights the potential of games as transitional media: the rite of passage. Huizinga, interested in broad claims about the nature of play and culture, refers to specific rituals only in passing. However, besides briefly discussing rites of passage, he also (knowingly or not) lifts what would become his most famous term in games research from an ethnographical account of transitional rites: the magic circle. In 1909 the German-French ethnographer Arnold van Gennep published The Rites of Passage,37 in which he explored transitional rites in various cultures. These rites, he argues, structure the way members of a society transition from one group, circle or status in these societies into another. For example, well-known transitions in today’s society include the change from youth to adulthood (coming of age) or the change from unwed to wed (marriage). While both are mainly thought of today as differences in the legal status of an individual, they still carry substantial symbolic and ritualistic weight. Van Gennep focused his research on the specific rites and festivities that accompany these transitions, especially in tribal societies. He identifies three types of rites structuring the transitions: »Consequently, I propose to call the rites of separation from a previous world, preliminal rites, those executed during the transitional stage liminal (or threshold) rites, and the ceremonies of incorporation into the new world postliminal rites«.38 These rites are dangerous to society, since they suspend the rules of everyday life and allow transgressions that are otherwise forbidden (Van Gennep cites ritual transitions into adulthood that allow young men to steal with impunity).39 Because of this, it is imperative that the rites are limited in duration and sometimes in space, while at the same time being subject to strict rules that govern even the apparent transgressions. In other words: they take place in magic circles.40 34 Ibid., p. 18. 35 Ibid. 36 Ibid. 37 Arnold van Gennep: The Rites of Passage, London: Routledge 1977. 38 Ibid., p. 21. 39 Ibid., p. 114 40 Ibid., p. 177. 79 While Van Gennep thinks and argues exclusively in terms of classical ethnography, he influences scholars like Victor Turner, who in turn extends Van Genneps argument to modern, western societies and to practices that appear to have little connection to rituals.41 Turner recognizes what Van Gennep observed for singular, limited rituals is also true for larger social shifts; with the social shift Turner is most interested in being the Industrial Revolution.42 Industrialization, he argues, marks the point of separation for ritual, work and play, which are indistinguishable from one another in pre-industrialized societies.43 Before work becomes a necessity in itself following the industrialization, it is part of the way rituals structure everyday life in tribal and agrarian societies – one does not work for a living or to sustain oneself, but instead one works for the gods. Just as play and ritual are closely related like shown by Huizinga, work is encompassed by ritual. The Industrial Revolution changes this by introducing the possibility of choice as well as by separating work from other, everyday activities: the work-ritual is no longer a unifying necessity for every member of a society; instead, one is (at least theoretically) able to choose where to work. Ironically, Turner’s conception of work as a phenomenon that’s apart from daily life mirrors Huizinga’s and Caillois’s definitions of play, a practice that Turner situates in the realm of leisure and thus as an idea that can only appear in opposition to (or as reward for) ›pure‹ work. Leisure encompasses everything from sports and fine arts to the attendance to basic personal needs like sleeping or eating.44 It thus is associated with a duality of freedom: the freedom from work or other obligations and the freedom to take part in various recreational activities – not the least of which is play. Leisure is the place of the liminoid – the phenomena resembling the liminal without being identical to them (since they are not rituals in the narrow sense). Here, Turners argument becomes very interesting, insofar as it moves even closer to Huizinga’s and Caillois’s positions, without citing either. Because it grants the freedom to, Turner postulates, leisure is the place of innovation and individuation as well as cultural advancement: »Sports such as football, games such as chess, recreations such as mountaineering can be hard and exacting and governed by rules and routines even more stringent than those of the work situation, but, since they are optional, they are part of an individual’s freedom, of his growing self-mastery, even self-transcendence. Hence they are imbued more thoroughly with pleasure than those many types of industrial work in which men are alienated from the fruits and results of their labor. Leisure is potentially capable of releasing 41 Victor Turner: »Liminal to Liminoid, In Play, Flow, And Ritual. An Essay in Comparative Symbology«, in: The Rice University Studies, 60/3 (1974), pp. 53–92, here p. 56. 42 Ibid., p. 62. 43 Ibid., p. 64. 44 Ibid., p. 68. 80 creative powers, individual or communal, either to criticize or buttress the dominant social structural values«.45 However, Turner (following Weber) sees leisure as threatened by work and obligation, with the Calvinists and their work ethic being the main culprits. Work is regarded as de-facto sacred, while leisure is potentially suspicious. The work for the gods encompassing ritual, work and play in pre-industrial societies becomes the work for one’s own, individual salvation, a development that adversely affects all dimensions of leisure. Turner develops a convincing argument, outlining several historical examples for the campaign against leisure led by the Calvinist movement while extending his observations to more recent phenomena of »industrial leisure« that are turned into jobs and professions (e.g. acting, dancing, singing).46 Even child’s play can no longer be allowed to be unproductive, but instead must serve specific pedagogic goals. Turner concludes: »[…] even leisure became ›ergic‹, ›of the nature of work‹, instead of ›ludic‹, ›of the nature of play‹«.47 He goes on to argue that current western societies see more leisure-positive attitudes that allow the liminoid to be the place for (sometimes critical) play, games, art, sports and other activities. That these activities are likely to be commodified is no issue for Turner, as long as taking part in them remains a choice and does not become obligatory like the liminal sphere of work: »One works at the liminal, one plays with the liminoid«.48 With this in mind, let us now return to Gamification and the question of digital games, work, and play. Gamification and the ritualization of work and play Turner considers the Calvinist opposition to leisure and play a thing of the past in modern societies. On the contrary, I suppose that the cultural shift that’s currently most clearly articulated in the discursive phenomenon of Gamification transcends the developments that Turner associated with Calvinist work ethic: Gamification employs digital games as liminoid spaces not to turn leisure into work, but to make the difference between play and work disappear altogether. It thus proposes to erase a dichotomy that appears to be, if we follow Turners own words, natural in industrial and post-industrial societies.49 The arguments presented by the proponents of Gamification are decidedly profane in most cases, yet the widespread use of game design elements in work environments enables work-play that closely resembles obligatory 45 Ibid., pp. 68–69. 46 Ibid., p. 70. 47 Ibid. 48 Ibid., p. 86. 49 Ibid., p. 70. 81 rituals. Just like Van Gennep and Turner have shown in case of pre-industrial societies, the work-play (or work-ritual) is supposed to be without alternative – not participating is not an option. This is the reason that most Gamification guidebooks and consultants advocate for the implementation of far-reaching systems and, ideally, the transformation of whole corporations, institutions and campaigns (see the works of Zichermann and Linder,50 Werbach and Hunter,51 or the solutions offered by companies like badgeville).52 Gamification, it seems, always must be implemented following some (outside) suggestion or advice, it cannot arise spontaneously. It is also no longer limited in time and space, although it still adheres to strict rules – the question appears to be whether we’re not dealing with play or games at all or whether Huizinga’s and Caillois’s definitions are rendered irrelevant by the fluidity of the phenomenon they tried to describe. There are several points to address with this issue. First of all, it seems to me that both Huizinga and Caillois touched upon a quality of games and play (their relation to ritual) that could not be incorporated into their attempts to develop a formal definition of the ludic. The liminoid dimension of games and play allows us to think of them as media of transition, as practices that bridge gaps, that unify dichotomies and that allow relations and comparisons between concepts that don’t readily appear to be comparable. This becomes more apparent with digital games: they open up liminoid spaces in which, among other things, the convergence of play and work can take place. Digital media are suited for this not only because they are historically indebted to techniques of rationalization, optimization and measurement, like mentioned above, but also because they enable a new level of formalization of games and play as cultural practices. It is important to understand that the view on games and play that is associated with Gamification – the extension of the ludic into every facet of life – is only possible because digital technologies fragmented games into their elements. Games are no longer regarded as a whole, but as collections of design practices, technical elements, interface conventions and narrative tropes. The reason for this is the emergence of a ›Games Industry‹, a professionalized and profitoriented field in which ›making‹ games and enabling play become specialized jobs. This development carries along procedures that are implemented to make game development more efficient, mostly by licensing external programs and tools (e.g. game engines),53 or by outsourcing part of the development process. Games and play have to become not only a job, but a highly profitable industry to enable strate- 50 Gabe Zichermann and Joselin Linder: Game-Based Marketing, New Jersey: Wiley 2010. 51 Kevin Werbach and Dan Hunter: For the Win. How Game Thinking Can Revolutionize Your Business, Philadelphia: Wharton 2012. 52 Badgeville, https://badgeville.com/ (visited: 17.01.16). 53 On game engines in game studies, see Ian Bogost: Unit Operations, Cambridge, Mass.: MIT Press 2006, pp. 55–66 and Stephan Günzel: Ego-Shooter. Das Raumbild des Computerspiels, Frankfurt on the Main: Campus 2013, pp. 106–107. 82 gies like Gamification. Games are commodities; their elements have been formalized and conventionalized for easy recombination, which, following the logic of Gamification, allows their integration into everyday life. A paradoxical relationship between games, play and ritual emerges. The liminoid potential of digital games is not lost in their professionalization and commodification, but it is transformed through fragmentation, that undermines Turner’s difference between liminal and liminoid. Working and playing can take place in the same sphere of life right now, in surroundings that become transitional spaces through game elements. Similar to the pre-industrial societies analyzed by Turner, ritual dominates this process, albeit not in a religious sense, but instead through the way games and play are revered as potentially world-saving practices,54 or as a cultural revolution.55 Play, we may assume, thus takes the place of the religious fervor that Weber saw as the origin of capitalism, while also observing its obsolescence in the capitalist system of the early 20th century.56 Final Remarks We have seen that there are complex, multi-faceted transformations taking place where games, play and work are concerned in the age of digital games. Highly idealistic definitions taking games and play as removed from everyday reality, as unproductive and free of consequence do no longer apply in the face of an extensive commodification and professionalization of games. And yet, this also leads ludic phenomena back to their roots in obligatory and earnest ritualistic practices, thus positioning them as media of transition. Gamification, as an example of the discursive shift towards ›useful‹ (as opposed to harmful) digital games, enables us to understand the mediality of games as a space of liminality, a space that enables the convergence of play and work, seriousness and fun, ritual and entertainment or productivity and leisure. When games are employed in this way, their systemic dimension as rule-based and regulated practices is emphasized, while their elements of spontaneity and cre- 54 See Jane McGonigal: Reality is Broken. Why Games Make Us Better and How They Can Change the World, London: Penguin 2011. McGonigal can be considered as an advocate for a utopian vision in which elements and strategies from digital games are employed to address large-scale, societal problems like various health issues (e.g. depression), motivational deficits in working environments or environmental challenges. Her rhetoric refers to reality as being fundamentally broken, while digital games and their elements are regarded as a ›fix‹ for said problems. 55 Eric Zimmerman: »Manifesto for a Ludic Century«, in: Steffen P. Walz and Sebastian Deterding, eds.: The Gameful World. Approaches, Issues, Applications, Cambridge, Mass.: MIT Press 2014, pp. 19–22. 56 Max Weber: The Protestant Ethic and the Spirit of Capitalism, London: Merchant 2005, p. 124. 83 ativity are marginalized. Playing becomes more about following the rules than about creatively negotiating them, which disregards a major part of Huizinga’s, Caillois’s and Turner’s theories, since it can no longer be a catalyst of change in society. This seems to me the major challenge not only for all practical attempts at implementing Gamification, but also for media-theoretical accounts of digital games and the way they are used. The players that creatively explore the limits of rule-based systems can not only be considered threats for gamified applications,57 or outliers in the face of standardized training regimes,58 or spoil-sports endangering the magic circle,59 but instead they must be thought of as contributors to a different kind of productivity. Taking games as transitional spaces seriously means to be open towards the player-driven transformations that take place in the margins of the large rituals of ludic productivity. 57 Zichermann: Game-Based Marketing, p. 105. 58 Pias: Computer Spiel Welten. 59 Huizinga: Homo Ludens, p. 11. 84 Christian Klager Die Ethik des Als-ob Video- und Computerspiele als technische Sphären der Ethik Abstracts Alle technischen Erfindungen stehen in Verdacht gefährlich zu sein. So ist es auch mit Computer- und Videospielen. Wie aber kann etwas ethisch bedenklich sein, das nur im Als-ob passiert? Für eine ethische Beurteilung von Sielen müssen daher drei Dimensionen unterschieden und untersucht werden: Eine Ethik des Spielkonstrukts, eine Ethik des Spielinhaltes und eine Ethik der Spielwirkung. Besonders durch den letzten Aspekt lassen sich Spiele als Katalysatoren und Indikatoren eines ethischen Handelns begreifen. Spiele verändern unsere Welt(-en). All technical inventions are suspected of being dangerous. This is also the case with computer and video games. But how can something be ethically questionable which only takes place in the As-if? Therefore, to guarantee an ethical assessment of games, three dimensions must be distinguished and analyzed: An ethics of the game construct, an ethics of the game content and an ethics of playing. The result: Games can be understood as catalysts and indicators of ethical action. Games change our world(-s). Technikethische Probleme Automobile bringen uns bequem durch die regnerische Nacht, haben aber den Nachteil, dass deren Antriebsenergie nur durch massive Eingriffe in die Umwelt gewonnen werden kann. Atomkraftwerke produzieren enorme Mengen Energie, die verhältnismäßig sauber und CO2-arm sind, hinterlassen jedoch tödlich-strahlende Abfälle, die unsere Nachkommen noch Millionen von Jahren beschäftigen werden. Messer sind gut, um Nahrungsmittel zu zerschneiden, können jedoch als Waffen missbraucht werden. Jede Technik, so gut sie auch gemeint sein mag, birgt Nachteile, Gefahren und Risiken. Diese nicht-banale Erkenntnis führt Hans Jonas zur Formulierung des ökologischen Imperativs und des Prinzips der Verantwortung.1 Technik, so das Fazit, benötigt eine regulierende Ethik und darf nicht sich selbst überlassen werden, so groß die Verheißungen oder Drohungen einer Technologie auch sein mögen. Ist die Heuristik der Furcht,2 nach der wir zunächst immer das Schlimme begutachten müssen, aber überhaupt auf jede Technik anwendbar? Spiele in ihrer techni- 1 Vgl. Hans Jonas: Das Prinzip Verantwortung, Frankfurt am Main 2015. 2 Vgl. ebd., S. 63–64. 85 schen Realisierung als Video- oder Computerspiel scheinen in mehrfacher Hinsicht nicht in das Schema von Technik zu passen, da die Spielwelt als künstliche Sphäre des Als-ob von der Wirklichkeit unseres Alltags getrennt ist. Wie wichtig ist es da, was in der Spielwelt passiert, wenn es doch nicht echt ist? Und wie ist eine Technik zu bewerten, die uns solche Als-ob-Räume zur Verfügung stellt, in denen man sich gleichsam erholen wie überarbeiten kann, in denen man sowohl seine soziale Ader und aufklärerischen Ideale ausleben kann als auch das Töten, Ermorden und Zerstückeln von digitalen Gegnern oder Passanten? In gängigen aktuellen Spielformaten, die sich seit vielen Jahren thematisch wiederholen und nur technisch ausgereifter, ansprechender und komplexer werden, lässt sich das Problem konzentrieren: Lara Croft verpasst es, einem Ast auszuweichen und der Spieler wird mit einer Simulation ihres schmerzhaften Todes konfrontiert, in der sich dieser direkt durch den Kopf der Protagonistin bohrt, die zuckend und schließlich leblos zurückbleibt. Die Hauptfiguren der Reihe Assassins Creed nutzen Lanzen, Schwerter und Bajonette, die detailreich in die Kehlen und Köpfe ihrer Opfer eindringen und diverse unzählbare Spiele des Genres Ego-Shooter zeigen hochauflösend blutüberströmte Leichen, von Kugeln durchsiebte Monster und zufällig getötete Zivilisten – oder zumindest Moorhühner. Die Aushängeschilder gewaltarmer Spiele, wie Die Sims, warten hingegen mit anderen Besonderheiten auf: Die Spiele erlauben Figuren jeder Hautfarbe und jeden Geschlechtes mit besonderen Reizen und üppigem Körperbau zu erstellen, die dann in nahezu durchsichtiger Lingerie den Haushalt erledigen, den Müll herunterbringen und auch sonst nahezu alles tun, was sich der Hausherr wünscht. In allen beschriebenen Fällen stellt sich offensichtlich die Frage nach einer Ethik des Spiels und des Spielens oder der Spielprogrammierung, denn gleiche Fälle sind für die nicht technisch vermittelte Wirklichkeit längst in den Bereichsethiken diskutiert worden. Das wahllose Töten von Menschen oder Tieren gilt ethisch nicht als zulässig und die sexistische Darstellung von Personen in einer Reduktion auf deren Geschlechterklischees darf ebenso als ethisch problematisch gelten wie die, einen Haushalt zu führen, in dem allein die Mitglieder dunklerer Hautfarbe den Rasen mähen müssen, während die anderen Astronauten oder Schriftsteller werden. Die Kernfragen lauten also, ob Video- und Computerspiele als besondere Art von Technik auch einer besonderen Art von Ethik bedürfen – oder ob sie vielleicht aufgrund ihrer Struktur zur Wirklichkeit gar als ethisch unbedenklich gelten können. Der Untersuchung stelle ich zunächst drei terminologische Vorbemerkungen voran, die nicht allgemeingültig sind und daher kurzer Klärung bedürfen: 1. Eine gute ethische Handlung ist eine Handlung, der die Tendenz innewohnt, das Glück zu befördern und das Leid zu vermindern. Damit ist eine utilitaristische/ präferenzutilitaristische und konsequenzialistische Position für diese Untersuchung gewählt, die nicht behauptet, dass deontologische oder naturalistische 86 Philosophinnen und Philosophen per se irren. Es würde jedoch deutlich zu weit führen, die angestellten Überlegungen für alle möglichen ethischen Positionen zu prüfen. Dieser Blickwinkel ist daher eine Setzung, die methodisch zu verstehen ist, weil sie angibt, unter welchen Voraussetzungen in diesem Beitrag von »gut« gesprochen wird. Sie ist kein Bekenntnis. 2. Um mehrere hundert Seiten abzukürzen, wird eine bewährte Spieldefinition vorausgesetzt und nicht diskutiert: Ein Spiel ist eine künstliche Sphäre, die sich durch Spielregeln, einer Andersartigkeit gegenüber der Welt, die wir als unsere Wirklichkeit beschreiben, Freiheit von Zwecken oder Zwängen, Zielgerichtetheit und Spannung auszeichnet.3 3. Wenn von Spielern die Rede ist, sind damit auch Spielerinnen gemeint. Spielwelten als Parallelwelten Das Spiel findet im Als-ob in Abgrenzung von einer Wirklichkeit statt, die wir als unsere Realität begreifen. Es ist notwendig nicht echt, anders, oder nur Spaß – sonst könnte es kein Spiel sein. Niemand glaubt wirklich, dass der Kinderzimmerteppich aus Lava besteht und von den umherfliegenden digitalen Trümmern einer PC-Spiel- Explosion gehen auch keine unmittelbaren Gefahren für den Spieler vor dem Monitor aus. Ob das Spiel daher gleich weniger wahr ist oder vielmehr sogar symbolisch oder wie ein Spiegel auf die hinter unseren Gegenständen befindlichen Ideen verweist,4 ist zunächst nicht von Belang. Viel wichtiger ist, dass die Spielwelt – so unterschieden sie auch von unserer Realität sein mag – einen Übergang zu dieser hat und einen Transfer von Erfahrungen, Gedanken und Strategien erlaubt. Denn so richtig die Dichotomie vom Spiel und Wirklichkeit auch ist, darf sie nicht überinterpretiert werden. Beide Welten sind keine Blasen, die nebeneinander existieren, sondern Welten mit diffusem Übergang,5 deren Inhalte wir nicht immer klar der einen oder anderen Sphäre zuordnen können: Nicht alles, was in PC- und Videospielen passiert, ist erfunden, unwirklich und falsch, während nicht alles wahr und real ist, was wir in unserer Realität erfahren. Wir werden von unseren Sinnesorganen oder den Urhebern unserer Sekundärerfahrungen getäuscht und können häufig gar nicht zwischen Wahrheit und Schein unterscheiden: Jahrhundertelang wurden in europäischen Lexika Fabelwesen wie der Greif neben dem ebenso wahrscheinlichen Nashorn abgebildet und uns ist das Leben des Sherlock Holmes ebenso vertraut wie das 3 Eine ausführliche Auseinandersetzung mit der Spieldefinition erfolgt hier: Vgl. Christian Klager: Spiel als Weltzugang. Philosophische Dimensionen des Spiels in methodischer Absicht, Weinheim, Basel 2016. S. 21–76. 4 So überlegt es Eugen Fink – Vgl. Eugen Fink: Spiel als Weltsymbol, hrsg. von Cathrin Nielsen und Hans Rainer Sepp, Stuttgart 2010. 5 Vgl. Klager: Spiel als Weltzugang, S. 55–59. 87 des Arthur Conan Doyle – über beide können wir lediglich lesen. Markus Gabriel bringt es auf den Punkt: Die Wesen der fiktionalen Literatur, die des Spiels, des Films und der Wirklichkeiten, die wir Traum oder Realität nennen, existieren selbstverständlich und es kommt nur auf das entsprechende Sinnfeld6 an, aus dem wir auf diese Objekte schauen.7 Da es methodisch unmöglich ist, mit epistemischer Sicherheit zwischen dem, was wirklich ist und dem, von dem nur behauptet wird, dass es wirklich sei, zu unterscheiden, lohnt sich ein Blick auf das Verschwimmende und Vage. Denn auch Gegenstände, von denen wir glauben, dass sie nicht existieren, haben eine Wirkung auf uns und lassen sich begrifflich fassen. Das Einhorn, der Drache und Außerirdische aller Couleur sind aus der Lebenswelt und Popkultur kaum noch wegzudenken und beeinflussen uns, indem wir sie bewundern, verachten, fürchten – oder gar wissenschaftlich untersuchen. Der Umgang mit ihnen in der fiktionalen Literatur, in Filmen und Spielen bestimmt auch unser Verhältnis zu ihnen – und analogen ähnlichen Wesen. Für das Spiel bedeutet dies nicht die Aufhebung seiner Andersartigkeit – es wird damit nicht zu unserer Lebenswelt – aber es wird eine gleichwertige Art von Wirklichkeit neben der Wirklichkeit, die wir als Realität begreifen. Dass aus diesen Welten eine diffuse Übertragung in die jeweils andere(n) möglich ist, lässt sich auf vielfältige Weise belegen: Der Strategiespieler kann sich vor oder nach dem Spiel am Computer einen Plan zurechtlegen, wie er im nächsten Spiel agieren wird und diesen Plan dann in der Spielsphäre anwenden. Die Verletzung, die der Fußballspieler auf dem Feld erfährt, betrifft ihn auch nach dem Abpfiff und unsere Erkenntnis im Spiel, dass Bewohner von Städten ohne Nahrung diese verlassen oder verhungern, trifft auch auf Bewohner in anderen Welten zu. Der naheliegende Fehlschluss, dass das Spiel nicht wirklich sei und es daher auch keine Ethik des Spiels gäbe, ist somit schnell zurückgewiesen. Wenn das Spiel eine Wirkung auf die Wirklichkeit hat, die wir Realität nennen, dann hat das Spiel auch ethisch relevante Auswirkung auf unsere Handlungen. Spielhandlungen verbleiben also nicht im Spiel und das Töten von Gegnern, das Versklaven von Völkern oder die Darstellung sexueller Inhalte kann durch eine Übertragungsleistung eine Wirkung zeitigen.8 Technische Spiele enthalten daher immer auch ethische Implikationen. Insgesamt sind damit jedoch drei verschiedene Ebenen von Ethik parallel angesprochen, die systematisch unterschieden werden müssen. Zunächst kann eine Ethik das Spiel als solches betreffen (Ethik des Spielkonstrukts), sie kann sich auf den In- 6 Der Begriff entstammt Gabriels Sinnfeldontologie und ist etwa mit Aufmerksamkeitsbereich zu beschreiben. Vgl. Markus Gabriel: Warum es die Welt nicht gibt, Berlin 2015, S. 254–255. 7 Vgl. Gabriel: Warum es die Welt nicht gibt, S. 14 f. und Markus Gabriel: »Existenz realistisch gedacht«, in: ders. (Hg.): Der neue Realismus, Berlin 2014, S. 171–199. 8 Zur Wirkung von Spielen – vgl. Christian Nibler: Achievement & Exploration. Dramaturgie der Grenzüberschreitung im Computerspiel, Glückstadt 2015; Ursula Krambrock: Computerspiel und jugendliche Nutzer. Hermeneutische Deutungsversuche des Adventure-Computerspiels und seiner jugendlichen Nutzer und Nutzerinnen, Frankfurt am Main 1998; Marion Kauke: Spielintelligenz. Spielend lernen – Spielend lehren?, Heidelberg, Berlin, New York 1992. 88 halt beziehen (Ethik im Spielinhalt) und aber auch auf dessen Wirkung (Ethik des Spiels). Ethik des Spielkonstrukts Das Spielkonstrukt9 selber – konstituiert durch seine Regeln – entzieht sich zunächst auf faszinierende Weise einer ethischen Beurteilung. Es gibt keinen Programmiercode, der es nicht ermöglichen würde, jede noch so erschreckende Situation in einem Spiel technisch abzubilden und erfahrbar zu machen. Das Spiel Playing History 2 – Slave Trade erlegt es dem Protagonisten daher wie selbstverständlich auf, afrikanische Sklaven möglichst effektiv in einem Transportschiff zu »stapeln«. Für den Spieler und Programmierer kann dies makaber oder gar zynisch erscheinen, im Programm/Spiel selber jedoch ruft es kein ethisches Problem hervor. Die Technik selbst hat keine ethischen Grenzen und auch keine Sicherungsprinzipien, Gewalt, Ausbeutung oder sexuelle Erniedrigung zu verhindern. Gegenüber Spielinhalten ist die Spieltechnik vollständig blind und gewissenlos. Dennoch gibt es eine Ethik, die allein auf der technischen Ebene greift: Gegenüber dem Spiel selber ist alles erlaubt, was die spielimmanenten Regeln erlauben – aber eben nicht mehr: »Ein Spiel hat Regeln: Gegenüber den Regeln eines Spiels ist kein Skeptizismus möglich.«10 Falschspieler, Betrüger oder Spielverderber stellen genau diese Spielregeln und damit die Existenz der ganzen Spielwelt in Frage. Der Spielverderber führt eine innerweltliche Legitimationsrevolution. Er spielt nicht (mehr) mit und hält den anderen die Falschheit ihrer Spielwirklichkeit vor. Er zerstört das Spiel. Sätze wie »Das ist ja alles nur ein Spiel!« sind ihm geläufig und dienen dazu, die erlebte Niederlage, den Regelverstoß oder die Kapitulation vor der Komplexität der Spielwelt auszugleichen. Zumeist gründet der Spielverderber damit automatisch eine neue Spielwelt, in der die von ihm gewünschten Regeln gelten.11 Poker- oder Schachspieler, die das Spiel als reines Glückspiel ohne Taktik und Strategie spielen, sind dafür Beispiele und irritieren andere Spieler oft gewaltig. Immerhin ist der Spielverderber ehrlich. Der Falschspieler und Betrüger hingegen spielt die Regeln des Spiels zum Schein mit und hintergeht die anderen Spieler oder das Spiel selber jedoch, indem er sich nicht an die Regeln hält oder diese insgeheim verändert. Er spielt daher falsch, weil er die Regeln verletzt und ist falsch, weil er den anderen weismacht, er würde die 9 Vgl. Vorbemerkung 2 – als Spielkonstrukt wird hier technische Realisation des Spiels verstanden. Dieses wird vornehmlich durch Regeln gestaltet, die sich bei digitalen Spielen in einem Programmcode niederschlagen. 10 Johan Huizinga: Homo Ludens. Vom Ursprung der Kultur im Spiel, Reinbek bei Hamburg 2006, S. 20. 11 Vgl. ebd. 89 Konventionen befolgen. Wer im Video- oder Computerspiel also Programmierfehler (Bugs) nutzt, die per Definition nicht zum Spiel gehören (können), oder cheatet, indem er geheime Programmcodes nutzt, die ihm Vorteile gegenüber der Spielmechanik oder den Mitspielern verschafft, der betrügt das Spiel und seine Mitspieler und spielt unehrlich und somit unethisch. Da Technik jedoch (noch) nicht leidensfähig ist und selbst die beste Spiel-KI lediglich Intelligenz simuliert, ist das ethische Problem zunächst nur allein eines, das die Mitspieler betrifft und daher eine besondere Form sozialer Ethik. Ethik im Spielinhalt Ähnlich verhält es sich mit dem Inhalt eines Spiels über den Programmcode hinaus. Da der Computer oder Fernseher nicht unter der Darstellung von Gewalt gegenüber digitalen Monstern oder Pixelzombies leidet, ist es auch erlaubt, diese darzustellen. Dargestellt werden kann, was technisch dargestellt werden kann. So wie es in unserer Wirklichkeit unglaubliche Exzesse der Gewalt an Menschen und Tieren geben kann, kann dies auch in einer anderen Wirklichkeit wie fiktionaler Literatur oder im Spiel vorkommen. Video- und Computerspiele spiegeln daher technisch häufig Konflikte, die wir auch aus unserer Wirklichkeit kennen und greifen auf Feindbilder zurück, die uns geläufig sind. Der bekannte Kampf zwischen Cowboys und Indianern, der Konflikt zwischen Sozialisten und Kapitalisten ist ebenso abbildbar, wie jede Art von Unterdrückung oder Ausbeutung. Im Spiel selber ist das Androhen und Anwenden von Gewalt, selbst das Drohen mit Terror, Tod und Vernichtung üblich und abhängig vom Genre erlaubt oder sogar Teil der Spielmechanik. Da das Spiel keine andere Ethik kennt als die Einhaltung der Spielregeln, ist es in diesem naiv-tabulosen Zustand offen für alle Einfälle von Spielentwicklern sowie ad-hoc- und Lustentscheidungen der Spieler. Dieser Zustand markiert erneut die Neutralität von Technik und Spielmechanik, ist jedoch nicht auf das PC- und Konsolenspiel beschränkt: Es macht für das Spiel keinen Unterschied, ob man beim Schach einen Bauern opfert, tausende Pixelsoldaten in den Tod schickt, dem Boxgegner diese Nase bricht, Wahlergebnisse fälscht oder sich durch Menschenhandel, Drogen, Zuhälterei oder Sklaverei finanziert. Manche Schritte können für den Spielverlauf unklug sein – mit Ethik hat dies jedoch zunächst nichts zu tun. Kein Bauer beim Schach hatte Schmerzen, kein digitaler Soldat hat gelitten und auch die Sklaven haben nur eine simulierte Freiheit verloren, während sie für simuliertes Geld eingetauscht wurden. 90 Ethik des Spiels Wenn im Spiel gestattet ist, was den Regeln entspricht und erlaubt ist, was gefällt, sind auch die absurdesten Spiele denkbar (und tatsächlich umgesetzt worden). Zu den geschmacklosesten gehört zum Beispiel der KZ-Manager, ein Simulationsspiel mit eindeutig vorhersehbarem Inhalt. Warum aber schrecken wir davor zurück, den KZ-Manager neben das Hotel-Manager-Spiel zu stellen, wenn die Technik des Spielens zunächst niemandem schadet und es sich von der Programmierung und Mechanik nicht sonderlich unterscheidet? Die Antwort liegt im diffusen Übergang zwischen (Spiel-)Welten. Das Spiel hat zwar keinen konkreten Zweck – aber durchaus eine beobachtbare Wirkung.12 Diese ist mehrgestaltig und lässt sich wenigstens hinsichtlich drei verschiedener Elemente klassifizieren: 1. Auf den Spieler wirkt das Spiel direkt und indirekt physisch und psychisch. Direkt, indem die Spielinhalte und die Spielmechanik ihn beeindrucken, abschrecken, ihn zur Nachahmung anregen, verblüffen oder ihm zu einer Erkenntnis verhelfen. Indirekt, indem das Spiel Ergebnisse hervorbringt, die zunächst nichts mit dem Inhalt des Spiels zu tun haben, zum Beispiel eine verbesserte Auge-Hand-Koordination oder das Versäumnis eines Referats für den Propädeutikkurs, weil das Spiel so spannend war. In therapeutischen und pädagogischen Ansätzen, die auf das Spiel zurückgreifen, werden solche Wirkmechanismen eingesetzt.13 2. Auch der Zuschauer eines Spiels ist direkt und indirekt physisch und psychisch in seinem Wirkungskreis. Auch für ihn ist das Spiel eine Identifikationsmöglichkeit, auch er kann emotional und kognitiv herausgefordert und überfordert werden, ebenso wie das Zusehen anstrengend sein und er beim Fußball den Ball »abbekommen« kann. Da er jedoch keine spielimmanenten Entscheidungen trifft, hat er auf mögliche ethische Entscheidungen weniger Einfluss. Er müsste schon zum Mitspieler werden oder den Spieler von seinen Handlungen abhalten. 3. Selbst das Spiel, besser das Spielgenre, ist von Wirkungen des Spiels betroffen. Das Vorhandensein des Spiels erschafft erst das Spielgenre, welches wiederum Wirkung auf die gesellschaftliche Wirklichkeit hat. Entscheidet sich die Gesellschaft gegen eine besondere Art von Spielen, fällt auch das Einzelspiel unter dieses Verbot. 12 Vgl. Punkt 2 dieses Aufsatzes. 13 Vgl. Holger Diener, u.a. (Hg.): Spielend Lernen, Stuttgart 2010; Norbert Kluge: Spielen und Erfahren. Der Zusammenhang von Spielerlebnis und Lernprozeß, Bad Heilbrunn 1981; Michael Renner: Spieltheorie und Spielpraxis. Eine Einführung für pädagogische Berufe, Freiburg im Breisgau 1995. 91 Differenziert nach der Art des Spielens fallen die unterschiedlichen Wirkungen ungleich ins Gewicht. Der Tod des digitalen Soldaten hat nur in der Spieldimension Gültigkeit, während die gebrochene Nase des Boxers auch nach dem Boxkampf noch gebrochen ist. Für die Frage nach den ethischen Implikationen des Spiels ist diese Qualität der Wirkung jedoch nebensächlich. Wichtiger ist die Überlegung, welche Wirkung die Spielinhalte auf den Spieler und die ihn umgebende Gesellschaft und damit auch auf die Zukunft dieser haben. Das Spiel wirkt wie eine der Realität vorgelagerte, technisch realisierte Protowirklichkeit, die durchaus nicht exklusiv ist und dem Spieler wenigstens mitgibt, sich mit dem Stattgefundenen auseinanderzusetzen. Ethisch sind PC- und Videospiele daher folgerichtig vorgelagerte Dimensionen der Schiefen Ebene. Dieses – auch als empirisches Dammbruchargument – bekannte Argumentationsmuster behauptet (nicht deduktiv), dass man sich Stück für Stück auf ein ethisch gänzlich unerwünschtes Ergebnis zubewegt, indem man eine zunächst nicht in gleichem Maße ethisch problematische Handlung zulässt oder akzeptiert. Das Spiel wirkt nicht nur auf den Spieler selbst, sondern bricht durch die per se tabulose Spielsituation gesellschaftliche Tabus. Es steht damit am vorgerückten Beginn des Arguments der schiefen Ebene, indem es ethisch relevante Zustände spielt, bevor sie eintreten. Wer seiner Tochter einen Spielzeugherd oder eine Spielzeugwaschmaschine kauft, handelt damit zunächst nicht unethisch, offeriert ihr jedoch für die Spielwelt die gesellschaftlich tradierte Rolle der Frau in der Küche. Das im Spiel erlebte und eingeübte geschlechterstereotype Rollenverständnis wirkt sich im Modell der schiefen Ebene bis in unsere Wirklichkeit aus, in der die Annahme, dass Frauen in irgendeiner Weise für Küchenarbeit prädestiniert seien, durchaus als sexistisch, chauvinistisch und ethisch problematisch beschrieben werden kann. Analog gewöhnt sich jemand, der Moorhühner (oder andere digitale Tiere) am PC schießt, daran »auf Tiere zu schie- ßen«, was wiederum jenseits der Spielwelt ethisch fragwürdig ist; von den Ego- Shootern und Rollenspielen, die es ermöglichen, wahllos Mitmenschen zu töten, soll gar nicht erst die Rede sein. Spielhandlungen als auch das Vorhandensein von Spielen und Spielgenres haben Wirkung, die sich ethisch bewerten lassen. Softwarefirmen, Programmierer, der Handel, der Gesetzgeber, der Spieler und der Zuschauer entscheiden durch Produktion, Verkauf, Kauf, Spiel und Rezeption, welche Inhalte schließlich auch Wirkung haben. Wer es zulässt, dass ein Spiel programmiert, verkauft, gespielt und gesehen wird, welches es ermöglicht, junge Sims-Frauen mit ausgesprochen erotischem Esprit leichtbekleidet den Haushalt erledigen zu lassen, projiziert ein Frauenbild, das erwarten lässt, dass auch echte Frauen sich auf diese Weise verhalten. Das Argument der schiefen Ebene bildet jedoch – wie alle auf die Zukunft bezogenen Prognosen – keinen Automatismus ab. Menschen, die offenkundig gewaltdarstellende oder sexistische Spiele spielen, sind im wahren Leben nicht zwangsläufig 92 gewalttätig oder handeln sexistisch. In der DDR war Kriegsspielzeug in jedem Kindergarten und in jeder Schule allgegenwärtig. Plastikpanzer, Gummisoldaten, selbst farbenfrohe Raketenwerfer gingen durch nahezu alle Kinderhände und zu allem Überfluss wurde im Sportunterricht mit Handgranatenimmitationen Werfen geübt. Wenn das empirische Dammbruchargument immer wirksam wäre, wäre das friedliche Ende der DDR mit bestehenden Prämissen nicht zu erklären. Spielzeug und Spiele dürfen daher nicht als ausschließliche und monokausale Gründe für ein gesellschaftliches, ethisch relevantes Handeln angesehen werden. Besser lassen sie sich als ethisch-technische Katalysatoren und Indikatoren beschreiben. Spiele als Katalysatoren14 Spiele beeinflussen durch ethisch relevante Inhalte gesellschaftliche Wertvorstellungen und reale ethische Entscheidungen, ohne dass sich dabei ihre Spielregeln oder Codes verändern. Als technische Mittel, die im Alltag und insbesondere in den Händen von Kindern und Jugendlichen virulent sind, wirken sie allein durch ihr Vorhandensein: Wenn es Computerspiele gibt, die Schlachten des Zweiten Weltkriegs nachspielen (lassen), dann mindert dies die Ächtung des Krieges und das damit verbundene unaussprechliche Grauen. Uniformen, Soldaten, Kriegsgerät und eine Diskussion über bessere oder schlechtere Strategien werden über das Spiel wieder gesellschaftsfähig, auch wenn die Spieler zunächst nur über fiktive Uniformen, Soldaten und Panzer sprechen. Da die Spielwelt in den relevanten Situationen von Kriegsspielen jedoch ein Analogon zur Realität ist – weil mit der Wirklichkeit nachempfundenen Waffen gespielt wird15 – wirkt die Spielwelt eben auch analog auf die Realität. In gleicher Weise, in der Immanuel Kant davor warnt, mit Tieren grausam umzugehen, weil man dann darin geübt wird, auch mit Menschen grausam umzugehen,16 muss ausdrücklich auf die ethische Wirkung von Spielen hingewiesen werden. Die erarbeitete tabulose Konstitution des Spieles selber ermöglicht es jedoch auch, Spiele zu entwerfen, die ethische Diskussionen aufwerfen und von der Spielergemeinde kontrovers besprochen werden. Dieses didaktische Potenzial von Computer- und Videospielen gilt es fruchtbar zu machen, denn in gleicher Weise, in der Kriegssimulationen abstumpfen und den Krieg zu einer vermeintlichen Normalität werden lassen, 14 Der Begriff »Katalysator« ist der Chemie entlehnt und beschreibt (hier) ein Mittel, das zu einer beobachtbaren ethischen Reaktion führt, ohne, dass sich das Mittel dabei verändert. 15 Damit ist die Spielwelt hier konkret analog zur Realität in Bezug auf die verwendeten Waffen. Die Analogie der Spielwelt zur Realität fußt schließlich auf dem Verhältnis der Spielwelt als Symbolfragment zur Realität – vgl. Fink: Spiel als Weltsymbol, S. 14–16; Klager: Spiel als Weltzugang, S. 149–154. 16 Vgl. Immanuel Kant: Eine Vorlesung über Ethik, Frankfurt am Main 1990, S. 256–257. 93 stehen sie doch (in unseren Breiten) eher als überraschende Differenzerfahrung da. Der Spieler kann im Als-ob nicht nur die Faszination von zum Beispiel militärischer Technik erfahren, sondern auch die Grausamkeit des Krieges wahrnehmen, die Aussichtslosigkeit im Angesicht eines übermächtigen Feindes oder die Zerstörung von Infrastruktur und Umwelt, die ein Gefecht mit sich bringt. Einige besondere Spiele, wie This War of Mine, greifen dabei besonders die ethisch relevanten Erfahrungen einer solchen Kriegssimulation auf. Das preisgekrönte Computerspiel lässt den Spieler eine kleine Gruppe von Zivilisten in einem modernen Krieg – historisch irgendwo zwischen Jugoslawien und der Ukraine – steuern, die ums Überleben kämpft, indem sie Unterkunft, Nahrung, Medikamente, Wasser und Schlaf sucht. Der Kampf um knappe Ressourcen stellt schnell die Ethik der Gruppe auf die Probe: Gibt man dem bettelnden Waisenkind das letzte Dosenfleisch? Darf man einen Rebellen töten, wenn dieser eine junge Frau sexuell bedrängt? Ist Plündern in einer existentiellen Notlage erlaubt – besonders, wenn man ahnt, wem die Gegenstände gehör(t)en? Diese und ähnliche Fragen nötigen den Spieler zu Entscheidungen, deren Ergebnisse nicht nur den weiteren Spielverlauf beeinflussen, sondern auch den Spieler nachdenklich zurücklassen. Eine solche Art der Reflexion ist für Video- und Computerspiele vielleicht nicht die Regel, aber eben auch keine Ausnahme mehr. Bieten die technischen Umsetzungen des Spiels keine Möglichkeit der ethischen Reflexion, wird diese nicht selten auf andere Ebenen übertragen: In Chats, Foren oder öffentlichen Medien diskutieren Laien und Experten darüber, was Spiele zeigen dürfen und wovor Spieler zurückschrecken. Als der Protagonist in der Serie Grand Theft Auto 5 einen digitalen Kontrahenten (detailreich dargestellt) foltern sollte, versuchten einige Spieler die dazugehörige Mission zu umgehen und diskutierten dies im Internet.17 Spiele als Indikatoren Das gleiche Spiel mit gleicher Szene kann gleichsam als Beispiel für Spiele als Indikatoren dienen. Spiele zeigen in ihrer Umsetzung einen ethischen Status und einen Wertwandel in einer Gesellschaft: Dass die Folterszene in GTA 5 nicht von allen Spielern akzeptiert oder toleriert wird, zeigt, wie es um die ethische Gesinnung der Spieler selbst bestellt ist. Es kann daher als technischer Anzeiger für eine empirische Beobachtung von konkretem ethisch relevantem Verhalten dienen. Themen und Phänomene in Spielen verweisen daher auch immer auf ein gegenwärtiges Werteverständnis. This War of Mine appelliert genau an dieses, indem es für die Grausamkeit des Krieges und seine Wirkung auf Zivilisten – insbesondere 17 Vgl. Artikel/Kommentar: Franz Liebl: Warum ich ›GTA 5‹ nicht mehr weiterspielen kann, http://www.br.de/puls/themen/popkultur/gta-v-folter-kommentar-100.html (aufgerufen: 04.01. 2017). 94 auf Kinder – sensibilisieren möchte.18 Damit zeigt das Spiel ein konstatierbares, vorhandenes pazifistisches Interesse in der Spielproduktion und -rezeption. Dass gleichzeitig auch Spiele entwickelt, vertrieben und gespielt werden, die problematische ethische Situationen darstellen, ohne explizit zu deren Reflexion anzuregen, zeigt wie pluralistisch die gegenwärtige Kultur- und Spielszene ist: Antikriegsspiele und explizite Kriegssimulationen stehen im Regal nebeneinander. Spiele, die kleinen Mädchen eine Karriere als Erfinderin versprechen, stehen gleichzeitig gegenüber der naiven Welt der Supermodels und Barbie-»Abenteuer«. Spiele sind damit stets technische Zeugen des Zeitgeistes und der ethischen Entwicklung einer Gesellschaft, ohne dass eine notwendige Verknüpfung vom allgemeinen Vorhandensein zum Individuum geschlossen werden kann. Nicht jeder, der ein Spiel spielt, welches konkrete Gewaltszenen enthält, wird zum Amokläufer oder Soldaten. Nicht jeder Sims-Spieler, der die digitale Frau seines Haushaltes kochen lässt, ist im wahren Leben ein Chauvinist. Und nicht jeder, der ein Spielcasino betritt, ist spielsüchtig. Dennoch lässt ein übermäßiges Vorhandensein von Spielen bestimmter Arten, eine gewisses gesellschaftliches Faible und Interesse ablesen. Das vielfach vorhandene Kriegsspielzeug19 vor dem Ersten und Zweiten Weltkrieg zeugt zum Beispiel von einer Gesellschaft, in der das Militärische einen großen Stellenwert hatte. Heute sind PC- und Videospiele besonders virulent, die einen individuellen Überlebenskampf oder die Schaffung von anderen Welten simulieren und ermöglichen. Das Spiel wird zur Utopie und das Spielen zur Flucht in eine bessere Welt: Im Spiel kann man stets von vorn beginnen, sich die optimaleren Startbedingungen aussuchen, zwischenspeichern und vom Spiel ausruhen. In der Wirklichkeit ist das bedeutend schwieriger: Man bleibt gewöhnlich in seinem Beruf, man bleibt Mutter und man bleibt Staatsbürger eines bestimmten politischen Systems. Das Spiel führt uns vor Augen, was man alles nicht mehr kann, welche Freiheiten man bereits aufgegeben hat und welche Optionen einem verwehrt bleiben, während es gleichzeitig im Als-ob verlockend unendliche Möglichkeiten offeriert.20 Je verlockender diese fiktive Welt ist, desto mehr verliert die Realität an Glanz – und umso weniger überraschend ist es, dass das Spielen mehr und mehr als gesellschaftliches Phänomen akzeptiert und toleriert wird. Erwachsene Computer- und Videospieler sind allgegen- 18 Dafür hat das Spiel auch verschiedene Preise gewonnen – vgl. Benedikt Plass-Fleßenkämper: »Das traurigste Spiel des Jahres«, in: Die Zeit, 10.11.2014, http://www.zeit.de/digital/games/ 2014-11/this-war-of-mine-antikriegsspiel-rezension (aufgerufen: 21.12.2016). 19 Vgl. Berghof Foundation: Friedenspädagogik, http://www.friedenspaedagogik.de/themen/ kriegs_und_ gewaltspielzeug/zur_wirkung_von_kriegs_und_gewaltspielzeug (aufgerufen: 11.08.2015) und Bernd Schorb: »Science-Fiktion-Spielzeug – Kriegsspielzeug. Haben sie Wirkungen? Was weiß man darüber?«, in: ajs-informationen. Mitteilungen der Aktion Jugendschutz, Stuttgart 6/1985, o.S. 20 Vgl. Klager: Spiel als Weltzugang, S. 193–196 und Jörg Neufeld: Alles ist Spiel, Würzburg 2005, S. 13. 95 wärtig und haben den verschrobenen Modelleisenbahner als Prototypen des spielenden Alten längst abgelöst. Spielen gehört zum Leben in jeder Altersstufe. Spielen als Auseinandersetzung mit der Welt Die Technik des PC- und Videospiels und Spielsituationen im Allgemeinen sind nicht per se problematische ethische Situationen, wenn man von singulären Phänomenen wie Isolation und Realitätsverlust absieht. Spiele sind nicht gefährlicher oder unethischer als spannende Filme oder fesselnde Bücher und bedürfen daher keiner besonderen Art von Ethik. Weder ihre strukturelle noch inhaltliche Offenheit verleitet zum ethisch schlechten Handeln in der Welt des Spiels oder der Welt, die wir Realität nennen. Ethisch problematisches Verhalten entsteht zunächst außerhalb der Spielwelt und wird im Spiel als Analogon zur Wirklichkeit fortgesetzt oder vorweggenommen. Durch fehlende Reflexion und blindes Vertrauen in bekannte Lösungsmuster und -strategien lassen sich reale Probleme im Spiel jedoch steigern: Wer alle Probleme – im Spiel wie in der Realität – immer nach dem gleichen Schema löst, wird feststellen, dass die Welt zu komplex ist für einfache Schemata und zu divers für homogene Vorgehensweisen. Das Spiel bietet auch hier einen Ausgang: In der Gewinnung von Perspektiven auf (verschiedene) Welten, erlaubt das Spiel methodische Innovation und Erkenntnis. Die Spieleentwicklerin Jane McGonigal beschreibt etwa die besondere Art von kooperativem Handeln, das Computerspieler durch Multiplayersessions erfahren. Die Partizipation am gemeinsamen PC-Spiel benötigt und evoziert die Koordination von Handlungen und die Kokreation gemeinsamer Ergebnisse.21 Menschen, die gemeinsam spielen, werden gut darin, gute Teamplayer zu sein, Einsätze zu synchronisieren, sich gegenseitig Anerkennung zu schenken und die kollektive Leistung als wertvoll zu schätzen.22 Solche Menschen sind nachweislich sozial (digital) engagiert23 und bergen das Potenzial die wesentlichen Probleme der Welt lösen zu können – weil sie es immer schon üben. In Computer- und Videospielen sind die Spieler stets aufgefordert auf Probleme zu reagieren, Konflikten angemessen zu begegnen und Kompromisse einzugehen. Die komplexen Simulationen von Städten oder Ländern geben den Spielern ähnliche Befugnisse, wie sie auch Politiker haben. Mit Weitblick und einem ökosystemischen Denken sind Spieler darin geübt, sich komplexen Herausforderungen zu stellen und nicht monokausale Erklärungsmodelle oder populistische Entscheidungen zu wählen. Sie treffen allein die richtigen Entscheidungen, um das Spiel zu gewinnen,24 wenn auch nicht unbedingt 21 Vgl. Jane McGonigal: Besser als die Wirklichkeit! Warum wir von Computerspielen profitieren und wie sie die Welt verändern, München 2012, S. 352. 22 Vgl. ebd., S. 353–354. 23 Vgl. ebd., S. 364–365. 24 Vgl. ebd., S. 387–447. 96 beim ersten Mal. Das relativiert die Chance des Computerspiels jedoch keineswegs: Zwar ist es im Vergleich zur Realität unterkomplex und mit naiven Wirkungsmechanismen ausgestattet – Spieler wissen dies jedoch auch, weil sie wissen, dass sie ein Spiel spielen. Das methodische und didaktische Potenzial des Spiels – vom reinen Einüben mechanischer Tätigkeiten bis hin zur Emergenz von Kooperationserfahrungen, dem Spielen als Kontemplation, als Modus der Weltinterpretation, der Transformation und Transzendenz des Menschen25 – ist enorm. Das Spiel kann als epistemischer Weltzugang verstanden werden, in dem Symbole und Zeichen auf die Realität verweisen und einen Ort zum verhältnismäßig gefahrlosen Üben bieten. Dies darf jedoch nicht per se als ein ethisch positives Merkmal des Spiels verstanden werden; Erkenntnis, Multiperspektivität, Kokreation und Teamplaying nützen auch der Mafia. Das Computer- und Videospiel erweitert unsere Welt technisch um die Dimensionen des Möglichen mit all den darin enthaltenen Implikationen. Spiele wirken, indem sie Tabus brechen, ethische Regeln in Frage stellen und das Unsagbare und scheinbar Unmögliche im Als-ob möglich machen. Damit enthalten sie das von Jonas beschriebene Potenzial, die Welt radikal zu verändern. Wie bei aller bisherigen Technik ist jedoch allein der Mensch entscheidend, der sie einsetzt. Ein reflektierter Computerspieler ist nicht gefährlicher als ein Theaterpublikum – und ein Programmierer nicht unethischer als eine Schriftstellerin. Anders als der Leser oder Zuschauer hat der PC- und Videospieler jedoch die Möglichkeit, die Wirklichkeit, in der er agiert, aktiv mit- und umzugestalten. Spiele bieten nicht nur Lücken, ethisch problematischen Situationen zu entgehen – indem man statt auf digitale Tiere zu schießen einfach mal den simulierten Sonnenuntergang genießt –, sie eröffnen dem versierten Spieler auch die Möglichkeit das Spiel zu manipulieren, so dass er sein eigenes Spiel spielen kann. Zu einem reflektierten und mündigen Spieler gehört daher eine gewisse Code Literacy,26 die es erlaubt, Spielprogrammierungen zu durchschauen und ggf. auch umzuprogrammieren. 25 Vgl. Klager: Spiel als Weltzugang, S. 144–180. 26 Mario Donick: Code Literacy. Vom Verlust der Illusion, http://www.gamersglobal.de/user-artikel/vom-verlust-der-illusion (aufgerufen: 14.04. 2017). 97 Nicole J. Saam und Alexander Schmidl »A distinct element of play«. Scientific computer simulation as playful investigating Abstracts Drawing on concepts from the philosophy and sociology of play, this paper assesses the thesis that simulating in scientific computer simulation is playful investigating. Contrary to the seemingly clear discrimination of work and play, we argue that playful gaming is an essential element of work in scientific simulation. The features of play and playful gaming are concealed in the technology and methodology of computer simulation. Playful gaming strengthens the role of experience as an epistemic process in the research. In Kritik einer simplen Trennung zwischen Arbeit und Spiel vertreten wir die These, dass die wissenschaftliche Tätigkeit des Simulierens spielerisches Forschen ist. Unter Bezugnahme auf Konzepte und Theorien aus der Philosophie und der Soziologie des Spiels wird das Spielen als wesentliches Merkmal des Arbeitens beim wissenschaftlichen Simulieren ausgearbeitet. Das Spielerische ist sowohl in der Technologie wie auch in der Methodologie der Computersimulation verankert – mit Konsequenzen für die Epistemologie der Computersimulation: Es stärkt Momente der Erkenntnis durch Erfahrung. Introduction There is no obvious plausibility to the claim that the activity of simulating fluid dynamics, tomorrow’s weather, grasshopper bands, or intergovernmental negotiations on a computer is playful or involves playful steps on the side of the simulating scientist. On the contrary, Klabbers has emphasized the »distinction between playful gaming and serious simulation«.1 He argues that the playfulness of humans and the ambiguity of play require an epistemology »very distinct from the rigor of performing simulation studies«.2 However, his notion that the simulating scientist is a mere spectator observing the system’s behavior is too simple. Relying on the extended mind hypothesis,3 the philosophy of simulation argues that »running a computer simulation can be seen as a process in which a coupled system [of scientist and com- 1 Jan H. G. Klabbers: »Terminological Ambiguity. Game and Simulation«, Simulation and Gaming 40 (2009), pp. 446–463, here p. 460. 2 Ibid. 3 See Andy Clark and David J. Chalmers: »The Extended Mind«, Analysis 58 (1998), pp. 7–19. 99 puter, N.J.S.]«4 is operating. It is this concept of a coupled system of scientist and computer which motivates us to reconsider the simulating scientist. What is she doing? What is the act of simulating in scientific computer simulation? Isn’t there an element of chance in any simulation run that is initiated by a simulating scientist? What do we learn about the act of simulating, if we apply Caillois’s category of alea that includes chance-based play,5 based in games of probability? Like Roulette, scientific computer simulation might fall into the alea/ludus section of Caillois’s model. Ludus represents rule-based, regulated, formalized play. Although Caillois tends to assign an entire game or play activity to a single category of his taxonomy, most games have elements from several of his categories. Don’t we also find elements of Caillois’s categories of mimicry (English transl. »simulation« or »imitation«) and agon (»competition«) in the simulation model respectively simulation practice? Caillois’s model may be useful for understanding the kinds of (play) experiences that the simulation model is and is not providing. More general, the concepts of play and game may help us understand the process of knowledge generation in scientific computer simulation.6 Our investigation centers on two questions: (1) What is the activity of simulating in scientific computer simulation? We will attempt to assess the thesis that simulating in scientific computer simulation is playful investigating, arguing there to be strong and modest versions of the claim. We will defend a modest sense of the thesis drawing on concepts from the sociology and philosophy of play as well (playful gaming hypothesis). (2) How do scientists obtain knowledge from running simulations? We claim that playful gaming in computer simulation strengthens the role of experience as an epistemic process in scientific research (experience hypothesis). The argument of this article is developed in seven steps. Section 2 gives an account of the investigating activity. We present a preliminary definition of the investigative act of simulating in scientific computer simulations. In section 3, we distinguish three versions of the claim that simulating in scientific computer simulation is playful investigating. We defend the weak thesis by analyzing different aspects of play within scientific simulating (section 5) and point out that the idea that there is some element of play in simulation is not new (section 4). In section 6, we argue that playful gaming in computer simulation strengthens the role of experience as an epistemic process in scientific research. In section 7, we address the question how work, 4 Claus Beisbart: »How can Computer Simulations Produce New Knowledge?«, European Journal for Philosophy of Science 2 (2012), pp. 395–434, here p. 422. 5 See Roger Caillois: Man, Play and Games, New York: The Free Press of Glencoe 1961. 6 In the following, we will refer to several distinct definitions of play and game stated by philosophers and sociologists. If there is no reference to one of these authors we use the concept of game, if we want to emphasize the aspect of rules: the game is structured by self-imposed rules. We use the concept of play, if we want to emphasize the aspects of freedom, voluntariness and autotelicity. Both concepts are not used as synonyms. 100 play and technology are interrelated in scientific computer simulation. In the conclusion we offer reflections on the implications for the philosophy and epistemology of computer simulation and on playful investigating in general. The Simulating Scientist and the Activity of Investigating Scientific work in general can be seen as a quest beyond ordinary life by asking questions that are not about how to cope with life but how to describe, understand and explain the world in its theoretical, exemplary and abstract dimensions.7 Scientific work as a practice has been researched, for example, in the Laboratory Studies. Dominique Vinck identifies their initial point in George Thill’s work La Fete scientifique and summarizes his findings in a definition of scientific practice as »an action which invents intrinsic utopia with rational course«.8 This view can be supplemented with Max Weber's perspective, who suggests a triangle, wherein beside the (a) rational, systematic and reviewable courses of target orientated scientific practices (b), the interests of the scientists shaped by curiosity and passion as well as (c) a touch of genius are constitutive elements.9 This uncertain phenomenon of a spontaneous intuition is a main point in Charles Peirce’s concept of abduction, where he argues that next to induction and deduction, the searching for rules is an important part of scientific work. This process can't be fully controlled, we can only produce settings in which spontaneous intuition flashes – typically in situations of very high or very low pressure.10 To emphasize, the flashing intuitions and ideas are not products from outside the subject, but are results of a previous knowledge connected to the research aim and the specific situation. The development of a scientific computer simulation model is a complex investigative activity.11 From a technical point of view, the process of making a computer simulation study can be decomposed into several steps, including e.g. developing the 7 Klaus Holzkamp: Wissenschaft als Handlung. Versuch einer neuen Grundlegung der Wissenschaftslehre, Berlin: de Gruyter 1968, pp. 23–24. 8 Dominique Vinck: The Sociology of Scientific Work. The Fundamental Relationship between Science and Society, Cheltenham: Elgar 2010, p. 194. See George Thill: La Fete Scientifique. D’une Praxeologie Scientifique a une Analyse de la Decision Chretienne, Paris: Aubier Montaigne, Cerf, Delachaux & Niestle and Desclee De Brouwer 1973. 9 See Max Weber: Politics as a Vocation, Philadelphia: Fortress 1965. 10 See Charles S. Peirce: »Guessing«, Hound & Horn 2 (1929), pp. 267–282; Charles S. Peirce: »A Neglected Argument for the Reality of God. § 1 Musement«, in: Charles Harthorne and Paul Weiss, eds., Collected Papers of Charles Sanders Peirce, Cambridge: Harvard UP 1931, pp. 452–466 and Jo Reichertz: Die Abduktion in der qualitativen Sozialforschung. Über die Entdeckung des Neuen, Wiesbaden: Springer, 2013, pp. 117–118 and 120. 11 In all sections, we refer to Hartmann’s definition of a simulation model: »a simulation results when the equations of the underlying dynamic model are solved. This model is designed to imitate the time-evolution of a real system. To put it in another way, a simulation imitates one process by another process« (Stephan Hartmann: »The World as a Process. Simulation in the 101 (mathematical) model, programming, parameterizing, calibrating, optimizing, testing and validating. A comprehensive list cannot be given, as some of these steps depend on the simulation study’s objective. As Sundberg notes,12 the discourse of simulation modelling sometimes conflates what the researchers are actually doing. Simulation modelling practice includes working with a dynamic model. This is considered to be theoretical and conceptual work, as well as technical work such as coding or debugging the computer program: »In fact, it involves a lot of hands-on work, especially in relation to implementation in existing computer programs«.13 While numerical modelling may be a collective enterprise (e.g. in astrophysics),14 the simulationist’s everyday work involves sitting alone, looking at a computer. Therefore, in particular, we want to focus on the practice of simulating scientists and reflect their activities as investigating subjects. According to Franz Breuer, ways of observing, measuring, experimenting, speaking and analyzing create a tie between the scientist as a subject and his phenomenon as an object. In the situation of simulating, the ›interaction‹ between the scientist and the simulation model is characterized by two elements: the computer as the scientist’s instrument and the graphical user interface as the model’s visualization of the results. Both co-define the ways of knowledge acquisition.15 Certainly, it is possible to focus on the role of the calculating machine as an actor too, like the actor-network theory would suggest.16 However, although we recognize the importance of computers in simulations, our concept of technology is more instrumental. In our view, technology is an extension of body and mind. Therefore we adopt De Preester’s differentiation into extensions of motor capacities, sensory capacities and cognitive capacities.17 Rather than an actor Natural and Social Sciences«, in: Rainer Hegselmann, Ulrich Muller and Klaus G. Troitzsch, eds., Modelling and Simulation in the Social Sciences From the Philosophy of Science Point of View, Dordrecht: Kluwer 1996, pp. 77–100, here p. 83; emphasis S.H.). This definition excludes simulations of static objects, e.g. Monte Carlo simulations. Both of our hypotheses are set up for the former type of simulations. Their relevance for Monte Carlo simulations should be investigated in a separate study. 12 See Mikaela Sundberg: »The Everyday World of Simulation Modelling. The Development of Parameterizations in Meteorology«, Science, Technology, and Human Values 34 (2009), pp. 162–181, here p. 178. 13 Ibid. 14 Mikaela Sundberg: »Creating Convincing Simulations in Astrophysics«, Science, Technology, and Human Values 37 (2012), pp. 64–87. 15 Franz Breuer: Wissenschaftstheorie für Psychologen. Eine Einführung, Münster: Aschendorff 1991, p. 77. 16 In this theory a principal and structural symmetry in the relationship of human actors and nonhuman actors like technologies as actants is claimed by Bruno Latour (Bruno Latour: The Pasteurization of France, Cambridge, London: Harvard UP 1988 and Bruno Latour: »On Actor- Network Theory. A Few Clarifications«, Soziale Welt 47 (1996), pp. 369–381) and Michel Callon (Michael Callon: »Some Elements of Sociology of Translation. Domestication of the Scallops and the Fishermen of St. Brieuc Bay«, in: John Law, ed., Power, Action and Belief. A New Sociology of Knowledge?, London: Routledge 1986, pp. 196–234). 17 Helena De Preester: »Technology and the Body. The (Im)Possibilities of Reembodiment«, Foundations of Science 16 (2011), pp. 119–137. 102 with agency, the computer is in the sense of the last dimension an extension of cognition, a position also well known as »The Extendend Mind«.18 To consider the intense relation between human and technology, this position is complemented by Christoph Hubig’s concept of the hybridization of human.19 He asserts that in mixed realities an amalgamation of humans and technologies is more prevalent than an interaction between two independent entities.20 From an ethnographic point of view, scientific simulating may be defined as an interplay of activity and passivity, where on the one hand, theory and data are translated into program codes, and on the other hand, simulations run autonomously. The scientist is initiating simulation runs and waiting for the results, reassembling the model by changing some assumptions, initiating further simulation runs, waiting and so on. Here, the following two moments are of epistemic relevance: (a) the results becoming visible and (b) the decision making on how to proceed. Because of the invisibility of the calculations the computer makes, an element of surprise is symptomatic at the first moment. Doubtlessly, the scientist exactly knows the model assumptions she has implemented. However, a look at the simulation results is often a moment of unexpected findings. The second significant moment is the decision regarding which simulation to run next, characterized by scientific rationality, as well as creativity that arises from asking "what if?" – questions (this question is also highlighted by Turkle for simulations and Schön for experiments).21 The way of scientific activity in this form is linear in the sense of a planned, structured and transparent research process with a clear target, but helical like a hermeneutical circle where the knowledge is generated stepwise by iterative improvements. Three versions of the thesis There are clearly a strong, a weak and a too weak version of the thesis that simulating is playful investigating. According to historian Johan Huizinga, sociologist Roger Caillois and philosopher Eugen Fink we define playful gaming in narrower sense as (a) free, voluntary and autotelic activity, (b) structured by self-imposed 18 Clark and Chalmers: »The Extended Mind«. 19 See Christoph Hubig: »Der technisch aufgerüstete Mensch. Auswirkungen auf unser Menschenbild«, in: Alexander Roßnagel, Tom Sommerlatte and Udo Winand, eds., Digitale Visionen. Zur Gestaltung allgegenwärtiger Informationstechnologien, Berlin, Heidelberg, New York: Springer 2008, pp. 165–176. 20 As a consequence, he points to the importance of transparency of technologies, traceable through a system of parallel communication where, despite of for granted taken interdependences, technologies and their effects are still in sight. 21 See Sherry Turkle: Life on the Screen. Identity in the Age of the Internet, New York: Simon and Schuster 1995, p. 52 and Donald A. Schön: The Reflective Practitioner. How Professionals Think in Action, London: Temple Smith 1983, p. 145. 103 rules, (c) effective for a fixed period and in a limited space, (d) consisting of actions totally focused on the situation and separated from everyday life.22 A strong thesis might claim that simulating is playful gaming in that it necessarily fulfils all these criteria. This thesis is obviously too strong. Phrasing the strong simulating as playful gaming thesis in terms of a necessary and sufficient conditions gives us an obvious method to refute it: Scientific simulating is not a fully free, voluntary and autotelic activity. It is not simply playful gaming. It is included in a research process at some scientific institution that aims at increasing our knowledge on nature or society. Thus, the strong thesis – that simulating essentially is playful gaming – is immediately prone to refutation; indeed, nobody has been bold enough to assert such a thesis. In fact, it is simply not necessary to hold the strong thesis in order to argue that the activity of simulating is often playful, or is even usually so. The modest thesis allows us to retain the initial idea of simulating being playful gaming, noted in the opening of this essay, but to avoid the obvious limitations of the strong thesis. The weak form of the simulating as playful gaming thesis allows to set simulating as play if the primary defining criteria a to d are fulfilled to a great extent, or if some particular moments of simulating fulfil several of these criteria. We distinguish the weak thesis from a thesis that is too weak. The latter thesis might claim that the simulating scientist is in a playful state of mind. This simulating as being playful thesis is too weak because many complex activities can be done with a playful attitude. As Salen and Zimmerman note, play is latent in any human activity.23 We do not claim that simulating is a frolic scientific activity. Before we defend the weak thesis, we point out that the idea of an element of play in simulations is not new. »A distinct element of play« In his definition of interactive simulation, Klabbers comes quite close to the thesis of this article: »Interactive simulation – that is, interconnecting simulation models and actors in one comprehensive framework – in principle serves the goals of the actors playing with the simulation model. While playing with simulation models, these actors construct knowledge that fits into and so changes their schemas«.24 22 See Johan Huizinga: Homo Ludens. A Study of the Play-Element in Culture, London, Boston, Henley: Routledge & Keagan Paul 1980, pp. 7–13; Caillois: Man, Play and Games, pp. 3–10 and Eugen Fink: Play as Symbol of the World and Other Writings, transl. by Ian Alexander Moore and Christopher Turner, Bloomington: Indiana UP, pp. 14–32. 23 See Katie Salen and Eric Zimmerman: Rules of Play. Game Design Fundamentals, Cambridge, Mass.: MIT Press 2004, p. 307. 24 Klabbers: »Terminological Ambiguity«, p. 456. 104 There is the idea that actors play with the simulation model. However, his notion of the simulating scientist is still that she is a spectator observing the simulation model’s behavior.25 The philosophy of science, though, argues that, strictly speaking, theories and most models cannot be observed.26 Instead, the philosophy and sociology of science have described the simulating scientist’s activity as modelling,27 or storytelling.28 In her empirical investigations on simulation practices in meteorology and astrophysics, Sundberg finds that there are playful ways of learning how to handle simulation codes, e.g. when prearranged simulations serve as teaching tools. Senior astrophysicists spoke openly and spontaneously about playing: »if you would go over in the corridor where most of my students sit and you would follow their work for a day you would sort of see that there is a distinct element of play«.29 Sundberg argues that the play with ›strange‹ results is a part of the socialization process into numerical simulation methods (similarly Dowling).30 According to Sundberg, these findings echo on Turkles diagnosis of a postmodernist culture of simulation. Turkle considers simulation as the representation of reality in the postmodern era and simulating as the production or application of scientific models as well as computer games. In her analysis, she draws a line to the linear, logic and planned culture of calculation. In contrast, the culture of simulation is characterized by taking the computers virtuality for real and experiment with possibilities. In the postmodern society, this leads to a play with different and no longer distinguishable realities. In the context of scientific work, she reminds us on Levi-Strauss’s term bricolage he uses for a kind of tinkering in scientific work by trying different ways of solutions and adapting models stepwise.31 Although her view on simulating is characterized by the programming language of the late 1980 s and early 1990 s and that she is mainly inter- 25 See Ibid, p. 459. 26 See Wendy S. Parker: »Does Matter Really Matter? Computer Simulations, Experiments, and Materiality«, Synthese 169 (2009), pp. 483–496, here p. 489. 27 See Mikaela Sundberg: »Credulous Modellers and Suspicious Experimentalists? Comparison of Model Output and Data in Meteorological Simulation Modelling«, Science Studies 19 (2006), pp. 52–68. 28 See Gabriele Gramelsberger: »Story Telling with Code. Archaeology of Climate Modelling«, TeamEthno-online 2 (2006), pp. 77–84; Erica Mansnerus: »Modeling in the Social Sciences. Interdisciplinary Comparison«, Perspectives on Science 21 (2013), pp. 267–272 and Erika Mansnerus: »Using Model-based Evidence in the Governance of Pandemics«, Sociology of Health and Illness 35 (2013), pp. 280–291. 29 Mikaela Sundberg: »Cultures of Simulations vs. Cultures of Calculations? The Development of Simulation Practices in Meteorology and Astrophysics«, Studies in History and Philosophy of Modern Physics 41 (2010), pp. 273–281, here p. 278; Interview 2, quoted from Sundberg. 30 See Deborah Dowling: »Experimenting on Theories«, Science in Context 12 (1999), pp. 261– 273, here p. 271. 31 See Turkle: Life on the Screen, p. 51. 105 ested in the changes of identity in the present age, she gives us an important indication of simulating as a form of play with scenarios and tinker with outcomes.32 Altogether, the idea of an element of play in simulations is not new. Unfortunately, we lack a precise hypothesis and a thorough analysis. Scientific simulating as playful gaming By considering the forms and dimensions of play, the freedom of play and the separateness of scientific computer simulations, we analyze and exemplify aspects of play in several steps of simulating. The alea/ludus dimension of scientific simulating In this subsection, we refer to Caillois’s typology of games based on the categories competition (agon), chance (alea), simulation (mimicry), the capability of producing vertigo (ilinx) and a second dimension – paidia/ludus – that distinguishes fantasy from effort, patience, skill, or ingenuity.33 The mimicry dimension of Caillois’s classification of games he translated as ›pretense‹ or ›simulation‹ refers to role-playing, or playing pretend. Even though there is an element of mimicry in the simulation model that may be perceived as pretending to imitate the target, this dimension of Caillois’s classification will not serve as our main argument. We consider this to be a question for model theory,34 rather than the philosophy of simulation. We claim that significant steps in scientific computer simulation fall into the alea/ ludus section of Caillois’s model. His category of alea includes chance-based play, based in games of probability. Ludus represents rule-based, regulated, formalized play. Every simulating scientist is concerned with exploring output through replications.35 E.g., in the early steps of developing a simulation model the output often exhibits features that cannot be observed empirically, such as implausible or extreme values, spikes or no sensitivity to some changes in the model assumptions. They are 32 Ibid., p. 52. 33 See Caillois: Man, Play and Games. 34 See Daniela M. Bailer-Jones: »When Scientific Models Represent«, International Studies in the Philosophy of Science 17 (2003), pp. 59–74; Ronald N. Giere: »How Models are Used to Represent«, Philosophy of Science 71 (2004), pp. 742–752 and Roman Frigg: »Fiction and Scientific Representation«, in: Roman Frigg and Matthew Hunter, eds., Beyond Mimesis and Convention, Berlin: Springer, pp. 97–138. 35 See Sundberg: »Creating Convincing Simulations in Astrophysics«. 106 at first interpreted as clear signs of error. At that stage, simulationists are preoccupied with debugging and finding errors in codes. Each implausible output requires the scientist´s close look at the model code and a development of an ad hoc hypothesis on the reason behind this. Due to the epistemic opacity of the simulation results, the scientist cannot know in advance whether her ad hoc hypothesis will remove the implausible output or not.36 Typically, such an ad hoc hypothesis will be modified in consecutive simulation runs after the new output has been examined. That, in turn, might have displayed a slightly different implausible output and perhaps even a new implausible output at another variable. Simulation output ›behaves‹ ›tricky‹ as a result of the often nonlinear and stochastic structure of the underlying mathematical model. At that point, the dimension of play is included. Some simulating scientists will enjoy the improvisational and innovative moments of developing new ad hoc hypotheses. The (more or less) immediate result from the next simulation run combines with the epistemic opacity and generates some kind of a chance-based game. However, it is even more than chance-based. The scientist will be ambitious. She knows that the results do not merely depend on chance. They depend on more or less understandable algorithms. The results depend on your theory. If you understand them correctly you will develop a hypothesis and make a prediction of the new results that turn out to be correct in the next simulation run. This is a wonderful, intellectually challenging game – not just a game of trial and error. By the way, the computer can be experienced as an opponent. The computer is responding quickly. The computer is a relentless opponent. The computer makes no mistakes. The computer just proceeds in a binary way. Current, no current. Current, no current. You see immediately that your hypothesis was wrong. However, the computer can also be deemed an ally. There is an element that falls into the agon section of Caillois’s model.37 The computer is an ally in your competition against yourself for the next fruitful hypothesis. The computer helps to identify the next fruitful hypothesis. The computer proceeds where the scientist can no longer control her deductions. Together, they defeat the limits of her reasoning. Come on. Help me. Isn´t this true? The sequence of human activities and computer processes is: Output interpretation, ad hoc hypothesis formulation, implementation on the computer, simulation run, visualization of new output (ihero). Ihero, ihero, ihero, ihero. Hundred-fold. Each output interpretation becomes an act of verification of your previous hypothesis. Hero-v, hero-v, hero-v. Les yeux sont faits! Run! Wait. See. Failure – What a disappointment! Les yeux sont faits! Run! Wait. See. Failure – What a disappointment! ... Les yeux sont faits! Run! Wait. See. It has m o v e d! What a delight! It works! All simulating scientists experience the tension. Successful scientists experience the delight. This is 36 Paul Humphreys: Extending Ourselves. Computational Science, Empiricism, and Scientific Method, Oxford: Oxford UP 2004. 37 See Caillois: Man, Play and Games. 107 a nice model! They experience setting the rules for a closed system. What a wonderful small world! In gaming simulation, the person who sets the rules for the interactions in the game is called GOD, meaning Game Overall Director. Imagine! I am a GOD. This is my world. This is my world. This is my rain and this is my super nova exploding. Sarah and Jack, do you see my super nova exploding? After many model super novae have exploded in a plausible way, less playful steps of model development follow. E.g., calibration and optimization can be done in a rather autonomous way by computer algorithms. Throughout the test of the simulation model, exploring output through replications becomes a more playful activity, again. As Sundberg notes for astrophysics, there are »many occasions on which it is uncertain whether one’s output is wrong or reasonable«.38 Surprising output receives much attention because it must be explained. The search for an explanation generates new sequences of the type hero-v. It is the technology of the computer that allows the playful ihero and hero-v cycles. There is an element of repetition also typical in games.39 After a basic model has been implemented, new simulation runs with slight modifications of the assumptions can be initiated in a convenient way and executed quickly. Even complex results can be visualized swiftly and in a way that supports understanding. Each cycle is accompanied by emotions because each result of a simulation run is perceived as an event. Appraisal theories of emotions claim that emotions evaluate an event, the commissions and omissions of a person, or persons/objects.40 Again, it is the technology of the computer generating results that are perceived as an event and thus creates hundreds and thousands of opportunities for the experience of emotions. Typically, the experience of disappointment prevails, sometimes mixed up with anger. But in successful simulation studies, the delight of an intensity that can only be compared to the pleasure experienced in successful experiments is also experienced again and again.41 38 Sundberg: »Creating Convincing Simulations in Astrophysics«, p. 71. 39 Hans Scheuerl: »Zur Phänomenologie des Spiels«, in: Ausschuß deutscher Leibeserzieher, ed., Das Spiel, Frankfurt on the Main: Limpert, pp. 29–43. 40 See e.g. Andrew Ortony, Gerald L. Clore and Allan Collins: The Cognitive Structure of Emotions, Cambridge: Cambridge UP 1988. 41 This subsection includes in paragraph three a piece of autoethnography (Carolyn S. Ellis: »Autoethnography«, in: Lisa M. Given, ed., The Sage Encyclopedia of Qualitative Research Methods, Vol. 1, London: Sage, pp. 48–51 and Carolyn Ellis, Tony E. Adams and Arthur P. Bochner: »Autoethnography. An Overview«, Forum Qualitative Sozialforschung / Forum: Qualitative Social Research 12/1 (2011), Art. 10, 18 p.) and technography, and transcribes internal conversations (as theorized by Margaret S. Archer: Structure, Agency, and the Internal Conversation, Cambridge: Cambridge UP 2003) of one of the authors (NJS) from more than two decades of simulating practice. The internal conversations have been alienated by transferring them to another academic discipline. Autoethnography is an »approach to research and writing that seeks to describe and systematically analyze (graphy) personal experience (auto) in order to understand cultural experience (ethno)« (Ellis et al.: »Autoethnography«, p. 1). As Ellis, 108 The freedom of play in scientific computer simulation We claim that there is a distinct element of freedom in scientific computer simulation. Admittedly, there are the laws of nature (in the sciences) or there are formal models based on social theory. Both set limits to the freedom of the scientist. However, these laws and models must be adapted and modified to make them run on a computer. These adaptations go far beyond discretization and dynamization. Morrison has put forward the hypothesis that there is a partial independence of scientific models vis-a-vis both theories and the world that makes them autonomous agents in the production of scientific knowledge.42 Together with Morgan, she argues that simulation and modelling are closely associated.43 She asserts that there is a »hierarchy of modelling« that is characteristic of computer simulation experiments. This hierarchy »begins with a mathematical model of the physical target system that is then discretized to produce the simulation model«.44 The transition to a simulation model is characterized by several ruptures.45 The simulation model includes elements not justified by the theory or by the model of the phenomenon, e.g. parameters without a theoretical interpretation,46 algorithms compensating systemic errors or a lack of knowledge.47 Lenhard uses the concept of plasticity to refer to the adaptability of Adams and Bochner note, the type of writing accords to storytelling rather than to proposing or presenting a theory for which reason autoethnographic texts are »closer to literature than to physics« (ibid., p. 2). The reader of the text is not the »passive receiver of knowledge« but a co-participant who is involved in the story (see Ellis: »Autoethnography«, p. 50). Essential for the story are »private details of emotional and bodily experience« (Ibid.; Ellis et al.: »Autoethnography«, p. 4). In autoethnography, the criterion of reliability is a question of ›factual evidence‹ – is it still a true story or does the ›literary licence‹ lead to fiction? (see ibid., p. 10). Validity can be addressed by asking questions, such as: Can the reader see the world through the researcher’s eye and deal with it? (see ibid.). 42 See Margaret Morrison: »Models as Autonomous Agents«, in: Mary S. Morgan and Margaret Morrison, eds., Models as Mediators, Cambridge: Cambridge UP 1999, pp. 38–65. 43 See Margaret Morrison and Mary S. Morgan: »Models as Mediating Instruments«, in: Mary S. Morgan and Margaret Morrison, eds., Models as Mediators, Cambridge: Cambridge UP 1999, pp. 10–37, here pp. 28–36. 44 Margaret Morrison: »Models, Measurement, and Computer Simulation. The Changing Face of Experimentation«, Philosophical Studies 143 (2009), pp. 33–57, here p. 55. 45 See Andreas Kaminski, Björn Schembera, Michael Resch and Uwe Kuster: »Simulation als List,« in: Gerhard Gamm, Petra Gehring, Christoph Hubig, Andreas Kaminski and Alfred Nordmann, eds., Technik, List und Tod. Jahrbuch Technikphilosophie, Zürich: Diaphanes 2016, pp. 93–121. 46 See Johannes Lenhard and Hans Hasse: »Fluch und Segen. Die Rolle anpassbarer Parameter in Simulationsmodellen,« in: Alexander Friedrich, Petra Gehring, Christoph Hubig, Andreas Kaminski and Alfred Nordmann, eds., Technisches Nichtwissen. Jahrbuch Technikphilosophie 3, Baden- Baden: Nomos 2017, pp. 69–84. 47 See Eric Winsberg: Science in the Age of Computer Simulation, Chicago: UP 2010, pp. 9, 16 and 46 and Johannes Lenhard: Mit allem rechnen. Zur Philosophie der Computersimulation, Bern: de Gruyter 2015, pp. 34–37. 109 simulation models.48 The simulating scientist enjoys a significant freedom in specifying and adapting some elements of the simulation model. There is even more freedom on another level: While the notion of target suggests that there is a fixed entity that has to be modelled, the boundary between what is included in, and what is excluded from the model, is often rather vague. This holds particularly for simulation models in the social sciences, where social, political and economic phenomena are highly interdependent. In addition, the degree of resolution of modelling the target (grain size or scale) may require not yet theorized model assumptions. Thus, during the development of a computer simulation model, many decisions must be made going beyond a mere implementation and representation of the preceding formal model. Still on another level, the simulating scientist may even free herself from diverse, e.g. realist assumptions and create computer simulation models rather resembling to what Cooper has called possible worlds.49 Like a thought experimenter, a simulating scientist may construct models of possible worlds. She may model and explore even counterfactual worlds. This leads to the concept of a playful space of possibility (›spielerischer Moglichkeitsraum‹) – a term used by Nordmann to characterize techno scientific research.50 He argues that in the age of the techno sciences, research looks at the showily-dramatic (›theatralisch-dramatisch‹) aspect of the experiment. The experiment is reckoned primarily as an artificially induced presentation of a behavior that is intended to surprise us and discover the new. In this way, scientific computer simulation leaves history and the teleology of the political behind and enters possibly the realm of art. Hubig argues that technology not only refreshes predetermined possibility spaces, but creates new spaces of possibility.51 It depends on the perspective of the observer whether these possibilities strike as real, de dicto, epistemically problematic, epistemically postulated, reflexive or performative.52 Notably, it is the technology of the computer requiring – in relation to the foregoing mathematical model – additional steps to provide elements of freedom to the simulating scientists. Also, it is the technology offering the freedom to play with a high number of possible worlds – owed to the rapidity of the computer processes. 48 See Lenhard: Mit allem rechnen, chapter 3. 49 See Rachel Cooper: »Thought Experiments«, Metaphilosophy 36 (2005), pp. 328–347, here p. 336. 50 See Alfred Nordmann: »Experiment Zukunft. Die Künste im Zeitalter der Technowissenschaften«, subTexte 03: Künstlerische Forschung. Positionen und Perspektiven, Zürich: Hochschule der Künste 2009, pp. 8–22, here p. 21. 51 See Christoph Hubig: Die Kunst des Möglichen I. Grundlinien einer dialektischen Philosophie der Technik, Bielefeld: Transcript 2006, p. 23. 52 See ibid., p. 169. 110 The separateness of scientific computer simulation In contrast to the ordinary life with all its opaque interdependences and more vague than explicit social rules developed over a long period of time, in simulations just as in play, a small world in itself is created through a closed system of distinct rules in defined dimensions. The separateness of this small world can be experienced by the simulating scientist whenever she begins to work with the simulation model. She will experience what has been called a self-contained reality. William James and later Alfred Schütz both describe the variety of self-contained realities.53 As nonparamount realities »the world of dreams, of imageries and phantasms, especially the world of art, the world of religious experience, the world of scientific contemplation, the play world of the child, and the world of the insane« are quoted by Schütz.54 Every change between the everyday life and one of these realities is experienced as a shock,55 a term which refers to Soren Kierkegaard’s leap (orig. Sprung) used by Kierkegaard to describe essential decisions in religious attitudes.56 In addition, the aspect of separateness can also be observed on the level of effects of the simulation results. A simulated atomic explosion, a simulated climate catastrophe, and a simulated intergovernmental negotiation will not destroy physical goods, generate a climate catastrophe in the real world or solve a political problem. In this respect, simulations are separate from our daily lives. However, among the atomic powers of the world, the most advanced ones maintain the balance of terror by simulating atomic explosions. The results of simulated climate change influence politicians and their decision making. Basic research, like the simulation of intergovernmental negotiations do not change the world, it may, however, change our understanding of the negotiations, and have an influence on the level of discourses – be they scientific or public. In contrast, some results of simulations in the engineering sciences are getting implemented immediately into constructions. Thus, we assert that simulations are separated from everyday life in principal, but in opposition to play in games, their effects have the potential to influence the real world or are explicitly applied to do so. Altogether, we argue that simulating in scientific computer simulation is playful investigating. Nevertheless, please note that on closer inspection, our weak thesis of scientific simulating as playful gaming addresses two analytically distinct levels. 53 See William James: »The Perception of Reality«, in: William James: The Principles of Psychology, Volume II, New York: Holt 1890, pp. 283–322 and Alfred Schütz: »On Multiple Realities«, in: Maurice Natanson, ed., Collected papers. Vol. I. The Problem of Social Reality, The Hague: Nijhoff 1962, pp. 207–259. 54 See Schütz: »On Multiple Realities«, p. 232. 55 See ibid., 231. 56 See Soren Kierkegaard: »Section I. Something about Lessing«, in: Howard V. Hong and Edna H. Hong, eds., Soren Kierkegaard. Volume I. Concluding Unscientific Postscript to Philosophical Fragments, Princeton: Princeton UP 1992, pp. 61–126. 111 Features like the alea/ludus dimension and the separateness apply to the scientific practice as a whole, irrespective of the single steps in the research process. Other features, such as the agon dimension are limited to distinct phases and activities in the research process, in particular the early steps of (i) developing a simulation model that actually runs on the computer and (ii) exploring the model’s behavior. (iii) Later on, the search for the explanation of unexpected results constitutes a further phase characterized by the agon dimension. A comprehensive list of these phases cannot be given. We have pointed out that the features of play and playful gaming are concealed in the technology and methodology of computer simulation, e.g. the alea/ludus dimension, the agon dimension and the mimicry dimension; the freedom of play is dependent on this technology. Therefore, we argue that the feature of playful gaming cannot be removed from scientific computer simulation. This feature is not dependent on a playful state of mind of the simulating scientist. Play, Experience and Knowledge in Scientific Computer Simulation In our frame of reference, playful gaming in computer simulation strengthens the role of experience as an epistemic process in scientific research. The literature on simulation and experiment shows that an important aspect of simulation experiments is gathering experience.57 In philosophy, experience has long been discredited as a medium of knowledge. Based on Dewey, Schachtner assigns experience an indispensable position as a method of gaining knowledge.58 She grants an innovative status to experience-based, playful action. In the following, we refer to Gadamer’s concept of experience and focus on the playful hero-v cycles. According to Gadamer, experience in general is an essentially negative process, but this negativity has a curiously productive meaning.59 Our false generalizations are refuted by experience. Our expectations are disconfirmed. What was regarded as typical is shown not to be so. We argue that in this way, the expectations of the simulating scientist are regularly – but not always – disappointed. Sundberg emphasizes the importance of expectations for understanding the output data of simulations.60 Albeit, each disappointing hero-v cycle does not merely reveal the scientist’s false beliefs. Rather, she seeks a new, improved, and expanded understanding. We claim 57 See, for instance, Sundberg: »Credulous Modellers and Suspicious Experimentalists?« and Lenhard et al.: »Fluch und Segen«. 58 See John Dewey: Democracy and Education. An Introduction to Philosophy of Education, New York: Macmillan 1925 and Christina Schachtner: »Experience and Knowledge. The Creative Potential of Playful Action for Technological Development«, Concepts and Transformation 7 (2002), pp. 193–202. 59 See Hans-Georg Gadamer: Truth and Method, transl. by Joel Weinsheimer, New York: Continuum 2002, pp. 353–355. 60 See Sundberg: »Creating Convincing Simulations in Astrophysics«, p. 65. 112 that at the beginning of the playful investigations – still in the phase of the development of the simulation model – the simulating scientist epistemically works with the foregoing analytical model (a formalized theoretical model using mathematical concepts and language). During the playful hero-v cycles, this model is superseded successively by a new model. This model rather fulfils the conditions of Nersessian‘s mental models.61 As Nersessian explains, a mental model is »a structural analog of a real-world or imaginary situation, event, or process that the mind constructs to reason with. What it means for a mental model to be a structural analog is that it embodies a representation of the spatial and temporal relations among and the causal structure connecting the events and entities depicted«.62 She clarifies that mental models should not be limited to systems of propositions.63 Rather, they integrate various forms of information – propositions, models and equations.64 We can also apply Giere’s comprehensive concept of model, here.65 From an epistemological point of view, we find that the practice of computer simulation supports a process of modelbased reasoning on the side of the simulating scientist, while the computer itself remains limited to inferential logic and the formalized model implemented into the computer (see Table 1).66 In the experiential process, the simulating scientist will now and then be surprised. Gradually, she will gain better knowledge on the computer simulation model, not only of itself, but of what she thought she knew before. The mental model will be adapted to this better knowledge while the computer simulation model may remain unchanged for many simulation-runs, except for some initializations. Some results may even force the simulating scientist to see things from a new perspective. As opposed to syntactic and semantic approaches arguing that scientists learn from models by applying deductive and inductive logic,67 studies on model-based reasoning emphasize the importance of model-based abductions for the generation of new hypotheses.68 61 See Nancy J. Nersessian: »Model-Based Reasoning in Conceptual Change«, in: Lorenzo Magnani, Nancy J. Nersessian and Paul Thagard, eds., Model-Based Reasoning in Scientific Discovery, Dordrecht: Kluwer 1999, pp. 5–22. 62 Nancy J. Nersessian: »In the Theoretician’s Laboratory: Thought Experimenting as Mental Modeling«, Proceedings of the Philosophy of Science Association 2 (1992), pp. 291–301, here p. 293. 63 See ibid. 64 See Nersessian: »Model-Based Reasoning in Conceptual Change«, p. 21. 65 See Ronald N. Giere: »Models as Parts of Distributed Cognitive Systems«, in: Lorenzo Magnani and Nancy J Nersessian, eds., Model-Based Reasoning: Science, Technology, Values, Dordrecht: Kluwer 2002, pp. 227–241. 66 See Nersessian: »Model-Based Reasoning in Conceptual Change«. 67 See Mauricio Suarez: »An Inferential Conception of Scientific Representation«, Philosophy of Science 71 (2004), pp. 767–779 and Mauricio Suarez: »Scientific Fictions as Rules of Inference«, in: Mauricio Suarez, ed., Fictions in Science. Philosophical Essays on Modelling and Idealisation, Routledge: London 2009, pp. 158–178. 68 See Lorenzo Magnani: »Model-Based Creative Abduction«, in: Lorenzo Magnani, Nancy J. Nersessian and Paul Thagard, eds, Model-Based Reasoning in Scientific Discovery, Dordrecht: Kluwer 1999, pp. 219–238 and Nersessian: »Model-Based Reasoning in Conceptual 113 Simulating Scientist Computer Model Type Mental model Computer simulation model Logic Operations Model-based reasoning, Abductions Deductions, Inductions Table 1: The coupled system of scientist and computer from an epistemic point of view In a nutshell, in the playful hero-v cycles the simulating scientist learns from experience. Two models co-evolve: The mental model of the scientist and the computer simulation model. The close interplay of deductive and inductive logic, as well as abductive reasoning, makes these playful hero-v cycles epistemically particularly innovative. In the preceding paragraphs, we have presented our epistemic argument based on hermeneutic phenomenology. It still has to be discussed whether the concept of experience is justified in the context of scientific computer simulation. In the philosophical tradition, the concept of experience has always been related to the notion of contact with the external world. In our context, there is no such contact in any direct way. The experience does not originate in the contact with the target. Rather, there is the contact with the physical materiality of the computer which can be experienced by our senses. We claim that the core mechanism described by Gadamer also holds for experiences in scientific computer simulation: »the negativity of experience has a curiously productive meaning«.69 We therefore want to defend the concept of experience in the epistemology of computer simulation. We claim that the role of experience in scientific computer simulation challenges the rationalist superiority of reason thesis. It states that the knowledge we gain in subject area S by intuition and deduction, or already have, is innately superior to any knowledge gained by sensual experience.70 During the playful hero-v cycles, the simulating scientist experiences the negativity in an act of perception of the simulation output that transforms into cognition without understanding. The lack of understanding is based on the epistemic opacity of simulations.71 More often than not, the computer will provide the result that the expectation of the scientist – her ad hoc hypothesis in a hero-v cycle – was wrong. There will not be any explanation given by Change« and Lorenzo Magnani: »Epistemic Mediators and Model-Based Discovery in Science«, in: Lorenzo Magnani and Nancy J. Nersessian, eds., Model-Based Reasoning. Science, Technology, Values, Dordrecht: Kluwer 2002, pp. 305–329. 69 Gadamer: Truth and Method, p. 353. 70 See Peter Markie: »Rationalism vs. Empiricism«, in: Edward N. Zalta, ed., The Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/archives/sum2015/entries/rationalism-empiricism/ (visited: October 29, 2016). 71 See Humphreys: Extending Ourselves; Paul Humphreys: »The Philosophical Novelty of Computer Simulation Methods«, Synthese 169 (2009), pp. 615–626 and Lenhard et al.: »Fluch und Segen«. 114 the computer for this result. We claim that the negative knowledge gained by sensual experience from watching the simulation results is – only during these hero-v cycles – superior to any knowledge the scientist gains by intuition and deduction, or innate knowledge. This is due to the complexity of the computer simulation model where the scientist cannot trust her intuition, deductions or innate knowledge. The negative knowledge that this experience provides is used to adapt the mental model of the scientist in a process of model-based reasoning. In the long run, the simulating scientist will also obtain positive knowledge and some of her ad hoc hypotheses will be confirmed. Still, there will not be any explanation given by the computer for this result. At this stage of the research process, the experiential processes will lose its superiority. It is the technology of the computer that allows making these experiences. The mathematical modeler analyzing her model will not be offered that opportunity. She has to exclusively rely on deductive logics and reason. This fascinating aspect, from the point of view of the simulating scientist, is that she can learn from her experience with a model that includes her theoretical conceptualizations. Notably, instead of the sharp dichotomy of thought and experience we find a productive interplay of both in the coupled system of scientist and computer. Work and Play in Scientific Computer Simulation In this section, we address the question how work, play and technology are interrelated in scientific computer simulation. We refer to a concept of work from the sociology of work and occupations as the activity of investigating constitutes a form of occupation. Work is a human activity that includes vividly debated and historically contingent features like goal-orientedness, exotelicity, effort, some degree of unpleasantness, use of tools, productivity and payment.72 Based on this concept of work, we argue that the simulating scientist is working with the computer while playfully gaming. Playful gaming is an essential element of work in scientific simulation. Playful gaming is integrated in the investigative practice of simulative scientific work. To put it differently, a simulating scientist cannot work without playfully gaming. We claim that the distinctive feature of playful gaming in working is the exotelicity and involuntariness of the play. Therefore, we reject the idea that the scientific practice of simulating is either play or work, or playful or serious. In the same way, we reject the dichotomies play/seriousness, extreme/reasonable and surface/depth 72 See Günter G. Voß: »Was ist Arbeit? Zum Problem eines allgemeinen Arbeitsbegriffs«, in: Fritz Böhle, Günter G. Voß and Günther Wachtler, eds., Handbuch Arbeitssoziologie, Wiesbaden: VS 2010, pp. 23–80, here p. 27. 115 that are put forward by Sundberg to distinguish cultures of simulation from cultures of calculation.73 As stated above, the simulating scientist’s playful gaming at work is not dependent on her playful state of mind. However, we argue that in those moments when the agon dimension is experienced by the scientist, she may move smoothly into a playful state of mind. In their professional training, simulating scientists learn to detach themselves from this experience. Conclusion Walter Benjamin’s statement, imitation »is at home in the playing, not in the plaything«74 reminds us of looking closely at every feature that is related to the anthropologically grounded and culturally diverse phenomenon of play. So, we have argued that Caillois’s dimension of mimicry is at home in the simulation model – and not in the simulating – while emphasizing that this dimension will not serve as our main argument. Drawing on concepts from the philosophy and sociology of play, this chapter has assessed the (weak) thesis that simulating in scientific computer simulation is playful investigating. Our perspective adds to the philosophy and epistemology of computer simulation that perceives the simulating scientist and her computer as a coupled system. Basically, there is a diversity of accounts available to theorize the coupling between the simulating scientist and her computer. The category of play has served us as such an account. Our perspective may be combined with rational reconstructions of the simulative research process. E.g., based on the arguments perspective – neither presupposed nor precluded in our account – Beisbart has argued that »running a computer simulation can be seen as a process in which a coupled system [of scientist and computer] reasons through the reconstructing argument«.75 His statement refers to a single simulation run. We claim that the kind of coupling can be further specified if several consecutive simulation runs are considered: Running a computer simulation can then be seen as a scientific practice in which a coupled system of scientist and computer reasons through the reconstructing argument by playing a game of types alea, agon and mimicry. Thus, reason and experience are the sources of the simulating scientist’s knowledge. Deductive and inductive logic, as well as abductions, serve the process of knowledge accumulation. 73 See Sundberg: »Cultures of Simulations vs. Cultures of Calculations?«. 74 Walter Benjamin: »Toys and Play. Marginal Notes on a Monumental Work«, in: Michael W. Jennings, Howard Eiland and Gary Smith, eds., Walter Benjamin. Selected Writings, Volume 2, Part 1, 1927–1930, Cambridge, Mass.: Harvard UP 2005, pp. 113–116, here p. 116. 75 Beisbart: »How can Computer Simulations Produce New Knowledge?«, p. 422. 116 In our outlook, we address the significance of the experiential processes and the questions of play and emotions, of playful investigating in general, and of play as a symbol of this world. The significance of the experiential processes. We propose to further explore how simulating scientists learn from experience. The co-evolution of the scientist’s mental model and the computer simulation model may be investigated by sociologists of science while the philosophy of science may theorize the significance of the experiential processes and search for such processes in other investigative practices. The (codified) methodology of computer simulation keeps quiet about the interplay between reason and experience. Our understanding of the experiential processes may in the long run put us in a position to rewrite some foundational statements on the methodology of computer simulation. Play and the question of emotions. In section 5.1, we argued that each hero-v cycle is accompanied by emotions because each result of a simulation run is perceived as an event. The phenomenology of play (Spiellust)76, as well as phenomenological hermeneutics, suggest that simulating is a rather emotional kind of research.77 Weinsheimer discusses alternating cycles of hope and disappointment in Gadamer’s account of experience.78 We propose to investigate how emotions influence the simulative research process. On the one hand, we suggest the influence of an emotional stimulus, a stimulus also observed in gaming simulation. On the other hand, we suggest the influence of an emotional bias that obstructs knowledge accumulation from simulation studies, notably if the model produces mediocre results. Spiellust makes it difficult to refute the created world. Playful investigating. We propose to ask if there are other examples of playful investigating, for instance experimentation. What do we learn from recognizing the play in investigative activities? The epistemology of play may reveal investigative practices that have not yet been described and theorized because they have just not been recognized. Play as symbol of the world. We suggest theorizing about the question of play and computer simulation by studying Fink’s works on Play as Symbol of the World. His question concerning play is led by a fundamental philosophical problem, the »relation between the human being and the world«.79 How is this relation changed by way of simulative research? 76 See Fink: Play as Symbol of the World and Other Writings. 77 See Gadamer: Truth and Method. 78 See Joel Weinsheimer: Gadamer’s Hermeneutics. A Reading of Truth and Method, New Haven: Yale UP 1985, p. 202. 79 Fink: Play as Symbol of the World and Other Writings, p. 80. 117 Francesco Amigoni and Viola Schiaffonati Robotic competitions as experiments: From play to work Abstracts In this paper, we plan to investigate the relationship between robotic competitions and scientific experiments. Traditionally robotic competitions have been conceived as useful scenarios for testing robots’ abilities in playful settings, given that the competitive element involved makes them attractive to an audience larger than that of experts. More recently, the attempt to frame those competitions as scientific experiments has gained increasing attention. Amongst the various reasons for this reframing, there is the effort to exploit already established infrastructures while developing a more rigorous and systematic approach to the experimental evaluation of robotic artefacts. However, the assimilation of robotic competitions to experiments is not as immediate as it may appear. Building on a careful analysis of results of some major robotic competitions (RoboCup and DARPA Robotic Challenge) we claim that in this context the classical notion of experiment should be reconsidered in the direction of an investigation rather than of a controlled process. The transition from robotic competitions as purely playful events (although with an exceptional amount of technology involved) to kinds of scientific experiments, where the abilities of robots are systematically tested, opens new and interesting ways of considering the interplay between play and work in a technoscientific context. In diesem Artikel möchten wir das Verhältnis zwischen Roboterwettbewerben und wissenschaftlichen Experimenten untersuchen. Traditionell wurden Roboterwettbewerbe als nützliche Szenarios aufgefasst, um die Fähigkeiten der Roboter in spielerischen Umgebungen zu testen, da das wettbewerbliche Element sie für ein größeres Publikum jenseits der Expertinnen und Experten attraktiver macht. Seit einiger Zeit erfährt der Versuch, diese Wettbewerbe als wissenschaftliche Experimente zu gestalten, zunehmende Aufmerksamkeit. Zu den vielen Gründen für diese Herangehensweise gehört die Anstrengung, bereits etablierte Infrastrukturen zu nutzen, während ein rigoroserer und systematischerer Ansatz entwickelt wird, um die experimentelle Bewertung der Roboter-Artefakte vorzunehmen. Dennoch ist die Anpassung von Roboterwettbewerben an Experimente weniger unmittelbar als es zunächst scheinen mag. Aufbauend auf die gründliche Analyse von Ergebnisse einiger wichtiger Roboterwettbewerbe (RoboCup und DARPA Robotic Challenge) behaupten wir, dass in diesem Rahmen der klassische Begriff des Experiments nochmals dahingehend überdacht werden muss, ob er nicht eher eine explorative Untersuchung als einen kontrollierten Prozess darstellt. Der Übergang von Roboterwettbewerben von rein spielerischen Veranstaltungen (obgleich dabei eine außergewöhnliche Menge an Technik zum Einsatz kommt) zu einer Art von wissenschaftlichen Experimenten, bei denen die Fähigkeiten des Roboters systematisch getestet werden, eröffnet neue und interessante Wege, das Wechselverhältnis von Spiel und Arbeit in einem technowissenschaftlichen Kontext neu zu betrachten. 119 Introduction In this paper, we investigate the relationship between robotic competitions and scientific experiments as forms of play (although with some peculiar features) and work, respectively. Rather than considering them as opposite, we aim to show how the currently observed transition of robotic competitions from mostly playful events to contexts for soundly scientific experimentation must be accompanied by a different notion of experiment that we label as explorative. Traditionally, robotic competitions have been conceived as useful scenarios for displaying a robot’s abilities in a playful setting, given that the competitive element involved makes them attractive to an audience larger than that of experts. More recently, the attempt to frame those competitions as scientific experiments has gained increasing attention.1 Amongst the various reasons for this reframing, there is the effort to exploit already established infrastructures, while developing a more rigorous and systematic approach to the experimental evaluation of robotic artefacts. For example, the fact that robotic competitions are repeated regularly over time is a way of promoting repeatability ‑ one of the golden standards of experimental methodology. However, the assimilation of robotic competitions to experiments is not as immediate as it may appear. To argue in this direction, we need to elucidate the recent attention to good experimental methodologies promoted in the autonomous robotic community and to clarify the way in which the notion of experiment is meant in this context. The discussion on experiments and the effort in developing good experimental methodologies have gained attention in autonomous robotics in the very last years. This field is oriented to develop robot systems that are autonomous in the sense that they have the ability to operate without continuous human intervention,2 to work in places hardly accessible by humans or in cooperation with humans in common environments. In autonomous robotics, human operators evolve from being active controllers of the robot systems to being more passive supervisors of the same robot systems. There are different reasons for the recent interest in experimentation in the field: from a scientific perspective, it concerns the desire of this rather novel community to adopt the same methodological standards of other scientific disciplines; from a more practical and industrial perspective, it deals with the possibility of measuring some parameters (e.g., safety of a home assistant robot) in a standard way and of having rigorous benchmarks to compare and evaluate different products. 1 See John Anderson, Jacky Baltes and Chi Tai Cheng: »Robotics competitions as benchmarks for AI research,« The Knowledge Engineering Review 26 (2011), pp. 11–17. 2 Generally speaking, and for the purpose of our presentation, a robot system is an artefact that interacts with the external environment through its sensors and actuators and that is controlled by software programs. 120 The interest in solidly-based experimental research in autonomous robotics increased progressively during the last 20 years. It is only recently that this interest has been coupled with a careful analysis on how the concept of experimentation should be translated in the practice of autonomous robotics, also giving rise to a debate about the status of the discipline itself. To this end, both the creation of the EURON Special Interest Group on Good Experimental Methodology in Robotics Research and the series of workshops about replicable experiments in robotics have played a decisive role.3 In particular, the workshop series has contributed to raise several issues and to increase the sensibility of the community on these topics.4 In the effort of improving the quality of experimental activities, some attempts have been made to take inspirations from how experiments are performed in the natural sciences,5 by trying to translate their general experimental principles (e.g., comparison, repeatability, reproducibility, justification, explanation, …) into the practice of autonomous robotics. However, a recent analysis suggests that these principles are not yet fully part of the current research practice.6 Notwithstanding the emphasis on the importance of reproducibility in order to increase the experimental level of the field and good practices to promote it, such as the availability of shared data and code, they are still not very common. In addition, the attempts to critically analyze how the main principles should be achieved in experiments with autonomous robots are largely unexplored. It is true that, dealing with technical artefacts, robotics cannot be plainly assimilated to a traditional scientific field where experiments are generally conducted for hypotheses testing purposes and with a strong theoretical background. At the same time, the type of experiment to which autonomous robotics aspires to conform is a controlled experiment, namely: »[…] a procedure in which some object of study is subjected to interventions (manipulations) that aim at obtaining a predictable outcome or at least predictable aspects of the outcome. Predictability of the outcome, usually expressed as repeatability of the experiment, is an essential component of the definition. Experiments provide us with informa- 3 See Fabio Bonsignorio, John Hallam and Angel del Pobil: »GEM Guidelines«, http://www.hero nrobots.com/EuronGEMSig/downloads/GemSigGuidelinesBeta.pdf (visited: 29.01.2017); Fabio Bonsignorio, John Hallam and Angel del Pobil: »Special interest group on good experimental methodologies«, http://www.heronrobots.com/EuronGEMSig/gem-sig-events (visited: 29.01.2017). 4 See Fabio Bonsignorio and Angel del Pobil: »Toward Replicable and Measurable Robotics Research«, IEEE Robotics and Automation Magazine September 2015, pp. 32–35. 5 See Francesco Amigoni, Monica Reggiani and Viola Schiaffonati: »An insightful comparison between experiments in mobile robotics and in science«, Autonomous Robots 27 (2009), pp. 313–325. 6 See Francesco Amigoni, Viola Schiaffonati and Mario Verdicchio: »Good experimental methodologies for autonomous robotics. From theory to practice«, in: Francesco Amigoni and Viola Schiaffonati, eds., Methods and Experimental Techniques in Computer Engineering, Cham: Springer 2014, pp. 37–53. 121 tion about regularities, and without predictability or repeatability we do not have evidence of anything regular«.7 Yet, the reality of autonomous robotics practice is rather different from that of the natural sciences, as robot systems are human-made artefacts. Accordingly, experiments have the goal to demonstrate that a given artefact is working with respect to a reference model (e.g., its design requirements or its expected behavior) and, possibly, that it works better than other similar artefacts with respect to some metrics. This kind of experiment brings them closer to typical engineering tests. To put it simply, experiments in engineering fields have other objects (technical artefacts rather than natural phenomena) and other purposes (testing rather than understanding) with respect to experiments in the sciences. At the same time, the most advanced robot systems are extremely complex, and their behavior is hardly predictable, even by their own designers, especially when considering their interactions with the natural world that are difficult, if not impossible, to model in a fully satisfactory way. In this sense, experiments in autonomous robotics also have the goal of understanding how these complex systems work and interact with the world and, therefore, are similar to natural science experiments. Within this framework, the assimilation of robotic competitions to experiments is not as immediate as it may appear. We claim that in this context the classical notion of experiment should be reconsidered to be an investigation rather than a controlled process. The transition from robotic competitions as purely playful events (although with an exceptional amount of technology involved) to kinds of scientific experiments, where the abilities of robots are systematically tested, is in line with a different view of experimentation, mostly focused on exploration. Here, the emphasis shifts from the traditional conception of experimental control to a different conception of control (a posteriori) and to forms of deliberate learning that characterize explorative experiments. Overall, the settings presented are a hopefully promising attempt of considering the interplay between play and work in a technoscientific context. In this paper, after discussing the evolution of robotic competitions from games to experiments (Section 2), we reason that robotic competitions cannot be considered controlled experiments in a traditional way (Section 3). Then, we attempt to broaden the framework of analysis by borrowing some ideas from the recent debate in the analytical philosophy of technology and in the philosophy of technoscience (Section 4). This will lay the groundwork for the notion of explorative experiments (Section 5). This, in return, is used to reframe robotic competitions (Section 6). Finally, we advance some concluding remarks (Section 7). 7 See Sven Ove Hansson: »Experiments Before Science. What Science Learned from Technological Experiments«, in: Sven Ove Hansson, ed., The Role of Technology in Science, Dordrecht: Springer, 2015, pp. 81–110, here p. 88. 122 Robotic competitions: From games to experiments Robotic competitions and challenges have flourished since the 1970 s.8 Now there are dozens of events per year. From the beginning, the ability of competitions playing several roles in robotics was recognized. For instance, competitions have the potential to promote education and research, push the field forward, entertain a general audience, and build a community.9 These roles often conflict with one another. Balancing them in devising a robotics competition has therefore been proven to be difficult.10 A robotics competition usually involves some robots, a dynamic, but rather controlled, environment, clear measures of success, and rules for calculating scores and ranking participants.11 One of the best-known examples is RoboCup,12 which has been taking place since 1996 and aims to provide standard problems to ensure the evaluability of various theories, algorithms, and architectures. RoboCup is a very attractive event, both for practitioners and for public in general. For example, when RoboCup 2016 took place in Leipzig (Germany), 3,500 participants were involved from more than 45 countries, who brought more than 1,200 robots to the event and more than 30,000 visitors. RoboCup features soccer, rescue, home, and industrial competitions, in which robots compete in dynamic unpredictable environments with real-time constraints. Competitions take place in both the real world and in a simulation. The environments are precisely defined and can be easily reproduced in different places (and they actually are, in regional RoboCup events). However, this is not true for other elements that characterize the competition, such as opponent teams as well as 8 In this paper, we consider robotic competitions and challenges as synonymous and, for the sake of brevity, we mostly speak of competitions. 9 R. Peter Bonasso and Thomas Dean: »A Retrospective of the AAAI Robot Competitions«, AI Magazine 18 (1997), pp. 11–23; Robin R. Murphy: »Using Robot Competitions to Promote Intellectual Development«, AI Magazine 21 (2000), pp. 77–90; Jennifer Casper, Mark Micire, Jeff Hyams, and R. Murphy: »A Case Study of How Mobile Robot Competitions Promote Future Research«, in: Andreas Birk, Silvia Coradeschi and Satoshi Tadokoro, eds., RoboCup 2001. LNAI 2377, Berlin: Springer 2002, pp. 123–132 and Moi-Tin Chew, Serge Demidenko, Chris Messom and Gourab Sen Gupta: »Robotics Competitions in Engineering Education«, Proceedings of the 4th International Conference on Autonomous Robots and Agents (ICARA 2009), Wellington: IEEE, 2009, pp. 624–627. 10 Anderson, Baltes and Cheng: »Robotics competitions as benchmarks for AI research«, pp. 11– 17. 11 Holly A. Yanco: »Designing Metrics for Comparing the Performance of Robotic Systems in Robot Competitions«, Workshop on Measuring Performance and Intelligence of Intelligent Systems (PERMIS), 2001; Elena R. Messina, Stephen B. Balakirsky and Rajmohan Madhavan: »The Role of Competitions in Advancing Intelligent Systems: A Practioner’s Perspective«, Proceedings of the 9th Workshop on Performance Metrics for Intelligent Systems, Gaithersburg: National Institute of Standards and Technology, 2009, pp. 105–108 and James Parker, Julio Godoy, William Groves and Maria Gini: »Issues with Methods for Scoring Competitors in RoboCup Rescue«, AAMAS Workshop on Autonomous Robots and Multirobot Systems, 2014. 12 RoboCup, http://www.robocup.org (visited: 29.01. 2017). 123 light and noise conditions. In the soccer competitions, the measures and criteria according to which two robot systems (teams) are compared are clearly defined only for the purposes of the game and basically consist in the number of scored goals per game (like in human soccer). In other leagues, like in RoboCup@Home, some attempts were recently made toward more solid procedures to benchmark and track the progress of robots in performing tasks.13 For instance, in RoboCup@Home, robots are tested in tasks involving their abilities to navigate, recognize and track people and objects, manipulate objects, and recognize speech and gestures. Scores are given to the performance of these abilities within a task, allowing to observe their evolution over time. Another successful and famous example of robotic competitions is represented by the DARPA Robotics Challenge (DRC) which consists of tasks related to human assistance in responding to disasters performed by autonomous humanoid-like robots able to operate in hazardous settings.14 After some early recommendations about being careful of not confusing a competition with research,15 a more recent trend is advocating to recast robotic competitions as experiments, because they offer an excellent vehicle for advancing the state of the art and evaluating new algorithms and techniques in the context of a common problem domain.16 Along the same line, there was a proposition to use competitions as benchmarks, since they provide standardized test beds that are largely independent of the specific settings roboticists usually experience in their laboratories. This allows a direct comparison of approaches for solving a task.17 A recent publication has further strengthened the relationship between robotic competitions and scientific experiments.18 While recognizing a difference in the scope between these two activities, the described approach is representative of the current tendency to promote a more rigorous attitude towards the design of robotic competitions. According to the authors, robotic experiments are characterized by the following features: a common testbed (provided through detailed specifications), specific performance metrics (standards of measurement of some desired characteristics), reproducibility and re- 13 Dirk Holz, Luca Iocchi and Tijn L.: »Benchmarking Intelligent Service Robots through Scientific Competitions. The RoboCup@Home Approach«, AAAI Spring Symposium on Designing Intelligent Robots: Reintegrating AI II, 2013 pp. 27–32. 14 DARPA Robotics Challenge, http://www.darpa.mil/program/darpa-robotics-challenge (visited: 29.01.2017). 15 Thomas Bräunl: »Research Relevance of Mobile Robot Competitions«, IEEE Robotics and Automation Magazine 6 (1999), pp. 32–37. 16 Monica Anderson, Odest Chadwicke Jenkins, and Sarah Osentoski: »Recasting Robotics Challenges as Experiments«, IEEE Robotics and Automation Magazine June 2011, pp. 10–11. 17 Sven Behnke: »Robot Competitions. Ideal benchmarks for Robotics Research«, Proceedings of the IROS Workshop on Benchmarks in Robotics Research, Beijing, October 2006. 18 Luca Iocchi, Dirk Holz, Javier Ruiz-del-Solar, Komei Sugiura and Tijn van der Zant: »ROBOCUP@HOME. Analysis and results of evolving competitions for domestic and service robots«, Artificial Intelligence 229 (2015), pp. 258–281. 124 peatability that, although not always performed in practice, should be considered as regulative ideals. In contrast, competitions involve the specification of the competition environment, the specification of robot requirements and constraints, specific performance metrics to rank the participants, and information about how competitions are organized and run. Thus, the environment specification represents a common element that, according to the authors, should be further strengthened in the direction of an experimental approach to robotic competitions. The interest in designing competitions as experiments has also resulted in two FP7 projects funded by the European Union (EU). euRathlon is an outdoor competition for robots involved in emergency-response scenarios with teams of terrestrial, marine, and aerial robots.19 The settings in which the competitions take place represent mock emergency-response scenarios, including conditions like limited visibility and salty water. Scores consist of measured quantities and subjective evaluations given by a human Judging Team. Data sets recorded during the competition are made publicly available to the community as a valuable tool for benchmarking, testing and comparison. The other EU-funded project is RoCKIn which addresses domestic (RoCKIn@Home) and industrial (RoCKIn@Work) environments,20 with a focus on autonomous service and industrial robots, respectively. Explicit emphasis is put on assessing, comparing, and evaluating competing approaches by means of benchmarking procedures and good experimental methods. One of the distinctive features of RoCKIn is its scoring system that is based on the presence of two classes of benchmarks, called task benchmarks and functionality benchmarks. The first one is devoted to evaluating the performance of integrated robot systems (in tasks like welcoming a visitor), while the second one focuses on the performance of specific subsystems (like object recognition and localization). Additionally, RoCKIn makes data collected during competitions available to the community. In general, we can say that competitions share some similarities with experiments. Robots usually compete in precisely definite settings and are scored according to precise performance measures, which parallels, at least to some degree, the controlled conditions and measures of experiments. However, competitions often evaluate whole robot systems, while experiments presented in the literature mainly evaluate a single robot ability or sub-system. Moreover, some competitions are designed to be performed just once, meaning that they are conceived as unique events without considering their reproducibility. In fact, they are not usually reproduced, while experiments aim at being reproducible. Therefore, (generally speaking) robotic competitions usually evaluate general abilities of robot systems and push to development of solutions, while experiments evaluate specific hypotheses, explore phe- 19 euRathlon, http://www.eurathlon.eu (visited: 15.02.2015). 20 RoCKIn, http://rockinrobotchallenge.eu (visited: 15.02.2015). 125 nomena, and share results. Accordingly, the question whether robotic competitions are experiments or not is far from being satisfactorily answered. Robotic competitions and controlled experiments In the previous section, while acknowledging some reasons for supporting the reframing of robotic competitions as scientific experiments, we have reported some of the differences already spelled out by Iocchi et al. for the context of autonomous robotics.21 In this section, we analyze in depth these differences and claim that, not only is the assimilation between robotic competitions and experiments far to come in practice but, at a more fundamental level, some issues prevent this assimilation from a conceptual point of view. Let us first consider the difference in the scope: if controlled experiments aim at demonstrating and measuring the performance of a system or of a component to solve a particular problem, competitions aim at directly comparing different solutions in a predefined testbed. This difference has impacts especially on the definition of the metrics, such as in experiments where they are usually defined with the aim of measuring the performance of a specific component, while in competitions they measure the system’s general ability for ranking purposes. The difference in the scope also has an influence on the definition of tasks in a competition, which in return affects how participants develop their solutions to the specified problems, often by endorsing generally suboptimal solutions that work well under restricted conditions. For instance, if the rules of a robotic soccer competition prescribe that the ball is red, then teams can perform well if their robots recognize red blobs in the images captured by onboard cameras, without possessing any general ability of recognizing balls. Let us focus on reproducibility and repeatability now. These are considered to be two of the fundamental principles of experimental methodology. Reproducibility is the possibility to verify, in an independent way, the results of a given experiment. It refers to the fact that other experimenters achieve the same results by starting from the same initial conditions, using the same type of instruments, and adopting the same experimental techniques. To be reproducible, an experiment must be fully documented. Repeatability concerns the fact that a single result is not sufficient to ensure the success of an experiment. A successful experiment must be the outcome of a number of trials performed at different times and in different places. These requirements guarantee that results have not been achieved by chance, but that they are systematic. Clearly, both principles are problematic when applied to the case of robotic 21 Iocchi, et al. »ROBOCUP@HOME«, pp. 258–281. 126 competitions. Reproducing a robotics competition is extremely difficult to obtain since the recreation of the same scenario is not feasible due to limitations in terms of time, space, and cost. One example of this is represented by the difficulty of reproducing the same surrounding environment in competitions that take place outdoors under different weather conditions. Moreover, repeatability of the same competition is usually not considered for organizational purposes, in particular due to its expensiveness in terms of time and for the meager attractiveness of this kind of activity for the audience. When regarding both principles, it is difficult to devise solutions without affecting the very nature of competitions. Notwithstanding the efforts in devising robotic competitions with a scientific attitude (see the RoCKIn project cited above for example), practical reproducibility of competitions over the years is also prevented by the fact that some evolution in the task selection is required to prevent overfitting and, therefore, to guarantee the success of the competition. Indeed, periodical competitions change the set of the selected tasks to increase the difficulty of the addressed problems and to provide different experimental conditions. For example, in RoboCup@Home, a task is changed by adding a phase that requires a new robot ability by means of increasing the number or the duration of the task activities (e.g., recognizing more people and track them longer), by removing constraints (e.g., people are not assumed to be seated), and by increasing environment clutter and background noise.22 Although repeatability could be achieved to some extent when provided with an adequate amount of organizational effort and expense, the temporal evolution of the competitions over the years is such a characterizing feature that a solution for implementing reproducibility is hardly conceivable or is conceivable at the expense of losing the attractiveness of competitions. So far, we have focused only on the difficulty of reproducing the same environmental conditions in different contexts, implicitly assuming the ability to test the same subject, namely the robots. However, robots are subject to change to comply with evolving requirements and technological development. A technoscientific framework for experiments We have argued that robotic competitions cannot be fully assimilated to controlled experiments, despite some similarities and the recent effort of the community to promote a more scientifically-based approach. As mentioned in the Introduction, autonomous robotics is situated in between science and engineering where the way in which experimentation is practically oriented is influenced by this position. The 22 Ibid. 127 characterization of autonomous robotics as an engineering science might probably be beneficial for reconsidering the relationship between robotic competitions and experiments within a wider and more articulated framework.23 Clearly, due to the peculiar nature of this filed, the traditional principles of controlled experimentation cannot be applied in a straightforward way. Even if the engineering sciences show a continuity with the natural ones, they work within the context of technological applications, with an interest in the development of technological devices, processes, and materials. Accordingly, experiments are mainly carried out to check whether these technical artefacts meet the desired specifications via the technological production of these phenomena, instead of theories.24 Technological production must be considered broadly in this discussion, including such activities as research, development, design, testing, patenting, maintenance, inspection, and so on, with attention to the everyday practice of engineers. This suggests an agenda for philosophical reflection on engineering that is distinct from the traditional philosophy of technology, mostly focused on the analysis of the social, cultural, and political impact of technologies.25 Moreover, technical artefacts, as physical objects with a technical function and use, that have been planned, designed and made by human beings,26 introduce a normative character to the experimental context in the evaluation of artefacts. This is entirely absent in natural sciences experiments. These aspects set the frame for a technoscientific perspective, namely that particular perspective that can be meaningfully summarized as an ›engineering way of being in science‹.27 The distinction between science from technoscience is a matter not only of terminological clarification, but also of guiding ideals and research orientations that shape practice in significantly different ways. Using the words of a programmatic paper: 23 The meaning of engineering science we refer to is Mieke Boon: »Scientific Concepts in the Engineering Sciences: Epistemic Tools for Creating and Intervening with Phenomena«, in: Uljana Feest and Friedrich Steinle, eds., Scientific Concepts and Investigative Practice, Berlin: De Gruyter 2012, pp. 219–243. She defines it as follows: »Engineering sciences, which is scientific research in the context of technological applications, is an example of a science in the context of application. Its purpose is scientific research that contributes to the development of technological devices, processes, and materials«. 24 Mieke Boon: »Understanding Scientific Practices: The Role of Robustness Notions«, in: Lena Soler, Emiliano Trizio, Thomas Nickles and Willian Wimsatt, eds., Characterizing the Robustness of Science after the Practical Turn of the Philosophy of Science, Dordrecht: Springer, 2012, pp. 289–315. 25 Ibo van de Poel: »Philosophy and Engineering: Setting the Stage«, in: I. van de Poel, and D. E. Goldberg, eds., Philosophy and Engineering: An Emerging Agenda, Dordrecht: Springer 2010, pp. 1–11. 26 Pieter Vermaas, Peter Kroes, Ibo van de Poel, Marteen Franssen and Wibo Houkes: A Philosophy of Technology. From Technical Artefacts to Sociotechnical Systems, Williston: Morgan & Claypool 2011. 27 Alfred Nordmann: »Science in the context of technology«, in: Martin Carrier, Alfred Nordmann, eds., Science in the context of application. Boston studies in the philosophy of science, Dordrecht: Springer 2010, pp. 467–482. 128 »Both science and technoscience involve an interplay of representing and intervening. Science is defined by its orientation to the epistemic ideal of purification […]. Technoscience is defined by its neglect or abandonment of this work of purification. […] Technoscience is therefore a kind of research where theoretical representation and technical intervention cannot be held apart even in thought«.28 As these authors emphasize, it is not always possible to distinguish if an observable effect is a contribution of the researchers or of nature. Both the observed phenomena and the effects appear to be engineered in a way that there is no interest in a work of purification. For instance, in the case of a pharmaceutical therapy it is irrelevant to try to understand the contributions achieved by technology and by nature to assess the effectiveness of the therapy. Mentioning biomedical research and laboratory experimental practice is useful to introduce an example of a type of experimental process which cannot be easily accommodated within the traditional notion of an experiment such as, for instance, the clinical trial of an analgesic. Here, the outcome looked for is effective pain reduction and the experimental intervention is the treatment that might be administered. According to Hansson,29 this is a directly action-guiding experiment which satisfies two criteria: (a) the outcome looked for consists in the attainment of some desired goal of human action (e.g., pain reduction) and (b) the interventions studied are potential candidates for being performed in a non-experimental setting in order to achieve that goal (e.g., treatment administered in ordinary conditions). This definition of directly action-guiding experiment frames the notion of experiment as a technological form of experimentation driven by practical needs. As Hansson carefully reconstructs, this form of experimentation has a non-academic origin and was already employed in pre-scientific times, playing a major role during the early Renaissance for the development of experimental methodology. The practical attitude of directly-action guiding experiments is contraposed by Hansson to epistemic experiments, namely experiments oriented towards the knowledge of the word we live where the desired outcome is the knowledge itself. Historical and philosophical accounts of experimental methods have been principally focused on epistemic experiments, and little attention was devoted to directly action-guiding ones. The idea that different notions of experimentation can coexist without any radical contraposition has only recently been pointed out in computer engineering, and still represents an exception to the mainstream framework depicted in the previous section for autonomous robotics. As reconstructed in detail in Tedre’s book dated in 28 Bernadette Bensaude-Vincent, Sacha Loeve, Alfred Nordmann and Astrid Schwarz: »Matters of Interest. The Object of Research in Science and Technoscience«, Journal of General Philosophy of Science 43 (2011), pp. 365–383, here p. 368. 29 See Sven Ove Hansson: »Experiments Before Science. What Science Learned from Technological Experiments«, in: Sven Ove Hansson, ed., The Role of Technology in Science, Dordrecht: Springer, 2015, pp. 81–110. 129 2015,30 at least five different views of experiments can be recognized in the computer engineering practice. There are feasibility experiments, aimed at empirically demonstrating (‘demonstration’ and ‘experiment’ are terms commonly used as synonymous in the field) the proper development and working of a technology. There are trial experiments, evaluating some aspects of a system using predetermined variables in a laboratory, and field experiments, aimed at evaluating these aspects of a system outside the laboratory, in the real world. There are also comparison experiments devoted to finding a befitting solution to a given problem by means of comparison. And, finally, there are controlled experiments, similar to those of the more traditional notion of experimentation and aimed at achieving generalization and prediction. Moreover, Tedre’s analysis presents evidence that the notion of control, usually an essential component in experimentation in the natural sciences, plays a different role in computer engineering and becomes critical. If, in the natural sciences, it is prescribed that the experimenter should be an outsider of the phenomenon to be explained, it is not clear how a person working in computer engineering, which is aimed at producing computation-based artefacts, could be an outsider with respect to a phenomenon (i.e., an artefact) that (s)he has created.31 Except from some significant examples, experiments in computer engineering are usually performed by the same person that has created the artefacts involved in the experiments, losing the sort of independence of the experimenter prescribed in the classical experimental protocol.32 The crisis of the traditional notion of experimental control was recently evidenced by Peter Kroes as well.33 His analysis of experiments with new technologies in socio-technical systems discusses the shift away from a control paradigm based on two assumptions: the experimenter is not part of the system on which the experiment is performed and (s)he is in control of the independent variables and of the experimental set-up. Accordingly, the experimenter is able to intervene both by changing these variables (to evaluate their influence on the dependent ones) and by varying the experimental set-up. This traditional control paradigm becomes problematic when considering new technologies as socio-technical systems, such as hybrid systems com- 30 Matti Tedre: The Science of Computing, Boca Raton: CRC Press, 2015. 31 Matti Tedre: »Computing as a Science. A Survey of Computing Viewpoints«, Minds and Machines 21 (2011), pp. 361–387. 32 Note that, in this work, we focus mainly on the activities in computer engineering which are carried out in universities and research centers, including robotic competitions, and not on industrial applications, where testing and experimentation are performed also by non-specialists, for example customers. However, also in this last case, a large part of initial testing of computer and robot systems deployed in industrial applications is performed by the computer engineers and roboticists who designed the systems. 33 Peter Kroes: »Experiments on Socio-Technical Systems. The Problem of Control«, Science and Engineering Ethics 22 (2016), p. 633–645. 130 posed of natural objects, technical artefacts, human actors, and social entities. A consequent shift in the notions of intervention and control can be observed. The idea of controlling the experimental system from a center of command that is outside the system becomes highly problematic because the distinction between the experimental system and its environment is blurred and the environment is complex due to the co-presence of technical artefacts and natural and social elements. Hence, the intervention on these systems involves not only controlling both technical artefacts and social elements, but also problematizes the drawing of the line between the experimental system and its environment. Explorative experiments The scenario previously described suggests that a framework simply adapting traditionally controlled experiments might be inadequate (following for example the one proposed by Mark Staples, who analyzed engineering epistemology in a Popperian framework34). This is not only due to the coexistence of different notions of experimentation in computer engineering (and in autonomous robotics as well), but also to a novel type of experimental intervention where the borders between the experimental setting and the general environment are blurred. The possibility of controlling them from the beginning of the experimental process is also meager. This is the reason why in this paper we use a different notion of experimentation, which is constructed on the conception of the directly-action guiding experiment, but is precisely shaped for autonomous robotics to see whether it can be applied to robotic competitions.35 Our concept, the explorative experiment, emphasizes that factual, actionguiding knowledge (and not only epistemic) reflects the peculiar status of autonomous robotics, a discipline that is constantly struggling between a scientific and an engineering characterization. The use of the term ›explorative‹ is, thus, both to mark down its difference with respect to the concept of the ›exploratory‹ experiment in the philosophy of biology and to stress its specificity to computer engineering. In some recent philosophical research, exploratory experimentation has been used to label those forms of experimentation in science, which are not always guided by theories. One of the first authors to recognize the epistemic importance of exploratory experiments is Steinle, who defines them as driven by the desire to obtain empirical regularities when no well-formed theory or no conceptual framework is avail- 34 Mark Staples: »Critical Rationalism and Engineering: Methodology«, Synthese 192 (2015), pp. 337–362. 35 Francesco Amigoni and Viola Schiaffonati: »Explorative Experiments in Autonomous Robotics«, in: Lorenzo Magnani and Claudia Casadio, eds., Model-Based Reasoning in Science and Technology, Logical, Epistemological, and Cognitive Issues, Cham: Springer 2016, pp. 585–599. 131 able.36 The same term is used with a slightly different meaning in another article published in the same year, but in the context of some early research in protein synthesis,37 where exploratory experimentation is considered a style of inquiry not guided by theory. These and other similar works are mainly directed against the theorydriven approaches of most of the philosophy of science, in the spirit of experimentation having a life on its own.38 They aim at showing the epistemic significance of inquiries presenting several detailed case-studies. The idea that »the aim of exploratory experiments is to generate significant findings about phenomena without appealing to a theory about these phenomena for the purpose of focusing experimental attention on a limited range of possible findings«39 is probably expressing the recent publications trend providing evidence of the exploratory shift observed in the methodology in some parts of biology.40 For our purposes, however, this emphasis on theory is out of scope, as it is not even completely clear what a theory in computer engineering is. In our attempt to characterize explorative experiments in computer engineering and in autonomous robotics we are interested,41 rather, in the appeal to complexity stressed in philosophical literature,42 where some systems are considered too complicated to be investigated by means of a theory-driven approach. If this appeal to complexity applies to biology, there are good reasons to apply it to autonomous robotics as well, especially considering that the experimentation subject is not just a technological artefact per se, but also an actor in the surrounding physical and social world. Explorative experiments are experiments that are driven by the desire of investigating the realm of possibilities pertaining to the functioning of an artefact (which, in the case of autonomous robotics, is a computation-based robot system) and to its interaction with the environment in absence of a proper theory or theoretical background. More precisely, explorative experiments are a special kind of directly action-guiding experiments possessing the following features: 36 Friedrich Steinle: »Entering New Fields. Exploratory Uses of Experimentation«, Philosophy of Science 64 (1997), pp. S65–S67. 37 Richard M. Burian: »Exploratory Experimentation and the Role of Histochemical Techniques in the Work of Jean Brachet, 1938–1952«, History and Philosophy of the Life Sciences 19 (1997), pp. 27–45. 38 Ian Hacking: Representing and Intervening, New York: Cambridge UP, 1983. 39 C. Kenneth Waters: »The Nature and Context of Exploratory Experimentation«, History and Philosophy of the Life Sciences 19 (2007), pp. 275–284, here p. 280. 40 Laura R. Franklin: »Exploratory Experiments«, Philosophy of Science 72 (2005), pp. 888–899. 41 Viola Schiaffonati: »Stretching the Traditional Notion of Experiment in Computing. Explorative Experiments«, Science and Engineering Ethics 22 (2016), pp. 647–665 and Amigoni and Schiaffonati: »Explorative Experiments in Autonomous Robotics«, p. 585–599. 42 R.M. Burian: »On MicroRNA and the Need for Exploratory Experimentation in Post-Genomic Molecular Biology«, History and Philosophy of Life Sciences 29 (2007), pp. 285–311. 132 • They are devoted to testing technical artefacts, meant as artificial entities purportedly built by humans to fulfill a purpose and, therefore, having a technical function. • They are focused on iteratively refining the intervention, meant as the union of knowledge and action characterizing experimental practice, and their ultimate purpose is not to test a general theory, but to probe the possibilities and the limits of the intervention. • They do not force a sharp distinction between designers and experimenters. Instead, the practitioners often become experimenters. • The control of the experimental factors cannot initially be fully managed. It is partially carried out after an artefact’s insertion into its environment (a posteriori control). Let us focus on control, in particular. Control over experimental conditions usually represents a defining feature of experiments. Not only is it necessary for experiments to intervene actively in the material world, producing all kinds of new objects, substances, phenomena, and processes, but: »[…] clearly not any kind of intervention in the material world counts as a scientific experiment. Quite generally, one may say that successful experiments require, at least, certain stability and reproducibility, and meeting these requirements presupposes a measure of control of the experimental system and its environment as well as a measure of discipline of the experimenters and the other people involved in realizing the experiment«.43 However, taking explorative experiments into considerations, we observe a different conception of control that is in accordance to the fact that these kinds of experiments are performed to gain confidence on the behavior of robot systems. Therefore, achieving control over the experimental factors is only possible as the experiment proceeds without prior full predictability. For instance, the influence of the environment on the robot’s behavior is mostly unpredictable before empirical testing, since usually a solid theoretical framework is not available when dealing with very complex technical artefacts. Thus, in explorative experiments control could be intended in a posteriori form, in opposition to a priori form that usually takes place in traditional experimental contexts. If, in the latter, experimental factors are fully in control of the experimenter in a sort of anticipation of the scenario to be tested, in the former, the possibility of anticipation disappears and the option for control is in the exploration after a robot system has been introduced to its environment. Another element to take into account discussing explorative experiments is learning. In particular, the form of learning taking place during experimental processes that allow experimenters to improve their knowledge and confidence about artefacts 43 Hans Radder: »The Philosophy of Scientific Experimentation. A Review«, Automated Experimentation 1 (2009), doi:10.1186/1759-4499-1-2. 133 on the basis of the outcomes of the experiments. Learning ‑ as the deliberate attempt to learn from the results of an experimental process ‑ was recently proposed as an essential element of experimentation within the framework of introducing new technologies in society as social experiments. In particular, learning-by-experimentation was defined as a compromise between leaning-by-anticipation and learning-by-doing: »We might now position learning-by-experimentation between learning-by-doing and learning-by-anticipation. It is similar to learning-by-doing in that it takes place during the actual introduction of a technology in society. Still, it is more anticipatory than regular learning-by-doing because it takes place in a research setting with at least the partial aim to learn something. Ideally then, learning-by-experimentation allows for learning things that cannot be learned by anticipation and at the same time is less costly than learningby-doing«.44 Learning-by-experimentation takes place also in autonomous robotics,45 where different examples of experiments can be labelled as explorative and can be roughly classified as follows:46 Investigating the role of parameters. In this case, experiments are explorative because they are used to elucidate the relationship between the values of the parameters and the behavior of robot systems that the designer only has a rough a priori idea of. Confirmation of expectations or hypotheses. In developing robot systems designers usually consider and build upon a set of expectations regarding the behavior of artefacts when inserted in their operating environments. However, building reliable models of the interaction between robots and their environments is not easy, and hypotheses can be only empirically confirmed since they are not based on a solid theoretical ground. In this case, experiments provide a valuable feedback to the design phases. Getting insights on the behavior of the robot systems. Another form of explorative experimentation is represented by those processes used to acquire knowledge on how robot systems perform their tasks. These experiments provide quantitative results used by the robot designers to inspect, and possibly modify, the design of the internal methods of the robot system, thus providing a more profound knowledge than the one acquired in investigating the role of parameters. 44 Ibo van de Poel: »Society as a Laboratory to Experiment with New Technologies«, in: Elen Stokes, Diana Bowman and Arie Rip, eds., Embedding and Governing New Technologies, Singapore: Pan Stanford, forthcoming. 45 Note that – although we discuss what experimenters can learn from the outcomes of experiments in this article – a promising extension of this framework could involve also learning processes that take place in autonomous robots and, in particular, the ways in which robots can autonomously modify their behaviour according to the same outcomes. 46 Further details in: Amigoni and Schiaffonati: »Explorative Experiments in Autonomous Robotics«, pp. 585–599. 134 Assessing the generality of the robot systems. Amongst the different forms of explorative experimentation, the most elaborated one is that used to gain knowledge about the behavior of robot systems in different settings in order to evaluate their generality. A particularly relevant situation is that of robot systems designed for an environment characterized as error-free, which are later experimentally tested in a setting with noisy data or data that the robot system has never experienced before. Competitions as explorative experiments So far, we have demonstrated how the concept of explorative experiment gives reason to a part of the experimental practice in autonomous robotics. In this section, we argue that robotic competitions can be interestingly reframed as explorative experiments. This reframing is not only important from a conceptual point of view, but could also be useful from a practical standpoint in devising appropriate guidelines for a more rigorous and scientifically sound approach to robotic competitions. Robotic competitions seem to exhibit the four features that characterize explorative experiments. Robotic competitions are devoted to testing technical artefacts against each other, specifically the computation-based technical artefacts that are robots. Moreover, robotic competitions, considered from an experimental perspective, do not test general theories, but rather the possibilities and the limits of robotic system intervention in complex environments. For example, RoCKIn was specifically designed to rigorously test autonomous robots using benchmarks. They were tested both in realistic domestic and industrial environments.47 Also, competitions as experiments are often performed by the same practitioners who have designed the robots or the software program controlling their behaviors. Finally, the notion of control characterizing explorative experiments (namely, the idea that control cannot be fully managed from the beginning but is in part carried out after a technical artefact has been inserted into its environment) affects robotic competitions too. Even if many elements, particularly those regarding the architecture of the competition (e.g., the size and the color of the fields in which robots play soccer), are under control, other elements such as repeatability and reproducibility are still problematic. For instance, there are limitations in controlling all the issues relative to a robot system before it starts playing a soccer game with unknown teammates and adversaries, as 47 Francesco Amigoni, Enrico Bastianelli, Jacob Berghofer, Andrea Bonarini, Giulio Fontana, Nico Hochgeschwender, Luca Iocchi, Gerahrd Kraetzschmar, Pedro Lima, Matteo Matteucci, Pedro Miraldo, Daniele Nardi and Viola Schiaffonati: »Competitions for Benchmarking. Task and Functionality Scoring Complete Performance Assessment«, Robotics & Automation Magazine 22/3 (2015), pp. 53–61. 135 done in RoboCup.48 Hence, a further development of the a posteriori control concept might be important in the robotic competitions context in order to maintain control as a central focus, even if it is in a reduced manner. The DRC (DARPA Robotics Challenge) that was mentioned previously provides some evidence of such a posteriori form of control. The competition was designed having (implicitly) humanoid robots in mind, although their use was not explicitly enforced by the rules. It turned out that the winner team, Team KAIST from South Korea, used a humanoid robot able to transform and switch back and forth from a walking biped to a wheeled platform by simply kneeling down. According to many observers, this was the key to its victory, emphasizing the role of architectural flexibility that was not adequately considered in the competition design. Another example could be that of a competition for home robots fulfilling a task like »welcoming a visitor«. The score reflects the number of achieved goals, like identifying the visitor correctly, opening the door, greeting the visitor, and so on. However, as a form of a posteriori control, designers of the competition could decide to also include the average distance between the robot and the visitor into the score, because they noticed unexpected behaviours during the runs at the competition. In the previous section, we have argued that, in the context of explorative experiments, learning, and in particular learning-by-experimentation, acquire further importance as a defining element of experimentation. The emphasis on learning is also an important element for robotic competitions, when their experimental structure is investigated. The deliberate attempt to learn characterizes robotic competitions in a way that we indeed might say that learning is one of the reasons why competitions are devised and carried out. From the participant’s point of view, learning is acquiring knowledge about how robots perform in order to improve them and to design better robots. From the organizers’ point of view, learning involves evolving the competitions to keep them challenging for the participants and appealing for the public. In this sense, learning-by-experimentation seems to depict the form of learning carried out in robotic competitions properly. In conclusion, robotic competitions present some of the characteristic elements of explorative experiments that we have listed in the previous section and, for this reason, they are better conceived in the framework of explorative experiments rather than in that of controlled ones. 48 See Katie Genter, Tim Laue and Peter Stone: »Three Years of the RoboCup Standard Platform League Drop-in Player Competition. Creating and Maintaining a Large Scale Ad Hoc Teamwork Robotics Competition«, Autonomous Agents and Multi-Agent Systems 31 (2017), pp. 790–820. 136 Conclusions In this paper, we have argued that the recent attempt in the autonomous robotics community to equate robotic competitions to controlled experiments presents several limits, not only because of the lack of experimental practice in that field, but also because of some important conceptual differences. We have thus proposed to reconsider the traditional notion of experiment in a technoscientific context and have found traces of a novel type of experimental intervention where the border between experimental setting and environment is blurred, as well as the possibility of controlling the experimental factors from the beginning. Being inspired by the idea of directly action-guiding experiments, we have therefore proposed the novel notion of explorative experiments and demonstrated how this reflects the experimental practice of autonomous robotics. Finally, we have discussed how robotic competitions can be profitable when reframed as explorative experiments. This reframing does not negate the actual trend of seeing robotic competitions as experiments; rather strengthens it further. However, this is restricted to an explorative context that appears to be more appropriate to an engineering science such as autonomous robotics. Moreover, it promotes an active interaction between play and work, two elements that fruitfully coexist and influence each other in robotic competitions. Even if not investigated in this paper, we believe that the idea of experimentation as performance might be an interesting point towards this direction and that guidelines for robotic competitions should be proposed accordingly.49 49 Robert P. Crease: The Play of Nature. Experimentation as Performance, Bloomington: Indiana UP 1993. 137 G. Günter Voß Arbeitende Roboter – Arbeitende Menschen Über subjektivierte Maschinen und menschliche Subjekte Abstracts Der Beitrag fokussiert die aktuelle Entwicklung KI-basierter neuer Technologien und deren Folgen für Arbeit und Arbeitende. Annahme ist, dass wir innerhalb dieses Prozesses zunehmend technische Systeme erleben, die menschenähnliche Eigenschaften bekommen. Mit Bezug auf eine aktuelle arbeitssoziologische Kategorie kann dies als eine ›Subjektivierung‹ von Maschinerie verstanden werden, die eine Herausforderung von nahezu anthropologischen Qualitäten bedeutet. Die einzig hilfreiche Reaktion mag sein, so die Vermutung des Beitrags, sich daran zu erinnern, dass wir lebendige Wesen sind – und Roboter nicht. Ein erneuter Blick auf uns als »lebendige Arbeitsvermögen« und »Gattungswesen« (Marx) könnte die einzige Chance sein, Potenziale zu entwickeln, die den neuen Technologien entgegengesetzt werden kann. Anders gesagt: Es geht um eine neue Qualität der Subjektivierung unserer selbst, die tiefer geht als das, was Foucault gesehen hat – es geht zurück zu unserer biologischen Basis. Für diese Vorstellung wird ein Begriff ›ursprünglicher Subjektivität‹ vorgestellt und Konzepte zum ›Spiel‹ diskutiert, für das gelegentlich Wurzeln in der menschlichen Lebendigkeit vermutet werden. The paper focuses on the current AI based development of new technologies and its consequences for work and workers. In this process, we increasingly face technological systems with human-like characteristics. Referring to a current sociology of work category, this can be seen as a »subjectivation« of machinery, which will cause a challenge of near anthropological qualities. I propose that the only useful reaction may be to remember that we are living beings – and robots are not. A renewed focus on us as »living labor capacity« (»lebendiges Arbeitsvermögen«) and »species being« (»Gattungswesen«) (Marx) could be the only chance to develop potential for confronting the new technologies. In other words: we must perform a new quality of subjectivation of ourselves, going deeper than what Foucault saw and going back to our biological basis. For this purpose, the paper unfolds a category of »ursprüngliche Subjektivität« (original subjectivity) and discusses concepts on »play«, occasionally seen as having its roots in human liveliness. Der Einsatz automatisierter Technik auf Basis neokybernetischer Mechanismen hoch entwickelter »Künstlicher Intelligenz« (KI) beschäftigt intensiv die Öffentlichkeit. Das Thema wird von großen Hoffnungen, aber auch von vielfältigen Befürchtungen begleitet, vor allem mit Blick auf die Arbeitswelt. ›Roboter‹ können dabei im einem weiteren Sinne stellvertretend stehen für ein breites Feld neuer Technologien mit Leistungspotenzialen, die bisher ausschließlich Menschen zugeschrieben wurden, mit der Folge, dass weitreichende Arbeitsplatzverluste drohen. Langfristig noch bedeutsamer ist jedoch, dass sich die inhaltliche Logik vieler Arbeitszusammenhänge grundlegend verändert, wenn Maschinen zunehmend menschenähnliche Eigenschaf- 139 ten bekommen und dadurch eine völlig neuartige Qualität der Mensch-Maschine- Beziehung entsteht. Die menschliche Arbeitskraft steht infolge dessen vor der Frage, welche Fähigkeiten sie gegenüber robotisierten Systemen noch exklusiv anzubieten hat, und damit auch vor der letztlich anthropologischen Herausforderung, zu entscheiden, was der Mensch angesichts der Veränderungen überhaupt ist oder sein will. Annahme der folgenden Überlegungen ist, dass die Suche nach solchen Potenzialen an dem ansetzen muss, was Menschen von neuartigen Maschinen unterscheidet: Sie sind im Kern Naturwesen. Dies erfordert, so die These, ein verändertes Verständnis von Arbeitskraft, das eine arbeitssoziologisch als ›Subjektivierung‹ bezeichnete Entwicklung im Übergang zum 21. Jahrhundert auf neuer Stufe fortsetzen und auf ein die menschliche Lebendigkeit generell wesentlich tiefgreifender als bisher fokussierendes gesellschaftliches Subjektverständnis hinauslaufen müsste. Anlass für eine solche erweiterte Subjektivierung von Arbeitskraft ist der aktuelle Wandel von Technologie, der hier als ›Subjektivierung der Maschinen‹ verstanden wird. Hintergrund der Überlegungen ist die langjährige soziologische Beschäftigung mit dem Wandel von Arbeit unter besonderer Beachtung der sich verändernden Bedeutung menschlicher Subjektivität.1 Dieser Fokus wird hier erstmals auf den technischen Wandel gerichtet, wozu einige aktuelle arbeitssoziologische Konzepte (›Entgrenzung‹, ›Subjektivierung‹) neu ausgedeutet werden. Dabei wird auf vielfältige theoretische Ressourcen zurückgegriffen – nicht zuletzt auf einen subjektsensibel gelesenen Marx, dessen Andeutungen zum ›Gattungswesen‹ und zum ›lebendigen Arbeitsvermögen‹ mit anderen im weiteren Sinne anthropologischen Ideen verbunden werden. Nach einem kurzen Blick auf robotisierte Technologien werden, notwendig kursorisch, ausgewählte philosophisch-anthropologisch inspirierte Gedanken gesichtet, mit dem Ziel einer Systematik basaler lebendiger Fähigkeiten von Menschen als Grundlage für einen Begriff ›ursprünglicher Subjektivität‹. Dieser kann hilfreich sein für die Suche nach Potenzialen, auf deren Basis Menschen in der Konkurrenz mit einer neuen Generation algorithmengesteuerter Maschinen bestehen können. Eine Diskussion ausgewählter Analysen zum Spiel soll weitere Anregungen für eine solche Suche bieten. 1 Vgl. allgemein u.a. G. Günter Voß und Hans Pongratz (Hg.): Subjektorientierte Soziologie, Opladen 1997. 140 Arbeiten Roboter? »Roboter« können als paradigmatisch für die Qualität des aktuellen technologischen Wandels gelten, der hier im Fokus steht.2 Dazu zunächst einige Erläuterungen. Warum »Roboter«? Der Ausdruck »Roboter« hat eine literarische Vergangenheit. Urheber ist der Dramatiker Karel Čapek, der in den 1920er Jahren für ein Theaterstück3 nicht nur den Begriff schuf, sondern dem Gegenstand bis heute nachwirkende Konnotationen mitgab – vor allem die Faszination für geheimnisvolle mechanisch-lebendige Halbwesen. Auch vorher schon lösten immer wieder hybride Figuren (Homunkulus, Golem, Zombie, Frankensteins Kreatur, Fritz Langs Maria, aktuell der Cyborg u.v.a.m.)4 ähnliche mit Ängsten und Hoffnungen verbundene Phantasien aus, die sich bis heute in literarischen und filmischen Erscheinungen spiegeln. Reale technische Automaten im engeren Sinne (deren Vorläufer bis in die Antike zurückreichen) erfahren spätestens mit der Entwicklung feinmechanischer Uhrwerke einen Auftrieb in Europa. Als dann elektrisch betriebene Apparate entstanden, wurden an Menschen (und Tiere) erinnernde Apparaturen im modern-technischen Sinne zu zeitgemäßen Zwischenwesen.5 Derartige teillebendig wirkende Artefakte tauchen nun erneut mit großer Macht und Verbreitung auf – aber nicht mehr nur als literarische Hirngespinste oder spiel- 2 Die Literaturlage zu »Roboter« ist heterogen – eine kleine Auswahl, die hier interessieren könnte: Andreas Bischof: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik, Bielefeld 2017; Erik Brynjolfsson und Andrew McAfee: The Second Machine Age, Lexington 2012; Rafael Capurro (Hg.): Homo Digitalis, Heidelberg 2017; Frank Dittmann: »Maschinenintelligenz zwischen Wunsch und Wirklichkeit«, in: Claus Pias (Hg.): Zukünfte des Computers, Zürich 2005, S. 133–155; Maria I.A. Ferreira u.a.: A World with Robots. International Conference on Robot Ethics 2015, Cham 2017; Martin Ford: Rise of the Robots, New York 2015; Katherine Hayles: How we became posthuman, Chicago 1999; Bernhard Irrgang: Posthumanes Menschsein? Künstliche Intelligenz, Cyberspace, Roboter, Cyborgs und Designer, Stuttgart 2005; Spyro Tzafestas: Introduction to Robophilosophy, Gistrup 2016. 3 Karel Čapek: Rossum’s Universal Robots. Utopistisches Kollektivdrama in 3 Aufzügen, Prag und Leipzig 1920. 4 Vor allem der »Golem« ist eine oft bearbeitete hybride literarische Figur. Auch in Ernst T. A. Hoffmanns: Der Sandmann, Ditzingen 2015 taucht eine hybride, golemähnliche Figur auf und Stanislaw Lem nennt einen Computer »Golem«: Also sprach Golem, Frankfurt am Main 1986. Vgl. als Überblick Thomas Tabbert: Menschmaschinengötter. Künstliche Menschen in Literatur und Technik. Fallstudien einer Artifizialanthropologie, Hamburg 2004 und Kevin Lagrandeur: Androids and Intelligent Networks in Early Literature and Culture, London 2017. Siehe auch Klaus Völker: Künstliche Menschen. Dichtungen und Dokumente über Golems, Homunculi, Androiden und lebende Statuen, Frankfurt am Main 1994. 5 Bekannt sind die Automaten von Jacques de Vauconson und Wolfgang von Kempelen (v.a. der »Schachtürke«) aus dem 18. Jahrhundert. Vgl. Klaus Grubmüller und Markus Stock (Hg.): Automaten in Kunst und Literatur des Mittelalters und der Frühen Neuzeit, Wiesbaden 2003. 141 zeugähnliche Apparaturen. Jetzt handelt es sich um praktisch nutzbare technische Gebilde mit bislang ungeahnten Möglichkeiten, die aufgrund ihres unklaren ontologischen Status nicht selten schlicht als ›Wesen‹ oder ›Entitäten‹ angesprochen werden. Begleitet wird ihre Verbreitung von der diffusen Ahnung, dass die Folgen erheblich sein werden – nicht nur für die Arbeitswelt. Trotz mancher Skepsis bestätigt sich die Diagnose immer mehr, dass sich gerade mit rasanter Geschwindigkeit eine neue Stufe technologischen Wandels vollzieht.6 Hinzu kommt, dass Roboter im engeren Sinne nur die Spitze eines technologischen ›Eisbergs‹ sind, der zahlreiche robotisierte Technologien umfasst: • industrielle Produktionssysteme mit höchsten Automations- und Vernetzungsgraden, • Assistenzapparaturen in vielfältigen Dienstleistungsbereichen, • automatisierter Güter- und Personentransport, • neuartige Militär-, Sicherheits- und Überwachungstechnologien, • zunehmend vernetzte Haushalts- und Körpertechnologien, • algorithmische Steuerungen, die große Teile der Kommunikation und Informationsbeschaffung im Alltag beeinflussen. Dass hier trotzdem von ›Robotern‹ gesprochen wird und sie für das Folgende als illustratives Bild gelten können, hat einen besonderen Grund. Sie versinnbildlichen perfekt, dass die neuen Technologien den Menschen in einer Weise ähnlich werden und gegenübertreten, wie man sich das bisher nicht hat vorstellen können. Die zunehmende Konstruktion von Humanoiden und Androiden (in Teilen oder vollständig menschenähnlich) deutet an, was passiert: die aufwändige Entwicklung und praktische Verbreitung technischer Systeme mit kreaturhaften Eigenschaften, die dem Menschen fast als gleichwertige Partner gegenüberstehen.7 6 Vgl. die US-Expertise zur Zukunft von Informatik und Robotik: Barbara J. Grosz u.a.: One Hundred Year Study, Stanford 2016 (https://ai100.stanford.edu/2016-report, aufgerufen: 26.07.2017) sowie den Expertensurvey von Katja Grace u.a. When Will AI Exceed Human Performance? Evidence from AI Experts, Oxford/New Haven 2017 (https://arxiv.org/abs/ 1705.08807, aufgerufen: 27.07.2017); s.a. Brynjolfsson und McAfee: The Second Machine Age und Ford: Rise of the Robots. 7 Besonders irritierend sind die Geschöpfe von Hiroshi Ishiguro, vgl. Erico Guirizzo: »Hiroshi Ishiguro: The Man Who Made a Copy of Himself«, in: IEE Spectrum, 23.04.2010 (http://spectrum.ieee.org/robotics/humanoids/hiroshi-ishiguro-the-man-who-made-a-copy-of-himself, aufgerufen 26.07.17), s.a. die Webseite des Instituts von Ishiguro in Osaka (http://www.geminoid.jp/en/index.html, aufgerufen: 26.07.17). Eindringlich zu Humanoiden und Androiden ist ein Guardian-Video von Ilinca Calugareanu: »Erika – Man Made«, https://www.theguardian.com/ technology/ng-interactive/2017/apr/07/meet-erica-the-worlds-most-autonomous-android-video (aufgerufen: 09.07.2017). Siehe auch die arte-Dokumentation zur Arbeit des Mediziners und Photographen Max Aguilera-Hellweg über Humanoide: »Roboter – Noch Maschine oder schon Mensch?«, https://www.youtube.com/watch?v=frkf8ptRUjA (aufgerufen: 26.07.2017). 142 Subjektivierte Maschinen – zur Arbeit der Roboter Die derzeitige öffentliche Diskussion um Robotik dreht sich vor allem um die Sorge, dass in großer Zahl Arbeitsplätze verloren gehen könnten. Prognosen dazu sind jedoch mit Vorsicht zu bewerten, da eine realistische Einschätzung der quantitativen Folgen des zunehmenden Einsatzes robotisierter Technologien für das Beschäftigungssystem so gut wie nicht möglich ist.8 Schon oft wurde der Einsatz von Automatisierungstechnik zum Arbeitsplatzkiller erklärt – und es kam dann doch anders. Sicher ist jedoch, dass die konkreten arbeitspraktischen Folgen für viele Tätigkeitsfelder erheblich sein werden, weil die neuen Systeme selbst arbeiten9 und damit direkt in Konkurrenz zu arbeitenden Menschen treten. Robotisierte Apparaturen und Prozesse greifen mit tiefgreifenden Folgen in Domänen ein, die man bislang als genuin menschlich hat ansehen können: • Der Einsatz komplexer informationstechnischer Steuerungen unterscheidet neue Systeme fundamental von traditionellen Arbeitsmitteln, da dort nun nahezu geistige Qualitäten einziehen, die z.B. große Informationsmengen verarbeiten und daraus selbständig und flexibel Schlüsse ziehen können (big data processing). • Neue Technologien zeigen Freiheitsgrade, die an eine Selbsttätigkeit im engeren Sinne heranreichen. Algorithmen machen möglich, dass Systeme Steuerlogiken ändern und eigenständig Zielparameter entwickeln. • Die fortgeschrittene Künstliche Intelligenz erlaubt ein selbstbestimmtes Lernen von Maschinen, so dass Systeme fähig werden, komplexe Erfahrungen zu machen, autonom zu verarbeiten und auszutauschen sowie innovative Funktionen zu übernehmen und damit so etwas wie »Kreativität« zu entwickeln (deep-machine-learning). • Neue Technologien sind in der Lage, untereinander sowie vor allem mit Menschen direkt zu interagieren und nicht nur produktiv zu kollaborieren, sondern zu kooperieren (social robotics, human-robot-interaction). 8 Selbst seriösere Prognoseversuche muss man kritisch lesen: Die viel zitierte Oxford-Studie von Carl B. Frey und Michael Osborne: The Future of Employment, Oxford 2013 etwa nennt zwar 47% Berufsbereiche die automatisiert werden könnten, sagt aber keineswegs, wie viele Arbeitsplätze definitiv wegfallen werden. Eine deutsche Studie zeigt ähnliche Befunde, urteilt aber deutlich vorsichtiger: Holger Bonin, Gregory Terry und Ulrich Zieahn: Übertragung der Studie von Frey/Osborne (2013) auf Deutschland, Mannheim 2015. Siehe aktuell auch James Hughes und Kevin Lagrandeur (Hg.): Surviving the Machine Age. Intelligent Technology and the Transformation of Human Work, Cham 2017; Richard F. Susskind und Daniel Susskind: The Future of the Professions. How Technology will Transform the Work of Human Experts, Oxford 2015. 9 Robotisierte Systeme erfüllen fast alle üblicherweise genannten Merkmale von ›Arbeit‹, wenn man ein weites Verständnis anlegt; vgl. G. Günter Voß: »Was ist Arbeit?«, in: Fritz Böhle, G. Günter Voß und Günther Wachtler (Hg.): Handbuch Arbeitssoziologie, Wiesbaden 2010, S. 23– 80. Ausführlichere Überlegungen dazu müssen einer weiteren Veröffentlichung vorbehalten bleiben. 143 • Sensoriken sind inzwischen derart weit entwickelt, dass Roboter nahezu frei in sozialen Umgebungen agieren und sensibelste Aufgaben im unmittelbaren Kontakt mit Menschen, etwa in der Medizin, übernehmen können. • Noch ungewohnt ist, dass robotisierte Systeme die Fähigkeit erhalten, bei Menschen Gefühle zu stimulieren und Gefühle zu verstehen (emotional robotics, empathic robotics). • Ob Roboter Intelligenz entwickeln können, ist umstritten. Robotiker sind sich aber sicher, dass ihre Maschinen zumindest teilweise intelligenzähnliche Fähigkeiten besitzen (schwache KI). Festzuhalten ist, dass die technische Entwicklung eine qualitativ neue Stufe erreicht hat: Roboter agieren nicht mehr nur verstärkt automatisiert, sondern mit wachsenden Freiheitsgraden auch autonomisiert. Es zeichnet sich ab, dass Fähigkeiten der Roboter die Fähigkeiten der Menschen nicht nur kopieren, sondern in Vielem übertreffen werden, etwa bezüglich Ausdauer, Präzision, Zuverlässigkeit, logischer Kombinatorik, Speicherung und Verarbeitung komplexer Informationen u.a.m. Auch traditionelle Maschinen überstiegen oft die Fähigkeiten von Menschen, aber mit der derzeitigen Entwicklung wird dies noch einmal drastisch gesteigert. In der teilweise überhitzten öffentlichen Debatte stehen sich hohe Erwartungen und große Skepsis, nicht selten gepaart mit erheblichen Befürchtungen, gegenüber. Eine nüchterne Betrachtung sollte sich davon aber nicht allzu stark beeinflussen lassen. Schwankungen zwischen Euphorie und Ernüchterung treten in der Technikentwicklung immer wieder auf. Auf jeden Fall gilt aber: Die Dynamik ist erstaunlich, die Entwicklungsschritte sind beeindruckend und manchmal erschreckend und die besorgten Fragen nach den drohenden Arbeitsplatzfolgen sind berechtigt.10 Es besteht also genug Anlass zu der Frage, was es bedeutet, wenn Roboter den Menschen auf so irritierende Weise gleichen und mit ihnen in Kontakt treten. Wenn sogar die Deutsche Akademie für Technikwissenschaften festhält: »Der Abstand zwischen Mensch und Maschine verringert sich, teilweise löst er sich ganz auf«,11 kann dies zu denken geben. Mit Bezug auf eine aktuelle arbeitssoziologische Diskussion könnte man sagen, dass auch der bisher als unaufhebbar geltende Unterschied zwischen Menschen und Maschinen einer ›Entgrenzung‹ unterliegt, so wie andere für selbstverständlich und irreversibel gehaltene Unterschiede in letzter Zeit auch, etwa der zwischen formeller Arbeit und privatem Leben. Noch bedeutsamer ist, dass Maschinen im Zuge der ge- 10 Dass die Ängste verbreitet sind zeigt z.B. für die USA Paul McClure: »›You’re Fired,‹ Says the Robot. The Rise of Automation in the Workplace, Technophobes, and Fears of Unemployment«, in: Social Science Computer Review (2017). 11 Deutsche Akademie der Technikwissenschaften (acatech): Innovationspotenziale der Mensch- Maschine-Interaktion, München 2016, S. 9. 144 schilderten Entwicklung derart menschenähnlich werden, dass sie auf einer neuartigen technischen Grundlage ›subjektiviert‹ werden.12 Die Übertragung der arbeitssoziologischen Begriffe »Entgrenzung«13 und »Subjektivierung«14 geschieht gezielt: Beide gehen zurück auf Forschungen zu Veränderungen der betrieblichen Steuerung von Arbeitskraft im Übergang zur Arbeitswelt des 21. Jahrhunderts. ›Subjektivierung‹ bezeichnet dabei Anforderungen an Arbeitende, stärker als bis dahin tiefliegende ›subjektive‹ Potenziale (Emotionen, Phantasie, Sozialität, Kooperativität, Lernfähigkeit, Leistungsbereitschaft usw.) sowie die Fähigkeit zur autonomen Selbststeuerung als ›Subjekt seiner selbst‹ zu entfalten und einzusetzen. War menschliche Subjektivität in diesem Sinne bisher meist ein betrieblicher Störfaktor, wird sie nun zu einer auf neue Weise auszubeutenden Ressource, mit der Folge eines tendenziell ›totalen‹ Zugriffs auf Menschen, wie er zunehmend für Arbeitsverhältnisse im fortgeschrittenen Kapitalismus charakteristisch wird (»Subjektivierter Kapitalismus«).15 Was im Zuge des aktuellen technologischen Wandels geschieht hat bemerkenswerte Parallelen zu diesen Entwicklungen. Jetzt werden nach und nach auch Maschinen Fähigkeiten technisch implementiert, die an die betrieblich verstärkt geforderten subjektiven Eigenschaften von Menschen erinnern (wie sie oben genannten wurden), und ihnen der menschlichen subjektiven Autonomie nahe kommende Aktions- und Entscheidungsfreiheiten eingebaut.16 12 Vgl. die Robotikerin Susanne Peters: Die Technisierung des Menschlichen und die Humanisierung der Maschine, Halle 2015. Viel beachtet ist der Satz der MIT-Robotikerin Chyntia Breazeal: »Together we can humanize technology«, z.B. in: https://www.youtube.com/watch? v=3N1Q8oFpX1Y (aufgerufen: 27.07.2017). Georg Jochum spricht von einer »autokybernetischen Subjektivierung«, vgl. Georg Jochum: »Kybernetisierung von Arbeit – Zur Neuformierung der Arbeitssteuerung«, in: Arbeits- und Industriesoziologische Studien 6 (2013), Heft 1, S. 25–48, http://www.ais-studien.de/home/veroeffentlichungen-13/april.html (aufgerufen: 27.07.2017); S.a. das EU-Parlament zum Rechtstatus für Roboter als »Elektronische Person«, vgl. Europäisches Parlament: Zivilrechtliche Regelungen im Bereich Robotik, Brüssel 2017. 13 Vgl. u.a. Nick Kratzer: Arbeitskraft in Entgrenzung, Berlin 2003; G. Günter Voß: »Die Entgrenzung von Arbeit und Arbeitskraft«, in: Mitteilungen aus der Arbeitsmarkt- und Berufsforschung 31 (1989), Heft 3, S. 473–487. 14 Der arbeitssoziologische Begriff ›Subjektivierung‹ hat Ähnlichkeit zur Kategorie bei Michel Foucault (vgl. Hermeneutik des Subjekts, Frankfurt am Main 2009 oder Ästhetik der Existenz, Frankfurt am Main 2007), basiert aber auf empirischen Erkenntnissen und unterschiedlichen Theoriebezügen. Siehe kurz Karin Lohr: »Subjektivierung von Arbeit«, in: Hartmut Hirsch- Kreinsen und Heiner Minssen: Lexikon der Arbeits- und Industriesoziologie, Berlin 2013, S. 430–437. Vgl. u.a. auch Karin Lohr und Hildegard M. Nickel (Hg.): Subjektivierung von Arbeit, Münster 2005; Manfred Moldaschl und G. Günter Voß (Hg.): Subjektivierung von Arbeit, München 2003; G. Günter Voß und Cornelia Weiß: »Subjektivierung von Arbeit – Subjektivierung von Arbeitskraft«, in: Ingrid Kurz-Scherf, Lena Corell und Stefanie Janczyk (Hg.): In Arbeit: Zukunft, Münster, 2005, S. 139–155. 15 Voß und Weiß: »Subjektivierung von Arbeit«, in: Kurz-Scherf, Corell und Janczyk (Hg.): In Arbeit. 16 Vgl. ähnlich Eduard Kaeser: Artfremde Subjekte. Subjektives Erleben bei Tieren, Pflanzen und Maschinen? Basel 2015, insbes. Kapitel »Das Automatensubjekt«, S. 101ff. 145 Eine derartige ›subjektivierende‹ Veränderung der Maschinen hat jedoch zur Folge, dass arbeitende Menschen gezwungen sein werden, sich an ihre neuen Kooperanden und deren technische Logik anzupassen, roboterkompatible Qualifikationen und Verhaltensweisen zu entwickeln, ihr ganzes Lebensumfeld auf zunehmend robotisierte Verhältnisse auszurichten usw. Die Menschen würden also im Gegenzug zu einer subjektivierenden Technikentwicklung auf neue Weise objektiviert. In Reaktion auf die sie bedrängenden Roboter könnten sie sich auf neuartige Weise selbst entfremden und technisch abgeleitet selbst verdinglichen, weil sie unter den Druck geraten, roboterähnlich zu werden. Möglicherweise könnte aber, wie im Folgenden gezeigt werden soll, zugleich auch eine andere Entwicklung von wesentlich größerer Tragweite entstehen. Wenn die Maschinen subjektiviert werden – was bleibt dann den Menschen? Wenn Roboter tatsächlich bisher Menschen vorbehaltene Funktionen übernehmen und damit technikbasiert Subjekteigenschaften erhalten, dann stellt sich ganz praktisch die Frage, welche Eigenschaften den Menschen dann noch als allein ihnen gegebene und von ihnen beruflich verwertbare verbleiben. Natürlich wird es auch in Zukunft noch Arbeitsplätze für Menschen geben – schon deshalb, weil sie oft immer noch billiger sind als komplexe Maschinen. Gleichwohl kann man davon ausgehen, dass die neuen Technologien eine größere Herausforderung bedeuten als bisherige technikbedingte Umbrüche in der Arbeitswelt. Jetzt geht es um den Kern menschlicher Arbeit und, mehr noch, um das originäre Wesen menschlicher Arbeitskraft. Richtet man mit dieser Frage den Blick erstmal zurück, wird deutlich, dass es auch früher Veränderungen gab, durch die die Vorstellung vom arbeitenden Menschen neu geprägt wurde. So hat etwa der Taylorismus eine derartige Umdeutung vom Menschen als Arbeitskraft ausgelöst und Max Weber sprach zeitgleich davon, dass der industrielle Wandel einen neuen Typus von »Menschen« »geprägt« habe.17 Sogar mit Karl Marx könnte man sagen, dass der Wandel der Arbeitsmittel nicht nur jeweils neue »ökonomische Epochen« hervorbringt,18 sondern auch das Verständnis von Arbeitskraft neu formiert. Etwas Vergleichbares und möglicherweise sogar wesentlich Tiefergehendes geschieht im Moment. Hier soll nämlich die Frage gestellt werden, ob der derzeitige technische Wandel nicht das bisherige Selbstverständnis des Menschen in der Gesellschaft ganz generell tangiert. Die angedeuteten aktuellen Veränderungen der »Werkzeuge« (Marx) könn- 17 »Was für Menschen prägt die moderne Industrie [...]«, Max Weber: »Methodologische Einleitung für die Erhebung des Vereins für Sozialpolitik über Auslese und Anpassung der Arbeiterschaft der geschlossenen Großindustrie«, in: Gesammelte Aufsätze zur Soziologie und Sozialpolitik, Tübingen 1988, S. 1–60, Hervh. i. O. 18 Karl Marx: Das Kapital I (MEW 23), Berlin (Ost) 1969, S. 194. 146 te es – so die Vermutung – nötig machen, mit letztlich anthropologischem Blick auf neue Weise grundlegend zu diskutieren, wer oder was wir Menschen eigentlich sind und worin wir uns von den ›Maschinen‹ unterscheiden.19 Oder anders formuliert: Was können sie uns nicht streitig machen? Marx hatte es bei seinem Versuch, den Menschen mit anthropologischem Blick als arbeitendes Wesen zu definieren, noch leichter, weil er sich nur um den Unterschied zum Tier kümmern musste: Der Mensch würde im Vergleich mit den arbeitenden Tieren ein Produkt vorher »ideell«, d.h. »im Kopf« bauen und er würde zudem Werkzeuge nicht nur benutzen, sondern sei ein »Werkzeug fabrizierendes Tier«.20 Diese und andere bisher bewährte – im Rückblick aber durchaus kritikable – Elemente zur Bestimmung der differentia specifica des Menschen versagen nun nach und nach den Dienst. Jetzt scheint es darauf hinauszulaufen, dass die eigenen Produkte den Menschen das Plänemachen und das rational gesteuerte produktive Handeln abnehmen und sogar fähig werden, selbsttätig erforderliche Hilfsmittel (z.B. neue Algorithmen) zu produzieren. Welche menschliche Subjektivität kann einer subjektivierten Technik widerstehen? Selbst wenn die Aussage, dass die Roboter das Selbstverständnis der Menschen allgemein herausfordern, vermessen erscheinen könnte – das Thema wird in der Öffentlichkeit längst mehr oder weniger explizit diskutiert. Vor allem die ganz praktische Frage, was Menschen anzubieten haben, wenn sie angesichts der technischen Konkurrenz zukünftig noch eine Chance in der Arbeitswelt haben wollen, ist ein viel beachtetes Thema. Die dazu geäußerten Ideen sind aufschlussreich. Meist werden zwei Hoffnungsträger genannt: Kreativität und Empathie,21 obwohl auch diese Domänen schon unter heftigem Robotisierungsbeschuss stehen. In beiden Feldern scheint etwas auf, das über das übliche Qualifikationsspektrum hinausweist. Die Antwort eines sichtlich um das Wohl seiner Maschinen besorgten Robotikers auf die Frage »Wann ersetzt der Roboter den Menschen?« kann uns vielleicht weiterhelfen: Roboter werden, so meint er, 19 Vgl. ähnlich Kaeser: Artfremde Subjekte., S. 122ff.; der dazu auf Günther Anders: Die Antiquiertheit des Menschen, München 1956 verweist. 20 Ebd., S. 194. 21 Vgl. aktuell Alexander Hagelüken: »Der Mensch schafft sich ab«, in: Süddeutsche Zeitung, 18.12.2016: »Der Mensch dürfte in allem Empathischen oder Kreativen überlegen bleiben« http://www.sueddeutsche.de/wirtschaft/zukunft-der-arbeit-der-mensch-schafft-sichab-1.3297804 (aufgerufen: 09.07.2017). Vgl. ausführlicher Geoffrey Colvin: Humans Are Underrated, New York 2015. 147 »in naher Zukunft [nicht] ganz allein, nur mit künstlicher Intelligenz […] komplexe Aufgaben lösen. […] Der Mensch braucht Roboter, aber Roboter brauchen auch Menschen. Nur gemeinsam können wir die großen Herausforderungen meistern.«22 Man spürt regelrecht die Hoffnung darauf, dass der Mensch noch etwas habe, was bisher nur wenig beachtet wurde, nun aber für die Kooperation von Maschine und Mensch wichtig werde. In die Sprache des Beitrags übertragen geht es angesichts neuer Beziehungen zwischen Menschen und Maschinen um ein erweitertes Verständnis menschlicher Subjektivität oder um die Aktivierung bisher wenig genutzter tiefliegender Möglichkeiten des Lebewesens Mensch. Für einige Vertreter der mit Arbeit befassten Disziplinen mag diese anthropologische Dimension irritierend sein,23 aber nichts Geringeres als die Frage, wer die Menschen als Spezies Homo überhaupt sind, schwingt mit, wenn sie nun sogar in Robotiklabors regelmäßig explizit als Humans herausgefordert werden, noch einmal über sich nachzudenken. Im Sinne der erwähnten arbeitssoziologischen Argumentation handelt es sich um die Forderung nach einer Neudefinition unseres Selbstverständnisses, kurz: um einen Aufruf zur Subjektivierung. Die Menschen des 21. Jahrhunderts müssen sich auf neue Weise subjektivieren, wenn nun auch Maschinen subjektförmige Eigenschaften erhalten – obwohl historisch gesehen die Arbeitskräfte des 20. Jahrhunderts sozusagen soeben erst einem substantiellen Subjektivierungsdruck ausgesetzt waren. Der sich jetzt abzeichnende erneute Druck zur Veränderung von Subjektivität greift aber tiefer als die Anforderungen beim Übergang zum Post-Fordismus, dessen Versuche einer Ökonomisierung bis dahin nur wenig genutzter Humanpotenziale so gesehen nur ein Vorspiel war. Jetzt nämlich geht es, so die These, um eine systematisch erweiterte Freilegung und Funktionalisierung der aus der biologischen Evolution hervorgegangenen körperlich basierten und damit im engeren Sinne naturhaften Potenziale des Menschen, oder, mit Marx gesprochen, um die Nutzung der Eigenschaften des Menschen als ›lebendiges Gattungswesen‹. Damit würde die in der Geistgeschichte ja keineswegs seltene Thematisierung der konstitutionellen Doppelgesichtigkeit des Menschen als Geist- und Naturwesen eine unerwartete Volte schlagen. Nicht eine Weiterentwicklung der spätestens seit der Aufklärung für den Menschen als zentral angesehenen Palette von Eigenschaften, in deren Kern Geist und Vernunft stehen, sind das Thema, sondern die Wiederentdeckung, Revitalisierung, vielleicht auch erstmals systematische Entfaltung dessen, was bisher mit wenigen Ausnahmen regelrecht unter- 22 Es handelt sich um einen Ausschnitt aus einem Interview mit dem Robotiker Ous Sama Khatib von der Stanford University in Eva Hofnagel: »Künstliche Wesen. Wann ersetzt der Roboter den Menschen?«, in: Spektrum der Wissenschaft, 29.11.2016, www.spektrum.de/news/wannersetzt-der Roboter-den menschen/1430965 (aufgerufen: 09.07.2017). 23 Oskar Negt: Lebendige Arbeit, enteignete Zeit, Frankfurt am Main, New York 1985, S. 172: »Arbeit ist eine historisch-fundamentale Kategorie, keine anthropologische«. 148 drückt, beschädigt, zumindest jedoch marginalisiert wurde – eben jene tief in den Körpern der Menschen nach wie vor verankerte lebendige Basis mit biologisch-vitalen, sinnlich-emotionalen und prä- oder transrationalen Wesenseigenschaften. Dieser Qualität des Menschen soll im Folgenden unter dem Leitbegriff ›ursprüngliche Subjektivität‹ weiter nachgegangen werden,24 trotz der Gefahr, dass eine solche Begrifflichkeit irritieren oder als historisch ›belastet‹ gelten könnte. Die naturhaften Anteile des Menschseins in den Blick zu nehmen ist nun wahrlich nichts Neues. Worauf hier aber aufmerksam gemacht werden soll, ist ihre mögliche neue und besondere Aktualität unter historisch neuen Bedingungen. Eine solche Neu-Entdeckung der ›Lebendigkeit‹ des Menschen im engeren Sinne würde eine immer wieder geäußerte, jedoch kaum ernsthaft umgesetzte Forderung neu in den Fokus rücken: die Forderung von Max Horkheimer und Theodor W. Adorno nach einem »Eingedenken der Natur im Subjekt« angesichts der Langzeitfolgen der Aufklärung25 – jetzt aber nicht in Hinblick auf die Probleme des 20. Jahrhunderts, sondern erzwungen durch sich grundlegend ändernde technische und ökonomische Verhältnisse im fortschreitenden 21. Jahrhundert. Nimmt man diese sich verändernden Bedingungen weitergefasst ins Auge, wird eine paradoxe Entwicklung deutlich, für deren Verständnis die eben zitierten Autoren ebenfalls hilfreich sind. Was jetzt auf neue Weise in den Fokus rückt, ist nach wie vor das, was das technisch-kapitalistische Rationalisierungsprojekt verschüttet und beschädigt hat. Man kann auch die Paralleldiagnose einer im Zuge der okzidentalen Rationalisierung erfolgten »Entzauberung« der Welt und ihrer Menschen bemühen, die dann zu den Folgen des »eisernen Gehäuses« bürokratisch-technischer Herrschaft geführt hat.26 Beides war der Preis dafür, dass die von Horkheimer (mit Adorno) als »Instrumentelle Vernunft«27 und von Weber als eng »zweckgerichtete« sowie rein »formale« Rationalität28 bezeichnete Seite menschlicher Fähigkeiten bis heute dominiert. Es ist durchaus eine erstaunliche Ironie der Geschichte, dass den neuen Maschinen nun genau dieses enge Verständnis von Vernunft und Rationalität und damit der vermeintliche Wesenskern des Humanen tiefgreifend technisch eingeschrieben wird, mit der Tendenz, uns darin nun auch noch zu übertreffen. Diese rationalistisch verkürzte Vorstellung von menschlicher Arbeit und Arbeitskraft erweist sich nunmehr vor dem aktuellen Hintergrund als massives Problem – 24 Vgl. kurz schon in Voß und Weiß: »Subjektivierung von Arbeit – Subjektivierung von Arbeitskraft«, in: Kurz-Scherf, Corell und Janczyk (Hg.): In Arbeit. 25 Max Horkheimer und Theodor W. Adorno: Dialektik der Aufklärung, Frankfurt am Main, 1969, S. 35. 26 Max Weber: »Die Protestantische Ethik und der Geist des Kapitalismus«, in: Gesammelte Aufsätze zur Religionssoziologie, Bd. I, Tübingen 1986, S. 17–206. 27 Max Horkheimer: Zur Kritik der instrumentellen Vernunft, Frankfurt am Main 1992, S. 7–174. 28 Max Weber: Wirtschaft und Gesellschaft, Tübingen 1972, Kapitel II, § 9, S, 44-45. 149 nicht nur für Menschen, die um ihre Arbeitsplätze bangen, sondern auch als technische und vielleicht sogar als ökonomische Behinderung. Die Rehabilitierung des »Anderen« Als Anregung für eine nähere Beschäftigung mit ›ursprünglicher Subjektivität‹ sollen kurz drei Bereiche ins Auge gefasst werden, in denen ein anderes Verständnis von Arbeit und Arbeitskraft und allgemein von lebendiger menschlicher Subjektivität verborgen liegt, das nun wieder gezielt freigelegt werden könnte. (1) Ein erster Schritt ist, in gesellschaftlichen Nischen authentische humane Lebendigkeit aufzuspüren. Ein Rückblick auf die Diskussionen der letzten Jahre zum Verständnis von Arbeit29 lässt Sphären erkennen, in denen sich Momente eines Anderen von Arbeit und Arbeitskraft verbergen und die genau deshalb oft diskriminiert wurden: Haushalt, Familie und Konsum; Kindheit und Alter; Krankheit und Behinderung; Ausbildung und nicht erwerbsförmige Tätigkeit jeglicher Art; Rekreation, Sorge und Pflege; Muße und Entspannung; freie Bildung, Phantasie, Kunst, Kultur und natürlich das Spiel; auch die Ab- und Rückseiten der Gesellschaft. Diese Diskriminierung war schon – zumindest indirekt – bei Marx erkennbar, der zwar die Entfremdung des Menschen beklagte, aber faktisch nur den planvoll Arbeitenden als Menschen wahrhaben wollte und in einer berühmten (ansatzweise wohl auch ironisch gemeinten) Formulierung häusliche Tätigkeit als nahezu nichtmenschlich diskreditierte.30 Erst in letzter Zeit hat sich ein subjektnaher Marxismus dem Anderen von Arbeit und Arbeitskraft genähert. So schon früh Oskar Negt und Alexander Kluge, wenn sie in einer Aufarbeitung der frühen Überlegungen von Marx zum »Gattungswesen« Mensch feststellen, »daß Arbeit und wirkliches Leben identisch sind«.31 Explizit wird damit die menschliche Arbeitskraft als »lebendiges Naturwesen«32 anerkannt, woraus aber erst einmal keine weitergehenden Folgerungen gezogen werden.33 29 Vgl. Voß »Was ist Arbeit?«, in: Böhle, Voß und Wachtler (Hg.): Handbuch Arbeitssoziologie, S. 23–80. 30 »Zuhause ist er [der Arbeiter], wenn er nicht arbeitet, und wenn er arbeitet ist er nicht zu Haus« – »daß der Mensch nur mehr in seinen tierischen Funktionen, Essen, Trinken und Zeugen, höchstens noch Wohnung, Schmuck etc., sich freitätig fühlt und in seinen menschlichen Funktionen [der Arbeit] nur mehr als Tier«. Karl Marx: Ökonomisch-philosophische Manuskripte aus dem Jahr 1844 (MEW 40), Berlin (Ost) 1985, S. 514–515. Die Passage ist sicherlich in der für Marx typischen Form ironisch mit kritischer Intention gemeint. Sie verrät aber auch hier, wie eng Marx »Arbeit« versteht, was spätestens dann deutlich wird, wenn man die Definition im Kapital danebenlegt, vgl. Marx: Das Kapital I (MEW 23), S. 192–198. 31 Oskar Negt und Alexander Kluge: Geschichte und Eigensinn, Frankfurt am Main 1981, S. 106–110. 32 Karl Marx: Grundrisse der politischen Ökonomie (MEW 42), Berlin (Ost) 1983, S. 516. 33 Vgl. als Ausnahme Sabine Pfeiffer: Arbeitsvermögen, Wiesbaden 2004, v.a. S. 154–155. 150 Dass eine die Naturhaftigkeit des Menschen unterdrückende Wahrnehmung von Arbeit und Arbeitskraft trotz solcher Einsichten bis heute Bestand hat, ist kein Wunder. Mehr als jemals zuvor ist unsere Gesellschaft eine erwerbsförmige Arbeits-Gesellschaft, die alles, was nicht instrumentell-produktivistisch und zweckrational verarbeitlicht ist, abwertet. Man muss dazu nur die Frauenforschung34 konsultieren. Inzwischen bieten auch eine subjektnahe Arbeitssoziologie35 sowie Forschungen zu körperlich-sinnlichen Arbeitsanteilen36 differenzierte Einblicke in das Andere der Arbeit. Und nicht zuletzt ist aufschlussreich, wie anders Arbeit sein kann, wenn man in andere Weltgegenden und historisch zurückschaut.37 (2) Auch bei geistesgeschichtlichen Thematisierungen des ›Anderen‹ kann man sich umsehen. Mit Horkheimer und Adorno wurde schon auf zwei Autoren verwiesen, die die historisch weit zurückreichende Ausblendung der Naturhaftigkeit des Menschen zumindest indirekt benennen. Aufschlussreicher sind jedoch Versuche, das »Andere der Vernunft« direkt zu rehabilitieren; Hartmut und Gernot Böhme etwa sprechen vieles von dem an, was auch hier im Fokus steht, wenn sie betonen, dass sie mehr wollen als »Vernunftkritik«.38 Es geht ihnen vielmehr um »das Irrationale, ontologisch das Irreale, moralisch das Unschickliche, logisch das Alogische. Das Andere der Vernunft, das ist inhaltlich die Natur, der menschliche Leib, die Phantasie, das Begehren, die Gefühle – oder besser: all dieses, insoweit es sich die Vernunft nicht hat aneignen können.«39 (3) Eine dritte Quelle bieten philosophisch-anthropologisch inspirierte Fragen nach dem Anderem im Menschen. Ausgangspunkt war und ist dort eine kritische, im Kern jedoch positive Resonanz auf Fortschritte der Biologie im Übergang zum 20. Jahrhundert, an deren Erkenntnissen zur komplexen Lebendigkeit der Tiere und dann auch des Menschen man nicht mehr vorbeikonnte. Anregungen bieten auch Einzelaspekte bei anderen anthropologienahen Autoren, für die der frühe Marx als Beispiel stehen kann, wenn er sagt: »Der Mensch ist unmittelbar Naturwesen. Als Naturwesen und als lebendiges Naturwesen ist er, teils mit natürlichen Kräften, mit Lebenskräften ausgerüstet, ein tätiges Naturwesen: diese Kräfte existieren in ihm als Anlage und Fähigkeiten, als Triebe; teils ist er als natürliches, leibliches, sinnliches, gegenständliches Wesen, ein leidendes, bedingtes und beschränktes Wesen, wie es auch das Tier ist und die Pflanze.«40 34 Vgl. etwa Brigitte Aulenbacher u.a. (Hg.): Arbeit und Geschlecht im Umbruch der modernen Gesellschaft, Wiesbaden 2007. 35 Vgl. etwa Kerstin Jürgens: Arbeits- und Lebenskraft, Wiesbaden 2006. 36 Vgl. v.a. Fritz Böhle (Hg.): Arbeit als Subjektivierendes Handeln, Wiesbaden 2017. 37 Vgl. Gerd Spittler: Anthropologie der Arbeit, Wiesbaden 2016. 38 Hartmut Böhme und Gernot Böhme: Das Andere der Vernunft, Frankfurt am Main 1992. 39 Ebd., S. 13. 40 Marx: Ökonomisch-Philosophische Manuskripte aus dem Jahre 1844, S. 578, Hervh. i. O. 151 Liest man in der engeren philosophischen Anthropologie (Scheler, Plessner, Gehlen)41 nach, wird dort durchgehend als Ausgangsanliegen formuliert, den cartesianischen Körper-Geist Dualismus nicht mehr nur allgemein zu problematisieren, sondern den »Doppelaspekt« des Menschen zu akzeptieren und der Naturseite mehr Beachtung zu schenken. Interessant ist, dass René Descartes durch die zu seiner Zeit forcierte Entwicklung mechanischer Puppen zu der Idee angeregt wurde, eine – für das Humane primäre – beseelte Geistsphäre vom mechanisch gedachten und dann diskriminierten Körper zu trennen.42 Bei Gottfried W. Leibniz klingt das nicht viel anders, wenn er sich angesichts früher Automaten stärker um die Akzeptanz der Körperlichkeit bemüht, aber dann in eine ganz andere Verengung umkippt, mit der er die für ihn »unendlich wunderbare«, das heißt perfekte Schöpfung als eine Art durch und durch funktionierendes technisches System lobt: »So ist jeder organische Körper eines Lebewesens eine Art von göttlicher Maschine oder natürlichem Automaten, der alle künstlichen Automaten unendlich übertrifft […] die Maschinen der Natur aber, d.h. die lebendigen Körper, sind noch in ihren kleinsten Teilen Maschinen bis ins Unendliche«.43 Aufschlussreich ist nicht zuletzt, dass sich Heinrich von Kleist vor dem Hintergrund ähnlicher Erfahrungen mit bewegten Puppen, wie es scheint, ganz anders entschied.44 In seinem Text über das »Marionettentheater« wird die Wiedergewinnung der vorbewussten lebendigen Seite des Menschen zur Voraussetzung, um das originär Menschliche (bei ihm: die menschliche Anmut im Tanz) zu verstehen und künstlerisch praktizieren zu können. Lebendige Potenziale ursprünglicher Subjektivität Die folgende Systematik versteht sich nun im genannten Sinne als Rahmung, mit der Momente einer ursprünglichen Subjektivität gebündelt werden, die den Herausforderungen neuer Technologien entgegengesetzt werden können. Es handelt sich zunächst nur um eine grobe Sammlung basaler körperlich-leiblich fundierter Fähigkeiten von Menschen, wie sie verstreut in verschiedenen Literaturbereichen angesprochen werden. Diese werden mit einer subjektorientierten Mehrebenen-Perspektive 41 Max Scheler: Die Stellung des Menschen im Kosmos, Bern 1962; Helmuth Plessner: Die Stufen des Organischen und der Mensch, Berlin 1975 und Arnold Gehlen: Der Mensch, Wiesbaden 1972. 42 Vgl. Nick Crossley: The Social Body, London 2001, S. 11–19 43 Gottfried W. Leibniz: Monadologie, Stuttgart 2017, S. 47–49 (§ 64). 44 Heinrich von Kleist: Über das Marionettentheater, Frankfurt am Main 1997. 152 (Subjekt-Mikro-Makro)45 drei Ebenen zugeordnet: als Potenziale für die individuelle Tätigkeit und Lebensführung, für die Herstellung unmittelbarer Sozialität sowie schließlich für die Herstellung, Sicherung und Veränderung des gesellschaftlichen Lebenszusammenhangs. (1) Dass hier der Fokus zuerst subjektsoziologisch auf Potenziale für ein lebendiges praktisches Tätigsein von Individuen gerichtet wird, und nicht vorrangig auf Denken und Bewusstsein, ist keineswegs selbstverständlich. Denn weithin ist die Engführung des Bildes vom Menschen als primär denkendes Wesen bis heute leitend, gerade auch in der Soziologie. In einigen auch für die Soziologie relevanten Konzepten wird jedoch schon seit längerem von ›Tätigkeit‹ in einem praktischen Sinn gesprochen.46 In der neueren Soziologie wird der Blick auf den Menschen als praktisch tätiges Wesen inzwischen nach und nach akzeptiert, bleibt aber immer noch einer speziellen Ausrichtung, der Praxissoziologie, vorbehalten.47 Zentral rezipiert wurde dagegen schon früh die Kategorie des ›Habitus‹, mit der deutlich gemacht wird, dass gesellschaftliche Erscheinungen gerade dadurch besonders wirksam sind, dass sie verkörperlicht sind und so die Praxis von Menschen leiten.48 Vermittelt über dieses Thema hat sich mit der Körpersoziologie49 erst jüngst ein Spezialfach entwickelt, das dezidiert die Leib- Körper Thematik und die dort zu suchenden Kompetenzen von Menschen bearbeitet. Mit diesem Beitrag sollen jetzt noch deutlicher die naturhaften Grundlagen jeglichen menschlichen Tätigseins betont werden, wie sie in letzter Zeit zunehmend als ›Embodiment‹ untersucht werden.50 Zu einem praktischen Verständnis menschlicher Aktivität gehört auch, eher unreflektierte Routinen als wichtige individuelle und soziale Ressourcen zu akzeptieren.51 Deutlich wurde diese Seite menschlicher Praxis über das Konzept des körperbasierten Phänomens »Flow«.52 Richard Sennet versucht ähnlich genau diese kör- 45 Vgl. kurz Norbert Huchler, G. Günter Voß und Margit Weihrich: »Markt, Herrschaft, Solidarität und Subjektivität. Ein Vorschlag für ein integratives Mechanismen- und Mehrebenenkonzept«, in: Arbeits- und Industriesoziologische Studien 5 (2012), Heft 1, http://www.ais-studien.de/uploads/tx_nfextarbsoznetzeitung/AIS-1-12-7Huchler-u-a-final.pdf (aufgerufen: 27.07.2017). 46 Siehe v.a. Lew Wygotski, z.B.: Denken und Sprechen, München 1977. 47 Vgl. Frank Hillebrandt: Soziologische Praxistheorien, Wiesbaden 2014. 48 Vgl. v.a. Pierre Bourdieu: Die feinen Unterschiede, Frankfurt am Main 1982 oder ders.: Entwurf einer Theorie der Praxis, Frankfurt am Main 1972. 49 Vgl. Robert Gugutzer und Gabriele Klein (Hg.): Handbuch Körpersoziologie (2 Bände), Wiesbaden 2017. 50 Vgl. etwa in der Philosophie Jörg Fingerhut, Rebbeka Hufendink und Markus Wild (Hg.): Philosophie der Verkörperung, Berlin 2013. 51 Anthony Giddens: Die Konstitution der Gesellschaft, Frankfurt am Main 1988, Vgl. auch Michel de Certeau: Kunst des Handelns, Berlin 1988. 52 Mihály Csíkszentmihályi: Das Flow-Erlebnis, Stuttgart 1985. 153 perlich-praktische und nur teilrationale Seite von Arbeit in den Vordergrund zu stellen.53 Mit dem Thema Routinen richtet sich der Fokus darauf, dass Menschen ihre Lebenstätigkeiten nicht ungeordnet hervorbringen, sondern zumindest rudimentär aktiv zu einem systematisch vermittelten Zusammenhang arrangieren. Philosophisch-anthropologische Autoren betonen dazu die Notwendigkeit eines praktisch zu gestaltenden Lebensprozesses und Lebenszusammenhangs. Das Leben sei, so etwa Plessner, kein blinder Verlauf, sondern der Mensch müsse und könne den Bezug zu sich und seiner Welt praktisch gestalten: »Der Mensch lebt nur, indem er sein Leben führt«.54 Und Gehlen meint dazu, der »nicht festgestellte« Mensch »lebt nicht […] er führt sein Leben.«55 Die aktuelle Soziologie hat unter Rückgriff auf Weber das Konzept »Alltägliche Lebensführung«56 entwickelt, mit dem postuliert wird, dass Menschen ein persönliches System zur Steuerung und Koordination ihrer praktischen Tätigkeiten in den für sie relevanten Lebensbereichen herstellen und dazu spezifische Alltagskompetenzen besitzen müssen. Eine solche Sicht schließt ein, auch die geistige Seite des Menschen mit anderer Gewichtung zu betrachten. Dabei wird auf die bedeutsame Kompetenz von Menschen zu auch vorbewussten oder teilrationalen mentalen Aktivitäten und die Fähigkeit zu nichtsprachlichen, z.B. bildhaften Denkweisen verwiesen. Die Philosophie hat präreflexives Denken und Bewusstsein gelegentlich thematisiert, vor allem im Umfeld der Phänomenologie.57 Auch die Soziologie verweist inzwischen auf die Relevanz eines praktischen Bewusstseins.58 Nicht zuletzt die Arbeitssoziologie hat mit dem Konzept des »Subjektivierenden Arbeitshandelns« akzeptiert, wie wichtig ein erfahrungsgeleitetes und körperlich getragenes Tätigsein mit entsprechenden Kompetenzen (Geschick, Gespür, praktische Vorstellungsgabe usw.) ist.59 Parallel dazu entstand eine breite Beschäftigung mit Gefühlen und ihren Potenzialen.60 Es ist dabei keineswegs zufällig, dass die wachsende soziologische Beachtung von Emotionen auf eine arbeitssoziologische Studie zurückgeht.61 Dass derartige Erkenntnisse 53 Richard Sennett: Handwerk, Berlin 2008. 54 Plessner: Die Stufen des Organischen und der Mensch, S. 293 und S. 310. 55 Gehlen: Der Mensch, S. 17. 56 Vgl. G. Günter Voß: Lebensführung als Arbeit, Stuttgart 1991; aktuell Karin Jurczyk, G. Günter Voß und Margit Weihrich: »Alltägliche Lebensführung – theoretische und zeitdiagnostische Potentiale eines subjektorientierten Konzepts«, in: Erika Alleweldt, Anja Röcke und Jochen Steinbicker (Hg.): Lebensführung heute, München 2016, S. 53–87. 57 Vgl. etwa Jean Paul Sartre: Das Sein und das Nichts, Reinbek 1989, S. 15–23; siehe dazu Wolfgang Brauner: Das präreflexive Cogito, München 2007. Auch Max Scheler spricht von »praktischer Intelligenz« in: Die Stellung des Menschen im Kosmos, Bern 1962, S. 32–37. 58 Vgl. Giddens: Die Konstitution der Gesellschaft. 59 Vgl. Böhle (Hg.): Arbeit als Subjektivierendes Handeln. 60 Vgl. Konstanze Senge und Rainer Schützeichel (Hg.): Hauptwerke der Emotionssoziologie, Wiesbaden 2013. 61 Arlie R. Hochschild: Das gekaufte Herz, Frankfurt am Main 1990. 154 etwa zur sogenannten ›emotionalen Intelligenz‹ auch wirtschaftlich Gehör finden, zeigt, welche Bedeutung Gefühlen inzwischen auch dort zuerkannt wird.62 Indirekt wird mit diesen Themen auch verdeutlicht, wie entscheidend ein unmittelbares Lustund Unlustempfinden oder affektive Antriebe und körperliche Begehrensformen für ein lebendiges Tätigsein sind, auch in der Arbeitswelt. Die Psychologie weiß das schon lange. Die Ökonomie ist mit der Verhaltensökonomie gerade dabei, dies anzuerkennen.63 Spätestens wenn Innovativität erwartet wird, respektiert man inzwischen weithin, wie bedeutsam auf praktischen Erfahrungen beruhende körperbasierte Fähigkeiten sind. Die dazu passende Rehabilitation der Intuition ist ganz im Sinne der hier fokussierten Ideen von Lebendigkeit als Kompetenz.64 Dass sich Kreativität vorrangig aus präreflexiven und damit körperlich-naturhaften Potenzialen sowie der Fähigkeit zu einer sich unkontrolliert entfaltenden Phantasie speist, wurde vor allem im Umfeld des Pragmatismus deutlich gemacht.65 Damit ist zugleich betont, wie entscheidend Probe- und Problemlösungshandeln und sinnlich-körperliches Lernen aus Fehlererfahrungen sind. In diesem Sinne ist nicht zuletzt bedeutsam, dass Lernen und Weiterentwicklung oft aus der Missachtung etablierter Prozeduren oder der expliziten Abweichung von Regeln entstehen.66 (2) Auf der zweiten, mikrosoziologischen Ebene wird nach lebendigen Potenzialen für eine unmittelbare Sozialität gefragt, also nach Fähigkeiten für die direkte Herstellung praktischer Beziehung mit Anderen, wie sie Menschen (aber auch andere Lebewesen) aufgrund ihrer Körperlichkeit beherrschen. Ohne derartige Fähigkeiten zur »praktischen Intersubjektivität« oder »ursprünglichen Sozialität« (wie es Hans Joas nennt)67 gäbe es keine Gesellschaft und im Umkehrschluss auch keine Menschen, die schon Aristoteles als zoon politikon bezeichnet hat. Eine in diesem Sinne bedeutsame Einsicht ergab sich auf Basis jüngster Forschungen zur naturhaft verankerten Empathiefähigkeit.68 Dass damit die möglicherweise noch bedeutsamere, zumindest in Teilen körperbasierte Fähigkeit zu einer ad hoc ausgeübten praktischen Loyalität, Vertrauensgewährung und Solidarität69 auf 62 Vgl. Daniel Goleman: Emotionale Intelligenz, München 1997. 63 Vgl. Hanno Beck: Behavioral Economics, Wiesbaden 2014. 64 Vgl. Gerd Gigerenzer: Bauchentscheidungen, München 2008. 65 Hans Joas: Die Kreativität des Handelns, Frankfurt am Main 1993, S. 213–217 66 Vgl. Carl Friedrich und Christine v. Weizsäcker: »Fehlerfreundlichkeit«, in: Klaus Kornwachs (Hg.): Offenheit – Zeitlichkeit – Komplexität, Frankfurt am Main 1987, S. 167–201; s.a. Niklas Luhmann über: Brauchbare Illegalität, in: Funktion und Folgen formaler Organisation, Berlin 1964, S. 314–320. 67 Vgl. Hans Joas: Praktische Intersubjektivität, Frankfurt am Main 1989 und: Die Kreativität des Handels, S. 217. 68 Vgl. u.a. Giacomo Rizolatti und Corrado Sinigaglia: Empathie und Spiegelneuronen, Frankfurt am Main 2008. 69 Vgl. Otto Hondrich und Claudia Koch-Arzberger: Solidarität in der modernen Gesellschaft, Frankfurt am Main 1992. 155 Basis eines intuitiven Gerechtigkeitsempfindens, zur spontanen Unterstützung und natürlich auch zur Freundschaft sowie nicht zuletzt zur gegenseitigen Hilfe in den Blick gerät, findet dagegen bisher eher wenig Beachtung. Zu den körperbasierten Fähigkeiten zur Interpersonalität gehört nicht zuletzt alles, was mit Ausdrucksfähigkeit, authentischer Sprache, nonverbaler Kommunikation und Körpersprache zu tun hat.70 Es ist interessanterweise die Roboterforschung, die zeigt, wie problematisch Versuche der Nachbildung körperlicher menschlicher Ausdrucksformen sein können.71 Der Forschung zur interkulturellen Kommunikation ist dies schon lange gut bekannt.72 Unmittelbar praktisch relevant wird der lebendige Körper, wenn es um Kooperation,73 reziproken Tausch oder Schenken geht,74 also um die Fähigkeit, auch in grö- ßeren Kollektiven Zusammenhalt und Zusammenarbeit zu erzeugen durch spontane Geselligkeit, dauerhaftere Gemeinschaft und schließlich Gesellschaft,75 so problematisch dies auch sein kann.76 Daran schließt direkt die körperlich-praktische Fähigkeit des Menschen an, Artefakte als Hilfsmittel zu schaffen. In ihrer langen Geschichte77 ist die Entwicklung und vor allem die Anwendung von Technik bis heute keine primär geistige Leistung, sondern Technik durchzieht den Alltag als unmittelbar praktisches Mittel, mit dem überwiegend intuitiv umgegangen wird.78 Als ein letztes Moment lebendiger Fähigkeiten zur Sicherung von Sozialität muss schließlich auf affektuelle Bedürfnisse nach sozialer Akzeptanz und Bindung und auf die Fähigkeit zur praktischen sozialen Zuwendung verwiesen werden. Dieses bisher wenig beachtete Feld hat erst mit den Kategorien »Resonanzbegehren« und »Resonanzfähigkeit« von Hartmut Rosa eine systematische philosophisch-soziologische Fundierung gefunden.79 (3) Die dritte, makrosoziologische Ebene zielt auf lebendige Potenziale für die Sicherung eines Gesellschaftszusammenhangs in Form einer Mitgestaltung des gesamtgesellschaftlichen Lebenskontexts, einschließlich politisch-historischer Beteiligung. Hier kann die Philosophische Anthropologie zumindest begrifflich gute Unterstützung leisten, da dort die Vorstellung vom lebendigen Menschen über dessen pro- 70 Vgl. Michael Tomasello: Die Ursprünge menschlicher Kommunikation, Berlin 2011. 71 Vgl. Masahiro Mori: »The Uncanny Valley«, in: Energy 7 (1970), Heft 4, S. 33–35. 72 Vgl. Hans-Jürgen Francke: Interkulturelle Kommunikation, Tübingen 2014. 73 Vgl. Michael Tomasello: Warum wir kooperieren, Berlin 2010. 74 Vgl. Marcel Mauss: Die Gabe, Berlin 1990; Frank Hillebrandt: Praktiken des Tauschens, Wiesbaden 2008. 75 Vgl. Ferdinand Tönnies: Gemeinschaft und Gesellschaft, Darmstadt 2010; aktuell Klaus Lichtblau: Studien zu Gemeinschaft und Gesellschaft, Wiesbaden 2011. 76 Vgl. Helmuth Plessner: Grenzen der Gemeinschaft, Frankfurt 2002. 77 Vgl. im Sinne dieses Beitrags Heinrich Popitz: Epochen der Technikgeschichte, Tübingen 1989. 78 Vgl. Bernard Joerges (Hg.): Technik im Alltag, Frankfurt am Main, 1988. 79 Vgl. Hartmut Rosa: Resonanz, Frankfurt am Main 2016. 156 blematische wie zugleich chancenreiche »Weltoffenheit«,80 »exzentrische Positionierung«81 oder durch seine Lage als »nicht festgelegtes Wesen« mit einer »plastischen, weltoffenen und variablen Antriebsstruktur«82 begründet wird. Der Mensch sei daher qua seiner Natur gezwungen, aber auch befähigt, sich zur Welt hin aktiv zu verhalten und seine Welt praktisch zu gestalten. Dies impliziert etwa nach Plessner die Fähigkeit des Menschen, den »Kreis des Lebens« auch für die Zukunft aktiv praktisch zu öffnen (»utopischer Standort«).83 Damit wird auch das zumindest in der Soziologie traditionell als ›gesellschaftliches Bewusstsein‹ bezeichnete Themenfeld angesprochen. Gemeint sind soziale Wahrnehmungs-, Einschätzungs- und Gestaltungskompetenzen, mit denen Menschen eher intuitiv, unmittelbar praktisch, emotional und damit letztlich auch körperlich ihrem unmittelbaren Lebensumfeld gegenübertreten.84 Vor allem über derartige Kompetenzen organisiert sich direkte politische Beteiligung, praktisches gesellschaftliches Engagement und politische Organisation, bis hin zum aktiven Bemühen um gesellschaftliche Veränderungen, auch durch soziale Widerständigkeit. Meist eher in Andeutungen wird von den genannten philosophisch-anthropologischen Autoren als zentrale Kompetenz des Menschen seine Fähigkeit zum Nein-Sagen hervorgehoben, also die Fähigkeit, praktisch zu bedeuten: »I would prefer not to.«85 Eine solche Fähigkeit (und der Mut, sie anzuwenden) hat eine grundlegende gesellschaftliche Bedeutung, da keine gesellschaftliche Praxis nachhaltig existieren kann, wenn nicht lebendige Wesen vorgefundene Verhältnisse in Frage stellen und praktisch bemüht sind, sie auf Basis sozialer Phantasie zu ändern oder ihnen zumindest Widerständigkeit entgegen zu setzen. Scheler beschreibt den Menschen explizit als »Nein-Sagen Könner.«86 Auch Heinrich Popitz sieht in der Fähigkeit zur ›Negation‹ ein entscheidendes »Privileg des Menschen« und die »Bedingung der Möglichkeit urteilenden Denkens über die Außenwelt [...] und sich selbst.«87 Der Mensch besitzt dadurch die Fähigkeit zu »Eigenwilligkeit« oder »Eigensinn«, und damit auch zum Widerspruch.88 Diese Kompetenz zur oft ad hoc praktizierten sozialen Abweichung ist nicht nur eine persönliche, sondern auch eine genuin gesellschaftliche Ressource, denn ohne Verletzung von Regeln und Routinen gäbe es keine gesellschaftliche Dynamik. Dies spielt eine Rolle auch in einem ganz anderen na- 80 Scheler: Die Stellung des Menschen im Kosmos, S. 36–41. 81 Plessner: Die Stufen des Organischen und der Mensch, S. 288–232. 82 Gehlen: Der Mensch, S. 57. 83 Plessner: Die Stufen des Organischen und der Mensch, S. 192 und 293–296, sowie S. 341–348. 84 Vgl. Oskar Negt: Öffentlichkeit und Erfahrung, Frankfurt am Main 1976. 85 Vgl. Herman Melville: Bartleby der Schreiber, München 2001. 86 Vgl. Scheler: Die Stellung des Menschen im Kosmos, S. 49–56. 87 Heinrich Popitz: »Zur Ontogenese des Selbstbewusstseins«, in: ders.: Wege der Kreativität, Tübingen 2000, S. 35. 88 Vgl. Negt und Kluge: Geschichte und Eigensinn, S. 95, S. 56; s.a. Alf Lüdtke: Eigen-Sinn, Münster 2014. 157 turhaften Kontext. Schon Darwin führt aus, dass die Entwicklung der Natur entscheidend auf der Ressource des Replikationsversagens oder der unbedingten Mutation beruht.89 Genau diese lebendig evolutionäre und dann historische Funktion übernehmen Menschen ganz praktisch im Gesellschaftskontext. Weizsäcker und Weizsäcker betonen in diesem Sinne mit expliziten evolutionstheoretischen Bezügen ihre »besonders intensive Hinwendung zu und Beschäftigung mit Abweichungen vom erwarteten Lauf der Dinge. Dies ist eine in der belebten Natur überall anzutreffende Art des Umgangs mit der Wirklichkeit und ihren angenehmen und unangenehmen Überraschungen.«90 Resümee: Auf dem Weg zu einem Begriff »Ursprünglicher Subjektivität« Festzuhalten ist, dass die notwendig nur kursorisch gesammelten Aspekte auf ein weites Feld von im weitesten Sinne körperlich-leiblichen und damit sinnlichen sowie unmittelbar praktischer Fähigkeiten von Menschen verweisen. Dies bildet den Hintergrund für den angestrebten Begriff einer ›ursprünglichen Subjektivität‹, der grob synthetisiert mit folgender Skizze umrissen werden kann: • Der Mensch ist ein lebendiges Naturwesen mit einem großen Spektrum naturnaher und damit körperlich-leiblich basierter Fähigkeiten. Dies rekurriert nicht auf Biologie im engeren Sinne. Gleichwohl wird betont, dass Menschen aktiv tätige und sich durch einen primär praktischen und nicht zuletzt auch organischen (metabolischen) Austausch mit der äußeren Natur selbstbezüglich, grenzstabilisierend und dynamisch lebenserhaltend reproduzierende91 oder »autopoietische«92 Wesen sind. Sie sind zugleich arterhaltend aktiv, also sich auch als ›Gattungswesen‹ reproduzierende Entitäten. In beiderlei Hinsicht ist ihre Existenz zugleich endlich. • Menschen in diesem Sinne sind als Art aus der biologischen Evolution als Teil der Säugetierreihe und damit im Rahmen eines sich entfaltenden Naturzusammenhangs hervorgegangen und haben sich kontinuierlich mit offenem Verlauf 89 Siehe aktuell Masatoshi Nei: »The new mutation theory of phenotypic evolution«, in: Proceedings of the National Academy of Sciences 104 (2007), Heft 30, S. 12235–12242. Vgl. auch Gregory Bateson: Geist und Natur, Frankfurt am Main 1982 oder Erwin Schrödinger: Was ist Leben? München 2013, insbes. S. 72–73. 90 Carl Friedrich und Christine v. Weizsäcker: »Fehlerfreundlichkeit«, in: Klaus Kornwachs (Hg.): Offenheit – Zeitlichkeit – Komplexität, S. 167–201; s.a. dies.: »Fehlerfreundlichkeit als Evolutionsprinzip«, in: Universitas 41 (1986), Heft 8, S. 791–722. 91 Vgl. Lynn Margulis und Dorion Sagan: Leben, Heidelberg 1999. 92 Vgl. z.B. Humberto R. Maturana und Francisco F. Varela: Der Baum der Erkenntnis, Bern 1987. 158 primär in praktischer Tätigkeit weiterentwickelt. Beides ist in jedem Einzelwesen systematisch körperlich verankert und prägt tiefgreifend seine Lebensweise. • Wichtige Basis menschlicher Lebendigkeit ist ein ebenfalls körperlich tiefliegender Komplex verschiedenster lebenserhaltender und lebensentfaltender Impulse, die in vielen Disziplinen Thema, im Detail aber umstritten sind.93 • Als fortgeschrittenes Naturwesen ist der Mensch zudem mit für seine Art typischen komplexen reflexiven (aber nur teilweise reflektierenden) Fähigkeiten ausgestattet, die er in Vielem mit anderen Naturwesen teilt. Diese ermöglichen einen vielgestaltigen (praktischen, geistigen usw.) Selbstbezug und einen gleichfalls ausdifferenzierten (praktischen, kommunikativen, kulturellen usw.) überindividuellen Natur- und Gesellschaftsbezug.94 • Der Mensch in diesem Sinne besitzt, wie andere Lebewesen auch,95 eine basale Subjektivität aufgrund seiner mit variablen Freiheitsgraden ausgestatteten Möglichkeit zur selbständigen praktischen und unter bestimmten Bedingungen auch mental reflexiven Bezugnahme auf sich und auf die für ihn unausweichlich relevante Welt. Dies greift die in der Geistesgeschichte durchgängig aufscheinende Doppelbedeutung des Begriffs ›Subjekt‹ auf, mit seiner im Übergang zur Moderne vollzogenen folgenreichen Umgewichtung:96 ›Subjekt‹ und dann (als Eigenschaft und Fähigkeit, die hier primär im Fokus steht) ›Subjektivität‹ ist damit – analog zum früher dominierenden Verständnis – einerseits das strukturell ›Unterworfene‹ (gr. hypokeimenon, lat. subjectum) und damit Fremdbestimmte. Andererseits ist es aber auch – mit dem später präferierten Verständnis – die Fähigkeit zur zumindest ›relativ‹ (wie es in der Soziologie oft heißt) autonomen und intentionalen Selbstbestimmung, aktiven Weltgestaltung und damit auch zur ›Entunterwerfung‹. So verstanden ist Subjektivität, ganz im Sinne der hier vertretenen ›Subjektorientierten Soziologie‹, kategorial und existenziell wie auch sozial, immer beides. Mit einer dialektischen Wendung kann dabei dann aber auch die au- 93 Vgl. etwa die Kategorie »Élan vital« von Henri Bergson: Schöpferische Evolution, Hamburg 2013 oder die aktuell soziologisch reaktivierte Idee einer »Lebenskraft«, Jürgens: Arbeits- und Lebenskraft. 94 Vgl. schon früh mit einer solche Perspektive für die Soziologie Walter L. Bühl: Struktur und Dynamik des Menschlichen Sozialverhaltens, Tübingen 1982. 95 Vgl. Jakob von Uexküll: »Das Subjekt ist der neue Naturfaktor, den die Biologie in die Naturwissenschaften einführt, in: »Die Rolle des Subjekts in der Biologie« in: Die Naturwissenschaft, 19 (1931), S. 385-391, hier S. S. 389, sowie »Der Biologe [...] gibt sich davon Rechenschaft, dass ein jedes Lebewesen ein Subjekt ist«, in: Streifzüge durch die Umwelten von Tieren und Menschen, Reinbek 1956, S. 24. Vgl. ausführlich Kaeser: Artfremde Subjekte. Ähnlich ist die erweiterte Vorstellung von lebendigen Akteuren, wie sie im »New Materialism« z.B. bei Karen Barad in: Agentieller Realismus, Berlin 2012; s.a. Rosi Braidotti: Posthumanismus, Frankfurt am Main 2014; aktuell Nicholas J. Fox und Pam Alldred: Sociology and the new materialism, London 2017. 96 Vgl. kurz Brigitte Kible: »Subjekt«, in: Joachim Ritter und Karlfried Gründer (Hg.): Historisches Wörterbuch der Philosophie, Bd. 10, Basel 1998, S. 374–384. 159 tonome Abwehr von Fremdbestimmung als „Unterwerfung“ verstanden werden, als Unterwerfung unter ein Selbstregime.97 • Subjektivität in dieser weit gefassten (speziesübergreifenden) und doppeldeutigen – Heteronomie wie zugleich Autonomie betonenden – Bedeutung, kann für den Menschen analytisch in zwei Formen differenziert werden: Mit ›reflexiver Subjektivität‹ soll (nach immer noch dominierender – aber zunehmend umstrittener – Annahme) die genuin dem Lebewesen Mensch vorbehaltene Fähigkeit zur intentionalen, bewussten und zweckrational gesteuerten Selbstorganisation von Tätigkeiten bezeichnet werden. Diesem Begriff wird hier die Vorstellung einer evolutionär früheren und anthropologisch grundlegenderen (sowie mit dem Blick auf die angedeutete Vielfalt des Lebendigen gerade auch an dieser Stelle bewusst weiter gefassten) ›ursprünglichen Subjektivität‹ vorgeordnet. Diese ist ein nach wie vor fundamental im Menschen körperlich verankertes und damit naturhaftes Bündel von Aktivitätsmöglichkeiten und Gestaltungspotenzialen für eine (der oben verwendeten Ebenenlogik folgend) präreflexive, sinnlich praktische Tätigkeit, für eine unmittelbare Sozialität und für eine praktische individuelle und gesellschaftliche Lebensgestaltung. Was sich in dieser Beschreibung allgemein zeigt, ist ein Bild des Menschen, das sich aufgrund eines dezidierten Naturbezuges deutlich von anderen bisher dominierenden Leitbildern unterscheidet und nun zum Orientierungspunkt einer neuen Subjektivierung werden könnte: Ein Practical Embodied Man. Diese Idee eines (wie Marx es vielleicht nennen würde) ›konkreten‹ Menschen verweist auch auf ein Verständnis von Gesellschaft, das den praktischen Alltag der Menschen ins Zentrum stellt. Damit ergibt sich eine Vorstellung naturbezogener menschlicher Lebendigkeit, die, um es noch einmal hervorzuheben, dem drohenden Imperialismus neuartiger und dabei technisch subjektivierter Maschinen entgegengesetzt werden kann. 97 Die hier angelegte Doppelbedeutung von Subjektivität einschließlich einer möglichen Wendung zur Selbstunterwerfung ähnelt der (leider wenig klaren) Umgewichtung des Begriffs in der Werkentwicklung von Michel Foucault – v.a. mit der Hervorhebung der »Entunterwerfung« und der »Technologien des Selbst«; vgl. Michel Foucault: Was ist Kritik?, Berlin 1992 oder »Das Subjekt und die Macht«, in ders.: Ästhetik der Existenz, Frankfurt a.M. 2007, S. 81-104. Siehe auch Louis Althussers früher Versuch der Öffnung des Subjektbegriffs und seine Kategorie »Anrufung« (die Foucault beeinflusst haben), in: Ideologie und ideologische Staatsapparate, Hamburg 2010, z.B. S. 98. 160 Ist das Spiel ein Paradigma für ursprüngliche Subjektivität? Am Beispiel ausgewählter Autoren98 soll hier nun der Frage nachgegangen werden, ob das Phänomen des Spiels als systematisches Gegenüber von Arbeit und instrumentell-produktivistischer Rationalität dabei helfen kann, die oben angesprochenen Aspekte einer ursprünglichen Subjektivität zu vertiefen. Erfassen Analysen dieses Phänomens, wie man vermuten könnte, explizit naturnahe und damit lebendige Momente (Triebe, Leidenschaften, Intuition usw.) und wie gehen sie damit um? Sind sie bereit, das im Spiel vielleicht aufscheinende Andere im Menschen und in seinen Aktivitäten anzuerkennen und ihm eine positive gesellschaftliche Rolle zuzuerkennen? Bevor es mit Plessner und Gehlen um zwei Vertreter der engeren Philosophischen Anthropologie sowie dann mit Marcuse und Popitz um zwei zeitgleiche, aber theoretisch unterschiedlich ausgerichtete Denker geht, sollen zwei frühe Autoren (Schiller und Marx) zu Wort kommen, die die spätere Diskussion auf unterschiedliche Weise beeinflusst haben. Klassische Positionen Friedrich Schiller versucht in seinen berühmten »Briefen zur ästhetischen Erziehung«99 Bedenken zu zerstreuen, dass ein sich (auch künstlerisch) allzu affektiv äu- ßerndes Volk eine politische Gefahr darstelle. Er will zeigen, welche Bedeutung eine freie Kunst als vermittelndes Moment zwischen widerstreitenden menschlichen Tendenzen hat, und dass dabei dem ästhetischen Spiel eine Schlüsselrolle zukommt. Schiller greift dazu auf anthropologieähnliche Argumente zurück, die bis in die Terminologie der aristotelischen Unterscheidung von ›Stoff‹ und ›Form‹ nachempfunden sind. Beides überträgt er in die Vorstellung konfligierender menschlicher Triebe: ein »sinnlicher« Trieb, der auch mit Passivität, Bindung, Lust, Leiden, Genuss und Emotionalität verbunden wird, auf der einen Seite; ein »Formtrieb«, der Aktivität, Freiheit, Gestaltung, Vernunft usw. bedeutet, auf der anderen.100 Beiden rechnet er unterschiedliche Funktionen zu: »Der Gegenstand des sinnlichen Triebs heißt Leben. […] Der Gegenstand des Formtriebes […] heißt Gestalt«.101 Zur zentralen Frage wird, wie man die durch die Triebkonflikte gefährdete »Einheit der menschlichen Natur wieder herstellen« könne. Antwort ist, dass die Kunst dazu in der Lage sei und die Aufgabe habe, zu vermitteln – durch Ausbildung sowohl des »Gefühlsvermö- 98 Vgl. kurz zum Thema Spiel in der Philosophie Stefan Deines: »Formen und Funktionen des Spielbegriffs in der Philosophie«, in: Regine Strätling (Hg.): Spielformen des Selbst, Bielefeld 2012, S. 23–38; breiter Hans Scheuer: Das Spiel (2 Bände), Weinheim 1979 u. 1997. 99 Friedrich Schiller: Über die ästhetische Erziehung des Menschen, Stuttgart 2000. 100 Ebd., S. 47. 101 Ebd., S. 58, Hervh.i.O. 161 gens« wie zugleich des »Vernunftvermögens«.102 Dabei fungiert für Schiller nun der »Spieltrieb« als entscheidendes Verbindungsmoment.103 Er könne die Empfindsamkeit des sinnlichen Triebs und die Selbsttätigkeit des rationalen Formtriebs in einem Dritten aufheben: »Wenn der sinnliche Trieb ›Leben‹ ist, und der Formtrieb ›Gestalt‹, dann wird der Spieltrieb ›lebende Gestalt‹ heißen.«104 Sogar im »ewigen Streit der Geschlechter« (»männliche Kraft, weibliche Milde«) sei das Spiel in der Lage »zu versöhnen«.105 Wie fast alle folgenden Autoren (die sich oft auf die Briefe beziehen), versucht auch Schiller, zwischen Widersprüchlichkeiten zu vermitteln und zu zeigen, dass der Mensch im ästhetischen Spiel seine Erfüllung findet: »[…] der Mensch spielt nur, wo er in voller Bedeutung des Wortes Mensch ist, und er ist nur da Mensch, wo er spielt.«106 Nur dort könne die Einheit der konfligierenden Grundtriebe von sinnlicher Natur und zweckgerichteter Rationalität hergestellt werden. Wie wir sehen werden, arbeiten sich auch fast alle weiteren Autoren daran ab, ein Drittes zu finden. Worin sie sich unterscheiden ist, ob sie eine harmonistische Auflösung anstreben oder trotz der Vermittlung einer Seite Priorität einräumen. Bei Schiller werden Natur und Vernunft akzeptiert, aber im Dritten wechselseitig begrenzt. Karl Marx lässt in seiner kompakten Definition von Arbeit im Kapital zumindest indirekt erkennen, wie stark auch er durch Aristoteles (vielleicht auch durch Schiller) beeinflusst ist, besonders auffällig bei der Kategorie ›Form‹. Auch bei ihm ist die zielgerichtete Arbeit der Seite des Gestaltenden, Vernünftigen, Kraftausübenden, zweckmäßigen Willens usw., also der Form, zugeordnet. Die ›Natur‹, auf die sich die Arbeit nach Marx ja bezieht, erscheint dagegen als passive, leidende, empfangende ›Substanz‹ oder ›Materie‹ (auch ›Stoff‹, ›Naturstoff‹). Sie ist zudem nur als äußere Natur gedacht. Faktisch ist damit die in seinen frühen Schriften so dezidiert entfaltete naturnahe anthropologische Dialektik von Stoff und Form in der späteren Definition von Arbeit bestenfalls stillgestellt; streng genommen ist sie aber auf die Seite der Form und damit in einen erstaunlichen Idealismus gekippt. Aufschlussreich ist dabei nun die kurze Passage, in der vom Spiel die Rede ist.107 Die Kategorie erscheint dort allein in Verbindung mit ›Kräften‹: als »Kräfte der [äußeren] Natur« und deren »Spiel«, die der Mensch in der Arbeit seiner gestaltenden »Botmäßigkeit« unterwerfen müsse, und als das »Spiel seiner [des Menschen] eigenen körperlichen und geistigen Kräfte«. Beide Male geht es darum, in der Arbeit diese Kräfte und ihre als ›Spiel‹ gesehene Dynamik zu beherrschen, konkret: dem menschlichen »Willen 102 Ebd., S. 50–51. 103 Ebd., S. 56. 104 Ebd., S. 58. 105 Ebd., S. 120. 106 Ebd., S. 62–63. 107 Marx: Das Kapital I (MEW 23), S. 192–193. Siehe für eine Interpretation der ganzen Passage Voß: »Was ist Arbeit?«, in: Böhle, u.a. (Hg.): Handbuch Arbeitssoziologie, S. 31–37. 162 unterzuordnen«. Zugespitzt bedeutet das, dass diesem freien Spiel der Natur (innen wie außen) und ihren Kräften die lebendigen ›Potenzen‹ geraubt oder diese für fremde Zwecke versklavt werden sollen. Das Spiel bekommt dabei eine eigenartige Rolle. Mit ihm wird dem Arbeitenden – fast wie einem nachlässigen Lehrling – regelrecht gedroht: Die Arbeit erfordere für die »ganze Dauer der Arbeit« die »Anstrengung der Organe« (die übrigens »arbeiten«), den »zweckmäßigen Willen« und dazu »Aufmerksamkeit«. Und zwar »um so mehr, je weniger sie durch den eigenen Inhalt und die Art und Weise der Ausführung den Arbeiter mit sich fortreißt, je weniger er sie daher als Spiel seiner eigenen körperlichen und geistigen Kräfte genießt«.108 Das Spiel ist damit über einen Umkehrschluss definiert: Es ist eine inhaltlich und methodisch den Menschen mit sich fortreißende und die Tätigkeit genießende Anwendung der menschlichen Potenzen. Und so vage die kurze Andeutung auch ist, man erkennt, wie Marx dies letztlich bewertet: Je mehr der Mensch eine Tätigkeit intrinsisch erlebt, emotional positiv empfindet, in den sinnlichen Rausch eines produktiven Flows gerät, es ihm im Prozess gelingt, den planenden Willen auszuschalten und kraftvoll erfahrungsgeleitet zu wirken, usw. – umso weniger ist es jene geistig gesteuerte, ›zweckmäßige‹ und ›planmäßige‹ Tätigkeit, die allein für Marx genuin menschliche Arbeit ist. Ein trauriges Ergebnis! Philosophische Anthropologie Das Phänomen Spiel wird von Helmuth Plessner selten explizit angesprochen, dafür aber dort, wo man Hinweise findet, mit einer für ihn zentralen Bedeutung. Schon in den 1920er Jahren109 geht er unter Bezug auf Schiller darauf ein. Ausgangspunkt ist dabei die Feststellung, dass der Spieltrieb ein unmittelbar lebendiges, zentrales und nicht nur menschliches Ausdrucksbedürfnis aller Lebewesen ist. Als »belebtes Wesen« besitze damit gerade auch der Mensch eine »Überfülle nicht ausgenutzter Kraft, die nach Tätigkeit verlangt und die sich vornehmlich im Spiel entlädt.« Im Vorgriff auf spätere soziologisch gefärbte Thesen heißt es weiter: »der Spieltrieb beherrscht die organische Welt, und selbst die menschlichen Beziehungen tragen […] diesem Triebe Rechnung.«110 Genauer: »Was aber ist der Sinn des Spieles, wenn nicht die Irrealisierung des natürlichen Menschen zur Trägerschaft […] irgendeiner Rolle?«111 und: »denn in Nichts kann der Mensch seine Freiheit reiner beweisen als in der [rollenförmigen] Distanz zu sich selbst.«112 108 Marx: Das Kapital I (MEW 23), S. 193. 109 Plessner: Grenzen der Gemeinschaft. 110 Ebd., S. 93–94. 111 Ebd. 112 Ebd., S. 94. 163 Hier klingt an, was dann im Hauptwerk zentral wird: Das Spiel ist ein Modus, mit dem eine dynamische Distanzierung zum Selbst und gegenüber der Welt praktiziert wird. Das Spiel erlebe dabei einen »Funktionswandel«, da es »die nach Entladung verlangenden Spannungen der leiblichen Daseinssphäre, sozusagen auf höherer Ebene auffängt«,113 indem es eine zivilisatorisch funktionale Sublimierung ermöglicht. Damit wird der Dualismus von Natur und Geist, ganz wie bei Schiller (und gegen Descartes), über das Vermittlungsmoment des Spiels, das beiden Sphären angehört und doch etwas Eigenes ist, zurückgewiesen. Man kann es durchaus so verstehen, dass das Spiel eine vermittelnde Funktion beim Umgang des Menschen mit dem zentral herausgestellten »unaufhebbaren Doppelaspekt seiner Existenz als Körper und Leib«114 erfüllt. Denn der Mensch ist immer beides, und von beidem muss er sich sublimierend distanzieren und wohl beides auch inszenieren. Diese Distanzierungs- und Inszenierungsfunktion des Spielens wird in späteren Texten nicht explizit aufgegriffen, ist aber trotzdem erkennbar. Der sublimatorische Funktionswandel des Spiels ist durch die als ›Spielraum‹ zu verstehenden Freiheitsgrade der ›exzentrischen Positionalität‹ notwendig und zugleich ermöglicht. Anders gesagt: Die nicht festgelegte Existenzweise erzwingt ein »spielerisches Sein«.115 Die menschliche Lebendigkeit ist nichts als pure »Möglichkeit«, die dann zum Spiel überhaupt, vor allem aber zum Schauspiel und damit zu einem Leben als Rollenspieler zwingt.116 Daraus resultiert für Plessner auch der »Personencharakter« des Menschen, der sich perfekt in der antiken Idee der »Persona«, also der Maske des Schauspielers, repräsentiert.117 Weil der Mensch »ortlos, zeitlos im Nichts stehend, konstitutiv heimatlos (ist), muß er ›etwas werden‹« – er ist folglich »von Natur […] künstlich.«118 »In dieser Bedürftigkeit und Nacktheit liegt das Movens für alle […] mit künstlichen Mitteln arbeitende Tätigkeit, der letzte Grund für das Werkzeug.«119 Und so gesehen beziehen sich diese »unvermeidliche Künstlichkeit«120 und ihre »Mittel« nicht nur auf produktive bzw. arbeitende Tätigkeiten und Technik (was Plessner sicherlich primär im Auge hatte), sondern allgemein auf das menschliche Tätigsein als individuelles und soziales Spiel, einschließlich all seiner künstlichen Requisiten, Masken usw. Oder wie es schon 1920 heißt, es geht um »die Künstlichkeit, Irrealisiertheit, Maskiertheit des öffentlichen Menschen.«121 113 Ebd. 114 Plessner: Die Stufen des Organischen und der Mensch, S. 294. 115 Vgl. Kai Haucke: Plessner zur Einführung, Hamburg 2000, S. 65–71. 116 Die Parallelen zu Erwin Goffman sind offensichtlich, vgl.: Wir spielen alle Theater, München 1969. 117 Plessner: Die Stufen des Organischen und der Mensch, S. 288–293. 118 Ebd., S. 310, Hervh. i. O. 119 Ebd., S. 311. 120 Ebd. 121 Plessner: Grenzen der Gemeinschaft, S. 94. 164 Was Plessner damit anbietet, ist eine Antwort auf das von allen philosophischen Anthropologen postulierte Problem des Menschen in Folge seiner fundamentalen Unbestimmtheit (›Weltoffenheit‹ usw.) bei gleichzeitiger Naturbindung. Für Plessner liegt die Lösung in einer spielerischen Selbstzurichtung, die zwar Freiheitsgrade bereithält, aber, wie bei allen anderen Autoren, nicht ohne eine Beherrschung des Naturhaften zurechtkommt. Die Naturseite ist auch für Plessner existenziell problematisch, aber er verwirft sie nicht. Arnold Gehlen argumentiert, dass der Mensch als das ›noch nicht festgelegte Tier‹ durch dessen ›Antriebsüberschuß‹ und zugleich, so das hier charakteristische Argument, durch systematische ›Instinktreduktion‹ gekennzeichnet ist. Daraus resultierten einerseits Gefahren für ihn als schutzloses »Mängelwesen«.122 Andererseits sei der Mensch damit in einer ihn von anderen Kreaturen unterschiedenen Weise (wie bei Scheler und Plessner) ›weltoffen‹ und dadurch gezwungen, wie aber auch fähig, die Welt und sich zu gestalten. Wohl am deutlichsten betont er, dass der Mensch diese Potenzialität »mit seiner plastischen, weltoffenen und variablen Antriebsstruktur« am eindringlichsten »im Spiel selbst« erlebt – »die Lust am Spiel ist die Lust am Sichentfalten variabler Antriebe.«123 Aufgrund dieser unbestimmten Triebe bedürfe der Mensch jedoch einer »Entlastung« und zwar durch »Führung«, spätestens »wenn ernste Aufgaben herantreten.«124 Diese Formulierung trifft perfekt die von Gehlen mit besonderem Zungenschlag ins Zentrum gerückte Zweiseitigkeit des Menschen: Einerseits natürlich-körperliche Lebendigkeit, im Sinne von freien, kreativen, triebhaften Überschüssen – andererseits, angesichts des Instinktmangels und seiner Gefahren, die Notwendigkeit eines triebregulierenden Formierungszwangs. Dieser wird bei Gehlen zur »Zuchtbedürftigkeit« und zur Notwendigkeit von »Erziehung und Selbstzucht«, die dann als »Kultur« und »Institutionen« dem Menschen zur »zweiten Natur«125 werden – auch im Spiel. Angedeutet wird dabei eine Steigerung dieser Forderung nach Zucht, die Gehlen in ein besonderes Licht stellt: Nicht nur die inneren Überschüsse erfordern Disziplinierung und Beherrschung, sondern auch die äußeren »ernsten« Aufgaben, womit offensichtlich Arbeit oder auch wesentlich Ernsteres gemeint ist. Das ist es, was das »Zuchtwesen« Mensch126 auszeichnet – nicht die Fähigkeit zum freien Spiel und auch nicht die naturhaften Potenziale. So offen und freundlich das Bild des spielenden Menschen ansetzt, so ernst schlägt es dann in etwas völlig anderes um. Ganz sicher geht es nicht um Freude, Leidenschaft, Phantasie. Spiel ist für Gehlen, wie das gesamte Leben, eine ernste Angelegenheit. 122 Gehlen: Der Mensch, S. 20. 123 Ebd. S. 205–209. 124 Ebd. S. 57–68 und S. 208. 125 Ebd., S. 61, S. 28. 126 Ebd., S. 61. 165 Sozialphilosophisch-soziologische Positionen Herbert Marcuse entwickelt 1933 eine stark existenzialistisch geprägte Bestimmung von »Arbeit als ein Grundgeschehen des menschlichen Daseins, als ein das ganze Sein des Menschen dauernd und ständig durchherrschendes Geschehen, in dem zugleich mit der ›Welt‹ des Menschen etwas geschieht«, mit den Merkmalen »Dauer«, »Ständigkeit« und »Lastcharakter«.127 Interessant ist nun, dass diese Merkmale im Kontrast zum ›Spiel‹ definiert werden. Dieses sei zwar auch ein menschliches Tun, aber ein »anderes Tun«, denn Arbeit sei »›früher‹ als das Spiel: sie ist Ausgang, Grund und Prinzip des Spiels, sofern dieses gerade ein Ablassen von der Arbeit und eine Erholung zur Arbeit ist.«128 Das Spiel erfülle damit die Merkmale von Arbeit genau nicht: Es erfolgt nur »zeitweise«; ist nicht an eine »Sachlogik« gebunden, sondern setzt sie »außer Kraft«; ist nicht lastgeprägt, sondern »Sich-erholen zum Zweck einer neuen Sammlung, Anspannung«.129 Vor allen die Freiheit von Sachzwängen sei entscheidend, denn »in diesem Sich-hinwegsetzen über die Gegenständlichkeit kommt der Mensch gerade zu sich selbst, in eine Dimension seiner Freiheit, die ihm in der Arbeit versagt ist.«130 Damit nähert sich das Spiel der Vision einer freien Existenz: »In einem einzigen Ballwurf des Spielenden liegt ein unendlich größerer Triumph der Freiheit des Menschenwesens über die Gegenständlichkeit als in der gewaltigsten Leistung technischer Arbeit.«131 Arbeit ist und bleibt aber für Marcuse ewige Notwendigkeit, denn sie erfülle sich nicht als »Selbstzweck« wie das Spiel, sondern habe einen existenziellen Zweck außerhalb ihrer selbst: »Das Ziel der Arbeit ist das Dasein selbst.«132 Und selbst im »Reich der Freiheit« sei »›Arbeit‹ zu tun, aber ihr Charakter hat sich verändert«: Auch als »freie Entfaltung des Daseins in seinen wahren Möglichkeiten«133 wäre es immer noch Arbeit, wenn auch mit dem Unterschied, dass, so wird dazu Marx zitiert, »das Arbeiten, das durch Not und äußere Zweckmäßigkeit bestimmt ist, aufhört«.134 Das könnte nach Spiel klingen, ist es aber für Marcuse in keiner Weise. Was er skizziert, ist ein dialektisches Verständnis von Spiel und Arbeit. Wenn dabei vom ›Wesen‹ Mensch und von ›Natur‹ gesprochen wird, meint dies aber nur eingeschränkt lebendige Naturhaftigkeit. Immer schwingt die freudianische Spannung von Eros und Thanatos mit. Letztlich entscheidet sich Marcuse dann trotz einer zu spürenden Of- 127 Herbert Marcuse: »Über die philosophischen Grundlagen des wirtschaftswissenschaftlichen Arbeitsbegriffs«, in: ders.: Kultur und Gesellschaft 2, Frankfurt am Main 1970, S. 13, S. 17– 24. 128 Ebd., S. 16, S. 17, Hervh. i. O. 129 Ebd., S. 15–19. 130 Ebd. 131 Ebd., S. 16. 132 Ebd., S. 37. 133 Ebd., S. 39. 134 Ebd., S. 48; Karl Marx: Das Kapital III (MEW 25), Berlin (Ost) 1969, S. 828. 166 fenheit für die lebensbejahende Triebhaftigkeit mit Freud (und damit gegen den Eros) für einen den Menschen notwendig kontrollierenden Vorrang des Realitätsprinzips – den wir so ähnlich schon von den anderen Autoren kennen. In späteren Analysen zu Freud klingt dies dann überraschenderweise anders. Dort spricht Marcuse von einer utopischen Hoffnung auf »Versöhnung zwischen Lustund Realitätsprinzip« durch »Selbst-Sublimierung der Sinnlichkeit (des sinnlichen Triebs) und die Ent-Sublimierung der Vernunft (des Formtriebes), um die beiden antagonistischen Grundtriebe zu versöhnen«.135 Er sieht sogar die Möglichkeit einer »Umformung« von Arbeit (Mühe) in Spiel und erkennt darin eine eigene »sinnliche Rationalität«.136 Wer sich hier eher an Schiller erinnert fühlt als an Freud, liegt nicht falsch. Die Kehre von einer realitätsorientierten Sicht auf Arbeit selbst noch in der Idee des Reichs der Freiheit zu einer versöhnenden Utopie öffnet am Ende dann doch eine existenzialistisch und tiefenpsychologisch erweiterte Sicht auf den Menschen als lebendiges Wesen, mit all seinem sinnlich-körperlichen Begehren und Tun. Heinrich Popitz unterscheidet mit Bezug unter anderem auf George Herbert Meads berühmte Gegenüberstellung von »Game« und »Play«137 in seiner Analyse drei Formen des Spiels: Funktionsspiele, Phantasiespiele einschließlich Rollenspiele, Regelspiele einschließlich Wettbewerbsspiele.138 Dieses auf den ersten Blick eher enge Verständnis erweist sich als wohlbegründet, wenn man versteht, welche Rolle die Spielanalyse hat. Sie ist Teil einer anthropologisch angelegten Studie zur Kreativität. Spiel wird dabei nicht ausschließlich mit Blick auf das kindliche Spiel, aber doch immer wieder mit Fokus auf Entwicklung und Erziehung betrachtet. Interessant ist dabei, dass »Konstruktionsspiele«, in denen etwas gebaut wird, dezidiert nicht als Spiel gelten: Beginne das Kind »etwas herzustellen […] dann spielt es nicht mehr, es will ein Werk zustande bringen«.139 Damit wird deutlich, dass Popitz wie seine Vorläufer das Spiel dezidiert von Arbeit und sogar von konstruierender »Kreativität« absetzt. Mit einer Serie weiterer Merkmale wird noch klarer, worin der Unterschied liegt:140 Das Spiel zeichne sich durch eine spezifische Spielstimmung aus (›Spaß‹, ›freiwillig‹ usw.), zeige typische Formen des Ablaufs (›Wiederholung‹, ›Verlässlichkeit‹ usw.) und werde von charakteristischen Motiven angetrieben (Freude am ›Können‹, ›Umphantasieren der Wirklichkeit‹, ›Gewinnen‹ usw.). Vor allem in der Erfahrung spielerischer »Grenzüberschreitungen« zeige sich eine wichtige anthropologische Konstante: Das ausgeprägte menschliche »Interesse an der Andersar- 135 Herbert Marcuse: Triebstruktur und Gesellschaft, Frankfurt am Main 1973, S. 191–192. 136 Ebd., S. 224. 137 George Herbert Mead: Geist, Identität und Gesellschaft aus der Sicht des Sozialbehaviorismus, Frankfurt am Main 1973. 138 Heinrich Popitz: »Was tun wir, wenn wir spielen?«, in: ders.: Wege der Kreativität, Tübingen 2000, S. 52–57. 139 Ebd., S. 54. 140 Ebd., S. 57–63. 167 tigkeit des Anderen«.141 Zwar habe der Mensch ein »Talent zur Sachlichkeit«, er könne aber auch »eigentümlich unpraktisch« sein und habe die Fähigkeit zum »Entwurf einer anderen Wirklichkeit«.142 Er könne »Stücke der Realität außer Kraft« setzen und zugleich eine »innovative Konstruktion von Realität« entfalten, »Überwindung und Erfindung von Realität, befreiend und kreativ«.143 Der Mensch bringe, so Popitz‘ aufschlussreiches Resümee, im Unterschied zur Arbeit beim Spiel »nichts Bleibendes hervor«, dafür zeige er in »bezaubernder« Weise eine ganz andere Seite von sich: er ist dort »auf unproduktive Weise kreativ.«144 Fazit mit Blick auf Paradoxien im Umgang mit dem Phänomen Spiel Was lässt sich nun im Rückblick auf die betrachteten Spielanalysen festhalten? Spielen wird dort durchgehend im Sinne dieses Beitrages als ein »Anderes« zur nüchtern praktischen Welt verstanden. Damit unterliegt das Spiel bei diesen Autoren, die ja alle mehr oder weniger eine gewisse Offenheit für die naturhafte Seite des Menschen als wichtiges Moment für ihren Gegenstand bekunden, nicht ausschließlich den arbeitsgesellschaftlichen Verdikten. Hatte man aber gehofft, ungebrochen positiv konnotierte Hinweise auf lebendige menschliche Potenziale im Sinne einer ursprünglichen Subjektivität als zentral für das Spiel und damit für eine gesellschaftliche und individuelle Sphäre zu finden, die der Dominanz des Rationalen und instrumentell Zweckmäßigen entgegensteht, muss man – bei aller Unterschiedlichkeit der Konzepte – letztlich enttäuscht sein. Das Spiel ist in den Augen der meisten Autoren mitnichten eine Welt der unbehindert lebendigen oder lustvoll zweckfreien Aktivität und darf es auch nicht sein. Es wird zwar als Kontrast zum ›Ernst des Lebens‹ verstanden, aber, wie im Folgenden noch einmal kurz betrachtet werden soll, auf (mit Weber gesprochen) ›paradoxe‹ Weise zugleich auch wieder nicht (1). Das Spiel wird aber, so soll danach abschlie- ßend angedeutet werden, nicht nur theoretisch zwiespältig gefasst. Es wird vielmehr ganz aktuell auch gesellschaftspraktisch und sogar technologisch in ebenfalls unerwartet ›paradoxer‹ Form neuartig relevant (2). (Ad 1) Interessant ist zunächst, welche Aspekte dem Spiel von fast allen diskutierten Autoren zugeschrieben werden: Triebhaftigkeit, lustvolle Hingabe, Entfaltung und Genuss von Lebenskräften, Zusichkommen als Mensch, Nicht-Festgelegtheit, Freiheit und Freiwilligkeit, Abwesenheit von Sachzwängen, Außerkraftsetzung der Realität u.v.a.m. Gleichzeitig findet sich fast immer die Botschaft, dass solche 141 Ebd., S. 74. 142 Ebd., S. 75. 143 Ebd., S. 76–79. 144 Ebd., S. 81. 168 im Spiel aufscheinenden lebendigen Potenziale wieder begrenzt und kultiviert, vielleicht sogar durch Zucht und Ordnung beherrscht werden müssen, spätestens wenn es ›ernst‹ wird. Bestenfalls will man die sich im Spiel potenziell bahnbrechenden naturhaften menschlichen Antriebe und Unkontrolliertheiten in abgegrenzten Nischen ein wenig ›leben‹ lassen und fürsorglich patriarchal einhegen (so wie ein Zoo die wilden Tiere), indem man die Spannung zwischen Natur und Vernunft durch ein irgendwie geartetes Drittes harmonisiert, sediert oder auch kujoniert. Kurz: Das Spiel darf durchaus ein lebendiges Anderes sein, aber es muss zivilisiert und kontrolliert werden, und für den Ernst des Lebens, allem voran für die Arbeit, ist es nicht geeignet.145 Einzig Plessner neigt nicht umstandslos zur Domestizierung des Lebendigen. Leider nur sehr abstrakt und fast schon kryptisch unentschieden schlägt er mit dem existenziell erzwungenen Möglichkeitssinn und der Notwendigkeit einer die Naturressourcen nutzenden spielerischen Existenzweise eine Brücke zu dem hier verfolgten Thema der Lebendigkeit. Zwar kann er sich dies nur als das Spiel der sozialen Rollen vorstellen, aber diese werden immerhin als freie Interpretationen phantasiert – so wie es dann wenig später eine interaktionistische Soziologie mit ähnlichen Öffnungen vollzogen hat.146 Dass sich Marcuse später aus der zunächst bevorzugten Fixierung auf das Freud’sche Realitätsprinzip befreit und damit im Sinne der hier formulierten Gedanken für die Möglichkeiten einer naturnahen ursprünglichen Subjektivität entscheidet, ist eine interessante Variante. Aber er löst sich dann doch nicht ernsthaft von den sinnenfeindlichen Vorbehalten seiner Kollegen, wenn die Hoffnung auf das freie Spiel als zentrales Moment des Daseins auf ein utopisches Jenseits vertröstet wird. Bleibt noch Popitz. Auch bei ihm ist die Naturseite des Menschlichen eine echte Option, und immerhin akzeptiert er dezidierter noch als Plessner die anthropologisch angelegte Fähigkeit zur kreativen Überwindung gegebener Realitäten. Aber auch er kann sich nicht vorstellen, wie so etwas außerhalb gesellschaftlicher Schonräume im Ernst des produktiven Lebens umgesetzt werden könnte. (Ad 2) Seit einiger Zeit finden sich realgesellschaftliche Entwicklungen, mit denen spielförmige Aktivitäten eine Beachtung auch jenseits gesellschaftlicher Freiflächen und Schutzzonen bekommen. Mit großer Dynamik werden mit dem auslaufenden 20. Jahrhundert die bis dahin als praktisch wenig relevant angesehenen Tätigkeiten in Spiel und Kunst auf überaus ambivalente, wenn nicht gar offen widersprüchliche Weise, zu gesellschaftlichen Sphären mit großer ökonomischer und sogar politischer Bedeutung erklärt. Gut zu beobachten ist das an der vielzitierten Kreativwirt- 145 Eine Verbindung menschlicher Lebendigkeit mit dem Spiel für Arbeitsprozesse postuliert die Gruppe um Fritz Böhle, vgl. Fritz Böhle, Markus Bürgermeister und Stephanie Porschen: Innovation durch Management des Informellen. Künstlerisch, erfahrungsgeleitet, spielerisch, Berlin 2012. 146 Vgl. etwa Ervin Goffman: Interaktion: Spaß am Spiel/Rollendistanz, München 1973. 169 schaft147, der Computerspieleindustrie148 oder am professionellen Sport,149 der inzwischen nichts mehr mit spielerisch freier Leibesbetätigung zu tun hat, sondern eine kapitalistische Wirtschaftsbranche reinster Form ist. Eine besonders paradoxe Verkehrung des Spiels ist die Nutzung spielerischen Handelns, um Menschen durch »Gamification«150 zu steuern und durch spielähnliche Anreize zu Leistungssteigerung oder einem gewünschten Verhalten zu animieren.151 Besonders pikant ist schließlich das sogenannte nudging, bei dem mit Hilfe von spielförmigen Impulsen Menschen ohne ihr Wissen und Wollen zu einem gewünschten Verhalten genötigt werden sollen. Auch das ist eine paradoxe und letztlich perfide Menschensteuerungs- und Manipulationsstrategie, bei der sich zunehmend auch staatliche Einrichtungen gerne bedienen. Dass die Urheber ihren Ansatz »libertären Paternalismus« nennen, ist bezeichnend.152 Besondere Aufmerksamkeit verdient in diesem Beitrag, dass das bisher trotz aller Beschränkungen so lebendig menschlich eingeschätzte Spiel nun auch technisch okkupiert wird – und auch dabei zu einem neuartigen hochprofitablen Feld wirtschaftlicher Aktivitäten wird. Gemeint sind dabei nicht Spielautomaten oder Computerund onlinebasierte Digitalspiele, die ebenfalls schon lange einen eigenartigen Kontrast zur Idee des offenen Spiels lebendiger Wesen bilden.153 Gemeint ist hier vielmehr die Entwicklung dazu, dass automatisierte Systeme selber spielen – und das zunehmend auf irritierende Weise menschenähnlich, aber rein technisch und damit eben paradoxerweise genau nicht lebendig. Es gibt schon seit einiger Zeit Computer, die auf hohem Niveau, aber trotzdem noch begrenzt, regelgebundene Spiele durchführen (Schach usw.). In ganz anderer Weise erlangte dann aber der Sieg des IBM- Systems »Deep Blue« über den Schachweltmeister Garry Kasparov Berühmtheit,154 und nur wenig später der furiose Erfolg von »Watson« in einer sehr offen angelegten sprachbasierten Quizsendung aufgrund eines damals neuartigen semantischen Algorithmus. Tatsächlich überaus bemerkenswert in Bezug auf die hier herausgestellte 147 Vgl. Alexandra Manske: Kapitalistische Geister in der Kultur- und Kreativwirtschaft, Bielefeld 2016. 148 Vgl. aktuell Fabian Hoose: Spiel als Arbeit, Wiesbaden 2016. 149 Vgl. Gerhard Trosien: Die Sportbranche, Frankfurt am Main 1999. 150 Vgl. Michael Sailer: Die Wirkung von Gamification auf Motivation und Leistung, Wiesbaden 2016; Nora S. Stampfl: Die verspielte Gesellschaft, Hannover 2012. 151 Vgl. für hybride Verbindungen von »digital work and play« die zu »ludic labour« oder »playbour« führt Sarah Pink, u.a.: »Digital work and play. Mobile technologies and new ways of feeling at home« sowie Clancy Wilmott Emma Fraser und Sybille Lammes: »I am he. I am he. Siri rules: Work and play with the Apple Watch«, beides in: European Journal of Cultural Studies 3 (2017), Heft 1 (online Preprintversion, aufgerufen: 26.07.17). 152 Vgl. Richard H. Thaler und Cass R. Sunstein: Nudge, London 2009. 153 Vgl. GamesCoop: Theorien des Computerspiels, Hamburg 2012; s.a. Stefan Poser: Glücksmaschinen und Maschinenglück. Grundlagen einer Technik- und Kulturgeschichte des technisierten Spiels, Bielefeld 2016. 154 Vgl. die aktuellen Einschätzungen von Garry Kasparov: Deep Thinking. Where Machine Intelligence Ends and Human Creativity Begins, London 2017. 170 Subjektivierung von Maschinen war dann aber der Triumph von Googles »Alpha- Go« über dem Go-Weltmeister Lee Sedol. Das Spiel erlangte deswegen große Aufmerksamkeit, weil sogar die Entwickler völlig überrascht ein Verhalten der Maschine beobachteten, das noch nie bei Go gezeigt worden war und auch von ihnen nicht nachvollzogen werden konnte. Erklärt wurde die intuitionsähnliche und »menschlich« anmutende Reaktivität des Programms durch die exponentiell steigende Leistungsfähigkeit moderner KI, vor allem in Form von »Deep Learning«. Ein Berichterstatter schilderte AlphaGos »inhuman humanity« so: »something that belonged uniquely to humans didn’t anymore«. Die Maschine »transcends what humans can do«; sie könne sogar «mimic‒and indeed exceed‒ […] human intuition.«155 Eines der Spiele gewann Lee Sedol immerhin noch, weil er seinerseits spontan einen irrationalen Zug machte. Der Kommentator dazu mit Stolz auf den Menschen: »He’s playing for humanity«156. Dass sich selbst das noch steigern lässt, zeigte inzwischen das Programm »Libratus« bei einem spektakulären Poker-Erfolg auf Basis eines erneut verbesserten Deep Learning. »We didn’t tell Libratus how to play poker. We gave it the rules of poker and said ›learn on your own‹« erklärte einer der Entwickler: »When I see the bot bluff the humans, I’m like, ›I didn’t tell it to do that. I had no idea it was even capable of doing that.‹«157 Was ist vor allem aus solchen technischen Entwicklungen zu folgern? Spielen jetzt tatsächlich auch die Maschinen, oder ist das alles nur eine Inszenierung und Mythisierung? Hält man sich an die erwähnten Bestimmungsmomente von ›Spiel‹, dann kommen zumindest die fortgeschrittenen KI-basierten Programme durchaus einer Spielfähigkeit nahe:158 Das gilt auf alle Fälle für eng regelgeleitete Spiele, deren Logiken die Programme nicht nur mit eingebautem hohem Gewinndruck perfekt praktizieren, sondern die diese auch auf Basis eines das menschliche Fassungsvermögen übersteigenden technisch implementierten Erfahrungswissens zielgerichtet variabel anwenden. Systeme mit fortgeschrittener semantischer und/oder Deep- Learning Architektur sind zudem in der Lage, auf Basis situativer Kombinationen und in direkter Reaktion auf die Gegenspieler flexibel autonome Entscheidungen zu treffen sowie dann aus menschlicher Sicht ungewöhnliche Verhaltensweisen auszuprobieren und daraus zu lernen, die in Ansätzen als ›kreativ‹ gelten können. All das sind Merkmale, die jeden Spielanalytiker freuen müssten. Lebendige Aspekte 155 Cade Metz: »What the AI Behind AlphaGo Can Teach Us About Being Human«, in: WIRED, 19.5.2016, https://www.wired.com/2016/05/google-alpha-go-ai/ (aufgerufen: 09.07.2017). 156 Ebd. 157 Olivia Solon: »Oh the humanity! Poker computer trounces humans in big step for AI«, in: The Guardian, 30.01.2017, https://www.theguardian.com/technology/2017/jan/30/libratus-poker-artificial-intelligence-professional-human-players-competition (aufgerufen: 09.07.2017). 158 An dieser Stelle soll einmal mehr betont werden, dass auch viele Tiere substantiell »spielen« ‒ was aber schon Schiller angedeutet hatte: Über die ästhetische Erziehung des Menschen, z.B. S. 116, und auch Plessner bemerkte: Grenzen der Gemeinschaft, S. 93. Vgl. Marc Bekoff und John A. Byers: Animal Play, Cambridge 2008. 171 menschlichen Spiels, wie etwa rein gefühlsmäßige ›Spiellust‹ oder der Schiller’sche ›Spieltrieb‹, würde man den AI-gesteuerten Spielsystemen sicherlich nicht zurechnen. Aber solche Momente waren ja auch den meisten Spieltheoretikern eher suspekt. So gesehen bestätigt das robotisierte Spiel die Sichtweisen unseres Beitrages: Neue technische Systeme kommen dem Menschen erschreckend nahe und übertreffen ihn sogar, gerade auch beim Spiel. Aber ein genuin menschliches, auf ursprünglichen humanen Eigenschaften beruhendes Spiel wäre dann doch etwas ganz ›Anderes‹; dessen unvoreingenommenes Verständnis und praktische Nutzung (etwa in der Arbeitswelt) ist aber weiterhin und mehr denn je ein schmerzliches Desiderat. Von Maschinen und Menschen – Resümee und Folgerungen Ausgangspunkt des Vorangegangenen war, dass der aktuelle technologische Wandel nicht nur Arbeitsplätze gefährdet, sondern die Tätigkeitslogiken vieler Arbeitszusammenhänge grundlegend verändert. Robotisierte Maschinen zeigen Merkmale, die den Leistungen und Fähigkeiten von Menschen nahekommen oder diese sogar auf neuartige Weise übertreffen. Damit stellt sich die grundlegende Frage, welche Eigenschaften Menschen nach wie vor exklusiv den neuen Technologien entgegensetzen können. Annahme war, dass es die lebendigen Potenziale des Naturwesens Mensch sind, die stärker als bisher als seine Kernkompetenzen erkannt, ausgebaut und eingesetzt werden müssen: Menschen sind Lebewesen, Roboter sind es nicht. Damit stellt sich die Herausforderung, tiefergehend neu zu bestimmen, was allgemein unter lebendiger menschlicher Subjektivität verstanden wird. Eine solche letztlich anthropologische Frage erfordert jedoch auch eine erneute Diskussion der altbekannten ›Doppelnatur‹ des Menschen als geistiges und naturhaft-körperliches Wesen. Der Beitrag hat in diesem Sinne nach Momenten einer basalen Lebendigkeit des Menschen Ausschau gehalten, die sich in einem Begriff ›ursprünglicher Subjektivität‹ bündeln lassen. Das damit entstehende Bild eines praktischen verkörperlichten Menschen bietet Ansatzpunkte für Potenziale, die gegenüber robotisierten Technologien eine Chance haben. Das Ergebnis der Umschau in anthropologisch inspirierten Quellen und dabei auch in Analysen zum Spiel ist gleichwohl mehrheitlich ambivalent bis enttäuschend. Es finden sich zwar vielfältige Ideen, die sich mit der auf den Menschen bezogenen Naturfrage beschäftigen, aber nur selten wird sich der cartesianischen Körper-Geist-Dualität so gestellt, dass offensiv für die natürliche Seite des Menschen Position bezogen wird. Insgesamt ist bei fast allen Referenzen eine angstbesetzte Abwehr zu spüren, die Naturseite des Menschen ungebrochen positiv anzuerkennen. Eine solche Angst vor möglichen Abgründen des menschlich Lebendigen und vor allem vor seiner körperlichen Natürlichkeit ist gleichwohl nachvollziehbar. Ange- 172 sichts der Geschichte Deutschlands ist verständlich, dass bis heute eine Scheu besteht, explizit das Biologische des Menschen zu thematisieren und geistesgeschichtlich wie anthropologisch als bedeutsam zu postulieren. Horkheimer spricht dies 1947 deutlich aus: »Die unterdrückten natürlichen Triebe wurden für die Bedürfnisse des nazistischen Rationalismus eingespannt […]. In diesem Lichte könnten wir den Faschismus als eine satanische Synthese von Vernunft und Natur beschreiben, das genaue Gegenteil jener Versöhnung der beiden Pole, von der die Philosophie stets geträumt hat.«159 Die aktuelle historische Situation gibt zudem Anlass zu vergleichbaren Befürchtungen. Deswegen ist Vorsicht geboten, wenn das Natürliche des Menschen rehabilitiert werden soll – zu leicht könnte dies falsch verstanden werden. Dazu noch einmal Horkheimer, der Richtiges benennt, aber zugleich seine Aversion gegen allzu viel Lebendiges klar erkennbar macht: Es dürfe nicht um eine »Revolte der Natur gegen die Vernunft« gehen, »da diese gewöhnlich mit Romantik verbunden ist, mit sentimentalem Missvergnügen an der Zivilisation und dem Wunsch, primitive Stufen der Gesellschaft oder der menschlichen Natur wiederzubeleben.«160 Diesem Denken des 20. Jahrhunderts wurde sich hier, trotz allen Verständnisses, dann doch explizit entgegengestellt. Denn eine Spur Romantik, eine gehörige Portion Missvergnügen an der Zivilisation und ein reflektierter Wunsch, Momente aus früheren Stufen von Gesellschaft und menschlicher Natur wieder zu beleben (und sie nicht pauschal als ›primitiv‹ zu disqualifizieren) ist im 21. Jahrhundert überaus angebracht. Kurz: Es ist an der Zeit, in aufgeklärter Weise mehr Lebendigkeit zu wagen. Das gilt nicht nur angesichts der globalen ökologischen Herausforderungen und der erneut aufblühenden populistisch-nationalistischen Bewegungen. Gerade auch die technologische Entwicklung zwingt dazu, so hier die leitende These, Fragen nach einem naturbezogenen Verständnis des Humanen nicht zu unterdrücken, sondern offensiv aufzugreifen und demokratisch weltoffen neu zu nutzen. Gleichwohl ist zu betonen, dass ein solches Plädoyer nicht auf eine naiv naturalistische Diskriminierung der Vernunft hinauslaufen soll. Es geht vielmehr um einen reflektierten, offenen Umgang mit der wichtigen Ressource der humanen Lebendigkeit und um eine zivilisierte Weise, sie neu anzueignen. Der Beitrag versteht die Dialektik von Natur und Zivilisation als zwar unaufhebbare Spannung, plädiert aber dafür, deren bisherige unbedingte Beherrschung durch eine instrumentell vernünftige oder zweckgerichtet-formale Rationalität zu verkehren. Kurz (um im Bild zu bleiben): Stand- und Spielbein zu wechseln. 159 Horkheimer: Kritik der instrumentellen Vernunft, S. 119. 160 Ebd., S. 121. 173 Wenn wir uns noch einmal der Ausgangsfrage nach den Folgen der aktuellen Technikentwicklung für die Arbeitswelt zuwenden, kann als zentrale Erkenntnis des Beitrags die Forderung nach einer erneuten Ausweitung und nun explizit auf den Naturaspekt des Menschen bezogenen Öffnung der gesellschaftlichen Vorstellungen von Arbeit und Arbeitskraft herausgehoben werden.161 Dass die Betrachtung von Arbeit und Arbeitskraft auch Bereiche jenseits konventioneller zweckgerichteter (Erwerbs-)Tätigkeiten einbeziehen muss, hat sich (mühsam) herumgesprochen. Hier soll das Blickfeld aber noch wesentlich weiter geöffnet werden, indem die Notwendigkeit postuliert wird, die ›andere‹ Seite des bisher dominierenden Leitbildes nicht nur einzubeziehen, sondern umzuwerten. Zwei Theoretiker des Kapitalismus können dabei helfen, den Blick dafür noch einmal auf besondere Weise zu schärfen. Sowohl Marxens Unterscheidung von ›Tauschwert‹ und ›Gebrauchswert‹ als auch Webers Gegenüberstellung von ›formaler‹ und ›materialer Rationalität‹ kontrastieren jeweils eine kapitalistisch moderne mit einer vormodern ursprünglichen Logik von Arbeit und Wirtschaft. Beide sind für das Anliegen des Beitrages aufschlussreich, weil dort ein Aspekt aufscheint, der bisher noch nicht explizit gewürdigt wurde. Marx spricht bekanntlich von der »Zwieschlächtigkeit« warenförmiger Produkte: Dem rein ökonomischen Wert stehe die praktische Nützlichkeit gegenüber. Jener beruhe auf »abstrakter« Arbeit, während diese das Ergebnis »konkreter« Arbeit von »lebendigen Menschen« sei, die als »zweckmäßige Tätigkeit zur Herstellung von Gebrauchswerten […] für menschliche Bedürfnisse«162 den »Naturstoff« »in eine für [das] Leben brauchbare Form« verwandelt. Der Gebrauchswert drücke »die Naturbeziehung zwischen Dingen und Menschen aus, in fact das Dasein der Dinge für den Menschen. Der Tauschwert ist eine später […] gepfropfte Bedeutung«.163 Weber definiert erstaunlich ähnlich »formale Rationalität« als »Maß der ihm [dem Wirtschaften] technisch möglichen und von ihm wirklich angewendeten Rechnung«.164 Als »materiale Rationalität« bezeichnet er demgegenüber den »Grad, in welchem die jeweilige Versorgung von gegebenen Menschengruppen […] mit Gütern […] sich gestaltet unter dem Gesichtspunkt bestimmter (wie immer gearteter) wertender Postulate.« Sie entstünden durch »ethische, politische, utilitaristische, hedonistische, ständische, egalitäre oder irgendwelche anderen Forderungen […]«, die »wertrational oder material zweckrational« zu bemessen seien.165 Stellt man die jeweiligen Paare nebeneinander, zeigt sich, dass beide auf eine ursprüngliche Logik des Arbeitens und Wirtschaftens verweisen, die mit der gesell- 161 Siehe die Diskussion zur Öffnung des Arbeitsbegriffs, vgl. Voß: »Was ist Arbeit?«, in: Böhle, Voß und Wachtler (Hg.): Handbuch Arbeitssoziologie. 162 Marx: Das Kapital I (MEW 23), S. 192, S. 198–206, s.a. S. 56. 163 Karl Marx: Theorien über den Mehrwert III (MEW 26.3), Berlin (Ost), 1968, S. 291. 164 Weber: Wirtschaft und Gesellschaft, Kap. II, § 9, S. 44; alle Hervh. i. O. 165 Ebd. 174 schaftlichen Entwicklung zwar ökonomisch ›abstrakt‹ und dazu ›formal‹ rational überformt wird, aber nach wie vor jeglicher Ökonomie und Arbeitstätigkeit unterliegt. Noch aufschlussreicher ist die bei beiden zu findende Feststellung, dass die ›nützliche‹ oder ›materiale‹ Seite wirtschaftlichen Handelns auf eine jeglicher Arbeit unterliegende originär menschliche und unmittelbar praktisch werthaltige Seite verweist. Es handelt sich dabei um eine lebenspraktische Normativität, die sich in lebendigen (›wertrationalen‹, ›nützlichen‹) Perspektiven niederschlägt.166 Diese Notwendigkeit und die Fähigkeit von lebendigen Menschen, bedürfnisorientiert Ziele und Perspektiven unmittelbar praktisch (und nicht nur vollständig reflexiv gesteuert und rational überhöht) zu fassen, sind ein entscheidendes Moment der oben angesprochenen ursprünglichen Subjektivität (als Teil eines weit gefassten Subjektbegriffs) und damit lebendiger Arbeit und Arbeitskraft. Lebendige Arbeit ist immer Arbeit, die die Gebrauchs- und Bedürfniswertseite von Tätigkeiten und damit die persönlichen (und dann gesellschaftlichen) Zielorientierungen primär berücksichtigen kann und muss.167 In keinem der durchgesehenen Konzepte findet sich dieser höchst bedeutsame Aspekt – abgesehen von Andeutungen bei Marx und Weber und implizit auch bei Marcuse. Um es in Bezug auf die hier zentrale technologische Thematik zu formulieren: Menschen haben praktische Bedürfnisse für ihr Leben und ihre Arbeit und müssen daher autonom lebendige Zwecksetzungen für beides entwickeln und sich dafür einsetzen. Roboter dagegen haben keine Bedürfnisse und erst recht keinen erotischen Lebenstrieb – außer er wird ihnen informatorisch ›gepfropft‹. Wenn der Beitrag in diesem erweiterten und geöffneten Sinne Arbeit und Arbeitskraft (und dann allgemein Subjektivität) thematisiert, soll der Blick auch für die Arbeit und die Fähigkeiten der nicht menschlichen Akteure geöffnet werden, d.h. der vielfältigen Lebewesen (vielleicht sogar der Naturprozesse überhaupt), die schon lange die Menschheit als Kooperationspartner begleiten, und natürlich jetzt mit ganz neuer Relevanz der Maschinen.168 Zugleich soll die Arbeit der menschlichen Wesen von ihrem nach wie vor mechanistischen Beigeschmack und einer rationalistischen Engführung befreit werden. Hauptargument des Beitrags ist ja, das bisher ins ›Aus‹ verschobene Andere der Arbeit und Arbeitsfähigkeit von Menschen, ihre Lebendigkeit als Naturwesen, neu zu bewerten und systematisch in den Vordergrund eines neuen gesellschaftlichen Arbeitsverständnisses zu rücken. Auf diese Weise ist dann auch neu und unbefangener zu betrachten, dass all die genannten arbeitenden Akteure des gesellschaftlichen Reproduktionsprozesses faktisch – aber wenig beachtet – immer schon miteinander kooperierten, aber nun auf neuer Stufe unter enorm verän- 166 Pierre Bourdieu nennt dies: Die zwei Gesichter der Arbeit, Konstanz 2000. 167 Vgl. Sarah Nies: Nützlichkeit und Nutzung von Arbeit, Baden-Baden 2015. 168 Vgl. dazu auch Teile der Posthumanismusdiskussion, z.B. Braidotti: Posthumanismus; Barad: Agentieller Realismus; als Überblick Stefan Herbrechter: Posthumanismus, Darmstadt 2012. 175 derten Anforderungen zusammenarbeiten müssen. Diese ihrem Wesen nach sehr verschiedenen ›Entitäten‹ oder ›Wesen‹ müssen, so das Argument, unter bevorzugter Anerkennung und Nutzung ihrer je spezifischen Fähigkeiten und unter wechselseitiger Rücksichtnahme auf ihre jeweils eigentümlichen Existenzweisen Arbeitsbeiträge leisten können.169 Dass hier im diesem Sinne dafür plädiert wird, die spezifische lebendige, d.h. körperliche und geistige, Leistungs- und Fähigkeitskonstellation des Menschen neu zu bewerten, sollte deutlich geworden sein. Dass es aber auch um eine erweiterte Wahrnehmung und dann Wertschätzung sowie eine bewusste Nutzung der spezifischen Arbeitsleistungen und Kompetenzen all der anderen Einheiten, also auch der neuen Maschinen, geht, muss dann vielleicht doch explizit betont werden. Das heißt aber auch, sich immer wieder vor Augen zu führen, dass Roboter eben genau keine Lebewesen sind – zumindest so lange nicht, wie ihre zentrale Logik rein digital, strikt mechanisch, eng informationstechnisch und im Kern algorithmisch gesteuert ist. Aber diese technische Eigenschaft verwenden sie zunehmend überaus gut, und das sollten wir Menschen akzeptieren – ohne einem neuen Maschinenmythos zu verfallen oder uns wieder hinter einer suprematistischen Hoffnung auf eine alles überstrahlende Sonderstellung unserer Spezies zu verstecken. In Erinnerung an Plessner heißt das, dass die Maschinen auf neue Weise die wichtige anthropologische und zivilisatorische Funktion einer das menschliche Leben unterstützenden und letztlich darüber erst ermöglichenden ›natürlichen Künstlichkeit‹ zugewiesen bekommen. Die ihnen inzwischen zuwachsende Ähnlichkeit mit Menschen und ihrer natürlichen Lebendigkeit ist aber nichts anderes als eine künstliche Natürlichkeit – mit durchaus spannenden Perspektiven. Mit Bezug auf Marx könnte man auch sagen, dass die neuen Maschinen keineswegs ›tot‹ sind (wie er für die Maschinen seiner Zeit durchaus sagen durfte), sondern zwitterhafte Untote, die einen menschlich »lebendigen Gärungsstoff«170 als Vitalikum benötigen. Jetzt aber mit dem wichtigen Unterschied, dass nicht die Warenproduktion für ökonomische Ziele mit Infusionen aufgepeppt wird, sondern die subjektivierten Werkzeuge mit menschlicher Natürlichkeit vitalisiert werden müssen. Fast könnte man den Eindruck bekommen, dass ihnen beigebracht wird, im Sinne Plessners auf spielerische Weise den Menschen zu kopieren, nicht nur um leistungsfähig interagieren zu können, sondern mehr noch um die erforderliche Kooperation und das Vertrauen der am Prozess beteiligten Menschen zu sichern. Aber man darf sich nicht täuschen lassen: Roboter spielen Mensch – sind es aber nicht. Dies erinnert auch an den Gedanken Heinrich von Kleists, dass Schauspieler (bei ihm: Tänzer und Knabe) zwar versuchen, in ihrer Rolle Menschen möglichst lebendig zu spielen, um die Zuneigung des Publikums zu 169 Vgl. die Actor-Network-Theory, z.B. Bruno Latour: Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie, Berlin 2007. 170 Marx, z.B.: Das Kapital I (MEW 23), S. 200. 176 bekommen – aber nie die Natürlichkeit von wirklichen Menschen erreichen, so sehr sie sich auch um Authentizität bemühen.171 Dass uns die technische Quasi-Natürlichkeit der neuen gesellschaftlichen Mitspieler in ihrer hybriden Kombination aus fast schon evolutionärer Verwandtschaft wie auch fundamentaler Fremdheit fasziniert, wie zugleich irritiert, wenn nicht sogar ängstigt, sollte nicht zu Fehlschlüssen verleiten: Die zunehmend in unserem Lebensraum auftauchenden Wesen neuer Art werden uns als neuartige Qualität des ›alter ego‹ in die Interaktion zwingen und dabei sogar das klassische soziologische Problem der ›Doppelten Kontingenz‹, also der Ungewissheit wechselseitigen Verstehens, neu stellen.172 Und oft werden wir gar nicht mehr voll bewusst registrieren, dass wir es mit fremdartigen Kreaturen zu tun haben. Es hilft nicht, sie zu hassen, und es ist gefährlich, sie zu bewundern oder gar zu lieben. Wir werden uns mit ihnen auf Basis einer Neuvergewisserung unserer artspezifischen Fähigkeiten auseinandersetzen müssen, um ihre Möglichkeiten für uns zu nutzen und Risiken zu begrenzen. Wir dürfen die uns jetzt begegnenden und manchmal sehr lebendig erscheinenden, aber trotzdem »hergestellten« neuen Akteure nicht mit unserer eigenen »Gattung« und deren »von Natur aus gewordenen« Lebendigkeit verwechseln.173 Maschinen und Menschen brauchen einander, hat der oben zitierte einfühlsame Robotiker mit Blick auf seine technischen Wesen gesagt. Dies im Blick, kann die hier zentrale Kategorie der Subjektivierung noch einmal prägnanter bestimmt werden: Was im Moment geschieht, ist eine verschachtelte Doppelsubjektivierung. Die Maschinen werden dabei einer informatorisch-technischen Subjektivierung unterzogen und bekommen nach und nach sogar menschenähnliche (aber keineswegs menschliche) Eigenschaften. Die Menschen sind im Gegenzug technologisch ›angerufen‹, mit einer neolebendigen Subjektivierung zu antworten, die an den vorausgegangenen Subjektivierungsschub des Neoliberalismus in neuer Qualität anschließt. Diese erfordert einen so bisher nicht geleisteten systematisch tiefergreifenden Rekurs auf die naturhaften genuin menschlichen Potenziale, die möglicherweise in Vielen sogar erst jetzt zu entdecken und zu entfalten sind. Fast so, wie es Lee Sedol vorgemacht hat und dafür Applaus bekam, weil man ahnte, dass sein kleiner irrationaler Schritt in Seoul vielleicht einen großen Schritt für die Menschheit symbolisierte: Er 171 Kleist: Das Marionettentheater. Dass die essayistische Erzählung festhält, es sei gerade die Bewusstlosigkeit des »Gliedermannes«, die ihm Anmut verleiht, könnte mit Blick auf die gelegentlich erstaunliche emotionale Wirkung humanoider Maschinen auf Beobachter weiterführende Überlegungen wert sein. 172 Vgl. Gesa Lindemann: »Doppelte Kontingenz und reflexive Anthropologie«, in: Zeitschrift für Soziologie 28 (1999), Heft 3, S. 165‒181. 173 Vgl. Jürgen Habermas: Die Zukunft der menschlichen Natur, Frankfurt am Main 2001, der bemerkt, dass die »grundlegende Unterscheidung« zwischen »Hergestelltem« und »von Natur aus Gewordenem«, oder von »Gewachsenem« und »Gemachten«, »für unser Selbstverständnis als Gattungswesen konstitutiv« ist (S. 80–86, Zitate S. 83.), auch wenn er damit vor künstlichen Veränderungen unserer eigenen Natur warnen will. 177 setzte intuitiv seine lebendige Subjektivität gegen die subjektivierte Apparatur, die ihm in fast allem überlegen zu sein schien. Für beide, Menschen und Maschinen, kann genau das eine Chance sein, der Ausgang ist aber offen. Vermutlich werden die Konsequenzen wie immer ambivalent und letztlich widersprüchlich sein: Eine neue Stufe des Zugriffs auf den Menschen mit zugleich neuen Entfaltungs- und Gestaltungsmöglichkeiten auf erweiterter technischer Grundlage. Vielleicht aber auch der Einstieg in die oben erwähnte »totale« Unterwerfung des Humanen, die dann, so gesehen, in der ersten Subjektivierungsdiskussion etwas voreilig prognostiziert wurde, weil ein wirklich totaler Zugriff erst jetzt und noch einmal ganz anders (nämlich nun bis in seine Gattungseigenschaften) erfolgen könnte.174 Ob es dabei einmal einen »transhumanistischen« Sprung geben könnte,175 lässt sich derzeit nicht sagen und ist hier nicht das Thema. Was wir mit der Subjektivierung der Maschinen gerade erleben, ist aber noch nicht einmal die Vorahnung der Kurzweil’schen »Singularity«.176 Es handelt sich eher um eine Simularity, die die Lebendigkeit der Menschen geschickt und überaus folgenreich nachäfft. Und das ist auch schon eine Menge. Zudem darf nicht übersehen werden, dass Roboter nicht nur hilfreiche Heinzelmännchen, possierliche Haustiere und willfährige Arbeits- und Spielpartner (oder sogar noch mehr …) sind, sondern in vielfältiger Weise eine potenzielle Gefahr darstellen – spätestens wenn sie Gewalt ausüben, unkontrolliert unsere Privatsphäre infiltrieren, unsere Freiräume kolonialisieren, unsere Körper und unser Denken verändern, die politische Ordnung bedrohen usw. Von daher ist es eine entscheidende gesellschaftliche Aufgabe, Regulierungen dafür zu entwickeln, was neue Maschinen leisten und können dürfen, und was nicht. Das ist auch eine Aufgabe für die Konstrukteure, die sich zum Teil aber schon der Gefahren bewusst sind.177 174 Spätestens für eine solche Deutung könnte man Michel Foucaults Begriff »Biopolitik« (z.B. in: Die Geburt der Biopolitik, Frankfurt am Main 2006) oder Michel Hardt und Antonio Negris analoge Kategorie sichten (in: Empire, Frankfurt am Main 2002). Dies ist ggf. Thema in späteren Texten. 175 Vgl. Steve Fuller und Veronika Lipińska: The Proactionary Imperative. A Foundation for Transhumanism, Basingstoke 2014; Max More und Natascha Vita-More (Hg.): The Transhumanist Reader, Chichester 2013; Thomas Wagner: Robokratie, Köln 2015; Raimar Zons: Die Zeit des Menschen, Frankfurt am Main 2001. 176 Ray Kurzweil: The Singularity is Near, New York 2006. Kurzweil verwendet einen Begriff von Vernor Vinge: »The coming technological singularity: How to survive in the posthuman era«, VISION-21 Symposium, NASA Lewis Research Center and Ohio Aerospace Institut 3/30-31, verändert erschienen in: Whole Earth Review, 1993 (Winter), online verfügbar: https://www.frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html (aufgerufen: 27.07.2017). 177 Vgl. den offenen Brief von KI-Experten: Future of Life Institute: An Open Letter. Research Priorities for Robust and Beneficial Artificial Intelligence, http://futureoflife.org/ai-open-letter/ (aufgerufen: 09.07.2017); s.a. die Arbeiten des Future of Humanity Institute (Univ. Oxford), etwa Nick Bostrom: Superintelligence, Oxford 2014 oder aktuell Robin Hanson: The Age of EM, Oxford 2016. Bememerkenswert sind dazu auch die frühen Warnungen vor den gesellschaftlichen Folgen einer kybernetisierten Technik bei Norbert Wiener: Mensch und Menschmaschine, Frankfurt a.M. 1958. 178 Und es führt auch dazu, dass neue Disziplinen wie Roboterrecht und Roboterethik spätestens jetzt eine notwendige Beachtung finden, weil man einsieht, dass Asimovs Robotergesetze nicht ausreichen.178 Auch mit Blick auf uns Menschen gilt es, Warnungen auszusprechen, vor allem vor einer Selbstideologisierung: Menschen sind keine Maschinen, auch wenn man es ihnen schon früh einzureden versuchte.179 Menschen werden auch nicht zu superintelligenten Apparaturen werden, selbst wenn sich nicht wenige damit abmühen,180 zu sehr sind wir unseren Körpern verhaftet. Die Qualitäten der neuen technischen Entitäten liegen im Unterschied zu denen unserer Spezies ganz woanders. Zu Letzterem gibt es noch viel zu entdecken und auszubauen – vielleicht stehen wir damit sogar überhaupt erst am Anfang. Insoweit kann man den neuen technischen Arbeitsund Lebenspartnern und ihren Konstrukteuren regelrecht dankbar sein. Die Menschen haben, wenn sie es richtig machen, mehr denn je eine Chance, aber nur in ihrer Eigenschaft als originär lebendige Menschen.181 178 Isaac Asimov: Meine Freunde die Roboter, München 2015, S. 67. Vgl. u.a. Rafael Capurro und Michael Nagenborg (Hg.): Ethics and Robotics, Heidelberg 2009; Ferreira, u.a.: A World with Robots; Spyro Tzafestas: Roboethics, Cham 2016. 179 Leibniz: Monadologie; Julien Offray de La Mettrie: L'Homme Machine, Stuttgart 2015. 180 Vgl. Nicholas Agar: Truly Human Enhancement. A Philosophical Defense of Limits, Cambridge, Mass. 2014. 181 Der Autor dankt Fritz Böhle, Georg Jochum, Frank Kleemann, Michael Makropoulos, Alexandra Manske, Christian Papsdorf, Dieter Pfau, Eva Scheder-Voß und Laura Voß sowie den Herausgebern für ihre Hinweise. 179 Wolfram Ette Kosmos Herakles Zu einer Erzählung Alexander Kluges Abstracts Der vorliegende Beitrag bietet ein close reading eines kurzen Textes von Alexander Kluge, »Herakles und die ›Gestalt des Arbeiters‹«. ›Arbeit‹ ist einer der Begriffe, mit denen sich Kluge immer wieder theoretisch und künstlerisch auseinandergesetzt hat. Arbeit ist (a) kein den Menschen besonders auszeichnendes Merkmal. Jede evolutionäre, das heißt sich selbst verändernde Tätigkeit kann und muss vielmehr als Arbeit aufgefasst werden. Außerdem ist (b) der Übergang zwischen toter und lebendiger, entfremdeter und künstlerischer, mechanischer und organischer Arbeit stets gleitend. Deswegen produziert (c) jede Arbeit, wie immer latent, poetische Parallelwirklichkeiten. »Herakles und die ›Gestalt des Arbeiters‹« entfaltet diese Zusammenhänge in einem überaus dichten intertextuellen Verweissystem, dessen kommentierende Auflösung den Hauptgegenstand des Beitrags bildet. This contribution provides a close reading of a short text by Alexander Kluge, »Herakles und die ›Gestalt des Arbeiters‹«. ›Work‹ is one of the terms with which Kluge has repeatedly dealt with both theoretically and artistically. Work is (a) not a distinctive feature of mankind. Any evolutionary, i.e. self-changing, activity can and must be understood as work. Moreover, (b) the boundary between dead, living, alienated, artistic, mechanical, and organic work is always permeable. Therefore (c) every work, as always latent, produces poetic parallel realities. »Herakles und die ›Gestalt des Arbeiters‹« unfolds these connections in a dense intertextual system of reference, the commentary of which is the main object of the text. Einleitung »Offensichtlich besitzen wir eine ausgeführte Theorie der politischen Ökonomie des Kapitals: Das Kapital von Marx. Der Gegenpol dazu ist eine politische Ökonomie der Arbeitskraft. Hierzu existiert kein theoretisches Fundament. Marx hat diese politische Ökonomie der Arbeitskraft, die als Gegenseite des Kapitals in seinem Gedankensystem immanent vorausgesetzt ist, nicht niedergelegt«.1 Auf diesen Nenner bringen Alexander Kluge und Oskar Negt in Geschichte und Eigensinn ihr Verhältnis zu Marx. Zugleich beschreiben sie damit ihren eigenen theoretischen Ansatz. Einige Seiten später heißt es dann: »Es liegen zwei Produkte vor, wo der Kapitalist oder Nationalökonom nur eines sieht. Das eine Produkt entsteht im Tauschverhältnis zwischen kapitalistischer Produktion und 1 Alexander Kluge und Oskar Negt: Der unterschätzte Mensch, Bd. 2: Geschichte und Eigensinn, Frankfurt am Main 2001, S. 88. 181 Lohnarbeit; das andere besteht im Austausch des inneren Verhältnisses der Arbeitskraft zu sich selbst, also im Produktionsverhältnis der Arbeitskraft als Ware zu sich als Lebewesen. In der Perspektive der politischen Ökonomie der Arbeitskraft – entgegengesetzt zum Betrachtungswinkel der Kapitallogik – ist das Arbeitsresultat ein Nebenprodukt, der Prozeß im Arbeitenden selbst das Hauptprodukt; ein Stück wirkliches Leben«.2 Auf dieser Grundlage variieren sie die bekannten Eingangssätze des ›Kapitals‹ in der folgenden Weise: »Der Reichtum der Gesellschaften an Arbeitsvermögen erscheint, sofern kapitalistische Produktionsweise herrscht, als eine ›ungeheure Warensammlung‹; die Widersprüche innerhalb der einzelnen Arbeitseigenschaft als ihre Elementarform«.3 Was an diesen Formulierungen auffällt, ist ein harmonisierender Zug. Kluge und Negt sind offenbar der Ansicht, dass es sich bei dem Entwurf einer »politischen Ökonomie der Arbeitskraft«, den sie vorlegen, um eine komplementäre Ergänzung zur Marxschen Theorie handelt. In diese Überzeugung spielen selbst politische Motive herein. Geschichte und Eigensinn, 1980 zum ersten Mal veröffentlicht, bewegt sich im Auslaufhorizont der gesellschaftlichen Umbrüche, die sich mit dem Begriff ›1968‹ verbinden: das Trauma von Stammheim 1977; 1978 die Gründung der taz; 1980 der Zusammenschluss von Bürgerbewegungen der 70er Jahre zu den GRÜ- NEN. Neue pädagogische Modelle wurden erprobt; es entstanden »Enklavenstaaten« (Klaus Theweleit) wie Elterninitiativkinderläden und alternative Buchhandlungen. Der Widerstand gegen die Atomindustrie nahm Gestalt an, es entstanden die ersten Landkommunen, die Frauenbewegung wurde gesellschaftlich zu einer erkennbaren Größe. Überall wurden nach dem Scheitern der Hoffnungen auf eine schlagartige Revolutionierung der Gesellschaft Ansätze eines richtigen Lebens im falschen durchgespielt. Es ist kein Akademismus, wenn angesichts dieser verwirrenden Vielfalt emanzipatorischer Bemühungen die Nähe zu Marx gesucht wird. Die Theorie der kapitalistischen Gesellschaft, die einen Generalnenner von ›1968‹ bildete, drohte sich zu verflüchtigen (wie es dann ja auch vielfach geschehen ist). Deswegen versuchen Kluge und Negt sie in einer Form begreiflich zu machen, die den Gestalten von Widerstand und Emanzipation Zusammenhang verleiht. Dieses Ansinnen verdeckt freilich den Bruch zwischen der politischen Ökonomie des Kapitals und der der Arbeitskraft. Es handelt sich ja nicht um eine Korrektur an nachgeordneter Stelle des Systems, sondern um die Behauptung, dass die bürgerliche Gesellschaft in ihren Fundamenten unvollständig beschrieben sei; dass Marx in der Grundlegung einen Faktor unbeachtet gelassen habe, dessen Einbeziehung dazu beigetragen hätte, die wirklichen historischen Prozesse genauer zu beschreiben. Die Hinzufügung der Beziehungen, die zwischen der menschlichen Arbeitskraft und 2 Ebd., S. 91. 3 Ebd., S. 252. 182 ihrer kapitalistischen Verwertung spielen, verändert die Theorie von Grund auf. Sie erlaubt es insbesondere, zwei Phänomene zu verstehen, die sich aus der Marxschen Systemlogik nicht ergeben: dass nämlich Arbeit auch unter kapitalistischen Produktionsbedingungen Freude machen kann; und dass sich der Kapitalismus zwar als krisenanfällig, gleichzeitig aber als ausgesprochen revolutionsresistent erwiesen hat. In der Tat gibt es bei Marx, so überraschend dies zunächst klingen mag, keine ausgeführte Theorie wirklicher, historisch und kulturell diversifizierter Arbeit. Er entfaltet vielmehr den Begriff der Arbeit in die Richtung zweier Extreme, deren Reinform keine historische Erscheinung menschlicher Arbeit entspricht. Das erste ist das Idealbild nicht-entfremdeter Arbeit, wie Marx es vor allem in den Ökonomisch-philosophischen Manuskripten entwickelt hat: die integrale »Betätigung der menschlichen Wirklichkeit«.4 Das zweite, schroff davon abgesetzte Extrem ist die entfremdete Arbeit. Das produktive Prinzip ist hier nicht mehr der arbeitende Mensch, sondern das Kapital. Das »Fürsichwerden des Menschen innerhalb der Ent- äußerung«,5 das sich als gesellschaftlicher Lernprozess, als Fortschritt, kultureller Mehrwert äußert, wird auf die Seite des Kapitals als »automatisches Subjekt«6 gezogen und erscheint dort als rein ökonomischer Mehrwert. An die Stelle des lebendigen Bildungsprozesses, in dem ich nicht nur mein Arbeitsprodukt, sondern auch mich selbst verändere, tritt der tote und sich gleichwohl wie von selbst erhaltende Kreislauf der ewigen Plusmacherei. Der Mensch, der sich im ganzen Prozess verwirklichen könnte, erscheint als winziger Partikel, getrennt vom Arbeitsprodukt, vom Arbeitsprozess und von der Gemeinschaft der Arbeitenden.7 Woran Kluge und Negt Anstoß nehmen, ist der Umstand, dass es zwischen den beiden Idealtypen menschlicher Arbeit bei Marx keine Übergänge gibt. Tatsächlich treten lebendige und entfremdete Arbeit immer in Mischungsverhältnissen auf. Marx zögert, für die vorkapitalistische Epoche ebenso wie für die kapitalistische Epoche ein differenziertes Ineinander von lebendiger und entfremdeter Arbeit anzunehmen. Dadurch erscheint der Beginn des Kapitalismus in Europa als gattungsgeschichtliche Groß-Katastrophe, durch die sich im Verhältnis des Menschen zu seiner Arbeit schlechterdings alles geändert habe. In der Darstellung des Kapitals hat dies vor allem den Grund, dass Marx den Ursprung der kapitalistischen Entwicklung anhand eines einzigen Extremfalls, nämlich England, erläutert. »Der englische Kapitalismus ist […] ein Spezialfall«,8 weil hier 4 Karl Marx: Ökonomisch-philosophische Manuskripte aus dem Jahre 1844, in: Karl Marx und Friedrich Engels: Werke (MEW), Bd. 40, Berlin (Ost) 1968, S. 539–540. Im Original kursiv. 5 Ebd., S. 573. 6 Marx: Das Kapital. Erster Band: Der Produktionsprozeß des Kapitals (MEW 23), Berlin (Ost) 1972, S. 169. 7 Vgl. Marx: Ökonomisch-philosophische Manuskripte (MEW 40), S. 514–518. 8 Kluge und Negt: Geschichte und Eigensinn, S. 563. 183 die ›sogenannte ursprüngliche Akkumulation‹,9 also die Enteignung der Bauernschaft, die den wachsenden Städten als zukünftiges Proletariat zugeführt wurde, mit einer Raschheit und Brutalität stattfand, mit denen sich in den anderen europäischen Ländern nichts vergleichen lässt. Dass Marx’ Wahl auf England fiel, um die historische Genese des Kapitalismus an wenigstens einem Beispiel modellhaft zu demonstrieren, hat vor allem den Grund, dass sich das der kapitalistischen Verwertung der Ware Arbeitskraft zugrundliegende Unrecht hier mit besonderer Drastik belegen ließ. Der Mythos von der ursprünglichen Akkumulation, demzufolge eine Elite der Gesellschaft aus eigenen Mitteln den Beginn der neuen Produktionsweise finanzierte – sei es, dass sie von sich aus genügend Mittel besaß, sei es, dass sie das Startkapital einer neuen Epoche in eiserner Askese zusammensparte10 –, wird vom englischen Beispiel am deutlichsten widerlegt. Es geschah nämlich durch Raub, Diebstahl und staatlich durchgesetzte Zwangsmaßnahmen, die einen großen Teil der Bevölkerung in äußerste Armut stürzten. Damit entschwanden die langwierigeren Prozessgestalten, in denen lebendige und entfremdete Arbeit sich aneinander abarbeiteten, unter den Aufmerksamkeitshorizont. Nimmt man die englische Entwicklung als Paradigma, so muss es so aussehen, als wäre ein historischer Schalter umgelegt worden; als wären die Menschen aus einem Paradies nichtentfremdeter Arbeit in die Hölle der kapitalistischen Abstraktion gestürzt. Die Gewalt des englischen Prozesses ist so einschneidend, dass von ihr aus im Rückblick alles, was ihr vorausging, verklärt wird, auch wenn Marx genau wusste, dass das Mittelalter kein Idyll gewesen war. Die deutsche Geschichte bildet in vieler Hinsicht den Gegenpol der englischen. Hier sind die Trennungsprozesse, die der ursprünglichen Akkumulation zugrundeliegen (ihr Urbild ist immer die Trennung des Bauern von seinem Grund und Boden) »über die gesamte Geschichtszeit verteilt, sie werden in mehreren Schüben, also zu verschiedenen Zeiten, in die ursprüngliche Akkumulation eingehen«.11 Damit wird die deutsche Geschichte zu einem unorthodoxen Lehrstück marxistischer Geschichtsphilosophie. Ihre aus orthodox marxistischer Sicht fehlende Geradlinigkeit, ihr systemlogisches Defizit wirft nämlich die Frage auf, ob Geschichte generell nach dem Muster abrupter Epochenbrüche verstanden werden kann. Hat »ursprüngliche Akkumulation« nicht immer schon stattgefunden?12 Ist der Prozess der Trennung des Menschen vom Arbeitsgegenstand, von den Arbeitsmitteln usf. nicht so alt wie die Menschheit selbst? Ist dieser Prozess, in dem sich Arbeitsteilung und gesellschaftliche Herrschaft miteinander verschränken, nicht gleichbedeutend mit 9 Damit ist das 23. Kapitel des ersten Bandes des Kapital überschrieben, das sich mit den Anfängen der kapitalistischen Ökonomie in England auseinandersetzt. 10 Der zweiten Möglichkeit gilt Max Webers Die protestantische Ethik und der Geist des Kapitalismus (1904). 11 Kluge und Negt: Geschichte und Eigensinn, S. 623–624. 12 Das erste Kapitel von Geschichte und Eigensinn trägt den Titel: »Permanenz der ursprünglichen Akkumulation«. 184 dem Prozess der Kultur, weil sich in ihm nicht bloß Entfremdung durchsetzt, sondern sich mit ihr und gegen sie spezifische Arbeitsvermögen ausbilden, die es zuvor nicht gab? Weil es diesen Widerstand lebendiger Arbeit immer gibt, weil die kapitalistische Entfremdung nicht total sein kann, sind wir überhaupt noch in der Lage, uns durch unsere Arbeit selbst zu verwirklichen. Keine Anpassung ohne Widerstand, kein Widerstand ohne Anpassung. Das ist die Dialektik der entfremdeten Arbeit – auch unter unmenschlichen Bedingungen.13 I Kluge hat den ›Widerstand lebendiger Arbeit‹ – in ihn können künstlerische, spielerische, archaische und höchst progressive Momente eingehen – immer wieder in kleinen Erzählungen entfaltet: Fallbeispielen, an denen sein geschichtsphilosophischer, nichtrevolutionärer Optimismus sich abarbeitet.14 Eine gewisse Sonderrolle spielt dabei aber eine kleine mythologische Erzählung, die im Jahr 2000 im ersten Band der Chronik der Gefühle erschien: Heiner Müller und die »Gestalt des Arbeiters«.15 Denn sie ist das, was mythologische Erzählungen immer sind: theoretische und künstlerische Darstellung in einem; eine Form, in der das Individuelle und das Allgemeine in keinem ›symbolisch‹ vermittelten Verhältnis stehen, sondern porös ineinander übergehen. Der Text schildert keinen ›Fall‹, sondern enthält in nuce Kluges Theorie der Arbeit. Weil er aber so kurz ist, lassen sich anhand seiner Kluges Argumente auf eine nachprüfbare Weise rekonstruieren. Formal gesehen zerfällt dieser Texte in zwei Teile. Bei dem ersten, sehr viel längeren Teil, handelt es sich um eine Art Referat. Er beginnt mit den Worten: »Herakles, sagt Heiner Müller [...]«. Alles Folgende ist also nichts Anderes als eine Wiedergabe dessen, was Heiner Müller über Herakles gesagt haben soll. Der zweite Teil gibt dann in wörtlicher Rede ein Gespräch zwischen Kluge – das jedenfalls ist die 13 Alexander Solschenizyn beschreibt im Iwan Denissowitsch einen Tag im Leben eines sowjetischen Lagergefangenen. Der gemeinsame Bau einer Mauer ist sein Höhepunkt: ein Glück, das sich unter den Bedingungen des Lagerlebens nicht vermindert, sondern fast noch deutlicher hervortritt. Eine vollständige Trennung der Arbeitsvermögen vom Produkt ist nicht möglich: »Schuchow sah nur seine Wand […]. Diese Mauer hatte ein ihm unbekannter Maurer errichtet, der entweder nichts davon verstand oder gepfuscht hatte. Jetzt aber war sie Schuchow schon so vertraut, als wäre sie seine eigene«. Solschenizyn: Ein Tag des Iwan Denissowitsch, München 1970, S. 73. 14 Vgl. etwa: Alexander Kluge: Das fünfte Buch. Neue Lebensläufe, Berlin 2012, S. 161–222 (»Passagen aus der ideologischen Antike: Arbeit/Eigensinn«) – eine Reprise des ersten Kapitels von Geschichte und Eigensinn, die um viele Geschichten erweitert wurde. Gleichzeitig wurde die Auseinandersetzung mit Marx etwas in den Hintergrund gerückt. 15 Alexander Kluge: Chronik der Gefühle. Band 1: Basisgeschichten, Frankfurt am Main 2000, S. 56–57. Der Text befindet sich im Archivteil dieses Jahrbuchs (S. 297–298) – unser Dank geht an Alexander Kluge für die Abdruckgenehmigung. 185 hinter dem »ICH« der Schlusspassage steckende Fiktion – und Müller wieder, in dem das, was dieser zuvor gesagt haben soll, kommentiert wird. Auf den ersten Blick erscheint die Erzählung verwirrend. Man weiß zwar, in der Regel jedenfalls, wovon überhaupt die Rede ist. Aber die gedanklichen Verknüpfungen ergeben sich nicht von selbst. Welche Logik steht hinter einem Gedankengang, der bei den Taten des Herakles beginnt und über den Mythos von der Entstehung der Milchstraße in Spekulationen übergeht, mit denen die moderne Astronomie sich beschäftigt? Hinzu kommt die extreme intertextuelle Dichte der Erzählung, die aus den verschiedensten Kontexten zusammengesetzt erscheint. Neben dem Offensichtlichsten, der Verknüpfung des Herakles-Mythos mit Heiner Müller, sind dies zum Beispiel Ernst Jüngers Programmschrift Der Arbeiter aus den dreißiger Jahren, Goethes Naturphilosophie und die ›Viele-Welten-Theorie‹ des britischen Physikers Hugh Everett. – Wie hängen diese Dinge miteinander zusammen? Dass der antike Herakles die menschliche Gattungsarbeit verkörpert, ist ein Gemeinplatz. Aber es lohnt sich dennoch, sich ihn etwas genauer anzusehen. Auf der einen Seite repräsentiert Herakles ja durchaus nicht die gesamte Sphäre der menschlichen Arbeit. Ihr reproduktiver Anteil, all das, was mit der Aufrechterhaltung und Fortpflanzung des natürlichen Lebens zu tun hat, spielt für die Konzeption der Herakles-Gestalt keine Rolle. Sein Bereich ist die produktive Arbeit, das heißt der zivilisatorische Fortschritt.16 Die Brandrodung bildet den Hintergrund des Sieges über die Hydra, künstliche Be- und Entwässerungssysteme haben sich in der Reinigung des Augiasstalles niedergeschlagen, die Rinder des Geryoneus versinnbildlichen die gewaltigen Viehherden, deren Haltung und Versorgung eine Schlüsselvoraussetzung für das Entstehen der griechischen Stadtgesellschaften war.17 All diese Taten und Aufgaben des Herakles sind durch einen einzigen Grundgedanken bewegt. Dies ist die Unterwerfung der Natur – überwiegend, wenn auch nicht ausschließlich, durch Gewalt. Die Ungeheuer, mit denen es Herakles zu tun hat, verkörpern die wild wuchernde, unkontrollierbare, verschlingende Natur. Am deutlichsten zeigt dies die zweite Aufgabe: der Kampf gegen die Hydra, das dreiköpfige Ungeheuer, das man durch physische Gewalt nicht besiegen kann, weil an der Stelle jedes abgeschlagenen Kopfes zwei neue nachwachsen. Wie um das dahin- 16 In den Vorlesungen über die Philosophie der Religion geht Hegel so weit, den reproduktiven und den produktiven Aspekt der Arbeit auf Prometheus und Herakles trennscharf zu verteilen. Die Strafe des Prometheus, so Hegel, symbolisiere den ewigen Kreislauf der reproduktiven, den natürlichen Bedürfnissen pflichtigen Arbeit. Prometheus könne dementsprechend als Gott, in dem nichts anderes als die Naturmacht sich personal verkörpere, gar kein Arbeiter sein. Erst Herakles, der von Gott und Mensch abstammt, lässt es sich »sauer werden« und bringt die Gattung voran. Vgl. Georg Wilhelm Friedrich Hegel, Vorlesungen über die Philosophie der Religion, ed. Lasson, Band II/1, Hamburg 1974, S. 131–133. 17 Vgl. Klaus Heinrich: Arbeiten mit Herakles. Zur Figur und zum Problem des Heros. Antike und moderne Formen seiner Interpretation und Instrumentalisierung, Dahlemer Vorlesungen, Bd. 9, Basel und Frankfurt am Main 2006, S. 101–102. 186 terliegende Prinzip zu verdeutlichen, ist der dritte Kopf selbst unsterblich und kann auf keine Weise getötet werden. Herakles löst das Problem bekanntlich dadurch, dass er sich einer neuen Technologie bedient und die Wunden ausbrennt, bevor die Ersatzköpfe nachwachsen können. Er kann dies übrigens nicht alleine tun, sondern muss seinen Neffen Iolaos zu Hilfe nehmen – ein früher Hinweis auf den Zusammenhang von technologischem Fortschritt und ansteigender Arbeitsteilung. Der unsterbliche Kopf lässt sich nicht besiegen, sondern nur stilllegen, indem Herakles einen großen Stein auf ihn wälzt. Gerade die Hydra-Geschichte illustriert aber auch die Bedenken, die schon die Antike einem Fortschritt gegenüber hegte, dessen Zentrum die Unterwerfung der Natur bildet. Bereits die Tatsache, dass der dritte Kopf der Hydra nicht getötet, sondern nur weggesperrt werden kann, ist für sich genommen schon beunruhigend. Die Geschichte der populären Literatur – und ein Stück weit lassen sich alle Mythen diesem Genre zurechnen – ist voll von Erzählungen, in denen dieses Motiv entfaltet wird: Das Böse scheint besiegt, ist aber nur unterdrückt; daraufhin – und meist viele Jahre später – passiert irgendetwas, durch das es wieder entfesselt wird. Diese Beunruhigung steigert sich freilich noch um etliche Grade, wenn man sich klarmacht, wie die Hydra-Geschichte eigentlich weitergeht. Herakles taucht seine Pfeile ins Blut des Ungeheuers; ihr Gift ist eine Waffe, der sich schlechterdings nichts entgegensetzen lässt. Zu der rohen physischen Kraft, die ihn auszeichnet, die sich aber vor allem im Nahbereich bewährt, kommt noch die sublimere, technisch fortgeschrittene Macht einer Fernwaffe hinzu.18 Diese beiden Formen der Gewalt gegeneinander zu setzen, ist der Kern der ersten beiden athloi, also des Kampfs gegen den nemeischen Löwen und des Kampfs gegen die lernäische Hydra. Freilich wird genau dieser Fortschritt am Ende den Herakles verderben. Denn das Gift der Hydra kehrt zu ihm zurück, versehrt und tötet ihn: Als der Zentaur Nessos sich an Herakles’ Frau Deianeira vergreifen will – er versucht sie beim Übersetzen über ein reißendes Gewässer zu entführen –, trifft ihn Herakles mit einem der Pfeile, die er ins Blut der Hydra getaucht hat. Der sterbende Zentaur wiederum behauptet gegenüber Deianeira, dass sein Blut einen Liebeszauber enthalte; sie möge es auffangen und in dem Falle verwenden, dass Herakles ihr einmal untreu werden sollte. In Wahrheit handelt es sich natürlich um das Gift, mit dem sein eigenes Blut infiziert wurde. Als nun Herakles von einem Rachefeldzug zurückkehrt und die Prinzessin Iole als Kriegsbeute und Nebenfrau mitbringt – sie war ihm vor der Heirat der Deianeira versprochen, dann aber verweigert worden –, tränkt Deianeira ein Gewand mit dem Blut des Zentauren, und überreicht es ihrem Mann als Willkommensgeschenk. Herakles legt es an und wird von dem Gift bei lebendigem Leibe verbrannt. Strenggenommen handelt es sich dabei aber nicht bloß um die Rache des Nessos (dessen 18 Ebd., S. 88: »zwar ist das argolische Sumpfgebiet befreit, dafür aber die lernäische Hydra nun überall, wo Herakles die mit ihrem Blut getränkten Pfeile verschießt«. 187 Namen das Gewand in der populären Überlieferung trägt), sondern um die Rache der de facto eben nicht besiegten und vielleicht gar nicht besiegbaren Hydra. Dieser Vorgang – Jan Kott spricht in einem Aufsatz über die Trachinierinnen des Sophokles von einer »Zirkulation der Gifte«19 – ist eine Frühform der »Dialektik der Aufklärung«, des Gedankens also, dass eine Form der Aufklärung, die sich einzig und allein als Naturbeherrschung begreift, ohne zu reflektieren, dass der Mensch ein Teil der Natur ist, die er beherrschen will, in Selbstzerstörung umschlägt. Bereits also in der antiken Überlieferung ist Herakles nicht einfach der Heros, dessen zivilisatorische Leistungen unumwunden gefeiert werden. Er erscheint vielmehr als eine zutiefst problematische Gestalt, in der die menschliche Gattungsarbeit, Fortschritt und Aufklärung belastet erscheinen von der Möglichkeit eines Rückschlags, der die Subjekte dieses Prozesses mit sich reißt. Dieses ohnehin schon recht kritische Bild verdüstert sich aber in noch weit höherem Maße, wenn man die entscheidende Umakzentuierung mitberücksichtigt, der Euripides in seiner Herakles-Tragödie den Mythos unterworfen hat. Sie führt uns ins Zentrum von Kluges Bearbeitung der Überlieferung hinein. Zum Herakles-Mythos gehört nämlich noch eine weitere Geschichte, die die Stärke und die heroischen Qualitäten ihres Protagonisten ins Zwielicht rückt. Sie handelt davon, wie Herakles seine gesamte Familie im Wahnsinn tötet, seine Frau und Kinder abschlachtet – nur sein Vater bleibt durch einen Zufall verschont. In der Standardüberlieferung des Mythos nun verhält es sich so, dass Herakles zuerst diese Taten begeht und sich dann bei Eurystheus verdingt und die von ihm gestellten Zivilisationsarbeiten eine nach der anderen löst. Die Arbeit ist also eine Art Buße: das Resultat einer traumatischen Erfahrung. Diesem Modell folgt im Gro- ßen und Ganzen auch Kluges Erzählung: »Herakles, sagt Heiner Müller, verkörpert in den Mythen als erster die ›Gestalt des Arbeiters‹. In einer von Göttern auferlegten Verwirrung tötet er ›das Liebste, das er hat‹, darunter seine Kinder, seine Frau, zündet das Haus an. Geistesabwesend verhält er sich zerstörerisch ›auf entsetzliche Weise‹. Daraufhin verdingt er sich bei dem Tyrannen Eurystheus [...]«20 Das wäre für sich genommen gar kein Problem, wenn Kluge diese Sätze nicht ausgerechnet Heiner Müller in den Mund legen würde. Denn in aller Regel erscheint Herakles bei ihm als eine Gestalt, die in der sozialistischen Ideologie viel zu viel Verehrung genoss, als dass er sie unkritisch beim Wort hätte nehmen wollen. Und eine der prominentesten Aneignungen des Textes – es ist ein längeres Gedicht mit 19 Jan Kott: »Der schwarze Sophokles oder die Zirkulation der Gifte«, in: Gott-Essen. Interpretationen griechischer Tragödien, München 1975, S. 101–125. 20 Kluge: Heiner Müller und ›Die Gestalt des Arbeiters‹, S. 56. In diesem Jahrbuch, S. 297. Im Folgenden werden Zitate aus diesem Text aufgrund seiner Kürze nicht einzeln nachgewiesen. 188 dem schon durch die Numerik für den Kluge-Text einschlägigen Titel Herakles 13 – ist nichts anderes als eine Euripides-Paraphrase.21 Der Witz der euripideischen Adaption ist nämlich, dass er die Reihenfolge der herakleischen Taten umkehrt. Der Prozess der Selbstzerstörung, die Abschlachtung der eigenen Familie bildet nicht die Initialzündung des Arbeitsprozesses, sondern ihr Ergebnis; es ist die letzte Tat des Herakles, das Postskriptum, nachdem er die Schwelle zwischen Leben und Tod überwand und seinen in vieler Hinsicht ihm ähnlichen Kollegen Theseus aus der Unterwelt heraufführte. In der offiziellen Lesart ist dies – die Überwindung des Todes – das Höchste, das einem Heros zuteilwerden kann; in Wahrheit jedoch führt es dazu, dass Herakles – jedenfalls in der euripideischen Version – vom Tode gezeichnet, als ein veritabler Todesdämon wieder zur Oberwelt zurückkehrt, der Verderben verbreitet, wohin er sich auch wendet.22 Durch die Unterwerfung der äußeren Natur ist seine innere beschädigt worden; die Zerstörung schlägt zurück und wird zur Selbstzerstörung; die Ungeheuer, die er getötet und an den Rand der Welt vertrieben hatte, kehren in seinem Inneren zurück; er bekommt die Quittung für seine Taten, die er triebdynamisch auf Kredit begangen hatte. II So ungefähr ließe sich die euripideische Version der Aufklärungskritik umreißen, die das mythologische Material selbst schon bereithielt. Heiner Müller bietet in Herakles 13 eine genaue und äußerst sprachmächtige Paraphrase dieses Vorwurfs. Kritisch ist aber schon der Blick, den frühere Texte auf den Herakles-Mythos werfen. In Herakles 5 verwandelt sich derjenige athlos, den man noch am ehesten mit einer intellektuellen Tätigkeit des Herakles assoziieren würde – die Reinigung des Augiasstalles –, in eine groteske Allmachtsphantasie, in der die naive Verklärung des Fortschritts in den sozialistischen Staaten ins Visier genommen wird. In Zement erscheint Herakles als bürgerlicher Nutznießer des ›Arbeiters‹ Prometheus, der für seine zivilisatorischen Werke bezahlen musste, während der vorgebliche Befreier Herakles den Ruhm davonträgt.23 Wenn Müller nun (Kluge zufolge) behauptet, dass Herakles den zwölf Werken, zu denen er die unendliche Aufgabe einer Abtragung des Traumas, der Selbstzerstörung, des brutalen Heraustretens aus dem Naturzusammenhang, eine »uns unbekannte dreizehnte Leistung« hinzufügt, so ist man zunächst geneigt, der Müller’schen Zählung zu folgen. Freilich ist die Ermordung der eigenen Familie 21 Heiner Müller: Herakles 13 (nach Euripides), in: Werke 1: Die Gedichte, Frankfurt am Main 1998, S. 237–240. 22 Vgl. Heinrich: Arbeiten mit Herakles, S. 27–32, S. 41–48. 23 Vgl. Heiner Müller: Herakles 5, in: Werke 3: Die Stücke 1, Frankfurt am Main 2000, S. 397– 409; Zement, in: Werke 4: Die Stücke 2, Frankfurt am Main 2001, S. 404–406. 189 schon ›besetzt‹, da Kluge sie in Übereinstimmung mit dem Großteil der Tradition an den Anfang seines Herakles-Mythos stellt. Was also könnte diese »dreizehnte Leistung« sein? Auch sie scheint etwas mit Zerstörung und Selbstzerstörung zu tun zu haben – ja, wenn man genau hinsieht, scheint es sich so zu verhalten, dass Kluge das Programm einer 13. Tat auf das Ende überträgt, dass Herakles sonst nimmt, das Verbrennen bei lebendigem Leibe durch das zu ihm zurückgekehrte Gift. In Kluges Erzählung heißt es: »Es geht um eine ins Unendliche gerichtete, die Gegenstände verändernde Tätigkeit, einschließlich des Tötens und Beseitigens, um die Gestalt einer ›lebendigen Maschine‹; zuletzt ist sie gefangen in einem giftgetränkten Netz, das das Innere verbrennt.« Zugleich scheint es sich doch um mehr zu handeln als um eine plane Adaption der Geschichte vom Nessosgewand. Denn zum einen ist noch nicht einmal sicher, dass es sich hier, an dieser Stelle, um einen letalen Prozess handelt. Immerhin ist er »ins Unendliche gerichtet«. Und zum anderen erscheint er nicht nur negativwertig, wenn davon die Rede ist, dass er die »Gegenstände verändert«. Das tut schließlich jede Arbeit. Was hat sich hier überlagert? Nun gibt es noch einen weiteren Text von Müller, der sich mit Herakles befasst. Er ist ebenfalls ein Teil von Zement und trägt den Titel Herakles 2 oder die Hydra.24 In ihm erscheint Herakles nicht als mythologisches Urbild eines parasitären bürgerlichen Intellektuellen, sondern ganz im Gegenteil als ›Gestalt des Arbeiters‹. Genauer: Es wird hier, in einem atemlosen, stoßweisen Stil, der sich so weit entfernt wie nur denkbar von Kluges Text(en) befindet, davon erzählt, wie aus dem mythologischen Helden, der sich die Welt durch Kraft und Gewalt unterwirft, der Arbeiter als Gattungssubjekt wird, in dem dieser Vorgang reflexiv wird, und der sich deswegen partiell lossagt von den destruktiven Komponenten des Prozesses. Man könnte sagen: Die Aufklärung selbst ist das Subjekt dieses Textes, und sein Gegenstand ist ihre Transformation aus blinder und gewaltförmiger Bemächtigung der äußeren Natur in den Prozess einer kontinuierlichen Selbstverwandlung, der die innere Natur ebenso betrifft wie die äußere und in dieser Form, als »Eingedenken der Natur im Subjekt«,25 einen Ausweg aus der katastrophisch angelegten Dialektik der Aufklärung andeutet.26 Herakles 2 durchläuft drei Phasen. In der ersten befindet sich Herakles auf dem Weg zur Hydra, er läuft durch einen Wald, dieser ist der Weg, der ihn zum Ungeheuer führt. In der zweiten Phase stellt er fest, dass der Wald, der mit seinen Schling- 24 Ebd., S. 424–428. 25 Theodor W. Adorno und Max Horkheimer: Dialektik der Aufklärung, in: Theodor W. Adorno, Gesammelte Schriften, Bd. 3, Darmstadt 1997, S. 58. 26 Zu Herakles 2 vgl. Wolfram Ette: Arbeit als Selbstverwandlung in Müllers ZEMENT, https:// wolframettetexte.files.wordpress.com/2014/09/ette-mc3bcller-zement-fassung-3-homepage.pdf (veröffentlicht September 2014). 190 pflanzen, absonderlich beweglichen Ästen und dem wellenförmig nachgebenden Boden selbst ein Lebewesen zu sein scheint, die Hydra ist. Sein Weg ist das Ziel, er ist schon da und beginnt einen im weiteren Verlauf immer aussichtsloser erscheinenden Kampf gegen die ihm nicht mehr gegenüberstehende, sondern ihn umgebende Natur. Von der dritten Phase wird nur der Anfang geschildert; sie ist aber die entscheidende einer reflexiven Selbsttransformation des Mythologems. In ihr nämlich erkennt Herakles, dass er selbst der Wald, also die Hydra ist. Ich zitiere den letzten Satz: »Im Gewirr der Fangarme, die von rotierenden Messern und Beilen nicht, der rotierenden Messer und Beile, die von Fangarmen nicht, der Messer Beile Fangarme, die von explodierenden Minengürteln Bombenteppichen Leuchtreklamen Bakterienkulturen nicht, der Messer Beile Fangarme Minengürtel Bombenteppiche Leuchtreklamen Bakterienkulturen, die von seinen eigenen Händen Füßen Zähnen nicht zu unterscheiden waren in dem vorläufig Schlacht benannten Zeitraum aus Blut Gallert Fleisch, so daß für Schläge gegen die Eigensubstanz, die ihm gelegentlich unterliefen, der Schmerz beziehungsweise die plötzliche Steigerung der pausenlosen Schmerzen in das nicht mehr Wahrnehmbare sein einziges Barometer war, in dauernder Vernichtung immer neu auf seine kleinsten Bauteile zurückgeführt, sich immer neu zusammensetzend aus seinen Trümmern in dauerndem Wiederaufbau, manchmal setzte er sich falsch zusammen, linke Hand an rechten Arm, Hüftknochen an Oberarmknochen, in der Eile oder aus Zerstreutheit oder verwirrt von den Stimmen, die ihm ins Ohr sangen, Chöre von Stimmen BLEIB IM RAHMEN LASS DAMPF AB GIB AUF oder weil es ihm langweilig war, immer die gleiche Hand am gleichen Arm immerwachsende Fangarme Schrumpfköpfe Stehkragen zu kappen, die Stümpfe zum Stehen bringen, Säulen aus Blut; manchmal verzögerte er seinen Wiederaufbau, gierig wartend auf die gänzliche Vernichtung mit Hoffnung auf das Nichts, die unendliche Pause, oder aus Angst vor dem Sieg, der nur durch die gänzliche Vernichtung des Tieres erkämpft werden konnte, das sein Aufenthalt war, außer dem vielleicht das Nichts schon auf ihn wartete oder auf niemand; in dem weißen Schweigen, das den Beginn der Endrunde ankündigte, lernte er den immer andern Bauplan der Maschine lesen, die er war aufhörte zu sein anders wieder war mit jedem Blick Griff Schritt, und daß er ihn dachte änderte schrieb mit der Handschrift seiner Arbeiten und Tode.«27 Die entscheidende Opposition, die den hier geschilderten Übergang regelt, ist die zwischen dem »Tier, das sein Aufenthalt war« und der »Maschine [...], die er war, aufhörte zu sein, anders wieder war«. Ausweglos umgeben ist Herakles von dem, was er bekämpft, und er entrinnt ihm dadurch, dass er sich mit ihm identifiziert. Die Hydra als der Wald ist das Netz. Das Netz aber, als welches das Ungeheuer zu ihm zurückgekehrt ist und dass ihn nun umspinnt, ist nicht zu zerreißen; man muss selbst das Netz werden, wenn man der Todesdrohung entrinnen will. Damit verbindet sich die Opposition zwischen dem Organischen und dem Maschinellen. Der Herakles, von dem in den letzten Zeilen die Rede ist und der sich auf eine nie anfangende oder 27 Müller: Zement, S. 427–428. 191 nie endende »Endrunde« vorbereitet, ist eine »Maschine«; genauer: er ist die »lebendige Maschine«, von der Kluge redet, die Maschine als selbstorganisierendes System, die sich umprogrammiert und eigentätig ihren Bauplan ändert. Strenggenommen handelt es sich also nicht um eine Maschine, sondern um ein Aggregat, in dem die Grenzen zwischen dem Maschinellen und dem Natürlichen, zwischen physis und techné, aufgehoben sind. Sicherlich haben an dieser Stelle die kybernetischen Diskussionen eine Rolle gespielt, die die DDR in den 1960er Jahren erreichten;28 und man kann sich darüber hinaus vorstellen, dass der mit der Theorie selbstorganisierender Systeme sympathisierende Kluge29 diese Anregung aufnehmen wollte. Die »uns unbekannte dreizehnte Leistung«, die er ins Spiel bringt, wird von eben dem Arbeitsbegriff repräsentiert, der sich in Müllers Herakles 2 dargestellt findet: Arbeit als Selbstverwandlung, in der jede ›Veränderung des Gegenstands‹ auf das Subjekt zurückschlägt; als dialektische Rückkopplung von Subjekt und Objekt, durch die die »lebendige Maschine« der menschlichen Gattung das Antlitz der Welt, auf der sie zuhause ist, verändert. III Die ganze Pointe der Konstruktion läuft nun darauf hinaus, dass dieser Prozess nie zum Ende gelangt. Im Mythos entschließt Herakles sich, gepeinigt von unerträglichen Schmerzen, zur Selbstverbrennung. Nachdem viele sich geweigert haben, den Scheiterhaufen zu entzünden, findet sich schließlich Philoktet, der Herakles erlöst; zum Dank dafür erhält er seinen Bogen zum Geschenk. Herakles verbrennt, sein sterbliches Teil wird zu Asche, sein unsterbliches Teil bleibt und fährt auf zu den olympischen Göttern und wird im Sternbild seines Namens verstirnt. Anders schon Müller, bei dem zumindest unklar bleibt, ob die »Endrunde« jemals beginnt oder ob das »weiße Schweigen«, das ihr vorausgeht, ewig währt, ob also die »Gestalt des Arbeiters« für immer fortfährt, sich zu zerstören und immer wieder aufs Neue zusammenzusetzen. Bei Kluge wird es noch eindeutiger: »Aus Furcht vor Strafe wagt es keiner, dem Befehl des Herakles zu folgen, den Scheiterhaufen anzuzünden, auf den er sich gesetzt hat.« In diese Richtung zielt auch der nächste Satz: »Wer hat sich 28 Zunächst wurde die Kybernetik in der UdSSR und in der DDR als ›bürgerliche Pseudo-Wissenschaft‹ abgelehnt. Der erste ostdeutsche Beitrag, der sich zu ihr in ein affirmatives Verhältnis setzt, ist ein Vortrag von Georg Klaus: Elektronengehirn contra Menschengehirn? Über die philosophischen und gesellschaftlichen Probleme der Kybernetik, Leipzig 1957. Auf dem Parteitag 1963 dekretiert Ulbricht dann: »Die Kybernetik ist besonders zu fördern.« (zit. nach: Jerôme Segal: Die Einführung der Kybernetik in der DDR. Begegnung mit der marxistischen Ideologie, http://jerome-segal.de/Publis/Kyb-DDR.htm, aufgerufen: 10.08.2017). In Müllers Werk hat sich der Komplex vor allem in Waldstück (in: Werke 4, S. 87–175) niedergeschlagen. 29 Vgl. Kluge und Negt: Geschichte und Eigensinn, S. 45–77 (»Selbstregulierung als Natureigenschaft«). 192 das, fragt Heiner Müller, ausgedacht, eine Erzählung, die lange vor der Zeit handelt, in der Prometheus an die Felsen des Kaukasus gekettet wurde?« Auf den ersten Blick kehrt er damit die mythologische Chronologie um. Die Taten des Herakles sind nachprometheisch, erst ein Weltalter nach der Fesselung des Prometheus kommt Herakles (hier noch ein – sterblicher – Heros) zum Kaukasus und befreit den Titanen. Man wird davon ausgehen können, dass Kluge dieser Umstand bekannt war. Wenn er seine Herakles-Erzählung vor den Taten des Prometheus spielen lässt, so will er damit wohl zu verstehen geben, dass der Prozess der menschlichen Gattungsarbeit nicht bloß kein Ende hat, sondern im strengen Sinne auch keinen Anfang. Egal, wie weit man gattungsgeschichtlich, ja evolutionär zurückgeht: Die »ins Unendliche gerichtete, die Gegenstände verändernde Tätigkeit« war immer schon da; die zivilisatorischen Errungenschaften, die sich mit der prometheischen Rebellion verbinden, sind selbst kein Ursprung, sondern nur ein Moment innerhalb des weit hinter sie zurückgreifenden Arbeitsprozess, durch den der Mensch zum Menschen wurde. Evolution ist Arbeit; in diesem Maßstab erscheinen die Taten des Prometheus nicht als Urknall, mit dem die menschliche Kultur begann, sondern als späte und reife Leistung, die auf beträchtlichen, mit dem Namen des Herakles zu verbindenden Vorarbeiten beruhte. IV Aber Kluge geht im weiteren Verlauf noch über diese Perspektive – man könnte sie in Anlehnung an Engels den Anteil der Arbeit an der Menschwerdung des Affen nennen – hinaus: Er erweitert den Arbeitsbegriff ins Kosmische. Dabei unterliegt er jedoch einer eigentümlichen Veränderung. Während nämlich die Arbeiten des Herakles in ihrem Ursprung traumatogen sind, sich also der »unverschuldeten Schuld« von Verlust und Zerstörung verdanken, die der Grund dafür sind, dass man überhaupt zu arbeiten beginnt, taucht die zweite Urszene der Arbeit sie in ein fast idyllisches Licht: »Als Kind aber wurde dieser Herakles, Sohn des Zeus und der Alkmene, an die Brust der schlafenden Muttergöttin Hera gelegt. Entweder weil er des Saugens müde war und Reste der Milch beim Absetzen verspritzte oder weil die betrogene Göttin aus ihrem Schlaf erwachte, den Säugling von ihrer Brust riß und dadurch Milch verschüttete, entstand der Riesenbogen der Milchstraße, die wegen dieser Geschichte in der Winternacht ihren Namen trägt.« Dass Herakles von Hera gesäugt wurde, ist eine eher apokryphe Überlieferung. Gleichwohl liegt sie auf der Linie einer zweiten, wohl älteren Bedeutungsschicht der Figur. In ihr erscheint Herakles eigentümlich verbunden mit der Muttergöttin, die dem olympischen Kosmos als unfruchtbares und ewig zänkisches Eheweib des Zeus 193 integriert wurde. Es ist ja ihr Name, den Herakles in seinem Namen trägt, ihr »Ruhm«, den er durch seine Taten begründet.30 In einer Geschichte, die nicht in den Dodekathlos aufgenommen wurde, erscheint er – in Frauengewändern – im Dienst der matriarchalen Königin Omphale, hinter der sich die große Muttergöttin als Matrix unschwer erkennen lässt. Kluge transformiert diese ›weibliche‹, durchaus konfliktträchtige Traditionslinie in eine Urszene kindlichen Glücks. Zur Arbeit gehört offenbar zweierlei: eine Verletzung, ein Bruch mit dem Ursprung und ein Depot an Urvertrauen, das daran hindert, aufzugeben und den Ursprungsbruch produktiv macht.31 Dieses Urvertrauen hat Herakles in Form der göttlichen Milch aufgenommen, die auch am Himmel zu sehen ist – als eine Komponente der »Himmelsarbeit«, deren Prozess Kluge im Folgenden beschreibt. Denn auch die Galaxis, von der unser eigenes Leben einen winzigen Teil bildet, ›arbeitet‹; auch sie ist eine »lebendige Maschine«, in der (Selbst-)Zerstörung und Neuproduktion einander bedingen und unablässig ineinander übergehen. Auch die Milchstraße und die sie umgebenden Galaxien sind nicht einfach blinde, d.h. mechanische Natur, sondern ein evolutionär prozessierendes Lebewesen. Die Materie reagiert ausweichend auf die permanente Todesdrohung, die ihr Zentrum bildet: die »Gravitationsfalle« im Mittelpunkt der Milchstraße. Diese Ausweichbewegung ist der Grund dafür, dass das Weltall sich verändert, dass es eine Geschichte hat, von der die des Menschen wiederum einen Teil bildet. Das scheint der Grundgedanke des zweiten Teils der ersten Hälfte von Kluges Erzählung zu sein. Eine scharfe Grenze zwischen Natur und Kultur, Kosmos und Mensch, organischem Lebensprozess und produktiver Fortschrittsarbeit ist nicht zu ziehen. Kluge verschränkt beide miteinander und dehnt den dadurch entstandenen Hybrid auf den Bereich aus, der traditionellerweise davon ganz freigehalten wurde – auf die Gestirnsbewegungen nämlich. Den Anschein der Vollkommenheit erlangen diese in den klassischen Astronomien dadurch, dass sie störungsfrei verliefen, folgend den Bewegungen ihrer Sphäre oder den Gesetzen der klassischen Mechanik. Bei Kluge ist dieser Vorgang durch die Absorption großer Materiemengen im Inneren der Galaxis gestört. Die Milchstraße frisst sich selbst auf, und sie verhält sich wie ein Lebewesen, weil sie der perennierenden Selbstzerstörung etwas entgegen- 30 Herakles heißt »Ruhm der Hera«. Zu diesem Komplex vgl. Heinrich: Arbeiten mit Herakles, S. 141–166. 31 Diese Ergänzung dirigiert auch Kluges Auseinandersetzung mit Engels Text über den Anteil der Arbeit an der Menschwerdung des Affen. Nicht bloß das »Zweckmäßige, die Funktion«, letztlich die äußere Not »erzwingt Veränderungen der Natur«, »sondern die frühen Lebewesen, die zu Menschen wurden, krallten sich zunächst in das Fell der Eltern, wenn diese ihre Säuglinge auf dem Rücken aus der Gefahr trugen. Der zärtliche Zugriff hat die Fingerspitzen so markiert, daß sie zum unterscheidenden Zugriff taugten« (Kluge und Negt: Geschichte und Eigensinn, S. 23–24). 194 setzt und daran ihre spezifische Verlaufsform gewinnt.32 So leistet der Himmel evolutionäre Arbeit. Besondere Aufmerksamkeit verdient dabei der Begriff der »organischen Konstruktion«. Er paraphrasiert, wie gesagt, die »lebendige Maschine«, also die dreizehnte Arbeit, die den 12 Werken des Herakles unterliegt und sie als Momente eines einzigen Prozesszusammenhangs erscheinen lässt. Gleichzeitig handelt es sich um ein Zitat, und zwar um eines, dessen politische Herkunft ziemlich schillernd ist. Wie die »Gestalt des Arbeiters« stammt es aus Jüngers dem Nationalsozialismus nahestehender Programmschrift Der Arbeiter.33 Die Gestalt oder der Typus des Arbeiters firmiert in Jüngers Buch als Nachfolgebegriff des bürgerlichen Individuums, und die organische Konstruktion wiederum bringt den totalen Zusammenhang der nachbürgerlichen Gesellschaft auf den Begriff, die auf das Individuum und seine Ansprüche verzichten kann. Diese Jünger’sche Version des NS-Staates – mit ihm nicht identisch, aber aus ihm auf eine nicht allzu ferne Zukunft extrapolierend – ist ›organisch‹, weil sie nur aus Funktionselementen besteht, die nicht aufkündbar sind;34 ›Konstruktion‹ bleibt sie als durch Menschen entstandenes Gebilde. Offenkundig verfolgt Kluge andere Interessen, wenn er das Weltall eine organische Konstruktion nennt. Wie Thomas Mann, der in den Josephsromanen dem »intellectuellen Fascismus« den Mythos »wegnehmen und ins Humane umfunktionieren« wollte,35 wendet Kluge die Jünger’schen Begriffe in sich um und bindet sie in sein Projekt ein. Und zwar so, dass er dem traditionellen Begriff des Organischen, also eines durch umfassende Funktionalität bestimmten Ensembles von Teil-Ganzes- Verhältnissen, die Vorstellung eines selbstorganisierenden Systems unterschiebt, das in eine offene Zukunft prozessiert. Was ihn interessiert, ist das Oxymoron der organischen Konstruktion als Evolutionsmetapher. Seinen Gehalt polarisiert er aber in eine ganz andere als die von Jünger geplante Richtung. V Auch wenn die Arbeit des Herakles und die »Himmelsarbeit« der Milchstraße zunächst über eine relativ weitgehende Strukturanalogie miteinander verbunden zu sein scheinen, geht es im weiteren Verlauf des Textes doch zunächst um die Heraus- 32 »›Es gibt keine Selbstregulierung an und für sich.‹ Als lebendige Arbeit entsteht sie in der Reibung am Gegenstand« (ebd., S. 53). 33 Ernst Jünger: Der Arbeiter. Herrschaft und Gestalt, Stuttgart 1985. 34 Ebd., S. 119–120: »Einer organischen Konstruktion gehört man nicht durch individuellen Willensentschluß, also durch Ausübung eines Aktes der bürgerlichen Freiheit, sondern durch eine tatsächliche Verflechtung an, die der spezielle Arbeitscharakter bestimmt.« 35 Thomas Mann an Karl Kerényi, 7. September 1941, in: Karl Kerényi: Romandichtung und Mythologie. Briefwechsel mit Thomas Mann, Jülich: Rhein-Verlag 1945, S. 66. 195 arbeitung einer Differenz. Das Grundmuster der in der Herakles-Figur mythologisch erfassten menschlichen Gattungsarbeit ist linear. Es geht hier, mit einem Wort, um den Fortschritt. Die Arbeit des Kosmos dagegen erscheint ›kugelförmig‹. Es wird sozusagen gleichmäßig in alle Richtungen produziert, ein Fortschritt lässt sich in der Natur nicht erkennen. Zu tun hat das offenbar nichts mit der hergebrachten Vorstellung, dass Naturprozesse zyklisch verlaufen. Diese verdankt sich wahrscheinlich einer Einengung des Beobachtungshorizonts auf den Maßstab der Alltagswahrnehmung; mit einer modernen, das heißt evolutionären Perspektive auf die Naturvorgänge ist sie jedenfalls nicht zu vereinbaren. Aber auch mit dem Paradigma der Evolution lässt sich Kluges Text nicht übereinbringen. Hier rührt der andere Prozesscharakter der ›Naturarbeit‹ daher, dass es Zerstörung in einem strengen Sinne gar nicht gibt, weil sie von einer ›Gegenproduktion‹ begleitet wird, durch die parallele Welten entstehen: »aus allen Poren gibt die Gravitationsfalle Substanz nach außen. So daß immer erneut Universen entstehen müssen, parallele Welten, die gemeinsam die LÄSSLICHKEIT DER NATUR (Goethe) zeigen. So zeigt das ›Weltall als Gestalt des Arbeiters‹ überhaupt keine Tendenz, sich von einem Anfang in ein Unendliches oder auf ein Ende hin zu bewegen, sondern es gliedert sich in Vielfalt und Einfachheit, so daß immer eine GEGENBEWE- GUNG, eine Gegenwelt die ERSCHEINUNG begleitet.« Das, so heißt es kurz zuvor, werde durch die »Quantenmechanik« bewiesen. – Das Vertrackte an dieser Stelle ist die Frage, an welchem Punkt sich die Wege trennen. Die Arbeit des Herakles geht ins Unendliche, hat aber gerade deswegen kein Ende – auch wenn Herakles selbst es ersehnt. Die menschliche Gattung möchte einmal ankommen, sie möchte den Zustand erreichen, in dem nicht mehr gearbeitet werden muss, in dem man sich nicht mehr verändern muss – sei es im Kommunismus oder im Tod. Die Notwendigkeit unablässiger Selbstverwandlung hat sie mit dem Kosmos gemeinsam. Dieser aber bewegt sich nicht einmal »in ein Unendliches«. Das muss man wohl so verstehen, dass das Weltall, eben weil es alles beinhaltet, nicht über sich hinauswachsen kann. Die Selbstverwandlung ist eine innerliche, sie findet innerhalb der viele Milliarden Lichtjahre großen Blase statt, die wir ›unser‹ Universum nennen; und zwar in Form der Produktion von Parallelwelten. Es ist nicht die eine Welt, die ins Unendliche fortschreitet, sondern es sind viele Welten, die wie Blütenblätter um den zugleich zerstörerischen und produktiven, geizigen und verschwenderischen Kern unserer Welt angeordnet sind. Es ist wohl klar, dass es sich hier nicht um abgesicherte wissenschaftliche Erkenntnis handelt, sondern um eine spezifisch poetische Form, wissenschaftliche Hypothesen fruchtbar zu machen. Dennoch ist das, was Kluge hier behauptet, keine leere Mimikry an den Jargon der Kern- und Astrophysik. Es hat vielmehr einen wissenschaftsgeschichtlichen Anknüpfungspunkt in der sogenannten ›Viele-Welten-Theorie‹ des britischen Physikers Hugh Everett. Diese Theorie wurde 1957, als sie er- 196 schien, von der scientific community vollkommen ignoriert; mittlerweile aber spielt sie in quantentheoretischen Debatten eine immer wichtiger werdende Rolle. Im Kern behauptet diese Theorie, dass die Wirklichkeit auf quantenmechanischer Ebene eine Vielzahl möglicher Welten in sich enthalte, die durch den Akt der Beobachtung tatsächlich auseinandertreten und sich realisieren. Die Quantenwelt ist indeterministisch und indifferenziert und sie »dekohäriert« erst durch die Beobachtung in verschiedene Erscheinungswirklichkeiten.36 Jede »Erscheinung«, wie es bei Kluge heißt, ist von einer alternativen »Gegenwelt« begleitet. Das schwarze Loch im Zentrum der Galaxie stellt durch seine extreme Energiekonzentration, die Materie strukturlos werden lässt und sozusagen ›verflüssigt‹, Verhältnisse her, wie sie auf Quantenebene herrschen. Hier, an diesem kosmischen Ursprungsort, ›entstehen‹ im größten Stil Welten. VI Sie entstehen aber durch Beobachtung. Es ist ja einer der Grundsätze der Quantentheorie, dass es unterhalb des Atomkerns keinen neutralen Beobachter mehr geben kann. Jede Beobachtung ist invasiv und verändert das Beobachtete von Grund auf. Es liegt nahe, dass Kluge, in dessen Poetologie der Begriff der Beobachtung eine prominente Stelle einnimmt, hier mehr im Sinn hat als die Verhältnisse auf Quantenebene. Es handelt sich vielmehr um eine Metapher des poetischen Prozesses. Dichtung repräsentiert in der Arbeitswelt der Menschen die ›Arbeit der Natur‹, die nicht fortschreitet, sondern strahlen- oder netzförmig um den Moment der Wirklichkeit herum alternative Wirklichkeitsmomente erzeugt. Damit kappt sie die teleologische Sehnsucht der Fortschrittsarbeit: dass irgendwann ein Ende sei – auch wenn uns, den großen und kleinen Verkörperungen des Herakles, das nicht gefällt: »Deswegen trägt der tief frustrierte Herakles die Säulen der Welt auf seinen Schultern, die doch seit kurzem eingestürzt sein müßten. Und deshalb warten die Toten, die zur ersten Jahrtausendwende den Einsturz der Welt bei Aachen erwarteten, immer noch vergeblich.« 36 Ich zitiere aus einem Paper der Universität Münster, dessen mathematische Grundlagen mir nicht klar sind: »Die Namensgebung für diese Interpretation erfolgte nicht durch Everett selbst. Streng genommen müsste man seine Theorie eher die ›Theorie der relativen Zustände‹ nennen. Der Begriff ›Vielweltentheorie‹ oder ›Many Worlds Interpretation‹ geht auf Bryce DeWitt zurück, der einige Aspekte der Arbeit von Everett noch weitergehend auslegt. Während Everett nur von einem Beobachtersystem spricht, dessen Zustand sich immer weiter aufspaltet, deutet DeWitt diese überlagerten Zustände als unterschiedliche Universen. Demnach spaltet sich das Universum bei jedem Messvorgang in eine Vielzahl an Paralleluniversen auf, und jeder mögliche Messausgang wird in einem dieser Universen beobachtet.« (Markus Michael: Die Vieleweltentheorie, http://pauli.uni-muenster.de/tp/fileadmin/lehre/teilchen/ss11/Vielweltentheorie.pdf, aufgerufen: 10.08.2017). 197 Aber das heißt nicht, dass die Poesie konservativ sei. »Es ist kein Stillstand, der das Ende der Arbeiten verhindert, die durch unverschuldete Schuld motorisiert wurden.« In gewisser Weise fundiert die Poesie – das poetische Produktionsprinzip – sogar den Fortschritt. Denn sie ist es, die über das Ende eines jeden ›Werkes‹ hinausgeht und damit das Prinzip des ›Dasselbe noch mal anders‹ (Beckett) induziert, das sich unter den Händen des Herakles in Fortschritt verwandelt. VII Es ist auf der einen Seite nicht verwunderlich, dass in dieser Poetik der Natur (als Subjekt, nicht als Objekt der poetischen Produktion) Goethes Name genannt wird. Auf der anderen Seite aber scheint gerade die – ungemein goethesch wirkende – Formulierung von der »Läßlichkeit der Natur« in seinem Werk gar nicht vorzukommen. Möglicherweise handelt es sich um eine Rückprojektion, ein ungenaues Gedächtniszitat oder etwas Ähnliches. Tradition lebt nicht durch Philologie. Hinter Fehlerinnerungen stehen mitunter komplizierte und intellektuelle Aneignungsprozesse; kein Mangel, sondern eine produktive Synthesis, die ein Falsches wie echt erscheinen lässt. Dennoch ist die Frage, ob es sich hier nicht um einen kalkulierten Vorgang handelt, der das poetische Verfahren in sich aufnimmt und abbildet. Goethe selbst hat merkwürdigerweise nie einen programmatischen Text über die Natur verfasst. Das Nachdenken über sie durchdringt sein gesamtes Werk und hat sich in Einzeluntersuchungen wie die über die Metamorphose der Pflanzen, die Farbenlehre und den Knochenbau der Säugetiere niedergeschlagen. Die Beschwörung des Erdgeistes im ersten, der Gang zu den Müttern im zweiten Teil des Faust geben Hinweise auf das Prinzip rastlosen Werdens und der universellen Metamorphose, die sich in stets nur vorübergehende Formen und ›Werke‹ entlässt und aus ihnen wieder zurücknimmt. Dennoch findet sich in den Gesammelten Werken Goethes ein Text, der in seiner Programmatik und bis in einzelne Formulierungen hinein dem Produktionsprinzip nahekommt, das Kluges Erzählung entwirft. Bizarrerweise stammt dieser Text mit dem Titel Die Natur aber nicht von Goethe selbst, sondern von dem Schweizer Theologen Georg Christof Tobler, der ihn 1783 anonym veröffentlichte. Dieser Text war Goethe aber so wichtig, dass er seinen Autor lange verschwieg und das Fragment in die von ihm noch durchgesehene Werkausgabe letzter Hand aufnahm. Offenbar war er mit dem Inhalt dieses Fragments so identifiziert, dass er Formulierungen wie die folgenden im Grunde als seine eigenen betrachtete – wenigstens potenziell: »Sie baut immer und zerstört immer und ihre Werkstätte ist unzugänglich. [...] Jedes ihrer Werke hat ein eigenes Wesen, jede ihrer Erscheinungen den isoliertesten Begriff und doch macht alles eins aus. [...] Es ist ein ewiges Leben, Werden und Bewegen in ihr und 198 doch rückt sie nicht weiter. [...] Sie setzt alle Augenblicke zum längesten Lauf an und ist alle Augenblick am Ziel. [...] Alles ist immer da in ihr. Vergangenheit und Zukunft kennt sie nicht. [...] Sie ist ganz und doch immer unvollendet.«37 Das ist der anonyme, verdeckt gehaltene Subtext, der Kluges (und wohl auch Goethes) Begriff der poetischen Arbeit zugrundeliegt. Wenn Kluge also von der »Läßlichkeit der Natur« spricht und diese Formulierung Goethe zuschreibt, so handelt es sich strenggenommen um die Fälschung einer Fälschung. Das Zitat hat es so nie gegeben, und der Text, dem es am ehesten entnommen sein könnte, ist nicht von Goethe. Entscheidend ist aber die Konkordanz in der Sache. Die hier versammelten Geister ›ziehen an einem Strang‹. Die »Laxheit in Fragen geistigen Eigentums« – Brecht, von dem die Formulierung stammt, nahm es damit ebenso wenig genau wie Goethe und in gewissem Sinn auch Kluge – ist keine Schwäche, kein Mangel an Originalität, sondern die Fähigkeit, heterogene Materialien zu absorbieren und einer poetischen Diktion einzuverleiben, die kollektive Verbindlichkeit besitzt. Das Urheberrecht ist der juristische Ausdruck der bürgerlichen Vorstellung von Individualität: man besitzt sich selbst als Eigentum, aus dem sich Rechtstitel ableiten lassen. Wer es bricht, bricht auch mit dem Mythos des Originalgenies, das alles gottgleich aus sich erschaffe. Jedes ›Ich‹ besteht aus einem Chor von Stimmen: »Wenn einer den Mund aufmacht, reden immer zehntausend Tote mit« heißt es bei Hofmannsthal,38 und der späte Goethe bezeichnete sich in einem Gespräch über den Faust II als »être collectif«: Der, der nicht mehr Ich ist, hat das Recht, für alle und im Namen aller zu sprechen.39 Von hier führt eine gerade Linie zu Kluges eigener ›Ästhetik des Findens‹.40 VIII Dass Kluge all das seinem Freund Heiner Müller in den Mund legt, wird von hier aus auch noch einmal plausibler. Den Anspruch auf Originalität weist Kluge von sich und reklamiert sie allenfalls in Form des Umstands, dass Müller all diese Dinge 37 Johann Wolfgang Goethe: Naturwissenschaftliche Schriften I, in: Werke. Hamburger Ausgabe in 14 Bänden, Bd. 13, München 1998, S. 45–47. Am 24.5.1828 schreibt Goethe darüber an den Kanzler Müller: »Daß ich diese Betrachtungen damals verfaßt, kann ich mich faktisch zwar nicht erinnern, allein sie stimmen mit den Vorstellungen wohl überein, zu denen sich mein Geist damals ausgebildet hatte« (ebd., S. 48). Was Goethe in der Rückschau freilich fehlt, sind die »Begriffe von Polarität und von Steigerung« (ebd.), mithin ein evolutionärer Naturbegriff. Gerade dieses Monitum dürfte den Text für Kluge interessant gemacht haben. 38 Hugo von Hofmannsthal: Gesammelte Werke. Reden und Aufsätze I, Frankfurt am Main 1979, S. 480. 39 Frédéric Soret: »Notice sur Goethe«, in: Flodoard v. Biedermann und Wolfgang Herwig (Hrsg.): Goethes Gespräche, Bd. III/2, Zürich 1972, S. 841–842. 40 Einer von Kluges Paradetexten für die Ästhetik des Findens ist die »Götterdämmerung in Wien« (Chronik der Gefühle, S. 66–73). 199 so nie gesagt hat. Kenntlich wird dies überdies daran, dass der Text in seinem zweiten Teil den Modus der indirekten Rede verlässt und in den – auch typografisch als solchen erkennbaren – Dialog wechselt. Und auch dieser Dialog ist asymmetrisch gebaut. In ihm ist Müller (scheinbar) der Gebende, das »Ich« Kluges fragt und nimmt das Wort des Dichters entgegen. Eine praktische Begleiterscheinung dieses Verfahrens ist, dass Kluge das – der Sache, nicht den Formulierungen nach – große Pathos, mit dem er die Kunst in dieser Erzählung investiert, Müller zuschieben kann. Müller, der Dichter, ist in der Lage, zu sehen, was keiner sieht, worauf es aber ankommt: den »Blitz, der dem Ungeheuer entweicht«, also die Parallelweltenentstehung. Das ist Kluges Version von dem, was man früher Inspiration nannte. Eigentlich kann jeder, der beobachtet, immer nur die Welt erblicken, die er durch seine Beobachtung produziert. Nur der Künstler sieht noch ›etwas anderes‹. Zumindest kann er weitergeben, »daß man falsch beobachtet hat, wenn es nur eins gibt.« Hinter der Erzählung von Herakles und ›Die Gestalt des Arbeiters‹ steht also ein vertracktes, aber durchgearbeitetes poetisches Programm. Das ist bei Kluge nicht ungewöhnlich; gerade die Geschichten dieses ersten Kapitels der Chronik der Gefühle erscheinen häufig als Kunst über Kunst: als, man könnte sagen, allegorische Beispielerzählungen, durch die Kluge seinen durch alle Genres hindurchlaufenden Begriff der Kunst verdeutlicht. Unsere Erzählung ist weit davon entfernt, alle Aspekte dieses Begriffs zu beleuchten. Aber sie arbeitet sich an dem Konzept ab, das am tiefsten ansetzt. »Poesie als Arbeit« könnte man es in Anlehnung an Robert Weimann nennen41 – Poesie und Kunst als fundierender Teil der unablässigen Verwandlung der Welt, die der Mensch selbst ist, durch Arbeit; und zwar der Teil, in dem sich ihr Naturverhältnis als spielerische und widerständige Form der Produktion ausdrückt. 41 Vgl. Robert Weimann: »Zusammenfassung der Diskussion«, in: Arbeitshefte 17: Poesie der Arbeit, Berlin (Ost) 1973, S. 22–23. 200 Markus Rautzenberg Einübung ins Ungewisse Abstracts Der Essay befragt das mögliche Verhältnis von Spiel und Arbeit in naher Zukunft. Vor dem Hintergrund sich radikal verändernder Wertschöpfungsdynamiken wird die Rolle spielförmiger Emergenzprozesse daraufhin befragt, inwieweit diese als Motor zukünftiger Arbeitswelten gelten könnten. Dabei zeigt sich, dass das Spiel als Medium ganz besonders dazu in der Lage ist mit Ungewissheit und Kontingenz umzugehen, wobei diese Eigenschaft vor dem Hintergrund der Geistesgeschichte des 20. Jahrhunderts kritisch beleuchtet wird. The essay deals with the relation of play and work in the possible future. The question is, if game and play can be considered constitutive, as currently observable, for radically changing economies. The essay argues that game and play as a medium are exceptionally well suited for dealing with uncertainty and contingency. Therefore, game and play are to be critically analyzed as a tool both for control and obedience towards the demands of global capitalism. Eines der nach wie vor weitgehend unhinterfragten Axiome der postindustriellen Zivilgesellschaft ist ihre Bewertung der Erwerbsarbeit im Sinne einer unhintergehbaren Bedingung der Möglichkeit für erfülltes Leben und funktionierende Gesellschaft. Trotz der Tatsache, dass wir große Teile der Arbeitswelt inzwischen aufwendig künstlich erhalten müssen, obwohl sie gemäß des technisch Machbaren längst überflüssig sind, hat ein Umdenken bezüglich der Rolle der Arbeit für den Einzelnen und für die Gesellschaft noch nicht ernsthaft stattgefunden. Bekanntlich liegt hier auch ein zentrales, zumindest psychologisches Hindernis für das Modell des bedingungslosen Grundeinkommens: Der schiere horror vacui angesichts der Vision einer Gesellschaft, in der herkömmliche Erwerbsarbeit nicht mehr die zentrale Rolle spielt wie noch im neunzehnten und zwanzigsten Jahrhundert, lässt keinen Platz für Überlegungen darüber, was nach der Arbeit kommen könnte. Denn die Arbeit ist Sinnstifterin. Sie scheint heute die letzte Zuflucht des – transzendental und auch anderweitig – obdachlosen Subjekts, dass den Taktungen einer entfesselten Marktwirtschaft folgend alles einstmals Sinnstiftende aufgegeben hat und nun nur noch Erfüllungsgehilfe der (je nach Gehaltsstufe) eigenen Selbsterhaltung oder Selbsterfüllung ist. Tragischerweise trifft die Diagnose selbst dann noch zu, wenn es sich bei der Arbeit nicht um die allseits begehrte anspruchsvolle, prestigeträchtige, auskömmliche und damit ›erfüllende‹ Art der Arbeit handelt. Nur allzu oft ist gerade bei schlecht verdienenden Arbeitnehmerinnen und Arbeitnehmern zu hören, dass sie eher noch 201 einen dritten, schlecht bezahlten Job annehmen würden, als ›Stütze‹ zu beziehen: Selbstwert wird heute immer noch und vor allem durch die Erwerbstätigkeit gespeist, egal auf welchem Niveau, wobei in der Diskussion gerne vergessen wird, dass es sich bei diesem Wert des (Erwerbs-)Arbeitens um eine historisch eher junge Entwicklung handelt. Nicht immer war Arbeit Sinn und Ziel des Lebens, im Gegenteil. Bereits das Alte Testament stellt Arbeit deutlich als Strafe dar, als Preis für die Vertreibung aus dem Paradies, in dem der Mensch nicht »im Schweiße seines Angesichts« für seinen Lebensunterhalt aufkommen musste und auch in nachfolgenden Jahrhunderten und Jahrtausenden war Arbeit etwas, dass tunlichst zu vermeiden war, wenn man ein erfülltes Leben führen wollte. »Sozial ist, was Arbeit schafft« – ein Satz, den alle politischen Parteien gleichermaßen vertreten – ist daher ein Slogan der zwar sympathisch sein mag und Wähler mit Zukunftsängsten für Maßnahmen, die Arbeitsplätze schaffen, günstig stimmt. Er bleibt aber hoffnungslos im neunzehnten Jahrhundert verwurzelt und weist keine Antworten auf die Gegebenheiten der gegenwärtigen, geschweige denn, zukünftigen Bedeutung von Arbeit auf. Es ist die These des Folgenden, dass Spiel hier einige bedeutende Denkanstöße liefern kann, allerdings muss das Spiel für eine solche ›Umwertung der Werte‹ erst begrifflich und konzeptuell ins rechte Licht gerückt werden, was angesichts der skizzierten Widerstände und Insistenz auf Arbeit als zentralem Movens der postindustriellen Gesellschaft keine leichte Aufgabe ist. Vor allem aber gilt es zu vermeiden, unkritisch ins Gegenteil eines Lobs der Arbeit zu verfallen und einer unumschränkten Ludokratie das Wort zu reden, denn deren dunkle Seite ist weltpolitisch bereits deutlich zu spüren. Klar ist: Die Bedeutung des Spiels und insbesondere sogenannter Computerspiele, besser: durch Digitaltechnik ermöglichter Formen des Gaming für die zukünftige Gesellschaft kann nicht in einer Art Houellebecq’schen Horrorversion eines Freizeitparks für diejenigen bestehen, welche die dann noch wichtige Arbeit nicht leisten können oder wollen und deswegen abseits der Arbeitswelt im Zustand einer Matrixartigen Realitätsflucht dahinvegetieren. Dieser Art von Spiel entspräche auf der anderen Seite eine Art Arbeits-Disneyland, in dem die Wertschöpfungsprozesse des neunzehnten und frühen zwanzigsten Jahrhunderts simuliert werden, um die Bevölkerung ruhig zu stellen; ein Modell, das im Grunde frappierend an die späte DDR erinnert. Kann jedoch die Antwort wirklich darin bestehen, längst nicht mehr konkurrenzfähige Kohleminen und Fabriken wiederzueröffnen? Hier wird nur der unangenehmen narzisstischen Kränkung aus dem Weg gegangen, dass z.B. der Verfall der US-amerikanischen Schwerindustrie nicht so sehr dem Preiskampf aus dem Ausland geschuldet, sondern eher darin begründet ist, dass die technisch und gestalterisch veralteten Produkte des heimischen Marktes selbst zuhause niemand mehr haben wollte. Wenn General Motors unbeirrt unansehnliche und unökonomische Stahlkolosse baut, als befände man sich immer noch in den siebziger und achtziger 202 Jahren des letzten Jahrhunderts, werden auch Strafzölle die Nachfrage nicht beleben können, schon gar nicht auf dem Weltmarkt. Eine museale Konservierung historisch vergangener (und auch überwundener) Arbeitsformen dürfte daher kaum nachhaltige Antworten bieten. Die epochemachende Bedeutung des Spiels ist demgegenüber auch keine kompensatorische. Sie liegt hingegen in einer sehr viel komplexeren Transformation dessen, was heute noch unterschiedslos ›Arbeit‹ genannt wird, zu Erkenntnis-, Innovations- und Wertschöpfungsprozessen, die auf eine noch viel zu wenig beachtete und analysierte Weise spielförmig sind. Das heißt eben nicht, dass Arbeit in Zukunft größtenteils durch »World of Warcraft« plus Grundeinkommen ersetzt werden wird, sondern, dass wir uns bereits mitten in einer ›Zukunft‹ befinden, in der spielförmige Prozesse längst unabdingbare Bedingung der Möglichkeit nicht nur der Wirtschaft und Finanzmärkte, sondern auch z.B. der Wissenschaft und der Lebensgestaltung geworden sind. Zu lang bereits hat Spiel als Zentralbegriff der Ästhetik seit Kant ein schöngeistiges Schattendasein geführt.1 Tatsächlich ist die Kunst eines derjenigen Felder, in denen eine hinreichend komplexe Theorie des Spiels zuerst entwickelt worden ist. Das liegt vor allem daran, dass Ungewissheit – ein zentrales Ingrediens des Spiels – in der Kunst des ausgehenden neunzehnten und zwanzigsten Jahrhunderts eine so große Rolle gespielt hat. Vor allem die historischen Avantgarden haben Unbestimmtheit und Ungewissheit, etwa in Gestalt forcierter Polysemie, Aleatorik, Multiperspektivität und ontologischer sowie epistemischer Verunsicherung, in einer Weise in den Mittelpunkt ihres Tuns gestellt, dass an dieser Stelle bereits im Sinne einer Schule der Wahrnehmung – welche das Denken und die Wahrnehmung für die aufgeführten Modi des Ungefähren, Vagen und Unbestimmten sozusagen trainiert, wie der Film bei Walter Benjamin für die Erfordernisse urbaner Akzelerationserfahrungen – von einer Einübung ins Ungewisse gesprochen werden kann. Und genau hier hat das Spiel seinen angestammten Platz. Es ist dabei nun wichtig zu betonen, dass Spiel, trotz seiner grammatischen Form, begrifflich nicht im Sinne eines Substantivs oder einer Substanz, sondern als relationale Modalität gefasst werden muss: Spiel ist kein vorkommendes Ding, sondern ein Seinsmodus, ein Geschehen. Zwar werden einzelne Verkörperungen des Spiels auch stets Spiele genannt – etwa Fußball, Schach oder »World of Warcraft« – jedoch ist das Spiel als solches keine schlicht vorhandene Sache, sondern eine Dynamik, in deren Zentrum die Aushandlung von Ungewissheit steht. Es gibt kein Spiel, dessen Ausgang nicht ungewiss ist. Dies gibt einen wichtigen Hinweis zur Bestimmung des Spiels, welches in der Geschichte seiner Theoretisierung, von Kant bis Huizinga, auch immer wieder ex negativo vermittels seines Gegenteils konturiert wurde. Dabei ist allerdings stets bemerkt worden, dass sich das Spiel vorschnellen Dichotomisie- 1 Vgl. Immanuel Kant: Kritik der Urteilskraft, Frankfurt am Main 1974. 203 rungen entzieht. So ist etwa der Gegensatz zwischen Spiel und Ernst, der doch zumindest dem Alltagsverständnis des Phänomens noch recht nahesteht, bereits bei Schiller,2 aber insbesondere bei Huizinga nicht zu halten gewesen. Im Gegenteil: Im »heiligen Ernst« (Huizinga) ist geradezu ein weiteres Definitionsmerkmal des Spiels gefunden worden.3 Huizinga, der das Spiel kulturgeschichtlich vor allem aus religiösen Praktiken und Vorstellungen herleitet, hat sich in seinem Homo Ludens vor allem deswegen so lange auf die Widerlegung des Gegensatzes von Spiel und Ernst konzentriert, weil ihm Spiel als sinnstiftendes Moment erschien, das sich zwar menschheitsgeschichtlich im Bannkreis des Kultes und der Religion zuerst zeigte, aber der transzendenten Dimension nicht bedarf, oder besser: diese offen lässt. Huizingas Pointe liegt darin, in einer Welt ohne Gott die Kultur, den Ritus und heilige Handlungen durch das Spiel auf eine Weise erklären zu können, die ihnen ihren Zauber belässt, ohne diesen auf Zweckrationalität und Betrug zurückzuführen (»Opium des Volkes«, der »listige Priester«). Gleichzeitig muss in einer gottesfernen Welt (Homo Ludens erschien am Vorabend des zweiten Weltkrieges) der transzendente Bezug religiöser Handlungen nicht wieder eingeführt werden. Die Entdeckung Huizingas ist nicht etwa, dass Spiel eine Art Vorform von Kultur oder ein besonderes Element von Kultur ist, sondern dass Kultur als solche spielförmig ist. Spiel erzeugt keinen Sinn, Spiel ist Sinn, bzw. Spiel ist sinnförmig ebenso wie Sinn spielförmig ist. Huizinga selbst hat sich allerdings auf die Dynamik des Spiels als relationaler Modalität nicht eingelassen, ja hat die ›unableitbare Qualität des Spielhaften‹ für analytisch unzugänglich gehalten. Es war dann Georges Bataille, der auch in direkter Reaktion auf Huizingas epochemachendes Buch zur Kulturtheorie des Spiels den eigentlichen Gegensatz zum Spiel nicht im Ernst, sondern in der Arbeit gesucht hat. Bataille begründet diesen Schritt zunächst in einer Kritik an der monokausalen Ausrichtung der Huzinga’schen Ansatzes, der allein das Spiel in den Mittelpunkt des Interesses rückt. Bataille – wie die meisten seiner Zeitgenossen in Frankreich unter dem Bann der Kojève’schen Hegellektüre, die auf die Herr und Knecht-Dialektik fixiert ist4 – fehlt das dialektische Gegenüber zum Spiel, das durch seine Widerständigkeit den Denkweg erst in Gang setzt. Dieses Gegenstück ist für Bataille die Arbeit und die diesbezügliche Analyse ist so radikal wie aufschlussreich: Für den Denker der Fülle und produktiven Verschwendung ist der zuerst durch Marcel Mauss theoretisch einflussreich interpretierte Potlatsch eine der edelsten Form des Spiels – und zwar deswegen, weil hier die Verausgabung im Wettbewerb des Schenkens die Niederungen der Fron und des auf Arbeit basierenden Kapitalismus durch die Souveränität der Verschwendung über- 2 Friedrich Schiller: Über die ästhetische Erziehung des Menschen in einer Reihe von Briefen, Stuttgart 2008. 3 Johan Huizinga: Homo ludens. Vom Ursprung der Kultur im Spiel, Reinbek bei Hamburg 2013. 4 Vgl. Alexandre Kojève: Hegel. Eine Vergegenwärtigung seines Denkens, Frankfurt am Main 1975. Georg W. F. Hegel: Phänomenologie des Geistes, Frankfurt am Main 1986. 204 bietet.5 Ein Wettkampf der Verschwendung ringt das agonale Prinzip, das sich noch in der Form des Wettkampfes verbirgt, nieder, indem es Konkurrenz, zumindest in ihrem kleinsinnigen merkantilen Sinne, durch Fülle überwältigt und damit auslöscht. Ist für Schiller noch der Mensch nur ganz Mensch, wo er spielt, ist der Mensch für Bataille erst dort auf der Höhe des Spiels, wo er sich selbst aufs Spiel setzt. Die Autonomie des Spiels, welche den Menschen nicht braucht, sondern sich nur auf bestimmte Weisen in seinen Handlungen ausdrückt, tilgt den Anthropozentrismus, den das Spiel noch bei Kant, Schiller und Huizinga hatte, und rückt es damit noch ein Stück näher an die Kunst. Auf dieser Prämisse basiert dann auch Gadamers ludische Ästhetik in Wahrheit und Methode: »Das Subjekt des Spiels sind nicht die Spieler, sondern das Spiel kommt durch die Spielenden lediglich zur Darstellung.«6 Spiel als solches ist auch bei Gadamer nicht mehr anthropozentrisch, ja eigentlich nicht mal mehr als Kulturphänomen, sondern als Naturgewalt gedacht. In einer Art dämonischen Überbietung der Analyse von Max Weber und ganz im Fahrwasser Nietzsches ist für Bataille Arbeit nichts weiter als Produkt der Angst vor dem Ungewissen. Der Mensch, der sich vor den Unbilden der Natur, Tod und Krankheit schützen will, tauscht seine Arbeitskraft und damit seine Freiheit gegen die Illusion von Sicherheit, die ihm Kapital und Staat als Gegenleistung feilbieten. Bereits bei Max Weber war die Ungewissheit des Gnadenstandes Motor des kapitalistischen Geistes. Für den Calvinisten im Sinne Webers ist die Vereinsamung des Individuums charakteristisch, für das Gott in weite Ferne gerückt ist. Einzig die weltliche Berufsarbeit erlaubt noch die Abfuhr religiöser Angstaffekte, denn der Erfolg im Beruf, durch harte Arbeit errungen, kann noch als Zeichen der Erwählung gedeutet werden, wenn auch nur als Zeichen, das somit auch falsch interpretiert worden sein kann. Gewissheit über den eigenen Gnadenstand ist unerreichbar. In diesem Sinne ersetzt Arbeit die ›magischen Heilmittel‹ des Katholizismus (Beichte etc.) um den Preis der gnadenlosen Selbstunterwerfung unter das Joch einer ungewissen Gnadenwahl. Bataille nun, für den sich Hegels-Herr-und-Knecht-Dialektik im Zeichen der Spieltheorie in eine Spiel-und-Arbeit-Dialektik verwandelt hat, sieht im Spiel eine Kraft, die solchen Zumutungen mittels radikaler Affirmation des Ungewissen ins Gesicht lacht: »Der Herr ist nach Hegel derjenige, der das Risiko des Todes auf sich nimmt; der Knecht derjenige, der um jeden Preis überleben will, indem er unter Zwang für einen anderen arbeitet. Aus dem Gegensatz zwischen der Haltung des Spiels (oder des Todesrisikos) und der Haltung der Angst vor dem Tode (oder der 5 Vgl. Marcel Mauss: Die Gabe. Form und Funktion des Austauschs in archaischen Gesellschaften, Frankfurt am Main 1990. 6 Hans-Georg Gadamer: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1990, S. 108. 205 erzwungenen Arbeit) gewinnt Hegel das dialektische Konzept des Menschen.«7 Für Bataille manifestiert sich im Spiel vor allem eine Haltung; auch sie eine Weise des In-der-Welt-Seins. Diese Haltung allerdings fußt abermals auf jenem Grund-Ingrediens, das schon mehrfach begegnet ist: der Ungewissheit. Abermals haben wir in der todesverachtenden Bejahung, in den existenziellen Spielen ›auf Leben und Tod‹ eine Einübung ins Ungewisse vor uns, welche sich immer mehr als entscheidendes Merkmal des Spiels entpuppt. Allerdings stehen sich Spiel und Arbeit in einer radikalen Theorie wie der Batailles nur unversöhnlich gegenüber. Batailles Hegel ist nicht einer der dialektischen Aufhebung, sondern der agonalen Konfrontation, welche als solche arretiert ist. Wie eine Synthese aussehen könnte, davon ist hier nichts zu erfahren, der Fetisch des Streits und des Kampfes ist hier zu stark im Vordergrund. Auch Heidegger setzt an dieser Stelle an: Widerspruch und Widerstreit sind für ihn nicht etwas aus der Realität zu tilgendes, sondern Wirklichkeit selbst: »Der Widerspruch ist vielmehr das innere Leben der Wirklichkeit des Wirklichen. Diese Deutung von Wesen und Wirken des Widerspruchs ist das Kernstück der Metaphysik Hegels.«8 Medium dieses Widerstreits nun ist auch bei ihm das Spiel, wobei die bedeutende Rolle des Spielbegriffs bei Heidegger nicht leicht zu sehen ist und umfänglicher Querverweise bedarf.9 Zusammenfassend lässt sich sagen, dass insbesondere in Heideggers Schrift Der Satz vom Grund Wesentliches zu diesem Thema anzutreffen ist. Ohne ins Detail zu gehen sei angedeutet, dass Heidegger hier in Gestalt der Frage nach Grund und Begründung, das Spiel als jenes Element des Widerstreits konturiert, das es ermöglicht den ›Satz‹ im Sinne des Sprungs in ein konstitutiv Grundloses, oder besser Ungründiges zu tun. Spiel wird hier nicht nur existentialistisch aufgeladen; entscheidend ist, dass die begrifflichen ›Gegenspieler‹ des Spiels, sozusagen seine dialektischen Counterparts, nicht mehr Ernst oder Arbeit, sondern – gemäß der Bedeutung, die im Spiel die Einübung ins Ungewisse hat – Ursache, Zweck, Kausalität sind. Der ›Satz‹ vom Grund ist ein Sprung ins Ungewisse, eine Geworfenheit auch und gerade im Sinne des Würfelwurfs. Dasein ist immer schon eingelassen in eine Welt, grundlos durch sich selbst da.10 7 Georges Bataille: »Spiel und Ernst«, in: Knut Ebeling (Hg.): Johan Huizinga. Das Spielelement der Kultur. Spieltheorien nach Johan Huizinga von Georges Bataille, Roger Caillois und Eric Voegelin, Berlin 2014, S. 75–112, hier S. 93. 8 Martin Heidegger: Der Satz vom Grund, Stuttgart 2006, S. 38. 9 Siehe hierzu Ingeborg Heidemann: Der Begriff des Spieles und das ästhetische Weltbild in der Philosophie der Gegenwart, Berlin 1968, vor allem Kapitel 3: »Die Problematik des Spielbegriffs bei Heidegger« sowie Martina Roesner: Metaphysica ludens: Das Spiel als phänomenologische Grundfigur im Denken Martin Heideggers, Dordrecht 2003; zuletzt zusammenfassend: Annette Sell: »Spiel in der Philosophie Heideggers«, in: Michael H. Kowalewicz (Hg.): Spiel. Facetten seiner Ideengeschichte, Münster 2013, S. 29–39. 10 »Die Geschichte des Spielbegriffs, nicht anders die Erörterung des Spiels bei Heidegger weisen immer wieder zurück auf die Bedeutung von ›Spiel‹ als Gegenbegriff zu Ursache und Zweck einerseits und andererseits auf die innere Bewegung und Sinnerfüllung eines von sich aus Ereignenden, aus sich selbst Beginnenden und Vollendenden, sich selbst Erhaltenden, Er- 206 Hiermit ist schließlich ein Blick auf jenes ›freie Spiel‹ gewonnen, das Kant angesichts des Geschmacksurteils als »freies Spiel der Erkenntniskräfte«11 bezeichnet. Dies ist nicht nur für das Geschmacksurteil relevant, sondern hat sich in Form spielförmiger Erkenntnis und Emergenzprozesse gemäß den Erkenntnissen der historischen Epistemologie auch für die Wissenschaft als konstitutiv erwiesen. Hans-Jörg Rheinbergers Theorie des Experimentalsystems etwa kann als Versuch gelesen werden, das Prinzip spielförmiger Erkenntnis als Konstitutivem naturwissenschaftlicher Forschung zu erweisen. Rheinbergers Theorie des Experimentalsystems wendet sich gegen die Ansicht, Experimente wären schlicht Überprüfungsverfahren zuvor aufgestellter Hypothesen. Vielmehr müsse ein Experimentalsystem so eingerichtet sein, dass es in die Lage versetzt, noch unbekannte Antworten auf Fragen geben zu können, die auch der Experimentator noch gar nicht zu stellen in der Lage sei, so eine der präzisen Formulierungen Rheinbergers in Experimentalsysteme und epistemische Dinge.12 Das meint Einübung ins Ungewisse par excellence. In einem mit Rheinberger beschriebenen Forschungssetting wechseln Begründung und Ergebnis, Ursache und Wirkung ständig die Rollen. Der Forschungsgegenstand, auf den sich ein Experiment bezieht und das technisch-diskursive Setting, mit dem es beobachtet wird, stehen in einem reversiblen Begründungsverhältnis. Rheinbergers berühmte Unterscheidung von epistemischem Ding und technischer Be-dingung, also Forschungsgegenstand und Beobachtungssetting, ist daher rein rekursiv funktional und nicht entlang linearer Kausalität vorzustellen. Gängige technische Werkzeuge können im Forschungsgang in Zusammenhänge geraten, die über ihre ursprüngliche Zwecksetzung hinausgehen und somit unversehens zu epistemischen Dingen werden. Umgekehrt können epistemische Dinge zu technischen Be-dingungen für die Beobachtung und Konstitution anderer Forschungsgegenstände dienen. Dies alles ist keine Relativierung naturwissenschaftlicher Forschung im Sinne eines konstruktivistischen ›anything goes‹ (der ewig gleiche und ewig verfehlte Vorwurf an die Vernunftkritik des zwanzigsten Jahrhunderts), im Gegenteil: Vielmehr handelt es sich um die Begründung der experimentellen Forschung in der vollen Komplexität ihrer eigenen spielförmigen Dynamik. Auch hier wird die Aufhebung von linearen Kausalitätsketten zugunsten rekursiver, autopoietischer Emergenzformen der Erkenntnis wirksam, deren ungründige Basis das Spiel darstellt. Dies ist jedoch nur die eine Seite des Spiels, dessen Autonomie einen weiteren Aspekt impliziert, der als solcher wenig auch nur zur Kenntnis genommen wird. Entgeneuernden und Abwandelnden im Gegensatz zur äußeren Kausalität, mit der sich Anfang, Verlaufsweise und Ende eines Geschehens herleiten aus einem Vorgehenden, und im Gegensatz zu einem Zweck, der aus einem zeitlichen oder unzeitlichen Akt der Person gesetzt ist.« Heidemann: Der Begriff des Spiels, S. 355. 11 Immanuel Kant: Kritik der Urteilskraft, Hamburg 2001, § 9, S. 67. 12 Hans-Jörg Rheinberger: Experimentalsysteme und epistemische Dinge, Frankfurt am Main 2006, S. 25. 207 gen Schillers Annahme, dass das Spiel dem Menschen nur zu ethisch-ästhetischen Höhenflügen gereichen könne, ist der Umstand ernst zu nehmen, dass Spiel gegen- über ethischen Fragen genauso indifferent ist, wie gegenüber einem Konzept wie Wahrheit. Spiel kann, etwa im ›freien Spiel der Marktkräfte‹, sehr schnell auch destruktiv-anarchisches Potential entfalten. Spiel lässt sich eben nicht, wie es die mathematische Spieltheorie allenthalben suggeriert, effektiv probabilistisch domestizieren, die Finanzkrisen der Vergangenheit haben den kontingenten (weil: spielerisch induzierten) Charakter globaler Marktentwicklungen eindrucksvoll unter Beweis gestellt. Mathematische Spieltheorie, wie etwa das berühmte Equilibrium-Theorem von John Nash, bzw. deren Fähigkeit zur Voraussage funktioniert nur, wenn die Grundprämisse des rationalen Verhaltens der beteiligten Aktanten eingehalten wird und genau diese Grundprämisse ist unter kontingenzgeprägten Realbedingungen nicht gegeben. Ebenfalls unübersehbar ist, dass die Kunst, im oben skizzierten Sinne einer Ein- übung ins Ungewisse, heute nicht etwa nur subversiv und kritisch den Gewalten des globalen Kapitalismus gegenübersteht, sondern mit eben dieser Einübung ins Ungewisse den Erfordernissen des neo-liberalen Kapitalismus ebenfalls gerade zu-›spielt‹. Beide Ebenen – diejenige geldförmig und diejenige ästhetisch profitabler Einsätze – haben ein Interesse an einem möglichst flexiblen, fluide agierenden Subjekt, stets fähig zur Anpassung an neue Gegebenheiten und risikobereit. Angesichts des Spiels lässt sich die vielleicht unangenehme Beobachtung machen, dass sich Kunst (zumindest seit den historischen Avantgarden) und neoliberaler Kapitalismus durchaus näher sind als man es vielleicht gerne hätte und das auf sehr grundsätzlicher Ebene. Beide gehören zum selben historischen Kontinuum. Mit Blick auf die Arbeit sind die Folgen klar: Während spielförmige Erkenntnisprozesse zunehmend unsere Arbeitswelt prägen und sich zum Beispiel in flexiblen Arbeitszeiten, flachen Hierarchien und Arbeitsumgebungen manifestieren, die dazu angetan sind, der Kreativität und Experimentierfreude der Arbeitnehmer Entfaltungsmöglichkeiten zu geben, ist von hier der Schritt zu gamification oder nudging nicht weit. Aber das Spiel lässt sich nicht betrügen. Anreizmechanismen zur Effizienzsteigerung mögen kurzfristige Erfolge erzielen, jedoch ist das Spiel im Bataille’schen Sinn aus solchen Manipulationsmaßnahmen längst entschwunden. Begeisterung und Leidenschaft gehen in der heutigen Arbeitswelt zunehmend Hand in Hand mit Selbstausbeutung und Wurzellosigkeit. Spiel selbst ist nicht einfach the next big thing, das es nur möglichst clever zu nutzen gilt, sondern ein ebenso fragiles wie machtvolles Medium, dessen destruktives wie poetisches Potential (im griechischen Sinne von ποίησις, Erschaffung) gleichermaßen gewaltig ist. Daraus mag sich die entscheidende Gratwanderung ergeben, die es zu meistern gilt. Heutige und mehr noch zukünftige Arbeitswelten werden vom Spiel ebenso angetrieben werden wie die Turbinen des neunzehnten Jahrhunderts durch den Wasserdampf. Und es ist dabei (wieder einmal) allein an uns, ob das utopische Potential in Aktualität tritt oder eine gamifizierte Tyrannei der Ludokratie überwiegen wird. 208 Abhandlungen Christoph Hubig Der Deus ex Machina reflektiert Ernst Kapps Technik-Anthropologie zwischen Thomas von Aquin, Hegel und Latour Abstracts Im Beitrag soll erstens gezeigt werden, dass Kapps Gegenposition zur These vom Menschen als Mängelwesen, als homo inermis, dieser Auffassung nicht mit einer gleichstufigen Gegenposition begegnet, sondern im Rahmen einer Tradition, die paradigmatisch von Hugo von Sankt Viktor und dann zentral von Thomas von Aquin entwickelt worden ist. Kapp hebt die Diskussion auf eine kategorial höhere Stufe, und zwar im Rahmen eines Konzepts vom Menschen als alter deus. Nicht erst im Humanismus wurde der Mensch so konzipiert. Der zweite Abschnitt des Beitrags legt dann genauer die hegelianischen Hintergründe des Kappschen Denkens frei, insbesondere mit Blick auf Hegels Behandlung des technischen Mittels als ›Medium‹ der Reflexion. Schließlich ist im dritten Abschnitt mit Blick auf Kapp und die sogenannte ANT zu untersuchen, inwiefern das Subjekt in Interaktion mit den technischen Mitteln beständig neu verfasst, in einen neuen Status ›übersetzt‹ wird. Hierbei werden Desiderate ersichtlich, die erneut die Einnahme eines Standpunktes der Reflexion erforderlich machen. First of all, this paper attempts to show that Kapps contraposition to the thesis of the human being as uncomplete creature, as homo inermis, does not object this conception on the same level. Kapp argues within the framework of a tradition that was developed paradigmatically by Hugo de St. Viktor, then centrally by Thomas Aquinas. Here, Kapp shifts the discussion on a categorically higher level, conceptualizing the human being as alter deus, which was conceived in this way even before humanism. The second paragraph reveals the Hegelian background of Kapp’s thinking, in particular, in view of Hegel’s treatment of the technical medium as a ›medium‹ of reflection. Lastly, the paper will conclude with an analysis of the so-called ANT in view of Kapp and to what extent the subject is constantly composed anew in interaction with the technical media, translated into a new ›status‹; here, desiderata become visible that again necessitate taking up a position of reflection. Die Titelworte der Themenstellung sind dem leicht pathetisch gehaltenen Diktum entlehnt, mit dem Ernst Kapp seine Grundlinien einer Philosophie der Technik abschließt: »Hervor aus Werkzeugen und Maschinen, die er geschaffen, aus den Lettern, die er erdacht, tritt der Mensch, der Deus ex Machina, sich selbst gegenüber!«1 In der Tradition des Theaters tritt ein Deus ex Machina bekanntlich aus den mechanisch bewegten Kulissen und löst ein bis dahin für unüberwindlich erachtetes Problem, hier: der Genese des Selbstbewusstseins. Indem der Mensch sich selbst gegen- 1 Ernst Kapp: Grundlinien einer Philosophie der Technik. Zur Entstehungsgeschichte der Kultur aus neuen Gesichtspunkten, hrsg. u. eingel. v. Harun Maye und Leander Scholz, Hamburg 2015, S. 311. 211 übertritt und sich nicht nur als dem Mechanismus enthoben präsentiert, sondern sich als in einem Verhältnis zu dem Mechanismus stehend repräsentiert, reflektiert er. Dieser Gedanke beinhaltet nichts weniger als eine Wiederaufnahme der Hegel’schen ›List der Vernunft‹, die Hegel erstmals im Teleologie-Kapitel seiner Wissenschaft der Logik einführt, und zwar meint er dabei die Einnahme eines Verhältnisses zu technischen Mitteln (worauf wir noch zu sprechen kommen werden). Wäre die Kapp’sche Entstehungsgeschichte der Kultur aus neuen Gesichtspunkten als philosophische Anthropologie unter Würdigung der Rolle der Technik zu charakterisieren, mithin schlichtweg in die Reihe klassischer Ansätze einzuordnen, die den Menschen als ›animal x‹ in seinem Wesen zu erfassen suchen, so unterläge sie dem Verdikt, welches radikal wie kein anderer Martin Heidegger gegen die philosophischen Anthropologien geltend gemacht hat: Diese hätten »den Menschen schon als Menschen gesetzt«,2 in unterschiedlicher Weise Wesensmerkmale pointiert, abstrahiert und idealtypisiert zum Zweck objektstufiger Bestimmungen und sortaler Unterscheidungen vom Tier. Das Menschsein liege hingegen aber darin, sich zu seinem Dasein zu verhalten oder, um es mit Kierkegaard zu formulieren,3 sich als ein Verhältnis zu erfassen, welches zu sich selbst in ein Verhältnis tritt. Leider hat sich Heidegger, wie die Primitivanthropologie seiner Schwarzen Hefte zeigt, an die so umrissene Einsicht selbst nicht gehalten. Dennoch kann es auf der Linie von Heideggers Einwand im Folgenden nicht um objektstufige Bestimmungen des Menschen gehen, denn ich bin nicht von vornherein darauf aus, Ernst Kapp der modernen Anthropologiekritik auszusetzen und seine Position wie die anderen im klassischen Reigen philosophisch-anthropologischer Ansätze als revisionsbedürftig abzutun. Wie verträgt sich aber eine solche reflexive Lesart der Kapp’schen Theorie der Technikentstehung mit Kapps scheinbar objektstufigen Globalcharakterisierungen des Menschen als »Idealtier«,4 »Überschusswesen«,5 »Krone der Schöpfung« (die auf dem Stande zeitgenössischer Theorien als Evolution rekonstruiert wird),6 als »Spitze der gesamten Entwicklungsreihe der organischen Bildungen«,7 mithin des Menschen mit seiner »Naturseite«, die dahingehend ausgezeichnet ist, dass sie ihn als das »Innere der Natur«, Ausprägungen ihres inneren Zwecks privilegiert und he- 2 Martin Heidegger: Kant und das Problem der Metaphysik, Frankfurt am Main 1998 (seitengleich mit HGA 3, Frankfurt am Main 1991), S. 203; hierzu Christoph Hubig: »Alle Anthropologie, auch die philosophische, hat den Menschen schon als Menschen gesetzt. Die Anthropologie Martin Heideggers«, in: Marc Rölli (Hg.): Fines hominis. Zur Geschichte der philosophischen Anthropologiekritik, Bielefeld 2015, S. 101–118. 3 Søren Kierkegaard: Die Krankheit zum Tode. Eine christliche psychologische Entwicklung zur Erbauung und Erweckung von Anti-Climacus, Reinbek 1997, S. 13–14. 4 Kapp: Grundlinien einer Philosophie der Technik, S. 29. 5 Ebd., S. 46. 6 Ebd., S. 28. 7 Ebd. 212 rausstellt? Diese Natur würde einerseits – so Kapp ja bekanntlich – im Menschen verklärt durch den »Geist des Geistes«, andererseits in ihrer ursprünglichen Verfasstheit »überwunden« und »beherrscht«.8 Es nimmt also nicht Wunder, dass Kapp in neueren Kommentaren Ambivalenzen und Inkonsistenzen aufgrund seines Schwankens zwischen naturalistischen und idealistischen Argumentationslinien vorgehalten worden sind.9 Mit Blick hierauf will ich zeigen, dass eine Lesart, die Kapps Entwurf stärker an die Hegel’schen Hintergründe seines Philosophierens bindet, diese Ambivalenzen auflösen kann. Kapp selbst hat sich immer wieder gegen dogmatische Setzungen ausgesprochen, z.B. im Umgang mit dem Unbewussten, weil sie zu einer »Stagnation« auf den »Hochebenen der Forschung« führten.10 Ganz Hegelianer in pragmatischer Ausrichtung (wie sie in der neueren internationalen Hegel-Forschung Hegel selbst in Abgrenzung von einem von diesem selbst kritisierten Ideen-Idealismus zugeschrieben wird) interessiert Kapp nicht das Was des Menschen, sondern sein Wie als Selbstverhältnis zu seiner eigenen Präsentation. Insofern muss man es begrüßen, wenn sein Ansatz im Kontext einer Medienanthropologie neu gelesen wird:11 Wenn diese Art der Anthropologie die Menschen als Wesen begreift, »die sich in Medienpraktiken und -techniken artikulieren, wahrnehmen und wahrnehmbar machen, weil sie etwas darstellen und sich ihnen etwas darstellt«12 – so die Formulierung Eva Schürmanns – teilt sie den Fokus mit Ernst Kapp. Kritik der These vom homo inermis Gegen die seit Plato die Tradition prägende These vom Menschen als Mängelwesen, das einer Technik als Kompensation dieser Mängel bedarf (Prothesentheorie), hat bereits Hugo von Sankt Viktor im elften Jahrhundert einen – soweit ich sehe – ersten Einspruch erhoben, der dann hundert Jahre später von Thomas von Aquin ausgearbeitet worden ist. Im Kontext einer Aufwertung der artes mechanicae in seinen »Eruditionis didascalicae«, merkt er zwar an, dass Technik die menschliche Unfer- 8 Ernst Kapp: Philosophische und vergleichende allgemeine Erdkunde als wissenschaftliche Darstellung der Erdverhältnisse und des Menschenlebens nach ihrem inneren Zusammenhang, Bd. 1, Braunschweig 1845, S. VI‒X, zit. Nach Hans-Martin Sass: »Die philosophische Erdkunde des Hegelianers Ernst Kapp. Ein Beitrag zur Wissenschaftstheorie und Fortschrittsdiskussion in der Hegelschule«, in: Hegel-Studien 8, Bonn 1973, S. 163‒181, hier S. 164. 9 U.a. Johannes Rohbeck: »Ernst Kapps Kulturtheorie der Technik«, in: Andreas Arndt, u.a. (Hg.): Materialismus und Spiritualismus. Philosophie und Wissenschaften nach 1848, Hamburg 2000, S. 143‒152, hier S. 147. 10 Kapp: Grundlinien einer Philosophie der Technik, S. 206. 11 Dies war der Fall 2016 auf der Tagung »Ernst Kapp und die Anthropologie der Technik« am IKKM/KOMA der Bauhaus-Universität Weimar; mein Aufsatz basiert auf einem dort gehaltenen Vortrag. 12 Eva Schürmann: »Medienanthropologie«. https://forschung-sachsen-anhalt.de/project/medienanthropologie-15296 (aufgerufen: 2.9.2016). 213 tigkeit kompensiere. Die menschliche Vernunft jedoch, auf der die Technik basiert, entwickele sich nicht als Folge jener Mangelhaftigkeit, sondern mache deren Grund aus: Der »Glanz der Vernunft« zeigt sich in ihrer Fähigkeit zur Schöpfung und ist nicht bloß eine Befreiung aus der Not. Der Spielraum der Vernunft ist freilich nicht größer als dasjenige, was die Natur an Zielen vorzeichnet und von innen heraus gestaltet. Der Mensch vermag eine solche Gestaltung weiter zu realisieren, wobei sich seine imitatio naturae nicht auf diejenige des natürlich Hervorgebrachten beschränkt, sondern auf der Strukturgleichheit naturhafter und artifizieller Entstehung im Rahmen einer natura naturans basiert. Diese Strukturgleichheit präge die drei großen opera: dasjenige Gottes, dasjenige der Natur und dasjenige des Menschen.13 Natur hat Vorbildcharakter mit Blick auf das Herstellungsziel, die Verwirklichung einer Ordnung der Schöpfung, in die der Mensch seine technischen Ziele integrieren soll. Hegel wird später in eben dieser Hinsicht – mit Kant – vom inneren Zweck der Natur sprechen. Thomas von Aquin nimmt in der Quaestio 76 seiner Summa theologica die Fragestellung wieder auf, und zwar im Kontext der Untersuchung des Verhältnisses der menschlichen Verstandesseele als (gemessen an anderen Seelenarten im Bereich des Lebendigen) höchst vollkommenem Gebilde zum menschlichen Körper in seiner Unvollkommenheit.14 Vergleicht man diesen Menschkörper mit den Körpern von Tieren, die hervorragend mit »Haaren«, »Klauen«, »Krallen«, und »Zähnen« ausgestattet sind und über diese Hilfsmittel bezüglich Witterungsschutz und Verteidigungsfähigkeit auch weitergehende Instrumente der Wahrnehmung besitzen, fällt die Bilanz eben umgekehrt aus. Die Ausstattung der Tiere könne, so Thomas, lediglich als Vorzug gelten mit Blick auf die Spezialisierung tierischen Lebens. Die Verstandesseele, die allein dem Menschen eignet, richte sich demgegenüber aber auf Allgemeineres, auf die Erfassung und Verwirklichung des Universalen, und hierfür wären derartige Festlegungen inadäquat. Anstelle der spezialisierten Tier-Organe verfüge der Mensch über die Vernunft und seine Hand, welche beide unspezifisch einsetzbar sind. Auf diese Weise kann ein Mensch sich in unterschiedlichsten Situationen verwirklichen, insbesondere indem er weitere mannigfaltige Werkzeuge mit neuer Wirkung verfertigt, also als Techniker auftritt. Der Mensch ist insofern Gottes Ebenbild, als er schafft und in seinem Geist Neues entwirft (im Rahmen der Ordnung der Natur) – und indem er zudem wie Gott »den Willen zu seinem Werk liebt«.15 Er liebt also nicht bloß sein Werk (dann hätte er sich, wie Hegel später formuliert, selbst verloren), sondern er liebt den Willen zu seinem Werk (dies nennt Hegel später den Trieb der Vernunft).16 Der werktätige Mensch liebt nicht das Was seiner Verwirk- 13 Hugo von St. Victor: »Eruditionis didascalicae«, in: Hugorius de St. Victore opera omnia. Migne patrologiae latinae tomus 176, Turnholt (Nachdr.) 1968, S. 740‒883, hier S. 748. 14 Thomas von Aquin: Summa theologica I, Editio altera romance, Rom 1923, S. 574. 15 Ebd., Quaestio 45, Art. 6‒7, hier S. 369. 16 S. unten die Ausführungen zu Hegel im Abschnitt 2. 214 lichung, sondern ihr Wie. Nicht in seinem Werk, sondern im Prozess seiner Selbstverwirklichung tritt er sich selbst gegenüber und erfährt sich als zweiter Schöpfer. Während in der späteren Tradition noch für Engels, Freud, Gehlen, Mumford und viele andere der Mensch relativ zu seinen funktionalen Erfordernissen nicht ein technisches Problem hat, sondern ein technisches Problem ist, zu dessen Lösung dann Technik erforderlich scheint – der Zirkel technomorpher Argumentation –,17 während also dort mit Blick auf einen Ist-Zustand biologischer Verfasstheit argumentiert wird, geht es hier um eine – zunächst noch im theologischen Kontext unterstellte – göttliche Fähigkeit, im Zuge kreativer Schöpfung sich zu sich zu verhalten. Im Rekurs auf Aristoteles wird bei Thomas von Aquin – übrigens analog bei Kant – wie dann auch bei Kapp der Hand der paradigmatische Status zugesprochen, das universelle Medium der Welterschließung zu sein. Diese auf den ersten Blick überzogen wirkende These wird plausibel, wenn man in den aktuellen Auflistungen technischer Funktionen ins Detail geht. Hier lassen sich unschwer die Grundgesten des Hantierens wiederfinden, wie etwa Greifen, Halten, Werfen, Formen, Prüfen und Signalisieren, was sich bis in die Auflistung der DIN 8580, 3 fortschreibt und auch übertragbar ist auf selbst derart abstrakte Funktionen, wie sie im Zuge geometrischen oder arithmetischen Operierens ersichtlich werden.18 Es geht also beim Paradigma der »Hand« nicht um konkrete Defizienzen und Defizite organischer Art, die – nach dem Muster Arnold Gehlens – zu einer Technik als wie auch immer gedachter »Organprojektion« führen (wie und wohin sollten z.B. Merkmale eines fehlenden Organs oder einer nicht eingelösten Funktion überhaupt projiziert werden?). Vielmehr geht es um die Fähigkeit des Aufbaus einer Welt, in dessen Prozess sich das Subjekt als alter deus verwirklicht. Die Binnenstruktur dieses Prozesses aber und die Struktur der Reflexion, die durch ihn ermöglicht wird, freizulegen, war neben anderen für Hegel das zentrale Thema, und eben, wie ich zeigen möchte, auch für Kapp. Das »eingeschobene« Mittel als Medium der Selbsterkenntnis (Hegel) Wenn für Kapp gilt: »[...] nicht auf eine Geschichte der Werkzeuge haben wir uns einzulassen, sondern die Aufgabe ist, die Bedeutung ihrer Formierung für den Fortschritt im Selbstbewusstsein hervorzuheben«,19 so ist nun also der »Bedeutung dieser Formierung« (nicht: der Form selbst) für den Übergang vom Bewusstsein zum Selbstbewusstsein nachzugehen. Für Hegel handelt es sich um den Übergang von 17 Vgl. hierzu Christoph Hubig: Die Kunst des Möglichen I. Technikphilosophie als Reflexion der Medialität, Bielefeld 2006, S. 82‒98. 18 Hierzu Christoph Hubig: Technik als Kultur, 3. Vorlesung (2010), www.philosophie.tu-darmstadt.de/hubig/vorlesungtechnikalskultur/3technikalskultur.pdf, Slides 5 u. 6 (aufgerufen: 2.9.2016). 19 Kapp: Grundlinien einer Philosophie der Technik, S. 61. 215 der Verstandestätigkeit zur Selbstverwirklichung der Vernunft. Überall dort, wo Hegel diesen Übergang thematisiert, finden sich Elemente seiner Philosophie der Technik, die freilich unter anderen Titelwörtern wie »Arbeit«, »Einschieben eines Mittels«, »Werkzeug«, »Maschine« und »System«, »Bildung« und »Durchbildung« (eines jeweiligen Gegenstandes über die Leiblichkeit bis hin zum Geist), von der Hervorbringung einer »zweiten Natur« bis schließlich zu einer »geistigen Naturgeschichte« verhandelt wird. Hegels Technikphilosophie findet sich an den Gelenkstellen der Phänomenologie des Geistes (Kapitel »Herrschaft und Knechtschaft«, »Das geistige Tierreich«, »Die Werkmeister-Religion«), zentral dann im Teleologie-Kapitel der Wissenschaft der Logik, der Religions- und Rechtsphilosophie, der Ästhetik im Kontext der Überlegungen zur Vermenschlichung der Natur und der Einheit von Technik und Natur sowie in der Enzyklopädie. Es ist hier nicht der Ort, alle diese Übergänge im Einzelnen zu diskutieren; vielmehr möchte ich nur einige zentrale Punkte betonen, um danach zu zeigen, wie sich Kapps Denken hieran orientiert und wie sich Hegels Präzisierungen implizit in Kapps Erwägungen niederschlagen.20 Mein Ziel ist, dasjenige, was in vielen Kommentaren als Ambivalenz bei Kapp angesprochen und kritisch diskutiert wird, auf einen tieferliegenden Zusammenhang zurückzuführen, und betonen möchte ich, dass jene vermeintliche Ambivalenz nicht als Unterschied zwischen Argumentationslinien, sondern als Unterscheidung an ein und demselben zu sehen ist. Vergewissern wir uns kurz über einige Grundzüge des Hegel’schen Denkmodus, die sich bei Kapp wiederfinden: Ihre Grundarchitektur liegt in dem Dreischritt vom An-sich (charakterisiert u.a. als bestimmungslose Unmittelbarkeit, Möglichkeit, Nacht) über das Für-sich (charakterisiert als Bestimmtheit in ihrer jeweiligen Einseitigkeit und Abstraktheit, Tag der Wirklichkeit) zum An-und-Für-sich als Aufhebung der Negativität der Bestimmtheit (Negation der Negation). Dem entsprechen drei Stufen der Reflexion, verhandelt in der Wissenschaft der Logik (2. Buch, 1. Abschn., 1. Kap. C): die setzende Reflexion als Ausgang von einer bestimmungslosen Identität, die äußere Reflexion, welche jene in ihrer Andersheit vom Setzenden vorstellt, 20 Es erscheint mir im hiesigen Kontext nicht zielführend, in aller Ausführlichkeit auf die Hegel’schen Belegstellen und Probleme ihrer Deutung einzugehen. Dies ist andernorts unternommen worden, und es sei daher erlaubt, stellvertretend auf einige Arbeiten aus dieser Forschungslinie zu verweisen sowie deren Ergebnisse summarisch mitzuteilen: Christoph Hubig: Handlung – Identität – Verstehen, Weinheim 1985, S. 156‒169; Christoph Hubig: »Macht und Dynamik der Technik. Hegels verborgene Technikphilosophie«, in: Rüdiger Bubner, u.a. (Hg.): Die Weltgeschichte – Das Weltgericht, Stuttgarter Hegel-Kongress 1999, Stuttgart 2000, S. 335‒343; Hubig: Die Kunst des Möglichen I, Kap. 4.4: Hegels Reflexion des Bewirkens- Modells des Handelns, S. 125‒134; Christoph Hubig: »List der Vernunft – List der Geschichte. Zur Rolle der Technik in der Dialektik der Weltaneignung«, in: Erich Hahn, u.a. (Hg.): Die Lust am Widerspruch. Theorie der Dialektik – Dialektik der Theorie, Berlin 2008, S. 97‒106; Christoph Hubig: Art. »Medialität/Medien«, in: Hans J. Sandkühler (Hg.), Enzyklopädie Philosophie, Bd. 2, Hamburg 2010, S. 1516‒1522 und Christoph Hubig: Die Kunst des Möglichen III. Macht der Technik, Bielefeld 2015, Kap. 4.3.1: »Mit Hegel«, S. 207‒212. 216 für sich präsentiert und schließlich die bestimmende Reflexion, die sich als Instanz der Bestimmung reflektiert. Die zweite Stufe, diejenige des Präsentierens eines Etwas als Bestimmtem ist sowohl positiv als auch negativ – es ist die Ebene der Dialektik; die dritte Stufe begreift diese Bestimmung als Bestimmung – es ist die Stufe der Spekulation, die in ihren Sätzen ausdrückt, wie wir etwas als etwas begreifen. Reflexion überhaupt sind alle diese drei Stufen insofern, als das unmittelbar bestimmungslos Gesetzte wie auch sein Bestimmtsein in seiner Alterität und schließlich die Bestimmung dieses Bestimmtseins Modi des Subjekts in seiner Weltbezüglichkeit sind. Kapps Dreischritt von einer unbewussten Aktivität des Projizierens über die Projektion als Ergebnis des Hinausversetzens und »Verlegens eines Innerlichen in das Äußere«21 als Präsentation hin zur Rückprojektion, also von der unbewussten Nachahmung der inneren Natur, der Naturseite als Präsentation und ihrer nachträglichen Bewusstmachung als Repräsentation, beginnend bei der unmittelbaren Leiblichkeit, entspricht diesem Schema. Der Mensch überträgt »unbewusst Form, Funktionsbeziehung und Normalverhältnis seiner leiblichen Gliederung auf die Werke seiner Hand [...]« und wird »dieser ihrer analogen Beziehungen zu ihm selbst erst hinterher sich bewusst«.22 »Denn der unbewusst dem organischen Vorbild nachgeformte Mechanismus dient seinerseits wieder nach rückwärts als Vorbild zur Erklärung und zum Verständnis des Organismus, dem es seinen Ursprung verdankt«.23 Dabei handelt es sich freilich nicht um eine schlichte imitatio der Natur, die bloß nachträglich reflektiert würde, sondern, wie Kapp in Aufnahme der Hegel’schen Terminologie formuliert, um eine Vereinigung von »Empirie« (äußere Reflexion) und »Spekulation« (bestimmende Reflexion),24 wobei die hierin sich selbst ersichtlich werdende Einheit der Menschennatur zugleich eine Aufdeckung der zugrunde liegenden »Einheit der Naturkräfte« erbringt.25 Indem der Mensch »in und aus der Natur, nicht über und außer ihr denkt, ist sein Denken die Übereinstimmung der physiologischen Anlage mit den kosmischen Bedingungen«.26 Wie ist diese starke These einzulösen? Zunächst darf die imitatio naturae nicht zu eng gefasst werden; insbesondere darf Natur nicht auf eine Vorstellung reduziert werden (als Präsentation), die dann vielleicht handlungsleitend würde. Der Reflexionsprozess ist gänzlich anders verfasst; Arbeit und Technik spielen hier eine unverzichtbare Rolle: Am Ende des Verstandeskapitels legt Hegel die aporetische Situation frei, dass der Verstand als Vermögen der Vorstellung im Modus der Vorstellung nur ein jeweiliges Spiel der Kräfte so oder so modellieren kann und sein Bewusstsein von den solchermaßen präsentierten 21 Kapp: Grundlinien einer Philosophie der Technik, S. 41. 22 Ebd., S. 3. 23 Ebd., S. 37. 24 Ebd., S. 3. 25 Ebd., S. 25. 26 Ebd. 217 Kräften entsprechend so oder anders sein kann, sich – in nicht auflösbarer theoretischer Konkurrenz – so oder anders als Bewusstsein selbst bewusst werden kann. Die Wahrheit eines Selbstbewusstseins ist nur zu erreichen, wenn der Weltbezug ein praktischer wird, das heißt, wenn im Modus der Arbeit die Knechtseite des Bewusstseins, die Leiblichkeit, unter Anerkennung des Anspruchs und der modellierenden Vorgabe der Herrseite des Bewusstseins den Gegenstand buchstäblich bildet. In der dabei erscheinenden Hemmung der Begierde unter Verwirklichung des Anspruchs, in der erscheinenden Differenz zwischen der Vorgabe und dem gebildeten Werk lernt es, die eigene Verfasstheit als Vermögen zu begreifen. Insofern ist nur das knechtische, arbeitende Bewusstsein das »wahre« Selbstbewusstsein. Der Prozess hin zu einer bestimmenden Reflexion kann also nur vermittelt über Arbeit stattfinden. Im Kapitel »Das geistige Tierreich« der Phänomenologie des Geistes betont Hegel abermals, dass der Anfang des Tuns ein unmittelbarer sein muss unter gesetzter Anerkennung einer Vorgabe als Kandidat der Verwirklichung, während der wirkliche Zweck erst nach Vollendung des Tuns »kennen gelernt« wird, wo er doch vorher bloß sich als abstrakte Möglichkeit manifestierte, als Trieb zur Verwirklichung. In seiner tatsächlichen Verfasstheit wird er erst über Enttäuschung oder Gelingensfreude ersichtlich. Seine solchermaßen erarbeitete Repräsentation, die zunächst nur nach Maßgabe ihrer Umfänglichkeit erfassbar ist, bedarf jedoch der qualitativen Bewertung, wie sie dann unter den Regeln der sittlichen Mächte des objektiven Geistes stattfinden kann. Auch für und in diesem Übergang spielt Technik eine maßgebliche Rolle. Erneut fallen die Parallelen zu Kapps Erwägungen sofort ins Auge. Es handelt sich in Hegel’scher Formulierung um den Übergang von der ersten zur zweiten Natur, in Kapps Formulierung um den Übergang von Natur zu Kultur, zu dem, was er auch als Kultivierung oder gar innere Kolonisation charakterisiert, und zwar in Anlehnung an Reuleauxs Konzept von Technik als planvoller (bestimmender) Beschränkung, »Ausschluss der Unbestimmtheit«.27 Unsere (erste) Natur, so Hegel, ist zunächst »unmittelbares Sein der Seele«, die in der »Durchbildung der Leiblichkeit«, also im Modus der Arbeit über »Wiederholung«, »Übung« und »Geschicklichkeit [...] als ein subjektiver Zweck in der Leiblichkeit geltend gemacht« werden kann, sodass die Geschicklichkeit »diesem Zweck unterworfen und ganz durchgängig wird«.28 Dadurch entstehe Gewohnheit und Erwartbarkeit, die »mit Recht eine zweite Natur genannt worden«29 ist und, da die Leiblichkeit nun durchgebildet ist, eine Unabhängigkeit und Gleichgültigkeit von unmittelbaren Empfindungen und unmittelbarer Befriedigung der Triebe, also einer Unmittelbarkeit der Begierde, mit 27 Ebd., S. 302–303. 28 Georg Wilhelm Friedrich Hegel: Enzyklopädie der philosophischen Wissenschaften (1830), hrsg. v. Friedhelm Nicolin, u.a., Hamburg 1969, § 410, S. 339‒342. 29 Ebd. 218 sich führt.30 Es handelt sich zunächst um eine subjektive zweite Natur, die dem Kapp’schen Konzept der inneren Kolonisation sehr nahe steht; sie ist ihrerseits Voraussetzung für eine objektive zweite Natur als Sittlichkeit verwirklichter Freiheit. Die Unmittelbarkeit und Leiblichkeit des Selbstbewusstseins gewinnt nämlich »in seinem Zeichen und Werkzeug«31 durch die Realisierung von Werken ein eigenes Selbstgefühl (als Gefühl über sein Vermögen) und zugleich ein Sein für Andere und ermöglicht dadurch eine mit ihnen vermittelnde Beziehung. Es kann nun eine objektive zweite Natur als Rechtssystem, bestimmt als Reich der verwirklichten Freiheit, als Welt des Geistes hervorgebracht werden, als Prozess, der als »geistige Naturgeschichte« begreifbar wird.32 Kapp wird nun verschiedentlich dahingehend gegen Hegel ausgespielt, dass angemerkt wird, Kapp habe diese geistige Naturgeschichte mit und entlang der Geschichte der Werkzeuge entwickelt, was bei Hegel nicht hinreichend Berücksichtigung fände. Dem ist jedoch keineswegs so. Hegel denkt diesen Geist nämlich als praktisch tätigen Geist, mithin als Vernunft, die die Welt unter Einsatz technischer Mittel gestaltet. Dies wird insbesondere im Teleologie-Kapitel der Wissenschaft der Logik prägnant herausgearbeitet bis hin zu einer Freilegung der Binnenstruktur technischen Handelns.33 Dieses hebt nach Hegel damit an, dass subjektiv und abstrakt ein Zweck unterstellt wird, der durch ein Mittel herbeiführbar erscheint (ansonsten handelte es sich bei dem subjektiven Impuls um einen bloßen Wunsch). Für die tatsächliche Realisierung muss daraufhin ein tatsächliches (äußeres) Mittel eingesetzt werden, welches einen wirklichen, objektiven Zweck realisiert. Dieses Mittel ist – so Hegels gewaltige Einsicht, die er mit Ernst Cassirer teilt – in seiner Konzeptualisierung sowohl Medium als Mittelbegriff eines praktischen Syllogismus als auch und gerade im Vollzug ein faktisches Medium. Hegel charakterisiert es als ein ›Auch von Eigenschaften‹ die über dasjenige hinausgehen, was in der subjektiv abstrakten Konzeptualisierung des Mittels erfasst war. Dieses ›Auch von Eigenschaften‹ prägt den objektiven, verwirklichten Zweck, der dadurch in seiner Differenz zum subjektiv intendierten Zweck erscheint. Die Differenz zwischen subjektivem und objektivem Zweck wird dem ›eingeschobenen Mittel‹ angelastet, mit dem sich die Vernunft eben nicht identifiziert, sondern von dem sie sich distanziert, worin – so die berühmte Formel – die ›List der Vernunft‹ liegt. Indem sie das technische Mittel einsetzt im vordergründig technischen Tun zeitigt Vernunft genau diejenigen Effekte – ihr hintergründig ›listiges‹ Tun –, die ihr (und zwar über das Registrieren ihrer Hemmung und Enttäuschung hinaus) erlauben, sich von der Welt mit ihrer Progression von Mitteln, die sich beständig ersetzen, aufreiben und vernichten, zu distanzieren. Als 30 Ebd., § 435, S. 353. 31 Ebd., § 431, S. 351. 32 Georg Wilhelm Friedrich Hegel: Grundlinien der Philosophie des Rechts, hrsg. v. Johannes Hoffmeister, Hamburg 1967, S. 28 und 146–147. 33 Hierzu Hubig: Die Kunst des Möglichen I, Kap. 4.4. 219 Subjekt des Werkzeugeinsatzes begreift Vernunft das Machtpotential der Mittel in ihrer Möglichkeit von Zwecksetzungen. »Der Pflug ist ehrenvoller, als unmittelbar die Genüsse sind, welche durch ihn bereitet und die Zwecke sind. Das Werkzeug erhält sich, während die unmittelbaren Genüsse vergehen [...] An seinen Werkzeugen besitzt der Mensch die Macht über die äußerliche Natur«34 – schreibt Hegel. Diese Macht über die äußerliche Natur – eine Formulierung, die Kapp aufnimmt35 – verbleibt freilich im Bereich des Mechanischen. Was meint nun Hegel, wenn er ergänzt, dass der Mensch »nach seinen Zwecken der Natur vielmehr unterworfen ist«?36 Es kann hier nicht darum gehen, dass die Natur dem Menschen äußere Zwecke vorgibt. Vielmehr akzentuiert Hegel eine innere Zweckmäßigkeit, die allem Organischen und der Natur als Gesamtorganismus eignet und ein System ausmacht, welches seine Teleologie in beständiger Selbstverwirklichung hat. In diesem Zusammenhang würdigt Hegel die Leistung Kants. In der ersten Einleitung zur Kritik der Urteilskraft habe dieser herausgestellt, dass auch und gerade ein naturgesetzlicher Mechanismus nur denkbar ist, wenn wir eine Natur als Gesamtsystem denken, die nichts umsonst tut – wir haben hier eine regulative Idee vor uns, die überhaupt unsere mechanistisch orientierte Naturforschung leitet, weil sonst der Natur Launen unterstellt werden müssten, die technisches Denken bis hin zur Fehlerrechnung verunmöglicht. Diese innere Zweckmäßigkeit ist es aber auch und gerade, die für Kapp die Naturkräfte des Menschen und diejenigen des Makrokosmos vereint. Denn, so Kapp: Es sei »Bestimmung aller organischen Gebilde, […] sich nach außen zu projizieren, um retrospektiv zur Selbsterkenntnis [...] zu werden.«37 In Hegels Rechtsphilosophie als Ausarbeitung der objektiven zweiten Natur des Menschen findet sich dieser Gedanke im »System der Bedürfnisse« näher ausgeführt, und dies auch wiederum mit Blick auf die Technik und den Technikeinsatz; von Kapp wird dies in den Grundlinien mit Blick auf die Weltausstellung zitiert:38 Die Bedürfnisse bilden ein System, sprich: Sie lassen sich nur in Rückführung auf das Konzept eines Organismus ihrer Zufälligkeit und Nichtigkeit entheben; ihre Befriedigung führt zur arbeitsteiligen, somit einseitigen und abstrakten Erfüllung dieser Bedürfnisse auf einem mechanischen Wege, der sukzessive Maschinen überantwortet werden kann – sofern diese eine Entäußerung und Verwirklichung des organischen Prozessierens darstellen; Kapp zeichnet dies nach. Erforderlich bleibt freilich, die Rechtsverhältnisse bezüglich Bildung, Zugang zu Ressourcen, Kapitaleinsatz und institutioneller Absicherung so zu gestalten, dass die Verwirklichung individueller Freiheit die Systemfunktion insgesamt, also die Verwirklichung des Organismus 34 Georg W. F. Hegel: Wissenschaft der Logik II, hrsg. v. Georg Lasson, Hamburg 1969, S. 398. 35 Kapp: Grundlinien einer Philosophie der Technik, S. 206. 36 Hegel: Wissenschaft der Logik II, S. 398. 37 Kapp: Grundlinien einer Philosophie der Technik, S. 97. 38 Ebd., S. 140. 220 der Gesamtnatur, nicht beschädigt. Dieser Gedanke bildet die Wurzel der Kapp’schen Kritik an einem mechanistisch strukturierten Staatsmodell sowie seiner Forderung nach der Verwirklichung einer organizistischen Verfasstheit des Staates, der einzig über die Gewährleistung der freien Entfaltung seiner Binnenorgane seinen Erhalt als Gesamtsystem zu sichern vermag.39 Nochmals sei herausgehoben: Die Unterstellung einer derartigen Teleologie ist unverzichtbar, wenn man überhaupt technisch-mechanisch im engeren Sinne denken will. Und im Zuge jener ›List‹, die ihr zu eigen ist, versetzt sich diese Vernunft gleichwohl in eine Position, in der sie sich selbst als Subjekt der Idee freier Gestaltung erfahren kann. Dem folgt gar Karl Marx, der ohne eine solche Idee die Störungen und Entfremdungseffekte nicht diagnostizieren könnte, die entstehen, wenn der Arbeiter im Produktionsprozess das technische Mittel ›dazwischenschiebt‹ und ihm unter kapitalistischen Produktionsbedingungen das Disponieren über diese Mittel und die gezeitigten Werke als Produkte entzogen wird. Wenn Kapp von einer Verklärung der Natur durch den Geist des Geistes spricht, nimmt er wörtlich eine Hegel’sche Formulierung aus der Ästhetik auf. Dort ist davon die Rede, dass eine Verklärung der Natur in der zur Kunst gereinigten Arbeit stattfinden könne, einer Arbeit also, die in voller Souveränität und Meisterschaft in der Bildung des Gegenstandes Subjekt und Substanz versöhnt – anstellte einer Hemmung der Begierde und solcher Enttäuschungen, die ihr Gegen- Stand im buchstäblichen Sinne zeitigt. Das arbeitende Subjekt kann sich bilden, indem es bildet.40 Das Zusammenwirken von Mensch und Technik als beidseitigen Akteuren – Modifikation und Aktualisierung intentionaler und technischer (und natürlicher) Fragmente Es mag bisher der Eindruck entstanden sein, dass meine Ausführungen auf den Punkt hinauslaufen, dass Hegel in den Grundlinien eigentlich schon alles gedacht habe, was Kapp dann in concreto ausgeführt hat. Es findet sich jedoch eine Linie, auf der Kapp weitere Gesichtspunkte geltend macht, die Hegel in der Tat ausgeblendet hat: Die Wirkung des Technikeinsatzes nicht nur auf den Gang der Reflexion, sondern auf die faktische Verfasstheit des individuellen Subjekts. Zwar hat auch Hegel im Kapitel »Die beobachtende Vernunft« der Phänomenologie des Geistes bemerkt, die Art der Arbeit und der Geschichte des Tuns eines Individuums zeitige physiognomische Effekte und beeinflusse die Gestalt der Organe, so wie auch Kapp 39 Hierzu Hubig: »Macht und Dynamik der Technik«, in: Bubner (Hg.): Die Weltgeschichte – das Weltgericht, (Anm. 20), S. 337. 40 Georg Wilhelm Friedrich Hegel: Ästhetik, Bd. 1, hrsg. v. Friedrich Bassenge, Berlin, S. 248‒ 259. 221 hervorhebt, dass die Hand des Urmenschen von der Hand des Kulturmenschen verschieden ist.41 War für Hegel jedoch dieser Effekt eher als problematischer Ausgangspunkt der Reflexion zu disqualifizieren, weil mancherlei Zufälle hier eine Rolle spielen können, so betont Kapp, dass »in Wechselwirkung das Werkzeug die Entwicklung des natürlichen Organs [unterstützt], dieses hinwiederum auf jeder höheren Stufe entsprechender Geschicklichkeit die Vervollkommnung und Entwicklung des Werkzeugs«.42 Die amerikanische Axt als gelungene Projektion ist eben ein besserer Ausgangspunkt sowohl zur Entwicklung bestimmter Spezialisierungsoptionen als auch zur Differenzierung und Verfeinerung unterschiedlicher Techniken der Handhabung.43 So gesehen wurden und werden wir zunehmend im Zuge der Zivilisationsgeschichte zu Hybridwesen hin zu einer Durchbildung unserer Leiblichkeit und unserer ersten seelischen Natur, wie Hegel formulieren würde. Im Rahmen seiner Akteur-Netzwerk-Theorie (deren Titel er inzwischen verwarf) hat Bruno Latour die Beantwortung der Frage nach einer Wechselwirkung von Mensch und Technik, nach Aspekten der Herstellung von Subjektivität durch Technik, zur Frage einer Verlagerung von Technik in den Menschen um ein interessantes Theorieelement bereichert, auf das ich abschließend aufmerksam machen will, weil es mir in der allgemeinen Diskussion in zu geringem Maße berücksichtigt scheint. In seiner gut begründeten Absicht, Substantialisierungen und ein damit verbundenes ›Blackboxing‹ praktischer Bezüge zu vermeiden, hingegen eine attributive Kennzeichnung der Mensch-/Subjektseite, der Technikseite und der Naturseite zu favorisieren, zeigt Latour an paradigmatischen Schlüsselbeispielen (teils im doppelten Sinne, nämlich dem mit einem Gewicht beschwerten Hotelschlüssel und dem Berliner Mietshausschlüssel, ferner auch an der Pistole in der Hand, dem schlafenden Gendarmen, den Callon’schen Kammmuscheln bis hin zum Regenwald-Freilandlabor), wie Menschen, technische Artefakte und natürliche Organismen symmetrisch aufeinander einwirken.44 Latours Argumentation setzt damit ein, und dies wird selten berücksichtigt, dass isoliert betrachtet Individuen lediglich als intentionale Fragmente, Artefakte lediglich als technische Fragmente und auch natürliche Organismen wie Kammmuscheln oder Seesterne oder Regenwaldphänomene analog als – leider formuliert er dies nicht explizit – natürliche Fragmente gelten können, denen lediglich der Staus von sogenannten Propositionen zukommt.45 Mit dem Terminus ›Proposition‹ soll offensichtlich ausgedrückt werden, dass es um Gehalte ohne fest- 41 Kapp: Grundlinien einer Philosophie der Technik, S. 60. 42 Ebd. 43 Ebd., S. 216–217 in Verbindung mit S. 60–61. 44 Hierzu ausführlich Christoph Hubig: Die Kunst des Möglichen III, Kap. 2.2: »Im Ausgang von Bruno Latour: ›Akteur-Netzwerk-Theorie‹ (ANT)«, S. 83‒124; dort sind die Belegstellen aus den einschlägigen Schriften Latours versammelt. 45 Bruno Latour: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt am Main 2000, S. 217–218. 222 gelegten, d.h. mit offenem Bezug zu einer Intentionalität/Subjekt und ohne festgelegte dingliche Referenz/Extension (Objekt) geht. Erst im Zuge einer wechselseitigen Modifikation – wobei Modifikation heißt: in einen bestimmten Modus bringen und bezüglich ihrer Ausgangsverfasstheit in bestimmter Weise hin zu einer Konkretisierung verändern – werden sie zu Akteuren »übersetzt«, artikulieren und verwirklichen sich.46 Der mit einem Gewicht beschwerte Hotelschlüssel vermag die unbewussten Präferenzstrukturen eines Subjektes als intentionales Fragment dahingehend zu modifizieren, dass von einer gewissen Grenze ab Bequemlichkeit auf Kosten gewisser Freiheiten und Nachlässigkeiten priorisiert wird. Die Pistole in der Hand (sei es nun diejenige einer Streifenpolizistin mit hohem Abzugswiderstand oder einer SEK-Beamtin mit höchst sensibler Reaktion) vermag intentionale Fragmente wie Tötungshemmung, Abwägen der Einsatzgründe, Sorgfalt und Präzision des Schie- ßens in unterschiedlicher Weise zu priorisieren; genauso wie Ignoranz, Desinteresse an Gratifikationen und Sanktionen auf Seiten des Subjekts technisch angelegte Fragmente nicht zur Geltung zu bringen vermögen. Insofern wird eine Pistole in der Hand unterschiedlicher Individuen jeweils eine andere, so wie die Individuen ausgestattet mit unterschiedlichen Pistolen andere Akteure werden. Kapp formuliert zu diesem Punkt: »So versetzen und durchwirken das Bewusste und das Unbewusste unablässig das eine mit dem anderen.«47 Dieser Prozess der Entäußerung als Verwirklichung von Dispositionen, die erst ex post in ihrer Realisierung gewusst werden können (die Hegel’sche Denkfigur des Modalgefälles vom An-sich über das Für-sich zum An-und-Für-sich) wird zudem geprägt durch Übersetzungsinstanzen. Solche nehmen im Netz bzw. Netzwerk über die Einbindung der Rollen in übergreifende Rollenträgerschaften, in welche die Akteure sich wechselseitig übersetzen, weitere Modifikationen vor. Dass an solchen Modifikationen auch natürliche Organismen als Akteure beteiligt sind, haben Latour am Beispiel des Regenwald-Freilandlabors und Michel Callon am Beispiel der Kammmuscheln erläutert. Ein ›Netz‹ als Rahmung und Zusammenfassung der Interaktionen existiert dabei nicht in irgendeiner Art substantiell, sondern ergibt sich erst durch die rekonstruktive Arbeit der Inskriptionen der einzelnen Effekte ex post. Ergebnis der Übersetzungsprozesse ist die ›Überquerung der Grenze zwischen Zeichen und Dingen‹ – dasjenige Phänomen, welches wir am Berliner Hotelschlüssel oder beim ›schlafenden Gendarmen‹ exemplifiziert sehen: Die Aufforderung zur Schlüsselrückgabe oder zum langsamen Fahren, um niemanden zu gefährden, wird übersetzt in einen Appell an Eigennutz, Bequemlichkeit, Schonung der Stoßdämpfer – über den Umweg, die Rolleneinnahme qua ›Veränderung der Ausdrucksmaterie‹ zu fixieren. Die Ergebnisse solcher Fixierung fasst Latour unter dem Neologismus ›Faitiche‹ als Kombination aus Fakt und Fetisch, also einer Faktizität mit normativer Wirkung, 46 Ebd. 47 Kapp: Grundlinien einer Philosophie der Technik, S. 184. 223 zusammen. Zum einen fordert Latour, den Wildwuchs der Entstehung von Hybridwesen unter der Wirkung von Faitichen in bestimmten Kontexten, etwa einer bewussten Zulassung auf experimenteller Basis, zu konzedieren. Wir sollen im modernen Alltag nicht mehr der typisch modernen Subjekt-Objekt-Trennung als Voraussetzung einer doch fehlschlagenden Kontrolle frönen. Zum anderen fordert Latour freilich auch, die »Produktion von Hybriden explizit und kollektiv zum Gegenstand einer erweiterten Demokratie zu machen, die das Tempo dieser Produktion reguliert oder verlangsamt«.48 Die Akteure auch und gerade nicht-menschlicher Art, also Artefakte und natürliche Organismen, sollen auf bestimmten Foren zum Sprechen gebracht werden. Implizit appelliert auch Latour hier wieder an die zweite Natur einer – wie Hegel formulieren würde – Gemeinde, die die Regeln ihrer Sittlichkeit verhandelt und damit die Fragmente subjektiver Geister in einen objektiven Geist überführt, unter dem dann in Freiheit als »Fähigkeit, Kombinationen von Hybriden auszuwählen«49 disponiert werden kann. Latour hat dies am Beispiel des Pariser U- Bahn-Projekts »Aramis« als Modell eines individualisierbaren öffentlichen Nahverkehrs vorgeführt, und er hat dabei in ähnlicher Weise gegen ein mechanistisch-technokratisch-despotisches Vorgehen von Experten und Wirtschaftsvertretern polemisiert,50 wie es wohl Kapp in dieser Situation auch unternommen hätte. Wenn wir zwar nie modern gewesen sind, wie Latour angesichts unserer Hybridisierung anmerkt, würde ein solches Disponieren, das die Potenziale aller Beteiligten, der menschlichen, technischen und natürlich-organischen Akteure ausreizt und in ihrer Realisierung aushandelt, doch durchaus einem Projekt der Moderne entsprechen – welches die Legitimationswege in die Verfahren legt. An dieser Stelle konvergieren Einsichten, die Kapp, Hegel und Latour aus unterschiedlicher Perspektive entwickeln, die sie in ihren Ergebnissen aber wohl teilen würden. Insgesamt sollte dennoch nicht übersehen werden, wie sehr sich inzwischen im Feld der Hybridisierung eine völlig neue Problemlage etabliert hat, welche die erwähnten klassischen Argumentationslinien gar nicht mehr erreichen: der subjektive Verlust der Schnittstellen sowohl in der Mensch-Technik-Interaktion als auch bei den Instanzen (Mensch, Technik) dieser Interaktion selbst. Sowohl im Zuge der Biofaktisierung als auch in den avancierten Informationstechnologien lassen sich elementare Dependenzen bezüglich ihres Entstehens und Verlaufs überhaupt nicht mehr klar identifizieren. Man kann sie allenfalls bruchstückhaft ausgehend von den Resultaten abduktiv zurückverfolgen. Damit entsteht eine neue Qualität des Blackboxing, die erst noch zu konkretisierende Strategien eines Umgangs mit Unsicherheit erforderlich macht. Ein Grundgedanke hierfür wäre die Gewichtung und Bewertung des 48 Bruno Latour: Wir sind nie modern gewesen, Berlin 1955, S. 188. 49 Ebd. 50 Bruno Latour: »Aramis – oder die Liebe zur Technik«, in: Werner Fricke (Hg.): Innovationen in Technik, Wissenschaft und Gesellschaft, Bonn 1998, S. 147‒164, hier 151–156. 224 Potenzials möglicher Irrtümer bezüglich der Unterstellung oder des Ausschlusses von Chancen- und Risikopotenzialen der jeweiligen »Übersetzung«.51 51 Hierzu Hubig: Die Kunst des Möglichen III, Kap. 3.1.2–3.1.3 Blackboxing revisited …, S. 135‒157, ferner Christoph Hubig, u.a.: »Outlines of a Pragmatic Theory of Truth and Error in Computer Simulation«, in: Michael M. Resch, u.a. (Hg.): The Science and Art of Simulation I. Exploring – Understanding – Knowing, Springer International Publishing 2017, S. 121‒136, hier S. 133‒135. 225 Jan C. Schmidt Die Selbstoptimierung des Selbst Zur Technikphilosophie des Neuroenhancements Abstracts Über Human Enhancement ist weltweit eine Kontroverse entbrannt; insbesondere das so genannte Neuroenhancement könnte herkömmliche Steigerungsformen epochal erweitern. Der vorliegende Beitrag zielt auf eine Analyse und Kritik impliziter Prämissen der Versprechungen dieses neuen Typs von Anthropotechniken – und ergänzt damit Angewandte Ethik und Technikfolgenabschätzung. Dazu wird ein Entwurf zu einer kritischen Technikphilosophie des Neuroenhancements vorgelegt, welcher kulturphilosophische, anthropologische, wissenschaftsphilosophische, gesellschaftstheoretische und ethische Fragestellungen umfasst. Neuroenhancement kann so als kulturelles Symptom und Spiegel globalkompetitiver Steigerungsgesellschaften gedeutet werden, welche verwoben sind mit einer sukzessiven Technonaturalisierung des menschlichen Selbstverständnisses. Diese kulturelle Verschiebung anthropologischer Orientierungsmarken wird als begründungstheoretisch schwach sowie als kulturphilosophisch und gesellschaftstheoretisch fragwürdig zurückgewiesen. We are experiencing a challenging discourse on human enhancement, in particular on neuro- and cognitive enhancement. A novel type of anthro-technologies seems to be feasible. This paper aims to analyze and critique the implicit premises of the promises of neuro-enhancement and its recent hype, and as such, it complements Applied Ethics and Technology Assessment. In order to accomplish this, the paper develops a frame concept for a critical philosophy of technology of neuroenhancement that encompasses aspects of philosophical anthropology, cultural philosophy, philosophy of sciences, societal theory and ethics. Drawing to this concept, neuro-enhancement appears as a cultural symptom of strong competitive and deep accelerated enhancement societies that are inherently interlaced with a successive technonaturalization of the human self. The latter is questioned and rejected from a critical perspective since it is not based on sound arguments. Anthropotechniken Über »Human Enhancement« ist weltweit eine heftig geführte Kontroverse entbrannt.1 Von Neuro-, Brain-, Cognitive- und Memory-Enhancement ist die Re- 1 Seit den frühen 2000er Jahren und einem mittlerweile berühmt gewordenen Workshop der USamerikanischen National Science Foundation wird über die technische Verbesserung, Steigerung und Perfektionierung des Menschen debattiert (Mihai C. Roco, u.a. (Hg.): Converging Technologies for Improving Human Performance. Nanotechnology, Biotechnology, Information Technology, and Cognitive Science, Arlington, Virg. 2002). Dort wird insbesondere auch »Cognitive Enhancement« und »Enhancement of the Human Mind« ins Feld geführt (kritisch: Gregor Wolbring: »Why NBIC? Why human performance enhancement?«, in: European Journal of Social 227 de,2 von kosmetischer Psychopharmakologie und Doping für das Gehirn.3 Damit wird die Dekade des Gehirns, wie die 1990er Jahre in den USA forschungspolitisch genannt wurden, in technischer Hinsicht fortentwickelt. Das aktuelle Human Brain Project der Europäischen Union ist bestes Beispiel für diese technische Weiterentwicklung, die großvolumig im interdisziplinären Verbund vorangetrieben wird. Mit der Vision der technischen Verbesserung des Menschen scheint,4 nach einigen Dekaden der Zurückhaltung und der Wahrnehmung von Ambivalenzen, der Baconsche Technikoptimismus zurück zu sein:5 Wissenschaftlich-technischer Fortschritt wird wieder linear mit gesellschaftlich-humanem Fortschritt identifiziert. Das Macht- und Machbarkeitsideal, das Francis Bacon im frühen 17. Jahrhundert programmatisch für die wissenschaftlich-technische Moderne grundlegte, erreicht einen neuen, entgrenzenden Höhepunkt. Der in den visionären Versprechungen des Neuroenhancements anvisierte Typ von Anthropotechnik würde über klassische Formen, die Peter Sloterdijk einst im Blick hatte, hinausgehen.6 Verfügbar und optimierbar werden nicht nur technische Produkte und Prozesse, natürliche, biologische und technische Umwelten, nukleare und genetische Kerne. Darüber hinaus, so legen die Visionäre des Neuroenhancements nahe, werde auch das Innerste und Eigenste des Menschen, seine Identität, seine Personalität, Authentizität oder gar Autonomie technisch zugänglich: sein Denken und Fühlen, Entscheiden und Handeln, seine Science Research 21 (2008), S. 25–40). Die enge Verwandtschaft zur Diskussion des so genannten »Transhumanismus« ist offenkundig (vgl. als modernen Klassiker: Julian Savulescu, u.a. (Hg.): Human Enhancement, Oxford 2009, sowie allgemein kritisch: Francis Fukuyama: Our Posthuman Future. Consequences of the Biotechnology Revolution, New York 2002). 2 Zum Überblick siehe u.a. Martha J. Farah, u.a.: »Neurocognitive enhancement. What can we do and what should we do?«, in: Nature Reviews Neuroscience 5 (2004), Heft 5, S. 421–425. 3 Siehe bspw. Peter D. Kramer: Listening to Prozac, New York 1994. 4 Die teils spekulativen Utopien des Enhancements hat Dickel sozialwissenschaftlich-wissenssoziologisch rekonstruiert, analysiert und bewertet (Sascha Dickel: Enhancement-Utopien, Baden- Baden 2011). 5 So kann von einem »Ende des Baconschen Zeitalters«, von dem Gernot Böhme (Am Ende des Baconschen Zeitalters. Studien zur Wissenschaftsentwicklung, Frankfurt am Main 1993) einst sprach, keine Rede mehr sein. Die Rückkehr des Baconschen Programms und insbesondere seine partielle Realisierung im Rahmen konvergenter Technologien (vgl. Roco, u.a.: Converging Technologies for Improving Human Performance) kann vielmehr als Zeichen einer Beendigung der (kurzen) »reflexiven Moderne« (vgl. Ulrich Beck: Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt am Main 1986) angesehen werden. Die Rückkehr Bacons gilt insbesondere auch für Neurotechnologie und Neuroenhancement, auch wenn man zugestehen muss, dass Bacon in Nova Atlantis zurückhaltend gegenüber einer technischen Manipulation des Menschen (hier: der Wahrnehmungssinne) war (vgl. Massimo De Carolis: »Technowissenschaft und menschliche Kreativität«, in: Erich Hörl (Hg.): Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Berlin 2011, S. 281–305, hier S. 284–285). 6 Vgl. Peter Sloterdijk: Regeln für den Menschenpark, Frankfurt am Main 1999, S. 42. Die ursprüngliche Debatte, die Sloterdijk im Schloss Elmau in Rekurs auf eine spezifische, umstrittene Lesart von Heidegger und Nietzsche vorgetragen hat, bezog sich auf gen- und biotechnologische Optimierung und stand u.a. im Horizont der Eugenik. Eine allgemeine Darstellung von Anthropotechniken findet sich auch in Peter Sloterdijk: Du musst dein Leben ändern. Über Anthropotechnik, Berlin 2009. 228 Stimmungen und Haltungen. Jeder Einzelne könnte zum homo faber oder gar zum homo creator seines Selbst werden – zur Verfolgung vermeintlich ureigener Ziele, die nicht selten gesellschaftlich, ja ökonomisch produzierte Bedürfnisse oder gar Zwänge darstellen. Dabei scheint nicht nur ein psychopharmakologisches »Better than Well«7 in Sicht, sondern auch ein »Engineering of Mind to enhance Human Productivity«,8 was als neuropolitischer Beitrag eines primär »unternehmerischen Selbst«9 zur neoliberal-kompetitiven »Optimierungsgesellschaft« bzw. »Leistungssteigerungsgesellschaft« zu verstehen wäre.10 Die neuropharmakologische Selbstoptimierung des Selbst könnte herkömmliche Steigerungs- und Optimierungsformen,11 wie etwa die Selbstoptimierung des eigenen Körpers oder die Fremdoptimierung der genetischen Ausstattung der Kinder und zukünftiger Generationen, epochal erweitern12 – als qualitativ neuer Typ der »Technologien des Selbst«, der »Selbstführung« und des »Selbstmanagements«, wie Foucault einst schon andere artefakt-, sozial- und individual-technologische Transforma- 7 Carl Elliott: Better than Well. American Medicine meets the American Dream, New York, London 2003. 8 James S. Albus, u.a.: Engineering of Mind. An Introduction to the Science of Intelligent Systems, New York 2001. 9 Ulrich Bröckling: Das unternehmerische Selbst. Soziologie einer Subjektivierungsform, Frankfurt am Main 2007. 10 Kritisch: Michael Makropolous: »Historische Kontingenz und soziale Optimierung«, in: Rüdiger Bubner, u.a. (Hg.): Die Weltgeschichte – das Weltgericht?, Stuttgart 2002, S. 72–92 und Christopher Coenen: »Schöne neue Leistungssteigerungsgesellschaft?«, in: TAB-Brief 33 (2008), S. 21–27. Ferner identifizieren Maasen/Sutter einen Gleichgang von (globalkapitalistischer) »neoliberaler Politik und avancierten Neurotechnologien/Neurotechnowissenschaften«, wodurch Menschen zu so genannten »Willing Selves« permutieren, welche die neurotechnowissenschaftliche Selbstoptimierung als eigenes Bedürfnis (selbst) wollen (Sabine Maasen, u.a. (Hg.): On Willing Selves. Neoliberal Politics vis-à-vis the Neuroscientific Challenge, Houndmills Hampshire 2007). Ein gesellschaftlich-ökonomischer Sachzwang kann hieraus entstehen, der als Entscheidungsnotwendigkeit wahrgenommen werden kann und damit eine »Explosion der [Selbst-]Verantwortung« induzieren kann, so aus anderer Perspektive Michael J. Sandel (Plädoyer gegen Perfektion, Berlin 2015, S. 108–109). 11 Der hier und im Folgenden verwendete Begriff des Selbst soll den Bezug zum Eigenen des jeweiligen Menschen, zu seiner Identität, Subjektivität und Personalität darstellen; er wird nicht mit den großen Konnotationen der Begriffs- und Ideengeschichte verwendet. Zum Begriff des »Selbst« siehe insbesondere Charles Taylor: Quellen des Selbst. Die Entstehung der neuzeitlichen Identität, Frankfurt am Main 2015, Dieter Sturma: Philosophie der Person. Die Selbstverhältnisse von Subjektivität und Moralität, Paderborn 1997 sowie Thomas Metzinger: Der Ego- Tunnel. Eine neue Philosophie des Selbst, Berlin 2009. Das enge Zusammenspiel von Hirnkonzepten und »Selbst« wird von Jonna Brenninkmeijer (»Taking care of one’s brain changes people’s selves«, in: History of the Human Sciences 23 (2010), Heft 1, S. 107–126) untersucht; neuere »Subjektivierungsformen des Selbst« werden bei Bröckling (Das unternehmerische Selbst) vorgestellt. Allgemein ist auffallend, dass – anders als im Umfeld der so genannten Postmoderne – wieder von einem identitätsstiftenden Selbst gesprochen wird. 12 Zur Darstellung einiger Perfektionierungsmöglichkeiten, verbunden mit ethischer Beurteilung, siehe: Klaus Lieb: Hirndoping. Warum wir nicht alles schlucken sollten, Mannheim 2010, und Bernward Gesang: Perfektionierung des Menschen, Berlin, New York 2007. 229 tionen der Alltagspraxen nannte.13 Der von Foucault angestoßene, allgemeine Diskurs um Biomacht wäre um einen der technikbasierten »Neuromacht« zu ergänzen:14 Würde Neuroenhancement in Breite möglich werden, würde sich – über Foucault hinausgehend – die technische Eingriffs- und (möglicherweise) die Kontrolltiefe des (einzelnen) Menschen in sich selbst und in sein Selbst, d.h. in seine Subjektivierungsformen, vergrößern, bei gleichzeitigem Verlust an Spuren und Signaturen des Technischen.15 Wie weit eine solche Realisierung zukünftig möglich ist, ist derzeit offen. Entscheidend ist indes schon heute, wie zu zeigen sein wird, dass die öffentliche Debatte um Neuroenhancement bereits jetzt gesellschaftliche wie individuelle Erwartungen an eine wirksame und nebenwirkungsarme technische Optimierung zeitigt, die eine Verschiebung der Selbstbeschreibungen und Selbstverhältnisse des Menschen, seiner anthropologischen Selbstverständnisse und Selbstbilder andeutet – mit gesellschaftlicher und kultureller Relevanz. Vor diesem Hintergrund wird im Folgenden ein Entwurf zu einer kritischen Technikphilosophie des Neuroenhancements vorgelegt, welcher kulturphilosophische, anthropologische, wissenschaftstheoretische, gesellschaftstheoretische und ethische Fragestellungen umfasst. Neuroenhancement kann so als kulturelles Symptom und Spiegel globalkompetitiver Steigerungsgesellschaften gedeutet werden, welche verwoben sind mit einer sukzessiven Technonaturalisierung des menschlichen Selbstverständnisses. Diese (mögliche) kulturelle Verschiebung anthropologischer Orientierungsmarken wird als wissenschaftstheoretisch schwach sowie als kulturphilosophisch und gesellschaftstheoretisch fragwürdig zurückgewiesen. 13 Michel Foucault: »Technologien des Selbst«, in: Michel Foucault, u.a. (Hg.): Technologien des Selbst, Frankfurt am Main 1993, S. 21–62. Vgl. auch: Thomas S. Osborne: »Techniken und Subjekte. Von den Governmentality Studies zu den Studies of Governmentality«, in: Demokratie, Selbst, Arbeit. Mitteilungen des Instituts für Wissenschaft und Kunst (IWK) 2/3 (2001), S. 12–16 sowie Bröckling: Das unternehmerische Selbst, S. 31–32. 14 Petra Gehring (»Leben und Gehirn. Der Fall Neurokriminologie«, in: Thiemo Breyer, u.a. (Hg.): Funktionen des Lebendigen, Berlin, Boston 2016, S. 105–122) identifiziert und erörtert dies der Sache nach, auch wenn der Begriff »Neuromacht« oder »Neuropolitik« nicht fällt (vgl. auch: Petra Gehring: Was ist Biomacht? Vom zweifelhaften Mehrwert des Lebens, Frankfurt am Main 2006). De Carolis (»Technowissenschaft und menschliche Kreativität«, in: Hörl (Hg.): Die technologische Bedingung, S. 282) hat den hier involvierten Techniktyp detailliert untersucht und spricht von »kognitiver Technik«. Mit diesem eher unscheinbaren Begriff legt er eine epochale Verschiebung im Technikverständnis offen. 15 Vgl. zum Verlust an Spuren und Signaturen: Christoph Hubig: Die Kunst des Möglichen I. Technikphilosophie als Reflexion der Medialität, Bielefeld 2006. Allgemein liegen ambivalente Visionen auf dem Tisch, dem »erschöpften Selbst« technisch induzierte Auswege aus seiner Erschöpftheit zu weisen, wie Alain Ehrenberg (Das erschöpfte Selbst, Frankfurt am Main 2004) zeigt. 230 Technikfolgenabschätzung Technische Visionen der Selbstoptimierung, insbesondere des Neuroenhancements, haben Technikfolgenabschätzer und Angewandte Ethiker zu Recht auf den Plan gerufen. Doch was kann und soll die Grundlage für ihre Abschätzung und für ihre Urteilsbildung sein? Insgesamt, so muss man sagen, ist es noch recht früh. Ein wirksames, zielgenaues und nebenwirkungsarmes Neuroenhancement steht noch aus. Wenige Präparate sind erfolgreich getestet, direkte Wirkungen sind vielfach nicht erwiesen, zielgenaue Anwendungen liegen zumeist in der Ferne.16 Konkrete Folgen, die mit neuen neuropharmakologlischen Präparaten, Produkten oder Prozessen in Verbindung stehen, sind kaum in Sicht und somit sind ihre Konsequenzen nicht antizipierbar. Das heißt freilich nicht, dass nicht eine Reihe von Präparaten auf dem Markt sind, die eine Leistungssteigerung des gesunden Menschen ermöglichen könnten. Diskutiert werden Modafinil (»Vigil«),17 Methylphenidat (»Ritalin«, u.a.),18 Fluctin/Fluoxetin (»Prozac«),19 Ginko- und Ginsengextrakte sowie Piracetam, Donepenzil,20 Metoprolol/Propranolol (Betablocker), aber auch allgemein eine Palette weiterer Psychopharmaka, Schmerz- und Beruhigungsmittel.21 Doch angesichts der visionären Versprechungen sind die mit diesen Präparaten verbundenen Wirkungen, die kaum über kurzzeitige leistungssteigende Effekte hinausgehen, doch dürftig. Vielmehr dominieren unspezifische Wirkungen, die freilich durchaus mentale bzw. psychische Zustände verändern können.22 Nun steht in dieser Frühzeitigkeitsproblematik Neuroenhancement nicht alleine. Allgemeiner sind und waren die New and Emerging Sciences and Technologies (NEST), zu denen allgemein Nanotechnologien, Biotechnologien, Informationstechnologien sowie Kognitions- und Neurowissenschaften (»NBIC-technologies«) gezählt werden, unspezifisch, gar unbestimmt, was Konsequenzen angeht. Wie umgehen mit derart offen- 16 Eine homogene Scientific Community von Neuroenhancementforschern ist nicht in Sicht, vgl. Boris B. Quednow: »Ethics of Neuroenhancement. A Phantom Debate«, in: Biosocieties 5 (2010), S. 149–156 und Peter Wehling: »Vom Schiedsrichter zum Mitspieler? Konturen proaktiver Bioethik am Beispiel der Debatte um Neuro-Enhancement«, in: Alexander Bogner (Hg.): Ethisierung der Technik – Technisierung der Ethik. Der Ethik-Boom im Lichte der Wissenschafts- und Technikforschung, Baden-Baden 2013, S. 147–172. 17 Indikation dieser Substanzklasse ist zumeist Narkolepsie und »sleeping disorder«. 18 Im Rahmen der Medizin werden diese Substanzen gegen ADHS verwendet. 19 Diese Medikamente werden üblicherweise gegen Depressionen verabreicht. 20 Indikation für diese Medikamente sind i.A. Krankheitsbilder wie Demenz. 21 Vgl. zum Überblick Lieb: Hirndoping, Farah, u.a.: »Neurocognitive Enhancement«, in: Nature Reviews Neuroscience 5, und Armin Hoyer, u.a.: »Jenseits von Ethik. Zur Kritik der neuroethischen Enhancement-Debatte«, in: Deutsche Zeitschrift für Philosophie 62 (2014), Heft 5, S. 823–848. So betont etwa Lieb, dass »die gegenwärtig zur Verfügung stehenden Medikamente […] bezüglich ihrer Wirkung […] an deutliche Grenzen [stoßen, JCS]« (ebd., S. 87). 22 Das ist nicht spezifisch für Neuroenhancement, sondern etwa auch beim allgemeinen Drogenkonsum der Fall. 231 kundig unbestimmbaren Technikfolgen von Technologien, die wegen ihres Ermöglichungscharakters zu Recht als emergent bezeichnet werden?23 Ein rein konsequentialistischer Zugang, der das heutige Handeln durch Antizipation von konkreten Zukunftsfolgen zu beurteilen sucht und auf real möglichen Szenarien basiert, kann nicht greifen, wenn kein substanzielles Folgenwissen gewonnen werden kann. Dass freilich stets versucht werden sollte, ein wissenschaftsfundiertes Folgenwissen zu erlangen, steht außer Zweifel. Doch nicht selten unterstellen Technikfolgenabschätzer und Angewandte Ethiker, dass ein Folgenwissen möglich oder gar vorhanden ist – und präsentieren eine Wenn-Dann-Argumentation.24 Die so genannte Neuroethik, die derzeit eine beachtliche Konjunktur feiert, ist bestes Beispiel für eine spekulativ ausgerichtete Verengung des Diskurses. Sie lässt sich einseitig vermeintliche Herausforderungen präsentieren, operiert kasualistisch im Modus einer kosmetischen Begleitforschung oder, komplementär, düster-dystopischer Szenarien. Zumeist blendet sie wirtschaftsethische, sozialphilosophische oder gesellschaftstheoretische Aspekte aus. So dringt sie nicht zum Kern des Technikhandelns vor, lässt Erkenntnisse der neueren Wissenschafts- und Technikforschung, der Science and Technology Studies (STS), außen vor.25 Die soziale, ökonomische und technische Verfasstheit der Gegenwartsgesellschaft, insbesondere den Steigerungsund Wachstumsdrang globalkapitalistischer Reproduktion und technologischer Innovation, lässt sie unberücksichtigt. Zusammengenommen ist sie zu schwach, wie eine »Fahrradbremse am Interkontinentalflugzeug«, so Ulrich Beck in anderem Zusammenhang.26 23 Den Ermöglichungscharakter von Technik sowie ihre Unbestimmtheit untersuchen Hubig: Die Kunst des Möglichen I, sowie Gerhard Gamm: Der unbestimmte Mensch. Zur medialen Konstruktion von Subjektivität, Berlin 2004 (Technik als Medium, Technik als Dispositiv). 24 In diese geht das Konditional (»wenn«) ein, das sodann nicht mehr als hypothetisch reflektiert und als unsicher gekennzeichnet wird, sondern im Glanz des Faktischen erscheint; es wird nicht mehr als spekulative Unterstellung wahrgenommen und kaum kritisch hinsichtlich der Entstehungs- und Realisierungsbedingungen reflektiert. So sind Debatten wie die über Neuroenhancement geprägt von einer »unheimlichen Wirklichkeit des Möglichen«, wie Alfred Nordmann zeigt (Alfred Nordmann: »Die unheimliche Wirklichkeit des Möglichen. Kritik einer zukunftsverliebten Technikbewertung«, in: Miriam Eilers, u.a. (Hg.): Verbesserte Körper – gutes Leben? Bioethik, Enhancement und die Disability Studies. Praktische Philosophie kontrovers, Frankfurt am Main 2012, S. 23–40). Nicht nur, dass zwischen Euphorie und Erschaudern kaum Zwischentöne auftreten, die konstitutiv sind für eine balancierte, an konkreten Entwicklungslinien ausgerichtete Technikgestaltung. Vielmehr geraten grundlegende Fragen aus dem Blick, die die gesellschaftlichen, ökonomischen, kulturellen und anthropologischen Bedingungen betreffen, die Neuroenhancement in Forschung und Entwicklung erst möglich machen. Diese technizistische Engführung verhindert einen gesellschaftlichen Diskurs über an Problemlagen orientierten Zielen und vernünftigen Zwecken von Forschungs- und Entwicklungsprogrammen. 25 Vgl. Hoyer, u.a.: »Jenseits von Ethik«, in: Deutsche Zeitschrift für Philosophie 62, kritisieren ebenfalls die Angewandte Ethik. 26 Ulrich Beck: Weltrisikogesellschaft. Auf der Suche nach der verlorenen Sicherheit, Frankfurt am Main 2007, S. 73–74. Ob diese These Becks noch gilt, ist in bestimmter Hinsicht fragwürdig. Wehling: »Vom Schiedsrichter zum Mitspieler?«, in: Bogner (Hg.): Ethisierung der Tech- 232 Um einen erweiterten Reflexionshorizont zu gewinnen, wären also zunächst einmal die geringe Wissensbasis sowie die damit einhergehenden methodologischen und epistemologischen Probleme wahrzunehmen.27 Für die Technikfolgenabschätzung – und die Angewandte Ethik – bedeutet eine solche Lage, dass über konsequentialistische und damit über utilitaristische Ethiken hinaus andere Ethikkonzepte ins Spiel kommen, etwa Tugend- und deontologische Ethiken, freilich auch Diskursethiken. Grundlegender, und wohl treffender noch, wäre ein Konzept- und Theoriedefizit anzuerkennen.28 Dass bei visionären, emergenten, ermöglichenden Zukunftstechnologien ein konzeptioneller Erweiterungsbedarf der Technikfolgenabschätzung und Angewandten Ethik besteht, wurde indes mitunter gesehen. Beispielhaft für ein ganzes Bündel derartiger Ansätze, die eine Suchbewegung signalisieren, stehen Vision Assessment, Visioneering Assessment, explorative Philosophie, hermeneutische Technikfolgenabschätzung, prospektive Technikfolgenabschätzung und Scenario Mapping.29 Einige der Ansätze sind verbunden mit dem Ziel, zu einer »Repolitisienik – Technisierung der Ethik hat in kritischer Absicht auf die neue, aktive Rolle von Ethikern – und auch von Technikfolgenabschätzern – »als Mitspieler« hingewiesen. Ein Beispiel ist das »politische Akteursverhalten« der Europäischen Akademie Bad Neuenahr-Ahrweiler im Rahmen ihrer Studie zum Neuroenhancement (Thorsten Galert, u.a.: »Das optimierte Gehirn«, in: Gehirn und Geist 11 (2009), S. 40–48.). Derartige Aktivitäten von Ethikern, vorgetragen als vermeintlich neutrale Expertenexpertise, sind im Kern wie in der Wirkung politisch, nämlich im Sinne von Bio- oder Neuroenhancementpolitiken, so Wehling: »Vom Schiedsrichter zum Mitspieler?«, in: Bogner (Hg.): Ethisierung der Technik – Technisierung der Ethik. 27 Erforderlich wäre eine kritische Wissen(schaft)stheorie des Zukunftswissens, als Kern einer »New Science of the Future« und einer »Ethics of the Future«, so Jean-Pierre Dupuy: »Complexity and Uncertainty. A Prudential Approach to Nanotechnology«, in: European Commission (Hg.): Nanotechnologies. A Preliminary Risk Analysis on the Basis of a Workshop. Brussels, 1–2 March 2004, S. 71–93. 28 So auch Gehring: Was ist Biomacht? 29 Siehe bspw. John Grin, u.a. (Hg.): Vision assessment. Shaping technology in 21st century society, Berlin, Heidelberg 2000; Alfred Nordmann: »Visioneering Assessment. On the Construction of Tunnel Visions for Technovisionary Research and Policy«, in: Science, Technology and Innovation Studies 9 (2013), Heft 2, S. 89–94; Armin Grunwald: »Die hermeneutische Erweiterung der Technikfolgenabschätzung«, in: Technikfolgenabschätzung. Theorie und Praxis 24 (2015), Heft 2, S. 65–69; Nicole C. Karafyllis: »Facts or Fiction? A Critique on Vision Assessment as a Tool for Technology Assessment«, in: Paul Sollie, u.a. (Hg.): Evaluating New Technologies. International Library of Ethics, Law, and Technology, Dordrecht 2009, S. 93– 117; Wolfgang Liebert, u.a.: »Towards a prospective technology assessment. challenges and requirements for technology assessment in the age of technoscience«, in: Poiesis & Praxis 7 (2010), S. 99–116; Richard Beecroft, u.a.: »Scenario Mapping. Vom Systemmodell zum argumentativen Gedankenexperiment«, in: Michael Decker, u.a. (Hg.): Technikfolgenabschätzung im politischen System. Zwischen Konfliktbewältigung und Technologiegestaltung, Berlin 2014, S. 39–45 und Hoyer, u.a.: »Jenseits von Ethik«, in: Deutsche Zeitschrift für Philosophie 62. Einige davon zielen darauf ab, gegenwärtige Technikzukünfte und Technikvisionen zu adressieren und deren Entstehung, Funktion und Wirkung zu analysieren, um so »etwas über uns« heute zu lernen und damit Grundlagenarbeit zur Technikgestaltung (Forschung, Entwicklung, Nutzung/Konsum) zu leisten, wobei Begriffe, Sprache, Narrationen, Illustrationen und andere Medien und Mittel eine Rolle spielen (vgl. Grunwald: »Die hermeneutische Erweiterung der Technikfolgenabschätzung«, in: Technikfolgenabschätzung 24, S. 68). 233 rung der entsprechenden Debatten« beizutragen und somit die Reflexivität spätmoderner Wissenschaftsgesellschaften (wieder-) zu gewinnen.30 Ein solcher Zugang soll hier, veranlasst durch die Problematik des Neuroenhancements, durch Vorfragen gestärkt und ergänzt werden. Diese Vorfragen sind im Kern anthropologischer Natur: Wenn von »kognitiver Optimierung« des Menschen die Rede ist, von »Neuroenhancement«, »Cognitive Enhancement«, »Brain-Enhancement« und »Improving Human Performance«,31 sind Grundfragen der Anthropologie angesprochen. Es geht um Selbstbeschreibungen des Menschen, um jene zentrale Selbstreflexivität, in dessen Rahmen sich der Mensch als Mensch selbst entwirft: Nicht nur, wer oder was ist der Mensch?, sondern stets auch, wer oder was soll der Mensch sein? – und, spezifischer, wer oder was soll ich als Mensch sein?32 Auf dem Wege zu einer neuen Selbstbeschreibung? Selbstbeschreibungen haben einerseits eine orientierende, hintergründige Funktion für Technikfolgenabschätzung und Ethik.33 Anthropologie geht jeder Ethik in gewisser Hinsicht voraus und bildet einen allgemeinen, normativen Rahmen; menschliche Selbst- und Weltbilder sind konstitutiv für eine Urteilsbildung sowie für konkrete Handlungen.34 »Die Reflexivität der Selbstbeschreibung bringt es bei Menschen mit sich«, so Michael Hampe, »dass sie [ = Menschen, JCS] andere werden, dadurch, dass sie sich anders beschreiben.«35 Andererseits gibt es die inverse Richtung, Übergänge von der Ethik zur Anthropologie. Allgemein können normative Vorverständ- 30 Vgl. auch Hoyer, u.a.: »Jenseits von Ethik«, in: Deutsche Zeitschrift für Philosophie 62, S. 825. 31 Siehe zur forschungspolitischen Prägung dieser Begriffsfamilie: Roco, u.a.: Converging Technologies for Improving Human Performance. 32 So ist es naheliegend und durchaus weiterführend, eine »Anthropologiefolgenabschätzung« zu fordern. Thomas Metzinger: »Auf der Suche nach einem neuen Bild des Menschen. Die Zukunft des Subjekts und die Rolle der Geisteswissenschaften«, in: Spiegel der Forschung 17 (2000), Heft 1, S. 58–67, hier S. 64, dessen Zugang hier einen problematischen Naturalismus unterstützt, fordert – anders als dieser Beitrag –, dass wir eine »kulturelle Umsetzung der neuen, von den empirischen Bewusstseinswissenschaften gelieferten Erkenntnissen [benötigen, JCS] [...]. Es ist deutlich abzusehen, dass die neue naturalistische Anthropologie fast allen traditionellen Bildern vom Menschen und seinem inneren Leben dramatisch widersprechen wird«. Metzinger diskutiert dabei die »neuen Bewusstseinswissenschaften« in einer Art, die eine Anpassung kultureller Errungenschaften an vermeintlich neutrale Entwicklungen der Neurowissenschaften nahelegen. 33 So soll hier in aller Vorsicht – auch jenseits des Vorwurfs eines naturalistischen oder deskriptivistischen Fehlschlusses – angedeutet werden. 34 Diese Einsicht hat keiner so klar formuliert wie Hans Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt am Main 1984, S. 30 und Hans Jonas: Das Prinzip Leben. Ansätze zu einer philosophischen Biologie, Frankfurt am Main 1997, S. 401–402. 35 Michael Hampe: Erkenntnis und Praxis. Zur Philosophie des Pragmatismus, Frankfurt am Main 2006, S. 41. 234 nisse und Normreflexionen, auch im Sinne der Ethik, als grundlegend für jede Anthropologie angesehen werden, wie sich in Anlehnung an kulturalistische Positionen zeigen ließe und wie man es in der Praktischen Philosophie Kants findet. – Dieses gegenseitige Bedingungs- und Ermöglichungsverhältnis ist bei der Beurteilung des Neuroenhancements zu berücksichtigen. Ziel ist sodann, in aufklärerischer Absicht die anthropologischen Hintergründe hinsichtlich ihres ethikrelevanten Gehalts und Gewichts offenzulegen und als pragmatisch zu verhandelnde, zentrale Vorfragen im Sinne normativer Bedingungen ethischer Urteilsbildung diskursiv zugänglich und kritisierbar zu machen. Die erweiterte Sichtweise, für die hier argumentiert wird, fokussiert dabei nicht primär auf den (über-)morgigen Menschen, wie er in den Visionen um das Neuroenhancement spekulativ aufscheint. Recht besehen geht es um das Heutige, das sich in der Zukunftsdebatte spiegelt: Im Spiegel der Zukunft zeigen wir Heutige uns selbst. So zeitigt Neuroenhancement bereits ohne breite neuropharmatechnologische Anwendung instantane Technikfolgen, kurzum: Anthropologie- und Gesellschaftsfolgen im Hier und Jetzt. Das heißt, schon die Debatte ist wesentlicher Kristallisationspunkt, sie trägt zur Veränderung der Selbst- und Weltbeschreibung des Menschen bei.36 Zudem schrumpft noch in einer anderen Hinsicht die Zeitdimension zusammen, was uns auffordert, die Immanenz der Gegenwart anzuerkennen.37 Man kann nämlich auch, umgekehrt, nicht nur die erweiterten Technikfolgen von Neuroenhancement betrachten, sondern Neuroenhancement selbst als instantane Technikfolge, gar als Symptom und Symbol (technikbezogener) anthropologischer, gesellschaftlicher, ökonomischer und kultureller Transformationsprozesse ansehen. Neuroenhancement ist verstehbar als Ausdruck eines Medikalisierungsprozesses der Gegenwartsgesellschaften oder, umfassender, als Zeichen und Signatur spät- (und weniger reflexiv-)38 moderner Steigerungs-, Optimierungs-, Perfektionierungs- und Leistungsgesellschaften.39 Der Mensch löst sich demnach mess- und optimierbar, mithin positivistisch, in kompetitiv vergleichbare Kompetenzen auf, die sich einer neolibe- 36 Das ist von kaum zu überschätzender Relevanz, insofern Menschen andere werden, wenn sie sich anderes begreifen. Zum Verhältnis von Metaphysik, Anthropologie und Handlungspraxis siehe Hampe: Erkenntnis und Praxis, S. 41. 37 Vgl. auch Armin Grunwald: »Orientierungsbedarf, Zukunftswissen und Naturalismus. Das Beispiel der ›technischen Verbesserung‹ des Menschen«, in: Deutsche Zeitschrift für Philosophie 55(6) (2007), S. 949–965, und Armin Grunwald: Auf dem Weg in eine nanotechnologische Zukunft. Philosophisch-ethische Fragen, Freiburg 2008. 38 Offenbar ist die Epoche der »reflexiven Moderne«, von der Beck u.a. sprachen, vorüber (vgl. Beck: Risikogesellschaft). 39 Derartige Bedingungen von Technik haben die sozialwissenschaftliche Technikforschung, die Technikgeneseforschung sowie die Science Technology Studies (STS) untersucht, während die Angewandte Ethik zumeist gesellschaftliche Dimensionen außen vor lässt, wie auch Teile der Sozialethik. Im Bereich der Technikfolgenabschätzung wurden diese Analysen aufgegriffen, im Bereich des Neuroenhancements beispielhaft von Arnold Sauter, u.a. (Pharmakologische Intervention zur Leistungssteigerung als gesellschaftliche Herausforderung. TAB-Arbeitsbericht 143, Berlin 2011). Coenen (»Schöne neue Leistungssteigerungsgesellschaft?«, in: TAB- 235 ralen Grundhaltung fügen und in ihrer Selbstverständlichkeit kaum wahrnehmbar in den Hintergrund treten.40 Zusammengenommen erscheint Neuroenhancement gleichermaßen als Ursache wie als Wirkung, als Bedingung wie als Folge veränderter (individueller wie gesellschaftlicher) Selbstbeschreibungen des Menschen. Diese beiden Pole zusammenzuführen und gar von einer untrennbaren Mitte eines instantanen Bedingungsverhältnisses auszugehen – das ist Aufgabe von Angewandter Ethik und Technikfolgenabschätzung. In aufklärerischer Absicht ist also zu fragen: Welches Bild des Menschen artikuliert sich im Diskurs um Neuroenhancement? – Es ist ein technonaturalistisches Verständnis des Menschen. Von einer Technonaturalisierung des menschlichen Selbstbildes, genauer: des menschlichen Bildes des Selbst, kann gesprochen werden. Das ist der, in kritischer Absicht, hier darzulegende diagnostische Vorschlag.41 Einiges von dem, was mit Technonaturalisierung gemeint ist, ist in naturalistischen Anthropologien und naturalistischen Technikphilosophien, etwa der Arnold Gehlens oder auch Ernst Kapps, angelegt.42 Nicht der individuelle Subjektzugang zu sich selbst bzw. zu seinem Selbst oder der lebensweltliche Zugang zum menschlichen Gegenüber ist leitend, sondern zunehmend der, der sich vermeintlich an den Naturwissenschaften orientiert oder von diesen vermittelt wird: Objektivieren, mes- Brief 33) hat den Begriff der »Leistungssteigerungsgesellschaft« ins Feld geführt, vor dessen Hintergrund Neuroenhancement zu verstehen, zu diskutieren und beurteilen sei. Und Sandel (Plädoyer gegen Perfektion) adressiert in seinem brillanten Essay das gesellschaftliche und soziale Umfeld, wobei er aus kommunitaristischer, modifiziert tugendethischer Perspektive zur Zurückhaltung gegenüber avancierten biobasierten Technologietypen auffordert; Neuroenhancement wird allerdings nicht spezifisch berücksichtigt. Ebenso kritisch wie grundlegend ist in diesem Zusammenhang John Passmore: The perfectibility of man, Indianapolis 2000. 40 Die neoliberale Grundhaltung findet sich auch in der so genannten Kompetenzdiskussion an Schulen und Hochschulen. 41 Ähnlich spricht Grunwald (Auf dem Weg in eine nanotechnologische Zukunft, S. 298–299) von einer »Technisierung des Menschenbildes«. »Diese Form der Technisierung des Menschen findet begrifflich statt und stellt die andere Seite der Medaille der von vielen Naturwissenschaftlern und einigen Philosophen versuchten Naturalisierung des Menschen dar.« (vgl. auch Grunwald: »Orientierungsbedarf, Zukunftswissen und Naturalismus«, in: Deutsche Zeitschrift für Philosophie 55). Allgemein wird der hier verwendete Suchbegriff des »Technonaturalismus« bzw. der »Technonaturalisierung des Menschen« in bewusster Abgrenzung vom so genannten Diskurs um den »Transhumanismus« eingeführt, um (1) die Nähe zum prägenden Ideal des Naturalismus, (2) zur Technik und zum Diskurs um Technik sowie (3) zu den Technowissenschaften, inklusive der Biowissenschaften, Medizin und Pharmazie, herauszustellen. Diese Hinter- und Untergrundarbeit, die im Horizont einer an der Selbstaufklärung von Wissenschaft und Technik orientierten Prospektiven Wissenschafts- und Technikfolgenabschätzung (Liebert, u.a.: »Towards a prospective technology assessment«, in: Poiesis & Praxis 7) steht, leistet der Begriff des »Transhumanismus« nicht. 42 Berühmt sind bspw. Hinweise, dass die menschlichen Nerven als Kabelleitungen zu verstehen seien, wie der Technikphilosoph Ernst Kapp im 19. Jahrhundert mit Virchow sagt. Derart technizistische Leitmetaphern finden sich auch äußerst prominent in der Hirnforschung und im Neuroenhancement (Gehring: »Leben und Gehirn«, in: Breyer, u.a. (Hg.): Funktionen des Lebendigen). 236 sen, experimentieren, berechnen, testen. So historisch ungenau Sigmund Freuds Diagnose der »drei Kränkungen des Menschen« durch Natur- und Humanwissenschaften auch ist und so schematisch sie als zu überwindenden Widerpart eine übersteigerte dualistisch-metaphysische Sicht aufbaut,43 so bringt die Diagnose doch eine geschichtlich fortschreitende Tendenz zum Ausdruck, die auch für die Philosophische Anthropologie, wie sie sich im 20. Jahrhundert formiert, konstitutiver Kontrastpunkt war: nämlich die Tendenz der Ausbreitung und Vertiefung naturalistischer Selbstbeschreibungen des Menschen.44 Diese allgemeine Tendenz fortschreibend wird seit einigen Jahrzehnten, im Kielwasser der Fortschritte der Neurowissenschaften, verstärkt eine so genannte Naturalisierung des Geistes proklamiert.45 Für eine solch naturalistische Sicht ist ein (vermeintlich an den Naturwissenschaften orientierter) reduktionistischer Zugang leitend.46 So erfordert eine kritische Beurteilung des Neuroenhancement eine spezifische Reduktionismuskritik.47 Der Technonaturalismus, von dem hier die Rede ist, geht indes über den Naturalismus, auf den er aufbaut, hinaus. Nicht die Naturwissenschaften, unter Einschluss empirisch verfahrender Sozial- und Humanwissenschaften, sondern die Technowissenschaften werden als grundlegend für den Zugang zum Menschen angesehen. Das sind also Wissenschaften, welche ein technisches Verändern, Manipulieren, Eingrei- 43 Die Felder sind bekanntlich: Astronomie, Evolutionstheorie und Psychoanalyse (Sigmund Freud: »Eine Schwierigkeit der Psychoanalyse«, in: Gesammelte Werke, Band XII. Werke aus den Jahren 1917–1920, Frankfurt am Main 1947). 44 Naturalistische Anthropologien wenden sich gegen dualistische sowie idealistisch-monistische Beschreibungen des Menschen – und das auf je unterschiedlichen Ebenen, nämlich ontologisch-metaphysisch, epistemologisch und methodologisch (zur Naturalismus-Diskussion: Geert Keil, u.a. (Hg.): Naturalismus, Frankfurt am Main 2000). Für Keil und Schnädelbach (ebd., S. 20) stellt der Naturalismus eine Position dar, die »über allgemeine Respektbekundungen für die Naturwissenschaften« hinausgeht: »Zum einen werden die Naturwissenschaften durch ihre Methoden ausgezeichnet, zum anderen wird eine Totalisierung vorgenommen: Die naturwissenschaftlichen Methoden verschaffen Wissen über alles, worüber man etwas wissen kann, und sie sind der einzige verlässliche Weg. Der universale Anspruch ist keine optionale Zutat zum Naturalismus, sondern liegt in der Logik des Programms«. Für Gerhard Vollmer (Auf der Suche nach der Ordnung. Stuttgart 1995, S. 24) meint Naturalismus: »Überall in der Welt geht es mit rechten [ = naturwissenschaftlich im Prinzip erfassbaren] Dingen zu«. Allgemeines Kennzeichen des Naturalismus ist, so Vollmer weiter, der universelle wissenschaftliche Anspruch, die methodische Mittelbeschränkung und die theorienorientierte, deduktive Erklärungsrationalität. Die naturwissenschaftliche Methode sei allen anderen Methoden überlegen. Für Naturund Menschenbilder wäre exklusiv die empirische Naturwissenschaft zuständig. Dagegen wurde eingewandt, dass dieser Naturalismus-Typ auf einer Überschätzung der Naturwissenschaften beruht, verbunden mit einem unzureichenden Verständnis von Natur (siehe bspw. Klaus M. Meyer-Abich: Praktische Naturphilosophie, München 1997, S. 225). 45 Zur Kritik: Keil, u.a. (Hg.): Naturalismus sowie Jan C. Schmidt, u.a. (Hg.): Der entthronte Mensch? Anfragen der Neurowissenschaften an unser Menschenbild, Paderborn 2003. 46 So bietet es sich hier an, den Naturalismus (und seine Spielarten) auch für eine kritische Analyse des Neuroenhancements als diagnostisch basal anzusehen. 47 Fragen der Theoretischen Philosophie sind auch für die Praktische Philosophie und Ethik als grundlegend einzuschätzen. Sturma (Philosophie der Person, S. 58–59) hat auf dieser Linie in seiner »Philosophie der Person«, die auch auf Ethisches zielt, ein frühes Kapitel mit »Reduktionismuskritik« übertitelt. 237 fen, Erzeugen und Hervorbringen als konstitutiv ansehen, verbunden mit allgemeinen Zielen der Steigerung, Verbesserung, Optimierung, Perfektionierung.48 Dass sich insbesondere mit den »Technowissenschaften des Menschen« deutliche »Anzeichen eines neuen technologischen Paradigmas bemerkbar« machen, wurde zu Recht gesehen.49 Technonaturalismus Was mit Technonaturalisierung des Menschenbildes, spezieller: mit Technonaturalisierung des Selbst, im Horizont der Debatte um Neuroenhancement gemeint sein kann, freilich verbunden mit dem Ziel, eine kritische Offenlegung des Impliziten zu ermöglichen, Diskurse anzustoßen sowie Widersprüche aufzuspüren,50 wird folgend genauer untersucht. Der Mensch erscheint aus technonaturalistischer Perspektive als kausal geschlossen, so eine erste Charakterisierung. Die naturalistische Wurzel des Technonaturalismus stellt zweifellos eine metaphysische Annahme dar, nach der alles, was Wirklichkeit und Relevanz beansprucht, im nomologischen Kausalnexus zu stehen habe. Kausale Gesetzmäßigkeiten bestimmen nun den Menschen nicht nur physisch, sondern auch psychisch, kognitiv und mental, d.h. sein Denken, Wahrnehmen, Entscheiden, Handeln und Fühlen. Eine solche metaphysische Sicht hat methodologische und epistemologische Folgerungen: Kausalerklärungen werden als einzig akzeptabler Typ von 48 Allgemein wird von »Technosciences« (dt. »Technowissenschaften«) gesprochen. Zur Klärung des Begriffs siehe Bruno Latour: Science in Action, Cambridge 1997; Alfred Nordmann: »Was ist TechnoWissenschaft? Zum Wandel der Wissenschaftskultur am Beispiel von Nanoforschung und Bionik«, in: Torsten Rossman, u.a. (Hg.): Bionik. Aktuelle Forschungsergebnisse in Natur-, Ingenieur- und Geisteswissenschaften, Berlin 2004, S. 209–218; Jan C. Schmidt: »The Renaissance of Francis Bacon. On Bacon’s Account of Recent Nano-Technosciences«, in: Nanoethics 5 (2011), S. 29–41. Zu den Technowissenschaften werden heute all diejenigen Forschungsfelder gezählt, die unter der Abkürzung NBIC als konvergente Wissenschaftstypen prominent geworden sind: Nano-, Bio-, Informations- und Kognitionsforschung (Roco, u.a.: Converging Technologies for Improving Human Performance). Neuroenhancement gehört zweifelsohne zur Kognitionsforschung hinzu und fällt unter das Label der Technowissenschaften, zumal schon im Titel des NBIC-Reports von »Improving Human Performance« die Rede ist. – Wenn in diesem Beitrag also von Technonaturalismus gesprochen wird, soll damit eine (problematische) Konvergenz oder gar ein (fragwürdiger) Kollaps von Dichotomien angedeutet werden: Naturalisierung der Technik und Technisierung der Natur fallen im Kern zusammen, gleiches gilt für Naturalisierung des Menschen und Technisierung des Menschen, usw. 49 Z.B. von De Carolis: »Technowissenschaft und menschliche Kreativität«, in: Hörl (Hg.): Die technologische Bedingung. 50 Damit kann auch die spekulative Diskussion um den Transhumanismus (wie etwa bei Savulescu, u.a. (Hg.): Human Enhancement) »geerdet« werden. 238 Erklärungen angesehen.51 Human-, Sozial- und Geisteswissenschaften haben diese anzustreben, insofern sie beanspruchen, wissenschaftlich und nicht nur literarisch zu arbeiten. Die »Physik des Sozialen«, von der Auguste Comte einst sprach, scheint erweitert zu werden in Richtung einer Physik des Mentalen, Kognitiven, Psychischen, gar einer Physik des Selbst. Nach der These der kausalen Geschlossenheit ist also der Mensch, d.h. wer oder was er ist, durch sein Gehirn. Neuronale Hirnprozesse sind grundlegend, sie determinieren kognitive Funktionen, geistige Fähigkeiten und mentale Eigenschaften. Der Technonaturalist vertritt damit reduktive Varianten der Identitätstheorie oder (zumindest) einen Epiphänomenalismus, wonach dem Kognitiven, Psychischen, Geistigen keine grundlegende, sondern nur abgeleitete Bedeutung zukommt.52 Eine reduktionistische Sicht ist leitend: Mentales, ja der Mensch überhaupt, wird auf biochemische, neuronale, freilich äußerst komplexe Prozesse reduziert.53 Daraus folgt für technische Interventionen aller Art: Will man Mentales, Kognitives oder Psychisches verändern, muss man das zugrundeliegende Materielle, Neuronale oder Physische verändern. Die These der kausalen Geschlossenheit, verbunden mit reduktiven Varianten der Identitätstheorie oder Spielarten der Epiphänomenalismusthese, ist aus der neurophilosophischen Diskussion um die Hirnforschung bekannt.54 Das macht diese Diskussion, die um Relevanz und Reichweite naturalistischer Konzepte kreist, grundlegend – auch für eine Beurteilung des Neuroenhancements.55 Doch der Technonaturalismus geht darüber hinaus, man könnte sagen, er spitzt unter dem Signum der Techno- 51 So Roco, u.a.: Converging Technologies for Improving Human Performance. Explizit heißt es dort: »A trend towards unifying knowledge by combining natural sciences, social sciences, and humanities using cause-and-effect explanation has already begun« (ebd., S. 13). 52 Man könnte vermuten, dass Technonaturalisten gelegentlich eine stärkere These vertreten, nämlich die des Eliminativen Materialismus, nach welchem die Rede von Kognitivem, Mentalem, Psychischem nicht adäquat sei und zu eliminieren sei. Doch diese These ist für die Visionen des Neuroenhancements zu stark, insofern es ja den meisten Technonaturalisten gerade auf die Erzeugung kognitiver und mentaler Eigenschaften ankommt. Wegen der beschränkten Anwendbarkeit der Konzepte der (theoretischen) Neurophilosophie zeigt sich auch hier, dass eine »Technikphilosophie der Neurotechnowissenschaften« aussteht. 53 Hier könnten freilich unterschiedliche Typen der Reduktion unterschieden werden: als Reduktion des Kognitiven/Mentalen auf das Neuronale, als Reduktion des Phänomenologischen auf das Nomologische, als Reduktion von Lebenswelt auf Wissenschaft sowie, umfassender, als Reduktion des höheren Lebens bzw. des Menschen auf das Gehirn (Jan C. Schmidt: »Zwischen Feststellung und Offenheit. Eine einleitende Skizze zu einigen anthropologischen Dimensionen der Neurowissenschaften«, in: Jan C. Schmidt, u.a. (Hg.): Der entthronte Mensch? Anfragen der Neurowissenschaften an unser Menschenbild, Paderborn 2003, S. 9–42). 54 Zum Überblick siehe Schmidt, u.a. (Hg.): Der entthronte Mensch? 55 Eine »kritische Wissenschaftsphilosophie der Neurowissenschaften« wäre hilfreich, sie liegt allerdings nur in ersten Zügen vor (Jan C. Schmidt: Das Andere der Natur. Neue Wege zur Naturphilosophie, Stuttgart 2015, S. 197–198). 239 wissenschaften zu, was im Naturalismus bereits angelegt ist.56 Aufmerksame Zeitgenossen haben diese Entwicklung zu einer technikbezogenen Naturalisierung des Menschen- und Naturbildes frühzeitig gesehen. Erinnert werden könnte an Husserl und Heidegger, die bereits den Kern der Naturwissenschaften, ihren Naturzugang und ihre Denkweisen als technisch angesehen haben: »Die neuzeitliche physikalische Theorie der Natur ist die Wegbereiterin nicht erst der Technik, sondern des Wesens der modernen Technik«.57 Mag nun jeder Naturalismus, recht besehen, schon immer technonaturalistisch sein, wie mit Heidegger behauptet werden könnte, so blieb das Technische gemeinhin doch eher implizit. Es wurde als nachgeordnet, sekundär, äußerlich oder als Anwendung angesehen. Der Technonaturalismus hingegen versteckt das Technische nicht, er versteht sich explizit im Horizont des Technischen, also des Eingreifens und der (Re-)Produktion, stets verbunden mit dem Ziel der Steigerung und Optimierung. Was die Wahrheits- und Geltungskriterien angeht, die der Technonaturalismus an seine Wissensgrundlage stellt, ist er indes weniger anspruchsvoll als der traditionelle Naturalismus. Ihm genügt, wenn Dinge funktionieren, wenn man also auf Basis seines Wissens Ziele verfolgen und Zwecke realisieren kann. Der Technonaturalismus zielt also nicht auf ein kohärentes und konsistentes Theoriewissen, sondern auf ein funktional-pragmatisches Technikwissen – auch wenn die metaphysische Unterstellung kausaler Geschlossenheit bestehen bleibt.58 Dem Physiker Richard Feynman wird ein prägnanter Satz zugeschrieben, der diese Haltung zum Ausdruck bringt; er kann als Anschluss an Vico oder Bacon angesehen werden: ›What I cannot create, I do not understand‹. Die Fähigkeit, etwas machen, erzeugen oder herstellen zu können, ist für Feynman ein Beleg dafür, dass hier Wissen herrscht. Eine solche technische Sicht kann man auch für die Optimierung kognitiver Fähigkeiten heranziehen. Das setzt freilich, ganz im Sinne Heideggers, einen Zugang zum Menschen voraus, der bereits in seinen Denkformen technisch ist.59 Der Mensch wird im Rahmen des Neuroenhancements technomorph modelliert, also aus Ingenieursperspektive über einzelne technische Komponenten und Funktionalitäten entworfen. Das ist, zweitens, die Technomorphie-These des Technonaturalismus. Das Kognitive, Mentale oder Psychische wird also als mehr oder weniger gut konstruiertes und sodann konstruierbares technisches Produkt angesehen, wobei 56 Grunwald (Auf dem Weg in eine nanotechnologische Zukunft, S. 299–300) hat darauf hingewiesen, dass die »Technisierung [des Menschenbildes, JCS] als technisch gewendete Seite fortschreitender Versuche einer Naturalisierung des Menschen« zu sehen ist. 57 Martin Heidegger: Die Technik und die Kehre, Stuttgart 2007, S. 21. 58 Siehe die soeben diskutierte erste Charakterisierung des Technonaturalismus. Man könnte hier einen Widerspruch offenlegen (s.u.). 59 Siehe auch Grunwald: Auf dem Weg in eine nanotechnologische Zukunft, S. 259–260. 240 technische Metaphern dominieren.60 Es wird positivistisch als Summe einzelner objektivier- und (re-)produzierbarer Funktionen gefasst. Diese werden über funktionale Leistungskenndaten als kategorisier-, mess- und evaluierbar angesehen. Das Gehirn wird sodann als verkörperter Parallelrechner mit spezifischen Leistungskenndaten verstanden. Damit zeigt sich, dass die Technonaturalisierung schon in den Konzepten der modernen Hirnforschung angelegt ist. Der Funktionalismus, wie er in unterschiedlichen Spielarten in der Neurophilosophie auftritt, ist entgegen seiner eigenen Selbststilisierung, durchaus als metaphysische Position anzusehen, die verwandt ist mit einigen reduktiven Spielarten der Identitätstheorie. Angesichts dieser Relevanz funktionalistischer Objektivierung und Quantifizierung des menschlichen Selbst wird mitunter von einem »Quantified Self«61 gesprochen. Der »eindimensionale Mensch«, von dem Herbert Marcuse einst warnte,62 könnte gesellschaftliche Wirklichkeit prägen. Offenbar entwirft der Mensch sich selbst – grundlegender: sein Selbst – aus technomorpher Perspektive und befördert so modifizierte Subjektivierungsformen, also veränderte Selbst- und Weltverhältnisse.63 Leistungskenndaten bilden Dreh- und Angelpunkt für das Selbstverständnis des Menschen in der Leistungssteigerungs- und Wettbewerbsgesellschaft, in der er vielfach als Humanressource oder gar als Humankapitel gefasst wird.64 Sie tragen dazu bei, Evaluationen vornehmen, Vergleiche anstellen und in Wettbewerb treten zu können. Technonaturalistisches Menschenbild und neoliberale Wettbewerbsgesellschaft stehen in einem engen Bedingungsverhältnis. Die Technonaturalisierung führt den 60 Vgl. Gehring: »Leben und Gehirn«, in: Breyer, u.a. (Hg.): Funktionen des Lebendigen. Eine solche Sicht findet sich schon im Rahmen der Künstlichen Intelligenz, der Robotik und Autonomer Systeme. 61 Vgl. Sabine Maasen, u.a.: »Neue Subjekte, neue Sozialitäten, neue Gesellschaften«, in: Sabine Maasen, u.a. (Hg.): Handbuch Wissenschaftssoziologie, Wiesbaden 2012, S. 417–428, und Hartmut Rosa: Resonanz. Eine Soziologie der Weltbeziehung, Berlin 2016, S. 47–48. Unter dem Stichwort »Quantified Self« ist in den USA und sodann weltweit eine soziale Bewegung entstanden, deren Anhänger ihren jeweiligen Körperzustand kontinuierlich messen, auswerten und monitoren (eine Option, die durch preisgünstige Sensoren und insbesondere durch »Big Data« möglich geworden ist). Diese so genannten Self-Tracking-Methoden bestimmen vom Blutzuckerspiegel über den Schlafrhythmus und den Fitnesszustand bis hin zu Stimmungen alles, was als quantifizierbar angesehen wird (vgl. Stefanie Duttweiler, u.a. (Hg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld 2016). 62 Herbert Marcuse: Der eindimensionale Mensch. Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, München 2008. 63 So argumentiert etwa Bröckling: Das unternehmerische Selbst, in anderem Zusammenhang. Vor einem derart technomorphen Hintergrund wären die unzähligen Versuche unserer Kulturgeschichte gescheitert, den Menschen als Kulturwesen bzw. als wie auch immer zu verstehende Ganzheit zu entwerfen. 64 Siehe zur »Leistungsgesellschaft« Gernot Böhme (Hg.): Kritik der Leistungsgesellschaft, Bielefeld 2010 sowie zur »Leistungssteigerungsgesellschaft« Coenen: »Schöne neue Leistungssteigerungsgesellschaft?«, in: TAB-Brief 33. 241 Menschen in eine vertiefte positivistisch-kompetitive Existenz im Horizont eines beschleunigten globalen Kapitalismus. Der Modus des Vergleichens ist nicht allein auf das Aktuale und Gegenwärtige bezogen, sondern richtet sich auf ein vermeintlich Mögliches:65 Wir »erblicken« »das Wirkliche unter dem Bild des Möglichen«, wie Ernst Cassirer meinte:66 Dabei stellt die »Gewinnung dieses Blick- und Richtpunktes […] vielleicht die größte und denkwürdigste Leistung der Technik« dar. Doch, so wird man sagen müssen: dieser Richtpunkt ist ambivalent. Denn das »Mögliche verleiht erst dem Wirklichen Mangelcharakter«, so Sybille Krämer.67 Im Horizont des Möglichen kann sich der Mensch, jeder Einzelne, als individuelles Defizitwesen oder gar gattungsbezogenes Mängelwesen erfahren. Die Wahrnehmung des aktual Defizitären im Spiegel eines erstrebenswerten, zukünftig Möglichen bildet den Ausgangspunkt für eine nicht zu sättigende Spirale der Bedürfnisproduktion, die stets mehr will und nach mehr drängt. Sie glaubt an Machbarkeit, setzt auf Optimierbarkeit der Leistungsmerkmale, folgt einer »Steigerungslogik« und verfolgt einen »Steigerungsimperativ«, wie Hartmut Rosa zeigt.68 Mängel scheinen überwindbar, Leistungskenndaten verbesserbar, die Performance optimierbar: länger leben, weniger schlafen, schneller rechnen, präziser denken, mehr Informationen verarbeiten, sich mehr merken, schärfer sehen. Kurzum, der Technonaturalismus basiert drittens auf der (vermeintlich objektivierbaren) Differenz von Möglichem (Zukünftigem) und Wirklichem (Gegenwärtigem): das Mögliche rückt normbildend in den Aufmerksamkeitsfokus und wird normativ zur alleinigen Maßgröße des Wirklichen. So entstehen zentrale Charakteristika des Technonaturalismus – die kenndatengestützte Defiziterfahrung sowie das infinite Steigerungs-, Optimierungs- und Perfektionierungsbedürfnis. Beides wird individualisiert und individuell erfahrbar, bei gleichzeitiger Verwischung der Spuren der Technonaturalisierung. Dass jedoch derartige Wünsche und Bedürfnisse nicht einfach (individuell) da sind, sondern (gesellschaftlich, ökonomisch) gemacht werden – diese an sich triviale Einsicht der kritisch-materialistischen Tradition in der Analyse der Kulturindustrie scheint verschüttet zu sein. Den Wünschen und Bedürfnissen könnte auf unterschiedliche Art und Weise entsprochen bzw. den Defiziten begegnet werden. Doch für den Technonaturalismus 65 Zur Kategorie des Möglichen und zur Temporalität als Zentrum einer dialektischen Technikphilosophie der Medialität siehe Hubig: Die Kunst des Möglichen I. 66 Ernst Cassirer: »Form und Technik«, in: Ernst Cassirer: Symbol, Technik, Sprache, Hamburg 1985, S. 39–92, hier S. 81. 67 Sybille Krämer: Technik, Gesellschaft und Natur. Versuche über ihren Zusammenhang, Frankfurt am Main 1982, S. 17. 68 Rosa: Resonanz, S. 44. 242 sind nicht alle Mittel probat.69 Er setzt nicht auf kulturelle Mittel der Aufklärung und des Humanismus wie Kultivierung, Zivilisierung, Moralisierung, Disziplinierung oder ihre späteren Transformationen wie Bildung, Erziehung, Training, sondern vielmehr auf: Technik, Pharmazie, Medizin.70 In dieser Hinsicht kann mit Günther Anders, dem fast vergessenen Zeitdiagnostiker, von »Human Engineering« gesprochen werden.71 Der Mensch ist, was er technisch aus sich machen kann, er ist sich als technisches Projekt aufgegeben.72 So wird das individuelle wie gesellschaftliche Leben als technisches Optimierungsproblem entworfen und als solches erfahrbar, es wird von einem »Steigerungsimperativ«73 getrieben – wie in der klassisch gewordenen, anthropologischen Figur des homo oeconomicus vorgezeichnet, wo sich eine Strukturidentität von ökonomischer und technischer Rationalität zeigt.74 Die konkrete Technisierbarkeit und die technische Machbarkeit, d.h. die Möglichkeit der intentionalen Zugänglichkeit des Mentalen, Kognitiven und Selbst, verbunden mit Zweck-Mittel-Entscheidungen des je einzelnen Menschen – das ist die vierte These des Technonaturalismus. Es sind also vier Thesenkomplexe, die den Technonaturalismus kennzeichnen – und die dem (kultur- und gesellschaftsprägenden) Verständnis des Menschen als Kulturwesen widersprechen: (1) Kausale Geschlossenheits-, verbunden mit reduktiven Varianten der Identitätstheorie (Naturalismus-Annahme), (2) Zerlegbarkeit des Men- 69 So erscheint Neuroenhancement (irrtümlicherweise) als neutrales Mittel, mit dem beliebige Ziele und Zwecke verfolgt werden können – was ein (problematisches) instrumentell-reduktionistisch verkürztes Technikverständnis darstellt. 70 Siehe hierzu Dietmar Hübner: »Kultürlichkeit statt Natürlichkeit, ein vernachlässigtes Argument in der bioethischen Debatte um Enhancement und Anthropotechnik«, in: Jahrbuch für Wissenschaft und Ethik 19 (2014), S. 25–57, hier S. 33–34, der Verschiebungen bzgl. der zweiten Natur des Menschen, also in seiner Verfasstheit als Kulturwesen diagnostiziert und so auf anthropologischer Basis ein (plausibles) »Kultürlichkeitsargument« – statt des vielfach formulierten Natürlichkeitsarguments – gegen Anthropotechniken vorbringt. Demnach liegt das »eigentliche Problem von Anthropotechniken nicht im Akt der technischen Manipulation, sondern in der hiermit angezielten Antwort auf Herausforderungen«, nämlich »in der ›unkultürlichen‹ Bewältigung von Schwierigkeiten« (ebd., 35). – Allerdings, so ist auch gegenüber Hübners klarer Argumentationslinie einzuräumen, sollte man bei der Verwendung des Begriffs »Anthropotechnik« zurückhaltend sein und verstärkt eine semantische Rekonstruktion betreiben. Insbesondere Sloterdijk ebnet mit diesem Begriff etablierte Differenzierungen vorschnell ein (vgl. Sloterdijk: Regeln für den Menschenpark). Derartige Ent-Differenzierungen erschweren eine Analyse wie eine kritische Urteilsbildung. 71 Günther Anders: Die Antiquiertheit des Menschen, München 1987, S. 34–35. Vor dem Hintergrund technologischer Optionen wird abermals deutlich, dass der traditionelle Naturalismus konzeptionell nicht hinreichend ist, um Neuroenhancement adäquat zu erfassen. 72 Gewissermaßen findet sich hier eine Kantische Formulierung, allerdings auf technischer Basis, d.h. nicht auf kulturell-aufklärerischer, mit dem Ziel der Subjekt- und Mündigkeitsentwicklung. 73 Rosa: Resonanz, S. 44. 74 Man sieht, dass der Technonaturalismus zudem eng verbunden ist mit vorherrschenden Paradigmen neoklassisch ausgerichteter Wirtschaftswissenschaften. 243 schen allgemein sowie weitergehend des Kognitiven, Mentalen, Psychischen, d.h. des »Selbst« in funktionale und quantifizierbare Leistungsmerkmale (Technomorphie-Annahme), (3) Defiziterfahrung und Steigerungswunsch (Defizitannahme) sowie (4) technische Möglichkeit und Realisierbarkeit der Steiger- und Optimierbarkeit (Machbarkeitsannahme). – Dass indes der Technonaturalismus durchaus als inhärent widersprüchlich angesehen werden kann, zeigt sich insbesondere, wenn man den ersten mit dem vierten Thesenkomplex vergleicht. Eine starke Spielart der These der kausalen Geschlossenheit weist eine kaum eliminierbare Spannung zu dem auf, was (auch technisches) Handeln notwendigerweise voraussetzt: Willens- und Handlungsfreiheit.75 Zur Kritik anthropologischer Steigerungsvisionen durch eine kritische Wissenschaftstheorie der Neurowissenschaften Eine derart auf analytische Offenlegung des Impliziten, technikphilosophisch reflektierte Technikfolgenabschätzung bzw. Angewandte Ethik hätte eine kritische Funktion. Sie würde durch vertiefte Zugangsreflexion (welche die Selbstbeschreibung des Menschen betrifft) Ethisches ins Erschließen vorverlagern – in Absetzung des von herkömmlichen Bereichsethiken und der Technikfolgenabschätzung mitunter unkritisch akzeptierten Problemdrucks.76 Diese Vorverlagerung »vermögen wir nur [dann zu erreichen, JCS], wenn wir vor der anscheinend immer nächsten und allein als dringlich erscheinenden Frage: ›Was sollen wir tun, dies bedenken: Wie müssen wir denken?‹«, so Martin Heidegger.77 Im Raum steht also die Frage, ob es gute Argumente gibt, die nahelegen, den Menschen technonaturalistisch zu entwerfen – und ihm seine (Selbst-)Bestimmung als Kulturwesen zu entziehen.78 Zur Klärung könnte ein Blick auf den Stand von Wissenschaft und Technik hilfreich sein. Nach einer ersten Sondierung wäre hervorzuheben, dass Hinweise zugunsten eines Technonaturalismus aus technischer Anwendungsperspektive nicht in Sicht sind, wie bereits dargelegt. Ein zielgenaues, wirkungsvolles und nebenwirkungsarmes Neuroenhancement lässt auf sich warten: bis dato sind kaum isoliert ansteuerbare, spezifische Leistungen des menschlichen Gehirns durch Neuroenhancer verbesser- 75 Schwächere Spielarten, etwa lokale Kausalitäten, könnten indes durchaus mit Handlungsfreiheit kompatibel sein – wie auch andere Konzepte eines Kompatibilismus. 76 Eine solche Sicht dominiert vielfach konsequentialistische Ethikkonzepte. 77 Heidegger: Die Technik und die Kehre, S. 40. 78 Vgl. Hübner: »Kultürlichkeit statt Natürlichkeit, ein vernachlässigtes Argument in der bioethischen Debatte um Enhancement und Anthropotechnik«, in: Jahrbuch für Wissenschaft und Ethik 19 zum »Kultürlichkeitsargument« gegen Anthropotechniken. 244 bar.79 Doch, so könnte technikoptimistisch argumentiert werden, es könnte nur eine Frage der Zeit sein, bis die Forschung weiter vorankommt und konkrete Anwendungen möglich werden. Im Erfolgsfall wären dann also doch noch Argumente zugunsten einer technonaturalistischen Sicht des Menschen formulierbar. Zusammengenommen scheint der Blick auf die Anwendungsperspektive keine hinreichende Barriere gegenüber einer Technonaturalisierung darzustellen. Eine zweite, vertiefte Betrachtung ist anzuschließen. Auch aus grundsätzlicher Perspektive, basierend auf zentralen Erkenntnissen der Wissenschaften, ist Skepsis gegenüber einer technonaturalistischen Selbst- und Weltbeschreibung angebracht. Im Kern geht es um die Frage, ob der Mensch auf das Gehirn sowie das Gehirn auf feuernde Neuronen reduziert werden kann, welche zudem einer zielgerichteten, technisch-funktionalen Modifikation zugänglich sind. Kann eine Sicht, die den Menschen ontologisch und epistemologisch reduktionistisch entwirft, argumentativ begründet werden? Zur Einschätzung wäre eine noch weithin ausstehende, kritische Wissenschaftsphilosophie der Hirnforschung gefordert,80 die konstitutiv wäre für eine Beurteilung des Neuroenhancements. Das Wissen der Hirnforschung (und damit der Neurotechnowissenschaften), so zeigt sich immer deutlicher, ist aus prinzipiellen Gründen begrenzt. Genau besehen sind epistemische Begrenzungen reduktionistischer Zugänge der Neurowissenschaften nicht verwunderlich. Das menschliche Gehirn gilt als das komplexeste System des Kosmos. Komplexe Systeme weisen prinzipielle und nicht nur temporäre Grenzen reduktionistischer Zugänge auf, wie man von den in der Hirnforschung wohletablierten Strukturtheorien (Selbstorganisationstheorien mit Komplexitäts-, Chaosund Katastrophentheorien, Synergetik) weiß. Für die Gehirndynamik, also dort, wo das Neuroenhancement ansetzen möchte, sind insbesondere Selbstorganisationsprozesse konstitutiv.81 Nur aufgrund der Existenz von Selbstorganisationsprozessen sind kognitive Funktionalitäten realisierbar; nur so können sich neue Muster, Strukturen, Dynamiken, Eigenschaften, Fähigkeiten bilden. Nun basieren Selbstorganisa- 79 Siehe hierzu Lieb: Hirndoping; Quednow: »Ethics of Neuroenhancement«, in: Biosocieties 5; Arianna Ferrari, u.a.: »Visions and Ethics in Current Discourse on Human Enhancement«, in: Nanoethics 6 (2012), S. 215–229, und Hoyer, u.a.: »Jenseits von Ethik«, in: Deutsche Zeitschrift für Philosophie 62. 80 Wie vorgeschlagen von: Brigitte Falkenburg: Mythos Determinismus. Wieviel erklärt uns die Hirnforschung?, Berlin 2012, Hoyer, u.a.: »Jenseits von Ethik«, in: Deutsche Zeitschrift für Philosophie 62, sowie Jan C. Schmidt: »Beschränkungen des Reduktionismus. Die Geist-Gehirn-Debatte im Lichte von Chaos- und Komplexitätstheorien«, in: Jan C. Schmidt, u.a. (Hg.): Der entthronte Mensch? Anfragen der Neurowissenschaften an unser Menschenbild, Paderborn 2003, und Schmidt: Das Andere der Natur. 81 Siehe z.B. Gerhard Roth: »Selbstorganisation – Selbsterhaltung – Selbstreferentialität. Prinzipien der Organisation der Lebewesen und ihre Folgen für die Beziehung zwischen Organismus und Umwelt«, in: Andreas Dress, u.a. (Hg.): Selbstorganisation. Die Entstehung von Ordnung in Natur und Gesellschaft, München, Zürich 1986, S. 149–180, sowie die Verweise bei Gehring: »Leben und Gehirn«, in: Breyer, u.a. (Hg.): Funktionen des Lebendigen, und Schmidt: »Beschränkungen des Reduktionismus«, in: Schmidt, u.a. (Hg.): Der entthronte Mensch?. 245 tionsprozesse notwendigerweise auf lokalen Instabilitäten, wie man zeigen kann:82 Um Selbstorganisation zu ermöglichen, bedarf es der Durchgänge durch Zonen der Instabilität. Von sensitiver Abhängigkeit, Bifurkationen und Schmetterlingseffekten ist die Rede. Kleinstes ist von größter Relevanz – wie man es lebensweltlich durchaus von Entscheidungsprozessen, plötzlichen Einsichten (»Aha-Erlebnissen«) oder Stimmungsumschwüngen kennt. Fragt man nun, ob es gute Argumente zugunsten eines Technonaturalismus gibt, ist entscheidend, dass mit der Erkenntnis von instabilitätsbasierter Selbstorganisation als konstitutiver Teil jeglicher neuronal-kognitiver Aktivitäten prinzipielle Grenzen der Hirnforschung verbunden sind – sowohl erkennend theoretisch wie eingreifend technisch – nämlich in vierfacher Hinsicht: Begrenzungen der Prognostizierbarkeit, der (Re-)Produzierbarkeit, der Prüfbarkeit und der Beschreibbarkeit.83 Das kann hier nur angedeutet werden. Diese Limitationen wären von einer kritischen Wissenschaftstheorie der Neurowissenschaften auszuarbeiten und sie wären als grundlegend für Selbstbeschreibungen des Menschen, für anthropologische Selbstdarstellungen, aufzunehmen. So können die vier Thesen des Technonaturalismus hinterfragt und zurückgewiesen werden. Es kann offengelegt werden, dass erstens von Kausalität oder von Determination neuronal-kognitiver Aktivitäten sowie hinsichtlich des Kognitiven nicht adäquat gesprochen werden kann, wie der Naturalismus – im Kern verbunden mit der These der kausalen Geschlossenheit – behauptet. Evidenzen für eine streng kausale, gesetzmäßige Gehirndynamik liegen neurowissenschaftlich nicht vor. Damit verbunden ist eine Skepsis gegenüber reduktiven Spielarten der Identitätstheorie bzw. der Epiphänomenalismusthese. Nach diesen ist das Mentale im Kern auf Materielles reduzierbar bzw. lediglich als funktionales Äquivalent ein Epiphänomen der materiellen Grundstruktur und durch dieses monokausal determiniert. – Ob ein technomorphes Verständnis vom menschlichen Gehirn adäquat ist, ist zweitens zweifelhaft. Das Gehirn ist plastisch, komplex, zeitigt vielfältige hochdynamische Interaktionen auf unterschiedlichen Zeit- und Raumskalen, verbunden mit der Entstehung von neuen Strukturen und Mustern. Es in Analogie zu einem materiell-technischen oder gar quasi-mechanischen System mit Funktionseinheiten zu sehen, würde es in seiner dynamischen Eigenart und Einheit verfehlen. So ist auch eine Zergliederung in funktional differenzierte Leistungsmerkmale, die klar abgrenzbar sind, wie die technomorphe Objektivierungsthese behauptet, zweifelhaft. – Ob die derzeitigen Leis- 82 Dies ist dargelegt in Schmidt: »Beschränkungen des Reduktionismus«, in: Schmidt, u.a. (Hg.): Der entthronte Mensch?, Jan C. Schmidt: Instabilität in Natur und Wissenschaft. Eine Wissenschaftsphilosophie der nachmodernen Physik, Berlin 2008 und Schmidt: Das Andere der Natur. 83 Zu den Limitationen siehe Schmidt: »Beschränkungen des Reduktionismus«, in: Schmidt, u.a. (Hg.): Der entthronte Mensch?; Schmidt: Instabilität in Natur und Wissenschaft und Schmidt: Das Andere der Natur. 246 tungsmerkmale des Gehirns, d.h. das Aktuelle der Kognition gegenüber dem Möglichen, so defizitär sind, wie drittens vom Technonaturalismus behauptet, ist fragwürdig. Die biologisch-natürliche Evolution hat schließlich in einem erfolgreichen, auf Selbstorganisation basierenden Suchprozess das Gehirn als integriert-ganzheitlich anzusehendes, offenes Beziehungsorgan hervorgebracht.84 Ob das Gehirn hinsichtlich vieler Leistungskenngrößen als nicht optimal gelten kann, wäre eigens zu erörtern, wobei die damit verbundenen normativen Fragen nach Optimalität explizit zu machen und zu begründen wären. Die Unterstellung eines Defizitären sowie einer Optimierungsnotwendigkeit, wie es der Technonaturalismus vornimmt, ist jedenfalls als universelle These unhaltbar. – Im Horizont von selbstorganisationsfähigen, komplexen, dynamischen Systemen können viertens i.A. keine isolierten Zweck-Mittel- Eingriffe, Veränderungen und Manipulationen vorgenommen werden. Komplexe Systeme sind schwer technisierbar und kaum intentional beherrschbar. Es gibt Grenzen des technischen Eingreifens und der Technisierung. Vor diesem Hintergrund kann man fragen, ob Neuroenhancement als Programm der Selbsttechnonaturalisierung des Selbst – das auf Spielarten des Reduktionismus und auf einer reduktiven Neuroanthropologie aufsetzt – nicht überambitioniert, ja überzogen ist und im Kern fehlgeht. So sind, wie die exakten Wissenschaften, wie aktuelle Selbstorganisations-, Chaos- und Komplexitätstheorien nahelegen, nicht erst die großen Fragen nach dem Menschen, nach Geist, Bewusstsein, Freiheit, Subjektivität und Selbst derzeit ungeklärt. Fragwürdig ist auch, was unter dem Gehirn, dem Materiellen, Physischen, Neuronalen überhaupt zu verstehen ist. Das Gehirn scheint heute im Ganzen ebenso ungedacht und undenkbar zu sein wie der Geist, wie vielleicht der ganze Mensch. Eine erfolgreiche Reduktion des Geistes auf das Gehirn, des Mentalen auf Materielles – des (in erster-Person-Perspektive wahrnehmbaren) Selbst auf eine (über den Umweg der dritten-Person-Perspektive technisch verfügbare) Substanz – scheint also weder bevorzustehen noch in Reichweite zu sein. Eine notwendige Bedingung hierfür wäre, dass eine weitreichende, reduktive Deutung und Erklärung des neuronalen komplexen Systems Gehirn – durch das Gehirn selbst, d.h. zirkulär – gelingt. Offenbar haben wir es, was das Gehirn betrifft, eher mit einer nichtreduzierbaren, holistischen, plastischen Prozessualität als mit einer im Prinzip reduktiv erfassbaren Substanzialität zu tun. Um wieviel mehr gilt das für den ganzen Menschen in seiner umfassenden Verkörperung, seiner natürlichen, sozialen und kulturellen Umweltgebundenheit?85 Es bleibt offenbar, um mit Gerhard Gamm zu sprechen, bei der »Unbestimmtheit der Natur des Menschen« und der »Unausdeut- 84 Diese auch für eine ethische Urteilsbildung relevante (quasi-)holistische These, dass das Gehirn ein Beziehungsorgan ist, hat Thomas Fuchs (Das Gehirn – ein Beziehungsorgan, Stuttgart 2013) entwickelt. 85 Mit Gehring (»Leben und Gehirn«, in: Breyer, u.a. (Hg.): Funktionen des Lebendigen) kann man irritiert sein, wie eng und wie unterschiedslos die Großbegriffe Gehirn, Leben und Mensch identifiziert werden. 247 barkeit des menschlichen Selbst«.86 Die Offenheit des Menschen zur Welt kann ganz offenbar nicht so einfach reduziert oder eliminiert werden. Die Entzogenheit des Menschen vor einer technonaturalistischen Bestimmtheit und seine bleibende (Selbst-) Bestimmung als Kulturwesen ist freilich selbst (notwendigerweise) eine anthropologische, ja metaphysische Aussage. »Aufgabe der philosophischen, nicht trivialisierenden Metaphysik ist es, die Vereinfachungen, die diese Denkweisen und kulturellen Entwicklungen [wie die des Neuroenhancements] darstellen, mithilfe eines differenzierten Kategoriensystems zu beschreiben und zu kritisieren. Die Metaphysik wird so zur Kulturkritik«, so Michael Hampe.87 Der Technonaturalismus, der sich in Visionen des Neuroenhancements artikuliert, weist zusammengenommen Begründungsdefizite auf.88 Eine Technonaturalisierung des Selbst, des Mentalen und des Menschen steht faktisch nicht bevor: Recht besehen ist, von der Sache her, »kein neues Menschenbild« in Sicht, so folgert auch Peter Janich.89 Angewandte Ethik und Technikfolgenabschätzung täten gut daran, derartige Argumentationslinien, die nahe am wissenschaftlich-technischen Kern von Technowissenschaften, hier des Neuroenhancements, angesiedelt sind, als kritisches Moment im öffentlichen wie forschungspolitischen Diskurs zur Geltung zu bringen und, hierauf aufbauend, verstärkt an der Leitbildentwicklung für eine adäquate Wissenschafts- und Forschungspolitik mitzuwirken.90 In diesem Sinne kann eine aufklärerische Funktion von einer recht verstandenen Technikfolgenabschätzung oder Angewandten Ethik ausgehen.91 86 Gamm: Der unbestimmte Mensch, S. 11 und 15. 87 Hampe: Erkenntnis und Praxis, S. 178. 88 Siehe hierzu auch die Beiträge in Eve-Marie Engels, u.a. (Hg.): Neurowissenschaften und Menschenbild, Paderborn 2005, Peter Janich (Hg.): Naturalismus und Menschenbild, Hamburg 2008, Jens Clausen, u.a.: Die »Natur des Menschen« in Neurowissenschaft und Ethik, Würzburg 2008, Ebert, u.a. (Hg.): Der Mensch der Zukunft, und Miriam Eilers, u.a. (Hg.): Verbesserte Körper – gutes Leben? Bioethik, Enhancement und die Disability Studies. Praktische Philosophie kontrovers, Frankfurt am Main 2012. 89 Peter Janich: Kein neues Menschenbild, Frankfurt am Main 2009. 90 Siehe hierzu den Entwurf einer Prospektiven Wissenschafts- und Technikfolgenabschätzung (Liebert, u.a.: »Towards a prospective technology assessment«, in: Poesis & Praxis 7). 91 Diese weist Überlappungen mit der Kultur-, Technik- und Sozialphilosophie, der Wirtschaftsethik, der neueren Wissenschafts- und Technikforschung, der Science-Technology-(Society-) Studies sowie der Social Epistemology auf. Dann wird das enge Wechselverhältnis von Wissenschaft, Technik, Gesellschaft und Ethik deutlich. »Fragen der Epistemologie sind immer auch Fragen der Gesellschaftsordnung«, so Bruno Latour: Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Frankfurt am Main 2008, S. 25 treffend. Analog stellte die Frankfurter Schule heraus: »Kritik an der Gesellschaft ist Erkenntniskritik und umgekehrt«. 248 Fazit und Perspektiven Ob also all das, was in der Neuroenhancement-Debatte hinsichtlich des visionären, emergenten Technologietypus verhandelt wird, faktisch möglich sein wird, ist zweifelhaft – hier könnte eine zu entwickelnde kritische Wissenschaftstheorie der Neurowissenschaften ein hilfreiches Korrektiv bezüglich voreiliger neuer Selbstbeschreibungen des Menschen sein. Vorgeschlagen wurde vor diesem Hintergrund eine Erweiterung der konzeptionellen Perspektive: (a) einer innerwissenschaftlich orientierten, wissenschaftstheoretisch reflektierten Kritik, nahe am wissenschaftlich-technischen Kern, sowie (b) einer Kritik der Visionen und Intentionen. Ausgangspunkt für eine kritische Analyse bildete der Hinweis, dass es bei emergenten Technologien wie dem Neuroehancement Technikfolgen im Hier und Jetzt gibt, instantane Technikfolgen, also nichtmodale Technikfolgen, die nicht notwendigerweise im engeren Sinne materiell-artefaktisch-gegenständlich sind, doch stets an Vor- und Feststellungen eines Materiellen, an Technisches, gebunden sind. Das Wesentliche passiert schon im Hier und Jetzt, also in dem, was heute vor- und festgestellt wird; es steht im Kontext einer technonaturalistischen Selbstbeschreibung des menschlichen Selbst und seiner Einbettung in eine neoliberale Politikform mit unabschließbarer Steigerungslogik. Der Mensch versteht sich technisch über Funktionen, konstituiert sich objektivierend und ordnet sich messbare Leistungskenndaten zu. Die Summe der Leistungskenndaten kennzeichnet sodann das, was den Menschen ausmacht – den einzelnen wie die Gattung. Bei den Visionen des Neuroenhancements handelt es sich um eine Fortsetzung des Objektivierungsprogramms der Moderne, verbunden mit einer Verfügbarmachung, Verdinglichung und Instrumentalisierung der Natur.92 Bezog sich das Objektivierungsprogramm einst auf die äußere Natur, die Umwelt, sodann auch auf die innere Natur des Menschen, seinen Körper allgemein und die genetische Ausstattung, so ist es in gewisser Hinsicht nur konsequent, dass es auch vor dem Eigensten des Menschen, seiner Identität, Personalität, seines Selbstverhältnisses, der innersten Natur, nicht Halt macht.93 Die einstige äu- ßere Objektivierung lässt sich offenbar fortschreiben bis hin zur innersten Selbstobjektivierung, genauer und stärker noch: zur Selbstobjektivierung des Selbst. Jeder Einzelne würde, sollte Neuroenhancement realisiert werden können, zum homo faber seines sodann disponiblen Selbst.94 Diesem gesellschaftlich induzierten, individuell wirksamen Steigerungsimperativ, gleichsam ein Sog und Sachzwang des Mög- 92 Vgl. u.a. Max Horkheimer, u.a.: Dialektik der Aufklärung, Frankfurt am Main 1990. 93 In dieser Linie wurden die Programme des Neuroenhancements gar in die Tradition der Aufklärung gerückt, etwa von der sogenannten transhumanistischen Bewegung (Kritik: Hübner: »Kultürlichkeit statt Natürlichkeit, ein vernachlässigtes Argument in der bioethischen Debatte um Enhancement und Anthropotechnik«, in: Jahrbuch für Wissenschaft und Ethik 19). 94 So könnte man auch von einer Selbst-Technonaturalisierung des Selbst sprechen, was durchaus veränderte Selbst- und Weltverhältnisse impliziert. Dass mit der Ermöglichung von Neuroen- 249 lichkeitsraums, könnte sich sodann niemand entziehen.95 So kann man im Horizont der neoliberalen (Leistungs-)Steigerungsgesellschaft einen kulturellen und gesellschaftlichen Prozess beobachten,96 der von der Selbstobjektivierung des Menschen über die Selbstinstrumentalisierung seines Körpers bis hin zur Selbstinstrumentalisierung des Selbst führt.97 Der Mensch tritt ein in ein (kulturell wie technisch) neues, entgrenzendes Selbst- und Weltverhältnis;98 das Selbst steht sich selbst als disponibles Mittel zur Verfügung, wobei die Frage, was vernünftige Zwecke und sinnvolle Ziele sein können, ausgespart bleibt, ebenso wie die, was noch als Mittel ausgewiesen werden kann. Die »Gewalt der Objektivierung«, von der Habermas in Anschluss an Adorno spricht und die man auch bei Husserl in der phänomenologischen Tradition unter dem Begriff der Abstraktion findet,99 ist etwas, das durch die im Naturalismus vorbereitete, technonaturalistische Selbstbeschreibung (mit-)erzeugt ist. Neu ist hier die hancement eine »Explosion« und keine »Erosion der Verantwortung« für das Selbst verbunden wäre, die eine »erschreckende Dimension« umfassen könnte, welche sich der Mensch genötigt sehen würde, für sich und sein Selbst zu übernehmen, hat Sandel: Plädoyer gegen Perfektion, S. 108 hinsichtlich biomedizinischer Technik allgemein offengelegt. Der spätmoderne Mensch hat sodann »keine Möglichkeit [mehr, JCS], sich der Last der Entscheidung […] zu entziehen« (ebd., S. 110). So könnte der spätmoderne Mensch der »Last des Möglichen«, wie auch Ehrenberg: Das erschöpfte Selbst, S. 275–276 im Rahmen der Untersuchung des »unternehmerischen Selbst« zeigt, nicht mehr ausweichen. 95 Zum »Steigerungsimperativ« siehe auch: Rosa: Resonanz, S. 44. 96 Vgl. Maasen, u.a.: »Neue Subjekte, neue Sozialitäten, neue Gesellschaften«, in: Maasen, u.a. (Hg.): Handbuch Wissenschaftssoziologie, S. 427, Makropolous: »Historische Kontingenz und soziale Optimierung«, in: Bubner, u.a. (Hg.): Die Weltgeschichte – das Weltgericht? und Duttweiler, u.a. (Hg.): Leben nach Zahlen. 97 So Jürgen Habermas: Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?, Frankfurt am Main 2002, S. 114 in anderem Zusammenhang. Habermas bezieht sich auf die Gen- und Biotechnologie, nicht auf Neuroenhancement. Seine Überlegungen sind jedoch im Bereich des Neuroenhancements vermutlich noch klarer verwendbar. An anderer Stelle heißt es, so fördere die »Einübung in eine Perspektive der Selbstobjektivierung, die alles Verständliche und Erlebte auf Beobachtbares reduziert, […] auch die Disposition zu einer entsprechenden Selbstinstrumentalisierung« und »Selbstoptimierung« (Jürgen Habermas: Zwischen Naturalismus und Religion, Frankfurt am Main 2009, S. 7). Und mit Anders: Die Antiquiertheit des Menschen, S. 30, kann, ganz analog, eine »Selbst-Verdinglichung« des zum »Human Engineer« transformierten Menschen diagnostiziert werden, der sein Kontrollbedürfnis bis in die Tiefe seiner Kulturnatur, seiner kognitiven Ausstattung, seines Selbst, fortschreibt, ohne es je befriedigen zu können. Kulturkritisch identifiziert Anders: Die Antiquiertheit des Menschen, S. 47, eine »angemaßte Selbsterniedrigung« des Menschen, indem er sich anschicke, sich »in gerätartige Wesen zu verwandeln«. Eine »Selbstverdinglichung« identifiziert auch Rosa: Resonanz, S. 595 und 725, in seiner Kritik »spätmoderner Steigerungsrealität«. Zur »Verdinglichung« allgemein, siehe Axel Honneth: Verdinglichung. Eine anerkennungstheoretische Studie, Berlin 2015. 98 Zur Thematik der Entgrenzung im »Zeitalter der Entgrenzung«, siehe Ulrich Beck, u.a. (Hg.): Entgrenzung und Entscheidung. Was ist neu an der Theorie reflexiver Modernisierung?, Frankfurt am Main 2004. 99 Vgl. Habermas: Zwischen Naturalismus und Religion. Analog betont Alfred Nordmann: »Erst wenn dieser Schritt schon vollzogen wurde und sich das moralische Subjekt schon Gewalt angetan hat, beginnt der Disput zwischen konsequentialistischen und deontologischen Ethiken« (Alfred Nordmann: »Die unheimliche Wirklichkeit des Möglichen. Kritik einer zukunftsver- 250 gegenüber anderen Anthropotechniken gesteigerte Rekursivität, gewissermaßen eine Rekursivität zweiter Stufe, in der sich das Selbst technonaturalistisch auf das Selbst (verändernd) bezieht und sich sodann in die neoliberale Steigerungsgesellschaft einund unterordnet. So könnte, umfassender, die »technologische Bedingung«100 mitreflektiert und ethisch beurteilt werden, also die den Ermöglichungscharakter von Technik prägenden Bedingungen, die präformierenden Dispositive und leitenden Interessen, die sich als technomorphe Wahrnehmungs-, Denk- und Rationalitätsformen, oftmals unsichtbar, in unserer Lebenswelt kulturell kondensieren. Zusammengenommen prägen heutige (Selbst-) Beschreibungen und Bilder des Selbst im Umfeld des Neuroenhancements aktuelle (wie zukünftige) Denkweisen, Wahrnehmungsarten und Rationalitätsformen. Zugespitzt kann mit Alfred Nordmann gesagt werden: »Die ›Katastrophe‹ [ist] eine metaphysische, gleichgültig ob auf unsere veränderten Auffassungen eine wirklich neue und andere Technik folgt«.101 Dabei sind jene kulturbestimmenden Metaphysiken, die verwoben sind mit den Selbstbeschreibungen des Menschen, stets konstitutiv für menschliche Handlungen und ihren kulturellen, normativen Beurteilungsrahmen: »Werden diese Trivialisierungen des Denkens kulturelles Allgemeingut, so beginnen die Menschen auch nach ihnen zu handeln«, so Hampe.102 Dass Metaphysiken und Menschenbilder indes nicht einfach sind, sondern kulturell gemacht und sozial konstruiert werden, dass sie mithin disponibel sind, sollte kritisch gegenüber diesen »Trivialisierungen« (und dem Schein einer normativen Kraft eines vermeintlich Faktischen) festgehalten werden. Der Fokus einer kritischen Beurteilung des Neuroenhancements sollte also nicht in der reduzierten Frage nach der Veränderung der kognitiven Leistungsfähigkeit liegen, sondern umfassender in der Frage nach der kulturellen Transformation der menschlichen Selbst- und Weltverhältnisse, und auf dieser Basis in der Frage nach der Transformation der Gesellschaft.103 Der Diskurs um Neuroenhancement ist, recht besehen, einer um die uns leitenden (Selbst-, Gesellschafts- und Welt-)Bilder, liebten Technikbewertung«, in: Miriam Eilers, u.a. (Hg.): Verbesserte Körper – gutes Leben? Bioethik, Enhancement und die Disability Studies. Praktische Philosophie kontrovers, Frankfurt am Main 2012, S. 23–40, hier S. 33). 100 Erich Hörl: Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt, Berlin 2011. 101 Nordmann: »Die unheimliche Wirklichkeit des Möglichen«, in: Eilers, u.a. (Hg): Verbesserte Körper – gutes Leben?, S. 38. 102 Hampe: Erkenntnis und Praxis, S. 178. 103 Vgl. hierzu Coenen: »Schöne neue Leistungssteigerungsgesellschaft?«, in: TAB-Brief 33, und Armin Grunwald: »Die »technische Verbesserung« des Menschen. Mögliche Wege in die gesellschaftliche Realität«, in: Udo Ebert, u.a. (Hg.): Der Mensch der Zukunft. Hintergründe, Ziele und Probleme des Human Enhancement. Sächsische Akademie der Wissenschaften zu Leipzig, Stuttgart, Leipzig 2013, S. 62–80. So stellt Rosa (Resonanz, S. 725) zu Recht fest: »Eine Überwindung der Steigerungslogik ist daher ohne grundlegende institutionelle Reformen nicht denkbar«. 251 die die Gegenwart wie die Zukunft unserer spätmodernen (Leistungs-)Steigerungsgesellschaften prägen. Kurzum, es geht um die Frage, in welcher Gesellschaft und in welcher Kultur wir heute miteinander leben wollen. 252 Andreas Kaminski, Michael Resch und Uwe Küster Mathematische Opazität Über Rechtfertigung und Reproduzierbarkeit in der Computersimulation Abstracts Epistemische Opazität, so die These von Paul Humphreys, stellt eine neuartige Form der Intransparenz in der Computersimulation dar: Wissenschaftler seien nicht mehr in der Lage, alle Schritte ihrer Simulationsmethode nachzuvollziehen und zu rechtfertigen. Humphreys’ These ist von anderen Autoren zwar häufiger in deren Argumentation übernommen worden; jedoch wurden die ihr anhaftenden Unklarheiten selten thematisiert, noch gar versucht, sie zu beseitigen. Der vorliegende Aufsatz verfolgt diese Absicht. Zu diesem Zweck werden drei Formen von Opazität (technische, soziale und mathematische) unterschieden und ihre jeweilige Relevanz für die Computersimulation untersucht. Dabei kommt den in der Computersimulation eingesetzten Gleichungen und Gleichungssystemen, so die hier zugrundeliegende Hypothese, eine besondere Bedeutung zu: Mathematische Opazität zeigt sich als in der Tat neuartige methodische Intransparenz, wogegen die soziale und technische Opazität zwar hochrelevant, aber nicht exklusiv für die Computersimulation sind. Der Aufsatz schließt Überlegungen zur Erkennbarkeit von Opazität und zu Strategien des Umgangs mit ihr an. According to Paul Humphreys, epistemic opacity constitutes a novel type of lack of transparency in computer simulation: Scientists are no longer able to understand and justify all steps of their simulation method. Humphreys’ thesis has been adopted by other authors in their argumentation. But the ambiguities attached to it were seldom addressed or their elimination tried. Our paper pursues this intention. For this purpose, three forms of opacity (technical, social and mathematical) are distinguished and their respective relevance for computer simulation is investigated. In this respect, the equations and equation systems used in computer simulation are of particular importance as our underlying hypothesis is. Mathematical opacity is revealed as a novel methodological lack of transparency, whereas social and technical opacity are highly relevant but not exclusive for computer simulation. The paper concludes on the identifiability of opacity and the strategies for dealing with it. Einleitung Eine der aufregendsten, aktuellen philosophischen Debatten kreist um die Frage, ob die Computersimulation die Wissenschaft grundlegend verändert.1 Bis ins 20. Jahrhundert war es gleichsam eine Selbstverständlichkeit, dass sich Wissen aus zwei 1 Vgl. Roman Frigg, u.a.: »The philosophy of simulation. Hot new issues or same old stew?«, in: Synthese 169 (2009), Heft 3, S. 593–613 und Eric B. Winsberg: Science in the age of computer simulation, Chicago, London 2010, S. 1. 253 Quellen speist: Erfahrung und Theorie.2 Auch der zunehmende Einsatz von Messtechnik, wie groß die Effekte auf die Wissenschaft auch sein mögen, ändert daran nichts. Mit der Computersimulation dagegen entstand die Anmutung eines neuartigen, dritten Zugangs. Viele der anfänglichen Debatten kreisten entsprechend um Vergleiche: Ist die Computersimulation ein Experiment oder ist sie ausgeführte Theorie? Oder handelt es sich bei ihr um etwas Neuartiges? Paul Humphreys hat zu dieser Debatte einen vielbeachteten Beitrag geliefert. Seine These lautet: Computersimulation führt ein neuartiges Phänomen in die Wissenschaft ein: epistemische Opazität. Die Computersimulation stellt für Humphreys eine Methode dar, zu welcher Wissenschaftler ein anderes Verhältnis haben. Mag Natur opak sein, so ist es deshalb doch die empirische Methode nicht. Die Computersimulation dagegen, so Humphreys, verändert das Verhältnis der Wissenschaftler zu ihrer Methode: Diese seien nicht mehr in der Lage, ihre methodischen Schritte in der Simulation vollends zu überblicken und zu rechtfertigen.3 Wird die szientifische Methode im Simulationsbereich jedoch intransparent, dann ist auch nicht mehr klar, was ein korrektes Simulationsresultat ist. Diese These Humphreys’ mag zunächst wie eine bloße theoretische Idee erscheinen (wir werden auf Humphreys’ Begründungen und Ausführungen erst später im Detail eingehen). Jedoch zeigen sich in der Simulationspraxis Anzeichen dafür, dass die beteiligten Wissenschaftler, ohne den entsprechenden Terminus zu verwenden, mit einer Opazität, welche die Methode betrifft, zu kämpfen haben. Als Beispiel sei hier eine Simulation aus der Klimaforschung präsentiert.4 Dabei wurde das identische Programm auf der identischen Maschine mit identischen Randund Anfangsbedingungen vier Mal ausgeführt. Es wäre zu erwarten, dass jeder Programmlauf zum selben Ergebnis führt. Die Graphiken zeigen die Verteilung von Wasserdampf in der Atmosphäre im selben räumlichen Bereich in der Nähe des Äquators. Wie zu sehen ist, weisen die Ergebnisse der vier Läufe jedoch nicht nur leicht quantitative, sondern qualitative Abweichungen auf. Diese verbleiben innerhalb bestimmter Grenzen wie die ähnlichen Strukturen der vier Resultate zeigen. 2 Vgl. Kants Formulierung in der Kritik der reinen Vernunft von den »zwei Grundquellen« der Erkenntnis (B74). 3 Zunächst von Humphreys formuliert in seinem Buch Extending Ourselves (Paul Humphreys: Extending ourselves. Computational science, empiricism, and scientific method, New York 2004, S. 147–151) sowie dann in einem Aufsatz (Paul Humphreys: »The philosophical novelty of computer simulation methods«, in: Synthese 169 (2009), Heft 3, S. 615–626), der eine Replik auf Frigg und Reiss darstellt. 4 Thomas Ludwig: Reproducibility in Science, Computer Science & Climate Science. News from Computational Climate Science, talk at the German Leogang HPC workshop, 6.–8. März, 2017, Leogang, Österreich. 254 Abbildung 1: Die unterschiedliche Verteilung von Wasserdampf in vier theoretisch identischen Klimasimulationen (Ludwig 2017) Unklar bleibt laut Ludwig der Grund für die signifikanten Abweichungen in den vier Ergebnissen.5 Für die beteiligten Wissenschaftler sind diese Unterschiede nicht reproduzierbar. Zudem sind sie nicht eindeutig erklärbar. Zwar lassen sich Vermutungen über mathematische (Instabilitäten des Verfahrens) oder technische Gründe (unterschiedliche Rundungen in den Berechnungen) anstellen, eine finale Erklärung ist jedoch aktuell zumindest nicht gegeben. Erschwert wird die Suche nach einer Erklärung durch zwei prinzipielle Limitierungen: Erstens ist eine manuelle Kontrollrechnung angesichts des hohen Berechnungsaufwands nicht möglich. Zweitens ist ein 5 Ebd. 255 Vergleichslauf mit dem gleichen Programmcode sowie den gleichen Anfangs- und Randbedingungen auf einer anderen Maschine nicht zielführend, weil dann erneut unklar wäre, welche Simulation die korrekte Lösung darstellte und welche als »Abweichung« zu gelten hätte. Die methodische Opazität der Simulation stellt hier also, wie von Humphreys beschrieben, die Wissenschaftler vor ein Rätsel. Daran änderte auch eine vielleicht einst gefundene Erklärung nichts. Selbst wenn sich in der Zukunft etwa zeigen würde, dass die Unterschiede auf einen Programmierfehler zurückgingen, so zeigt das Beispiel doch sehr gut das grundlegende Problem auf: Die Simulation ist opak, für die beteiligten Wissenschaftler sind die Schritte im Simulationsprozess nicht im Einzelnen nachvollziehbar. Lässt sich über die methodische Opazität in der Computersimulation mehr sagen, als dass sie sich einer Einsicht entzieht und deren Resultate daher nicht vollständig nachvollziehbar sind? Hier lohnt die Analogie zum Nichtwissen, über das sich ja auch mehr sagen lässt, als dass etwas nicht gewusst wird.6 Wir gehen also im Folgenden davon aus, dass es nicht prinzipiell hoffnungslos ist, die Entstehung von methodischer Opazität zu verstehen. Dafür müssen wir sie jedoch präziser begreifen. Hier setzen wir an. Humphreys’ These einer epistemischen Opazität wurde häufig übernommen und in andere Argumentationszusammenhänge eingebaut.7 Sie war der Startpunkt für weiterführende Überlegungen zu epistemischer Opazität; was jedoch selten geschah, war die Unklarheit von Humphreys’ These zum Thema einer Untersuchung zu machen.8 Dies unternehmen wir in unserem Beitrag, der fünf Fragen diskutieren wird: • Gibt es epistemische Opazität in der Computersimulation? • Ist diese spezifisch (exklusiv) für die Computersimulation? 6 Vgl. dazu auch: Alexander Friedrich, u.a. (Hg.): Technisches Nichtwissen. Jahrbuch Technikphilosophie 3, Baden-Baden 2017. 7 Vgl. unter anderem Jaakko Kuorikoski: »Simulation and the Sense of Understanding«, in: Paul Humphreys, u.a. (Hg.): Models, simulations, and representations, New York 2012, S. 168–186; Nicole Saam: »Understanding social science simulations. Distinguishing two categories of simulations«, in: Michael Resch, u.a. (Hg.): Science and Art of Simulation I (SAS). Exploring – Understanding – Knowing, Berlin, Heidelberg 2017, S. 67–84 und Till Grüne-Yanoff: »Seven Problems with Massive Simulation Models for Policy Decision-Making«, in: Michael Resch, u.a. (Hg.): Science and Art of Simulation I (SAS). Exploring – Understanding – Knowing, Berlin, Heidelberg 2017, S. 85–101. 8 Vgl. Anouk Barberousse, u.a.: »About the warrants of computer-based empirical knowledge«, in: Synthese 191 (2014), Heft 15, S. 3595–3620; John Symons, u.a.: »Can we trust Big Data? Applying philosophy of science to software«, in: Big Data & Society 3 (2016), Heft 2, S. 1–17; Julian Newman: »Epistemic Opacity, Confirmation Holism and Technical Debt. Computer Simulation in the Light of Empirical Software Engineering«, in: Fabio Gadducci, u.a. (Hg.): History and Philosophy of Computing. Third International Conference, HaPoC 2015, Pisa 2016, S. 256–272; Johannes Lenhard: Mit allem rechnen – zur Philosophie der Computersimulation, Berlin, Boston 2015 und Andreas Kaminski: »Der Erfolg der Modellierung und das Ende der Modelle. Epistemische Opazität in der Computersimulation«, in: Andreas Brenneis, u.a. (Hg.): Technik – Macht – Raum. Das Topologische Manifest im Kontext interdisziplinärer Studien, Wiesbaden 2017. 256 • Wenn ja: Was ist opak an der Computersimulation und welche Konsequenz hat dies? • Wie bzw. wodurch entsteht Opazität in der Computersimulation? • Welche Strategien eines Umgangs mit ihr bestehen? Wir gehen davon aus zeigen zu können, dass es epistemische Opazität gibt, dass diese aber in verschiedenen Formen auftritt und nur eine davon exklusiv in der Computersimulation gegeben ist. Daher werden wir in Abschnitt zwei zunächst einige der Unklarheiten in Humphreys’ Darstellung thematisieren und eine Unterscheidung von sozialer, technischer und mathematischer Opazität treffen. Nur die mathematische Opazität ist exklusiv in der Simulation gegeben.9 Abschnitt drei diskutiert ihren Ursprung. Die Abschnitte vier bis fünf loten dann unterschiedliche Modi mathematischer Opazität und Möglichkeiten eines Umgangs mit ihr aus. Formen der Opazität Paul Humphreys’ Studien zur Computersimulation erfolgen im Kontext einer historischen These: Menschen würden zunehmend vom Zentrum des Forschungsprozesses an seinen Rand gedrängt. Zunächst erweiterten Beobachtungs- und Messinstrumente, so die in Extending Ourselves formulierte Perspektive, die Wahrnehmungsfähigkeiten. Durch die Informationstechnik würden anschließend die intellektuellen Fähigkeiten von technischen Ensembles übernommen und, zumindest in bestimmten Hinsichten, gesteigert.10 Dieser Prozess der kognitiven Leistungssteigerung geht mit Kosten einher. Eine Zuspitzung dieses historischen Prozesses markiert der Begriff »epistemische Opazität«: »Here a process is epistemically opaque relative to a cognitive agent X at time t just in case X does not know at t all of the epistemically relevant elements of the process. A process is essentially epistemically opaque to X if and only if it is impossible, given the nature of X, for X to know all of the epistemically relevant elements of the process«.11 Der Begriff bezeichnet das Verhältnis eines Subjekts zu einem Prozess, für das an diesem Prozess bestimmte Elemente nicht einsichtig sind.12 Dies kann auf zweierlei Weise nach Humphreys der Fall sein: Entweder kann diese Intransparenz durch Wis- 9 Betont werden sollte, dass die anderen Formen der Opazität damit keineswegs an Bedeutung verlieren. Im Gegenteil sind sie hochrelevant für die Computersimulation und stellen enorme praktische und philosophische Herausforderungen dar. In anderen Arbeiten werden wir sie verfolgen. Hier dagegen konzentrieren wir uns auf die mathematische Opazität. 10 Vgl. Humphreys: Extending ourselves. 11 Humphreys: »The philosophical novelty of computer simulation methods«, in: Synthese 169, S. 615–626, hier S. 618. 12 Epistemische Opazität wird von Humphreys daher in unserer Interpretation, wenngleich nicht ausdrücklich, aber seinem Sinne nach, als ein »Reflexionsbegriff« eingeführt. Reflexionsbe- 257 senszuwachs abgebaut werden, dann ist die epistemische Opazität relativ (zu einem jeweiligen Zeitpunkt). Oder es ist nicht möglich, sie aufzulösen, dann ist sie, in Humphreys’ Sprachgebrauch, essentiell und das heißt notwendig (für das jeweilige Subjekt). Epistemische als methodische Opazität Humphreys spricht zwar äußerst allgemein von Prozessen, die opak sind oder nicht. Aus dem Kontext seiner Argumentation wird jedoch deutlich, dass er einen einzigen Prozess betrachtet: das wissenschaftliche Vorgehen. Mit anderen Worten: Epistemische Opazität ist methodische Opazität. Es ist daher wichtig, sie nicht mit zwei anderen Arten von Opazität zu vermengen. (1) Sie ist von der Opazität der Natur als dem klassischen epistemologischen Topos unterschieden. Dass Natur opak ist, war schon immer ein Thema der Erkenntnistheorie. Ihre Opazität sollte gerade durch Erkenntnisbemühungen überwunden werden. Wenn die wissenschaftliche Methode dagegen opak wird, ist der Erkenntnisprozess selbst betroffen. Es steht in Frage, inwiefern Erkenntnis möglich ist, sofern die Rechtfertigung durch einen einsichtigen Prozess konstitutiv für sie ist. (2) Epistemische Opazität ist von probabilistischen Urteilen zu unterscheiden. Letztere sind, sofern sie methodisch korrekt gebildet wurden, nämlich vollkommen nachvollzieh- und rechtfertigbar. Zwar kommt probabilistischen Urteilen ein gewisser Mangel an Bestimmtheit zu; dieser betrifft aber weder die Methode noch das Urteil als Resultat des methodischen Vorgehens. Vielmehr lässt sich über den Gegenstand keine größere Bestimmtheit in der Aussage gewinnen. Ein neuartiges Phänomen, exklusiv in der Computersimulation Epistemische als methodische Opazität verstanden, verbindet sich bei Humphreys mit zwei weiteren, miteinander zusammenhängenden Behauptungen: nämlich (1) der These, dass epistemische Opazität exklusiv oder spezifisch für die Computersimulation ist, und (2) dass die Computersimulation deshalb neuartige Phänomene hervorgriffe werden von Objektbegriffen unterschieden. Letztere weisen einen direkten Gegenstandsbezug auf, wogegen Reflexionsbegriffe Vorstellungen von Vorstellungen darstellen. Vgl. zu Reflexionsbegriffen bei Kant: Michael Nerurkar (2008): »Was sind Reflexionsbegriffe?«, Internetproceeding der DGPhil im Rahmen des XXI. Deutschen Kongresses für Philosophie ›Lebenswelt und Wissenschaft‹, 2008, http://www.dgphil2008.de/programm/sektionen/abstract/ nerurkar.html (aufgerufen: 27.06.2011) und zu ihrer Anwendbarkeit im Kontext der Technikphilosophie Christoph Hubig: »›Natur‹ und ›Kultur‹. Von Inbegriffen zu Reflexionsbegriffen«, in: Zeitschrift für Kulturphilosophie 5 (2011), Heft 1, S. 97–119. 258 bringt, die sich nicht auf ältere Fragestellungen, insbesondere der Rolle von Modellen in der Wissenschaft, reduzieren lassen. Denn genau das behaupten Frigg und Reiss, gegen die sich Humphreys damit wendet: dass Computersimulation keine eigenen und neuen wissenschaftsphilosophischen Fragen hervorgebracht hätte.13 Quellen der Opazität Wodurch entsteht Opazität in der Computersimulation? Humphreys nennt zwei Quellen: »Many, perhaps all, of the features that are special to simulations are a result of this inability of human cognitive abilities to know and understand the details of the computational process. The computations involved in most simulations are so fast and so complex that no human or group of humans can in practice reproduce or understand the processes«.14 (1) Rechengeschwindigkeit und (2) Komplexität sind nach Humphreys der Ursprung methodischer Intransparenz in der Computersimulation. Bezüglich des ersten Punkts ist klar: Die Anzahl der an Rechenoperationen in einer typischen Simulationsstudie ist so groß,15 dass kein Wissenschaftler in der Lage ist, sie nachzurechnen. Die zweite Quelle wird recht vage als Komplexität bestimmt. Angesichts dessen ist es naheliegend, Humphreys Ausführungen in Extending Ourselves heranzuziehen, die in diesem Punkt detaillierter sind. »There are at least two sources of epistemic opacity. The first occurs when a computational process is too fast for humans to follow in detail. This is the situation with computationally assisted proofs of mathematical theorems such as the four-color theorem. The second kind involves what Stephen Wolfram has called computationally irreducible processes, processes that are of the kind best described, in David Marr’s well-known classification, by Type 2 theories. A Type 1 theory is one in which the algorithms for solving the theory can be treated as an issue separate from the computational problems that they are used to solve. A Type 2 theory is one in which a problem is solved by the simultaneous action of a considerable number of processes whose interaction is its own simplest description. Epistemic opacity of this second kind plays a role in arguments that connectionist models of cognitive processes cannot provide an explanation of why or how those 13 Vgl. Frigg, u.a. und Reiss: »The philosophy of simulation. Hot new issues or same old stew?«, in: Synthese 169, S. 593–613. 14 Humphreys: »The philosophical novelty of computer simulation methods«, in: Synthese 169, S. 615–626, hier S. 618 f. 15 In einer typischen Simulation am Höchstleistungsrechenzentrum Stuttgart (HLRS) werden 1.6 × 1017 Rechenoperationen vollzogen. Dieses Problem taucht auch in den Klimasimulationen, die zu Beginn dargestellt wurden, auf. Die Abweichungen der vier Simulationsläufe können weder vierfach noch einfach manuell nachberechnet werden, um die Ergebnisse zu verstehen. Es sind schlicht viel zu viele Rechenschritte. 259 processes achieve their goals. The problem arises from the lack of an explicit algorithm linking the initial inputs with the final outputs, together with the inscrutability of the hidden units that are initially trained.«16 Die von Humphreys hier genannten, aber kaum erläuterten Überlegungen David Marrs und Stephen Wolframs weisen eine Gemeinsamkeit auf: Die mathematische Struktur des Modells ist in dem Sinne komplex, dass der Einfluss, den ein Element auf das Gesamtverhalten hat, nicht einsichtig ist. An die Stelle der Einsicht tritt daher das Ausrechnen.17 Diesen Unterschied zwischen Einsicht und Ausrechnen schien der Physiker Richard Feynman im Sinne zu haben, als er erläuterte, was er als das Verstehen einer Gleichung begreift: »›I understand what an equation means if I have a way of figuring out.‹ So if we have a way of knowing what should happen in given circumstances without actually solving the equations, then we ›understand‹ the equations, as applied to these circumstances.«18 Um diesen Unterschied zu kennzeichnen, unterscheiden wir im Folgenden zwei Verhaltensweisen zu mathematischen Modellen. Die eine bezeichnen wir als internalistisch: Sie ist gekennzeichnet durch ein Verständnis der Struktur. Das Verstehen einer mathematischen Struktur zeigt sich darin, dass erkannt wird, wie ein Element andere und das Modellverhalten insgesamt bestimmt. Eine externalistische Verhaltensweise zu einem mathematischen Modell liegt dagegen dann vor, wenn dessen Dynamik ausgerechnet wird, um sie zu erkennen. Diese terminologische Unterscheidung werden wir an einem späteren Zeitpunkt noch detaillieren, um von ihr Gebrauch zu machen. Im Kern wird unser Argument zur Rolle mathematischer Opazität in der Computersimulation daran entwickelt. Wir werden zu zeigen versuchen, dass epistemische Opazität in der Computersimulation par excellence mathematische Quellen hat. Diese werden durch den Übergang von einer internalistischen zur externalistischen Mathematik eröffnet. Bevor wir so weit sind, müssen wir jedoch zunächst einige Unklarheiten in Humphreys’ Überlegungen diskutieren und beseitigen. Zwei Probleme in Humphreys’ Argumentation Die Probleme in Humphreys’ Ansatz lassen sich zwei Gruppen zuordnen. Das erste Problem betrifft die behauptete Exklusivität epistemischer Opazität in der Computersimulation; das zweite betrifft die Strategien der Rechtfertigung der Ergebnisse von Computersimulationen. Wir beginnen mit dem ersten Problemkreis. 16 Humphreys: Extending ourselves, S. 148–149. 17 Vgl. dazu Kaminski: »Der Erfolg der Modellierung und das Ende der Modelle«, in: Brenneis u.a. (Hg.): Technik – Macht – Raum. 18 Zitat von Richard Feynman, zitiert nach Lenhard: Mit allem rechnen – zur Philosophie der Computersimulation, S. 99. 260 Das erste Problem: Exklusivität Humphreys nimmt an, dass die Computersimulation neuartige Probleme aufwirft, weil sie epistemisch opak ist. Das legt nahe, dass epistemische Opazität ein Phänomen ist, das spezifisch für die Computersimulation ist und ausschließlich in ihr auftritt. Diese Implikation von Humphreys’ These wird aber von zwei Seiten in Frage gestellt: Von der sozialen Epistemologie: Die so genannte Philosophie der Zeugenschaft hat zu einer weitreichenden Korrektur an der klassischen, auf das Individuum fokussierten Epistemologie geführt. In der klassischen Epistemologie ist Erkenntnis auf ein Individuum bezogen, welches den Anspruch, eine wahre und begründete Überzeugung zu haben, dann erheben darf, wenn es qua eigener Autorität diesen Anspruch rechtfertigen kann. Eine Rechtfertigung qua eigener Autorität kann entweder durch eigene Erfahrung oder durch eigenes Nachdenken erfolgen.19 Die Philosophie der Zeugenschaft hat demgegenüber geltend gemacht, dass die meisten Wissensansprüche von dem, was andere Personen behaupten, abhängen, und zwar entweder direkt (A sagte mir, dass p) oder informell vermittelt (durch geteilte Abduktionsstrategien, Klassifikationen, so genanntes Hintergrundwissen).20 Keine Person weiß ausschließlich qua eigener Autorität, dass es Bakterien gibt, dass Japan ein Inselstaat ist oder in welcher Stadt sie geboren wurde. Diese Abhängigkeit eigener Wissensansprüche von denen anderer zeigt sich deutlich in der modernen Forschungspraxis. Ingenieurwissenschaftliche, medizinische oder naturwissenschaftliche Forschung findet in der Regel in Teams mit verteilten Kompetenzen statt und/oder beruht auf Voraussetzungen, die andere erarbeitet haben.21 Damit entstehen für den einzelnen Wissenschaftler weiträumige opake Felder: Zwar verfügt er über eine Einsicht in seinen Beitrag, aber dieser stellt nur einen Teil eines Ganzen dar, das weder er noch andere überblicken; denn für jene anderen gilt das Gleiche: Die Gewinnung von Messdaten, das Verständnis für die jeweilige Messtechnik, die mathematischen Fähigkeiten, die Einsicht in die Gegenstandstheo- 19 Den beiden traditionell als Quellen des Wissens erachteten Formen, wie sie zu Beginn des Aufsatzes angeführt wurden. 20 Vgl. aus der großen Menge an Literatur zu dem Thema zumindest zwei Monographien, welche einen guten Überblick über die Diskussion bieten: Cecil A. J. Coady: Testimony. A philosophical study, Oxford, NY 1992 und Paul Faulkner: Knowledge on Trust, Oxford 2015. 21 Vgl. etwa John Hardwig: »Epistemic dependence«, in: Journal of Philosophy 82 (1985), Heft 7, S. 335–349; Karin D. Knorr-Cetina: The Manufacture of Knowledge. An Essay on the Constructivist and Contextual Nature of Science, Burlington 1981 und Bruno Latour, u.a.: Laboratory life. The construction of scientific facts, Princeton, NJ 1986. – Die These ist allerdings bereits von der frühen Soziologie formuliert worden. Vgl. etwa Georg Simmel: »Die Arbeitsteilung als Ursache für das Auseinandertreten der subjektiven und der objektiven Kultur«, in: Georg Simmel: Schriften zur Soziologie, Frankfurt am Main 1900, S. 95–128 und Max Weber: »Ueber einige Kategorien der verstehenden Soziologie«, in: Max Weber: Gesammelte Aufsätze zur Wissenschaftslehre, hrsg. v. Johannes Winckelmann, Tübingen 1913, S. 427–474. 261 rie oder den jeweiligen experimentellen Aufbau sind in der Regel auf viele einzelne verteilt. Diese soziale Organisation des Erkenntnisprozesses lässt sich für Simulationsstudien auf eindringliche Weise demonstrieren, aber eben nicht nur für diese. Damit steht dann jedoch in Frage, inwiefern die epistemische Opazität ein Phänomen ist, das exklusiv oder auch nur von besonderer Bedeutung im Bereich der Computersimulation ist. Von der Technikphänomenologie: Der Philosoph und Mathematiker Edmund Husserl zeigte, dass und warum die Geschichte der Mathematik einer zunehmenden Technisierung unterliegt, lange vor der Erfindung und Verwendung von Sachtechnik (Rechentafeln, Rechenschiebern, Handrechenmaschinen, Computern etc.).22 Husserls für diese Geschichte geprägter Technikbegriff zielt auf zwei Leistungen ab, welche Technik auszeichnen, und die beide die Form einer Entlastung haben. Technik zeichnet sich dadurch aus, dass sie verwendet werden kann, ohne dass ein Wissen (a) von ihrem Entstehungs- und (b) ihrem Begründungskontext gegeben sein muss, d.h. ohne wissen zu müssen, von wem eine mathematische Technik entwickelt wurde und warum sie als Werkzeug ›funktioniert‹ (d.h. ohne den Beweis zu kennen), kann diese verwendet werden (sofern die Voraussetzungen gegeben sind). So muss man nicht wissen, dass Pythagoras ein Mathematiker war und worin der geometrische Beweis für den Satz des Pythagoras besteht. Man kann mit ihm, wenn die Länge der Katheten in einem rechtwinkligen Dreieck bekannt ist, die Hypotenuse berechnen, ohne sich damit beschäftigen zu müssen. Diese doppelte Entlastung, diese Legitimierung von Nichtwissen gilt für alle mathematischen Techniken – aber nicht nur für diese: Husserls Technikbegriff erfasst Leistungen, welche Technik generell eignen. Was für die Geschichte der Mathematik gilt, gilt für die Geschichte der meisten Wissenschaften; sicherlich jedoch zumindest der Natur- und Ingenieurwissenschaften. In Form von Intellektual- und Sachtechniken werden Formen (Theoreme und Sätze, Klassifikationen, Daten und Archive, Mess- und Beobachtungsapparate etc.) weitergereicht, welche von den jeweiligen Forschern in ihre Argumentation eingesetzt werden analog einem Zahnrad in einem Getriebe. Für diese ›wandernden‹ Formen gilt nun jedoch, was bereits im Kontext der sozialen Epistemologie deutlich wurde: Der einzelne Wissenschaftler ist nicht in der Lage und muss es auch nicht sein, die ganze Kette, an welcher er ein Argument entwickelt, zu überblicken. Viele Elemente ›setzt er ein‹, sie bleiben jedoch, was ihre Funktionsweise und Rechtfertigung angeht, opak. Beide Punkte stellen die Exklusivität von epistemischer Opazität nicht nur in Frage, sie lassen sie zu einer generellen Erscheinung in Wissenschaft und Alltag werden. Es ließe sich zwar – mit den Klassikern der Soziologie – behaupten, dass die Opazität von Natur zunehmend in methodische Opazität umgewandelt wird. Dabei 22 Vgl. Edmund Husserl: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie, Den Haag 1976. 262 handelte es sich um eine relative Opazität: relativ zu einem Zeitpunkt für ein Individuum, das mit Max Weber zusammen berechtigterweise daran glaubt, dass es im Prinzip die Prozesse sich einsichtig machen und nachvollziehen könne. Humphreys selbst sieht diesen Zusammenhang zwischen sozialer Epistemologie, Technik, epistemischer Opazität und Moderne. In gewisser Weise liegt er auf der historischen Linie, welche er in Extending Ourselves zieht: Der Mensch wird aus dem Zentrum des szientifischen Prozesses an den Rand gedrängt: »Technological enhancements of our native cognitive abilities are required to process this information, and have become a routine part of scientific life. In all of the cases mentioned thus far, the common feature has been a significant shift of emphasis in the scientific enterprise away from humans because of enhancements without which modern science would be impossible. For convenience, I shall separate these enhancements into the computational and the noncomputational, beginning with the latter. This division of convenience should not conceal the fact that in extending ourselves, scientific epistemology is no longer human epistemology«.23 In seinem Aufsatz The philosophical novelty of computer simulation methods von 2009 geht er sogar explizit auf den Zusammenhang von epistemischer Opazität und sozialer Epistemologie ein. Er bleibt jedoch vage, warum diese seine These von der Neuartigkeit nicht in Frage stellen sollte: »Although there are parallels with the switch from an individualist epistemology, within which a single scientist or mathematician can verify a procedure or a proof, to social epistemology, within which the work has to be divided between groups of scientists or mathematicians, so that no one person understands all of the process, the sources of epistemic opacity in computational science are very different«.24 Humphreys schließt hieran ein Beispiel an, welches die Intransparenz in agentenbasierten Simulationen thematisiert. Offensichtlich geht es ihm darum, dass nicht jede epistemische Opazität einen sozialen Ursprung hat. Welche allerdings diesen Ursprung haben, lässt Humphreys offen. Lösungsvorschlag: Die Unterscheidung sozialer, technischer und mathematischer Opazität Um an dieser Stelle weiterzukommen, führen wir die Unterscheidung dreier Formen epistemischer Opazität ein: Sozialer, technischer und mathematischer. Wir gehen davon aus, dass die ersten beiden zwar hochrelevant für die Computersimulation sind, jedoch nur die dritte exklusiv in ihr und einigen Formen maschinellen Lernens auf- 23 Humphreys: Extending ourselves, S. 8. 24 Humphreys: »The philosophical novelty of computer simulation methods«, in: Synthese 169, S. 619. 263 tritt. Wichtig ist es vorab, den Status dieser Unterscheidung zu klären. Denn die Unterscheidung könnte so verstanden werden, als gäbe es verschiedene Sorten von Opazität. Diese Interpretation liefe aber in unlösbare Probleme, wie am Verhältnis von sozialer und technischer Opazität gezeigt werden kann: Die soziale Arbeitsteilung zwischen Wissenschaftlern resultiert häufig in Technik, welche zwischen Forschungsprojekten, Communities und technischen Ensembles kursiert – ein Modul wird beispielsweise aus einer Softwarebibliothek gelinkt. Handelt es sich hierbei um soziale oder um technische Opazität? Auf den ersten Blick ist diese technisch, sie geht jedoch zurück auf Prozesse der sozialen Arbeitsteilung. Ließe sich dann die technische nicht allgemein auf die soziale Opazität reduzieren – schließlich ist Technik ihr Resultat? Dieser Gedanke blendet aus, dass die soziale Arbeitsteilung sowohl eine Technik darstellt als auch auf Technik basiert und mit Technik vollzogen wird: Einzelne Gruppen erarbeiten mittels Technik neue Technik. Diese Interpretation der Unterscheidung droht sich daher in Ursprungsparadoxien zu verirren. Statt als sortale wird die Unterscheidung daher hier als aspektuale verstanden.25 Dabei geht es um Gesichtspunkte, von denen ausgehend sich die Entstehung von Opazität thematisieren lässt. Dies wird gerade mit Blick auf den Zusammenhang von Technik und Mathematik noch von Bedeutung sein. Dabei gilt es jedoch festzuhalten: Die Forscher sind prima facie mit einer Opazität konfrontiert, in der mathematische und technisch-soziale Opazität ineinander spielen. Sie zu unterscheiden stellt bereits einen Schritt der Klärung dar, der jedoch nicht in ihre Auflösung mündet. Denn es wird sich zeigen, dass es eine mathematisch entstehende Opazität in der Computersimulation gibt, diese jedoch auf technische Weise gelöst wird; was jedoch nicht bedeutet, dass sie aufgelöst wird.26 Daher lässt sich die mathematische Opazität nicht auf die technische reduzieren. Mit anderen Worten: Die Krise der Wissenschaft in der Computersimulation ist nicht mehr (ausschließlich) die Krise, der sich Edmund Husserl konfrontiert sah. Für Husserl war das Therapeutikum gegen die Intransparenz und Sinnverschiebung in der Ge- 25 Bei einer sortalen Unterscheidung gäbe es verschiedene Entitäten, die einer (und nur einer) der Sorten von Opazität zugeordnet werden würden. Etwas könnte demnach nicht zugleich mathematisch und sozial opak sein. Bei einer aspektuellen Unterscheidung ist dies zugelassen, da es sich um Gesichtspunkte handelt, unter denen etwas betrachtet wird. Diese Gesichtspunkte können gewechselt werden. Um ein damit verbundenes mögliches Missverständnis zu vermeiden: Dies bedeutet dann keineswegs, dass immer alle Formen von Opazität gegeben sein müssen. Die »Idee«, welche mit einem Gesichtspunkt verbunden wird, kann unerfüllt bleiben; aber es ist denkbar, dass etwas in einer Hinsicht eine soziale und in einer anderen Hinsicht eine technische Opazität aufweist. 26 Auch wenn wir die Unterscheidung als eine aspektuelle interpretieren, bedeutet dies nicht, dass jeder Gegenstand sinnvoll unter jedem Gesichtspunkt betrachtet werden kann. Es gibt Gesichtspunkte, die mehr oder weniger angemessen sind bzw. von einem Gegenstand mehr oder weniger »erfüllt« werden. Dies ist von Bedeutung, da es sonst zu einem Widerspruch mit der Behauptung kommt, dass mathematische Opazität exklusiv in der Computersimulation ist. Könnte jeder Gesichtspunkt immer genauso gut in einen anderen überführt werden, wäre die mathematische Opazität genauso gut als sozial oder technisch zu bezeichnen. 264 schichte der Mathematik und wissenschaftliche Methode noch die Reaktivierung. Der Sinn der Techniken kann zur Einsicht gebracht, ihre Genese und Funktionsweise prinzipiell nachvollzogen, die technische Opazität also sukzessive aufgelöst werden. Das gilt unseres Erachtens für die mathematische Opazität nicht; zumindest steht häufig nicht fest, ob es Möglichkeiten ihrer Auflösung gibt, wie wir noch zeigen werden. Es geht also um etwas anderes als Umstellung der Mathematik auf ein Operieren mit Symbolen. Dies ist zwar entscheidend für die technische Behandlung der opaken Gleichungssysteme, es ist jedoch nicht der Ursprung der mathematischen Opazität. Das zweite Problem: Begründungsstrategien Die zweite Problemgruppe betrifft Begründungsstrategien. Humphreys spricht davon, dass nicht alle ›relevanten‹ Elemente eines methodischen Vorgehens einsichtig nachvollzogen und begründet werden können, wenn ein Prozess opak ist. Dies wirft zumindest zwei Fragen auf: Ist es relevant, alle Rechenschritte nachzuvollziehen? Humphreys legt dies nahe, wenn er die Rechengeschwindigkeit als Quelle der Opazität anführt. Jedoch ist es alles andere als klar, warum jede Berechnung nachvollzogen werden müsste. Selbst wenn einzelne Fehler auftreten, müssen diese keineswegs relevant sein für das Gesamtergebnis (fast alle Ergebnisse von Gleitkommaoperationen sind nur approximativ korrekt), sofern ein iteratives Verfahren vorliegt, das unabhängig von einem Startwert sukzessive den Fehler reduziert, bis die Ungenauigkeit der Gleitkommaoperationen eine weitere Reduktion verhindern. Dies hängt stark vom jeweiligen Forschungsinteresse und der Fehlerart ab. Ein Fehler in einer Klimasimulation könnte darin bestehen, dass ein lokaler Wert (leicht) falsch berechnet wird – ohne weitergehende Konsequenzen, weil das Simulationsmodell ohnehin nur eine diskrete Approximation (mithin fehlerbehaftet) ohne Fehlerabschätzung darstellt. Gleichwohl greift dieser Einwand gegen Humphreys zu kurz: Zwar müssen nicht alle Fehler relevant sein. Aber: Es ist nicht bekannt, welche Fehler relevant sind und welche nicht. Dass eine solche Ein- und Übersicht über relevante und irrelevante Fehler fehlt, ist die Konsequenz aus der epistemischen Opazität. Problematischer dürfte der zweite Punkt sein. Humphreys scheint Rechtfertigung mit Einsicht gleichzusetzen. Damit verkennt er jedoch, dass andere Begründungsstrategien an die Stelle der Einsicht treten können. Nicht jegliche Form der Rechtfertigung muss durch den einsichtigen Nachvollzug eines Prozesses erfolgen. 265 Auf dem Weg zu einer Lösung: Internalistische und externalistische Mathematik und Rechtfertigung Humphreys nimmt eine naheliegende Unterscheidung nicht auf, welche unseres Erachtens zugleich die Rolle der Mathematik in der Computersimulation zu begreifen hilft. Wir nehmen hier Bezug auf die Unterscheidung internalistischer und externalistischer Begründungsstrategien. Die Debatte um diese unterschiedlichen Rechtfertigungsstrategien ist (in der Nachfolge von Gettier) sehr differenziert worden. Im vorliegenden Kontext wollen wir darunter Folgendes verstehen: Internalistische Rechtfertigungsstrategien beruhen auf der Einsicht in den Zusammenhang von Elementen. Der Prototyp dessen sind das Argument und der mathematische Beweis. Externalistische Rechtfertigungsstrategien beruhen auf der Verlässlichkeit eines Prozesses. Es handelt sich bei ihnen um Bewährtheits- oder Gelingenskriterien.27 Diese Unterscheidung von internalistischen und externalistischen Rechtfertigungsstrategien verbinden wir mit der Unterscheidung internalistischer und externalistischer Umgangsweisen mit mathematischen Modellen, kurz internalistischer und externalistischer Mathematik: Internalistische Umgangsweisen erfolgen unter dem Gesichtspunkt internalistischer Rechtfertigungen, externalistische führen entsprechend zu externalistischen Begründungen. In der Computersimulation sind externalistische Verhaltensweisen zu den mathematischen Modellen, d.h. deren computerbasierte algorithmische Lösung, und externalistische Begründungen von größerer Bedeutung. Die Gründe dafür und ihre Folgen werden im nächsten Abschnitt diskutiert. Genese mathematischer Opazität Die bisherigen Überlegungen haben eine Unterscheidung verschiedener Formen von Opazität erbracht. Während die soziale und technische Opazität generelle Erscheinungen darstellen, die zwar hochrelevant für den Bereich der Computersimulation sind, aber keineswegs exklusiv darin auftreten, verhält es sich anders mit der mathematischen Opazität. Sie gilt als Kandidat für ein spezifisch in der Computersimulation auftretendes Phänomen.28 Um ihre Genese zu verstehen, führten wir zwei Unter- 27 Vgl. etwa Alvin I. Goldman: »What is Justified Belief?«, in: George Pappas (Hg.): Justification and Knowledge, Dordrecht 1979, S. 1–25 sowie Alvin I. Goldman: »Internalism, Externalism, and the Architecture of Justification«, in: Journal of Philosophy 106 (2009), Heft 6, S. 309–338; Kent Bach: »A Rationale for Reliabilism«, in: Monist 68 (1985), Heft 2, S. 246– 263 und Roderick M. Chisholm: Theory of knowledge, Englewood Cliffs, NJ 1989. 28 Wir denken, dass sie in der Computersimulation und im maschinellen Lernen vorkommt. Denn beide beruhen auf einer externalistischen Mathematik, deren Leistung externalistisch begründet wird. 266 scheidungen ein: internalistische und externalistische Umgangsweisen mit und Rechtfertigungsweisen von mathematischen Modellen. Computersimulationen operieren externalistisch mit mathematischen Modellen, entsprechend erfolgt ihre Rechtfertigung (überwiegend) externalistisch. Es gilt nun das Verständnis mathematischer Opazität zu vertiefen. Dies soll geschehen, indem wir uns einzelnen methodischen Schritten zuwenden und untersuchen, wie mathematische Opazität im Simulationsprozess entsteht. Wie es zum Übergang von einer internalistischen zur externalistischen Mathematik kommt Wir betrachten, wie angekündigt, gleichungsbasierte Simulationsmethoden.29 Dabei spielen partielle Differentialgleichungen eine herausragende Rolle.30 Sie dienen dazu, die physikalischen Eigenschaften von Systemen in hoher Genauigkeit und großer Allgemeinheit zu beschreiben. Der großen Bedeutung dieser vergleichsweise einfach formulierten Gleichungen korrespondiert eine nicht minder große Schwierigkeit, ihre Lösungen für reale Umgebungen (Geometrien und Randbedingungen) analytisch zu ermitteln. Analytische Lösungen beruhen auf einer internalistischen Einsicht, auf einem Verständnis des Gleichungssystems. Die meisten dieser partiellen Differentialgleichungen sind in den vergangenen 200 Jahren für die Praxis, basierend auf Experimenten formuliert worden. Seitdem sind jedoch nur vereinzelt analytische Lösungen oder eingeschränkte Klassen solcher für sie gefunden worden. Diese gelten zudem typischerweise nur für die je ausgewählten Randbedingungen, die stark variieren können. Selbst wenn die Gleichungen jeweils nur wenige Parameter enthalten, steigt die in der Einfachheit verborgene Komplexität zusätzlich, wenn diese Parameter nicht konstant sind, sondern funktionell von der Umgebung abhängen. Sollen durch Simulation die Lösungen dieser Gleichungen eine Vorhersage über das Verhalten der realen Umwelt ermöglichen, so helfen die analytischen Lösungen also nur punktuell weiter. Dies schränkt den potentiellen Erkenntnisgewinn entschie- 29 Vgl. für eine Übersicht und Einführung Nico Formanek: »Methoden der Computersimulation und Modellierung«, in: Christian Bischof, u.a. (Hg.): Computersimulationen verstehen. Ein Toolkit für interdisziplinär Forschende aus den Geistes- und Sozialwissenschaften, Darmstadt 2017, S. 17–33. 30 Dazu zählen die Gleichungen der Elastizitätstheorie, die kompressiblen und inkompressiblen Navier-Stokes-Gleichungen, die Diffusions-, Wärmeleitungs-, Poisson- und Laplace-, die Helmholtz-, die Maxwell-, die Wellen- und schließlich die Schrödingergleichung, ferner die Hamiltongleichungen und deren Vereinfachungen, Spezialisierungen, Kombinationen. Vgl. für eine Einführung zu partiellen Differentialgleichungen, ihren Eigenschaften und den Umgang mit ihnen in der Computersimulation Michael Herrmann: »Die Simulationspipeline bei gleichungsbasierten Simulationen«, in: Christian Bischof u.a (Hg.): Computersimulationen verstehen. Ein Toolkit für interdisziplinär Forschende aus den Geistes- und Sozialwissenschaften, Darmstadt 2017, S. 35–102. 267 den ein. Moderne Rechner ändern nichts an diesen Limitierungen, auch wenn Programme, die symbolische Algebra unterstützen, hilfreich sein mögen. Rechner helfen aber auf einem anderen Weg: Statt die Gleichungssysteme internalistisch zu betrachten, werden sie externalistisch gelöst; die partielle Differentialgleichung wird durch eine geeignete diskrete und endliche Approximation ersetzt, dadurch öffnet sich der Weg zu einer Berechnung. Dies geht jedoch mit Kosten einher, die für den Übergang von internalistischen zu externalistischen Umgangsweisen kennzeichnend sind: Mit dem funktionalen Zusammenhang von Randbedingungen und Lösung fällt auch das Erkenntnispotential ihres internalistischen Verständnisses weg.31 Der externalistischer Umgang mit mathematischen Modellen als Quelle von Opazität Es kommt nun darauf an, diesen Unterschied zwischen einer internalistischen und der externalistischen Umgangsweise mit mathematischen Modellen zu begreifen. Die Erklärung, warum es in der Computersimulation zu mathematischer Opazität kommt, ist an diesen Übergang gebunden. Einführend charakterisierten wir eine Verhaltensweise als internalistisch, wenn sie durch ein Verständnis der Struktur eines Gleichungssystems gekennzeichnet ist: Das Verstehen einer mathematischen Struktur zeigt sich darin, dass erkannt wird, wie ein Element andere und das Modellverhalten insgesamt bestimmt. Eine externalistische Verhaltensweise zu einem mathematischen Modell liegt dagegen dann vor, wenn dessen Dynamik ausgerechnet werden muss, um sie zu erkennen. Betrachten wir den sehr einfachen Fall einer Parabel f x =  ax2 . Das Verhalten der Funktion lässt sich internalistisch einsichtig machen. Es kann leicht erkannt werden, wie der Funktionswert sich in Abhängigkeit von a  und x  verhält. Statt die Gleichung zu analysieren und ihre Struktur zu verstehen, können selbstverständlich auch Werte eingesetzt werden, so dass ihr Verhalten einfach ausgerechnet wird. In diesem Beispiel ist es also möglich zwischen beiden Verhaltensweisen, der internalistischen und der externalistischen, zu ›springen‹. Bei mathematisch komplexeren Gleichungssystemen ist dies nicht oder nur partiell möglich. Ihr Verhalten entzieht sich der internalistischen Einsicht und damit dem analytischen Verständnis. Sie können nur (approximativ) ausgerechnet werden. Als Beispiel für ein Gleichungssystem, bei dem die internalistische Betrachtung an Grenzen stößt, können die Lorenz-Gleichungen genannt werden:32 31 Immerhin können die analytischen Lösungen zur Kontrolle der Approximationen verwendet werden. 32 Auf diese gehen wir später nochmals ein. Michael Herrmann gebührt dabei Dank für hilfreiche Erläuterungen. 268 x t′ = − σx t + σy t   y t′ = px t − y t − x t z t   z t′ = − βz t + x t y t   Die drei miteinander gekoppelten Gleichungen (die abhängigen Variablen sind jeweils Element der anderen Gleichungen) beschreiben Strömungsprozesse, also die Dynamik von Gasen und Flüssigkeiten. Dabei bezeichnen y t′   und z t′   die horizontale sowie vertikale Temperaturänderung und x t′   die konvektive Luftbewegung. Die Gleichungen stellen ein System von gewöhnlichen nichtlinearen Differentialgleichungen erster Ordnung dar und sind eine Ableitung aus den Navier-Stokes-Gleichungen. Bemerkenswert an den Gleichungen ist nun, dass unter der Annahme bestimmter Rand- und Anfangsbedingungen Lösungen approximiert werden können, diese jedoch extrem instabil sind.33 In vielen Fällen können dabei Attraktoren, Grenzwerte, die typischerweise stabile Fixpunkte sind, auftreten. Durch sie wird die Dynamik gedämpft und kommt schließlich zum Erliegen. Es gibt jedoch so genannte ›seltsame Attraktoren‹, welche die Eigenschaft aufweisen, dass kleine Änderungen des Anfangszustandes große Änderungen im Systemverhalten zeitigen. Prominentestes Beispiel ist der Lorenz-Attraktor, der bei der Modellierung von Luftströmungen in der Atmosphäre entdeckt wurde und bei der Lösung der angegebenen Differentialgleichungen auftritt. Das Vorliegen eines seltsamen Attraktors (obschon nicht zwingend seine Form) kann zwar unter bestimmten Bedingungen durch eine mathematische Analyse identifiziert werden; dies bedeutet aber nicht, dass damit auch das Verhalten des Systems prognostiziert werden kann. Es handelt sich zwar um ein deterministisches System, aber die Möglichkeit durch internalistische Einsicht zu bestimmen, was sich in einem solchen System ereignen wird, ist versperrt. Immerhin kann durch internalistische Analyse erkannt werden, dass etwas ›Seltsames‹ vorliegt. Das erkennbare Verhalten muss (approximativ) errechnet, also externalistisch zur Darstellung gebracht werden. Es ist von zentraler Bedeutung für unsere Argumentation, dass die Gleichungssysteme,34 welche in der Computersimulation den Kern mathematischer Modelle bilden, kaum, und wenn überhaupt, dann nur als vereinfachte Modelle in ihrem Lö- 33 Diese Gleichungen markieren die Theorie komplexer dynamischer Systeme sowie des deterministischen Chaos. 34 Wir konzentrieren uns in unserem Aufsatz auf gleichungsbasierte Simulationen, sind jedoch zuversichtlich, dass unsere Ergebnisse auf andere Simulationsmethoden und auf unterschiedliche (jedoch nicht alle!) maschinelle Lernsysteme übertragbar sind. Dabei ist zu beachten, dass prinzipiell natürlich auch sehr einfache mathematische Modelle auf Hochleistungsrechnern gelöst werden könnten. Dies stellt jedoch unseres Erachtens keinen sinnvollen Einwand gegen unsere Argumentation dar. Denn faktisch werden solche Gleichungssysteme computerunterstützt gelöst, deren Lösbarkeit ›manuell‹ Probleme bereitet; und der Sinn der Technisierung und damit externalistischen Umgangsweise mit mathematischen Modellen besteht darin, dass sie internalistisch schwer, wenn überhaupt lösbar sind. 269 sungsverhalten internalistisch nachvollzogen werden können (in der Hoffnung, dass sich das weiter vereinfachte Modell in allen Teilen des Computermodells nachvollziehen lässt). Daher werden sie externalistisch ›gelöst‹. Die Lorenz-Gleichungen betrachten wir als einen Fall par excellence, um den Übergang von einer internalistischen zur externalistischen Mathematik zu exemplifizieren. Gleichwohl könnte der Eindruck entstehen, dass unser Beispiel der Lorenz-Gleichungen zwar gut gewählt ist, um die externalistische Mathematik zu illustrieren, das Beispiel jedoch recht speziell ist und also in Frage steht, wie repräsentativ es für den Umgang mit mathematischen Modellen in der Computersimulation ist. Die Lorenz-Gleichungen beschreiben jedoch Strömungsverhalten und damit einen großen Bereich von Systemen. Viele andere nichtlineare Systeme lassen sich durch die Wahl ihrer bestimmenden Parameter dazu bringen, solcher Art seltsames Verhalten zu zeigen. Lassen wir uns dennoch weiter auf den genannten Einwand ein: Unser Punkt ist, dass in vielen Fällen apriori nicht bekannt ist, welche Eigenschaften ein mathematisches Modell aufweist (Bifurkationen, Singularitäten, seltsame Attraktoren). Genau das bedeutet: Es ist opak. Und selbst wenn die Eigenschaften durch analytische Verfahren bestimmt werden können (wie im Fall des seltsamen Attraktors), ist das nicht gleichzusetzen mit einer Prädiktionsmöglichkeit des Systemverhaltens. Opazität tritt also auf zwei Ebenen auf: Es ist nicht immer bekannt, (1) welche Eigenschaften ein mathematisches Modell aufweist und selbst, wenn diese bestimmt werden können, steht damit nicht fest, (2) wie sich diese konkret auf das Systemverhalten auswirken. Während (1) noch durch soziale Arbeitsteilung gelöst werden könnte (Mathematiker, welche die Eigenschaften von Modellen untersuchen), bietet dies für (2) keine Handhabe. Die externalistische Lösung ist – zumindest beim Stand der derzeitigen mathematischen Techniken – unumgänglich. Angesichts der immensen Zeit, die dafür manuell benötigt würde, sowie angesichts der damit einhergehenden erwartbaren Anzahl an Fehlern wird die externalistische Lösung des mathematischen Modells computerbasiert algorithmisch vollzogen. Dies wäre, wie noch zu sehen sein wird, kein besonderes Problem, wenn die errechnete Lösung des Gleichungssystems auf einem anderen numerischen Wege auf Plausibilität getestet werden könnte. Erfüllt die Lösung das Gleichungssystem mit der erhofften Genauigkeit? Exaktheit ist wegen der Unschärfe der Gleitkommazahlen nicht zu erwarten. Wie weit weicht die Lösung von gemessenen Daten oder den Lösungen anderer Modellierungsansätzen ab? Können die Unterschiede erklärt werden? Wie empfindlich ist die Lösung gegenüber Änderungen von Parametern? Können mit anderen Methoden Fehlerschranken berechnet werden? Dieser Übergang von einer internalistischen zu einer externalistischen Verhaltensweise zu mathematischen Modellen, kurz von einer internalistischen zu einer externalistischen Mathematik, ist verbunden mit einem Übergang in die externalistische Rechtfertigung. 270 Externalistische Rechtfertigung und Erfahrung Die Diskretisierung von gewöhnlichen und partiellen Differentialgleichungen führt bewusst zu Algorithmen, die nur approximative, eben fehlerbehaftete Lösungen liefern können. Dabei geschieht etwas Bemerkenswertes: Mathematik gilt als reine, das heißt als erfahrungsfreie Wissenschaft.35 Dies gilt jedoch nur für die internalistische Mathematik. Die in der Computersimulation operationalisierte externalistische Mathematik erfordert ein Erfahrungswissen.36 Erkennbar wird dies anlässlich der Rechtfertigung der jeweiligen Approximation. Die Güte der Approximation kann apriori nämlich nur in Ausnahmefällen mit technisch hinreichender Genauigkeit abgeschätzt werden, in den intendierten Berechnungsfällen aber nicht. Solche Ausnahmefälle, in denen die mathematisch korrekte Lösung bekannt ist, verhelfen zur Verifikation des Modells, der Implementierung des Algorithmus und ersten Einschätzungen seiner praktischen Verwendbarkeit hinsichtlich Ressourcenverbrauch und Genauigkeit. Weder Aussagen der Konvergenz (die diskreten Lösungen nähern sich der tatsächlichen Lösung der Differentialgleichung bei Verfeinerung des Rechennetzes an) noch der Stabilität (es existiert genau ein Grenzwert für sukzessiv verfeinerte Rechennetze und dieser wird approximiert) sind in relevanten komplexen Anwendungsfällen beweisbar, das heißt internalistisch begründet möglich. Der Entwurf der Diskretisierung erfolgt über Ansätze vereinfachter Probleme, die eine mathematische Analyse erlauben, welche gleichwohl noch immer bedeutende Schwierigkeiten enthalten kann. Die programmtechnische Realisierung des Algorithmus erlaubt nur eine externalistische Begründung, das heißt: Sie beruht auf Verlässlichkeit, Erfahrungswerte fließen ein. Erst im Nachhinein stellt sich die Qualität der Approximation in Relation z.B. zu Messungen in einzelnen Berechnungsfällen heraus. Die Beurteilung der Eignung des Algorithmus für Anwendungsfälle ist daher ein Prozess handwerklicher Erfahrung.37 35 (Reine) Mathematik ist keine Erfahrungswissenschaft. Sobald eine Aussage bewiesen ist, gilt diese unter den angegebenen Voraussetzungen. Vorwissen, Erfahrung der Person, die zum Urteil geführt haben, werden unwesentlich. Sie werden wieder wichtig in der Interpretation der Aussage in Relation zu einem realen Gegenstand, der zu der Aussage geführt haben oder auch ein vollständig anderer sein mag. Der Übergang von einer internalistischen zu einer externalistischen Umgangsweise mit mathematischen Gleichungen stellt unseres Erachtens einen Übergang in die Erfahrung dar. 36 Sicherlich erfordert mathematische Anschauungen viel Erfahrung von geübten Mathematikern. Aber es handelt sich dabei um eine Anschauung reiner Strukturen. Diese werden durch Ein- übung zunehmend besser verständlich. Anders im Kontext der Computersimulation: Erfahrung bedeutet hier ein Wissen um die Verlässlichkeit von Prozeduren. 37 Netze mit guter Qualität zu erzeugen ist eine arbeitsintensive, handwerkliche Aufgabe, die Erfahrung erfordert. Dem entspricht das Ziel, Netze automatisch zu erzeugen unter Kontrolle der sich entwickelnden Lösung. Die Idee, ein Netz fein genug zu machen, steht im Widerspruch zum Wunsch, den Aufwand der Berechnung und der Auswertung zu begrenzen. 271 Folgen der Umstellung von einer internalistischen zu einer externalistischen Mathematik Die Diskretisierung parametrisiert das zu lösende Problem zusätzlich durch die Wahl des Rechennetzes. Unter Umständen entstehen durch ein Netz mit lokal zu geringer Auflösung approximative Lösungen, deren Fehler größer ist als der erwartete mit ungewollten Artefakten, die als solche nicht unmittelbar erkennbar sind. Zeitlich instabile Lösungen können produziert werden, wo ein anderes Netz stabile erzeugen würde und umgekehrt. Ein feineres Netz löst feinere Strukturen auf, die auf gröberen verloren gehen. Aktuelle (2017) Ozeansimulationen zeigen beispielsweise ungleich mehr Wirbel in den wesentlichen globalen Strömungen als solche, die in den 1980er Jahren berechnet wurden, allein weil die damals weniger entwickelten Computer feinere Netze nicht zuließen. Noch feinere Auflösungen würden noch weitere kleinere Wirbel zeigen. Die wichtige Frage ist, ob diese bessere Auflösung schließlich zu einer deutlichen Änderung der globalen Strömungen in der Simulation führt, also der wichtige globale Fehler unvertretbar groß ist. Diese Fragestellung gilt für alle Strömungssimulationen. Die Feinstruktur der Strömung mag unwichtig sein für bestimmte technische Realisierungen, sie ist es aber nicht für das Spektrum der erzeugten akustischen Schwingungen, bedeutend für die Akzeptanz des Lärms eines startenden Flugzeugs zum Beispiel. In der mathematischen Opazität bleibt verborgen, ob und wenn ja, welche Phänomene durch eine bessere Diskretisierung getilgt werden oder erscheinen. Wohlgestellte vs. nichtwohlgestellte Probleme Die Folgen mathematischer Opazität können am deutlichsten durch die Unterscheidung wohlgestellter und nichtwohlgestellter Probleme charakterisiert werden. Ist ein interessierendes Problem wohlgestellt, dann ziehen schwache Änderungen in den spezifizierenden Parametern sowie Anfangs- oder Randbedingungen nur schwache Änderungen in den Lösungen nach sich. In solchen Fällen darf vom diskretisierten Problem zumindest erwartet werden (obwohl ein mathematischer Beweis aussteht), dass sich seine Lösungen ebenfalls gutartig verändern, wenigstens solange das Berechnungsnetz eine hinreichende detaillierte Auflösung besitzt. Viele wichtige Probleme der realen Welt sind aber nicht wohlgestellt; so auch die Probleme, die durch nichtlineare partielle Differentialgleichungen beschrieben werden. Dazu gehören die Strömungsmechanik im Allgemeinen und die Wetter- und Klimavorhersage im Besonderen. Wir gewinnen damit eine wichtige Erklärung zur Entstehung mathematischer Opazität in der Computersimulation. So kann eine kleine Änderung in den Anfangsbedingungen einer Wettersimulation eine wesentliche Änderung der Vorhersa- 272 ge nach sich ziehen, obwohl die Gleichungen selber einen stetigen Charakter haben. Bei vielen Systemen beobachtet man beim Überschreiten bestimmter Parameterwerte eine grundlegende Änderung der Lösungsstruktur. Das heißt, es können an singulären Punkten, in denen das System lokal seinen Charakter ändert (die Funktionalmatrix ist nicht regulär) Verzweigungen (Bifurkationen) auftreten, die in Abhängigkeit kleinster Unterschiede verschiedene Lösungszweige nach sich ziehen. Durch Ensembles mit mehreren einzelnen Simulationen wird versucht, die mögliche Vielfalt einzugrenzen und über statistische Analyse Wahrscheinlichkeiten zu berechnen, um den Raum aller möglichen Zustände des Systems in verschiedene Gebiete gruppieren zu können, in denen man das Verhalten der Lösungen besser charakterisieren kann. Diese Vorgehensweise ist dem deterministischen Ansatz fremd. Mathematische, soziale und technische Opazität am Beispiel der Klimasimulation Diese Erklärung lässt sich auf das eingangs genannte Phänomen der abweichenden Ergebnisse der wiederholt durchgeführten Klimasimulationsrechenläufe anwenden. Generell sind Abweichungen hier nicht verwunderlich, weil die diskretisierten Gleichungen nicht wohlgestellt sind. Das führte in den 1960er Jahren E.N. Lorenz zu dem schon erwähnten nach ihm benannten Attraktor, der den Verlauf aller approximativen Trajektorien im Phasendiagramm einer vereinfachten Strömungsgleichung mit nur drei Freiheitsgraden und drei Parametern zeigt. Das ist für nichtlineare Iterationen ein allgemeines Phänomen. Einer einzelnen Trajektorie zu folgen wäre im Sinne einer Vorhersage nicht sinnvoll, weil eine andere zunächst eng benachbarte von dieser schließlich deutlich abweichen würde. Eine Simulation kann also kein sinnvolles präzises Ergebnis im Sinn einer guten Vorhersage bei nicht scharf definierten Anfangswerten liefern. Sie liefert aber mit dem Attraktor eine Eingrenzung der möglichen Ergebnisse über alle Zeiten hinweg. Das Auftreten solcher ›seltsamen Attraktoren‹ ist nicht einfach vorherzusagen. Es ist nicht klar, ob der Attraktor der Differentialgleichung und der des diskretisierten Gegenstücks sich entsprechen. In diesem Sinn wird auch der deterministische Ansatz des Laplace’schen Dämons in Frage gestellt. Irritierend sind die Abweichungen in diesem Falle dennoch, weil dasselbe Programm auf demselben Rechner mehrere Male unter gleichen Bedingungen gelaufen ist. Sind die Abweichungen also Resultat eines Programmfehlers, z.B. einer unbeabsichtigt zufällig initialisierten Variable, die einen so geringen Einfluss hat, dass sie das Ergebnis zwar ändert, aber nicht unsinnig ändert? Mit Mühe kann ein solcher Fehler gefunden werden, kaum jedoch in einem Programm mit hunderttausenden Zeilen Code, das von Dutzenden von Programmierern geschrieben wurde. 273 Möglich ist auch, dass eine aus Effizienzgründen zufällig sich verändernde Reihenfolge im parallelen Programmablauf zu leicht veränderten, aber zunächst tolerablen lokalen Ergebnissen der Gleitkommaarithmetik führt, die dann jedoch wegen der Nichtwohlstellung in deutlichen Veränderungen des Gesamtergebnisses resultiert. Die Verdeutlichung solcher Abweichungen mag sinnvoll sein, um wie mit Ensembles einer größeren Anzahl von Läufen, die gewollt unterschiedliche Anfangszustände und Parameter haben,38 die Spannbreite des chaotischen Verhaltens zu zeigen. Das chaotische Verhalten selbst kann also immerhin in seiner Ausbreitung eingegrenzt werden (z.B. handelt es sich um einen Attraktor mit quasiperiodischen Eigenschaften oder einen seltsamen Attraktor) und taugt deshalb sehr wohl für eine Vorhersage, wenn der Zufall über Ensembles von Berechnungen zu Hilfe genommen wird, um das deterministische Chaos einzugrenzen. Dabei ist der Charakter des deterministischen Chaos ein anderer als die statistische Analyse nach einer Vielzahl von Einzelexperimenten, hier der Simulationen. Deterministische chaotische Systeme können erkennbaren Regeln unterliegen, die selber einen nichtchaotischen Charakter haben. Das Programmsystem (hier IKON), an dessen Entwicklung viele wissenschaftliche Mitarbeiter an mehreren Standorten arbeiten, eine Quelle sozialer Opazität,39 hat darüber hinaus einen technisch opaken Charakter; das unterliegende Modell der Atmosphären- und Ozeangleichungen eine notwendige mathematische Opazität im Sinne der theoretisch nicht sinnvoll vorhersagbaren Trajektorien. Das diskretisierte Modell weist zusätzlich unbekannte Quellen möglicher nichtlinearer parameterabhängiger Instabilitäten auf, die durch ihre Vielzahl als einzelne unkenntlich werden und deren Charakter nicht unmittelbar beschrieben werden kann. Das sind mathematische Opazitäten, deren Charakter möglicherweise notwendig oder relativ sein kann. Es ist noch nicht bekannt, welche Modi die jeweilige Opazität aufweist. Wenn das für die abgebildeten verschiedenen Lösungen zunächst dominante Problem geklärt und beseitigt werden könnte, bliebe unklar, welches weitere Problem welche weiteren möglichen Störungen verursacht. 38 Siehe z.B. http://www.dwd.de/DE/forschung/wettervorhersage/num_modellierung/04_ensemble_methoden/ensemble_vorhersage/ensemble_vorhersage_node.html (aufgerufen: 25.04.2017) 39 In der handwerklich geprägten Programmentwicklung mit häufig vielen Programmierern muss eine sozio-technische Opazität durch die pure Menge des erzeugten Textes mit seinen vielfachen wechselseitigen Bezügen hingenommen werden. Programmierfehler sind häufig nicht einfach zu entdecken. Möglich ist, dass Fehler erst nach langer Benutzung in Erscheinung treten und als solche erkannt werden. Möglich ist auch, dass Fehler als Feature der Simulation erscheinen, als unverstandene Artefakte. Möglich ist ebenfalls, dass Fehler allein in einer nicht entdeckten arithmetischen Ungenauigkeit bestehen. Vgl. dazu auch Symons, u.a.: »Can we trust Big Data?«, in: Big Data & Society 3. 274 Modi mathematischer Opazität und Chancen ihrer Auflösung Kann mathematische Opazität erkannt werden? Wir betrachten diesen Fall zunächst analog zu Nichtwissen. Demnach kann Nichtwissen gewusst oder ungewusst, auflösbar oder prinzipiell sein. Analog bestehen Chancen, das Vorliegen mathematischer Opazität zu erkennen, was – wie am Beispiel des seltsamen Attraktors verdeutlicht – nicht mit einer Auflösung gleichzusetzen ist. Erkennbar ist also zunächst, dass eine mathematische Opazität vorliegt. Im nächsten Schritt stellt sich die Frage, ob die Gründe der Opazität erkannt werden können, ob also deutlich gemacht werden kann, welche Umstände eine völlige Erkenntnis der mathematischen Probleme unmöglich machen. Zunächst könnte man argumentieren, dass die bisher diskutierten Quellen mathematischer Opazität zwar derzeit bestehen, dass sie aber grundsätzlich durch bessere mathematische Forschung aufgelöst werden können. Gehen wir zu dem Beispiel von Ludwig zurück,40 so würde das bedeuten, dass nicht nur mathematische Opazität, sondern alle Formen auftretender Opazität untersucht und aufgelöst werden müssten. Modi mathematischer Opazität Die bisherigen Überlegungen führen zur Idee unterschiedlicher Modi mathematischer Opazität. Humphreys unterschied essentielle und relative Opazität. Die Differenz nehmen wir auf und verfeinern sie. Mathematische Opazität im Kontext der Computersimulation kann einen der folgenden Modi aufweisen: a. Bewiesene Opazität: Es gibt Beweise dafür, dass die mathematische Opazität nicht aufgehoben werden kann. Der seltsame Attraktor ist ein Beispiel dafür. Das Vorliegen eines seltsamen Attraktors mag demonstriert werden können, das ändert nichts daran, dass seine Dynamik der internalistischen Einsicht entzogen bleibt. b. Ungeklärte Opazität: Es steht nicht fest, ob die mathematische Opazität bestimmter Gleichungssysteme beseitigt werden kann. Bis heute ist beispielsweise mathematisch nicht sicher, ob die dreidimensionalen Navier-Stokes-Gleichungen eine stetige Lösung über längere Zeiten aufweisen. c. Praktisch-notwendige Opazität: Zwar wäre es prinzipiell möglich, die Opazität zu beseitigen, aber die praktischen Schwierigkeiten dafür sind so groß, dass es gegenwärtig nicht oder kaum praktikabel erscheint, Transparenz herzustellen. Der Beweis des vier-Farben-Theorems ist ein Beispiel dafür. Er besteht aus 40 Ludwig: Reproducibility in Science, Computer Science & Climate Science, Vortrag in Leogang 08.03.2017. 275 zwei Teilen. Der erste bestimmt die Form der Demonstration (des Arguments) und ist strikt internalistisch, der zweite Teil, die Berechnung, ist dagegen externalistisch und führt eine praktisch-notwendige Opazität ein. d. Aufhebbare mathematische Opazität: Diese Opazität kann beseitigt werden. Hier nähert sich die mathematische der sozialen oder technischen Opazität an. Denn ihre Aufhebung besteht in der Regel darin, die technische Black Box auszuleuchten; oder die Experten zu finden, welche die Eigenschaften eines Gleichungssystems verstehen. Diese Opazitätsmodi lassen sich in der Computersimulation an verschiedenen Stellen identifizieren: Zunächst liegt die Opazität in der mathematischen Natur der betrachteten Gleichungen. Da wir die analytische Lösung der Gleichungen nicht kennen, können wir auch keine Aussage über die Lösung dieser Gleichungen machen, möglicherweise kann ein Beweis über Existenz und Eindeutigkeit von Lösungen geführt werden, ohne diese jedoch zu kennen. Die Opazität in der numerischen Methode, die zur Lösung der Gleichungen eingesetzt wird, ist zunächst als eine aufhebbare anzusehen. Da wir die Methode entwickeln, können wir bewusst bei der Konstruktion des numerischen Verfahrens auf die Vermeidung der Opazität achten. Die Mathematik kann sozusagen eine transparente numerische Methode entwickeln. In der Praxis sind numerische Verfahren jedoch oft nicht vom mathematischen Ansatz konzipiert, sondern pragmatisch-ingenieurwissenschaftlich geprägt. Dadurch entsteht eine mathematische Opazität, die jedoch durch mathematische Untersuchung der numerischen Verfahren prinzipiell aufgelöst werden kann. Im Algorithmus wird die numerische Methode für ein Programm umgesetzt. Die numerische Methode wird in Arbeitsschritte zerlegt, die ein Computer einzeln ausführen kann. Theoretisch ist eine derartige Umsetzung möglich. Praktisch jedoch kommt es durch die Zerlegung in eine Reihe von Arbeitsschritten zu einer Fraktionierung der numerischen Methode. Die mathematischen Folgen dieser Zerlegung sind schwer sichtbar bzw. nachvollziehbar zu machen, insbesondere, da in diesem Schritt der Übergang zur technischen Opazität der eigentlichen Berechnung erfolgt. In der eigentlichen Berechnung treffen wir auf eine technische Opazität, die nur noch in der mathematischen Beschränktheit der Zahlendarstellung auch Einflüsse der mathematischen Opazität zeigt. Konsequenzen und Strategien Wir haben in unserer Untersuchung gezeigt, dass die Simulation tatsächlich von verschiedenen Formen und Modi der Opazität geprägt ist. Insbesondere konnten wir 276 zeigen, dass mathematische Opazität in der Computersimulation zu einem zentralen, praktischen Problem wird. Das Beispiel der Klimasimulation zeigt anschaulich,41 wie sich die Opazität auswirken kann, sodass die Korrektheit des Ergebnisses nicht nachvollzogen bzw. nicht festgestellt werden kann; folglich ist auch nicht klar, welches der simulierten Ergebnisse als korrekt bezeichnet werden kann. Möglicherweise sind alle Ergebnisse innerhalb des Modells korrekt. Opazität, wie von uns beschrieben, sorgt also dafür, dass mindestens ein Teil des Prozesses der Simulation für den Simulanten verborgen bleibt. Logischerweise bleibt dieser Teil auch für jeden anderen Wissenschaftler verborgen, der den Prozess der Simulation eines konkreten Problems nachvollziehen möchte. Damit entzieht sich die Simulation in gewisser Weise der traditionellen Vorstellung von Wissenschaftlichkeit, bei der die Schritte, die zur Erkenntnis führen (logische Schlussfolgerung, Experiment), prinzipiell nachvollziehbar sein müssen. In anderer Form tritt diese Veränderung als Problem der Reproduzierbarkeit von Simulationsresultaten auf. Reproduzierbarkeit stellt neben Nachvollziehbarkeit eines der wichtigsten wissenschaftlichen Gütekriterien dar. Grundsätzlich bestehen zwei Möglichkeiten des Umgangs mit dem Opazitätsproblem. Wir können einerseits versuchen, Methoden zu entwickeln, um der Opazität zu begegnen. Bei einer sozialen und technischen Opazität ist dies in Grenzen vorstellbar. Die soziale Opazität mag zumindest durch eine Veränderung der sozialen Organisation von Wissenschaft gelindert werden können.42 Die Informatik kann ihrerseits Methoden entwickeln, um der technischen Opazität zu begegnen bzw. um ihre Folgen sichtbar zu machen. Die mathematische Opazität hingegen kann nicht einfach durch Entwicklung neuer Methoden verringert oder aufgehoben werden. Zwar ist grundsätzlich nicht auszuschließen, dass zukünftige mathematische Forschung Teile der mathematischen Opazität beseitigt, doch ist nicht mit einer vollständigen Auflösung der mathematischen Opazität zu rechnen. Alternativ bleibt der Wissenschaft, sich mit der mathematischen Opazität vertraut zu machen und sich darüber im Klaren zu sein, dass aufgrund ihres Auftretens die Computersimulation eine neue Art der wissenschaftlichen Erkenntnis ist, deren Grenzen am jeweiligen Anwendungsfall immer wieder auszuloten sind. In diesem Sinn wäre Computersimulation definitiv als eine dritte Säule der Wissenschaft zu betrachten, die nicht einfach als Spezial- (Computerexperiment) oder Mischfall (Theorieexperiment) dem klassischen methodischen Tableau eingegliedert werden kann. 41 Ludwig: Reproducibility in Science, Computer Science & Climate Science, Vortrag in Leogang 08.03.2017. 42 Vgl. Petra Gehring: »Doing Research on Simulation Sciences? Questioning Methodologies and Disciplinarities«, in: Michael Resch, u.a. (Hg.): Science and Art of Simulation I (SAS). Exploring – Understanding – Knowing, Berlin, Heidelberg 2017, S. 9–21. 277 Alfred Nordmann Four Horsemen and a Rotten Apple On the Technological Rationality of Nuclear Security Abstracts The technological rationality of nuclear security is not one of means and ends. Instead, it satisfies the technical demand of the international system of nuclear security that it be tended to, taken care of, calibrated, fine-tuned and maintained. Care for the working order of things – even where it appears obsolete or corrupt – is explored as a form of prudence (Klugheit) that extends to the so-called klu(d)ge. It requires a kind of attentiveness and feeling for the mechanism which is subject of Alexander Kluge’s political philosophy. Thus, what may appear to be a mere play on a word might provide analytic insight into the shift from political security concerns towards technical safety cultures. Die technische Rationalität der nuklearen Rüstungskontrolle fügt sich nicht in das Schema von Mittel und Zweck. Stattdessen genügt sie den technischen Anforderungen eines fragilen Sicherheitssystems, das gepflegt, gewartet und erhalten sein will. Diese Sorge um die Anordnung der Dinge – auch wo sie überholt, beschädigt oder korrupt erscheint – wird hier als eine Art von Klugheit interpretiert, die den einfallsreichen Notbehelf der »klu(d)ge« umfasst. Sie beruht auf einer Form der Aufmerksamkeit und einem Gefühl für Mechanismen, die Gegenstand von Alexander Kluges politischer Philosophie sind. Und so mag ein bloßes Wortspiel analytische Einsicht verschaffen in den Übergang von politischen Sicherheitskonzepten (security) zu technischen Sicherheitskulturen (safety). Can a play on words do philosophical work? The seductive question demands a sobering answer: Even if the resemblance of words were to mirror sympathetic relations among concepts and things, it would not be helpful to appeal to such obscure connections. If the following pages nevertheless follow the trail of a German word or rather its sound, this takes license from the fact that this paper had been invited into a sphere of paradox and unreason, namely the further development of game-theoretic conceptions of nuclear deterrence. For this theory and its MAD variants like »mutually assured destruction« it has already been shown that it marks an era »when reason almost lost its mind«.1 For deterrence to be credible it always had to impress rational actors that they are mad enough to actually launch a first or second strike.2 1 Paul Erickson, et al.: How Reason Almost Lost Its Mind: The Strange Career of Cold War Rationality, Chicago, Ill.: Chicago UP 2013. 2 Indeed, the problem of the retaliatory second strike is particularly puzzling and paradoxical: The second strike is necessary in order to deter a first strike, but once a first strike has taken place, deterrence has evidently failed. Why then retaliate at all since it can only escalate the path toward henceforth undeterrable mutual destruction? This predicament is known, of course, to all 279 To be sure, contemporary political theory with its conceptions of non-proliferation and deterrence does not play game theory quite so crudely anymore. Instead it speaks of »predictable deviations from rationality« that arise, for example, in arms control negotiations such as efforts to extend the NPT (Non-Proliferation Treaty). The deviation from rationality could be a feeling of not being respected properly or of being treated unfairly. To be sure, in a system that is essentially unfair, one might expect such feelings to arise – the NPT treats states that possess nuclear weapons differently from those that do not and is invoked to deny the aspirations of countries like Iran. So, perhaps, economic self-interest is not sufficient to model the reasoning of strategic actors but needs to be amended by »justice«, »fairness«, or »respect« not as normative conceptions, but as supposedly irrational psychological factors that influence the behavior of economic trading partners. When thus invited into deliberations of »predictable deviations from rationality« it is not clear on what grounds a philosophical argument can stand.3 On the one hand, it needs to expose the limits of rationality and show that actual deviations from rationality – if that is what they are – cannot be recovered in a rational calculus. On the other hand, it might point to another kind of thinking that does not involve the contrast of economic self-interest and moral sentiment. Perhaps, it can uncover a kind of prudence (in German, Klugheit) which is based in a technological feeling for a mechanism, for an organism, for an algorithm, or for the working order of a system quite generally. To thus explore the shifting ground on which as yet we cannot find our bearing, a play on words might be permissible and even do some work towards disorientation at first and orientation again. Predictable Deviations from Rationality The story begins with an anecdote about prudence and care, one that shall serve as a paradigm for rationality – of sorts. The anecdote is familiar, and as it happens, there is some historical truth even to embellished versions like this one. It takes place in Vienna before World War I. This is the Vienna that was a capital of modernism and urbanization, of advanced science and philosophy, it is Wittgenstein’s and Freud’s who contemplate a first strike. They must therefore be assured that the second strike will really happen, no matter how irrational it would be after a first strike has already taken place. 3 The workshop in question took place in October 2014 in Washington, DC. Organized by Anne Harrington, Jeff Knopf, and Miles Pomper for the Monterey Institute of International Studies, it was entitled »Real World Nuclear Decision Making: Using Behavioral Economics Insights to Adjust Nonproliferation and Deterrence Policies to Predictable Deviations from Rationality«. For a workshop report see www.nonproliferation.org/wp-content/uploads/2016/01/160112_beha vioral-economics-and-nuclear-weapons.pdf (visited: August 16, 2017). I would like to thank Anne as a driving force behind the IANUS network on changing Nuclear Condition(s) at the intersection of technology, politics, and philosophy. 280 Vienna.4 This was also the Vienna of the last decades of the Austria-Hungarian empire. And the emperor of that empire refused the amenities of modern life, such as running water, electric lights, flushing toilets. He refused these not because he lacked the means to have his castles and palaces upgraded as were the streets and houses all over Vienna. He refused these not because he was an eccentric old man, set in his ways and affectionately bound to tradition. He did this because he likened his empire to a rotten apple or feeble structure such that introducing even the slightest change could make it come apart entirely and might bring it to collapse. Evidently, he was deeply aware of how precarious his situation was. The modern world of electrical devices would require a different system of rule than that of an emperor, it would be maintained by an elaborate system of wires and grids. Perhaps, the emperor’s refusal to entertain technical improvements is at once a paradigm of rationality and a paradigm for a deviation from rationality, though a deviation that is predictable and thus a rational kind of irrationality, one that can be accounted for and understood, made sense of within the horizon of people caring for the world they inhabit. But then, how should we characterize the emperor’s deviation from canonical, formalizable, calculable, perhaps scientific conceptions of rationality towards an understandable, even predictable kind of irrationality? I suggested that this would be an anecdote of prudence and care, but we are not seeing here the kind of prudence that weighs options, that deliberates potential consequences, or that determines the appropriate means for a desirable end – all of which play into the prudential algebra, moral arithmetic, or calculus of pleasures that was first envisioned by Benjamin Franklin and then taken up by Jeremy Bentham.5 Though it is possible to squeeze the emperor’s reasoning into the straightjacket of this form of rationality, doing so would require the introduction of further premises or hidden assumptions. As it stands, the emperor is not seeking the means to prolong his rule, he is not weighing gains of luxury against loss of crown, he is not even saying that the final collapse of the rotting apple is a dreadful thing that needs to be avoided at all cost. He is simply tending to that rotten apple, doing what it takes to maintain it. By the same token, the emperor’s attitide also does not correspond to an ethics of care, because there is no consideration here of the moral value of what he is tending to, there is no concern for human suffering, not even his own, that is to be prevented or ameliorated, and there is no concern for the creation of conditions for peaceful living and human flourishing. 4 This anecdote is adapted from Alan Janik, et al.: Wittgenstein’s Vienna, New York: Simon and Schuster 1973, pp. 37, 41–42. Literally, the emperor did not speak of a rotten apple but a »worm-eaten house«. Janik and Toulmin quote him: »My realm resembles a worm-eaten house. If one part is removed, one cannot tell how much will fall« (ibid., p. 38). 5 See Benjamin Franklin’s letter to Joseph Priestley (September 19, 1772) in which he suggests a decision procedure or »what might be called Moral or Prudential Algebra«. From there it was but a small step to Bentham’s »moral arithmetic« or »felicific [hedonistic] calculus«. 281 A Working Order So, if there is prudence or Klugheit in play, it is a special kind of prudence, and what the emperor cares for and tends to is not a moral community or body politic but a way in which things are configured, in which they function, mutually support each other or work together. What the emperor tends to is an order of things, not necessarily a good order, but a working order. And apparently it is no trivial matter to maintain this order, since apparently it does not maintain itself, and we are in respect to it far from a condition of total information. We are thus in the sphere not of structuralism or constructivism but rather that of actor-network-theories. To maintain this order one needs a feeling for its mechanism, that is, a sensorium – to use Bruno Latour’s terms – for the length and strength of connections and the distributions of nodes in our network, for the quality of attachments, for obligatory passage points. But in a rather more technical idiom and more mundane than actor-network theory, one might draw on notions of people and things composed and maintained in a working order.6 It is from the standpoint of prudence or Klugheit, then, that one might make sense of the emperor’s irrationality, of his turning a blind eye to the unstoppable march of progress, perhaps even of his ostrich-like behavior of burying his head in the sand. Accordingly, I want to explore in the following how a calculating rationality deviates predictably towards working orders which are technological systems, broadly speaking, that need to be managed or maintained.7 Since game theorists and strategic thinkers of deterrence love to tell and investigate hypothetical scenarios, I will draw on fiction and the imagination – following the trail of the German word for prudence, namely Klugheit which makes a noun of the adverb klug that can been translated variously as wise, prudent, and sensible, not merely clever but clever in a mature and circumspect fashion. 6 Evelyn Fox Keller famously spoke of Barbara McClintock’s »feeling for the organism« as a particular capacity of sensing and reasoning in science, see her A Feeling for the Organism: The Life and Work of Barbara McClintock, San Francisco: Freeman and Company, 1983. For reasons that should become clear, I prefer to speak here of a feeling for the mechanism, that is, for a system or working order more generally, see Alfred Nordmann: »Das Gefühl der Welt als begrenztes Ganzes. Sachlichkeit«, Zeitschrift für Kulturphilosophie 8/1 (2014), pp. 89–99 and Alfred Nordmann: »Werkwissen oder How to express things in works«, in: Gerhard Gamm, et al., eds.: Jahrbuch Technikphilosophie. Ding und System, Zurich: diaphanes 2015, pp. 81–89. 7 If I speak of working orders and managed technical systems interchangeably, I do so without reference to systems theory or the non-linear dynamics of complexity. Though it might be worthwhile to explore points of contact. I am not requiring that the systems in question are »complex« in the technical sense of that word – they are more or less complicated, comprehending within themselves a greater or smaller number of processes or parts. 282 Die Kluge The first of my scenarios of Klugheit comes straight from a fairy-tale by the Brothers Grimm and features a very sensible woman.8 It poses in a personal and personable way the question regarding a predictable deviation from rationality. In my retelling of the story, the protagonist is a king who marries a woman because he is impressed by her Klugheit. As one might expect in a feudal system of power, this backfires very soon. In front of his wife, he rules unjustly in a case that is brought before him. So blatant is his injustice that his wife goes behind his back to advise the losing party, suggesting that a kind of reductio ad absurdum be staged to expose it. When the king sees it, she assumes, he must mend his ways and reverse his judgment. Far from it, however, he immediately senses the hand of his wife in the ruse, her going behind his back and subverting the ruling. Obviously she needs to be punished and he kicks her out of his castle allowing her to take with her only the one thing that she loves most dearly. And so she sedates the king with a potion of hers and takes him with her away from the castle. When he awakens in a trunk he is utterly delighted – not because of her declaration of love but because of her Klugheit, for that is what she truly is, eine Kluge. Now, when the King kicks out his wife, does he know what she will do? From the beginning of their relationship, he has surrendered to her Klugheit, and now again he saves face by daringly entrusting his happiness to her. His own Klugheit or prudence lies in this surrender. The administrator of justice steps down, so to speak, and gives up his position of calculation and judgement. He maintains the order of things by deferring to its workings. It is not just her prudence, then, that is at play here, but theirs. The conflicting forms of rationality that are required for the administration of justice and for the maintenance of a commonwealth become attuned to each other as they engage in what Andy Pickering has called – but never fully analyzed – a dance of agency.9 The king exerts his legal authority by punishing her and she accepts the punishment. And by doing so she tends to the working order of which he knows her to be an indispensable part.10 8 In Margaret Hunt’s translation, »Die kluge Bauerntochter« was rendered »The Peasant’s Clever Daughter«, see Jacob and Wilhelm Grimm, Household Tales, London: George Bell 1884 and 1892, 2 volumes. The peasant’s daughter then became Die Kluge in an opera by Carl Orff. 9 The notion of a »Dance of Agency« was developed in Andrew Pickering: The Mangle of Practice, Chicago, Ill.: Chicago UP 1995. 10 It is worth considering in those terms the technical, procedural, bureaucratic administration of justice more generally. 283 The Kluge The second scenario of Klugheit is firmly based in reality and only needs to be reported from the ground floor of technoscience and engineering, climate modelling and computer simulations, also from synthetic biology and lo-tech tinkering. It concerns an abandonment of what is called rational design engineering and simultaneously the rise of a rational strategy to compensate this failure of rationality. Rational engineering is based on knowledge and principles. In its most ideal form, it consists in the construction and mere implementation of a blueprint. Just by thinking about a problem and bringing the relevant knowledge to bear, rational engineering can devise an intellectually tractable solution, one that can be understood or derived by technicians from plans and drawings just like musicians can read a musical score. When the problems and required solutions become intractably complex, however, other approaches must be sought. Software engineers and modelers might first construct a knowledge-based prototype and then begin a process of systematically tuning it to achieve the desired performance. In order to do so, modules and routines are added, the augmented system tested against expectations, further modules added, parameters changed, correction routines incorporated. Soon the engineered system becomes intractably complex, a maze of modules and routines and no one knows quite what each component does, yet unwilling to pull it out since it might just support the overall working order. The situation soon becomes not at all unlike the rotten apple. Indeed, to this day the Federal Aviation Agency is reluctant to abandon a flight control system that works with outdated computer hardware, unsupported operating systems, archaic software – at least it has been debugged, is in working order, and relies in specific ways on human intelligence.11 To replace the rotten apple with a new system that utilizes the much-enhanced processing power of modern computers may carry too many risks, as fatal bugs would inevitably be discovered and human intelligence cannot keep up. When they are in the business not of implementing rational plans but of achieving and maintaining a working order, engineers adapt their standards of rationality accordingly. This is where the kluge or kludge comes in. It offers a standard for judging engineering solutions: »Klumsy Lame Ugly but Good Enough« (KLUGE) – with »Dumb« sometimes added to make it a KLUDGE. As in all the predictable deviations from rationality discussed here, we here find something dumb that is good enough, we find something which satisfies the requirements of the working order without satisfying intellectual requirements of rationality. As such, it fits into an opposition proposed by Herbert Simon – it provides an example of »satisficing« as op- 11 The Wall Street Journal reported on August 16, 2015, that 476 flights had to be cancelled due to a software update in the flight control system which was then retracted immediately. 284 posed to »optimizing«.12 While kluges are most prominent in software engineering, a piece of photographic evidence from a mundane bookstore beautifully exemplifies how the kluge is an insult to human intelligence and at the same time a tribute to human ingenuity. Along with many other kluges, it appeared on the website »there I fixed it« and features a stack of books lying sideways in a bookseller’s shelf. Bold letters run across twelve of the volumes in the stack and spell the message: »These books are here for an essential structural purpose. They are not for sale.« In other words, the shelf might collapse if a book lover were foolish enough to take a volume from a stack that is evidently used to support the shelf – presumably, the other books in the store are for reading.13 Alexander Kluge With the klu(d)ge, we decisively shifted from the management of a social order to the management of a technical working order. The commonality between these modes of management is a major theme in the work of Alexander Kluge who is, along with Jürgen Habermas, perhaps the most prominent and interesting among the last members of the Frankfurt School of critical theory. The philosopher, political theorist, lawyer, filmmaker, television producer, and prolific author of non-fictional literary fictions is a story-teller who explores the forms of rationality that tend to the working order of humans, that is, to the working order of a federation of cells and their sensory modalities in a world that needs to be judged primarily as hot or cold, accommodating or resisting, rigid or malleable, trustworthy or treacherous. Kluge’s stories read like reports, they are sober renditions of the course that a life can take, of a scientific experiment, of a one-time encounter, of the battle at Stalingrad, of the bombardement of Halberstadt, of a transaction during the financial crisis. They are narrated with such matter-of-factness and so deeply entrenched in familiar historical contexts that one can never be quite sure whether they concern a real or an imagined event. Accordingly, Kluge’s imagined or invented stories meet a high standard of realism – it is the reader’s knowledge and experience of the world, 12 See Herbert Simon: »Rational Choice and the Structure of the Environment«, Psychological Review 63 (1956), pp. 129–138. To be sure, kluges also serve to optimize some given system by adapting it to achieve a desired performance or behavior. The system will fail to be optimal only in respect to notions of rational design and attendant notions of maximal efficiency. 13 I encountered this image in an inspiring presentation by Maureen O’Malley on kluges in synthetic biology. While it appeals especially to philosophers and other book-lovers, the thereifixedit.com website offers many amusing examples. One offshoot of all this is Gary Marcus’s popular science book Kluge. The Haphazard Construction of the Human Mind, New York: Houghton Mifflin 2008, which conceives of the mind as a clumsy and inelegant solution to the problems posed by its environment. It thereby suggests a theory of unintelligent design for the emergence of mind. 285 after all, that render these fictions as something that may as well have happened. This is true also when Kluge writes about strategic decision-making in military contexts. In the collection Die Lücke, die der Teufel lässt, Kluge groups a number of his semi-fictional anecdotes around the 2003 Munich security conference and thus around the ways of making sense of the 9/11 terrorist attacks and their aftermath. He »reports« a conversation between two experts and thereby introduces the suggestion that the response to the act of terrorism did not follow a logic of warfare (Kriegslogik) but a logic of seeking out realities (Logik der Wirklichkeitsfindung) – an enemy had to be found who could answer to the weapons in the arsenal.14 Two pages later he features another conversation, supposedly cut short by the need to get a cup of coffee before the end of the break. It concerns the accidental shooting down of a British plane by US forces, and whether the same could have happened to a US plane. One of the experts denies this, citing the technical superiority of the US weapons systems. The following exchange ensues: » - But it is crucial for the coalition that us partners are seen as military equals. - That’s where the problem comes in of unsoundness in war (Unwahrheit im Krieg). War takes everything apart that isn’t sound. In that way, it is the harshest critic. - You ascribe intelligence to war? - Not intelligence but analytic power.«15 In both episodes, the working order of a military system with its technological capabilities demonstrates its power to render salient certain features of reality and thereby to constitute a reality in which some are answerable and some are not, in which conceits are exposed as illusory. This identification of salient features and probing of conceits illustrates the analytic power of the machinery of war itself and not of the strategic thinking of anyone who deploys this machinery. This, at any rate, is how the experts, the machinists of war, would talk. It is decidedly not the language of politics, of reason or rationalization. The logic of finding a fit is featured also in one of Kluge’s early books, one of the few of his literary works that were translated into English. Lieutenant Boulanger took on a gruesome task, supposedly in the service of science, and definitely in the context of German atrocities during the Nazi period. The perversely precise execution of his task required a kind of stringency, however, that proved hard to attain in practice: »The strong possibility of error made it seem advisable to discontinue the mission altogether. By the same token it followed that, if the mission were continued, the errors must be tolerated and allowed for in the calculations. So Boulanger was beset by endless 14 See Alexander Kluge: Die Lücke, die der Teufel läßt, Frankfurt am Main: Suhrkamp 2003, p. 618. 15 Ibid., p. 620. 286 doubts, but he felt that these doubts must not be permitted to hamper the careful and conscientious execution of his mission. It was therefore important to him to convey his ideas and good intentions to an area where they could not harm the performance of his duties: during the period he read philosophical works […]«.16 Here, then, the apparently unavoidable deviation from rationality forced Boulanger towards the sphere of pure reason – one in which such deviations need not be countenanced. The weapons in his arsenal and his good intention to fastidiously execute a plan demanded a reality that is answerable to the plan. However, the arena of politics and war did not provide this reality, but required instead other ways of engaging with real world problems. The mission could only be continued, therefore, if an outlet could be found for the scientific spirit, that is, another reality in which good intentions (ein guter Wille) can be realized. In the philosophy of Kant – most likely the one that Boulanger turned to – it is the Reich der Zwecke (sphere of ends) as opposed to the sphere of nature or the fog of war that provides the playground for the good will and its rational means to evaluate maxims of action. In the case of Boulanger, therefore, the desire to compensate the deviation from rationality and to return to the realm of reason is itself a predictable deviation from rationality. Reading the philosophical works of Kant is Boulanger’s klu(d)ge, that is, it is his way of acknowledging the analytic power of war as well as the prudence and care required for tending to the maintenance even of a rotten apple. Attunement For Lieutenant Boulanger to function properly and continue his mission, he needed to be tuned or calibrated properly. If practical conditions were too error-prone, preventing him to continue in good conscience, he needed to find relief in another sphere. This requirement of his inner machinery or working order was more important than the theoretical question of whether his philosophical readings were consistent with the atrocities he had to commit in pursuit of his mission. In one of Kluge’s films – The Power of Feelings (Die Macht der Gefühle) – there is a brief scene where a stodgy mechanic explains the art of fastening a screw. The upshot of the explanation is that, no matter how fat one’s fingers, one has to do this with feeling. Force needs to be exerted, of course, but neither too little nor too much – it has to be a force that does not force the screw. In the act of fastening the screw the mechanic acknowledges the resistance coming from the material since he experiences the response of the screw to the force exerted by him. He is also engaged in a 16 See Alexander Kluge: Attendance List for a Funeral, New York: McGraw Hill 1966, pp. 119– 120, see p.115. 287 dance of agency which Kluge likens to love-making – when lovers want to be touched just right, firmly but not clumsily, responsively and without violation. In another scene of that same film, Kluge introduces by way of his characteristically wry voice-over a prostitute who will be the heroine of the episode to come. »Betty’s secret of her trade: 1. precision 2. gentleness 3. no particular feeling But it takes a great deal of feeling to maintain these three things all at once.«17 Betty has to be no less circumspect than the mechanic, in fact she is a »machinist of love«.18 And when fastening his screw, the mechanic has to be no less sensitive and responsive and precise than Betty. Kluge refers to their feelings for the mechanism as Sachlichkeit which is an attitude analogous to but very different from that of objectivity in science:19 Objectivity is an intellectual attitude of neutrality or detachment for the purpose of facilitating intersubjective agreement among people. Sachlichkeit is the requisite attitude for becoming attuned to the requirements of a working order for the purpose of establishing what one might call an interobjective agreement among devices. Sachlichkeit seeks attunement to a socio-technical system for the purpose of maintaining, managing, reconstructing, modulating, steering or developing it such that its component parts – people and things and their relations – mutually support or agree with each other. As an epistemic attitude or way of beholding and relating to things, Sachlichkeit enculturates a feeling for the mechanism of a working order, a way of knowing one’s way about the composition of things, their relative standing to each other, their sensitivity to displacements. It aims for a theoretically informed practical knowledge of all that it takes to keep a rotten apple from coming apart. »Attunement« is the achievement of Sachlichkeit, it is knowledge of a working order and as such corresponds to prudence and care as we first encountered it in the story of the Viennese emperor. Attunement is deeply implicated in a status quo but cannot simply be identified with political conservatism – it is neither committed to preserving the present nor is it afraid of change. Instead, it takes its knowledge of a present working order as the only material for building or making a world, including a new and different world: The present working order has to be acknowledged as the primary resource for any future working order. In this sense, as Kluge writes, one has to be conservative in order to be progressive. Historical catastrophes (totalitarian 17 Alexander Kluge: Die Macht der Gefühle, Frankfurt am Main: Zweitausendeins 1984, p. 145. 18 Kluge first conceived this scenario in »Das sabotierte Verbrechen. Entwurf für einen Spielfilm« in Alexander Kluge: Gelegenheitsarbeit einer Sklavin. Zur realistischen Methode, Frankfurt am Main: Suhrkamp 1975, pp. 23–51. Here, he refers to the prositute as a »machinist of love« (p. 29). 19 For the following, see the paper on »Sachlichkeit« cited in note 6 above. 288 systems, genocides, wars) arise when something new is introduced prematurely and when the old is defended beyond its time – they result from a lack of attunement to the right moment when change is necessary, when its time has come.20 To be attuned consists in being implicated with a working order but does not therefore attach moral or political value to its preservation. All the while it tends to the working of things in a way that acknowledges and thereby values them: Attunement exemplifies sensitivity and attentiveness, selfless engagement, humility toward the powerful reality of facts. These are managerial virtues that allow for the modulation of complex systems. They come to the fore when strategic rationality loses its bearing or is not brought to bear in the first place.21 In Good Hands To the non-expert reader of the daily paper, strategic thinking no longer governs the discourse of nuclear (non-)proliferation or disarmament. The dangerous presence of the bomb is to be contained not by way of deterrence, mutually assured destruction, and related concepts – that is, in reference to the bomb as a weapon or to an arsenal of weapons with a certain destructive power, mode of delivery, and battlefield impact. Instead, the dangerous presence of the bomb is to be contained by way of tracking, monitoring and regulating the flow of fissile material, by tending to the physical integrity of arsenals, by implementing technical safeguards – that is, in respect to the bomb as a generalized destabilizing hazard not unlike climate change or environmental pollution, raising questions of the whereabouts, quantity, and quality of plutonium, questions regarding the effects of age on nuclear arsenals, or the deployability of more and less disassembled weapons. This shift of focus comes along with a shift from a political to a managerial discourse, from strategic questions of power to technical questions of maintenance.22 The overriding question appears to 20 See Alexander Kluge »Das Politische als Intensität alltäglicher Gefühle. Theodor Fontane«, in: Alexander Kluge: Theodor Fontane, Heinrich von Kleist, Anna Wilde, Berlin: Wagenbach, 1987, pp. 7–18, esp. p. 16–17. Accordingly, perhaps, Kluge’s production company is called Kairos. – Authors as diverse as Nelson Goodman and Karl Marx also made what is only an apparently trivial point: The material for making a new world must be available already in the given world. 21 Another episode from Kluge: Die Macht der Gefühle illustrates this in his characteristically laconic style: Its protagonist is a match-maker who seeks to bring the required precision to her task and recognizes the need for ultrafine-tuning. Match-making would be easy, she notes, if everyone had only one feeling or sensory modality, but the problem is that all people have all sensory modalities. Match-making is thus not a matter of fulfilling a wish or executing a plan, but one of finding or forging a fit beween two material systems. See Kluge: Die Macht der Gefühle, p. 126. 22 To be sure, this brings to the fore that power may have less to do with the ability to enforce political objectives and more to do with the general technical and managerial competence of a knowledge society. 289 be: Is the bomb in good hands, to whom can it be entrusted, what engineering capabilities, which public institutions or systems of governance are required to ensure the (relative) safety of the global arsenal?23 The apple is rotting. During the times of the Cold War, the precarious equilibrium of strategic threats had its own working order. It could be trusted and, in fact, had to be trusted in many ways. The weapons were carefully monitored, subject to permanent surveillance from many points of view. They were closely watched through the eyes of one’s own strategists, technicians and engineers, military personnel, local opposition forces, but also through the eyes of friends and foes, international agencies and monitoring groups. Everyone was attending to the weapons for different, perhaps conflicting reasons, and yet the many observations were maintained in a relation of mutual support. The weapons themselves became fixated and paralyzed at their center of attention. When the so-called »four horsemen« (Henry Kissinger, George Shultz, William Perry, Sam Nunn) and political leaders like Barack Obama have called for a world without nuclear arms, it is because they are worried about the break-down of this working order.24 In their view, the current modes of monitoring, proliferation, negotiation, and sanctioning represent a deviation from the Cold War rationality of deterrence with its system of mutual checks and balances. Accordingly, they call for adequate ways of controlling material flows, of regulating access, of instituting transparency and accountability. Their question is a technical question: Given the halflife of plutonium and given the volatility of systems of government in many parts of the world, how does one institute a robust international system of arms-control? Thus, they worry only secondarily whether the weapons might get into the wrong hands, politically speaking and in the short term. They pose primarily a question from within a technologically advanced, economically and politically robust knowledge society – aside from the United States, who can be counted upon to reliably provide the necessary know-how in the long term? Who can take responsibility for the management of what was once and is no longer a denumerable, firmly circumscribed set of nuclear things? This point can be further developed by briefly considering three other aspects of the current state of debate: First, as Christopher Daase has pointed out, the extension into the future of the nuclear privilege of weapon states in the NPT becomes ques- 23 We are here reminded that the notion of governance derives from the steam engine’s governor – it implies regulation through feedback. 24 This, to be sure, is the impression of the aforementioned non-expert reader of the daily newspaper – who fully expects that the experts would offer a far more complex, and also more political reading of the political agenda of these elder statesmen. For the texts that might be encountered by this untutored reader see, for example, Eben Harrell: »The Four Horsemen of the Nuclear Apocalypse«, Time magazine, March 10, 2011, online at http://science.time.com/ 2011/03/10/the-four-horsemen-of-the-nuclear-apocolypse/ (visited: August 16, 2017). 290 tionable when this privilege no longer serves to maintain a taboo in times of strategic conflict but when it somewhat arrogantly declares whose hands are the good hands such that they can be entrusted to carry out a managerial process. Inclusion and exclusion can be justified more easily on the criterion of the possession of nuclear weapons, it becomes contestable if the criterion is the cultural competence of handling with due diligence and care a dangerous and globally endangering commodity.25 Second, this may prove to be the reason why some of the non-nuclear states like Norway, Austria, Mexico are seizing the moment to claim that, if anyone, they are best suited to frame the question or redefine the terms of the debate. They wish to bring the humanitarian consequences to the fore and thus the mishandling of the bomb, irrespective of a balance of power or terror.26 Finally, when the question is one of maintaining or recreating a safe working order for a dangerous technology and when the arms race is taking place between knowledge societies and their claims that the technology is with them in good hands, the general technical capabilities of these societies become increasingly important. The responsibility of diplomats and negotiators in the political and military sphere to create conditions for global security is shifting to the maintenance, broadly speaking, of a safety culture in civil society. If this diagnosis is correct, the rules of the game have changed as has the rationale for inclusion and exclusion in the club of nuclear-weapon states, and the definition of the community of responsible actors. The global challenge is defined not as preserving peace or security in an age of ideological conflict and competing national interests. Instead, the challenge is one of tending to a working order of nuclear safety and safeguards. Issues of proliferation and disarmament, transparency and control now appear in the collective consciousness as analogous to the global threat of climate change. Both put national and stakeholder interests into a managerial mode. The Earth and the Bomb need to be handled with care – grounded in the perhaps illusory hope that in good hands, with a technical mindset, and attunement to the complexity of affairs, the challenge can be met and the danger contained. 25 See Christoper Daase: »Die Konstruktion normativer Singularität – zu Entstehung und Wandel des nuklearen Tabu«, in: Constanze Eisenbart, ed.: Die singuläre Waffe? Was bleibt vom Atomzeitalter, Wiesbaden: Springer 2012, pp. 185–206. Hugh Gustersson has spoken in this context of an indefensible »nuclear orientalism«, see his »Nuclear Weapons and the Other in Western Imagination«, Cultural Anthropology 14/1 (1999), pp. 111–143. 26 This initiative came to fruition when the UN on July 6, 2017 adopted a treaty to prohibit nuclear weapons, www.un.org/disarmament/ptnw/index.html (visited: August 16, 2017). 291 Hazardous Waste At this point it may appear as if I wanted to recommend or valorize an engineering approach that abstains from moral and political judgement but brings to the table the requisite understanding for maintaining, modulating, recreating a working order or technological system. This is not the case. I am arguing merely that one need to take seriously the different modes of conceiving the problems that are in need of solution – not only because the definition of a problem entails a conception of its solution and the reasoning processes adequate to it. If only for heuristic purposes we should attend to the implications of a shift from the logic of warfare and deterrence to a logic of attunement and trust – attunement to a working order and trust in the good hands of technical expertise. In conclusion, here are some of these implications, briefly stated. First of all, the acquisition of working knowledge and the ability to maintain and modulate a working order does nothing to justify technocratic approaches or to enthrone the expertise of managers and engineers. As the case of the klu(d)ge served to remind us, deviations from strategic rationality coincide with deviations from topdown engineering or rational design. The situations in which working knowledge comes to the fore are highly ambivalent, whether it is the challenge of maintaining a rotten apple or of managing material flows in an ageing nuclear arsenal. In these situations, rational decision making is of the kind where a security update is scheduled to the operating system of a computer and users wonder a bit nervously whether it is really such a good idea to install the update. Not only the readers of Charles Perrow’s Normal Accidents will wonder whether the security updates might increase the complexity, perhaps instability, perhaps insecurity of the operating system.27 And of course, with the end of the Cold War, the operating system of nuclear security has been changed, prompting us to ask anew what are the conditions for stability and security. Secondly, as Günther Anders has pointed out, with nuclear weapons came a profound reversal. Up until the 20th century and even now in terms of the implicit normativity of any conception of politics, the development of technology took place within the horizon of history. Notions of progress, of meaning, of human welfare provided orientation to the diffusion, assessment, appropriation, and regulation of technology in and by society. Owing to the brute facticity of the bomb and its irrevocable dangerous presence, history has been taking place within the horizon of technology, anxiously concerned to address the requirements of peace, to answer and mitigate more or less imminent but undeniable technological threats to human sur- 27 See Charles Perrow: Normal Accidents. Living with High-Risk Technologies, Princeton, NJ: Princeton UP 1984. 292 vival.28 This grand instauration of the bomb as the center of attention and concentration of power has gone unquestioned by strategic efforts to institute a system of effective mutual deterrence. It goes equally unquestioned by the technological or managerial mode of tending to the working order of the nuclear machinery. In this sense, there is still no alternative that might break the spell of the Bomb and that might reestablish politics, morality, history as the horizon within which problems can be addressed like climate change or the hazardous waste of a post-Cold War nuclear arsenal.29 Finally, the analysis provided here serves to confound the notions of nuclear safety and nuclear security and in this sense blurs the boundary between concerns with nuclear energy and nuclear arms. Nuclear engineering and its working knowledge provides a common denominator for the otherwise distinct challenges of on the one hand hazardous waste and the safety concerns associated with nuclear power, and on the other hand the hazardous »waste« that appears as the material shadow of the weapon – which is all that is left behind when strategic thinking whithers away and the question arises of creating a regime that can reliably manage the radiant remains of a former nuclear working order.30 The technological rationality of nuclear security is not one of means and ends: The ballistic missiles that are aiming at each other are not the means for the achievement of deterrence, nor is the whole machinery of deterrence a means for the maintenance of peace (or for a deferral of ineluctable catastrophe). The insane logic of deterrence, its required deviations from rationality cannot be fitted into the sober schemes of means and ends. Instead, the technological rationality of the international system of nuclear security lies in the technical demand that it be tended to, taken care of, calibrated, fine-tuned, maintained. No matter how precarious it is – a rotten apple, indeed. 28 Here it becomes apparent again that climate change currently inhabits this space. 29 This point, in particular, is indebted to Anne Harrington and Matthias Englert – and their interest in »nuclear philosophy« which they defined as bringing »tools of critical analysis to bear on problems of nuclear policy. The goal is to recover space for human agency within the debate about nuclear security by transforming nuclear weapons from the subject into the object of the discourse« (quoted from their blog http://blog.nuclearphilosophy.org/?p=7, visited: August 16, 2017). 30 As Matthias Englert has pointed out (in conversation), the Ukraine provides a case in point. Once firmly entrenched in the regime of civilian nuclear power and Soviet nuclear weapons, Chernobly and the Crimea speak of radiant remains and the difficulty of containing them, that is, of keeping sites and arsenals safe. 293 Archiv Alexander Kluge Heiner Müller und »Die Gestalt des Arbeiters« Der folgende, kurze Text ist ein vollständiger Wiederabdruck aus: Alexander Kluge: Chronik der Gefühle. Band 1: Basisgeschichten, Frankfurt am Main: Suhrkamp 2000, S. 56–57. Anstelle eines einführenden Vorworts verweisen wir auf den Schwerpunktbeitrag von Wolfram Ette in diesem Jahrbuch, der eine ausführliche Kommentierung und Interpretation der Erzählung bietet. Wir danken Alexander Kluge herzlich für die freundliche Abdruckgenehmigung. Herakles, sagt Heiner Müller, verkörpert in den Mythen als erster die »Gestalt des Arbeiters«. In einer von Göttern auferlegten Verwirrung tötet er »das Liebste, das er hat«, darunter seine Kinder, seine Frau, zündet das Haus an. Geistesabwesend verhält er sich zerstörerisch »auf entsetzliche Weise«. Daraufhin verdingt er sich bei dem Tyrannen Eurystheus, der ihn ‑ um HerakIes als Arbeiter zu verschrotten, d.h. Nutzen zu ziehen, eigentlich aber: um ihn zu vernichten ‑ mit zwölf Aufträgen versieht, die sämtlich auf etwas Unmögliches gerichtet sind, wie Eurystheus meint. Herakles aber zerteilt diese Unmöglichkeiten in Einzelschritte, panzert sich gegen Zweifel und Schmerz und vollbringt diese »Werke«. Er fügt, sagt Heiner Müller, eine uns unbekannte dreizehnte Leistung hinzu. Es geht um eine ins Unendliche gerichtete, die Gegenstände verändernde Tätigkeit, einschließlich des Tötens und Beseitigens, um die Gestalt einer »lebendigen Maschine«; zuletzt ist sie gefangen in einem giftgetränkten Netz, das das Innere verbrennt. Aus Furcht vor Strafe wagt es keiner, dem Befehl des HerakIes zu folgen, den Scheiterhaufen anzuzünden, auf den er sich gesetzt hat. Wer hat sich das, fragt Heiner Müller, ausgedacht, eine Erzählung, die lange vor der Zeit handelt, in der Prometheus an die Felsen des Kaukasus gekettet wurde? Als Kind aber wurde dieser Herakles, Sohn des Zeus und der Alkmene, an die Brust der schlafenden Muttergöttin Hera gelegt. Entweder weil er des Saugens müde war und Reste der Milch beim Absetzen verspritzte oder weil die betrogene Göttin aus ihrem Schlaf erwachte, den Säugling von ihrer Brust riß und dadurch Milch verschüttete, entstand der Riesenbogen der Milchstraße, die wegen dieser Geschichte in der Winternacht ihren Namen trägt. Die Erforschung des Kerns der Milchstraße ist jedoch ein Arbeitsbereich der Astronomie. Inge Werdeloff hat vor kurzem auf dem Kongreß der »Gesellschaft für Astrophysik« in Aspen/USA in Erfahrung gebracht, daß sich im tiefen Inneren der Milchstraße eine GRAVITATIONSFALLE befindet, welche die kreisenden Spiralarme und die oberhalb des Halo sich formierenden Wolken aus schweren Neutrinos zu 297 ihren Bewegungen veranlaßt. Eine gigantische, organische Konstruktion, sagt Dr. Inge Werdeloff, und keineswegs eine »Himmelsmaschine«. Jede mechanische Deutung dieser Himmelsarbeit, sagt sie, sei abwegig. Sie habe das in kompetenten Vorträgen so gehört. Aus eigener Forschung weiß Dr. rer. nat. Werdeloff (aber was heißt eigen, wenn zu einem Forschungsergebnis 100 der seltenen Astronomiegeister zusammenwirken müssen), daß die gewaltigen Gravitationsmassierungen, die wir Gravitationsfalle nennen, weil sie sozusagen als »Geiz des Weltalls« alle Materie und Energie in sich hineinziehen, wiederum aus Durchlässigkeiten bestehen. Die Quantenmechanik beweist das. So zeigt dieser Geiz, sagt Dr. Werdeloff, alle Zeichen einer »abstrakten Genußsucht«; aus allen Poren gibt die Gravitationsfalle Substanz nach außen. So daß immer erneut Universen entstehen müssen, parallele Welten, die gemeinsam die Läßlichkeit der Natur (Goethe) zeigen. So zeigt das »Weltall als Gestalt des Arbeiters« überhaupt keine Tendenz, sich von einem Anfang in ein Unendliches oder auf ein Ende hin zu bewegen, sondern es gliedert sich in Vielfalt und Einfachheit, so daß immer eine Gegenbewegung, eine Gegenwelt die Erscheinung begleitet. Deshalb trägt der tief frustrierte Herakles die Säulen der Welt auf seinen Schultern, die doch seit kurzem eingestürzt sein müßten. Und deshalb warten die Toten, die zur ersten Jahrtausendwende den Einsturz der Welt bei Aachen erwarteten, immer noch vergeblich. Es ist kein Stillstand, der das Ende der Arbeiten verhindert, die durch unverschuldete Schuld motorisiert wurden. ICH: Das habe ich nicht verstanden. MÜLLER: Es bezieht sich nur auf Herakles als »Gestalt des Arbeiters«. ICH: Denn im Kosmos kann man nicht von Schuld sprechen? MÜLLER: Es sei denn, im Sinne einer Bilanz. ICH: Und die gibt es nicht, weil man Quanten nicht zusammenrechnen kann? MÜLLER: Davon verstehe ich nichts. Wenn du dich aber einmal einer solchen dunklen Wand, die alles an sich zieht, näherst, einer gewaltigen Schranke der Dunkelheit, so wirst du einen Blitz sehen, der dem Ungeheuer entweicht. Das ist verboten, aber es geschieht. ICH: Das würde ich aber nicht »sehen«? Weil ich entweder in der Welt der Gravitationsfalle oder in der Welt des Blitzes beobachte? Niemand sieht diese Arbeit? MÜLLER: Dann sieht man auch nicht, woran Herakles gesaugt hat und was ihm die Sinne so verwirrte, daß er »das Liebste, was er hat«, zerstörte. ICH: Nein, beides gleichzeitig sieht man nicht. MÜLLER: Aber man weiß, daß man falsch beobachtet hat, wenn es nur eins gibt. 298 Diskussion Nicole C. Karafyllis Homo faber revisited Eine philosophische Bestandsaufnahme der ›Machbarkeit‹ Rezension zu: Hans Poser: Homo Creator. Technik als philosophische Herausforderung, Wiesbaden 2016, (Reihe: Anthropologie – Technikphilosophie – Gesellschaft), 396 S. Mit Homo Creator, einem Buch über den schöpferisch-schaffenden Menschen und seine Schöpfungen, hat Hans Poser ein hervorragend lesbares Werk zur Technikphilosophie vorgelegt. Wie der Titel andeutet, geht es vorrangig um eine anthropologische und ontologische Perspektivierung des Homo faber – und weil »Creator« mutig mit einem kapitalen C daherkommt, ahnt man, dass auch die Frage nach der anthropogenen Substitution des Schöpfers eine Rolle spielen wird. Wer annimmt, dass der Creator eine dem Erfinder notwendige Beigesellung des Schöpfers ist, liegt auch nicht falsch. Die 14 Abschnitte, gegliedert in sechs Kapitel, beruhen auf zum Teil schon veröffentlichten, aber auch unveröffentlichten oder neu geschriebenen Aufsätzen. Hier können nicht alle gleichberechtigt besprochen werden, der Schwerpunkt liegt auf den erstmals publizierten Beiträgen. Die Zusammenstellung liest sich wie aus einem Guss, was in der hohen Systematizität von Posers Technikdenken begründet liegt. Kapitel I (Einleitung) eröffnet mit dem Abschnitt »Grundzüge technischen Denkens der Moderne«, der allgemein der Begriffsklärung und Kulturbezogenheit von Technik gewidmet ist und eine breitere Leserschaft ansprechen soll, gefolgt von »Perspektiven einer Philosophie der Technik«. Mit diesem im Jahr 2000 in der Allgemeinen Zeitschrift für Philosophie vorgelegten Text geht es für den vorgebildeten Leser nun mit dem Buch ›richtig los‹. Zentrale Problemstellungen, die das Buch durchziehen, werden hier präfiguriert: die Imagination von Technik als Apokalypse; die schwierige Notwendigkeit, Technik als Systemzusammenhang zu denken; die konzeptuellen Elemente des Technikdenkens mit Vorstellung zentraler Autoren; das Hermeneutikproblem, welches das Verhältnis von Intention und Finalität beim Machen von Technik aufgreift, was zum Abschluss der Einleitung geschickt in die Frage nach den philosophischen Voraussetzungen von Machbarkeit überführt wird. Hier ist Poser ganz in seinem Element, weil ontologische mit erkenntnis- und wissenschaftstheoretischen Konzepten verknüpft sind: »Wenn Technik die Verwirklichung von Ideen ist, ist sie Verwirklichung von Möglichkeit. Wenn das Charakte- 301 ristikum der Systemtechnik die Bereitstellung von Potenzen ist, so handelt es sich um Möglichkeiten. Und wenn Machbarkeit die zentrale Denkform der Gegenwart ist, so geht es ebenfalls um Möglichkeit, nämlich des Machens.« (S. 47) Während die Bedingungen, diese drei verschiedenen Modalitäten von »Möglichkeit« zusammenzudenken, in den späteren Kapiteln erläutert werden, schließt Kap. I mit einem Rekurs auf die Leibniz-Wolff-Kant-Tradition und resümiert: »›Machbarkeit‹ ist eine Handlungsmöglichkeit; sie verbindet also die ontische mit der epistemischen Möglichkeit unter Voraussetzung der Willens- und Handlungsfreiheit des Homo faber« (ebd.). Dem Leser wird klar: Ohne ein »göttliches Fiat« (S. 48), das dem Homo vom Creator metaphysisch mitgegeben wird, ist eine absolute Machbarkeit, d.h. das Schaffen eines gänzlich Neuen, nie Dagewesenen, nicht zu denken. Wem das zu altbacken erscheint, der sei an die ausladende Innovationsrhetorik der Gegenwart erinnert, die von den meisten Technikphilosophen, wenn schon nicht begrüßt, dann wenigstens nicht der Maßregelung für nötig befunden wird. Poser will bei der Frage nach der Setzung der Bedingungen des Maßes nicht bei handlungstheoretischen Ansätzen stehen bleiben, sondern die »ontologischen und modaltheoretischen Elemente einbezogen« wissen (ebd.). Denn wie später noch deutlich wird: Die Frage nach der Technik bleibt letztlich eingebettet in die nach der Realitätsgegebenheit. Deshalb eröffnet Kap. II (Ontologie und Anthropologie der Technik) mit dem hier erstmals veröffentlichten Abschnitt zur »Ontologie technischer Artefakte«, dessen Mehrwert darin besteht, verschiedene aktuelle Ansätze einer »Artefakt-Ontologie« (S. 64–72) darzulegen und zu klären, wie diese sich gegenüber einer »Ontologie technischer Artefakte« (S. 91–95) verhalten. Denn gesucht ist »der Brückenschlag zwischen der physischen und der sozial-intentionalen Seite« von Artefakten (S. 68), der bis heute nicht gelungen ist. Vereinfacht ausgedrückt fragt der Autor nach den Grenzen der Verdinglichung von Technik wie Technologie, die ihrerseits die Potenzialität, etwas zu ermöglichen und zu bewirken, einschränkt – und zwar auch in gesellschaftlicher Perspektive. Die wichtigen aktuellen Positionen und Autoren zum Verhältnis Artefakt/Ontologie sind genannt und prägnant ausgeführt: Peter Kroes und Anthonie Meijers, Clive Lawson, Lynne Rudder Baker, Barry Smith, Amie Thomasson und andere. Auch die Erweiterung der Artefakt-Wesenheiten um die Biofakte wird berücksichtigt, wie überhaupt biologische Modell- und Theorieannahmen erfreulicherweise immer wieder im Buch vorkommen, präjudizieren sie doch als Technomorphie in vielen Fällen die funktionalistische Sicht auf Artefakte (z.B. im Falle der Teleosemantik) wie auf die Technik überhaupt. Die seit einigen Jahren boomende sozialontologische Perspektive bleibt mit knapp einer Seite etwas unterbelichtet. Weil sich die ontologische Debatte zu Artefakten jenseits der deutschsprachigen Technikphilosophie abspielt, wäre es hilfreich, einige zentrale englische Begrifflichkeiten einzuführen, z.B. die Unterschiede zwischen »artifacts«, »artifact kinds« (bei Poser übersetzt mit: Artefakt-Typen) und den »artifactual kinds« von Thomasson 302 (nicht falsch, aber missverständlich übersetzt mit: »Arten von Artefakten«). Hier wäre auch der Ort, die englischen Ausdrücke Design und Designer genauer zu erläutern, verbergen sich doch dahinter diejenigen Schöpfungs-Problematiken, die Poser mit dem »Homo Creator« berücksichtigt wissen möchte. Der essentialistischen Position von Thomasson, die gegen rein funktionalistische Artefaktkonzepte eine metaphysische Notwendigkeit betont, um Artefakte überhaupt in Relation zu menschlichen Intentionen bringen zu können, steht Poser selbst am nächsten. Zur deutschsprachigen Bestandsaufnahme, die als eine hausgemachte Mängelliste mit dem Verdacht auf (im besten Falle) Abgrenzung gegenüber der internationalen Debatte durchaus hätte mahnend betont werden können, gehört auch eine Kritik am Systembegriff von Günter Ropohl. Dieser beruht bekanntlich auf Funktionen und Verfahren und insinuiert, dass es »gar kein geschlossenes Objekt, keine klassische Substanz« gäbe (S. 61–62). Das ist richtig, allerdings verzichtet Poser auf den Hinweis, dass Ropohl den Substanzbegriff gar nicht verwendet, sondern auf »Materie« rekurriert, was eigene ontologische Probleme nach sich zieht. Diese greift Poser aber kaum auf; dementsprechend zeigt das Buch eine weitgehende Vakanz materialistischer Technikdeutungen (z.B. vermisst man nicht nur Ludwig Marcuses One-Dimensional Man, sondern im Anschluss daran das für die angelsächsische Technikphilosophie ebenso zentrale Werk Questioning Technology von Andrew Feenberg, der sich mit seinem Schichtenmodell der ›secondary instrumentalization‹ gerade an der Frage einer möglichen Sozialontologie der Artefakte abarbeitet, und zwar eine derartige, die auch die Möglichkeit von Artefakten der Kunst einschließt). Zur Problematik des jüngeren Systembegriffs wäre noch viel zu sagen, was Poser aus guten Gründen nicht tut und stattdessen die zugrundeliegende, aber heute oft vergessene Basisarbeit z.B. zur Relation von Teil und Ganzem leistet. Seine Nennung von Günter Ropohl steht entsprechend nur als Variable für zahlreiche Vertreter v.a. auch der sozialwissenschaftlichen und historischen Technikforschung, denen die Frage nach dem eigentlich technischen Ding bzw. Artefakt zugunsten von Strukturund Systemfragen verzichtbar erscheint. Poser ist unbedingt Recht darin zu geben, dass durch diese Fehleinschätzung das Ziel, eine Theorie der Technikwissenschaften zu etablieren, in die Ferne rückt, weil es keine Theorie ohne die Klärung der erkenntnistheoretischen Voraussetzungen von Artefakten und des intentionalen Umgangs mit ihnen geben kann. Dies zeigt sich übrigens auch in den sehr heterogenen Ansätzen der Technikgeschichte, die sich jüngst und nur scheinbar neu an der Problematik einer ›Objekt-Geschichte‹ abarbeitet. Sie tut dies heute in dem Bewusstsein, dass eine Technikgeschichte keine fortschrittsmotivierte Chronologie der Artefakte und auch kein bloß semantischer Verweisungszusammenhang der Bedeutungen von Objekten sein kann, wie etwa Hans Blumenberg in Geistesgeschichte der Technik (veröffentlicht aus dem Nachlass 2009) betont; auch dies ein Werk, das von Poser nicht genannt wird, wie – jenseits von Heidegger – überhaupt die phänomenolo- 303 gische Technikforschung ausgeblendet bleibt (u.a. auch die von Don Ihde). Dabei sind doch gerade dort Schätze zu bergen, wenn man auf essentialistische Positionen abhebt. Wichtig für die weiteren Forschungen bleibt Posers nachdrücklicher Hinweis, dass Semantik nicht Existenz begründen kann – ein Hinweis, der sich v.a. gegen die Spielarten konstruktivistischer Technikdeutungen richtet. Dagegen stellt Poser ein Schichtenmodell (vgl. S. 92–96) zur kategorialen Bestimmung des Artefakts vor, das der Ontologie von Nicolai Hartmann entlehnt ist. Wichtigstes Ziel ist, Wirklichkeit und Möglichkeit von Technik letztlich zusammendenken zu können, und zwar auf verschiedenen Ebenen, auf denen technisch Mögliches bereits materiell wirklich geworden und als Wissen geronnen ist. Bedingung dessen bleiben die Fundamentalkategorien Finalität, Kreativität, Intentionalität und Funktion (Mittel-Zweck-Beziehungen), Wissen, Ganzheit und Modalität; die finale Verknüpfung leistet die kreative Idee. Wie sich dieses durchaus beeindruckende Modell nun zu den neuen Medientechnologien verhält, wird nicht ganz klar, selbst wenn es sich bei ihnen um »Möglichkeiten für Möglichkeiten« (S. 94) handeln sollte, was an eine substanzontologische Aufladung des Medienbegriffs erinnert, wie er von poststrukturalistischen Positionen vertreten wird; aber bei Poser vermutlich darauf abzielt, den Begriff des Individuums (verständlicherweise) nicht aufgeben zu wollen. Auch in seinem erkenntnistheoretischen Abschnitt (III. 7.7), in dem Poser ein Modalitätenschema vorlegt, sind die »virtuellen Modi« den »deontischen Modi« übergeordnet (S. 193), d.h. dass Poser von einem prinzipiell unendlich erweiterbaren Realitätsbegriff auszugehen scheint. Offen bleibt, wie sich das Konzept der Bildlichkeit zu dieser Modalitätsschematik verhält, das an mehreren Stellen im Buch eine wichtige Rolle spielt (vgl. dazu etwa die Bemerkungen zum Menschenbild in Kap. II.4, aber auch zur symbolischen Struktur des Entwerfens, insb. in Kap. IV.9 »Entwerfen als Lebensform«). Christoph Hubig, der eine dreibändige Kunst des Möglichen (2006–2015) vorgelegt hat, würde womöglich zu Posers Modell bemerken, dass die Medialität der Möglichkeit insofern vorausgeht (als Möglichkeit von, nicht für Möglichkeiten), als sie darüber entscheidet, was an Möglichkeiten überhaupt disponibel ist und damit ›für etwas‹ mittelbar nicht nur zur Verfügung steht, sondern als solch Verfügbares überhaupt gedacht werden kann. Posers an späterer Stelle im Buch geäußerter Satz »Es beginnt mit der Frage, ob die von der Wirklichkeit zu unterscheidende Virtualität überhaupt als eine Möglichkeit gesehen werden kann« (S. 190) belegt, dass er die Problematik – die Metapher sei hier passenderweise erlaubt – durchaus auf dem Schirm hat. Aber die Debatte soll – fiat lux! – den beiden selbst überlassen bleiben, und es ist nicht auszuschließen, dass sie bei Platons Ideenlehre oder bei Hegels Wesenslogik endet (vgl. auch S. 112–113, wo Poser Hubigs Hinweisen auf Ernst Cassirer folgt; ferner Kap. III. 7 »Technik und Modalität«). 304 Abschnitt 4 zur »Anthropologie der Technik« sorgt nun wieder für Bodenhaftung und liefert einen ausgezeichneten Überblick über die zutiefst menschlichen Fragestellungen, die mit der Technik verbunden werden: nach Naturverwiesenheit, Geschichtlichkeit, Schöpferkraft und Möglichkeiten der Weltgestaltung. Der letzte Teilabschnitt widmet sich der »Kommunikationstechnik als Ausweitung des Ich« und damit einer anthropologischen Neujustierung, die durch Technik evoziert wurde. Die Möglichkeiten von Simulation und Cyberspace bergen die Gefahr, dass »Modelle als Bild des ganzen Menschen genommen werden« (S. 114), wogegen Poser mit dem niederländischen Plessner-Experten Jos de Mul für eine positiv zu besetzende ›Exzentrizität‹ des Menschen votiert. Und damit für Weltoffenheit durch Technik. Dies zeigt sich auch in seinem Credo, »dass keine künftige Anthropologie, keine Kulturund Gesellschaftsphilosophie ohne Einbeziehung der Technik und ihrer kulturgeschichtlichen Dimension möglich sein wird.« (S. 115). Kapitel III (Technik und Erkenntnis) widmet sich nun der erkenntnis- und wissenschaftstheoretischen Perspektive auf die Technik. Besonders instruktiv ist Abschnitt 6, in dem der Autor Erkenntnis von Information abgrenzt und auch zu den bekannten Gehirn-im-Tank-Gedankenexperimenten kritisch Stellung nimmt. Mit der heiteren Überschrift »Selbstdenken statt Nährlösung« plädiert er für ein im Individuum verankertes Orientierungswissen, das für kluge Entscheidungen gerade auch im Bereich der Technikverantwortung notwendig bleibt. Abschnitt 8 beschäftigt sich mit der interdisziplinär wichtigen Frage nach der Konzeptualisierung von Technikentwicklung. Darin weist Poser verschiedenste biologistische Modelle, die mit ›Evolution‹ operieren, kategorisch zurück. Denn sie können weder eine Wissens-, noch eine Normenevolution begründen, die beide auf Willensfreiheit beruhen und für die Frage nach der Technikentwicklung und ihrer Verantwortbarkeit zentral sind. Damit markiert Poser ein bislang ungelöstes Problem: die Begründbarkeit des Willens zur Technik. Kap. IV (Entwerfen) beinhaltet zwei erschienene Aufsätze zu »Entwerfen als Lebensform« und »Wissen des Nichtwissens«, wo Poser auch die Grundzüge der Technikfolgenabschätzung vorstellt. Die letzten vier Abschnitte (Nr. 11–14) wurden ebenfalls vorher veröffentlicht und verteilen sich auf Kap. V (Zur Wissenschaftstheorie der Technikwissenschaften) und Kap. VI (Werte), wobei Poser alle Texte überarbeitet hat. Den Abschluss des Buches bildet Posers schon als berühmt zu bezeichnender Vortrag »Von der Theodizee zur Technodizee: Ein altes Problem in neuer Gestalt«. Hier kann der Leibniz-Experte aus dem Vollen schöpfen und die allgemeinere Frage nach der Theodizee mit der spezifischen nach der Rechtfertigung technogener Übel verbinden, oder im Universalsingular: dem »malum technologicum« (S. 363–364). Der Preis für die menschliche Freiheit wird mit der Möglichkeit der Sünde ›erkauft‹, und so lässt sich den möglichen negativen Folgen von Technik letztlich etwas Positives abgewinnen; z.B. gegen naturalistische Deterministen, die 305 gegenüber der Technik die Natur als harmonische Ganzheit verklären. In der besten aller möglichen Welten folgt auch die Technik dem Prinzip des Besten. Problem bleibt, dass nur Gott dieser Bilanzierungsbegriff offensteht, der sich auf alle möglichen Welten bezöge. Der Mensch kann jedoch nur Bilanz ziehen von dem, was wirklich geworden ist. Und so schließt diese Rezension mit der Bilanz, dass Posers Homo Creator ein wirklich gutes Buch geworden ist, das nicht zuletzt wegen seiner geschickten Didaktik auch fortgeschrittenen Studenten einen Weg in die möglichen Welten der Technikphilosophie eröffnen kann. 306 Hildrun Lampe Modellieren: Ansätze für die Grundlegung zu einer interdisziplinären Praxis Rezension zu: Bernhard Thalheim und Ivor Nissen (Hg.): Wissenschaft und Kunst der Modellierung. Kieler Zugang zur Definition, Nutzung und Zukunft (Philosophische Analyse), Berlin, Boston 2015. Obwohl das Schlagwort ›Modell‹ aus wissenschaftlichen Publikationen nicht mehr wegzudenken ist und gleichermaßen der interdisziplinären Forschung eine zunehmende Bedeutung zukommt, ist die systematische und fächerübergreifende Erforschung des Modellierens bislang unterentwickelt. Diesen Mangel diagnostizieren Bernhard Thalheim und Ivor Nissen stellvertretend für eine interdisziplinäre Forschergruppe. Der »Kieler Zugang« zur »Wissenschaft und Kunst der Modellierung« stellt sich v.a. die Frage, was Modelle sind und wie beim Modellieren vorgegangen wird. Denn trotz der weitverbreiteten Verwendung von Modellen bestehe kein gemeinsames Modellverständnis und keine gemeinsam akzeptierte Notation, so die Herausgeber. Das Kieler Gemeinschaftswerk soll einen Einblick geben in den innerdisziplinären Umgang mit Modellen in den verschiedensten Forschungsrichtungen der Christian-Albrecht-Universität zu Kiel. Die Aufsatzsammlung wird eingerahmt durch den Versuch einer interdisziplinären Kombination und Verallgemeinerung. In Kiel hat man langjährige Erfahrung in der interdisziplinären Zusammenarbeit. In ihrem Vorwort berichten die Herausgeber davon, dass seit 2007 eine entsprechende Forschergruppe zu diesem Themenkreis bestehe. Nachdem in den ersten vier Jahren vergeblich versucht worden sei, feste Strukturen vorzugeben (›top-down‹-Vorgehensweise), führte der anschließende mehrjährige Erfahrungsaustausch zum alternativen Ansatz (›bottom-up‹). Das Buch ist in drei Teile gegliedert. Der erste Teil ist von den Herausgebern Bernhard Thalheim und Ivor Nissen verfasst (beide am Institut für Informatik, CAU Kiel). Darin werden die Forschungsagenda entwickelt, der Ansatz erläutert und ein Überblick über die Forschungslandschaft gegeben. Die beiden Herausgeber sind auch die Autoren des dritten Teils, in dem »ein neuer Modellbegriff« ausgearbeitet wird. Der zweite Teil trägt den Titel »Modelle in den Wissenschaften«. Dieser Hauptteil des Buches besteht aus 19 Beiträgen Kieler Wissenschaftler, die zahlreiche Natur-, Geistes- und Sozialwissenschaften umfassen. Bevor eine Gesamtschau des 307 Sammelbandes vorgenommen wird, sollen diese im Folgenden einzeln kurz vorgestellt werden, um der Bandbreite der Beiträge gerecht zu werden. Heidrun Allert und Christoph Richter (Pädagogik) gehen der Modellierung als sozio-materieller Praktik nach. Modelle unterstützten die Reflexion, indem sie über die Möglichkeiten und Konsequenzen von Handlungen und Entscheidungen Klarheit verschafften. Modelle werden von ihnen nicht als Repräsentationen, sondern als epistemische Artefakte verstanden, die sozial und historisch geprägt sind und in der kreativen Entwurfstätigkeit des Individuums oder des Kollektivs bei dessen Auseinandersetzung mit dem Material entstehen. Rudolf Berghammer und Bernhard Thalheim (Informatik) liefern einen Beitrag über die methodenbasierte mathematische Modellierung. Sie beschreiben, wie eine Erweiterung der Relationenalgebra das Finden eines geeigneten Modells systematisch unterstützen kann. Modelle würden oft geradewegs als Lösungen präsentiert, während die Herleitung von Modellen einer der »undurchsichtigsten Schritte« sei. Christine Blättler (Philosophie) stellt wissenschaftsphilosophische Überlegungen zum Modell als Medium an und führt dabei in die Debatten zum Verhältnis von Modell zu Theorie und Experiment ein. Innerhalb der Wissenschaftsphilosophie hat eine Hinwendung zum Modell als Instrument stattgefunden, wobei das Modell aber zugleich auch auf uns zurückwirke. Die Autorin geht ausführlich auf die Computersimulation ein, da innerhalb der Fachwissenschaften die Bezeichnungen ›Modell‹ und ›Simulation‹ nahezu synonym verwendet würden, obwohl beide als philosophische Begriffe ihre je eigene Geschichte hätten. Der Beitrag von Steffen Börm (Informatik) berichtet von numerischen Simulationen als zunehmend wichtigem Werkzeug der Natur- und Ingenieurwissenschaften. Dabei dient ihm die Simulation einer Grundwasserströmung als Beispiel. Jan-Peter Brückner (Sportwissenschaft) stellt in seinem Beitrag beispielhaft ausgewählte per Computersimulation modellierte trainingswissenschaftliche Modelle vor, innerhalb derer die Anpassungsreaktionen des Organismus an Belastung und Beanspruchung behandelt werden. Thorsten Burkard (Klassische Altertumskunde) setzt sich kritisch mit dem Modell ›Literatur als Text‹ in der Klassischen Philologie auseinander. In seinem Beitrag wird das Modell als gegenstandskonstituierende Perspektive deutlich, das viel zu leisten vermag, wenn seine Anwendung nicht ausartet. Oliver Nakoinz und Martin Hinz (Ur- und Frühgeschichte) erläutern die Modelle der Archäologie. Dabei gehen sie nicht nur auf die explizite Modellnutzung ein, die überschaubar sei, sondern auch auf die implizite Modellnutzung, die wie in allen anderen Disziplinen eine große Rolle spiele. Die Texte von Tobias F. Illenseer (Theoretische Physik und Astrophysik) und Andreas Kopp (Experimentelle und Angewandte Physik) beschäftigen sich mit astrono- 308 mischer Modellierung, während Mojib Latif (Ozeanforschung) in die Modellierung des Klimas einführt. Claas Lattmann (Klassische Altertumskunde) beschäftigt sich in seinem Beitrag mit den Anfängen des systematischen Zugriffs auf die Natur in der Antike. Es sei relativ neu, antike Modelle dezidiert als ›Modelle‹ anzusprechen und mit Hilfe eines modernen Instrumentariums zu analysieren. Der Autor bescheinigt der griechischen Antike die Erfindung der systematischen Nutzung mathematischer Modelle und eine erste theoretische Beschäftigung mit der Theorie des Modells. Jochen Leibrich und Peter Adam Höher (Elektrotechnik und Informationstechnik) teilen die Modelle der Kommunikationstechnik grob in realitätsnahe Modelle (z.B. Blockschaltbilder, Kommunikationsnetze) und abstrakte Modelle (z.B. Visualisierung physikalischer Größen, graphenbasierte Modelle) ein. In beiden Fällen gehe es darum, die Vorgänge darstellbar und damit zugänglich zu machen. Roberto Mayerle und Gerd Bruss (Forschungs- und Technologiezentrum Westküste) geben einen Überblick über den Stand und die Aussichten der prozessbasierten Simulationsmodelle für den Küstenbereich, die dem Management von Küstenzonen dienen (z.B. Strömungen, Sedimenttransport). Ihrer Ansicht nach sind in den vergangenen Jahren bedeutende Fortschritte in ihrer Entwicklung und Anwendung erzielt worden. Jörn Kretschmer u.a. (Technische Medizin) urteilen, dass sich die Kostensteigerungen innerhalb des Gesundheitssystems nur durch einen effizienten Einsatz der Therapietechnik beherrschen lasse. Diesem Zweck dienen physiologische Modelle, die bei Diagnose und Therapie unterstützend herangezogen werden. Bei modellbasierten Therapien können Entscheidungen aufgrund von individuellen mathematischen Modellen getroffen werden, die an den Patienten angepasst worden sind. Um das Personal zu entlasten und die Pflege zu verbessern, bedürfen sie jedoch der Erweiterung z.B. um herkömmliches statistisches Patientenwissen. Ivor Nissen (hier: Wasserschall und Geophysik) berichtet, dass die computergestützte Modellierung nicht mehr wegzudenken sei aus der hydroakustischen Untersuchung der Ozeane. Für einen sinnvollen Realitätsbezug wirkten verschiedene Modellierungsformen zusammen; Experimente seien nach wie vor unerlässlich. Sören Witt u.a. (Informatik) präsentieren Modelle, die betriebliche Funktionsabläufe darstellen. Bei größeren Geschäftsprozessen (z.B. Warenwirtschaftssysteme) sind diese zu unübersichtlich für eine menschliche Prüfung. Es bedürfe darum formaler Prüfsysteme, um die Funktionalität des Systems zu gewährleisten. Michael Skusa und Bernhard Thalheim (Informatik) schildern die Herausforderungen der Modellierung von Informationssystemen. In der Regel werden bei der Softwareentwicklung unterschiedliche Modellierungsmethoden nebeneinander eingesetzt, die optimal für die Teilmodelle sind, deren Zusammenhang aber nicht be- 309 schrieben sei. Erforderlich sei eine modellübergreifende Konsistenzsicherung, wobei eine automatisierte Unterstützung der Entwickler erwünscht wäre. Tom Theile und Olaf Wolkenhauer (Informatik) sehen eine Herausforderung der Biomedizin in der Entwicklung von Methoden zur Untersuchung von Mehrebenensystemen. Diese sollen ermöglichen eine Brücke zu schlagen zwischen der mechanistischen Modellierung subzellulärer Prozesse und physiologischen, krankheitsbezogenen Prozessen. Imke Traulsen (Tierzucht und Tierhaltung) widmet ihren Beitrag Simulationsmodellen zur Tierseuchenbekämpfung und ihren Validierungsmöglichkeiten. Als umfangreiche Zusammenstellung fachwissenschaftlicher Texte einer Universität (bzw. zugehöriger Einrichtungen) ist das Werk eine Besonderheit. Leider weist die Erstauflage kleinere gestalterische Mängel auf (beispielsweise könnte die Zuordnung der Texte zu Autoren bzw. Buchteilen durchsichtiger sein); bedauerlich ist angesichts des aufwändigen Unternehmens auch das unzulängliche Korrektorat. Das Buch ist von seinen Herausgebern nicht zuletzt ausdrücklich als Fachlektüre und als innerdisziplinärer Einblick, der Jargon und Denkweisen aufzeigt, gedacht. In der Tat ist diese Aufsatzsammlung in ihrer Bandbreite, ihrer Vielgestaltigkeit und der gemeinsamen Ausrichtung auf die Modellierung faszinierend. Dass diese Texte ganz sinnlich erfahrbar in einem Band zusammenstehen und gemeinsam in die Hand genommen werden können, ist wirkungsvoll und anregend. Bereits beim Durchblättern beginnen die Gedanken zu fließen. Unter dem verbindenden Terminus ›Modell‹ kann der Leser einen guten Einblick in für ihn womöglich exotische Disziplinen bekommen; zugleich werden unterschiedlichste Grade der Reflexion der Autoren bezüglich ihrer eigenen Disziplin sichtbar. Die Texte sind allgemeinverständlich geschrieben und wecken ein Interesse für den Gegenstandsbereich über die Modellierungskunst hinaus. Unabhängig von der Analyse der Herausgeber ist das Werk also ein ausgesprochen lesenswerter Querschnitt durch die zeitgenössische Forschungslandschaft im Hinblick auf ihre Modelle und das Modellieren. Das weitergehende Ziel der interdisziplinären Zusammenarbeit ist jedoch ein verbindender Modellbegriff. Dahinter steht die Absicht, eine »intuitive Methodik erlernbar zu machen« und das Modellieren effizienter, einfacher und besser zu gestalten. Betrachtet man die Kieler Arbeit nicht nur als Kollektion zum Thema ›Modell‹, sondern – wie beabsichtigt – als Kompendium des Modellierens bzw. als Fundament zu einem solchen, so sind weitergehende Ansprüche an die Leistung des Werks zu stellen. Ausdrücklich hervorzuheben ist, dass die Herausgeber nicht etwa Universalität anstreben, sondern auf ein Methodenspektrum abheben. Das Modellierungswissen der einzelnen Disziplinen soll explizit und abstrakt gemacht und schließlich systematisiert werden, um auf andere Disziplinen und Problemstellungen übertragbar zu sein. Die Herausgeber stellen selbst die Besonderheit ihres Ansatzes fest, denn es 310 gebe weder auf nationaler noch auf internationaler Ebene Forscherverbünde, welche dieses Vorgehen über mehrere Disziplinen hinweg verfolgten. Betrachtet man das Werk als einen Schritt hin zu einem interdisziplinären technischen Training des Modellierens (nichts anderes als der Titel verspricht), ist die Absicht des Werkes eine sehr löbliche. Es wundert kaum, dass Informatiker federführend sind, da die Informatik noch vielfach ungenutzte Mittel zur Verfügung stellt, mit denen sich der Umgang mit mathematischen Modellen beschreiben lässt. Kritik an diesem Vorgehen ist jedoch angebracht. Trotz der geisteswissenschaftlichen Texte ist die gesamte Stoßrichtung des Buches eine mathematisch-naturwissenschaftliche. Die Konfliktlinien zwischen Geistes-, Natur- und Sozialwissenschaften bleiben ausgespart, ohne dass dies ausdrücklich besprochen würde. So täuscht beispielsweise die gemeinsame Verwendung des Ausdrucks ›Modell‹ darüber hinweg, dass dessen allgegenwärtige Verwendung teilweise erst dem Eindringen der Computermodellierung in die wissenschaftliche Methodik verschiedenster Disziplinen zuzuschreiben ist. Dieses Paradigma des Computermodells bleibt weitestgehend unreflektiert, jedoch liefern insbesondere die Texte von Blättler, Burkard sowie Nakoinz/ Hinz dem Leser Anregungen hierzu, da dort grundlegender die Perspektivität des Modellierens herausgearbeitet ist. In jedem Fall hat die Kieler Forschergruppe mit ihrem umfangreichen Werk einen Grundstein dafür gelegt, das innerdisziplinäre Modellierungs-Know-how nicht nur auf interessante Weise zusammenzutragen, sondern es ernsthaft interdisziplinär zu bearbeiten. Dies ist zu begrüßen und man darf gespannt darauf sein, ob und wie ihre Anregungen andernorts aufgenommen werden. 311 Pieter Lemmens Transductive reticulation: How to reflect on digital thinghood Review of: Yuk Hui: On the Existence of Digital Objects, University of Minnesota Press, Minneapolis, 2016, 314 p. With a title obviously alluding to Gilbert Simondon’s famous 1958 book Du mode d’existence des objets techniques (only recently translated into English) this exceptionally original and superbly masterful treatise by Yuk Hui provides a thorough and in-depth philosophical analysis of the existence of digital technical objects. Such objects had already appeared in the time Simondon wrote his book, of course, but were not explicitly investigated by him. One of the reasons probably being that they were anything but ubiquitous at the time. Hui, living in a time awash with digital objects that literally pervade the most intimate aspects of our lives now, is actually the first scholar to conduct such an investigation. Although there is evidently no shortage today of philosophical studies of digital media, as noted in the introduction, their focus is almost exclusively on the digital and informational aspects of these media, never on their nature or way of being as objects or things, i.e., on their objectivity or thinghood. It is this ›ontological‹ and most specifically philosophical approach that is pursued in this book, and in a constant dialogue with the whole philosophical tradition starting from Aristotle via Duns Scotus, Thomas Aquinas, Descartes, Hume, Kant, Hegel and Husserl to Heidegger and Simondon. All of them are Hui’s most important informants and interlocutors in this book and who also inspire its ›political agenda‹ (5). Even more so, the book directly relates this philosophical analysis to the computational or engineering approaches of digital objects within the computer sciences, engaging in both philosophical and technical debates with computer scientists such as Brian Cantwell Smith, Tim Berners-Lee, David Alan Grier and Alan Turing. In passing, it provides clear introductions in the thoughts of Husserl, Heidegger and Simondon. And although the general backdrop and ›spirit‹ of the book leans heavily towards ›continental philosophy‹, it also features discussions with key analytic thinkers such as Wittgenstein, Quine and Putnam. On top of that, it is also informed at times by insights from the social sciences and the humanities. A digital object for Hui is anything that appears on a digital screen or forms part of a computer program and is composed of data and metadata regulated by structures or schemes (1), e.g. a document file containing personal data of a user or an HTML 313 webpage. They are new kinds of industrially produced technical objects utterly familiar to everyone, yet still overlooked by both philosophy and computer science. Hui’s goal is to develop an understanding of the digital object, i.e., its object-nature, by reciprocally examining both the philosophical tradition’s theories of natural and technical objects and the so-called ontology theories from computer science. On a most basic level, he aims to understand digital objects in terms of relations, thereby employing a notion of relation inspired initially by Bachelard but more specifically adapted from Simondon as well as Heidegger. The latter is explicitly interpreted by Hui as a philosopher of relations, in stark contrast to the object-oriented reading of Heidegger by Graham Harman, to whom he briefly positions himself. Bachelard and Simondon also provide Hui with his basic methodology, the socalled orders of magnitude. It means approaching objects from different physical, technical or operational levels (starting from electrons and bits via coding languages and data to whole digital networks) pursued through different instruments. The spectrum of orders of magnitude chosen in this study is that of data, since data form the intermediary between the level of pure computation and that of human experience (32). The ultimate political agenda of this book, derived from both Heidegger and Simondon (and to some extent also Ellul, who is considered by Hui as having many affinities with Simondon), is precisely concerned with this relation between the human and digital technology and revolves around the issue of alienation or what in Marxism is called proletarianization. Heidegger in his way understood it in terms of the danger inherent in technological enframing. In the spirit of Simondon, Hui aims to contribute to overcoming the current alienation resulting from a misunderstanding or lack of understanding of digital technologies by offering a thorough relational conceptualization of digital objects and the systems or networks in which they appear with a view »to translate it into critical questions for the design of technical artefacts« (39). The book is well-structured and divided into three parts, each consisting of two sections. The first part on ›Objects‹ describes the genesis of digital objects through an examination of the history of markup languages and analyzes the object-nature of digital objects. The second part entitled ›Relations‹ develops a materialist understanding of the relationality of the digital object as operating within digital networks through the concept of interobjectivity and considers the temporal dimension of these networks, primarily in dialogue with Heidegger. Finally, the third part entitled ›Logics‹ reflects on the logical aspects of digital networks and mobilizes first Husserlian intentional logic and then Simondonian transductive logic against the extensional-discursive as well as the classical logic operationalized currently in digital networks. It is in this final part that the critical thrust of this book becomes most manifest. 314 This critical and political agenda of the book is co-extensive with its philosophical or ontological project in that it aims at a fundamental rearticulation of the positions of both humans and objects in the existing and emerging digital technical systems. Those should be interpreted as positively enabling and fostering the individuations properly of both humans and objects instead of frustrating them and producing their disindividuation. To that end, it critically confronts the so-called ontologies as they are used in computer science with both the formal and transcendental ontologies developed by Husserl in the context of his phenomenology of intentional experience and the so-called fundamental ontology developed by Heidegger in the context of Being and Time’s project of renewing the question of being. The latter is an explicit critique of the metaphysical nature of all traditional ontologies including Husserl, whose theory forms the base of the computer science technical ontologies, as Hui shows. Exclusively focused on beings and forgetful of being, such ontologies are in fact ›realized‹ in the current digital milieus. Perceived from a Heideggerian perspective it is a concrete accomplishment of the metaphysical project through the reign of enframing [Ge-stell]. In other words, it is the deepest essence of what resides in his concept of danger [Ge-fahr]. That is to say, it is the installment of the complete oblivion of being or the total elimination of man’s openness to being. Such a thing would really announce something like ›the end of time‹ (37), i.e., of existential time as it becomes integrated – or better: disintegrates – in the technical system. Emphasizing the real presence of this danger in our current ›information society‹ – or as Bernard Stiegler recently started to call it, ›automatic society‹ – Hui lucidly evokes the practical meaning by writing that »people tend more and more to rely on machines to organize their lives and give to mobile phones the responsibility for synchronizing their meetings, eating, sleeping, and so on. In this synchronization, there is a destruction of the unity of time, which Heidegger calls care« and asks: »When everything is becoming data and being represented in logical statements, and then automated by algorithms, isn’t this a higher mode of Enframing? « (37–8). Today, Hui argues that we cannot really speak about our existence anymore in terms of a ›temporal ecstasy‹ in Heidegger’s sense, but rather as being lost in a ›technological ecstasy‹, i.e., a techno-engulfed and techno-driven »way of becoming that has no clear idea of its direction yet is characterized by acceleration and adventure« and that is bereft of any rhythm (47). The (noo)(techno)political issue here principally amounts to the question of how to deal with this alienating arrangement. Thinking with yet against Heidegger, taking his inspiration from both Simondon’s mechanology and his project of a ›technological humanism‹, as well as from Stiegler’s technical re-reading of Heideggerian existential ontology and the former’s call for a technopolitics as ›noopolitics‹, Hui proposes an understanding of technics as time, and of time as technically conditioned. He argues that besides the tertiary retentions identified by Stiegler as supportive 315 of ›human‹ temporality, we can distinguish within the digital milieu what he calls ›tertiary protentions‹. These are enabled by algorithms and more precisely, by interconnected algorithms (38). This is a crucial conceptual novelty developed in the book. Tertiary retention for Stiegler refers to all kinds of external technical memories that support and overdetermine, according to him, the primary (i.e., perceptional) and secondary (i.e., imaginative) retentions, but also protentions that Husserl distinguished in his analysis of the temporal experience of transcendental subjectivity. What Hui means by tertiary protentions can be understood based on another major conceptual invention of the book. It is the notion of interobjectivity proposing a genuinely material and technological understanding of technical systems and milieus that differs from the usual, human-centered or intersubjective approaches of such systems in current philosophy. The digital objects that make up technical systems like the World Wide Web are in fact materialized discursive relations that were formerly, i.e., until the invention of cybernetic technologies, only occurring in the minds of humans, but are now being objectified in material circuits and can as such be manipulated through algorithms (153). As ensembles of interobjective relations, digital technical systems, in their increasingly symbiotic relation with humans, allow for the implementation of new temporalities of ›being-there‹ [Dasein] in which its temporal extases (i.e., past, present and future) are increasingly overdetermined – and more and more automatically so – in an active way by digital objects of all sorts, bypassing or short-circuiting the subject and the intersubjective relations as it were. Thus conceived, digital objects can act as tertiary protentions that actively synthesize, in Kantian terms, the temporal unity produced by the subject’s transcendental imagination, rendering the latter to be passive (244). It gives rise to a new form of determination that is not the traditional one of ›I think‹ but becomes an alienating ›I guess you think…‹, giving »us a future that is present« (245). And for Hui this phenomenon deepens being-there’s »fall into forgetting the question of Being, because here »seeing is always already directed toward certain destinations before thinking arrives« (247). Therefore, it is a synthesis that tends to become a syndosis (ibid.). Such tertiary or technical protentionality can be achieved through digitally materialized – and electronically powered (!) – algorithms because such algorithms combine logic with control, as computer scientist Robert Kowalski has emphasized (236). With the idea of tertiary protention, Hui thus refers to the fact that in our current situation digital milieus substantially impact our imagination and our everyday life orientation that »becomes more and more an algorithmic process that analyzes and produces relations to pave the way for the experience of the next now or the immediate future« (221–2). Obvious examples for that are Google’s autocomplete search functions or search algorithms proposing restaurants, cafes or sightseeing destinations, Amazon’s user profiling algorithms suggesting books or other products to buy, Tinder’s recommendation of dating partners based on matching algorithms as well 316 as developments like the Quantified Self, affective computing and surveillance programs. In this way, Hui contends, »technology is engaging more and more in our thinking processes« such that our life’s decisions »are systematically determined by algorithms instead of relying on the subjective selection of significations« (223). It is this phenomenon that Stiegler has called cognitive, or more recently, noetic proletarianization. And it is achieved nowadays principally through the generalization of digital automation. The problem Hui tries to tackle in the final part of the book is how to respond critically, and that explicitly means technically, to this alienating trend of increasing automation, dividing humans (or human culture) and technology more and more. In Hui’s view, both Heidegger and Simondon sought for a new convergence between humans, things and the world. Yet Heidegger’s proposal was to ›step back‹ from technics and return to a nontechnical, purely language-based, poetic and meditative relation toward things (185), exemplified by his notion of the fourfold [Geviert] which is interpreted by Hui as his attempt to think of interobjectivity in a nontechnical way (160). Hui is ultimately more sympathetic to Simondon’s attempt to find a solution within technics. He also considers it more in line with Heidegger’s own famous Hölderlinian dictum that the saving power grows, where danger is, i.e., in technology itself (38). Although he of course meant technology’s essence, to be considered ontologically and not technologically. However, this opens up a debate that I cannot enter into here. It is Simondon’s design of a transductive logic, further developed to re-conceptualize digital objects in terms of relations, that is recruited by Hui as both a philosophical and technical tool »to produce a new type of reticulation in favor of convergence« (189). Conceiving of the relata as constituted in and by the relation itself, such an eminently relational logic problematizes automation (being the lowest level of technical perfection for Simondon) and enables the curative reintegration of the human into the technical system and allowing other and less alienating forms of human and technology co-individuation. Hence, the redesign of digital technical systems on the basis of a transductive logic is here due to the potential of saving power residing in technology itself in order to ›rescue‹ us from technology’s endangerment to the human essence. This gesture is unmistakably reminiscent of the polyvalent logic proposal for a new understanding of cybernetics by the German-American logician and philosopher Gotthard Günther (1900–1984). He also may be considered an interesting interlocutor to explore in this context, especially in relation to both Heidegger and Simondon and because of the latter’s well-known critique of cybernetics. At the very end of the book, Hui, who is also a computer scientist and software engineer himself, describes a concrete research project conducted in collaboration with Bernard Stiegler and Harry Halpin at the Institut de Recherche et d’Innovation 317 in Paris. There the transductive logic was used to develop an alternative, i.e., more convergent social networking website wherein the collective and not, as in Facebook, the individual was determined by the default of establishing relations. This nicely illustrates Hui’s conviction that »technics is fundamentally philosophical, if not metaphysical« and that »philosophy is as practical and technical as one may think technics to be« (251). This conviction is echoed by Tim Berners-Lee’s famous assertion that Web developers are ›philosophical engineers‹, which I would argue deserves to become much more widespread among philosophers. With the attempt to sketch some of its central issues above, I have in fact only scratched the surface of this innovative, incredibly rich and rigorously argued treatise, that is at times quite difficult, I have to admit, despite the remarkable clarity of the presentation offered by the author. It is impossible in a short review like this to do it any justice, yet I hope to have provided at least a taste of its breadth, depth and level of ambition. If I had to come up with a critical note it would be that the book does not consider, or hardly considers, the utmost important politico-economic aspects of digitization and does not enter a debate, for instance, with contemporary Marxist or Neo-Marxist views on digitization and automation, like those of the Italian post-operaists and post-autonomists. But one cannot do everything of course and this is more a matter of future research, as Bernard Stiegler suggests in his thoughtful and admiring foreword. In conclusion, I would utterly recommend this book for all those interested in digital culture and more generally, in the relation between humanity and technology. It has all the qualities of becoming a genuine classic in the future, in a domain that it is partially in the process of excavating itself. A truly outstanding achievement that deserves a wide audience and is in my view indispensable and essential reading. 318 Kontroverse Technikhermeneutik: Ein kritischer Austausch zwischen Armin Grunwald und Christoph Hubig Armin Grunwald Die hermeneutische Seite der Technikfolgenabschätzung Einleitung und Zielsetzung Anders als in der ursprünglichen Wortprägung Technology Assessment ist in der deutschen Übersetzung der Folgenbegriff zentral.1 Damit ist der Technikfolgenabschätzung eine konsequentialistische Ausrichtung begrifflich eingeschrieben. Entsprechend findet sich in der Literatur zur Technikfolgenabschätzung eine Vielzahl von Arbeiten,2 welche die erkenntnistheoretischen und methodologischen Voraussetzungen zur Erlangung eines validen Folgenwissen eruieren, das sodann Ausgangspunkt von z.B. ethischer Beurteilung und für die Entwicklung darauf bezogener Handlungsoptionen sein kann. Diese lange Zeit unhinterfragte konsequentialistische Ausrichtung ist in den letzten Jahren in die Kritik geraten. So haben in einigen Wissenschafts- und Technikbereichen, in denen belastbares Folgenwissen nicht verfügbar war oder ist, und in denen dementsprechend das konsequentialistische Argumentationsmuster nicht anwendbar scheint, intensive gesellschaftliche Debatten stattgefunden. Die frühe Debatte zur Nanotechnologie ist hier einschlägig.3 In diesem Kontext kam auch die hermeneutische Dimension der Technikfolgenabschätzung in den Blick. Das Ziel dieses Beitrags ist, ausgehend von einer Skizzierung des Konsequentialismus der Technikfolgenabschätzung (Kap. 2) und dessen Grenzen (Kap. 3) Grundgedanken dieser hermeneutischen Seite zu charakterisieren (Kap. 4). Ich vertrete die These, dass die konsequentialistische Seite der Technikfolgenabschätzung nicht obsolet wird, aber um eine hermeneutische Dimension erweitert werden muss. In der hermeneutischen Perspektive werden Technikzukünfte nicht als mögliche, erwartbare, plausible oder wahrscheinliche Entwicklungen in der Zukunft verstanden, sondern als Elemente gegenwärtiger Kommunikation, die auf ihre ebenso gegenwärtige Bedeutung hin befragt werden können, unabhängig von der Frage, mit welcher Berechtigung sie etwas über zukünftige Entwicklungen aussagen. Im Ge- 1 Vgl. Armin Grunwald: »Folge«, in: Petra Kolmer, u.a. (Hg.): Neues Handbuch philosophischer Grundbegriffe. Band 1. Absicht ‑ Gemeinwohl, Freiburg 2011, S. 758–771. 2 Armin Grunwald: Technikfolgenabschätzung. Eine Einführung, Baden-Baden 2010. 3 Vgl. Alfred Nordmann, u.a. (Hg.): Nanotechnologien im Kontext, Berlin 2006. 321 gensatz zur Technikhermeneutik geht es nicht um das Verstehen der Technik,4 etwa in Bezug auf Mensch/Technik-Verhältnisse oder Zweck/Mittel-Konstellationen, sondern um das Verstehen von Kommunikationsakten über Technik, in denen ihre möglichen Zukünfte inmitten gesellschaftlicher Konstellationen thematisiert werden.5 Der Konsequentialismus der Technikfolgenabschätzung Die Technikfolgenabschätzung ist als Reaktion auf ernste Probleme an der Schnittstelle zwischen Technik, Politik und Gesellschaft entstanden.6 Hauptsächliche Motivation war das vermehrte Auftreten nicht intendierter und teils massiver Folgen des wissenschaftlich-technischen Fortschritts im Laufe des 20. Jahrhunderts. Katastrophale Unfälle in technischen Anlagen (z.B. Tschernobyl, Bhopal), Folgen für die natürliche Umwelt (z.B. Ozonloch und Biodiversitätsverlust), Gesundheitsfolgen (z.B. durch Asbest) und soziale Nebenfolgen der Technisierung (z.B. Verdrängung ganzer gesellschaftlicher Gruppen vom Arbeitsmarkt durch technische Rationalisierung) sind bekannte Beispiele. Vor allem die vergrößerte Reichweite der Technikfolgen in räumlicher und zeitlicher Hinsicht und die dadurch erfolgte immense Ausweitung des Kreises der von Nebenfolgen möglicherweise Betroffenen auf die gesamte gegenwärtige und eventuell auch zukünftige Menschheit (z.B. in der Endlagerung radioaktiver Abfälle oder in der Klimaveränderung) haben der Folgenproblematik hohe Aufmerksamkeit gebracht.7 Aufgabenstellungen der Technikfolgenabschätzung lauten vor diesem Hintergrund, sich prospektiv mit den Nebenfolgen der Technik zu befassen, das verfügbare Wissen um Nebenfolgen frühzeitig in Entscheidungsprozesse zu integrieren, Strategien zum Umgang mit den dabei unweigerlich auftretenden Unsicherheiten des Wissens zu erarbeiten sowie zur konstruktiven Bewältigung gesellschaftlicher Technikkonflikte und Legitimationsprobleme von Technik beizutragen.8 Es geht dabei um Erforschung und Beurteilung von Folgen, die es noch gar nicht gibt und vielleicht auch nie geben wird. Das Wissen über derartige Folgen und über geeignete Beurteilungsmuster nach normativen Kriterien soll Orientierung für Gesellschaft und Politik geben, z.B. für Entscheidungsprozesse in Forschungsförde- 4 Vgl. Bernhard Irrgang: Technikhermeneutik: Technik zwischen Verstehen und Gestalten, Frankfurt 2010 und Christoph Hubig, u.a.: »Technik und Interkulturalität«, in: Jens Badura (Hg.): Mondialisierungen. »Globalisierung« im Lichte transdisziplinärer Reflexionen, Bielefeld 2006, S. 153–180. 5 Vgl. Armin Grunwald: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. KIT Scientific Publishing, Karlsruhe 2012. 6 Vgl. Grunwald: Technikfolgenabschätzung. 7 Vgl. Hans Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt 1979. 8 Vgl. Grunwald: Technikfolgenabschätzung. 322 rung oder Regulierung, oder in der deliberativen Austragung von Technikkonflikten (vgl. Abb. 1). Abb. 1 Das konsequentialistische Muster der Generierung von Orientierung durch (1) den Entwurf von Zukünften und (2) ihre Beurteilung im Hinblick auf heutige Handlungsnotwendigkeiten9 Der ursprüngliche Ansatz der Technikfolgenabschätzung war dem technikdeterministischen Paradigma der 1970er Jahre geschuldet und auf die Prognose von Technikfolgen ausgerichtet.10 Im Technikdeterminismus wurde die technische Entwicklung als eigendynamisch vorgestellt, die mit ihren Folgen gesellschaftliche Prozesse dominiere.11 Der Gesellschaft bliebe dann nur eine antizipative Erkennung der Folgen, um sich möglichst frühzeitig darauf einstellen bzw. daran anpassen zu können. Entsprechend galt es als Hauptaufgabe der Technikfolgenabschätzung, Technikfol- 9 Modifiziert nach Armin Grunwald: The Hermeneutic Side of Responsible Research and Innovation, London 2016. 10 Vgl. Hans-Jörg Bullinger: »Technikfolgenabschätzung – Wissenschaftlicher Anspruch und Wirklichkeit«, in: Klaus Kornwachs (Hg.): Reichweite und Potential der Technikfolgenabschätzung, Stuttgart 1991, S. 103–114. 11 Vgl. Erläuternd und kritisch dazu Günter Ropohl: »Zur Kritik des technologischen Determinismus«, in: Friedrich Rapp, u.a. (Hg.): Technikphilosophie in der Diskussion. Ergebnisse des deutsch-amerikanischen Symposiums in Bad Homburg (W. Reimers-Stiftung) 7.–11. April 1981, Braunschweig 1982, S. 3–17 und Armin Grunwald: »Technikdeterminismus oder Sozialdeterminismus. Zeitbezüge und Kausalverhältnisse aus der Sicht des »Technology Assessment««, in: Ulrich Dolata, u.a. (Hg.): Gesellschaft und die Macht der Technik. Sozioökonomischer und institutioneller Wandel durch Technisierung, Frankfurt, New York 2007, S. 63–82. 323 gen, insbesondere nicht intendierte, zu erkennen, frühzeitig vor Risiken zu warnen und Strategien zum Umgang mit ihnen zu entwickeln.12 Der Prognoseoptimismus der frühen Technikfolgenabschätzung konnte die Erwartungen jedoch nicht erfüllen und ist an der grundsätzlichen Nichtvorhersehbarkeit handlungs- und entscheidungsabhängiger Zukünfte gescheitert.13 Um mit einer grundsätzlichen Offenheit der Zukunft konzeptionell und methodisch umgehen zu können, wurde die Szenariotechnik in die Technikfolgenabschätzung eingeführt und hat sich dort rasch zu einem Standardverfahren entwickelt.14 Die Entwicklung alternativer Szenarien dient dazu, den Möglichkeitsraum plausibler aber nicht determinierter Technikfolgen zu beschreiben.15 Auf diese Weise wird es möglich, robuste Handlungsstrategien zu bestimmen, die positive Ergebnisse in dem gesamten Raum plausibler Zukunftsentwicklungen haben und nicht an das Eintreten bestimmter prognostizierter Verläufe gebunden sind. In der Technikfolgenabschätzung werden so mögliche, plausible oder wahrscheinliche Technikzukünfte als Folgen von Handlungen und Entscheidungen analysiert,16 im Hinblick auf Erwünschtheit oder Zumutbarkeit beurteilt und die Ergebnisse dieser Beurteilungen in gegenwärtige Entscheidungsprozesse hinein rückgekoppelt, oft im Rahmen wissenschaftlicher Politikberatung.17 Umweltpolitik, Sozialpolitik, Energiepolitik oder Sicherheitspolitik sind einschlägige Felder, in denen teils weit ausgreifende Aussagen über mögliche, zu verhindernde oder erhoffte Technikzukünfte als Entscheidungsgrundlagen verwendet werden, mit all den involvierten Unsicherheiten und konfliktbehafteten Auseinandersetzungen der ›Contested Futures‹.18 Ein großer Markt für Zukunftsstudien ist entstanden, um diesem Beratungsbedarf in konsequentialistischer Ausrichtung Rechnung zu tragen.19 12 Vgl. Herbert Paschen, u.a.: »Technikfolgenabschätzung. Ein strategisches Rahmenkonzept für die Analyse und Bewertung von Technikfolgen«, in: Thomas Petermann (Hg.): Technikfolgen- Abschätzung als Technikforschung und Politikberatung, Frankfurt 1991, S. 19–42. 13 Vgl. Oswald Schwemmer: Handlung und Struktur, Frankfurt 1987 oder z.B. auch Wilhelm Leutzbach: Das Problem mit der Zukunft. Wie sicher sind Voraussagen?, Düsseldorf 2000. 14 Vgl. Jürgen Gausemeier, u.a.: Szenario-Management. Planen und Führen mit Szenarien, München, Wien 1996. 15 Vgl. Christian Dieckhoff, u.a.: Zur Interpretation von Energieszenarien, Schriftenreihe »Energiesysteme der Zukunft«, München 2015. 16 Der Begriff der Technikzukünfte dient als Oberbegriff für vorgestellte zukünftige sozio-technische Entwicklungen im Zuge des wissenschaftlich-technischen Fortschritts. Er umfasst Vorhersagen und Szenarien, aber auch Visionen und Utopien, Erwartungen und Befürchtungen, in denen Annahmen über Technikfolgen in ihrem gesellschaftlichen Kontext eine Rolle spielen (Grunwald: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung). 17 Vgl. z.B. Thomas Petermann, u.a. (Hg.): Technikfolgen-Abschätzung am Deutschen Bundestag, Berlin 2005. 18 Vgl. Nik Brown, u.a. (Hg.): Contested Futures. A Sociology of Prospective Techno-Science, Burlington 2000. 19 Vgl. Frank Nullmeier: »Neue Konkurrenzen. Wissenschaft, Politikberatung und Medienöffentlichkeit«, in: Claus Leggewie (Hg.): Von der Politik- zur Gesellschaftsberatung. Neue Wege öffentlicher Konsultation, Frankfurt am Main, New York 2007, S. 171–180. 324 Epistemologische Grenzen des Konsequentialismus Gleichwohl ist es nicht trivial zu verstehen, was es bedeutet, durch Zukunftswissen Orientierung zu schaffen.20 Belastbares Technikfolgenwissen stellt dafür eine zentrale Vorbedingung dar, damit das konsequentialistische Argumentationsschema (vgl. Abb. 1) nicht zu einem erkenntnistheoretischen Leerlauf wird, sondern einen validen Mehrwert bereitstellt. Bekanntermaßen jedoch ist Zukunftswissen erkenntnistheoretisch prekär, da es weder empirisch überprüfbar noch ohne Zusatzannahmen aus gegenwärtigem Wissen logisch deduzierbar ist.21 Hier hat das konsequentialistische Schema eine offene Flanke.22 Die Technikfolgenabschätzung hat durch Methodenentwicklung und epistemologische Reflexion vielfach darauf reagiert, jedoch das Schema selbst nicht grundsätzlich in Frage gestellt. Etwa ab dem Jahr 2000 wurde die Technikfolgenabschätzung und andere Ansätze der Technikfolgenreflexion vor die Herausforderung der heute so genannten NEST (new and emerging sciences and technologies) gestellt. Charakteristisch für NEST sind wissenschaftlich-technische Entwicklungen in einem frühen Stadium mit sowohl hohen Erwartungen als auch weitreichenden Befürchtungen und entsprechend heftigen Debatten. Beispiele sind die Nanotechnologie, die Synthetische Biologie, die Robotik, das Human Enhancement und das Climate Engineering.23 Es zeigte sich rasch, dass der konsequentialistische Ansatz in Feldern dieses Typs nicht funktioniert.24 Erste Hinweise finden sich in der Debatte zur Nanotechnologie.25 Angesichts des extremen Schwankens früher Reflexionsansätze zwischen Paradieserwartungen und Befürchtungen der Apokalypse war hier nicht nur der prognostische Ansatz,26 sondern sogar das Denken in alternativen Zukünften wie Szenarien illusorisch. Zu 20 Vgl. Armin Grunwald: »Modes of orientation provided by futures studies: making sense of diversity and divergence«, European Journal of Futures Studies (2013), www.zeitschrift-zukunftsforschung.de/ausgaben/jahrgang-2013/ausgabe-2/3694 (aufgerufen: 21.7.2017). 21 Vgl. Nelson Goodman: Tatsache Fiktion Voraussage, Frankfurt am Main 1988 (Ersterscheinung: Fact Fiction Forecast, 1954) und Armin Grunwald: »Wissenschaftliche Validität als Qualitätsmerkmal der Zukunftsforschung«, Zeitschrift für Zukunftsforschung 2 (2013), http:// www.zeitschrift-zukunftsforschung.de/ausgaben/jahrgang-2013/ausgabe-2/3694 (aufgerufen: 21.7.2017). 22 Vgl. Walther Ch. Zimmerli: »Prognose und Wert. Grenzen einer Philosophie des »Technology assessment««, in: Friedrich Rapp, u.a. (Hg.): Technikphilosophie in der Diskussion, Braunschweig 1982, S. 139–152 und Christoph Hubig: Die Kunst des Möglichen II. Grundlinien einer dialektischen Philosophie der Technik Band 2: Ethik der Technik als provisorische Moral, Bielefeld 2007. 23 Vgl. Armin Grunwald: The Hermeneutic Side of Responsible Research and Innovation, London 2016. 24 Vgl. generell zur Kritik am Konsequentialismus Julian Nida-Rümelin: Kritik des Konsequentialismus, München 2013. 25 Vgl. Torben B. Zülsdorf, u.a. (Hg.): Quantum Engagements. Social Reflections of Nanoscience and Emerging Technologies, Heidelberg 2011. 26 Vgl. Armin Grunwald: »Nanotechnologie als Chiffre der Zukunft«, in: Alfred Nordmann, u.a. (Hg.): Nanotechnologien im Kontext, Berlin 2006, S. 49–80. 325 groß und unbestimmt erschien der Möglichkeitsraum des Zukünftigen, als dass hier noch eine vernünftige Unterscheidung von plausiblen und nicht plausiblen Technikzukünften möglich gewesen wäre. Das konsequentialistische Schema (Abb. 1) bricht jedoch zusammen, wenn im Feld der betrachteten Zukünfte weitgehende Beliebigkeit herrscht. Wo Folgenüberlegungen nur in epistemologisch nicht klassifizierbaren spekulativen Zukunftserwartungen, Visionen oder Befürchtungen statt in Wissen bestehen, muss jeder Versuch misslingen, durch eine Folgenanalyse in nachvollziehbarer Argumentation zur wissenschaftlichen, gesellschaftlichen oder politischen Orientierung beizutragen. Konzeptionelle Reaktionen auf diese Situation ließen nicht auf sich warten. Der Vorschlag eines Vision Assessment,27 die Kritik an der spekulativen Nano-Ethik,28 die Skizze einer explorativen Philosophie und verschiedene,29 meist verstreute Hinweise auf die hermeneutische Seite der Technikreflexion sind hier zu nennen.30 Gemeinsam ist diesen Ansätzen die Suche nach einer nicht-konsequentialistischen Perspektive. Berechtigt erscheint allerdings die Frage, ob in einer Situation, wo jeglicher Anspruch auf Antizipation aufgegeben werden muss,31 überhaupt noch belastbare Orientierung geleistet werden kann. Vielleicht sollte Technikfolgenabschätzung aufgrund von nicht behebbarem Wissensmangel hier passen und den Gang der Entwicklung abwarten, bis sich bessere Bedingungen zur Bereitstellung von belastbarem Folgenwissen ergeben. Die Befassung mit anderen, relevanteren und epistemisch besser zugänglichen Fragen könnte empfohlen werden, so der auf Technikfolgenabschätzung übertragene Rat von Nordmann an die Angewandte Ethik.32 Ich vertrete hier jedoch die These,33 dass Aufklärung und Orientierung bis hin zu wissenschaftlicher Politik- und Gesellschaftsberatung auch in diesen Fällen sowohl erforderlich als 27 Vgl. Arianna Ferrari, u.a.: »Visions and Ethics in Current Discourse on Human Enhancement«, in: Nanoethics 6 (2012), Heft 3, S. 215–229. 28 Vgl. Alfred Nordmann: »If and Then. A Critique of Speculative Nanoethics«, in: NanoEthics 1 (2007), Heft 1, S. 31–46. 29 Vgl. Armin Grunwald: »From Speculative Nanoethics to Explorative Philosophy of Nanotechnology«, in: NanoEthics 4 (2010), Heft 2, S. 91–101. 30 Vgl. z.B. Simone van der Burg: »On the Hermeneutic Need for Future Anticipation«, in: Journal of Responsible Innovation 1 (2014), Heft 1, S. 99‑102 und Helge Torgersen: »TA als hermeneutische Unternehmung«, in: Technikfolgenabschätzung – Theorie und Praxis 22 (2013), Heft 2, S. 75–80. 31 Vgl. Alfred Nordmann: »Responsible Innovation, the Art and Craft of Future Anticipation«, in: Journal of Responsible Innovation 1 (2004), Heft 1, S. 87–98. 32 Vgl. Nordmann: »If and Then«, in: NanoEthics 1. 33 Folgend Armin Grunwald: »The hermeneutic side of Responsible Research and Innovation«, in: Journal of Responsible Innovation 1 (2014), Heft 3, S. 274–291, ausgearbeitet in Armin Grunwald: The Hermeneutic Side of Responsible Research and Innovation, London 2016. 326 auch möglich ist.34 Sie nimmt allerdings andere Form an: die einer hermeneutischen Reflexion. Hermeneutische Erweiterung der Technikfolgenabschätzung Der Vorschlag ist, die teils sehr lebhaften und kontroversen Debatten um NEST oder andere Wissenschafts- oder Technikfelder nicht wie üblich als antizipatorische, prophetische oder quasi-prognostische Rede über Zukünftiges, sondern als Ausdrucksformen der Gegenwart zu deuten. Während beispielsweise in der konsequentialistisch ausgerichteten Technikfolgenabschätzung immer wieder zwischen Chancen und Risiken abgewogen werden soll, wird in einer hermeneutischen Perspektive angesichts bloß spekulativer Aussagen über Chancen und Risiken gefragt, was aus heutiger Sicht mit welchen Gründen als Chance und was als Risiko eingestuft wird, von welchen Akteuren diese Zuordnungen vorgenommen werden, und was aus dieser Landschaft diverser und häufig divergenter Zuschreibungen über die heute ablaufenden Debatten gelernt werden kann. Nicht was in diesen Debatten mit mehr oder weniger Berechtigung über kommende Jahrzehnte, also zukünftige Gegenwarten behauptet wird, sondern was die Tatsache, dass diese Debatten heute stattfinden, oder die Art und Weise, wie sie stattfinden und welche Akteure mit welchen Positionen und Argumenten auftreten, eben über uns heute aussagt, wird zum Thema der Untersuchung und zur Quelle der Generierung von Orientierung gemacht. Damit werden Technikzukünfte als gegenwärtige Zukünfte35 in der »Immanenz der Gegenwart«36 radikal ernst genommen und einem Programm der Selbstaufklärung unterzogen. Technikzukünfte sind soziale Konstruktionen, erzeugt durch Autoren, Gruppen und Organisationen zu je bestimmten Zeitpunkten in der Immanenz der jeweiligen Gegenwart.37 Sie werden in bestimmten Verfahren (z.B. Simulation, Szenarientechnik oder auch literarische Verfahren im Fall der Science-Fiction-Literatur) durch Komposition von Zutaten unter Zielen und Zwecken ihrer Hersteller gebildet. Zu 34 Technikzukünfte können Entwicklungen in Gang setzen oder sie beeinflussen völlig unabhängig davon, ob ihnen eine prädiktive Kraft innewohnt (Grunwald: The Hermeneutic Side of Responsible Research and Innovation), da sie Interventionen in laufende Kommunikation sind (Armin Grunwald, u.a. (Hg.): Technikzukünfte. Vorausdenken – Erstellen – Bewerten, Heidelberg 2012). Hier ist z.B. auf das Phänomen sich selbsterfüllender Prophezeiungen zu verweisen (Robert K. Merton: »The Self-Fulfilling Prophecy«, in: The Antioch Review 8 (1948), Heft 2, S. 193–210). 35 Vgl. Niklas Luhmann: »Die Zukunft kann nicht beginnen. Temporalstrukturen der modernen Gesellschaft«, in: Peter Sloterdijk (Hg.): Vor der Jahrtausendwende. Berichte zur Lage der Zukunft, Frankfurt am Main 1990. 36 Vgl. Grunwald: »Nanotechnologie als Chiffre der Zukunft«, in: Nordmann, u.a. (Hg.): Nanotechnologien im Kontext. 37 Ebd. 327 den Zutaten gehören je gegenwärtige Wissensbestände, aber auch Zeit- und Problemdiagnosen, Werte, Weltanschauungen, Wunschbilder für zukünftige Welten, gegenwärtige Interessen und Präferenzen, Annahmen über unbeeinflussbare Randbedingungen sowie sicher weitere kognitive wie auch nonkognitive Formen der Weltwahrnehmung. Damit sind Technikzukünfte als sprachliche Gebilde, ggf. unter Integration außersprachlicher Elemente wie Diagramme oder Bilder, häufig opak: die Zutaten mit ihrer epistemischen Qualität, ihren Prämissen und Konnotationen sowie die Art und Weise ihrer Verbindung zu Zukunftserzählungen sind in der Regel nicht so ohne weiteres erkennbar, geschweige denn einschätzbar.38 An dieser Beobachtung setzt der hermeneutische Ansatz an. Es geht darum, das opake Geflecht unterschiedlichster Ingredienzien zu entflechten, es dadurch transparent zu machen und Fragen nach der Bedeutung sowohl der Ingredienzien als auch der durch die Komposition entstehenden komplexen Technikzukünfte zu klären. Das Erkenntnisinteresse besteht darin herauszufinden, was diese Zukünfte über uns heute erzählen, über unsere gesellschaftlichen Praktiken, unterschwelligen Sorgen, impliziten Hoffnungen und Befürchtungen, verborgene geistesgeschichtliche Traditionen oder kulturelle Zusammenhänge. Technikzukünfte als ein Medium gesellschaftlicher Debatten bergen,39 so die Vermutung, implizites Wissen und Einschätzungen, die es zu explizieren lohnt, um transparentere Problembeschreibungen im Feld der betrachteten Technikzukünfte zu erlauben und damit transparentere argumentationsgestützte Auseinandersetzungen möglich zu machen. Das Ziel einer Hermeneutik von Technikzukünften ist letztlich also ein praktisches: die Selbstaufklärung einer Praxis, in der Technikzukünfte erzeugt, diskutiert, verworfen, zugeschrieben, festgeschrieben, angezweifelt, abgelehnt oder weiterentwickelt werden angesichts der Tatsache, dass diese Prozesse faktische Kraft entfalten können, z.B. indem sie massive Forschungsförderung mobilisieren oder zur gesellschaftlichen Ablehnung von Technikfeldern führen können ‑ und dass sie diese Effekte in selbsterfüllender Weise als Kommunikationsakte per se haben können, auch ohne dass belastbares Folgenwissen vorliegt.40 Was Hermeneutik hier leisten kann, muss sich an den Beiträgen zu dieser Selbstaufklärung zeigen. Diese Form der Orientierung ist freilich weitaus bescheidener als die konsequentialistische Erwartung, mit Prognosen oder Szenarien ›richtiges Handeln‹ mehr oder weniger direkt orientieren (vgl. Abb. 1) oder gar, wie es immer wieder technokratisch heißt, ›optimieren‹ zu können. Sie besteht letztlich nur in einem klassischen Aufklärungsprogramm, um die Bedingungen dafür zu verbessern, dass demokrati- 38 Das gilt sogar für Technikzukünfte, die sich explizit unter wissenschaftlichen Anspruch stellen wie z.B. auf quantitativen Modellen beruhende Energieszenarien (Dieckhoff, u.a.: Zur Interpretation von Energieszenarien). Ihre häufige Intransparenz birgt die Gefahr, dass sie als Geheimwissen angesehen werden. 39 Vgl. Grunwald: Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. 40 Vgl. Merton: »The Self-Fulfilling Prophecy«, in: The Antioch Review 8. 328 sche Debatten und Zukunftsentscheidungen aufgeklärter, transparenter und offener ablaufen können. Ausgangspunkt der Entwicklung dieses Vorschlags war die Beobachtung, dass das konsequentialistische Paradigma in aktuellen Technikdebatten aufgrund der hohen Diversität und Divergenz der Technikzukünfte in vielen Feldern nicht funktioniert (Kap. 3). Gerade diese Konstellation erscheint hermeneutisch anregend, um die Ursachen und Quellen dieser Divergenz aufzudecken und zu verstehen, sowohl auf der Ebene einzelner Technikzukünfte wie auch auf der Ebene des Spektrums unterschiedlichster Technikzukünfte im gleichen Technikfeld. Freilich ist der hermeneutische Gedanke, Technikzukünfte als Elemente gegenwärtiger Kommunikation über den wissenschaftlich-technischen Fortschritt zu verstehen und nach ihrer gegenwärtigen Bedeutung zu fragen, nicht auf diese Konstellation beschränkt. Gerade auch bei Szenarien kann mit Recht gefragt werden, warum z.B. bestimmte Annahmen scheinbar unhinterfragt sind, warum gewisse Argumentationsschemata immer wiederkehren, warum dennoch teils extreme Divergenzen auftreten etc.41 Auch bei Szenarien stellt sich nicht nur die Frage, was sie mit welchem Geltungsanspruch über zukünftige Gegenwarten aussagen, sondern was es gegenwärtig bedeutet, dass sie angefertigt werden und wie sie angefertigt werden, z.B. im Hinblick auf die Selektivitäten der ihnen zugrunde liegenden Modelle.42 In Gegenüberstellung zum konsequentialistischen Paradigma mit seiner zentralen Ausrichtung auf Fragen der Art, welche Folgen neue Technologien haben können und wie diese ethisch, politisch oder gesellschaftlich beurteilt werden (vgl. Abb. 1), geraten in dieser Perspektive andere Fragestellungen in den Blick: • Wie wird wissenschaftlich-technischen Entwicklungen, die zunächst einmal im Labor nichts weiter als eben wissenschaftlich-technische Entwicklungen sind, eine gesellschaftliche, ethische, soziale, ökonomische, kulturelle etc. Bedeutung zugeschrieben? Welche Rollen spielen dabei z.B. (visionäre) Technikzukünfte? Wer schreibt diese Bedeutungen zu und warum?43 • Wie werden Bedeutungszuweisungen kommuniziert und diskutiert? Welche Rollen spielen sie in den großen Technikdebatten unserer Zeit? Welche kommunikativen Formate und sprachlichen Mittel werden verwendet und warum? Welche außersprachlichen Mittel (z.B. Filme, Kunstwerke) spielen hier eine Rolle und was sagt ihre Nutzung aus? • Warum werden manche wissenschaftlich-technische Entwicklungen in der jeweiligen Weise, mit den jeweils verwendeten spekulativen Technikzukünften und mit den jeweiligen Bedeutungszuweisungen thematisiert und nicht anders? Wel- 41 Vgl. Dogan Keles, u.a.: »The development of the German energy market until 2030. A critical survey of selected scenarios«, in: Energy Policy 39 (2011), S. 812–825. 42 Vgl. Dieckhoff, u.a.: Zur Interpretation von Energieszenarien. 43 Vgl. Grunwald: The Hermeneutic Side of Responsible Research and Innovation. 329 che alternativen Bedeutungszuschreibungen wären denkbar und warum werden diese nicht aufgegriffen? • Warum werden manche Debatten (Beispiel Human Enhancement) so intensiv und ausdauernd ausgefochten, obwohl die Gegenstände der Debatte, die Technikzukünfte, weitgehend spekulativ sind und es heute keine dringenden Beratungs- und Entscheidungsnotwendigkeiten gibt? Was sagt das über uns heute aus? • Haben nicht auch traditionelle Formen der Technikfolgenreflexion (Prognostik, Szenarien) eine hermeneutische Seite? Werden vielleicht hermeneutisch bedeutsame Konstellationen hinter schein-objektiven Zahlenreihen, Prognosen und in Diagrammen geradezu versteckt? In der Beantwortung dieser Fragen erweitert sich das interdisziplinäre Spektrum der Technikfolgenabschätzung. Sprachwissenschaften, hermeneutische Ansätze in Philosophie und Geisteswissenschaften, Kulturwissenschaften und auch die Hermeneutik in der Kunst ‑ insofern z.B. Technikzukünfte mit künstlerischen Mitteln erzeugt und kommuniziert werden ‑ sind hier gefragt. Nun wird allerdings der Begriff der Hermeneutik unterschiedlich verwendet. Eine Vielfalt von Konzepten mit unterschiedlichsten Methoden in Sozial- und Geisteswissenschaften ist im Angebot wie etwa die Objektive Hermeneutik,44 Narrative Hermeneutik,45 philosophische Ausrichtungen,46 empirisch geprägte Traditionen des Verstehens wie in der soziologischen Diskursanalyse,47 oder sprachwissenschaftliche Ansätze. Die für eine hermeneutische Perspektive in der Technikfolgenabschätzung formulierten Zielsetzungen und Aufgaben verhindern angesichts der Kontextbezogenheit der Aufgaben und der Heterogenität der Kontexte eine pauschale Festlegung auf einen dieser Ansätze. Nur in konkreten Untersuchungen unter konkreten Randbedingungen nach Maßgabe der Untersuchungsziele und der Kenntnis der Leistungsfähigkeit und der ›blinden Flecken‹ der unterschiedlichen Ansätze kann im Rahmen von Zweckmäßigkeitserwägungen eine begründete Festlegung erfolgen. Insgesamt ist hier, wie auch sonst in der Technikfolgenabschätzung, ein interdisziplinärer Zugang sinnvoll. 44 Vgl. Ulrich Oevermann, u.a.: »Die Methodologie einer »objektiven Hermeneutik« und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften«, in: Hans-Georg Soeffner (Hg.): Interpretative Verfahren in den Sozial- und Textwissenschaften, Stuttgart 1979, S. 352–434. 45 Vgl. Paul Ricœur: Hermeneutics and the Human Sciences. Essays on Language, Action and Interpretation, London 1981. 46 Vgl. z.B. Hans-Georg Gadamer: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 1960. 47 Vgl. Reiner Keller: »Wissenssoziologische Diskursanalyse«, in: Reiner Keller, u.a. (Hg.): Handbuch Sozialwissenschaftliche Diskursanalyse Bd. 1. Theorien und Methoden, Wiesbaden 2010, S. 115–147. 330 Bezüge zu den philosophischen Debatten von Heidegger über Gadamer bis Ricoeur sind sicher zu Grundsatzfragen möglich. So erscheint es prima facie durchaus plausibel, die narrative Hermeneutik von Ricoeur zu nutzen,48 um Verständigungsprozesse und Kontroversen über visionäre oder utopische Technikzukünfte aufzuklären, die in hohem Maße narrativ geprägt sind und oft auch existenzielle Anklänge zeigen,49 beispielsweise über zukünftige Mensch/Technik-Verhältnisse oder zu transhumanistischen Erzählungen. Methodische Ansätze wie etwa das sokratische Nachfragen in der Tradition der Maieutik, vermittelt z.B. durch Böhler,50 könnten genutzt werden, um den Deutungskonstruktionen sozio-technischer Zukunftsvorstellungen nachzuspüren. Oder anthropologisch kann gefragt werden, inwiefern und auf welche Weise sich in Technikzukünften auch eine Selbstkonstitution des Menschen vollzieht, indem er sich zu grundlegenden Fragen etwa im Verhältnis zu Natur und Technik positioniert und dadurch eben auch seine eigene Natur mit konstruiert.51 Gefragt sind aber sicher auch empirisch gehaltvolle und damit den Sozial- oder Sprachwissenschaften entstammende Verfahren wie die bereits erwähnte Diskursanalyse.52 Insgesamt lassen sich in einer Hermeneutik der Technikzukünfte drei Modi der Argumentation unterscheiden: • Im empirischen Modus geht es um die Beobachtung der Erzeugung und Kommunikation der Technikzukünfte und ihrer vermutlich stattfindenden ›Wanderungen‹ in Raum und Zeit einschließlich ihrer Metamorphosen dabei.53 • Im interpretativen Modus ist die Aufgabe, die empirisch gefundenen Technikzukünfte zu deuten, sie in Beziehung zu kulturellen, historischen und geistesgeschichtlichen Entwicklungen, z.B. zu den großen Erzählungen, zu setzen und zu klären, was sie ein- und was sie ausschließen sowie was sie auf welche Weise und mit welchen Mitteln akzentuieren. • Im normativen Modus stellen sich Fragen, wie die empirisch gefundenen Technikzukünfte nach Maßstäben von Diskursethik und deliberativer Demokratie beurteilt werden können, wo legitim Kritik geübt werden kann und welche Verbesserungsvorschläge auf Basis welcher Argumente gemacht werden können. Die hermeneutische Erweiterung der Technikfolgenabschätzung eröffnet neue und nicht an der Antizipation zukünftiger Entwicklungen orientierte Perspektiven. Die 48 Vgl. Ricœur: Hermeneutics and the Human Sciences. 49 Vgl. Zeljko Radinkovic: Hermeneutik der Zukunft, Dissertation, Universität Stuttgart 2011. 50 Vgl. Dietrich Böhler: »Konstituierung des Handlungsbegriffes. Teleologisches und quasi-dialogisches Rekonstruktionsmodell«, in: Hans Lenk (Hg.): Handlungstheorien interdisziplinär, Band II, München 1977, S. 161–196. 51 Vgl. Matthias Gutmann, u.a. (Hg.): On Human Nature. Anthropological, Biological, and Philosophical Foundations, Berlin, u.a. 2002. 52 Vgl. Bruno Gransche: Vorausschauendes Denken. Philosophie und Zukunftsforschung jenseits von Statistik und Kalkül, Bielefeld 2015. 53 Vgl. Grunwald: The Hermeneutic Side of Responsible Research and Innovation, Abb. 1‑1. 331 Technikzukünfte werden nicht als wie auch immer unsichere Vorwegnahme zukünftiger Gegenwarten verstanden, sondern als Medium gegenwärtiger Selbstverständigungsprozesse in der Gesellschaft. Ihre hermeneutische Analyse ist als Mittel der Selbstaufklärung ein ureigenes Geschäft der Philosophie, reicht aber durch die benötigte Empirie auch darüber hinaus. Konsequentialismus in der Hermeneutik und umgekehrt Damit wird der übliche konsequentialistische Modus der Technikfolgenabschätzung verlassen, in dem aus einem Wissen über mögliche, plausible oder wahrscheinliche zukünftige Technikfolgen Schlussfolgerungen für heutige Entscheidungen orientiert werden sollen. In ganz anderer Hinsicht freilich bleibt auch hier ein konsequentialistisches Moment. Denn die Erzeugung, Verbreitung und Diskussion auch der spekulativsten Technikzukünfte kann Folgen generieren: Folgen für die gesellschaftliche Debatte, Folgen für die Risiko- und Chancenwahrnehmung, Folgen für die Allokation von Forschungsgeldern, Folgen durch die Motivation junger Menschen, sich in Feldern mit hohen technologischen Erwartungen zu engagieren. Auch komplett spekulative Zukünfte sind Interventionen in gesellschaftliche Kommunikation und können dort einiges an Folgen bewirken oder auch anrichten.54 Diese Folgen freilich sind nicht erst in einer fernen Zukunft, sondern oft schon direkt in der Gegenwart zu sehen. Entsprechend ist besondere Verantwortung im Umgang mit diesem Typ von Zukünften verbunden,55 was jedoch wiederum eine konsequentialistische Denkfigur ist. Umgekehrt erscheint es plausibel, dass hermeneutische Orientierung auch im bisherigen Konsequentialismus der Technikfolgenabschätzung eine Bereicherung ist oder zumindest sein kann. Technikzukünfte wie vor allem Szenarien, wie bereits gesagt, entstehen durch komplexe Konstruktionsprozesse, in denen Bedeutungen in Modelle und Annahmen hineingelegt werden, deren Rekonstruktion, Transparentmachung und Kritik erforderlich ist, um die Entstehung von Geheimwissen zu vermeiden.56 Insgesamt wurde gezeigt, dass eine Beschränkung der Technikfolgenabschätzung auf das konsequentialistische Paradigma eine Verengung ist, die interessante Fragen und Perspektiven ausblendet. Auch wenn im Alltagsgeschäft der Technikfolgenabschätzung vermutlich das konsequentialistische Vorgehen dominant bleiben wird, sollte ihre hermeneutische Seite nicht übersehen werden. Dieser Rat gilt auch aus einem eher pädagogischen Grund: Die hermeneutische Perspektive nimmt die Im- 54 Vgl. Grunwald, u.a. (Hg.): Technikzukünfte. 55 Vgl. Grunwald: The Hermeneutic Side of Responsible Research and Innovation. 56 Vgl. Dieckhoff, u.a.: Zur Interpretation von Energieszenarien. 332 manenz der Gegenwart ernst und verhindert einen übersteigerten Optimismus der Vorhersehbarkeit zukünftiger Entwicklungen, der trotz aller Fehlschläge weiterhin virulent ist. Christoph Hubig Technology Assessment und Hermeneutik Ein Kommentar zu »Die hermeneutische Seite der Technikfolgenabschätzung« von Armin Grunwald Unter dem Titelwort »Hermeneutik« oder »hermeneutisch«, wie es insbesondere angesichts virulenter Problemlagen eines Technology Assessment der »new and emerging sciences and technologies« (NEST) von Armin Grunwald mit guten Gründen seit einigen Jahren geltend gemacht wird, sind durchaus unterschiedliche problemdiagnostische Linien, Desiderate, Thematisierungen neuer Gesichtspunkte und methodische Empfehlungen zusammengeführt. Dies löste ‑ erwartbar ‑ eine Diskussion aus, die von emphatischer Begrüßung eines überfälligen Schrittes bis zu deutlicher Zurückhaltung oder Ablehnung von TA-Seite einerseits, philosophisch orientierter Methodenlehre andererseits reicht und einen irritierenden Eindruck hinterlässt. Das unübersichtliche Bild mag daran liegen, dass je nach Interessenlage einzelne Aspekte der Thematik fokussiert und für die Bilanzierung von Leistungen und Grenzen des vorgeschlagenen Ansatzes unterschiedlich eingesetzt werden. Es dürfte aber wohl auch darauf gründen, dass ‑ im Zuge eines durchaus angemessenen Herantastens an eine neue Thematik ‑ unterschiedliche tentative Charakterisierungen wie »die hermeneutische Seite«, »die hermeneutische Dimension«, die »hermeneutische Erweiterung«, der »hermeneutische Ansatz«, die »hermeneutische Orientierung«, die »hermeneutische Perspektive« der Technikfolgenabschätzung bis hin zur Programmformel einer »hermeneutischen Wende«57 oder einer »Hermeneutik der Zukunft« jeweils unterschiedliche Deutungsoptionen zulassen. Diese beziehen sich dann (1) auf einen zu Recht oder Unrecht postulierten neuen Ansatz bzw. ein neues Paradigma der TA oder (2) eine »Erweiterung« in dem Sinne, dass etwas explizit gemacht werden solle, was die »klassische« TA implizit immer schon begleitet habe und nun von deren Verfechtern als »Hase- und Igel-Effekt« geltend gemacht wird,58 oder dahingehend, dass zusätzliche Themen unter neuen methodischen Zugriffen einbezogen werden sollen. Gefragt wird (3), ob der Umgang mit technologischen Zukünften einer neuen Aufgabenstellung unterstellt und völlig neu zu orientieren sei (»Herme- 57 Armin Grunwald: »Die hermeneutische Erweiterung der Technikfolgenabschätzung«, in: Technikfolgenabschätzung. Theorie und Praxis 24 (2015), Heft 2, S. 65–69, hier S. 67. 58 Stellvertretend Knud Böhle: »Desorientierung der TA oder Erkenntnisgewinn? Einige Anmerkungen zum Vorschlag, die TA hermeneutisch zu erweitern«, in: Technikfolgenabschätzung. Theorie und Praxis 24 (2015), Heft 3, S. 91–97. 333 neutik der Zukunft«). In letzterem Fall müsste über einen bloßen Paradigmenwechsel hinaus dann die Disziplin wissenschaftlich (im Konzert der Fachkulturen) und wissenschaftspolitisch (bezüglich ihrer Funktionszuweisung) neu aufgestellt und verortet werden. Vielleicht sind (1) bis (3) überhaupt aber nicht echte Alternativen, sondern bergen einen inneren Zusammenhang, der genauer freigelegt werden müsste. In allgemeinster Ausrichtung basiert Grunwalds Vorschlag zu einer wie auch immer dann gearteten »Hermeneutik der TA« (als Genitivus subjektivus oder objektivus) auf drei Ansatzpunkten, die gut nachvollziehbar und in ihrer Klarstellung durchaus zu begrüßen sind: Erstens ist da die Pluralisierung der Zukünfte mit der damit einhergehenden stetig sich vergrößernden Hypothek an Unsicherheiten und Ungewissheiten ‑ hierzu existieren bereits einige, dem damaligen bescheidenen Diskussionsstand entsprechende Anmerkungen von mir.59 Zweitens verbindet Grunwald damit seine Kritik an einem Konsequenzialismus als Paradigma der TA (terminologisch fixiert im verengten Titelwort einer Technikfolgenabschätzung), und drittens akzentuiert er die Gegenwärtigkeit der Zukunft als in der Immanenz der Gegenwart gegebene Deutung bzw. gegebenes Deutungsschema, welches seinerseits einer Deutung bedarf, sofern wir uns unserer selbst vergewissern wollen, auch und gerade unter dem praktischen Interesse, dass solche Deutungen reale Folgen zeitigen. Wo es um Deutungen geht, ist das Verstehen gefordert, und das Titelwort »Hermeneutik« soll wohl anzeigen, dass irgendwie Erträge aus der über die Jahrhunderte entwickelten Hermeneutik als Kunstlehre des Verstehens geltend gemacht werden könnten. Dies setzte aber voraus, dass hier ein terminologisches Konzept von Hermeneutik und Verstehen (über die intuitive und alltagspraktische Verwendung von »Verstehen« hinaus) in Anschlag zu bringen wäre. Ich meine, dass dies möglich ist und vermute auch, dass sich hieraus weiterführende Impulse für die Diskussionslinie entwickeln lassen könnten, die ich insgesamt begrüße. Unter der Konzession davon abzusehen, dass es sich bei den auszulegenden Korpora um kanonische Texte von der antiken Mythologie bis zu den Offenbarungsschriften der christlichen Tradition handelte, findet sich eine ganze Reihe von Punkten, die einen eher losen oder aber auch strikten Anschluss erlauben. Ersteres betrifft die Lehre vom vierfachen Schriftsinn, die ein Spektrum von Deutungsoptionen und Deutungsstrategien vorstellt, letzteres die Neubegründung und -systematisierung moderner Hermeneutik bei Friedrich Daniel Ernst Schleiermacher und Wilhelm Dilthey. Im Rahmen der Lehre vom vierfachen Schriftsinn findet sich zunächst der sensus literalis bzw. historicus genannt, unter dem die objektstufige Bedeutung der ein- 59 Vgl. Christoph Hubig: »Unsere Verantwortung für die Zukunft«, in: Werner Fricke und Hans Heinz Zimmer (Hg.): Zukunftstechnologie und gesellschaftliche Verantwortung, Bonn 1994, S. 114–126. 334 schlägigen Narrative verhandelt wird – bezogen auf unser Thema beträfe dies die Triftigkeit erzählter Technikentwicklungen in der Vergangenheit über die Gegenwart bis zu Geschehnissen in der Zukunft u.a. via Trendextrapolation oder szenariobasierter Darstellung. Bei der Freilegung des buchstäblichen Sinnes geht es natürlich um die Authentifizierung und Validierung der Quellen und die Ordnung der referierten Inhalte. Als zweite Sinndimension wird nun darüber hinaus der sensus allegoricus geltend gemacht, der tiefere, abstraktere und allgemeinere bis hin zu übertragenen Bedeutungen betrifft, die mit den buchstäblichen Bedeutungen einhergehen (können). Letztere erscheinen dann als Verkörperungen, Instantiierungen oder Exemplifikationen ersterer und lenken den Blick auf basalere Strukturen und Verhältnisse von hintergründig wirkenden Faktoren, Bedingungen der Entwicklung und Sinnzusammenhängen. Mit der allegorischen Deutung sind erste Erwägungen über Pointierung und Relevanz der erzählten Entwicklungen (für unseren Kontext: etwa von Mensch- Technik-Verhältnissen) verbunden bzw. werden aus diesem Deutungshorizont als repräsentativ gerechtfertigt. Der sensus tropologicus, der moralische Sinn, wird im Rahmen einer dritten Deutungsoption freigelegt, die aus der Performanz der Übermittlung den paradigmatischen Charakter von Vorbildhaftigkeit und Abschreckung in handlungsorientierender Absicht zu gewinnen hat. Hier wird abgezielt auf die Wirkung des Textes, der als Parabel erscheint und in moralischer Absicht belehren und motivieren soll. Ergänzt wird dieses Spektrum schließlich durch den sensus anagogicus: diejenige Sinndimension, unter der ein visionärer oder eschatologischer Sinngehalt erschlossen werden soll – bezogen auf unser Thema ließen sich hier etwa Verbindungen zum »vision assessment«, spekulativen Zukunftsentwürfen und ihrer Kritik sowie einschlägigen Gesamtdeutungen unserer Zivilisationsentwicklung ablesen. »Lose« bleiben entsprechende Anschlussmöglichkeiten an die gegenwärtige Debatte insofern, als mannigfache Konkretisierungen und Übertragungen erforderlich wären, um diese Systematisierung fruchtbar zu machen. Freilich lässt sich zweierlei aus der Problemgeschichte dieser Tradition lernen: zum einen über den Streit um die Priorisierung eines dieser Schriftsinne, wie er seit der Mythendeutung zwischen den Allegorikern, Historikern, Rationalisten u.a. ausgetragen und jeweils unter dogmatischen bzw. theologischen Kriterien entschieden wurde, wobei bis in die Hermeneutik der frühen Neuzeit hinein unterschiedliche Letztinstanzen für die Rechtfertigung geltend gemacht wurden. Analoges würde sich einstellen, wenn ein Richtungsstreit in der Ausrichtung der TA auf einseitige Priorisierungen mit entsprechenden Begründungshypotheken abheben würde. Die Rede von einer »Erweiterung« der TA umginge dieses Problem. Zum anderen könnte jedoch über einen Blick auf diese Systematik die Einsicht gewonnen werden, dass manche Redeweise, die für eine Hermeneutik der Technikzukünfte drei Modi der Argumentation unterscheidet, nämlich den empirischen Modus, den interpretativen Modus und den normativen Modus, 335 insofern kategorial inhomogen erscheint und in gewisser Hinsicht einen Rückfall darstellt, als es bei allen diesen Modi doch um Varianten oder Ausprägungen der Interpretation geht, die jeweils unterschiedlich fokussiert ist.60 Eine »engere« oder strikte Anschlussoption für Grunwalds Unternehmen scheint mir hingegen bezüglich der Neubegründung und Neuausrichtung moderner Hermeneutik gegeben. Dies beginnt bereits bei der Formulierung der Ziele des Verstehens, die eine hohe Ähnlichkeit zu den Titelwörtern aufweisen, die Grunwald hier einsetzt: »Selbstaufklärung einer Praxis« bzw. zu fragen »was die Tatsache, dass diese Debatten heute stattfinden, oder die Art und Weise, wie sie stattfinden und welche Akteure mit welchen Positionen und Argumenten auftreten, eben über uns heute aussagt«, »Quelle der Generierung von Orientierung« u.v.a. mehr. Schleiermacher begriff das Verstehen als »das allmähliche Sich-selbst-Finden des denkenden Geistes«,61 wodurch der Mensch über sein »höchstes Interesse«62 klar wird; das Verstehen ziele nicht auf die historische Individualität als solche, sondern solle durch die historische Konstruktion »unser Selbst und andere« befruchten,63 nur ein Mittel zur »objektiven Betrachtung« sein; die »verkleinernde Kleinlichkeit« (einer historischen Auslegung) sei mit dieser »großartigen« Aufgabe zu verbinden.64 Das Verstehen beziehe eine so oder so begriffene Wirklichkeit auf die »Totalität des Möglichen« zurück, es diene dazu, »die Totalität des Möglichen durch beständiges Vergleichen zu ermitteln und wiederzugewinnen«.65 Es ist – und dort findet sich eine der wenigen Definitionen von »Verstehen« – eine »Umkehrung der Modifikation«.66 Allerdings ist zu berücksichtigen, dass der Terminus »Modifikation«, der die Schleiermacher’sche Methodenlehre prägt, nicht im Sinne von »Veränderung«, sondern im (spinozistischen) Sinne als »in einen Modus bringen«, mithin als Aktualisierung verstanden wird, als Überbrückung des Modalgefälles von Möglichkeit und Vermögen hin zu einer Verwirklichung, wie sie als Text, als Aufweis so oder so begriffener Realität, erscheint. (Weiteres hierzu später.) Dilthey sekundiert diese Ausrichtung der Hermeneutik als »Umkehrung der Modifikation« in seiner Formulierung, dass das Verstehen »ein weites Reich von Möglichkeiten eröffnet, das in der Determination des wirklichen Lebens nicht vorhanden war«.67 Auf dieser Basis entwickelten Schleiermacher (noch in eher idealistischer Ausrichtung an der Trias »Geist (als Denk- und Anschauungsvermögen) ‑ Sprache ‑ Person« und Dilthey (unter deutlichem Einbezug der historischen Entwicklung eines »objektiven Geistes«, unter des- 60 Vgl. Grunwald: »Die hermeneutische Erweiterung der Technikfolgenabschätzung«, Kap. 4. 61 Friedrich D. E. Schleiermacher: Hermeneutik und Kritik, Frankfurt am Main 1977, S. 328. 62 Vgl. Ebd., S. 235. 63 Vgl. Ebd., S. 340. 64 Vgl. Ebd. 65 Ebd., S. 177. 66 Ebd., S. 76. 67 Wilhelm Dilthey: »Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften«, in: Wilhelm Dilthey: Gesammelte Schriften, Band 7, Stuttgart 1958, S. 215. 336 sen materialen Kategorien unser Erleben der Wirklichkeit schematisiert und strukturiert wird) komplexe Regelwerke der Auslegung und des Verstehens, auf die im hiesigen Zusammenhang nur kursorisch einzugehen ist.68 Es seien jedoch wenigstens einige weitere Punkte erwähnt, die zu Unrecht vergessen sind und die neueren Linien der Hermeneutik und der Diskursanalyse auch und gerade im Kontext Technik befruchten könnten. Schleiermacher unterscheidet bekanntlich zwischen der psychologischen, der grammatischen und der technischen Interpretation. Dem entsprechen drei Typen des Verstehens, deren Ergebnisse zusammenzuführen sind. Das Erfordernis einer dreifachen Typisierung ist einer Architektonik geschuldet, in der das Konzept der Modifikation (bzw. ihrer Umkehrung im Verstehen) die zentrale Rolle spielt: »Geist« als Denk- und Anschauungsvermögen gewinnt erst seine »Tatsache«, die in Text und Rede ausgedrückt und kommuniziert wird, wenn er durch Sprache »modifiziert« ist.69 Sprache ihrerseits bleibt solange ein bloß Mögliches, ein »System von Modifikationen«, solange sie nicht durch den Geist zu einer Rede »modifiziert« ist.70 Geist und Sprache modifizieren sich also wechselseitig, liegen als solche aber noch im Felde der notwendigen Bedingungen, in dem eine »individuelle Natur« und die Elemente der Sprache gegeben sind. Diese können »nicht a priori konstruiert« werden, sondern sind erst in der wirklichen Rede ersichtlich, in der das Wechselverhältnis von Geist und Sprache seinerseits nun (final) modifiziert, also zur Wirklichkeit gebracht wird. Diese Verwirklichung bedarf als hinreichender Bedingung der Tätigkeit des Autors, der »Person« mit ihrem Charakter und Talent, die ihrerseits im Akt der Textproduktion modifiziert werden. Insofern bringt erst die Rede bzw. der Text die Sprache (als Totalität, als System von Bedeutungen), den Geist (als Totalität des Anschauungs- und Denkvermögens) und die »schriftstellerische Totalität«71 »zum Vorschein«.72 Wenn nun im Zuge der komparativen Methoden der Sprachanalyse, der »divinatorischen« Methoden als Methoden des psychologischen Einfühlens und dem Nachvollzug der eingesetzten Techniken (der Produktion von Tatsachen in Gestalt von Texten) das Zustandekommen dieser Texte im Verstehen (re-)konstruiert wird, findet eine »Umkehrung der Modifikation« statt, und die Totalitäten des Geistes, der sprachlichen Schemata sowie der charakter- und talentbedingten Herstellungspraktiken werden schrittweise erschlossen. Die Verfasstheit der wirklichen Ausdrücke und ihrer Kommunikation wird nachvollziehbar, indem sie auf die Möglichkeiten, aus denen sie entspringt, zurückgeführt wird. 68 Näheres hierzu in Christoph Hubig: Handlung – Identität – Verstehen, Weinheim 1985, Christoph Hubig: »Rationalitätskriterien inhaltlicher Analyse« in: Gerd Jüttemann (Hg.): Qualitative Forschung in der Psychologie, Weinheim 1985, S. 327–351, Christoph Hubig: »Die Hermeneutik bei Schleiermacher und Dilthey und ihre Bedeutung für die Psychologie«, in: Gerd Jüttemann (Hg.): Wegbereiter einer historischen Psychologie, Weinheim 1988, S. 70–83. 69 Vgl. Schleiermacher: Hermeneutik und Kritik, S. 79. 70 Vgl. Ebd., S. 78–79. 71 Ebd., S. 171. 72 Ebd., S. 78. 337 Dies liegt »in unserem höchsten Interesse«, weil wir sonst den Texten als indisponiblen Wirklichkeiten gleichsam ausgeliefert sind. Geist, Sprache und Mensch erscheinen vielmehr jeweils wechselseitig als »Organe« der Verwirklichung, ja selbst die Geschichte dürfe nicht nur als »Modalitäten der Existenz von Personen« betrachtet werden, nämlich nicht ungeachtet der Sprache als modifizierender Kraft in der Geschichte sowie des Geistes qua modifizierender Leistung der Personen selbst.73 Für die gegenwärtige Problemlage signalisiert solcherlei, dass Ergebnisse einer TA (sofern diese »hermeneutisch« sein soll), die sich ja in Textform präsentiert, bezüglich der angeführten Tatsachen validiert werden muss mit Blick auf und relativ zu den eingesetzten sprachlichen Schemata und kategorialen Apparaten (Schleiermacher: »Sprachkreise«), den Vermögen eines Denkens und Anschauens (z.B. bis hin zu eingesetzten Verfahren induktiver oder kreativer Simulation) und den Techniken der Textproduktion einschließlich der Erzeugung von Performanz in moralischer und anagogischer Absicht (etwa in den einschlägigen Technikvisionen, s.o.). Unter diesen Weichenstellungen werden von Schleiermacher mannigfache weitere Differenzierungen eingeführt, die auf literarische Texte bezogen werden, jedoch durchaus zu Fragehaltungen und analytischen Zugriffen motivieren können, die auch in den TA- Korpora greifen. Freilich bleibt im Zuge der idealistisch-romantischen Ausrichtung der Schleiermacher’schen Hermeneutik neben seinem individualistisch reduzierten Subjekt-Konzept die Dimension des Historischen und der hier vorfindlichen Bedingungen unterbelichtet. Diese genauer zu konturieren ist das Verdienst Diltheys. Anregungen aus Diltheys Weiterführung der Hermeneutik in unseren Diskussionskontext aufzunehmen scheint dadurch erschwert, wenn nicht gar obsolet, dass sein Konzept zwei fundamentalen, wenn auch gegensätzlichen, Kritiken ausgesetzt ist. In seiner Verstehenslehre hat er beim »Erleben« bzw. »Erlebnis« angesetzt, dies trug ihm den Vorwurf des Psychologismus ein.74 Von anderer Seite wird ihm eine »Verstrickung« in den Historismus vorgehalten,75 weil sein Verweis auf eine durch historisch-materiale Kategorien geprägte »Strukturiertheit des Seelenlebens« die Annahme eines »logischen Subjekts« als Träger des geschichtlichen Zusammenhangs erfordere. Beides fügt sich ersichtlicher Weise nicht zusammen und scheint mir eher von selektiven Lesarten zu zeugen, unter denen wichtige Pointen verloren gehen, die für uns interessant sein könnten. In der Tat rekurriert Dilthey zwar zunächst auf die Evidenz des Erlebens als Gegenstand innerer Wahrnehmung, deren regelmäßige Verbindung mit Ausdrücken, die induktiv gewonnen wird, im Bereich eines elementaren Verstehens ein Nacherleben angesichts der Erlebnisausdrücke Anderer erlaubt. Wird jedoch im Rahmen von Alienitätserfahrungen ein solcher Nach- 73 Vgl. Ebd., S. 319 74 Vgl. u.a. im Anschluss an Stegmüller Heide Göttner-Abendroth: Logik der Interpretation, München 1973. 75 Vgl. Hans-Georg Gadamer: Wahrheit und Methode, Tübingen 1965, S. 205–209. 338 vollzug zum Problem, ist ein »höheres Verstehen« erforderlich. Im Rahmen eines solchen Verstehens sind »Denkleistungen« zu erbringen, aus deren Erträgen ersichtlich wird, dass Erleben zwar evident, nicht jedoch, wie Heide Göttner unterstellt, unmittelbar ist. Seine Mittelbarkeit beruht nämlich auf sprachlichen Voraussetzungen, unter denen ein Erlebnis allererst aus dem Erlebnisstrom herausgegliedert und identifiziert werden kann. Dabei macht Dilthey Überlegungen geltend, wie sie später von Gilbert Ryle und Ludwig Wittgenstein gegen einen Mentalismus vorgetragen wurden und zu Unrecht seitens der Psychologismuskritik gegen Dilthey eingesetzt werden.76 Dilthey verweist nämlich – wie dort – selbst darauf, dass die innere Beobachtung persönlichen Erlebens bzw. einer psychischen Innenwelt sich nur im Medium der Sprache (im weitesten Sinne) verwirklicht; solcherlei setzt keineswegs eine Metaphysik des Geistes voraus. Erleben (oder ein Erlebnisstrom) wird erst im Erlebnis fassbar, wenn dieses vermittels eines Erlebnisausdrucks ausgegliedert wird. Solche Ausdrücke beziehen sich funktional (wie Mittel zu Zwecken) auf Erlebnisse. Sie sind »Leistungen der Intentionalität«, welche aber ihrerseits nicht gleichsam »im luftleeren Raum« prozessiert. Erlebnisausdrücke vollziehen ihre Synthesisleistung unter »realen Kategorien«, z.B. historischen Typen von Raum- und Zeitvorstellungen, von Werten bezüglich Relevanz von Erlebnissen, positiver oder negativer Erlebnisqualifizierung u.v.a. mehr. Solcherlei bezieht sich nicht nur auf die Ergebnisidentifizierung, sondern auch auf die Verknüpfung von Erlebnissen, für die jene materialen Kategorien die Kriterien abgeben. Erst unter einem solchermaßen historischen »objektiven Geist« wird für Erlebnisausdrücke und ihre höherstufigen Verknüpfungen bestimmbar, was als deren »Bedeutung« in Frage kommt, was qua Untergliederung solcher Bedeutung als historischen Typen die »Arten der Bedeutung« festlegt und dann letztlich die »Bedeutsamkeit« eines einzigen Erlebnisses, welche dieses erst zu einem Erlebnis macht, zu bestimmen erlaubt. Dies ließe sich für unseren Diskussionskontext aktualisieren mit Blick auf Einschätzungen des Erlebens von Technikfolgen seitens »Betroffener«. Wie lassen sich nun aber solche »materialen Kategorien« rekonstruieren (wenn nicht der Kant’sche Weg ihrer transzendentalen Deduktion als notwendigen Bedingungen von an der Naturwissenschaft orientierten Erfahrungsurteilen eingeschlagen werden soll)? Diltheys Alternative gründet auf dem Vorschlag, sich bei der Suche nach Kriterien der Verknüpfung von Erlebnisausdrücken auf Biographien zu richten und mit Blick auf prominente und traditionsbildende (Selbst-)Biographien historische Ausprägungen von materialen Kategorien zu rekonstruieren (seine Beispiele sind Augustinus, Rousseau und Goethe). Solcherlei scheint nun weit ab von unserer Problemlage und unseren Fragen zu liegen. Gleichwohl scheint mir eine Verbindung herstellbar, die keineswegs bemüht ist, sondern ihr Pendant in gewissen Linien der 76 Vgl. Gilbert Ryle: Der Begriff des Geistes, Stuttgart 1969 und Ludwig Wittgenstein: Philosophische Untersuchungen (1958), Frankfurt am Main 1971. 339 STS finden würde, sofern man deren methodische Hintergründe ausbuchstabieren würde: die beobachtbare Hinwendung zu Wissenschaftler/innen-Biographien, auf deren Wege man die Herausbildung von Fragehorizonten, Interesselagen, Fokussierungsstrategien, einer Selektion von Methoden und Forschungsgegenständen zu rekonstruieren und zu plausibilisieren sucht. Dies eben nicht als Selbstzweck, sondern um über den »Aufstieg zur Individuation« (Dilthey) eine Reflexionsleistung zu erbringen, die »ein weites Reich von Möglichkeiten erschließt«,77 welches angesichts der eigenen Standortbindung »nicht vorhanden war«. Auch wenn sich hier – wie bei Schleiermacher – immer noch durchaus eine Fokussierung auf die Erlebniswelt individueller Subjekte zeigt, so ist doch die Perspektive für deren Überschreitung deutlich markiert: Zum einen durch den Aufweis der Notwendigkeit einer Einbettung von deren Intentionalität in historische Typen einer Strukturiertheit von Weltverhältnissen, die individuelles Erleben (im emphatischen und umfassenden Sinne, also nicht im Sinne von bloßen Befindlichkeiten und Stimmungen) allererst ermöglichen; zum anderen die Herausbildung von Traditionen, unter denen Kollektive (sowohl was Denkstile, Schulen, durch gemeinsame Weltanschauung und Interessenlagen verbundene gesellschaftliche Gruppen oder Gemeinschaften etc. betrifft) in Orientierung an als vorbildhaft empfundenen, ggf. fiktiven (Selbst-)Biographien diejenigen Paradigmen entwickeln, unter denen Leistungen und Grenzen der Gestaltung von Weltverhältnissen bilanziert werden. Man könnte unter dieser Herangehensweise Spuren solcher Prozesse in der Cyborg- und Transhumanismus-Debatte finden. Indem Dilthey diesen Aspekt einer Hermeneutik, die einem »höheren Verstehen« gewidmet ist, explizit der Aufgabe der Reflexion unterstellt, kann er sich gerade von dem Objektivismus-Vorwurf entbinden, mit dem ihn Gadamer überzieht. Gadamer selbst hat in m.E. problematischer Weise mit seiner Instanz der Wirkungsgeschichte, der die einzelnen Subjekte unterliegen und in die sie durch ihre Verstehens-»Ereignisse« »einrücken«78 seinerseits eine Instanz für die Hermeneutik reklamiert, die als »anonyme Autorität der Tradition« eher dem Status eines »logischen Subjekts« nahekommt, als dasjenige, was er in Dilthey hineinliest. Typen eines historischen Bewusstseins, so Dilthey, sind eben nicht erfahrbar, sondern allenfalls zu »entziffern«.79 Wenn hier nun, wenn auch schlaglichtartig, einige Momente der Kunst des Auslegens und Verstehens aus der hermeneutischen Tradition geltend gemacht werden konnten, so lassen sich Antworten für etliche Fragen gewinnen, die in der Hermeneutik-TA-Diskussion verhandelt werden. Ebenso lassen sich Desiderate für eine Weiterführung einschlägiger Forschungslinien formulieren. Indem man Verstehen klar als Reflexion ausweist, ist das Ziel der Auslegung nicht primär die Deutung des 77 Dilthey: »Der Aufbau der geschichtlichen Welt«, S. 215. 78 Vgl. Gadamer: Wahrheit und Methode, S. 274–275. 79 Vgl. Dilthey: Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften, S. 291. 340 einzelnen Textes, sondern die Rekonstruktion der (bedingenden) Möglichkeiten, aus denen heraus er verwirklicht wurde. Erst dadurch wird er in seiner Spezifik erkannt; die Deutung der in den Texten vorgelegten Deutung folgt also nicht der Deutschlehrerfrage »was uns der Autor wirklich sagen wollte«, sondern ist Mittel zu einem höheren Zweck. Bezogen auf eine hermeneutische TA würde dies bedeuten, dass eine »Erweiterung« darin läge, explizit zu machen, was implizit in den Texten und den Prozessen ihrer Herstellung enthalten ist. Auf diese Weise werden wir in die Lage versetzt, uns nicht nur zu den Texten selbst, sondern auch und gerade zu den Möglichkeiten, aus denen heraus sie modifiziert/verwirklicht wurden, in ein Verhältnis zu setzen. Unvermeidbare Einseitigkeiten, Fokussierungen und Pointierungen sowie unverzichtbare Interessebindungen erscheinen dann in neuem Licht; die »hermeneutische Dimension« ist diejenige, über den Streit um Wissensbestände und Inhalte der Erkenntnis hinaus zur Anerkennung oder Ablehnung bzw. Relativierung derjenigen Prozesse herausgefordert zu sein, in denen jenes (i.w.S. unsicheres) Wissen produziert wird. Als Texte im hermeneutischen Sinn hätten dabei nicht nur verschriftlichte Vorlagen, Gutachten, wissenschaftliche Abhandlungen etc. der klassischen TA-Textsorte zu gelten, sondern auch und gerade Kunstwerke, Manifeste und weitere performative oder perlokutionäre Äußerungsformen einschließlich der Kommunikationsprozesse, die zu ihrer Ablehnung oder Traditionsbildung führen. Darüber hinaus entstehen weitere Desiderate, wenn darauf abzuheben ist, dass Entscheidungen und Handlungen ihrerseits – folgt man den neueren Entwicklungen der Handlungstheorie – als »Interpretationskonstrukte« zu erachten sind.80 Gerade in den Bereichen der Szenario-Bildung und der Simulationen werden diese Fragen inzwischen angesichts der Defizite objektivistisch-naturalistischer Begründungen für Verifikations- und Validierungsprozesse in gebotener Intensität verhandelt;81 der damit verbundene Rekurs auf pragmatische Wahrheitsauffassungen macht eine Auslegung und Deutung von Werthaltungen und Sinnunterstellungen erforderlich, aus denen heraus die in Textform fundierten Befunde allererst ihre Deutung als »Tat-Sachen« erhalten. 80 Vgl. Georg H. von Wright: Handlung, Norm und Intention, Berlin 1978, Hans Lenk: »Handlung als Interpretationskonstrukt«, in: Georg H. von Wright (Hg.): Handlungstheorie interdisziplinär, Bd. 2/1, München 1978, S. 259–350, hierzu Christoph Hubig: Die Kunst des Möglichen I. Technikphilosophie als Reflexion der Medialität, Bielefeld 2006, S. 121–135. 81 Hierzu u.a. Christoph Hubig, u.a.: »Outlines of a pragmatic theory of truth and error in computer simulation«, in: Michael Resch, u.a. (Hg.): The Science and Art of Simulation, Heidelberg 2017. 341 Armin Grunwald Hermeneutik als Mittel gegen den Verlust der Zukunft? Antwort auf »Technology Assessment und Hermeneutik« von Christoph Hubig Lieber Herr Hubig, ich danke Ihnen herzlich für Ihre Entgegnung auf und Kritik an meinem Vorschlag einer hermeneutischen Technikfolgenabschätzung (TA). Sie haben damit für ein Thema, das vom »Rand der Philosophie« kommt, wenn ich so sagen darf, zentrale philosophische Bezüge hergestellt und relevante Anregungen für die weitere Entwicklung der Thematik gegeben. Die erkenntnistheoretische Achillesferse der TA ist, dass sie auf ein epistemologisch belastbares Folgenwissen angewiesen bleibt, um daraus im konsequentialistischen Modus Schlussfolgerungen auf heutige Maßnahmen zu ziehen,82 worauf bereits früh Walther Zimmerli hingewiesen hat.83 Den Vorschlag einer hermeneutischen Erweiterung der TA verstehe ich als explorativen Einwurf in eine seit langem laufende Debatte. Die von Ihnen erwähnte Aufzählung der unterschiedlichen Wortkombinationen, in denen das Attribut »hermeneutisch« von mir bislang verwendet wurde, ist entsprechend Ausdruck einer allmählichen Annäherung an ein Thema, das m.W. bislang nicht von dieser Seite her betrachtet wurde. Ich gestehe gerne zu, dass bis hin zu einer konsistenten und klaren Begrifflichkeit noch einige Arbeit zu leisten ist. In meiner Antwort möchte ich jedoch auf etwas Anderes hinaus. Über die erwähnte erkenntnistheoretische Problematik des Technikfolgenwissens hinaus reagiert die hermeneutisch erweiterte TA auf eine Sorge, die (nicht nur) mich seit einiger Zeit umtreibt. Da mir dieser Zusammenhang heute aufgrund Ihrer kritischen Analyse klarer vor Augen steht und nach meiner Lesart in die Mitte Ihrer Reaktion führt, möchte ich diesen Aspekt gerne weiter vertiefen. Vielfach sind Tendenzen zu beobachten, die Offenheit der Zukunft als gestaltbarer Möglichkeitsraum alternativer Optionen szientistisch zu reduzieren, statt sie zum Thema zu machen. Viele Studien verwenden auf (notwendigerweise!) vergangenen Daten beruhende Zeitreihen und Modelle, um Aussagen über Zukünftiges zu machen. Damit suggerieren sie extreme Genauigkeit und Objektivität und kaschieren erfolgreich, dass beides nur schöner Schein ist. Immer wieder kommt es, um ein konstruiertes aber typisches Beispiel zu nennen, zu Aussagen des Typs, dass im Jahre 2030 in der Metropolregion Santiago de Chile 2.238.461,2 Automobile unterwegs sein werden (habe ich selbst erlebt, ohne allerdings die Zahl noch genau im Kopf zu 82 Vgl. Gotthard Bechmann: »Frühwarnung. Die Achillesferse der TA?«, in: Armin Grunwald, u.a. (Hg.): Technikbeurteilung in der Raumfahrt. Anforderungen, Methoden, Wirkungen, Berlin 1994, S. 88–100. 83 Vgl. Zimmerli: »Prognose und Wert«, in: Rapp, u.a. (Hg.): Technikphilosophie in der Diskussion. 342 haben). Diese Aussagen werden zwar meist korrekt in eine relativierende Rhetorik verpackt, indem auf die Unsicherheit des Zukunftswissens hingewiesen wird. Beim Publikum bleiben aber meist die scheinbar exakten Zahlen und schönen Diagramme hängen, kaum jedoch die Relativierungen. Das szientistische Vertrauen in die Vorhersagbarkeit der Zukunft feiert wieder fröhliche Urständ, seit einigen Jahren zusätzlich genährt durch Hoffnungen auf die vermeintlich prädiktive Kraft von Big Data. Jedoch ändern auch große Datenmengen nichts daran, dass nur das prognostiziert werden kann, was heute schon feststeht. Der Prognose-Optimismus ist ein Bruder des Determinismus, die Optionenvielfalt möglicher Zukünfte bleibt auf der Strecke, und die verbreitete Klage über die Unsicherheit des Zukunftswissens findet ihre Erlösung in der Überzeugung, dass es nur eine Frage der Zeit und des wissenschaftlichen Fortschritts sei, bis auch diese Unsicherheit endlich in Sicherheit überführt werden könne. Dass hier nicht nur unzählige überzeugende Widerlegungen derartiger Erwartungen souverän ignoriert,84 sondern auch fundamentale Eigenschaften des Menschen über Bord geworfen werden, nämlich individuell wie kollektiv Zukünftiges durch prospektive Überlegungen und reflektierte Auswahl aus Optionenmengen gestalten zu können,85 scheint den Protagonisten nicht bewusst zu sein. Die Deliberation über Möglichkeitsräume und ihre Ausfüllung, emphatisch könnte man sie ein zentrales Element des Humanum nennen, verschwindet hinter scheinobjektiven Verlängerungen der Vergangenheit in die Zukunft. Nun ist die Sorge einer szientistischen Reduktion zukünftiger Möglichkeitsräume auf Daten aus der Vergangenheit nicht von daher bedenklich, weil mit ihrem Erfolg gerechnet werden müsste. Im Gegenteil, sowohl theoretisch als auch empirisch hat es mehr als genug Widerlegungen gegeben.86 Vielmehr gilt die Sorge einem kommunikativen Effekt ähnlich der self-fulfilling prophecy.87 Mit Zukunftsaussagen erfolgt eine Intervention in Meinungsbildungs-, Beratungs- und Entscheidungsprozesse. Zukunftsbilder affizieren die je gegenwärtigen Einstellungen, Weltverhältnisse, Erwartungen und Befürchtungen und formieren Denken und Handeln. Die Literatur zur Wirkung beispielsweise utopischer Zukunftserwartungen füllt Bände. 84 Vgl. z.B. Hans G. Knapp: Logik der Prognose, Freiburg, München 1978 oder Paul Lorenzen: Lehrbuch der konstruktiven Wissenschaftstheorie, Mannheim 1987. 85 Vgl. z.B. Wilhelm Kamlah: Philosophische Anthropologie. Sprachkritische Grundlegung und Ethik, Mannheim 1973, Alfred Schütz: »Das Wählen zwischen Handlungsentwürfen«, in: Alfred Schütz: Gesammelte Aufsätze, Band 1. Das Problem der sozialen Wirklichkeit, Den Haag 1971, S. 77–110. 86 Vgl. z.B. Wilhelm Leutzbach: Das Problem mit der Zukunft: wie sicher sind Voraussagen?, Düsseldorf 2000, Dietrich Dörner: Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen, Reinbek 1992, Wolfgang J. Koschnik (Hg.): Focus-Jahrbuch 2012. Prognosen, Trend- und Zukunftsforschung, München 2012. 87 Vgl. Merton: »The Self-Fulfilling Prophecy«, in: The Antioch Review 8. 343 Analog wirkt die gegenwärtig beobachtbare Welle des Vertrauens in szientistisch berechnete und entsprechend verengte Zukünfte in einer bestimmten Weise faktisch handlungsleitend: In der impliziten oder expliziten Überzeugung, dass Zukunftsaussagen des erwähnten Typs objektiv sind, wird so gehandelt, dass sie dann auch eintreten bzw. dass ihr Eintreten zumindest gefördert wird. Man handelt im Modus des »als ob«, nämlich als ob diese Zukunftsaussagen Gegebenheiten, ja Tatsachen aus der Zukunft erzählen, an die man sich vorbereitend schon adaptiert. Wenn auf diese selbst konstruierte Weise entsprechende Zukünfte tatsächlich eintreten, wird wiederum der Prognose-Optimismus bestärkt, was im nächsten Fall die vorauseilende Adaptation an weitere Zukünfte mit noch größerer (Schein-)Legitimität versieht. Dieser Effekt ist nicht nur selbst verstärkend, sondern auch selbst immunisierend. Denn im szientistischen Paradigma wird aus einem Fehlschlag von Prognosen nicht der Schluss gezogen, dass das Paradigma auf unhaltbaren Prämissen beruht, sondern es wird mehr Forschung, Datenerhebung und Methodenentwicklung gefordert, um beim nächsten Versuch dann doch Recht zu behalten. Die eingangs erwähnte Sorge bezieht sich auf szientistische Tendenzen im Konsequentialismus. Die Kombination beider dürfte in der Wirkung ähnliche Folgen haben wie der überwunden geglaubte Technikdeterminismus:88 in diesem Paradigma wird es schwer, sich für die mühsame Erarbeitung, Reflexion und Abwägung von Optionen einzusetzen. Stattdessen werden Zukünfte inmitten vorgefertigter und auf vergangenen Daten beruhender Modelle als fester Rahmen zur Einpassung des Handelns genommen. Andere mögliche Welten (in der Terminologie von Alfred Nordmann)89 werden nicht nur ausgeschieden, sondern können gar nicht mehr in den Blick geraten. Der Determinismus wird ohne Not selbst hergestellt. Die Lehre der vier Schriftsinne, die Sie heranziehen, erscheint als ein wirksames Gegenmittel. Der Sinn der Narrative über die Zukunft (und dazu zähle ich auch die scheinobjektiven und scheingenauen Zahlen über die Zukunft) erschöpft sich nämlich nicht in ihrer objektstufigen Bedeutung, wie dies im konsequentialistisch-szientistischen Paradigma gesehen wird, sondern umfasst die weitergehenden Dimensionen der Allegorie, der Normativität und der Eschatologie. Es würde sich anbieten, mit diesem Handwerkszeug nicht nur kritisch auf die aktuellen Tendenzen der Verengung der Zukunft zu schauen, sondern damit auch die zeitliche Entwicklung der Debatten zu analysieren, Bedeutungsverschiebungen nachzuverfolgen, das Aufkommen neuer und das Verschwinden zeitweise etablierter Aspekte zu erklären versuchen, die Motivationen der Autoren zu rekonstruieren etc. Bereits auf den ersten Blick gibt dieser Ansatz Schemata an die Hand, um die Welt der möglichen Technik- 88 Vgl. Günter Ropohl: »Zur Kritik des technologischen Determinismus«, in: Rapp (Hg.): Technikphilosophie in der Diskussion, S. 3–17. 89 Vgl. Alfred Nordmann: »Responsible Innovation, the Art and Craft of Future Anticipation«, in: Journal of Responsible Innovation 1 (2014), Heft 1, S. 87–98. 344 folgen und Technikzukünfte begrifflich und methodisch aus den Verengungen eines szientistisch verstandenen Konsequentialismus zu lösen. Bezüge zu Schleiermacher und Dilthey öffnen das Tor zu weiteren Resonanzen. Wenn Sie Schleiermacher zitieren, das Verstehen diene dazu »die Totalität des Möglichen durch beständiges Vergleichen zu ermitteln und wiederzugewinnen«, so verstehe ich das geradezu als Gegenmittel gegen ein Verschwindenlassen der Zukünfte in den wie intelligent auch immer verlängerten Daten der Vergangenheit. Die »Umkehr der Modifikation« schließt nahtlos an, wenn Dilthey Verstehen als Eröffnung eines weiten Reichs von Möglichkeiten fasst, das in der Determination des wirklichen Lebens nicht vorhanden war.90 Mehr noch als um die bloße Verteidigung von Möglichkeitsräumen geht es hier konstruktiv um ihre Schaffung inmitten von Lebenswelten, deren Determinationen zur Verengung tendieren. Das Zurückführen der Zukunftserzählungen, seien dies Texte, Filme, Kunstwerke oder in Zahlen und Diagramme verpackte scheinobjektive Zukünfte, auf die Möglichkeiten, aus denen sie entsprungen sind und von Autoren nach Maßgabe vielfältiger Entscheidungen in der je spezifischen Form in die Welt gesetzt wurden,91 dient der Abwehr nicht gerechtfertigter certistischer Zukunftsaussagen. Die Rückwendung zu den Entstehungsprozessen der Zukunftsaussagen und den dort erfolgten Festlegungen ist sowohl die Grundidee der hermeneutischen »Wende« (wenn ich dieses Wort hier verwenden darf) als auch die Bedingung der Möglichkeit der Rückeroberung szientistisch verengter Zukünfte im Hinblick auf ihre erneute Öffnung, da wir »sonst den Texten als indisponsiblen Wirklichkeiten gleichsam ausgeliefert« sind.92 Lieber Herr Hubig, an einer Stelle habe ich zunächst gestutzt, bevor ich bemerkt habe, dass dieses Stutzen meiner eigenen Betriebsblindheit entsprang. Sie beziehen den hermeneutischen Blick auf die Texte der TA selbst, während mir eine TA vorgeschwebte, die hermeneutisch auf die Zukünfte blicken, die von den unterschiedlichsten Autoren mit den unterschiedlichen Motiven und Zwecken produziert, kommuniziert, bekämpft und verteidigt werden. Zukünfte wie die von Bill Joy,93 dass die Zukunft uns nicht braucht, von Jean-Pierre Dupuy,94 dass die Nanotechnologie die ultimative Katastrophe sei, oder dass unvorstellbares Unheil droht, wenn wir uns nicht auf den Weg des Human Enhancement machen,95 aber auch auf elementarere Zu- 90 Wilhelm Dilthey: Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften, Berlin, S. 215, zitiert nach Christoph Hubig: Technology Assessment und Hermeneutik, 2017. 91 Vgl. Hubig: Technology Assessment und Hermeneutik. 92 Ebd. 93 Vgl. Bill Joy: »Why the Future Does Not Need Us«, in: Wired Magazine, no. 8.04, 2000, S. 238–263. 94 Vgl. Jean-Pierre Dupuy: »Complexity and Uncertainty. A Prudential Approach to Nanotechnology«, in: Fritz Allhoff, u.a. (Hg.): Nanoethics. The Ethical and Social Implications of Nanotechnology, Hoboken 2007, S. 119–132. 95 Vgl. Mihail C. Roco, u.s. (Hg.): Converging Technologies for Improving Human Performance, Arlington 2002. 345 künfte wie Energieszenarien.96 Nun produziert aber auch die TA Zukünfte und interveniert in laufende gesellschaftliche Kommunikation. Von daher ist Ihr Anliegen der Selbstanwendung des hermeneutischen Blicks auf TA bzw. zumindest die Forderung nach hermeneutischer Sensibilität für die von ihr produzierten Texte ein vollkommen berechtigtes Anliegen. Damit komme ich zum Schluss. Gegenwärtig rollt eine Welle von Zukünften durch die gesellschaftliche Debattenlage. Vor allem angesichts hell ausgemalter Zukünfte im Kontext der Digitalisierung besteht Bedarf an hermeneutischer Analyse: Industrie 4.0, der Kollege Roboter,97 das Ende der Erwerbsarbeit (ein immer wiederkehrender Zukunftstopos), die Verschmelzung von Mensch und Technik in Cyborgs sind einschlägige Beispiele. Statt diese Themen nur konsequentialistisch zu betrachten, dürfte es lehrreicher sein, die entsprechenden Texte und Bilder, aber auch Zahlenreihen und Diagramme als Ausdrucksformen gegenwärtiger Konflikte und Unsicherheiten, Hoffnungen und Befürchtungen etc. zu deuten. Es hat mich gefreut, dass Sie gerade den Topos der Selbstaufklärung unserer Gegenwart positiv aufgenommen haben: Verstehen als Reflexion. Schließlich ist dies eine vornehme Aufgabe der Philosophie, die hier mit ihrem ganzen Erfahrungshintergrund in aktuelle Debatten eingreifen und sie bereichern kann. Geert Keil hat jüngst gefragt »Wo sind die Philosophen, wenn man sie braucht?«98 Dass sie im Feld der Zukünfte gebraucht werden, ist für mich evident. Armin Grunwald Christoph Hubig »Wo sind die Philosophen, wenn die TA sie braucht?« Antwort auf »Hermeneutik als Mittel gegen den Verlust der Zukunft?« von Armin Grunwald Lieber Herr Grunwald, vielen Dank für Ihre Antwort, in der Sie den Diskussionsfaden weiterspinnen und etliche Aspekte so pointieren, dass sie eine Fortführung unserer Diskussion anregen. Natürlich richtet sich die Titelfrage gerade nicht an Sie persönlich, denn Sie haben wie kaum ein anderer gezeigt, dass und wie eine philosophische Reflexion in konstruktiv-kritischer Absicht die TA begleiten muss und für ihre Weiterentwick- 96 Vgl. Grunwald: »Folge«, in: Kolmer, u.a. (Hg.): Neues Handbuch philosophischer Grundbegriffe. 97 Vgl. Grunwald: The Hermeneutic Side of Responsible Research and Innovation. 98 Geert Keil: »Wo sind die Philosophen, wenn man sie braucht?«, in: Information Philosophie 2017, Heft 1, S. 8–19. 346 lung unverzichtbar ist. Eine solche Reflexion erstreckt sich von der Diskussion grundlegender Konzepte, die sich hinter »Technology« und »Assessment« verbergen (z.B. Wandel der Technikkonzepte oder Herausforderungen für einen Wandel von Assessment-Strategien); sie könnte fortgeführt werden durch eine wissenschaftstheoretische Untersuchung der methodologischen Zugriffe sowohl mit Blick auf die daraus resultierenden Modellierungen überhaupt (»Chance«, »Risiko«, »Uncertainty« etc.) als auch auf die Belastbarkeit von Prognosen, zu deren Inhalten man sich in praktischer Absicht (z.B. Mitigation oder Adaption) in ein Verhältnis zu setzen sucht und hierfür Optionen hypothetisch durchspielt, und sie könnte reichen bis hin zu einer Bilanzierung von Leistungen und Grenzen einer Politikberatung, die ihre eigene Normativität aufweist, auch wenn sie explizite normative Verhältniseinnahmen und Beurteilungen in die Domäne von Entscheidern und Betroffenen (mit deren entsprechenden Legitimationshypotheken) stellt. Aus dieser Einstellung resultiert ja u.a. Ihr Ansatz zu einer »hermeneutischen Wende«. Nach Ihren Erläuterungen kann ich diese jetzt in einem doppelten Sinne lesen, nämlich (1) als »Hinwendung« zur hermeneutischen Dimension von Texten, die die Zukunft betreffen und (2) als »Wende« in unseren Zukunftsverhältnissen, wenn ein szientistisch daherkommender Certismus nicht bloß ohne Infragestellung des Grundparadigmas nur – wie üblich – bezüglich fälliger Relativierungen diskutiert wird. Denn das Ergebnis einer entsprechenden hermeneutischen Reflexion (was als Wort einen Pleonasmus darstellt) ist ja gerade die Freilegung von notwendigerweise immer einseitigen (weil in der-und-der Weise modellierten und begrifflich bestimmten) Zukunftsprojektionen, die sich in den Texten ausdrücken. Eine solche Reflexion er- öffnet die (Meta-)Möglichkeit, alternative mögliche Bezugnahmen zu verhandeln. Solche Alternativen liegen natürlich jenseits einer »Wahr-falsch-Alternative«; vielmehr lassen sie sich angesichts methodischer Fokussierungen mit Blick auf deren unterschiedliche normative »Geladenheit« auf Basis unterschiedlicher normativer Orientierungen – wie Sie zutreffend betonen – einer Deliberation unterziehen und verhandeln (z.B. mit Blick auf Komplementarität, Irrtumshypotheken, rationale Strategien eines Umgangs mit möglichen Irrtümern etc.99). Daher würde ich hier nicht von einer »Hermeneutik der Zukunft« reden, weil doch – wenngleich es für Begriffe keinen Gebrauchsmusterschutz gibt – in der Problemtradition der Hermeneutik übereinstimmend von deren Gegenständen als Ausdrücken, Texten, Vorstellungen die Rede ist und nicht von Sachlagen (auch nicht von künftigen). Hebt man darüber hinaus auf die Forderung nach einer Erweiterung der Untersuchung auf die allegorischen, moralischen und eschatologischen Sinndimensionen ab, der Sie zustimmen, scheint eine Rede von einer »hermeneutischen Erweiterung« der TA sinnvoll, ebenso aber auch die Rede von einer »Hermeneutik der TA«, sofern man deren Ergebnis- 99 Zu diesen Punkten Christoph Hubig: Die Kunst des Möglichen II. Ethik der Technik als provisorische Moral, Bielefeld 2006. 347 se in Textform unter hermeneutischen Gesichtspunkten, wie sie etwa Schleiermacher und Dilthey in Anschlag bringen, hinterfragt. Mit der Titelfrage meiner Antwort ziele ich indes auf ein Moment verbreiteter philosophisch-akademischer Praxis, welches mich seit langem immer wieder irritiert und provoziert: Es gibt philosophische Forschung, die einzig philosophische Forschung adressiert (dass sie diese auch adressiert, kontextbedingt auch in privilegierter oder exklusiver Weise, ist selbstverständlich geboten). Odo Marquard beklagte in seinem allfällig, inzwischen leider wohl totzitierten Diktum, Philosophen, die nur für professionelle Philosophen schreiben, agierten »fast so absurd wie Sockenhersteller es täten, die Socken nur für Sockenhersteller herstellen«,100 dass akademisches Philosophieren eine wesentliche Aufgabe verfehlt, wenn es seine Erträge nicht in einem mühsamen »Aufstieg zum Konkreten« (Karl Marx) für bestehende gesellschaftliche Problemlagen und die Situierung der Subjekte in diesen Problemlagen geltend macht – und damit natürlich auch der Kritik aussetzt. Wesentliche »Schätze« des Philosophierens bleiben dann selbstverschuldet unbeachtet. Dies scheint mir auch für manche Forschungslinien philosophischer Hermeneutik gegeben. Wir haben natürlich eine extrem komplexe Forschungslage bezüglich der Kunstlehren des Verstehens und der Regelwerke der Interpretation, wie sie seit der Mythenallegorese entwickelt und kontrovers verhandelt wurden. Es scheint mir aber so zu sein, als würde in der Forschung in Auseinandersetzung mit diesen Werken eher die Hermeneutik auf sich selbst angewandt, wenn in philologischer Absicht die Methodenkanones untersucht, in historischer Absicht relativiert, mit Blick auf ihre normative Geladenheit und moralische Orientierung affirmiert oder verworfen und in entsprechende Gesamtweltdeutungen eingeordnet werden, ohne dass gefragt wird, welche Anregungen wir für die aktuellen Diskussionen aus jenen Ansätzen entnehmen können. Warum findet sich hierzu in der Dilthey-Forschung beispielsweise kein klar ausgearbeiteter Versuch im Ausgang von Diltheys Untersuchungen zur Bedingtheit und Zugänglichkeit von Erlebnisausdrücken, mittels derer ein Subjekt bestimmte Erlebnisse aus seinem Erlebnisstrom ausgliedert und sich zu ihnen in ein Verhältnis setzt? Wo werden Wege aufgezeigt, die jeweilige Bedeutsamkeit spezifischen Erlebens im Rahmen typischer Bedeutungsarten freizulegen, die sich auf dem Hintergrund von Begrifflichkeiten und kategorialen Apparaten im jeweiligen System der Sprache (sozial, epistemisch, situationstypisch differenziert) als ihren notwendigen Bedingungen herausbilden und ihrerseits unter für einzelne Subjekte indisponiblen historisch sich wandelnden materialen Kategorien stehen, welche den Horizont unserer Erlebniswelt begrenzen. Die Leistung eines solchen Aufweises wäre eben die Wiederherstellung von Offenheit. Ergänzt durch eine Schleiermachersche Feinanalyse ließe sich dann ausbuchstabieren, wie und warum in zukunftsbezogenen Texten 100 Odo Marquard: Zukunft braucht Herkunft. Philosophische Essays, Stuttgart 2003, S. 289. 348 ein Zukunftserleben in der Gegenwart zustande kommt und zukunftsgestaltendes Handeln (mit-)orientiert. Eine Reflexion der »Gegenwärtigkeit der Zukunft« in hermeneutischer Absicht muss eben auch und gerade der Performanz von Texten (jenseits einer szientistischen Auseinandersetzung mit propositionalen Gehalten) gerecht werden. Wenn Sie anmerken, dass unser Thema »vom Rande der Philosophie kommt«, so möchte ich doch betonen, dass die Philosophie gerade von solchen Themen lebt und am Leben gehalten wird. Sie darf nicht ihre Probleme selbst erfinden und sie dann mittels freischwebenden Begriffs-Sudokus zu lösen vorgeben. Ohne Bindung an Lebenswelten, ihre Reflexion und Problematisierung bleibt Philosophie in einem ganz anderen Sinne,101 als es Heidegger meinte, »seinsvergessen«. Unser »Sein« ist durch eine im Wesentlichen technisch vermittelte Weltbezüglichkeit geprägt. Das zu bemerken gehört nicht an den Rand (akademischer) Philosophie, sondern sollte doch vielleicht eine ihrer zentralen Probleme sein. Christoph Hubig Armin Grunwald Schlussbemerkung Lieber Herr Hubig, eine sehr schöne Wendung, die Sie der Frage von Geert Keil geben, wo denn die Philosophen seien, wenn man sie brauche. Mit Sicherheit kann wohl gesagt werden, dass Philosophen nicht zur Stelle sind, wenn sie sich mit der von Odo Marquard persiflierten Rolle von Sockenherstellern begnügen sollen, wie Sie dies zitiert haben. Übrigens scheint mir das Bonmot so gut, dass man es gar nicht totzitieren kann. Zum Glück haben wir das Problem, auf welches Marquard abzielt, im Feld der Technik nicht (mehr). Nachdem die Philosophie Fragen der Technik und der Technikfolgen lange Zeit nicht im Blick hatte, hat sich dies in den letzten Jahrzehnten erfreulich verändert – Philosophen diskutieren hier aktiv und hörbar mit. Dabei stand und steht meist die Ethik im Mittelpunkt, gelegentlich auch die Wissenschaftstheorie und Anthropologie. Unsere Diskussion hat aus meiner Sicht sehr schön gezeigt, dass es weitere Aufgaben der Philosophie im technischen Fortschritt gibt. Die hermeneutische Durchdringung der verändernden Konstellationen zwischen Mensch und Technik anhand der Art und Weise, wie über diese Veränderungen gesprochen wird, z.B. anhand von Zukunftserzählungen, erscheint dringend geboten, um Möglich- 101 Vgl. Christoph Hubig: Die Kunst des Möglichen III. Macht der Technik, Bielefeld 2015, hier Kap. 3.2. 349 keits-, Freiheits- und Entfaltungsräume in Bezug auf die Gestaltung unserer Lebenswelten mindestens zu erhalten, besser aber sie auszubauen. Der hermeneutische Blick ist hier in einer gegenüber den Tendenzen der szientistischen Verengung der Möglichkeitsräume kritischen Absicht gefragt. In dieser Richtung würde ich mir eine weitere Welle der philosophischen Befassung mit gegenwärtiger und projektierter Technik wünschen – und dies sicher in interdisziplinären Konstellationen mit geistes- und sozialwissenschaftlichen Disziplinen, dabei gerne im Rahmen einer entsprechend konzeptionell und methodisch weiter gefassten Technikfolgenabschätzung. Damit bleibt mir, Ihnen für den Anstoß zu dieser kleinen intellektuellen Reise zu danken, ebenso für die vielen inhaltlichen Anregungen, die sich unterwegs ergeben haben! Armin Grunwald 350 Kommentar Petra Gehring Digitalissimo humanissimo! »Die DH« zwischen Marke und Methodik Nehmen wir an, dank fortgeschrittener digitaler Technologien wüchsen derzeit nicht nur der Linguistik oder der makrosoziologischen Kulturforschung, sondern auch den hermeneutisch arbeitenden Geisteswissenschaften ganz neue Werkzeuge zu: nicht nur Experimentierfelder, sondern sogar neue Methoden. Nehmen wir des Weiteren an, auch die Ergebnisse dieser Methoden wären interessant, bestätigten also nicht nur, was wir ohnehin gute Gründe hatten zu vermuten, sondern eröffneten in terms von Aha-Effekten ungeahnte Möglichkeiten. Was dann? Werden wir folglich alle Digital Humanists? Ehrenrunde, Applaus, letzter Vorhang: ›traditionelle‹ Geistes- und Kulturwissenschaften ab, und dann – Vorhang auf, Tusch, Manege frei –: Hochverehrtes Publikum, hier nun Digital Humanities, eine neue Ära beginnt, »die DH« …!? Wer sich für Methodendiskussionen in den Philologien, in den Begriffs-, Diskurs-, Text-, Bild-/Medienfächern oder den Künsten interessiert, dem (oder der) schwirrt angesichts der überstürzten Reaktionen auf den digitalen Wandel definitiv der Kopf. Nach einem computational turn der Textwissenschaften, der eher das Edieren betraf, einer zweiten, algorithmisch-analytischen Welle, in der das Auswerten von Datenmengen das Beforschen von ›born digital‹-Phänomenen zählte, rollen nun bereits ›third waves‹ die sich beispielsweise auf die reflexive Frage nach computationality als generelle Kondition für Wissen, Intellektualität und vielleicht sogar Menschsein stürzen.1 Mit einer nächsten Avantgarde ist zu rechnen. Bald wird eine Maschinenphilologie ›Texte‹ beforschen, wie sie nur auf dem Wege einer autonomen Interaktion zwischen Computern entstehen. Auch Wissenschafts-Zukünfte ähneln freilich selten den in vorausliegenden Zeiten erstellten Prognosen. Dies wissend scheint Besinnung geboten. Ob das Kürzel ›DH‹ denjenigen wirklich hilft, die den Wunsch haben, auf Digitalität als Verfasstheit nicht nur von Schreibmaschine und Telekommunikation, sondern auch der eigenen (möglichen) Forschungspraxis zuzugehen? Zwar spricht alles dafür, digitale Optionen neugierig zu erproben. Dennoch macht die Identitätspolitik rund um Digital Humanities auch zweifeln. 1 David M. Berry: »The Computational Turn: Thinking about the Digital Humanities«, in: Culture Machine 12 (2011), hier: S. 4 und 9 [vgl. http://www.culturemachine.net/index.php/cm/article/ view/440/470, aufgerufen: 26.7.2017]. 353 Allem voran irritiert die mit dem Firmenschild ›DH‹ verbundene Suggestion, es gehe um ›eine‹ Revolution, die es zu forcieren gilt (oder aber man verpasst sie und gehört nicht dazu). Dass es mit der digitalen Durchdringung gerade der komplexen Forschungsprozesse der Geisteswissenschaften um ›einen‹ nun fälligen und gar in klarer Fortschrittsrichtung bereits überschaubaren Transitionsprozess gehen würde – hin zu ›einer‹ Digitalität der ganzen geisteswissenschaftlichen (oder gar sozial- und geisteswissenschaftlichen) Fachgruppe: darauf deutet nicht nur empirisch rein gar nichts hin. Vielmehr sprechen auch die Vielgestaltigkeit der methodologischen Ausgangssituation dagegen, die tacit knowledge-Anteile geisteswissenschaftlichen Arbeitens, die feingliedrigen Anforderungen für eine auch im Ergebnis relevante ›Humanities‹-Forschung und mehr. Vernünftigerweise werden somit fachlich verteilte Zugänge zu (und Diskussionen über) digitale Verfahren gebraucht, sonst wird die Lage babylonisch und es bleibt bei Smalltalk über Tools. Tatsächlich ist, wo ›DH‹ als Einheitsfront auftritt, auf charakteristische Weise zwar von ›Gegenständen‹ oder ›Werkzeugen‹ die Rede, auffällig wenig aber in substanzieller – das heißt: auch auf die Fachtradition bezogen – von ›Methoden‹. Die enormen Unterschiede der Fächer werden unterschätzt, und dies nicht nur bezüglich ihrer Gegenstandskonstitution, sondern eben ihrer Forschungsfragen und den zu deren Bearbeitung gehörenden Methodologien. Oder, schlimmer noch, diese Unterschiede werden vom Tisch gewischt mit dem Hinweis darauf, künftig prozessiere man ja auf der Datenebene sowieso alles gleich. Nennen wir dergleichen ein ›kompaktistisches‹ Reden über DH. Es verstellt die Sicht auf die Schwierigkeiten des beschworenen Aufbruchs. Ebenso provoziert es Enttäuschungen angesichts an vielen Stellen erwartbar (zunächst) ausbleibender Ergebnisse. Vieles wird ja – und muss wohl – zunächst auch verstolpert werden, daher empfehlen sich überzogene Naherwartungen nicht. Allein, was wäre jenseits von einfachem Pro und Kontra das richtige Anspruchsniveau von DH-Diskussionen? Wissen die Vortänzer, wo es hingeht? Und nun für die Philosophie gefragt: Wo landet man, macht man mit? Gegen den Wettlauf zur möglichst ›innovativen‹ Methodik möchte ich fürs gründliche und daher auch langsamere Vorgehen plädieren. Gäbe es eine Art ›Slow DH‹, ähnlich wie Slow Food? Warum sollte man nicht mit einfachen, generischen digitalen Optionen in Ruhe und auch in die Breite hinein experimentieren? Man denke beispielsweise an die ›simple‹ Wortsuche, aber in größeren Korpora und systematischer eingesetzt (weil ein Einzelschritt ja nun kaum Zeit benötigt). Klug mit dem Spiel Suche/Treffer/nächste Suche umgehen: gilt dergleichen überhaupt als ›DH‹? Auch schlichte, länger schon marktgängige Registerfunktionen zu nutzen – unter DH-Vorzeichen wohl zu trivial. Dabei als rasch teilbare Basistechnik, die Nachvollziehbarkeit sichert in hermeneutisch arbeitenden Umfeld womöglich höchst attraktiv. Umgekehrt sind DH-Verfahren nicht nur aufwendig, sondern auch esoterisch 354 (und dies liegt nicht daran, dass die anderen nicht rasch genug nachkommen, sondern an der Spezifik der digitalen Arrangements selber). Manche der unter dem Dach der DH gewählten Pfade kreuzen einander methodologisch und technologisch kaum. Anders gesagt: Weder deckt ›DH‹ das Spektrum methodenrelevanter digitaler Arbeitsbedingungen ab: Die ›simplen‹ Effekte des Einsatzes von Standardsoftware bleiben unterbelichtet. Noch ist DH jenseits des Markeneffekts ohne Weiteres mit sich selbst im Gespräch, ein Forum also, auf welchem die Ko-Evolution von Forschungsfragen und im Blick auf diese geteilten Methoden sinnvoll stattfinden kann: Über das Merkmal ›digital‹ hinaus herrscht hier schlicht zu wenig Verbindung. Letztlich ist Zweiteilung von ›traditionell‹ und ›DH‹ also unergiebig, und man kann nur hoffen, dass es sich beim Distinktionsstreben ›der‹ DH-Community um eine Art epistemisches Pubertätsstadium handelt. Denn: Würde eine Diskussion über digitale Verfahrensweisen das Bild von den zwei Lagern hinter sich lassen (wie übrigens auch die nebelhafte Idee von allein qua Digitalität bereits gegebener Qualität und darob neuen ›Möglichkeiten‹ für die Fächer), so brächte dies die Auseinandersetzung über modifizierte Vorgehensweisen und Methoden der geisteswissenschaftlichen Forschung voran. Die Philosophie hat hier noch alle Freiheit der Welt – das Nachdenken über digitale Epistemologien für die Geisteswissenschaften, über digitale Philologien, digitale Hermeneutik (Diskursanalyse, Rhetorik, Begriffsforschung etc.), digitale Heuristiken einschließlich. Auch die Stunde für eine Laborforschung klassischer Schreibtischarbeit und der so schön »gemischt« genannten Methoden hat gerade erst geschlagen … Dass die Philosophie bei all dem zur Dekonstruktion flacher Digitalismen beitragen sollte – nein: möchte, will, wird! – versteht sich von selbst. Auf die Ergebnisse guter digitaler Verfahrenspfade freut sie sich auch. 355 Glosse Andreas Brenneis Unboxing In Managementseminaren ist es ebenso wie in der Technikphilosophie nie verkehrt auch einmal außerhalb der Box zu denken. Deshalb soll hier ein Vorgang vorgestellt werden, der von der Box als einem Transformationsrahmen ausgeht, durch den schon fast magische Effekte hervorgebracht werden können. Das Phänomen des Unboxing ist in nahezu aller Munde, es ist viral und spielt sich auf immer mehr screens ab. Es handelt sich dabei um Videos variierender Längen, die zeigen, wie ein neuerworbenes und originalverpacktes Gerät in die Freiheit seiner künftigen Nutzung entlassen wird. Versierte Nutzer wie social media experts machen mit ihren Handykameras oder gar mit head mounted cameras ein Video davon, wie sie eine Verpackung öffnen – je nach Preisklasse ein mehr oder weniger aufwendig gestalteter Karton – und den darin befindlichen Inhalt prüfen. Sie erklären was sie sehen und inwiefern es ihren Erwartungen entspricht oder diese verfehlt. Das kann man sich für technische Gerätschaften aller Art anschauen. Vor dem Kauf des nächsten Smartphones will man womöglich zur Absicherung auch nicht nur eines, sondern besser gleich mehrere Videos nutzen, sich über Haptik des Geräts und Umfang an beiliegenden Gimmicks informieren. Vielleicht steigert das wiederholte Anschauen auch die Vorfreude, so wie auch Geschenkpapier zwar den Wert einer Ware nicht eigentlich anhebt, aber den Erwerb doch verhübscht. Diese Videos dienen dem marketing, wobei nicht immer ganz klar ist, was dabei denn jetzt zu Markte getragen wird. Das Gerät ist ja schon vom Markt in die eigenen vier Wände geholt worden (wahrscheinlich eher gebracht worden durch einen global player der logistics industry, womöglich im Auftrag des fabrizierenden Unternehmens, das einen influencer gewinnen möchte). Dann teilt man also seine neuen Erkenntnisse mit der community. Für die sind derlei Videos scheinbar von größtem Interesse (#ofclicks), kann man sich doch quasi wie aus erster Hand (fast schon mit eigenen Augen) von den Vorzügen und Nachteilen des fraglichen Produkts in seiner Entscheidungsfindung leiten lassen. Dafür gibt es heutzutage auch Profi-Unboxer, deren hauptsächliche Beschäftigung darin besteht, immer neue Boxen zu öffnen und dies zu viralisieren. Was vermarktet wird ist also wohl eher die Kompetenz im Öffnen von Boxen, und natürlich darin, die richtigen Boxen vor die Kamera zu bringen. Aber vielleicht ist auch fast gleichgültig, was da genau ausgepackt wird, solange es etwas auszupacken und anzuschauen gibt. Die Gewissheit, einem wichtigen Ereignis beizuwohnen (ja es sehr überschaubar vor sich zu haben: nämlich ein Bildschirm, 359 darin eine Box, darin das Objekt der Begierde), macht den Fetischcharakter aus, nicht so sehr der Ware, als vielmehr der Präsentation und der Inszenierung. Die Ware ist nur da, weil man ja etwas aus der Box holen muss, etwas muss schließlich unboxed werden (truly it from bit). Am besten immer das Neueste, wobei man sich auch des Charmes wohl nicht erwehren könnte, wenn ein Video auftauchte, in dem ein frühes Mobiltelefon oder ein Computer der ersten Generationen zum ersten Mal Tageslicht ausgesetzt würde. Kindliche Freude und fachmännische Könnerschaft treffen hier zusammen und liegen – einmal hochgeladen – abgespeichert parat. Virtualität und Hyperrealität feiern zusammen ein Fest des Dernier Cri in ihrer Ode an die Geburt neuer Schachteln. Das Festhalten und Prolongieren einer (Vor-)Freude, wie sie sonst nur in der (Vor-)Weihnachtszeit ihren Platz hat, vereint sich hier mit einer ubiquitären Verfügbarkeit, der Zugewinn an Information mit sensuellem Sensationalismus. Man ist direkt dabei, und es gibt immer noch mehr auszupacken. Man weiß danach mehr als zuvor (»Aha! – Das Kabel ist zusammengerollt.« »Das ist ja frech! 700 € und keine Anleitung!!«) und hat seine Zeit also mit sinnvoller Recherche verbracht, um auf dem Acker der devices die Spreu vom Weizen trennen zu können (infotainmental turn). Für Boxen gilt ja ganz klar, dass man wissen möchte, was darin ist. Pandora ist da mit ihrer Neugierde in guter Gesellschaft. Beim Unboxing wird diese Neugierde in sehr geordneten Kanälen organisiert, ermöglicht und befriedigt – eingeleitet und abgeleitet wie aus einem Stausee. Heidegger hätte wohl handgeschnitzte Laden vorgezogen, und man kann sich gut vorstellen, dass diese auch beim Publikum großen Anklang finden würden. Aber vom Spekulativen zum Handfesten: Um das Unboxing auf das next level zu heben, müsste in nächster Zeit ein Unboxing-Handschuh erfunden werden, mit dem dann auch haptische Signale die visuellen synästhetisch unterstützen könnten (»Next Level Virtual Reality«). Toll wären dazu Videos von Muhamad Ali und Michael Jackson. Wie man diesen Handschuh dann allerdings angemessen aus der Verpackung bekommt, wird wohl für immer im Dunkeln bleiben müssen. 360 Autoreninformationen Francesco Amigoni hat Technische Informatik studiert und mit Auszeichnung an der Politecnico di Milano 1996 abgeschlossen. Dort erwarb er 2000 auch den PhD in Computer Engineering. Von Dezember 1999 bis September 2000 war er Gastforscher am Computer Science Department der Universität Stanford (USA); von Februar 2002 bis April 2007 als Assistant Professor am Dipartimento di Elettronica e Informazione der Politecnico di Milano tätig. Seit Mai 2007 forscht und lehrt er dort als Associate Professor. Zu seinen Forschungsinteressen gehören: Agenten und Multiagenten-Systeme, autonome mobile Roboter und die philosophischen Aspekte künstlicher Intelligenz. Francesco Amigoni received the Laurea degree in Computer Engineering from the Politecnico di Milano in 1996 and the Ph.D. degree in Computer Engineering and Automatica from the Politecnico di Milano in 2000. From December 1999 to September 2000, he has been a visiting scholar at the Computer Science Department of the Stanford University (USA). From February 2002 to April 2007, he has been an assistant professor at the Dipartimento di Elettronica e Informazione of the Politecnico di Milano. Since May 2007, he is an associate professor at the Dipartimento di Elettronica e Informazione of the Politecnico di Milano. His main research interests include: agents and multiagent systems, autonomous mobile robotics, and the philosophical aspects of artificial intelligence. Andreas Brenneis studierte Erziehungswissenschaften und Philosophie in Münster, Port Elizabeth und an der Technischen Universität Darmstadt, wo er aktuell Wissenschaftlicher Mitarbeiter ist. Er war Stipendiat des Graduiertenkollegs Topologie der Technik und befasst sich in seiner Doktorarbeit mit dem strukturellen Zusammenhang von Metaphern, die in technikkritischer Absicht im 20. Jahrhundert formuliert worden sind. Seine Interessen liegen in den Bereichen der Philosophiedidaktik sowie einer umfassend verstandenen Sprachphilosophie. In techniktheoretischer Hinsicht hat er sich zuletzt als Herausgeber der Bandes Technik – Macht – Raum mit machtanalytischen Zugängen zu den Verbindungen von Techniken und Räumen beschäftigt. Publikationen: Verstehen als Erwachen. Zur Topologie von Denkbildern und Metaphern (im Erscheinen); Zur topologischen Ordnung von Metaphern. Ein methodologischer Zugang (2014). 361 Andreas Brenneis studied education and philosophy in Münster, Port Elizabeth and at Technische Universität Darmstadt, where he is currently employed. He was a scholarship holder of the German Research Council and began his dissertation in the Research Training Group Topology of Technology. In his doctoral thesis, he examines the structural relationships between metaphors, which were used to criticize technological developments in the 20th century. Main interests are in the areas of philosophy of language and the didactics of philosophy. Concerning theoretical approaches towards technology he recently edited the volume Technology – Power – Space, in which several approaches to analyse the interdependencies of technologies and spaces are discussed. Publications: Understanding as Awakening. Verstehen als Erwachen. Zur Topologie von Denkbildern und Metaphern / A Topology of Images of Thought und Metaphors (forthcoming); Zur topologischen Ordnung von Metaphern. Ein methodologischer Zugang / The Topological Order of Metaphors. A Methodological Approach (2014). Wolfram Ette studierte Allgemeine und Vergleichende Literaturwissenschaften, Philosophie und Gräzistik in Berlin und Paris. Er promovierte über Thomas Manns Josephsromane (Freiheit zum Ursprung. Mythos und Mythoskritik in Thomas Manns Josephs-Tetralogie, Würzburg 2002) an der Freien Universität Berlin, die Habilitation erfolgte 2009 an der TU Chemnitz (Kritik der Tragödie. Über dramatische Entschleunigung, Weilerswist 2011). Nach längerer Tätigkeit an der LMU München ist Wolfram Ette zurzeit Gastprofessor am Peter-Szondi-Institut für Allgemeine und Vergleichende Literaturwissenschaft an der FU-Berlin. Seine Arbeitsschwerpunkte sind: Theorie der Tragödie und Poetik des Dramas, Musik und Literatur, Theorie des Mythos, Literatur und Psychoanalyse. Aktuell arbeitet Wolfram Ette zu Fragen der literarischen Spannung. – Weiteres zur Person: https://wolframette1966.wordpress.com; kleine Texte: https://wolframettetexte.wordpress.com. Wolfram Ette studied general and comparative literary studies, philosophy, and classical philology in Berlin and Paris. He wrote his Ph.D. thesis about Thomas Mann’s Joseph und seine Brüder (Freiheit zum Ursprung. Mythos und Mythos in Thomas Manns Josephstetralogie, Würzburg: Königshausen and Neumann 2002, FU Berlin). His habilitation (Kritik der Tragödie. Über dramatische Entschleunigung, Weilerswist: Velbrück 2009, TU Chemnitz) deals with epic techniques in classical tragedy. After a considerably long time at LMU Munich, Wolfram Ette is currently guest professor at the Peter-Szondi-Institute for General and Comparative Literature at the FU Berlin. His work focuses on the theory of tragedy and poetics of drama, music and literature, theory of myth, literature and psychoanalysis. Wolfram Ette is currently working on questions of literary suspense. – Read more: https:// 362 wolframette1966.wordpress.com; literary and essayistic texts: https://wolframettetexte.wordpress.com. Alexander Friedrich hat Philosophie, Allgemeine und Vergleichende Literaturwissenschaft und Soziologie studiert. An der Justus-Liebig-Universität Gießen promovierte er mit einer Arbeit zur Theorie kultureller Leitmetaphern. Als wissenschaftlicher Mitarbeiter am Institut für Philosophie an der Technischen Universität Darmstadt forscht er derzeit zu den technikphilosophischen und biopolitischen Aspekten der Kühltechnik. Außerdem arbeitet er an Verfahren für eine digitale Begriffsgeschichte. Veröffentlichungen: »Daseinsgrundprobleme. Blumenbergs Metaphorologie als Kultur- und Technikphilosophie«, in: Permanentes Provisorium. Hans Blumenbergs Umwege, Paderborn 2015. »Digitale Begriffsgeschichte?« (mit Chris Biemann), in: Forum Interdisziplinäre Begriffsgeschichte 5 (2016). »The Rise of Cryopower«, in: Cryopolitics, Cambridge 2017. Alexander Friedrich studied philosophy, comparative literature, and sociology. He holds a PhD in philosophy from Justus Liebig University Giessen. In his thesis, he developed a theory of cultural key metaphors with a special focus on the metaphor of networks. As a postdoctoral researcher at the Technische Universität Darmstadt, he investigates the philosophical and biopolitical aspects of freezing and cooling technologies. He is also exploring new ways for a digital history of concepts. His recent publications include: »Regimes of Freshness. Biopolitics in the Age of Cryogenic Culture« (with Stefan Höhne), in: Medical Anthropology Theory 3 (2016). »Digitale Begriffsgeschichte?« (with Chris Biemann), in: Forum Interdisziplinäre Begriffsgeschichte 5 (2016). »The Rise of Cryopower«, in: Cryopolitics, Cambridge 2017. Petra Gehring ist seit 2002 Professorin für Philosophie an der TU Darmstadt. Sie studierte Philosophie, Politikwissenschaft und Rechtswissenschaft in Giessen, Marburg und Bochum, lehrte und forschte an den Universitäten Bochum und Hagen. Ihre Forschungsschwerpunkte sind Geschichte und Metaphysik des Lebensbegriffs, Gewaltaspekte der Rechtsform, Theorie – wie auch Technizität – der Wirklichkeit, Begriffs- und Diskursgeschichte sowie (digitale) Metaphorologie. Eine Publikation hierzu mit Iryna Gurevych: »Suchen als Methode. Zu einigen Problemen digitaler Metapherndetektion«, in: Journal Phänomenologie 41 (2014), S. 99–109. Petra Gehring is teaching philosophy at the Technische Universität Darmstadt, Germany, since 2002. She studied philosophy, political science, and law at the Universities of Gießen, Marburg, and Bochum, Germany. Her main fields of research are history and metaphysics of the concept of »life«, violence as a key problem of legal 363 theory, theory – and technicity – of »reality« (Realität/Wirklichkeit), discourse analysis, conceptual history, and (digital) metaphorology. A recent publication with Iryna Gurevych: »Suchen als Methode. Zu einigen Problemen digitaler Metapherndetektion«, in: Journal Phänomenologie 41 (2014), pp. 99–109. Armin Grunwald ist seit 1999 Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) und seit 2007 dort Professor für Technikphilosophie und Technikethik. Geboren 1960, studierte er Physik, Mathematik und Philosophie in Münster und Köln, wurde 1987 promoviert und habilitierte sich 1998 an der Universität Marburg. Es folgten Tätigkeiten in der Softwareindustrie, am Deutschen Zentrum für Luft- und Raumfahrt sowie als stellvertretender Direktor der Europäischen Akademie Bad Neuenahr. Publikationen: Technik und Politikberatung, Frankfurt am Main 2008; Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, Karlsruhe 2012; The Hermeneutic Dimension of Responsible Research and Innovation, London 2016; Nachhaltigkeit verstehen. Arbeiten an der Bedeutung nachhaltiger Entwicklung, München 2016. Armin Grunwald is Director of the Institute for Technology Assessment and Systems Analysis (ITAS) at Karlsruhe Institut of Technology (KIT) since 1999 and Professor of Philosophy and Ethics of Technology at KIT since 2007. Born in 1960, he studied physics, mathematics, and philosophy at the universities of Münster and Cologne. He received his doctorate in 1987 at Cologne University, and habilitation in 1998 at Marburg University. His previous occupations were in software engineering, at the German Aerospace Center and as deputy director of the European Academy in Bad Neuenahr. His publications include: Technik und Politikberatung, Frankfurt am Main: Suhrkamp 2008; Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, Karlsruhe: KIT 2012; The Hermeneutic Dimension of Responsible Research and Innovation, London: Wiley 2016; Nachhaltigkeit verstehen. Arbeiten an der Bedeutung nachhaltiger Entwicklung, München: oekom 2016. Florian Heßdörfer absolvierte in Leipzig das 1. und 2. Staatsexamen für das gymnasiale Lehramt für die Fächer Kunst und Deutsch. Nach dem Promotionsstudium Soziologie in Halle/S. und Freiburg i. Br. erfolgte 2013 die Promotion zum Dr. phil. an der Albert-Ludwigs-Universität mit der Arbeit Gründe im Sichtbaren. Subjektivierungstheoretische Sondierungen im visuellen Feld, Berlin (veröffentlicht bei Turia & Kant). Seit 2013 ist er wissenschaftlicher Mitarbeiter am Lehrstuhl für Allgemeine Pädagogik der Universität Leipzig und arbeitet an einem Habilitationsprojekt zur »Genealogie des begabten Subjekts«. Ausgewählte Veröffentlichungen: »Optimieren und Erlösen. Heilsversprechen und Menschenökonomie in der Pädagogik der 364 Potentiale«, in: Anne Conrad und Alexander Maier (Hg.): Erziehung als ›Entfehlerung‹. Weltanschauung, Bildung und Geschlecht in der Neuzeit, Bad Heilbrunn 2017, S. 211–226; »Das Band des Sozialen und der Bann des Anderen. Grundfiguren des Sozialen bei Émile Durkheim und Judith Butler«, in: Thomas Bedorf und Steffen Herrmann (Hg.): Das soziale Band. Geschichte und Gegenwart eines sozialtheoretischen Grundbegriffs, Frankfurt am Main/New York 2016, S. 360–376. Florian Heßdörfer studied at the University of Leipzig and passed the first and second state examination for the teaching profession in secondary schools. After doctoral studies in Halle/S. and Freiburg i. Br., he obtained a doctorate in sociology at the University of Freiburg. His doctoral thesis was published under the title Gründe im Sichtbaren. Subjektivierungstheoretische Sondierungen im visuellen Feld, Berlin: Turia and Kant (›Causes in Visibility. Subjectivation in the Visible Field‹). Since 2013 he is a researcher at the chair of educational sciences at the University of Leipzig. His postdoc project »Genealogy of the Gifted Subject« analyzes the concept of giftedness in the educational sciences. Christoph Hubig ist seit 2010 Professor für Praktische Philosophie/Philosophie der wissenschaftlich-technischen Kultur an der Technischen Universität Darmstadt. Geboren 1952, studierte er Philosophie, Musikwissenschaft, Germanistik, Soziologie und Maschinenbau in Saarbrücken und an der TU Berlin, wurde 1976 promoviert und habilitierte sich 1983. Es folgten Professuren für Praktische Philosophie/Technikphilosophie in Berlin, Karlsruhe, Leipzig (Gründungsprofessur) sowie (1997– 2010) Stuttgart (Wissenschaftstheorie und Technikphilosophie). Publikationen: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Technik, Band 1: Technikphilosophie als Reflexion der Medialität, Bielefeld 2006; Band 2: Ethik der Technik als provisorische Moral, Bielefeld 2007; Band 3: Macht der Technik, Bielefeld 2015. Christoph Hubig is Professor of Practical Philosophy and Scientific-Technological culture at the Technische Universität Darmstadt since 2010. Born in 1952, he studied philosophy, musicology, German studies, sociology, and mechanical engineering in Saarbrücken and at the TU Berlin. He received his doctorate in 1976, and his habilitation was in 1983, after which he was appointed to Professorships in Practical Philosophy/Philosophy of Technology in Berlin, Karlsruhe, and Leipzig (founding professorship). From 1997–2010, he was appointed in Stuttgart to a Professorship in the Philosophy of Science and Philosophy of Technology. His publications include: Die Kunst des Möglichen. Grundlinien einer dialektischen Philosophie der Technik, Band 1: Technikphilosophie als Reflexion der Medialität, Bielefeld: transcript 2006; 365 Band 2: Ethik der Technik als provisorische Moral, Bielefeld: transcript 2007; Band 3: Macht der Technik, Bielefeld: transcript 2015. Andreas Kaminski ist Leiter der Abteilung Wissenschafts- und Technikphilosophie der Simulation am Bundeshöchstleistungsrechenzentrum Stuttgart (HLRS). Nach einem Studium der Philosophie, Germanistik und Soziologie an der TU Darmstadt und FU Berlin, promovierte er 2008 an der TU Darmstadt. Neben der Lehre in Philosophie unterrichtet er Technikgestaltung am Fachbereich Informatik der TU Darmstadt. Andreas Kaminski ist Sprecher des DFG-Netzwerks Geschichte der Prüfungstechniken 1900–2000. Forschungsgebiete sind: (1) informelle Techniken, (2) Paradoxien des Vertrauens sowie (3) Prüfungs- und Messtechniken als Subjektivierungsform. Publikationen: Technik als Erwartung. Grundzüge einer allgemeinen Technikphilosophie, Bielefeld 2010; gemeinsam mit Andreas Gelhard (Hg.): Zur Philosophie informeller Technisierung, Darmstadt 2014. Andreas Kaminski is the director of the division dedicated to the philosophy of science and technology pertaining to simulations at the High Performance Computing Center Stuttgart (HLRS). After studying philosophy, german studies, and sociology at the Technical University Darmstadt and Free University of Berlin, he completed a doctorate in 2008 in Darmstadt. Kaminski is the spokesperson for the German Research Foundation’s Network for the History of Auditing Techniques (1900– 2000). His research interests include informal technologies, trust dilemmas, and the manner in which auditing and measuring techniques constitute subjectivity. His recent publications include Technik als Erwartung: Grundzüge einer allgemeinen Technikphilosophie, Bielefeld: transcript 2010 and together with Andreas Gelhard, eds., Zur Philosophie informeller Technisierung, Darmstadt: WBG 2014. Nicole C. Karafyllis ist seit 2010 Professorin für Philosophie an der TU Braunschweig und Inhaberin des Lehrstuhls für Wissenschafts- und Technikphilosophie. Ausgebildet an den Universitäten in Erlangen-Nürnberg, Stirling (UK), Tübingen, Kairo (Äypten, Ain Shams University), Stuttgart und Frankfurt am Main, war sie 2008–2010 Full Professor of Philosophy an der United Arab Emirates University in Al Ain/Abu Dhabi in den VAE. Sie veröffentlichte zahlreiche Bücher und Artikel zur Technik- und Naturphilosophie sowie den zugehörigen Geschichtskonstruktionen, auch im interkulturellen Kontext. Neben ihren Arbeiten zum Konzept »Biofakt« widmet sie sich aktuell der Biographik. Aktuelle Publikationen: Willy Moog (1888–1935). Ein Philosophenleben, Freiburg 2015; mit Ortwin Renn u.a. (Hg.): International Science and Technology Education. Exploring Culture, Economy and Social Perceptions, Oxford 2015. Mit K. Zachmann (Hg.): »Pflanzliche Biofakte. Ge- 366 schichten über die Technisierung der Agrikultur im 20. Jahrhundert«, in: Technikgeschichte 84 (2017), Heft 2, S. 95–106 (Themenheft). Nicole C. Karafyllis is a professor of philosophy at the Technische Universität Braunschweig (Germany). Her areas of specialization include philosophy of science and technology. After studying and doing doctoral work at the universities in Erlangen-Nürnberg (Germany), Stirling (UK), Tübingen (Germany), Cairo (Egypt, Ain Shams University), Stuttgart (Germany), and Frankfurt am Main (Germany), she became a full professor of philosophy at the United Arab Emirates University in Al Ain/Abu Dhabi (UAE) in 2008. Most of her numerous books and articles deal with concepts of technics, life, and nature, including their historical and intercultural modelling. In addition to her work on »biofacts« (as conceptual antithesis to artefacts), she is working at the moment on the theory of biography. Recent publications include: Willy Moog (1888–1935). Ein Philosophenleben, Freiburg: Herder 2015 and Ortwin Renn, et al. eds., International Science and Technology Education. Exploring Culture, Economy and Social Perceptions, Oxford: Routledge 2015. With K. Zachmann (eds.): Pflanzliche Biofakte. Geschichten über die Technisierung der Agrikultur im 20. Jahrhundert. Technikgeschichte 84 (2017), Issue 2, pp. 95–106 (special issue). Christian Klager ist wissenschaftlicher Mitarbeiter für Philosophie und Philosophiedidaktik am Institut für Philosophie der Universität Rostock. Er studierte Philosophie, Germanistik und Erziehungswissenschaft. Seine Promotion setzt sich mit den philosophischen Bedeutungsdimensionen des Spiels in methodischer Absicht auseinander und wurde mit dem Joachim-Jungius-Förderpreis ausgezeichnet. Besondere Arbeitsschwerpunkte sind darüber hinaus die Fachdidaktik und Methodik der Philosophie, Angewandte Ethik und ausgewählte erkenntnistheoretische Fragen. Christian Klager veröffentlichte unter anderem: (als Herausgeber) Philosophieren mit den Simpsons, Münster 2009; mit Silke Pfeiffer: Spielend Philosophieren, Leipzig 2012; Spiel als Weltzugang. Philosophische Dimensionen des Spiels in methodischer Absicht, Weinheim/Basel 2016. Christian Klager is a research assistant for philosophy and didactics of philosophy at the Institute of Philosophy at the University of Rostock. He studied philosophy, German philology and educational science. His dissertation deals with the philosophical meanings of game in methodological terms and was awarded the Joachim Jungius Prize. In addition, his focus lies on the didactics and methodology of philosophy, applied ethics and selected epistemological questions. Christian Klager published for example: (as editor) Philosophieren mit den Simpsons, Münster: Monsenstein and Vannerdat 2009; with Silke Pfeiffer: Spielend Philosophieren, Leipzig: 367 Militzke 2012; Spiel als Weltzugang. Philosophische Dimensionen des Spiels in methodischer Absicht, Weinheim/Basel: Beltz 2016. Dipl.-Math. Uwe Küster studierte Mathematik und Physik an der Universität des Saarlandes, arbeitete in Numerischer Strömungsmechanik und numerischen Methoden des Höchstleistungsrechnens. Seit 1987 leitet er die Abteilung für numerische Methoden – zunächst am Rechenzentrum der Universität Stuttgart (RUS) und dann seit seiner Gründung am Bundeshöchstleistungsrechenzentrum der Universität Stuttgart (HLRS). Er ist Spezialist für Architekturen moderner Höchstleistungsrechner und arbeitet in der Anwendung numerischer Methoden in der Medizin und der Ergodentheorie in der Datenanalyse. Uwe Kuester holds a diploma in mathematics and physics from Saarland University in Saarbrücken, Germany. He has worked in computational fluid dynamics and numerical methods for supercomputing. Since 1987, he has served as head of the department of numeric methods at the former computing center at the University of Stuttgart (RUS) and, since its foundation, the Supercomputing Center at the University of Stuttgart (HLRS). He is a specialist in architectures of modern supercomputers, and is working on the medical applications of numerical methods and the application of ergodic theory in data analysis. Oliver Laas ist Visiting Lecturer für Philosophie an der Universität Talinn und der Estonian Business School sowie Assistant Professor und Junior Research Fellow an der Estonian Academy of Arts. Er studierte Kunst ebendort sowie Kulturtheorie und Philosophie an der Universität Talinn. Seine Forschungsinteressen liegen in der Metaphysik (Virtualität und Freier Wille), der Logik (Argumentationstheorie und Fuzzy logic), der Semiotik (Peirce) sowie den Game Studies (Ideologie und Rhetorik in Videogames). Zu seinen Veröffentlichungen gehören »Disagreements Over Analogies, « in: Metaphilosophy 48 (2017), Heft 1–2, S. 153–182. »On Game Definitions«, in: Journal of the Philosophy of Sport 44 (2017), Heft 1, S. 81–94, »Contemporary Philosophical Theories of Virtuality. A Critical Examination and a Nominalist Alternative«, Techné. Research in Philosophy and Technology 19 (2015), Heft 3, S. 314-357. Oliver Laas is Visiting Lecturer of Philosophy at Tallinn University and Estonian Business School and Assistant Professor and Junior Research Fellow at the Estonian Academy of Arts. He studied fine arts at the Estonian Academy of Arts, and cultural theory and philosophy at Tallinn University. His research interests include metaphysics (virtuality and free will), logic (argumentation theory and fuzzy logic), philosophy of computing and information (virtual reality, virtual communities, and virtual 368 friendship), semiotics (Charles S. Perice’s logic and theory of signs) and game studies (ideology and rhetoric in videogames). Selected English-language publications include: »Disagreements Over Analogies«, in: Metaphilosophy 48 (2017), Issue 1–2, pp. 153–182. »On Game Definitions«, in: Journal of the Philosophy of Sport 44 (2017), Issue 1, pp. 81–94, »Contemporary Philosophical Theories of Virtuality: A Critical Examination and a Nominalist Alternative«, Techné: Research in Philosophy and Technology 19 (2015), Issue 3, pp. 314-357. Hildrun Lampe studierte Geoökologie sowie Technik und Philosophie in Bayreuth, Umea/Schweden und Darmstadt und ist derzeit Doktorandin am Höchstleistungsrechenzentrum (HLRS) in Stuttgart. Ihre Dissertation befasst sich mit einer philosophischen Reflexion von Computersimulationen in den Umweltwissenschaften. Aktuelle Veröffentlichung gemeinsam mit Andreas Kaminski (im Erscheinen): »Verlässlichkeit und Vertrauenswürdigkeit von Computersimulationen«, in: Kevin Liggieri und Oliver Müller (Hg.): Mensch-Maschine-Interaktion. Handbuch zur Geschichte – Kultur – Ethik, Stuttgart 2018. Hildrun Lampe graduated in geoecology and philosopy of technology in Bayreuth, Umea/Schweden and Darmstadt. Currently, she is a PhD student at the High Performance Computing Center (HRLS) in Stuttgart. In her dissertation, she is concerned with a philosophical reflection of computer simulations in the environmental sciences. Recent publication together with Andreas Kaminski (forthcoming): »Verlässlichkeit und Vertrauenswürdigkeit von Computersimulationen«, in: Kevin Liggieri, et al., eds.: Mensch-Maschine-Interaktion. Handbuch zur Geschichte – Kultur – Ethik, Stuttgart: Metzler 2018. Pieter Lemmens studied biology and philosophy. He currently teaches philosophy and ethics at the Radboud University in Nijmegen, Netherlands. He wrote his dissertation on the intimate relationship between the human and technology, entitled Driven by Technology. The Human Condition and the Biotechnology Revolution, and received his PhD in 2008 from the Radboud University. His published research includes themes on the philosophy of technology and innovation (open source and commons-based), on the work of Martin Heidegger, Peter Sloterdijk and Bernard Stiegler as well as on post-autonomist and post-operaist Marxism (Hardt, Negri, Berardi) and philosophical anthropology and postphenomenology. He translated Stiegler’s Philosopher par accident in Dutch (2014) and co-edited a book on the philosophy of landscape and place (2011) as well as a volume on contemporary German philosophy (2013), all in Dutch. He is currently preparing a monograph on the work of Bernard Stiegler and an introductory book to the philosophy of technology. His current interests are the philosophical and politico-economic aspects of human (cognitive) 369 enhancement technologies, the philosophical aspects of trans- and posthumanism, philosophy of psychedelics and philosophy of technology in the age of the Anthropocene. Pieter Lemmens studierte Biologie und Philosophie. Derzeit lehrt er Philosophie und Ethik an der Radboud-Universität Nijmegen in den Niederlanden, wo er 2008 auch promovierte. Seine Dissertation mit dem Titel Driven by Technology. The Human Condition and the Biotechnology Revolution, handelt von der innigen Beziehung zwischen Mensch und Technik. Er publizierte (open source und commons-based) über Technikphilosophie und Innovation, zum Werk Martin Heideggers, Peter Sloterdijks und Bernard Stieglers wie auch über post-autonomen und post-operaistischen Marxismus (Hardt, Negri, Berardi) sowie zu Themen im Bereich der philosophischen Anthropologie und Post-Phänomenologie. Er übersetzte Stieglers Philosopher par accident ins Niederländische (2014), ist Mitherausgeber eines Buchs über die Philosophie der Landschaft und des Ortes (2013) sowie eines Bandes über zeitgenössische deutsche Philosophie (2013), beide in Niederländisch. Momentan bereitet er eine Monographie über das Werk Bernard Stieglers und eine Einführung in die Technikphilosophie vor. Aktuelle Forschungsinteressen sind die philosophischen und politisch-ökonomischen Aspekte von human (cognitive) enhancement Technologien, die philosophischen Aspekte des Trans- und Posthumanismus, die Philosophie der Psychedelica sowie die Technikphilosophie im Zeitalter des Antrophozäns. Stefan Meißner ist Professor für Medien- und Kulturwissenschaften an der Hochschule Merseburg. Nach dem Studium der Soziologie, Geschichte und Kommunikationswissenschaft in Dresden und Trento (Italien) arbeitete er zunächst im Bereich User Experience bei m-pathy. 2015 wurde er an der Bauhaus Universität Weimar mit einer Arbeit zu den »Techniken des Sozialen« promoviert. Sein Forschungsschwerpunkt besteht in der Erkundung und Analyse digitaler Kultur vor einem gesellschaftstheoretischen Hintergrund. Publikationen sind u.a. Techniken des Sozialen. Gestaltung und Organisation des Zusammenarbeitens in Unternehmen, Wiesbaden 2017 oder zus. mit Gunther Gebhard und Steffen Schröter: »Kritik der Gesellschaft? Anschlüsse bei Luhmann und Foucault«, in: Zeitschrift für Soziologie 35 (2006), Heft 4, S. 269–285. Weitere Informationen unter: www.denkmoeglichkeiten.de. Stefan Meißner is Professor of Media Studies and Cultural Sciences at University of Applied Sciences Merseburg. After studying Sociology, History and Communication Sciences at the Technical University Dresden and Università degli Stud