Content

Christoph Rollberg

Algorithmen in der Justiz

Rechtsfragen zum Einsatz von Legal Tech im Zivilprozess

1. Edition 2020, ISBN print: 978-3-8487-6907-0, ISBN online: 978-3-7489-2154-7, https://doi.org/10.5771/9783748921547

Series: Recht und Digitalisierung | Digitization and the Law, vol. 2

Bibliographic information
Algorithmen in der Justiz Christoph Rollberg Rechtsfragen zum Einsatz von Legal Tech im Zivilprozess Recht und Digitalisierung | Digitization and the Law 2 Recht und Digitalisierung | Digitization and the Law Herausgegeben von | Edited by Prof. Dr. Roland Broemel Prof. Dr. Jörn Lüdemann Prof. Dr. Rupprecht Podszun Prof. Dr. Heike Schweitzer, LL.M. Band 2 | Volume 2 Christoph Rollberg Algorithmen in der Justiz Rechtsfragen zum Einsatz von Legal Tech im Zivilprozess Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Zugl.: Potsdam, Univ., Diss., 2020 ISBN 978-3-8487-6907-0 (Print) ISBN 978-3-7489-2154-7 (ePDF) 1. Auflage 2020 © Nomos Verlagsgesellschaft, Baden-Baden 2020. Gesamtverantwortung für Druck und Herstellung bei der Nomos Verlagsgesellschaft mbH & Co. KG. Alle Rechte, auch die des Nachdrucks von Auszügen, der fotomechanischen Wiedergabe und der Übersetzung, vorbehalten. Gedruckt auf alterungsbeständigem Papier. Onlineversion Nomos eLibrary Für Leni Charlotte Vorwort Die vorliegende Arbeit entstand während der Zeit meiner Abordnung an die Senatsverwaltung für Justiz, Verbraucherschutz und Antidiskriminierung in Berlin, wo ich als Referent für Zivilrecht auf das Thema Legal Tech gestoßen bin. Sie wurde im Dezember 2019 von der Juristischen Fakultät der Universität Potsdam als Dissertation angenommen. Das Schrifttum ist auf dem Stand vom Februar 2020. Mein herzlicher Dank gilt zunächst meinem Doktorvater, Herrn Prof. Dr. Tilman Bezzenberger. Schon während meiner studienbegleitenden Tätigkeit als wissenschaftliche Hilfskraft an seinem Lehrstuhl für Bürgerliches Recht, Gesellschaftsrecht und Europäisches Zivilrecht habe ich lehrreiche Einblicke in Forschung und Lehre sammeln dürfen. Besonders möchte ich mich aber für seine in jeder Hinsicht hervorragende Unterstützung während der Abfassung der vorliegenden Arbeit bedanken. Ferner gilt mein Dank Frau Prof. Dr. Dorothea Assmann für die freundliche Übernahme und zügige Erstellung des Zweitgutachtens. Schließlich danke ich allen, die mich bei der Erstellung dieser Arbeit unterstützt haben, allen voran Frau Dr. Marietta Pietrek für ihre bedingungslose Unterstützung, ihr immer offenes Ohr und die ungezählten wertvollen Anregungen. Damit hat sie in nicht zu unterschätzender Weise zum Gelingen dieser Arbeit beigetragen. Besonders danken möchte ich auch meinem seinerzeitigen Referatsleiter Herrn Dr. Peter Schwarzburg. Die Zusammenarbeit mit ihm hat mein Interesse am Thema Legal Tech maßgeblich gefördert und mich motiviert, der wissenschaftlichen Diskussion darüber den vorliegenden Beitrag hinzuzufügen. Brüssel, im September 2020 Christoph Rollberg 7 Inhaltsverzeichnis Abkürzungsverzeichnis 15 Einleitung 21 Legal Tech: Begriffsbestimmung, Chancen und RisikenKapitel 1) 24 BegriffsbestimmungA. 24 Determinierte ProgrammeI. 25 Autonome SystemeII. 28 Thematische AbgrenzungIII. 32 Mögliche (rechts-)praktische Folgen des Einsatzes von Legal TechB. 33 Steigerung von Qualität und EffizienzI. 33 Erwartungen der RechtsuchendenII. 36 Mehr Objektivität oder mehr Diskriminierung?III. 38 (In-)Transparenz?IV. 44 Aktualität, Fehler und ManipulationenV. 46 Beeinflussung der MeinungsbildungVI. 48 Entkopplung von gesetzlichen GrundlagenVII. 51 Auswirkungen auf die gerichtliche ArbeitsweltVIII. 52 ZwischenergebnisIX. 55 Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht Kapitel 2) 56 Formalisierung des Rechts?A. 56 Die Semantik natürlicher SpracheI. 56 Die juristische HermeneutikII. 60 Formale Logik und SubsumtionIII. 63 Formale Logik und WertungenIV. 69 Rechtsanwendung und (Wert-)Urteile1. 69 Fähigkeit zur (wertenden) Entscheidung2. 74 Bedeutung der methodischen Probleme für die (zukünftige) Praxis V. 79 Abhängigkeit von der Datenqualität und Problem unstrukturierter Daten B. 80 9 Simulation von Gefühlen?C. 82 Keine Lösungen außerhalb der ProgrammvorgabenD. 83 ZwischenergebnisE. 84 Zulässige und unzulässige Anwendungen von Legal Tech im Lichte übergeordneter Prinzipien Kapitel 3) 85 Unabhängigkeit der GerichteA. 85 Rechtsprechende GewaltI. 86 Materielle Reichweite der rechtsprechenden Gewalt1. 86 Natürliche Personen als Richter2. 88 Keine Differenzierung im Instanzenzug3. 89 Zwischenergebnis4. 90 GesetzesbindungII. 91 Richterliche UnabhängigkeitIII. 92 Unabhängigkeit von der Exekutive1. 93 Unabhängigkeit von der Legislative2. 95 Unabhängigkeit gegenüber der Judikative3. 96 Kein Schutz der Unabhängigkeit außerhalb der rechtsprechenden Tätigkeit 4. 97 Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit 5. 98 Richterliche Unabhängigkeit aus europäischer PerspektiveIV. 99 Unabhängigkeit vs. Nutzung von automatisierten Anwendungen V. 100 Nutzung von determinierten Programmen zur Entscheidungsfindung 1. 100 Zulässigkeit bei vollständiger Kenntnis des Richters vom Algorithmus a) 101 Unzulässigkeit bei fehlender Kenntnis des Richters vom Algorithmus b) 102 Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens c) 104 Maßstab für die Nachvollziehbarkeit(1) 104 Erfordernis einer Zertifizierung(2) 108 Problemstellung(a) 108 Vergleichbarkeit mit standardisierten Messverfahren (b) 109 Prüfprogramm im Zertifizierungsverfahren(c) 110 Fehlerausbesserung und Weiterentwicklung(d) 112 Inhaltsverzeichnis 10 Problematik der Überprüfung von Geschäftsgeheimnissen (e) 113 Vereinbarkeit mit der Berufsfreiheit(f) 114 Abweichende Auffassung des Gerichtsd) 115 Erforderlichkeit von Auswahlmöglichkeiten?e) 116 Unerkannt „fehlerhafter“ Algorithmusf) 117 Problemstellung(1) 117 Mögliche Fehlerursachen(2) 118 Folgendifferenzierung(3) 119 Verstoß gegen die richterliche Unabhängigkeit? (a) 119 Möglichkeit der Urteilsberichtigung(b) 120 Unerkannt „fehlerhaft“ gewordener Algorithmusg) 122 Nutzung von autonomen Systemen zur Entscheidungsfindung 2. 124 Freiwillige und verpflichtende Nutzung3. 125 Problematik einer determinierenden Wertentscheidung4. 128 Wer darf Wertentscheidungen treffen?a) 130 Wie bleiben Wertentscheidungen aktuell?b) 132 Nutzung von automatisierten Anwendungen als Hilfswerkzeug 5. 135 Rechtsschutz und Dienstaufsicht6. 136 ZwischenergebnisVI. 137 Der Anspruch auf rechtliches GehörB. 138 AnspruchsberechtigteI. 139 Umfang des Anspruchs auf rechtliches Gehör und Rechtsschutz II. 139 Grenzen des Anspruchs auf rechtliches GehörIII. 141 Rechtliches Gehör vs. computergenerierte EntscheidungenIV. 144 Das Recht auf den gesetzlichen RichterC. 145 GrundsätzeI. 145 Konsequenzen für die Benutzung automatisierter Anwendungen II. 147 Rechtsstaatlichkeit und GleichheitsgebotD. 148 Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen I. 148 Automatisierte Entscheidungen und BegründungspflichtII. 151 Automatisierte Entscheidungsfindung und WillkürverbotIII. 154 Inhaltsverzeichnis 11 Ausrichtung des Zivilprozessrechts auf die DigitalisierungE. 157 Zivilprozessuale GrundsätzeI. 157 VideoverhandlungII. 159 Elektronische DokumenteIII. 160 Elektronische AkteIV. 162 Datenschutzrechtliche FragestellungenF. 163 Berücksichtigung des Art. 22 DS-GVO im ZivilprozessI. 163 Inhalt des Art. 22 DS-GVOII. 166 Konsequenzen für den Einsatz von Legal Tech im Zivilprozess III. 166 Amtshaftung und SpruchrichterprivilegG. 170 ZwischenergebnisH. 172 Ausgewählte AnwendungsfälleKapitel 4) 174 OrganisationshilfenA. 174 BerechnungshilfenB. 175 ProzesskostenhilferechnerI. 176 Modell eines Prozesskostenhilferechners1. 176 Mathematisch-logische Komponenten2. 180 Wertende Komponenten3. 185 Bewertung4. 187 Prozesskostenhilfe und Rechtsprechunga) 187 Nachvollziehbarkeitb) 189 Manipulationen und Aktualitätc) 190 Implementierung von Wertungend) 193 Umgang mit der im Modellrechner angelegten Unvollständigkeit e) 194 SchmerzensgeldrechnerII. 196 Weitere BerechnungshilfenIII. 198 Automatisierte SchlüssigkeitsprüfungC. 199 FluggastentschädigungsrechnerI. 199 Modellrechner1. 202 Determiniert programmierbare Komponentena) 202 Wertungen und Wertungsergebnisseb) 205 Umgang mit der im Modellrechner angelegten Unvollständigkeit c) 207 Differenzierung bei der Begründungd) 207 Verknüpfung mit einer Flugdatenbank?2. 208 Inhaltsverzeichnis 12 Notwendigkeit einer (Vor-)Prüfung durch den Richter3. 209 Formulargestützte Klageeinreichung?4. 210 Automatisch generierter VergleichsvorschlagII. 212 Das „Vor-Urteil“III. 215 ZwischenergebnisD. 217 Zusammenfassung in Thesen 219 Literaturverzeichnis 223 Inhaltsverzeichnis 13 Abkürzungsverzeichnis 2. PKHB 2019 Zweite Bekanntmachung zu § 115 der Zivilprozessordnung (2. Prozesskostenhilfebekanntmachung 2019) vom 21. Februar 2019, BGBl. 2019 Teil I, S. 161 a. A. anderer Ansicht a. a. O. am angegebenen Ort A.I. Artificial Intelligence, siehe auch KI ABl. Amtsblatt der Europäischen Union Abs. Absatz AcP Archiv für die civilistische Praxis (Zeitschrift) AEUV Vertrag über die Arbeitsweise der Europäischen Union ALG II Arbeitslosengeld II (Grundsicherung für erwerbsfähige Leistungsberechtigte nach dem Sozialgesetzbuch Zweites Buch) AGG Allgemeines Gleichbehandlungsgesetz AnwBl Anwaltsblatt (Zeitschrift) AöR Archiv des öffentlichen Rechts (Zeitschrift) Art. Artikel (Singular) Artt. Artikel (Plural) BauR Zeitschrift für das Baurecht BayVerf Verfassung des Freistaates Bayern BayVerfGH Bayerischer Verfassungsgerichtshof Bd. Band BB Betriebs-Berater (Zeitschrift) BDSG Bundesdatenschutzgesetz BeckOK Beck’scher Online-Kommentar BeckOGK beck-online.GROSSKOMMENTAR Begr. Begründer BGB Bürgerliches Gesetzbuch BGBl. Bundesgesetzblatt BGH Bundesgerichtshof BGHSt Entscheidungen des Bundesgerichtshofes in Strafsachen (Entscheidungssammlung) 15 BGHZ Entscheidungen des Bundesgerichtshofes in Zivilsachen (Entscheidungssammlung) Bonner Kommentar Bonner Kommentar zum Grundgesetz BPatGE Entscheidungen des Bundespatentgerichts (Entscheidungssammlung) BT-Drs. Bundestagsdrucksache BVerfG Bundesverfassungsgericht BVerfGE Entscheidungen des Bundesverfassungsgerichts (Entscheidungssammlung) BVerfGK Kammerentscheidungen des Bundesverfassungsgerichts (Entscheidungssammlung) BVerwG Bundesverwaltungsgericht BVerwGE Entscheidungen des Bundesverwaltungsgerichts (Entscheidungssammlung) c’t Magazin für Computertechnik (Zeitschrift) ca. circa COMPAS Correctional Offender Management Profiling for Alternative Sanctions CR Computer und Recht (Zeitschrift) DB Der Betrieb (Zeitschrift) DRiG Deutsches Richtergesetz DRiZ Deutsche Richterzeitung ders. derselbe dies. dieselbe/n DS-GVO Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) DStR-Beih Deutsches Steuerrecht Beihefter (Zeitschrift) DtZ Deutsch-Deutsche Rechts-Zeitschrift DVBl Deutsches Verwaltungsblatt (Zeitschrift) EDV Elektronische Datenverarbeitung EGGVG Einführungsgesetz zum Gerichtsverfassungsgesetz EGMR Europäischer Gerichtshof für Menschenrechte EGZPO Gesetz betreffend die Einführung der Zivilprozessordnung EMRK Europäische Menschenrechtskonvention Abkürzungsverzeichnis 16 EL Ergänzungslieferung et al. und andere EU Europäische Union EuGH Europäischer Gerichtshof EUV Vertrag über die Europäische Union EWeRK Zeitschrift des Instituts für Energie- und Wettbewerbsrecht in der kommunalen Wirtschaft e.V. f. und folgende Seite ff. und folgende Seiten FamFG Gesetz über das Verfahren in Familiensachen und in den Angelegenheiten der freiwilligen Gerichtsbarkeit FamRZ Zeitschrift für das gesamte Familienrecht FAZ Frankfurter Allgemeine Zeitung Fn. Fußnote Fluggastrechte-VO Verordnung (EG) Nr. 261/2004 des Europäischen Parlaments und des Rates vom 11. Februar 2004 über eine gemeinsame Regelung für Ausgleichs- und Unterstützungsleistungen für Fluggäste im Fall der Nichtbeförderung und bei Annullierung oder großer Verspätung von Flügen und zur Aufhebung der Verordnung (EWG) Nr. 295/91 FS Festschrift GeschGehG Geschäftsgeheimnisgesetz GG Grundgesetz GKG Gerichtskostengesetz GRC Charta der Grundrechte der Europäischen Union GRUR Gewerblicher Rechtsschutz und Urheberrecht (Zeitschrift) GS Gedächtnisschrift GVG Gerichtsverfassungsgesetz h. M. herrschende Meinung Hrsg. Herausgeber/in/innen Hs. Halbsatz IATA International Air Transport Association iOS Betriebssystem des iPhone IT Informationstechnologie i. V. m. in Verbindung mit JA Juristische Arbeitsblätter (Zeitschrift) JKomG Justizkommunikationsgesetz Abkürzungsverzeichnis 17 jM juris – Die Monatszeitschrift JR Juristische Rundschau (Zeitschrift) JurPC Internet-Zeitschrift für Rechtsinformatik und Informationsrecht JuS Juristische Schulung (Zeitschrift) JZ Juristenzeitung KG Kammergericht KI Künstliche Intelligenz, siehe auch AI km Kilometer KNN Künstliche neuronale Netzwerke lit. Buchstabe LKV Landes- und Kommunalverwaltung (Verwaltungsrechts-Zeitschrift für die Länder Berlin, Brandenburg, Sachsen, Sachsen-Anhalt und Thüringen) LTO Legal Tribune Online m. w. N. mit weiteren Nachweisen MIT Massachusetts Institute of Technology MMR MultiMedia und Recht (Zeitschrift) MünchKomm-BGB Münchener Kommentar zum Bürgerlichen Gesetzbuch MünchKomm-ZPO Münchener Kommentar zur Zivilprozessordnung NJW Neue Juristische Wochenschrift NJW-RR Neue Juristische Wochenschrift Rechtsprechungs-Report Zivilrecht Nr. Nummer NVwZ Neue Zeitschrift für Verwaltungsrecht NVwZ-Extra Neue Zeitschrift für Verwaltungsrecht – Extra – Aufsätze Online NZA Neue Zeitschrift für Arbeitsrecht NZFam Neue Zeitschrift für Familienrecht NZZ Neue Zürcher Zeitung OLG Oberlandesgericht PDF Portable Document Format RHB Rechtshandbuch Rn. Randnummer RuP Recht und Politik – Zeitschrift für deutsche und europäische Rechtspolitik RVG Rechtsanwaltsvergütungsgesetz Abkürzungsverzeichnis 18 S. Seite/n SGB XII Sozialgesetzbuch Zwölftes Buch SozBlog Blog der Deutschen Gesellschaft für Soziologie StGB Strafgesetzbuch StPO Strafprozessordnung TOP Tagesordnungspunkt u. a. unter anderem / und andere UrhG Urhebergesetz USA Vereinigte Staaten von Amerika UKlaG Gesetz über Unterlassungsklagen bei Verbraucherrechts- und anderen Verstößen (Unterlassungsklagengesetz) v. von VerfGH Verfassungsgerichtshof vgl. vergleiche vs. versus VwGO Verwaltungsgerichtsordnung VwVfG Verwaltungsverfahrensgesetz z. B. zum Beispiel ZD Zeitschrift für Datenschutz ZPO Zivilprozessordnung ZRP Zeitschrift für Rechtspolitik ZUM Zeitschrift für Urheber- und Medienrecht Abkürzungsverzeichnis 19 Einleitung Die Einbeziehung des Computers in die Rechtsfindung wurde unter dem Stichwort „Rechtsinformatik“ schon in den Siebziger- und Achtzigerjahren des 20. Jahrhunderts intensiv diskutiert.1 Damals kaum denkbare Einsatzmöglichkeiten entwickeln sich heute zu realistischen Szenarien. Dies liegt einerseits an der stetigen Zunahme der zur Verfügung stehenden Daten. Es wird geschätzt, dass sich die menschlich produzierte Datenmenge jährlich in etwa verdoppelt.2 Hinzu tritt die zunehmende Leistungsfähigkeit von Computern. Diese werden durch Algorithmen, das heißt vorab definierte Handlungsanweisungen, gesteuert und sind mittlerweile in der Lage, selbst Datenmengen gigantischen Ausmaßes zu verarbeiten und zu analysieren.3 Der Rechtsdienstleistungssektor hat die Digitalisierung längst für sich entdeckt und automatische Rechtsprüfungen entwickelt. Auch innerhalb der Justiz wird der Einsatz sogenannter „Legal Tech“ zunehmend diskutiert.4 Soweit sogenannte „Legal Analytics“ beziehungsweise „Legal Prediction“ aufgrund statistischer Erhebungen bereits heute in der Lage sein sollen, Gerichtsentscheidungen mehr oder weniger präzise vorhersagen zu können5, schließt sich die Frage an, ob Computern zukünftig auch die rechtsverbindliche Entscheidung über Rechtsfälle oder zumindest Teilfragen von Rechtsfällen überlassen werden kann. Wenngleich richterbezogene statistische Auswertungen von Gerichtsentscheidungen in Frankreich 1 Vgl. nur Erdmann et al., Computergestützte Juristische Expertensysteme (1986); Haft, Einführung in die Rechtsinformatik (1977); W. Kilian, Juristische Entscheidung und elektronische Datenverarbeitung (1974); Reisinger, Rechtsinformatik (1977). 2 So Helbing et al., Digitale Demokratie statt Datendiktatur, Spektrum der Wissenschaft vom 17. Dezember 2015. 3 Scheja, CR 2018, 485 (486). 4 Vgl. den Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 53 ff., https://www.schleswig-holstein.de/DE /Landesregierung/II/Ministerin/Justizministerkonferenz/Downloads/190605_besch luesse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020. 5 Hierzu von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 57; Frese, NJW 2015, 2090 (2092); M. Kilian, NJW 2017, 3043 (3049 f.). 21 jüngst verboten wurden6 und die Meinungen, ob es in Zukunft einen „Roboterrichter“ geben wird, auseinandergehen7, macht die Digitalisierung vor der Justiz jedenfalls nicht Halt. Verschiedene Beispiele aus der Rechtsprechung, in denen das Ergebnis einer computergestützten Berechnung mehr oder minder ungeprüft übernommen worden ist8, zeigen, dass digitale Anwendungen zunehmend in den Kernbereich der juristischen Entscheidungsfindung vordringen. Deshalb ist es an der Zeit, sich mit den rechtlichen Grundlagen des Einsatzes von Legal Tech im Zivilprozess auseinanderzusetzen. Insoweit ist schon hier festzustellen, dass beim gerichtlichen Einsatz automatisierter Anwendungen ein engerer Rechtsrahmen gilt als für private Rechtsdienstleister. Dieser Rahmen, der insbesondere durch grundgesetzliche Bestimmungen gezogen wird, verdient eine nähere Betrachtung. Um das Maß einer sinnvollen Ergänzung menschlicher Entscheidungstätigkeit zu bestimmen, soll zunächst der Begriff „Legal Tech“ gedeutet werden, um im Anschluss auf die mit dem Einsatz von Legal Tech verbundenen Chancen und Risiken einzugehen (nachfolgend Kapitel 1). Sodann soll der Blick auf die Grenzen technologischer Entscheidungsfindung im Recht geworfen werden (Kapitel 2). Dabei ist insbesondere der Frage nachzugehen, inwieweit eine Formalisierung des Rechts überhaupt möglich ist. Im nächsten Schritt sollen die Voraussetzungen für einen zulässigen Einsatz von Legal Tech in der Justiz herausgearbeitet werden (Kapitel 3). Zur Wahrung der durch den Technikeinsatz besonders gefährdeten richterlichen Unabhängigkeit wird hier die Einrichtung eines Zertifizierungsverfahrens vorgeschlagen. Die Möglichkeiten eines zulässi- 6 Kuhlmann, Baum der Erkenntnis nicht nur im Paradies verboten, LTO vom 14. Juni 2019; Römermann, Vom Glück personalisierter Urteilsanalyse, LTO vom 2. Januar 2020. 7 Heckelmann, NJW 2018, 504 (509 f.), geht eher von der Ersetzung des Richters durch Technologie aus; hingegen zweifelnd Marx, DRiZ 2018, 422 (422); vgl. auch die unterschiedlichen zu Wort kommenden Stimmen bei Fiebig, Wie Algorithmen Juristen ersetzen, Deutschlandfunk vom 5. Juni 2019. 8 Vgl. OLG Bamberg, Beschluss vom 15. Oktober 1997 – 2 WF 115/97, NJW-RR 1998, 1620, sowie OLG Karlsruhe, Beschluss vom 25. Oktober 2002 – 2 UF 98/02, MDR 2003, 523 (diese Beschlüsse hatten jeweils die kritiklose Übernahme des Ergebnisses eines Computerprogramms zur Berechnung des Versorgungsausgleichs zum Gegenstand, wobei den Gerichten bei der Verwendung Eingabefehler unterlaufen waren); OLG Saarbrücken, Beschluss vom 1. Juni 2004 – 6 UF 2/04, MDR 2005, 4 (hier hat das Gericht das Ergebnis eines Computerprogramms übernommen, nachdem es dort für die Berechnung einen Parameter eingegeben hatte, den es versehentlich aus einer anderen als der eigentlich zutreffenden Tabelle entnommen hatte). Einleitung 22 gen (zivil-)gerichtlichen Einsatzes von Legal Tech sollen anschließend an konkreten Anwendungsbeispielen aufgezeigt werden (Kapitel 4). Einleitung 23 Legal Tech: Begriffsbestimmung, Chancen und Risiken Begriffsbestimmung Für den Begriff „Legal Technology“ (kurz: Legal Tech) hat sich bislang keine einheitliche Definition durchgesetzt. Was im Einzelnen alles darunter fällt, ist unklar.9 In der englischen Version von Wikipedia heißt es: „Legal technology, also known as Legal Tech, refers to the use of technology and software to provide legal services.“10 Schemmel/Dietzen beschreiben Legal Tech als „Software und Online-Dienste, die juristische Arbeitsprozesse unterstützen oder gänzlich automatisiert durchführen und das Ziel verfolgen, effizientere Alternativen zu einzelnen Arbeitsschritten oder ganzen Rechtsdienstleistungen zu schaffen“.11 Herberger fasst den Begriff knapper zusammen als „IT-basierte Optimierung rechtlicher Handlungsfelder“.12 Bues beschreibt Legal Tech als Anwendung digitaler Technologien auf das Recht und differenziert nach verschiedenen Einsatzgebieten: juristische Hilfstätigkeiten, Zugang zum Recht, Erstellung von Rechtstexten, Rechtsfindung und -analyse.13 Breidenbach spricht von „Technologien oder technologiegestützte[n] Methoden […], die ihren Fokus im Wesentlichen auf die Unterstützung der rein inhaltlichen Arbeit des Juristen richten“.14 Den vorgenannten Eingrenzungsversuchen gemein ist, dass unter den Begriff „Legal Tech“ digitale Anwendungen gefasst werden, die die juristische Arbeit betreffen. So soll der Begriff auch im Rahmen dieser Arbeit verwendet werden. Dabei liegt der Fokus auf automatisierten digitalen Anwendungen, die die Entscheidungsfindung des Richters15 im Einzelfall er- Kapitel 1) A. 9 Vgl. die Deutungsversuche bei Hartung, Der Wirtschaftsführer 2016-2017, 16 (16), und Kuhlmann, in: Taeger, Smart World – Smart Law?, S. 1039 (1039 ff.). 10 Https://en.wikipedia.org/wiki/Legal_technology, zuletzt abgerufen am 18. Februar 2020. 11 Schemmel/Dietzen, in: Breidenbach/Glatz, RHB Legal Tech, S. 142. 12 Herberger, NJW 2018, 2825 (2825), unter Verweis auf Schemmel/Dietzen, in: Breidenbach/Glatz, RHB Legal Tech, S. 142. 13 Bues, Was ist „Legal Tech“?, Legal Tech Blog vom 2. September 2015. 14 Breidenbach, in: ders./Glatz, RHB Legal Tech, S. 37. 15 Mit der Bezeichnung „Richter“ sind in dieser Arbeit Personen aller Geschlechter gemeint. Dies gilt ferner auch für alle anderen Personenbezeichnungen, bei de- 24 setzen, indem das computergenerierte Ergebnis ohne Nachprüfung in die gerichtliche Entscheidung übertragen wird.16 Determinierte Programme Der Terminus „determinierte Programme“, in dieser Arbeit synonym als „Software“ bezeichnet, steht hier für rein algorithmisch programmierte Anwendungen. Diese Form der Programmierung wird auch als „explizite Programmierung“ bezeichnet.17 Ihre Funktionsweise erschöpft sich darin, Dateneingaben nach festgelegten Regeln zu verarbeiten und in bestimmte Datenausgaben zu überführen. Algorithmische Programmierung bedeutet die Implementierung von Algorithmen in ein Computersystem. Zunächst ist also zu klären, worum es sich bei „Algorithmen“ handelt. Jeder Algorithmus besteht aus einer definierten Abfolge von Handlungsschritten zur Lösung eines bestimmten Problems.18 Daher werden Algorithmen auch als (schematische) Problemlösungsverfahren19 beziehungsweise als „Lösungsplan“ beschrieben20. Etwas vereinfacht kann man sie auch als Handlungsanweisungen beschreiben. Sie helfen, Problemlösungsprozesse zu automatisieren, sodass gleichartige Probleme nicht jedes Mal neu gelöst werden müssen.21 Eingabedaten werden im Laufe der Abarbeitung des Plans in Ausgabedaten umgewandelt.22 Der Ablauf, das heißt jeder der einzelnen Verarbeitungsschritte auf dem Weg zur Problemlösung, I. nen aus Gründen der besseren Lesbarkeit allein die männliche Form gewählt worden ist (z. B. „Antragsteller“ und „Kläger“). 16 Unter dem Begriff der automatisierten digitalen Anwendungen (im Folgenden kurz: automatisierte Anwendungen) werden hier determinierte Programme und autonome Systeme zusammengefasst, zur Unterscheidung siehe sogleich. Zu digitalen Anwendungen, die die richterliche Tätigkeit lediglich in rein organisatorischer Hinsicht unterstützen, siehe Kapitel 4) A. Organisationshilfen. 17 Vgl. von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 50, der als Beispiel einen Taschenrechner nennt. 18 Buchholtz, JuS 2017, 955 (955); Hoffmann-Riem, AöR 142 (2017), 1 (2 f.); Reichertz, Algorithmen als autonome Akteure?, SozBlog vom 24. Februar 2013; Reichwald/ Pfisterer, CR 2016, 208 (209); Scheja, CR 2018, 485 (486). Der BGH, Urteil vom 9. Mai 1985 – I ZR 52/83, BGHZ 94, 276, juris Rn. 79, hat Algorithmen einmal als eine „in dem Computerprogramm berücksichtigte, sich auf einen vorgegebenen Rechner beziehende Rechenregel“ definiert. 19 Mellouli, Enzyklopädie der Wirtschaftsinformatik: Algorithmus. 20 Czernik, Was ist ein Algorithmus – Definition und Beispiele. 21 Lenzen, Künstliche Intelligenz, S. 43. 22 Czernik, Was ist ein Algorithmus – Definition und Beispiele. A. Begriffsbestimmung 25 ist zu jeder Zeit eindeutig vorgegeben (Determinismus).23 Bei Vorliegen der gleichen Voraussetzungen wird stets das gleiche Resultat erzielt (Determiniertheit).24 Schließlich sind Algorithmen in einem endlichen Text beschrieben (Finitheit) und laufen in einer endlichen Anzahl von ausführbaren Schritten (Ausführbarkeit) in endlicher Zeit ab (Terminierung).25 Damit der Computer Algorithmen ausführen kann, müssen sie zunächst in Programmiersprache übersetzt werden.26 Denn obwohl Algorithmen typischerweise mit der Informatik in Verbindung gebracht werden, sind sie nicht nur dort vorzufinden, sondern werden zunächst vom Menschen in natürlicher Sprache formuliert.27 Daher sind Algorithmen auch außerhalb der Informatik allgegenwärtig. Jede Bedienungsanleitung und jedes Kochrezept ist ein in natürlicher Sprache verfasster Algorithmus. Die Übersetzung in „Computersprache“ geschieht mittels eines binären Codes, der aus zwei Symbolen, typischerweise „0“ und „1“ besteht.28 Der Binärcode kann auch umschrieben werden mit „ja“ und „nein“ oder „wahr“ und „nicht wahr“. Entsprechend der Funktionsweise eines einfachen Algorithmus erschöpfen sich determinierte Programme in der Ausführung der vom Entwickler vorgegebenen Regeln, die sie bei jeder Anwendung wiederholen. Folge einer rein algorithmischen Programmierung ist, dass das System durch seine Inanspruchnahme weder seine Fähigkeiten ausbaut noch neue entwickeln kann.29 Das determinierte Programm bewegt sich stets innerhalb der einmal festgeschriebenen Regeln.30 Es ist aber in der Lage, die Regeln sehr viel schneller anzuwenden und zu einer Lösung zu kommen als es Men- 23 Kastl, GRUR 2015, 136 (136); Mellouli, Enzyklopädie der Wirtschaftsinformatik: Algorithmus. 24 Dzida/Groh, NJW 2018, 1917 (1917); Grützmacher, in: Wandtke/Bullinger, Urheberrecht, § 69a UrhG Rn. 29; Hoffmann-Riem, AöR 142 (2017), 1 (3); Mellouli, Enzyklopädie der Wirtschaftsinformatik: Algorithmus; Reichwald/Pfisterer, CR 2016, 208 (210); Scheja, CR 2018, 485 (486). 25 Czernik, Was ist ein Algorithmus – Definition und Beispiele; Ernst, JZ 2017, 1026 (1026); Hoffmann-Riem, AöR 142 (2017), 1 (3); Mellouli, Enzyklopädie der Wirtschaftsinformatik: Algorithmus; Scheja, CR 2018, 485 (486). 26 Ernst, JZ 2018, 1026 (1026); vgl. auch Zweig, Was ist ein Algorithmus?, AlgorithmWatch vom 12. Mai 2016. 27 Czernik, Was ist ein Algorithmus – Definition und Beispiele. 28 Hoffmann-Riem, AöR 142 (2017), 1 (28). 29 Klaas, MMR 2019, 84 (85). 30 Reichertz, Algorithmen als autonome Akteure?, SozBlog vom 24. Februar 2013. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 26 schen möglich ist.31 Typisches Beispiel für eine rein algorithmische Programmierung ist klassische Anwendungssoftware, weil diese aus einer blo- ßen Aneinanderreihung von Algorithmen besteht.32 Hierzu zählen etwa Computerspiele. Ebenfalls zu den determinierten Programmen gehören sogenannte Expertensysteme, sofern sie nur vorgegebenes Regelwissen abarbeiten33. Dabei handelt es sich um Computersysteme, die fachspezifisches Wissen speichern, das im Einzelfall gezielt abgerufen werden kann.34 Auch diese werden in klassischer Weise, das heißt durch Implementierung von Algorithmen, programmiert.35 Klassische Programmierung kann wie folgt bildlich dargestellt werden: klassische Programmierung36 Regeln → Klassische Programmierung → Antworten Daten → Zur Nutzung im Zivilprozess können determinierte Programme so ausgestaltet sein, dass der Richter die Falldaten in eine digitale Eingabemaske einträgt oder – sofern die Falldaten bereits in strukturierter (das heißt maschinenlesbarer) Form vorliegen – das Programm auf diese Daten automatisch zugreift. Anschließend verarbeitet das Programm die Falldaten nach den von seinem Entwickler vorgegebenen Regeln und zeigt das daraus resultierende Ergebnis, also die Falllösung, an. Rein algorithmische Anwendungen können nicht in beliebiger Komplexität programmiert werden.37 Denn sämtliche Anweisungen an das System, sämtliche Entscheidungsvarianten müssen von Hand in das Programm integriert werden. Die im Vergleich zum Menschen um ein Vielfaches höhere Handlungsgeschwindigkeit von Computern wird dabei ledig- Abbildung 1: 31 Reichertz, Algorithmen als autonome Akteure?, SozBlog vom 24. Februar 2013; Reichwald/Pfisterer, CR 2016, 208 (209). 32 Scheja, CR 2018, 485 (486). Zur (für die vorliegende Arbeit nicht relevanten) Abgrenzung zwischen Firmware und Software vgl. Paulus/Matzke, CR 2017, 769 (770 f.) m. w. N. 33 Expertensysteme können aber auch mit einer Lernkomponente ausgestattet sein, vgl. Stiemerling, CR 2015, 762 (765). In dem Fall erlangen sie (Teil-)Autonomie und sind deshalb keine determinierten Anwendungen. 34 Haft, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 589 (589). 35 Lenzen, Künstliche Intelligenz, S. 74. 36 Nach Chollet, Deep Learning mit Python und Keras, S. 23. 37 Engel, JZ 2014, 1096 (1099 f.); Papastefanou, CR 2019, 209 (210). A. Begriffsbestimmung 27 lich für die Verarbeitung von Eingabedaten nach festgelegten Regeln genutzt. Allerdings ist es mittlerweile möglich, Systeme ihre Regeln aus gro- ßen Datenmengen selbst entwickeln zu lassen und damit die Rechenkapazität von Computern noch effizienter zu nutzen.38 Autonome Systeme Digitale Systeme, die in der Lage sind, mittels eines Lernalgorithmus einen Datenpool zu durchdringen und auf dieser Grundlage eigene Regeln aufzustellen, die für den Menschen weder vorhersehbar noch im Nachhinein vollständig nachvollziehbar sind, werden in dieser Arbeit unter dem Begriff „autonome Systeme“39 zusammengefasst. Die Definition kennzeichnet zunächst Systeme, die in der Lage sind, aus einem vorhandenen Datensatz zu lernen (sogenanntes maschinelles Lernen40). Sie werden also nicht explizit programmiert, sondern mit Daten II. 38 Hierzu nachfolgend II. Autonome Systeme. 39 Autonome Systeme, im Folgenden auch als „selbstlernende Systeme“ bezeichnet, sind nicht gleichzusetzen mit „Künstlicher Intelligenz“. Eine einheitliche Definition „Künstlicher Intelligenz“ ist bislang nicht gelungen, siehe hierzu von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 48; Ernst, JZ 2017, 1026 (1027); Ertel, Grundkurs Künstliche Intelligenz, S. 1 ff.; Guggenberger, NVwZ 2019, 844 (845); Hartung, Der Wirtschaftsführer 2016-2017, 16 (18); Herberger, NJW 2018, 2825 (2825 ff.); Lenzen, Künstliche Intelligenz, S. 21 ff. Vor dem Hintergrund der ständigen technischen Weiterentwicklung und der damit verbundenen fortdauernden Diskussion darüber, welche Computerleistungen nun als „intelligent“ einzustufen sind, scheint die dynamische Definition von Rich, Artificial Intelligence, S. 1, noch am treffendsten: „Artificial Intelligence (A.I.) is the study of how to make computers do things at which, at the moment, people are better“. Einigkeit besteht allerdings darin, dass es sich bei dem maschinellen Lernen (machine learning), das den Kern der hier besprochenen autonomen Systeme ausmacht, um einen Teilbereich der Künstlichen Intelligenz handelt, vgl. Breidenbach/Glatz, in: dies., RHB Legal Tech, S. 3; Chollet, Deep Learning mit Python und Keras, S. 22; Ertel, Grundkurs Künstliche Intelligenz, S. 3 und 191; Guggenberger, NVwZ 2019, 844 (845); Lenzen, Künstliche Intelligenz, S. 23 und 50; Ory/Sorge, NJW 2019, 710 (710). Soweit in der Literatur allerdings gelegentlich von „lernende[n] Algorithmen“ die Rede ist (vgl. etwa Martini/Nink, NVwZ-Extra 10/2017, 1 [12]), führt dies in die Irre, da der Lernalgorithmus selbst sich nicht verändert, sondern lediglich eine Entscheidungsstruktur aufbaut, so zutreffend Zweig, Was ist ein Algorithmus?, AlgorithmWatch vom 12. Mai 2016. 40 Hierzu im Einzelnen: Ertel, Grundkurs Künstliche Intelligenz, S. 191 ff. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 28 trainiert, aus denen das System Wissen extrahiert.41 Dabei kommen immense Datenmengen zum Einsatz.42 Im Zuge der Durchleuchtung der historischen Daten werden Muster erkannt, an denen die Problemlösung ausgerichtet wird.43 Das Ergebnis der Datenverarbeitung ist nicht explizit vorgegeben.44 Im Gegensatz zu rein algorithmischen Anwendungen verhalten sie sich also nicht deterministisch. Vielmehr programmiert sich das System mittels des Lernalgorithmus und der historischen Daten in gewisser Weise selbst.45 Im Fall der fortlaufenden Anwendung des Lernalgorithmus wird der Wissens- und Erfahrungsschatz ständig erweitert.46 Die Gewichtung der einzelnen Faktoren unterliegt dann permanenten Veränderungen.47 Die Funktionsweise, das heißt die Methode, wie das autonome System ein Ergebnis ermittelt, ist für den Menschen nach dem derzeitigen Stand der Technik weder vorhersehbar noch im Nachhinein vollständig nachvollziehbar.48 Seine Komplexität bewirkt, dass sich das System als eine 41 Chollet, Deep Learning mit Python und Keras, S. 24; Ertel, Grundkurs Künstliche Intelligenz, S. 195. Zu den verschiedenen Lernmethoden „überwachtes Lernen“, „unüberwachtes Lernen“ und „verstärkendes Lernen“ vgl. Lenzen, Künstliche Intelligenz, S. 50 f., und Stiemerling, CR 2015, 762 (763 f.), ferner Chollet, Deep Learning mit Python und Keras, S. 129 ff., der mit dem „selbstüberwachte[n] Lernen“ noch eine vierte Kategorie bildet. 42 Chollet, Deep Learning mit Python und Keras, S. 24. 43 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 50; Lenzen, Künstliche Intelligenz, S. 50. 44 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 50. Dies gilt auch für das sogenannte „überwachte Lernen“: Bei ihm wird zwar ein System auf ein bestimmtes zu erzielendes Ergebnis trainiert, vgl. Stiemerling, CR 2015, 762 (763). Ob das Lernergebnis des Systems tatsächlich dem „vorgegebenen“ Ergebnis entspricht, bleibt aber ungewiss. 45 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 50. 46 Klaas, MMR 2019, 84 (85); zu technischen Fragen der Verselbstständigung technischer Systeme siehe die Darstellung bei Kirn/Müller-Hengstenberg, MMR 2014, 225 ff. Die fortlaufende Weiterentwicklung ist keine Voraussetzung, sondern nur eine Variante eines autonomen Systems. Daneben kann das System auch durch Beendigung des Trainings an einem bestimmten Punkt „eingefroren“ werden, Lenzen, Künstliche Intelligenz, S. 58. 47 Beuth, Feindbild Algorithmus, Zeit Online vom 14. Oktober 2017. 48 Beuth, Feindbild Algorithmus, Zeit Online vom 14. Oktober 2017; Borges, NJW 2018, 977 (978); Ernst, JZ 2017, 1026 (1027); Guggenberger, NVwZ 2019, 844 (850); Martini, JZ 2017, 1017 (1018 f.); Martini/Nink, NVwZ-Extra 10/2017, 1 (12); Papastefanou, CR 2019, 209 (209); Reichwald/Pfisterer, CR 2016, 208 (212); Stiemerling, CR 2015, 762 (764). A. Begriffsbestimmung 29 Art „Blackbox“ darstellt (sogenannte Opazität).49 Dies gilt sowohl für fortlaufend Wissen generierende als auch für ab einem bestimmten Zeitpunkt nicht weiter lernende autonome Systeme. Die Resultate einer „Blackbox“ sind einer Erklärung nicht zugänglich, selbst wenn sie für sich betrachtet richtig erscheinen mögen.50 Sichere Vorhersagen, wie die Maschine sich entscheiden wird, sind nicht mehr zu treffen, da es praktisch unmöglich ist, die Funktionsweise der „Blackbox“ durch empirische Erprobung von verschiedenen Kombinationen zu bestimmen.51 Das maschinelle Lernen kann wie folgt grafisch dargestellt werden: maschinelles Lernen52 Daten → Maschinelles Lernen → Antworten Antworten → Nicht alle lernfähigen Maschinen können unter den Begriff der autonomen Systeme gefasst werden. Weder die Blockchain-Technologie noch sogenannte „Smart Contracts“, die häufig mit einer Blockchain verknüpft sind53, fallen darunter. Blockchains erstellen keine Regeln aus einem Datenpool.54 „Smart Contracts“ legen ebenfalls keine eigenen Regeln fest, sondern führen bei dem Eintritt bestimmter Bedingungen vorher festge- Abbildung 2: 49 Beuth, Feindbild Algorithmus, Zeit Online vom 14. Oktober 2017; Bues, in: Hartung/Bues/Halbleib, Legal Tech, Rn. 1198; Card, The “black box” metaphor in machine learning, Towards Data Science vom 5. Juli 2017; Castelvecchi, Nature 538 (2016), 20 (21 f.); Hoffmann-Riem, AöR 142 (2017), 1 (29); Lenzen, Künstliche Intelligenz, S. 77; im Hinblick auf Genetic-Breeding-Algorithmen: Papastefanou, CR 2019, 209 (211 f.); vgl. aber zu ersten Ansätzen, „Blackbox“-Entscheidungen nachzuvollziehen und erklärbar zu machen: Beuth, Die rätselhafte Gedankenwelt eines Computers, Zeit Online vom 24. März 2017; Käde/von Maltzan, CR 2020, 66 ff.; Krakovsky, Finally, a peek inside the ‘black box’ of machine learning systems, Stanford Engineering vom 25. April 2017. 50 Herberger, NJW 2018, 2825 (2828). 51 Card, The “black box” metaphor in machine learning, Towards Data Science vom 5. Juli 2017. 52 Nach Chollet, Deep Learning mit Python und Keras, S. 23. 53 Vgl. Heckelmann, NJW 2018, 504 (505); Kaulartz, in: Taeger, Smart World – Smart Law?, S. 1023 (1024); Kaulartz/Heckmann, CR 2016, 618 ff. 54 Vgl. zur Funktionsweise von Blockchains Kaulartz, CR 2016, 474 ff.; Schrey/Thalhofer, NJW 2017, 1431 (1431 f.). Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 30 legte Maßnahmen aus.55 Auch das sogenannte Data Mining fällt nicht unter die Definition des autonomen Systems. Das Data Mining kennzeichnet keine Regelanwendung, sondern beschränkt sich auf die Erkennung von Mustern und Regelmäßigkeiten.56 Typische Beispiele für autonome Systeme sind hingegen sogenannte künstliche neuronale Netze (kurz: KNN). Sie sind der Funktionsweise des menschlichen Gehirns nachempfunden.57 Anders als rein algorithmische Anwendungen werden sie nicht programmiert, sondern mit Beispieldaten trainiert.58 Dabei verbindet das System bestimmte Eingabewerte mit bestimmten Ausgabewerten.59 Diese Verbindung der Ein- und Ausgabewerte stellt das „Wissen“ des Systems dar.60 Auch Genetic-Breeding-Algorithmen sind unter den hier verwendeten Begriff der autonomen Systeme zu fassen. Hier werden Regeln, ein sogenannter Ziel-Algorithmus, unter Nutzung von großen Datenmengen mit integrierten Problemlösungen vom System selbst erschaffen.61 Maschinelle Lernverfahren werden heute bereits in den Bereichen der medizinischen Diagnostik mit bildgebenden Verfahren62 und der automatischen Verkehrszeichenerkennung63 eingesetzt. Um autonome Systeme 55 Heckelmann, NJW 2018, 504 (504) m. w. N.; vgl. auch das anschauliche Anwendungsbeispiel eines Laptop-Kreditkaufs, der bei Ratenverzug automatisch den Zugriff auf das Betriebssystem verweigert, bei Paulus/Matzke, CR 2017, 769 (772), sowie ähnliche und weitere Beispiele bei Schrey/Thalhofer, NJW 2017, 1431 (1431), und Simmchen, MMR 2017, 162 (164). 56 Lenzen, Künstliche Intelligenz, S. 50; vgl. auch Ertel, Grundkurs Künstliche Intelligenz, S. 195 ff.; Zweig, Was ist ein Algorithmus?, AlgorithmWatch vom 12. Mai 2016. 57 Stiemerling, CR 2015, 762 (763); kritisch Chollet, Deep Learning mit Python und Keras, S. 27. 58 Ehinger/Stiemerling, CR 2018, 761 (762); Lenzen, Künstliche Intelligenz, S. 52 ff.; Stiemerling, CR 2015, 762 (763). 59 Papastefanou, CR 2019, 209 (210); Stiemerling, CR 2015, 762 (764). 60 Stiemerling, CR 2015, 762 (764). 61 Papastefanou, CR 2019, 209 (211 f.). 62 Dabei wird ein System mit einer Vielzahl von Bildern (zum Beispiel Röntgenbildern) sowie dazugehörigen Diagnosen trainiert, um anschließend selbstständig Diagnosen zu erstellen. Hierfür filtert das System aus den zur Verfügung stehenden Daten Korrelationen heraus, die es in Regeln umwandelt, an denen es seine zukünftigen Entscheidungen ausrichtet. 63 Hier besteht der Trainingsdatensatz aus einer Vielzahl von digitalen Fotoaufnahmen, die Verkehrszeichen enthalten, und den dazugehörigen Bedeutungen, die dem Fahrer später angezeigt werden sollen. Das System wertet die Bildpunkte aus und lernt mit der Zeit, Verkehrszeichen auf Bildern zu erkennen und ihre Bedeutung zutreffend einzuordnen. A. Begriffsbestimmung 31 zur Entscheidung von Zivilrechtsfällen heranzuziehen, könnten sie zuvor mit einer Vielzahl von in der Vergangenheit ergangenen Urteilen trainiert werden.64 Das System könnte aus den Trainingsdaten (Tatbestände und Tenor der Entscheidungen) lernen, dass bestimmter Vortrag mit bestimmten gerichtlichen Entscheidungen korreliert, und daraus Regeln entwickeln, an denen es die Lösung weiterer Fälle ausrichtet. Dieser Ansatz ist vor allem für besonders häufig wiederkehrende Fallkonstellationen interessant, die eine schematische Struktur aufweisen und sich nur im Hinblick auf die einzusetzenden Variablen voneinander unterscheiden. Zu denken ist hier an Fälle aus den Bereichen des Mietrechts (insbesondere Mietnebenkosten), des Fluggastentschädigungsrechts, aber auch des Verkehrszivilrechts. Denn solche Fälle kommen in der Praxis massenhaft vor, wobei sich die Sachverhalte mit Ausnahme der konkreten Daten häufig ähneln. Zumindest in der Theorie wartet hier ein großer Schatz an bereits ergangenen gerichtlichen Entscheidungen auf seine Auswertung.65 Thematische Abgrenzung Die vorliegende Arbeit beschäftigt sich mit der rechtlichen Zulässigkeit von Legal Tech-Anwendungen, die auf die zivilrichterliche Tätigkeit66 zugeschnitten sind. Themen aus den Bereichen elektronischer Rechtsverkehr, hier insbesondere das besondere elektronische Anwaltspostfach67, sind nicht Gegenstand der Bearbeitung. Ferner bleibt die anwaltliche Perspektive einschließlich der Fragen des Rechtsdienstleistungsrechts und des an- III. 64 An die Stelle der Tatbestände von gerichtlichen Entscheidungen könnten auch die im jeweiligen Verfahren gewechselten Anwaltsschriftsätze treten. Da diese aber nach § 2 Abs. 1 Nr. 1 UrhG einem Urheberrechtsschutz zugänglich sind, vgl. BGH, Urteil vom 17. April 1986 – I ZR 213/83, NJW 1987, 1332, juris Rn. 9, wäre ihre Nutzung als Trainingsdaten nicht unproblematisch. Zum Problem der Verfügbarkeit geeigneter Trainingsdokumente siehe Dreyer/Schmees, CR 2019, 758 (760). 65 In der Praxis stellt sich aber insbesondere das Problem des Zugangs zu den zahlreichen nicht veröffentlichten Entscheidungen. 66 Soweit nicht anders kenntlich gemacht, wird im Rahmen der vorliegenden Arbeit der Begriff Gericht im Sinne eines Rechtsprechungsorgans und nicht als Behörde verwendet. Zur Differenzierung vgl. Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 58. 67 Hierzu im Einzelnen: Löschhorn, MMR 2018, 204 ff.; Schmieder/Liedy, NJW 2018, 1640 ff.; Siegmund, NJW 2017, 3134 ff.; Viefhues, NJW-Beilage 2016, 86 ff. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 32 waltlichen Berufsrechts68 außer Betracht. Nicht Gegenstand dieser Arbeit ist ferner die Diskussion um die Schaffung von Vorgaben für einen „strukturierten Parteivortrag“. Unter diesem Schlagwort werden keine computergenerierten beziehungsweise -beeinflussten Entscheidungen diskutiert, sondern die Aufbereitung des Vortrags durch die Parteien in digitalen Eingabemasken. In diesem Zusammenhang wird von einigen Autoren vorgeschlagen, die Zivilprozessordnung um Regeln für ein strukturiertes Verfahren zu ergänzen.69 Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech Steigerung von Qualität und Effizienz Die voranschreitende Digitalisierung des Rechtsdienstleistungsmarkts geht auch an der Justiz nicht spurlos vorüber. Vielfach bemühen Legal Tech- Unternehmen zur Rechtsdurchsetzung den Justizapparat, nachdem die au- ßergerichtliche Regulierung gescheitert ist. Spezialisiert haben sie sich überwiegend auf Geschäftsfelder, in denen Ansprüche typischerweise massenhaft entstehen und die eine schematische Bearbeitung ermöglichen. Dabei kommt ihnen das sogenannte rationale Desinteresse zugute, das insbesondere Verbraucher von der eigenständigen Verfolgung verhältnismä- ßig geringer Forderungen häufig abhält.70 Die Spezialisierung auf bestimmte Geschäftsfelder geht mit dem Versprechen einher, dadurch ein besonders hohes Maß an Qualität gewährleisten zu können.71 Am Markt B. I. 68 Hierzu im Einzelnen: Henssler, NJW 2019, 545 ff.; Römermann/Günther, NJW 2019, 551 ff.; Schwintowski, EWeRK 2018, 214 ff. 69 Hierzu Breidenbach/Gaier, in: Breidenbach/Glatz, RHB Legal Tech, S. 199 ff.; Gaier, ZRP 2015, 101 ff.; ders., in: Breidenbach/Glatz, RHB Legal Tech, S. 189 ff.; Vorwerk, NJW 2017, 2326 ff. 70 Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 105, https://www.schleswig-holstein.de/DE/Landes regierung/II/Ministerin/Justizministerkonferenz/Downloads/190605_beschluesse/ TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020. 71 Vgl. die Äußerungen von Halmer, Gründer von wenigermiete.de, bei Fiebig, Wie Algorithmen Juristen ersetzen, Deutschlandfunk vom 5. Juni 2019: „Ich würde behaupten, für die Standardfälle gelingt es kaum einem Anwalt ein so ausgefuchstes Anspruchsschreiben auf die Beine zu stellen, wie wir es jetzt mittlerweile haben, nach zehntausend Fällen. Das ist ein sehr juristisch durchdachtes Dokument, was aber für eine Vielzahl von Fällen auch passt. Wenn ich jetzt zum Einzelanwalt gehe, der […] in der Vergangenheit vielleicht zwei Mietpreisbremsefäl- B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 33 etabliert haben sich verschiedene Anbieter wie die Flightright GmbH, die für ihre Kunden Fluggastrechte gegenüber Fluggesellschaften geltend macht, die LexFox GmbH72, die von Vermietern Ansprüche aus Mietverhältnissen einfordert, oder die financialright GmbH73, die u. a. von Volkswagen-Kunden abgetretene Ansprüche im sogenannten Abgasskandal erstreitet.74 Um die Durchsetzung von Abfindungen bei Arbeitsplatzverlust durch Kündigung kümmert sich die Legal Hero GmbH75. Mit der Verfolgung von Ansprüchen aufgrund von Zugverspätungen beschäftigt sich die RightNow GmbH76. Wenn Legal Tech-Unternehmen zum Zwecke der schematischen Rechtsdurchsetzung Algorithmen nutzen, stellt sich die Frage, ob eine vergleichbare Automatisierung auch auf Seiten der Gerichte möglich und zulässig ist. Während die Möglichkeit des Einsatzes automatisierter Anwendungen neben der finanziellen von der technischen Realisierbarkeit77 abhängt, ist die Zulässigkeit an übergeordneten Prinzipien zu messen78. Freilich brächte ihr Einsatz einige Vorteile mit sich. Digitale Unterstützung kann die Qualität juristischer Arbeit verbessern.79 Denn Computer sind im Allgemeinen weniger fehleranfällig als Menschen.80 Sie arbeiten schlicht ihren Programmcode ab. Dazu sind sie ständig verfügbar und belastbarer als Menschen. Anders als Menschen benötigen Computer keine Pausen, kennen keinen Zeitdruck, keinen Stress und keine Ablenkung. Außerdem arbeiten sie vergleichsweise schneller. So dürfte es für den Menschen ob der Vielzahl der in einer Rechtsordnung enthaltenen Rechtssätze wenig aussichtsreich erscheinen, ihre Eignung für die rechtliche Beurteilung eines Sachverhaltes durch wahlloses Probieren und Experimentieren herausle hatte, dann kann ich mir gut vorstellen, dass das Anspruchsschreiben, das dabei herauskommt, nicht ganz den Qualitätsstandard hat“. 72 Zuvor Mietright GmbH, https://www.wenigermiete.de/, zuletzt abgerufen am 18. Februar 2020. Der BGH, Urteil vom 27. November 2019 – VIII ZR 285/18, NJW 2020, 208, hat jüngst entschieden, dass das Geschäftsmodell der LexFox GmbH mit dem Rechtsdienstleistungsgesetz vereinbar ist. 73 Https://www.myright.de/, zuletzt abgerufen am 18. Februar 2020. 74 Näheres hierzu Römermann/Günther, NJW 2019, 551 ff. 75 Https://legalhero.de/, zuletzt abgerufen am 18. Februar 2020. 76 Https://www.bahn-buddy.de, zuletzt abgerufen am 18. Februar 2020. 77 Hierzu Kapitel 2) A. Formalisierung des Rechts? 78 Hierzu Kapitel 3) Legal Tech im Lichte übergeordneter Prinzipien. 79 Breidenbach, in: ders./Glatz, RHB Legal Tech, S. 45; Breidenbach/Glatz, in: dies., RHB Legal Tech, S. 7. 80 Ernst, JZ 2017, 1026 (1028). Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 34 zufinden.81 Freilich erspart sich der Jurist dies aufgrund seines systematischen Verständnisses. Allerdings könnten Computer mit ihrer dem menschlichen Geist weit überlegenen Rechenkapazität auch durch wahlloses Probieren, also ohne methodisches Vorgehen, eine Prüfung in überschaubarer Zeit bewerkstelligen.82 Gerade bei der Bewältigung standardisierbarer Aufgaben kann der Technikeinsatz zu einer erheblichen Zeitersparnis führen83, was der Gewährung eines effektiven und insbesondere zügigen Rechtsschutzes zuträglich ist84. Bereits der Wechsel von der Schreibmaschine zum Computer eröffnete die Möglichkeit, Textbausteine zu speichern und durch wenige Klicks in neue Entscheidungen zu übertragen. Berechnungshilfen sparen dem Anwender Zeit durch die Übernahme von gegebenenfalls komplexen Rechenoperationen. Ihre Verwendung kann dazu beitragen, Berechnungsfehler zu vermeiden.85 Durch Standardisierung kann die richterliche Tätigkeit effizienter gestaltet werden und der einzelne Richter dementsprechend mehr Fälle bearbeiten.86 Wenn jeder Richter mehr Fälle bearbeiten kann, senkt dies den Personalbedarf in der Justiz. Den Ausgaben für eine zunehmende Digitalisierung stehen daher erhebliche Kosteneinsparungen gegenüber.87 Der Abbau von Kostenhürden erschließt zugleich den Zugang zum Recht für grö- ßere Verkehrskreise, sofern diese Einsparungen umgelegt werden.88 Schließlich können wachsende Datenmengen (sogenannte Big Data89) durch digitale Anwendungen effizienter bewältigt werden. Denn die Sichtung großer Datenmengen beansprucht viel Zeit, solange sie noch von Menschen ausgeführt wird. Daher kann Software, die auf das Aufsuchen 81 Larenz, Methodenlehre der Rechtswissenschaft, S. 282. 82 Insoweit stellt sich allerdings die Frage, ob Computer subsumieren können, siehe hierzu Kapitel 2) A.III. Formale Logik und Subsumtion. 83 Ebenso Guggenberger, NVwZ 2019, 844 (846 f.) m. w. N. 84 Guckelberger/Starosta, DRiZ 2020, 22 (25). 85 Dies setzt allerdings voraus, dass die Ausgangsdaten zutreffend eingegeben und „richtig“ verarbeitet werden. Zur Nachvollziehbarkeit automatisierter Anwendungen siehe Kapitel 3) A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens und Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung. 86 Ähnlich im Hinblick auf die anwaltliche Tätigkeit: Breidenbach, in: ders./Glatz, RHB Legal Tech, S. 41 und 45. 87 So im Ergebnis auch Specht, MMR 2019, 153 (153). 88 Breidenbach/Glatz, in: dies., RHB Legal Tech, S. 3. 89 Der Begriff „Big Data“ kennzeichnet die Möglichkeit des Zugriffs auf immense Datenmengen, siehe Hoffmann-Riem, AöR 142 (2017), 1 (7). B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 35 bestimmter Muster trainiert ist, menschliche Recherchearbeit deutlich reduzieren.90 Algorithmen sind aufgrund ihrer präzisen Rechenregeln in der Lage, riesige Datenmengen zu analysieren und bestimmte Ergebnisse aus ihnen herauszufiltern.91 Die Entwicklung von „Aktendurchdringungssystemen“, die bestimmte Informationen aus Akten extrahieren und übersichtlich darstellen, verspricht daher eine erhebliche Senkung des Zeitaufwands für das Aktenstudium. In Zeiten stetig an Umfang zunehmender Anwaltsschriftsätze, die einerseits auf die Bündelung zahlreicher abgetretener Forderungen in einem Verfahren92 und andererseits auf die zunehmende Verwendung von Textbausteinen93 zurückzuführen ist, brächte dies eine spürbare Entlastung mit sich. Erwartungen der Rechtsuchenden In einer Welt, in der die Menschen zunehmend auf digitale Dienste zurückgreifen, etwa Einkäufe und Überweisungen per Smartphone abwickeln und Dienstleistungen online bestellen, wirkt die Justiz mit ihrer zurückhaltenden Öffnung für die Errungenschaften des digitalen Zeitalters wie aus einer früheren Zeit. Prozesse werden überwiegend in Papierform geführt. Eine flächendeckende elektronische Aktenführung an deutschen Gerichten ist erst ab dem 1. Januar 2026 geplant.94 Nicht zu überraschen vermag daher der Umstand, dass Unternehmen, die eine unkomplizierte Abwicklung von massenhaft entstehenden Ansprüchen versprechen, sich eines immensen Zulaufs erfreuen.95 Denn im Rechtsdienstleistungsmarkt sind automatisierte Anwendungen längst an- II. 90 Markoff, Armies of Expensive Lawyers, Replaced by Cheaper Software, The New York Times vom 4. März 2011; Stiemerling, CR 2015, 762 (763). 91 Kastl, GRUR 2015, 136 (136); Scheja, CR 2018, 485 (486). 92 So in dem Kartellschadensersatzverfahren zum sogenannten Lkw-Kartell, in dem im Juni 2019 Meldungen von einer 650.000 Seiten langen Klageschrift die Runde machten, vgl. Jung, Ein Lastwagen voller Papier – 650.000 Seiten Klageschrift, FAZ vom 24. Juni 2019. 93 Fischer, DRiZ 2015, 392 (393) und die eigene Erfahrung des Verfassers. 94 Vgl. § 298a Abs. 1a ZPO, eingeführt durch das Gesetz zur Einführung der elektronischen Akte in der Justiz und zur weiteren Förderung des elektronischen Rechtsverkehrs vom 5. Juli 2017, BGBl. 2017 Teil I, S. 2208. In Dänemark werden Zivilprozesse hingegen bereits heute fast ausschließlich online geführt, siehe hierzu Eskesen, DRiZ 2018, 56 f. 95 Die Flightright GmbH wirbt auf ihrer Homepage (https://www.flightright.de/, zuletzt abgerufen am 18. Februar 2020) damit, seit ihrer Gründung im Frühsom- Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 36 gekommen. Der Weg über Legal Tech-Portale96, die die Durchsetzung von Ansprüchen bei geringem Zeitaufwand und ohne Kostenrisiko97 versprechen98, scheint verlockender als einen Rechtsstreit auf eigene Faust zu führen, der unter Umständen über mehrere Instanzen ausgefochten werden muss. Daneben haben Plattformen, die einen Online-Marktplatz für den Handel bereitstellen, eigene Online-Portale zur außergerichtlichen Streitbeilegung entwickelt.99 Staatliche Gerichte bleiben hier – jedenfalls zunächst und in den meisten Fällen – außen vor. Außerdem stellt die Europäische Kommission den Bürgern seit Anfang des Jahres 2016 eine Online- Streitbeilegungsplattform100 zur Verfügung. Verbraucher können dort Beschwerden einreichen und werden nach Abstimmung mit dem Händler an eine Schlichtungsstelle weitergeleitet. Auch das weitere Verfahren wird internetgestützt abgewickelt. Wohl auch die wachsende Zahl an solchen alternativen Möglichkeiten zur Konfliktlösung101 trägt zu sinkenden Eingangszahlen an den Zivilgerichten bei.102 Den sinkenden Eingangszahlen stehen jedoch mittlerweile längere Verfahrensdauern gegenüber. Laut EU-Justizbarometer sank die mer 2010 bereits Ansprüche in Höhe von mehr als EUR 300.000.000,00 für ihre Kunden durchgesetzt zu haben. 96 Eine Übersicht über automatisierte Rechtsberatungsprodukte, Marktplätze und Expertenportale sowie weitere Portale, Verzeichnisse, Hilfsmittel, Datenbanken u. a. auf dem deutschen Markt findet sich bei Tobschall/Kempe, in: Breidenbach/ Glatz, RHB Legal Tech, S. 25 ff. 97 Sogenanntes „no win, no fee“-Prinzip. 98 Die Flightright GmbH (https://www.flightright.de/, zuletzt abgerufen am 18. Februar 2020) wirbt mit einem Zeitaufwand für den Nutzer von zwei Minuten und einem Kostenrisiko von EUR 0,00, wobei die Anspruchsdurchsetzung vollständig in den Händen des Unternehmens liegt und eine Erfolgsprovision von 20-30 % zu zahlen ist. Auch die LexFox GmbH (https://www.wenigermiete. de/, zuletzt abgerufen am 18. Februar 2020) wirbt auf ihrer Homepage mit dem Fehlen eines Kostenrisikos. 99 Vgl. etwa die Paypal Konfliktlösung (https://www.paypal.com/de/webapps/mpp /resolution-help) oder das Ebay Resolution Center (https://resolutioncenter.ebay .de/), beide zuletzt abgerufen am 18. Februar 2020. 100 Https://ec.europa.eu/consumers/odr/main/index.cfm?event=main.home2.show &lng=DE, zuletzt abgerufen am 18. Februar 2020. 101 Zu erwähnen sind hier auch Schlichtungsstellen wie die des Bankenverbands (https://bankenombudsmann.de/), des Deutschen Sparkassen- und Giroverbands (https://www.dsgv.de/verband/schlichtungsstelle.html) sowie die Schlichtungsstelle Energie (https://www.schlichtungsstelle-energie.de/), alle zuletzt abgerufen am 18. Februar 2020. 102 Mit möglichen Hintergründen beschäftigt sich Prütting, DRiZ, 2018, 62 ff. Die genauen Gründe soll die vom Bundesministerium der Justiz und für Verbrau- B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 37 Zahl der eingehenden erstinstanzlichen Zivilverfahren in Deutschland von 1,9 pro 100 Einwohner im Jahr 2010 auf 1,5 pro 100 Einwohner im Jahr 2017.103 Im Jahr 2007 gingen an den Amtsgerichten deutschlandweit noch rund 1.260.000 Verfahren neu ein, während es im Jahr 2017 nur noch knapp 940.000 waren.104 Die durchschnittliche Erledigungsdauer der Verfahren stieg im Zeitraum von 2010 bis 2017 von 184 auf 204 Tage.105 Dabei trifft es bei Bürgern auf wenig Verständnis, wenn gerichtliche Verfahren sich teilweise jahrelang hinziehen.106 Allerdings gilt es zu berücksichtigen, dass die zügige Bearbeitung durch Legal Tech-Portale, die einem hohen Maß an Automatisierung geschuldet ist, sich auf spezielle Fallkonstellationen wie Fluggastrechte und Ansprüche aus Mietverhältnissen konzentriert. Die Justiz ist zwar mitunter auch von sogenannten Massenverfahren betroffen. Im Hinblick auf die Vielzahl der möglichen Fallkonstellationen, die an die Gerichte herangetragen werden, ist eine Automatisierung in einem gleichen Maße für die Gesamtheit der Fälle freilich nicht möglich. Ferner können rein technisch basierte Lösungen das Bedürfnis von Rechtsuchenden, ein persönliches Gespräch mit einem Rechtsexperten zu führen, nicht erfüllen.107 Mehr Objektivität oder mehr Diskriminierung? Zwar wird Richtern abverlangt, sich von Vorurteilen, also positiven oder negativen Assoziationen, die mit bestimmten Personengruppen in Verbin- III. cherschutz geplante Unmet-legal-needs-Studie hervorbringen, siehe hierzu Kaufmann/Sehl, Studie zu Klagerückgang an den Zivilgerichten, LTO vom 8. August 2019. 103 The 2019 EU Justice Scoreboard Factsheet, April 2019, S. 2 Figure 2, https://ec.e uropa.eu/info/sites/info/files/justice_scoreboard_2019_quantative_data_factshee t_en.pdf, zuletzt abgerufen am 18. Februar 2020. 104 Kaufmann/Sehl, Studie zu Klagerückgang an den Zivilgerichten, LTO vom 8. August 2019. 105 The 2019 EU Justice Scoreboard Factsheet, April 2019, S. 3 Figure 5, https://ec.e uropa.eu/info/sites/info/files/justice_scoreboard_2019_quantative_data_factshee t_en.pdf, zuletzt abgerufen am 18. Februar 2020. 106 Vgl. zur Diskussion über zu langsame Gerichtsverfahren Hirtz, NJW 2014, 2529 ff.; Podszun/Rohner, BB 2018, 450 (451); Prantl, Langsame Justiz – Gutes Recht ist schnelles Recht, Süddeutsche Zeitung vom 8. April 2010. 107 M. Kilian, NJW 2017, 3043 (3050). Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 38 dung gebracht werden,108 soweit als möglich frei zu halten.109 So müssen Richter bei der Vereidigung gemäß § 38 DRiG schwören, „ohne Ansehen der Person zu urteilen“. Gleichwohl wäre es nicht überzeugend, zu leugnen, dass Menschen und ihre Entscheidungen von bewussten oder unbewussten Vorurteilen beeinflusst werden.110 Demgegenüber versprechen computergenerierte Entscheidungen auf den ersten Blick einen Zuwachs an Objektivität. Sie besitzen weder Emotionen noch Gefühle und folgen immer den festgelegten Regeln.111 Die Regeln sind vorbestimmt und scheinen auf den ersten Blick objektiv. Außerhalb der Programmvorgaben liegende Faktoren haben keinen Einfluss auf die Entscheidung.112 Denn Computer hegen selbst keine Vorurteile.113 Die angenommene Sachlichkeit der Entscheidungen kann ihre Akzeptanz bei den durch sie Betroffenen erhöhen. Ferner wird angenommen, dass die Auflösung abstrakter Gesetzesbegriffe in ein differenziertes computergestütztes Kriteriensystem der Verwirklichung des Gerechtigkeitsgebotes diene.114 Es sollte jedoch nicht vergessen werden, dass die Algorithmen, nach denen Maschinen arbeiten, von Menschen programmiert werden. Die Entwickler legen (zumindest mittelbar) fest, welche Kriterien wie gewichtet werden.115 Daher fließen auch ihre bewussten oder unbewussten Vorurteile in die Programmierung ein und beeinflussen die Ergebnisse.116 Die Ansichten und Wertungen der Entwickler, ihre Einstellungen, Neigungen und Tendenzen setzen sich in der Funktionsweise des Algorithmus fort.117 Ihre Delegation an den Computer macht die Entscheidung nicht neutral. Das Maß der Objektivität hängt also von der menschengemachten Konstruktion des Algorithmus ab.118 Besonders problematisch ist in diesem 108 Zimmer/Stajic, NZA 2017, 1040 (1040). 109 Larenz, Methodenlehre der Rechtswissenschaft, S. 295. 110 Dzida/Groh, NJW 2018, 1917 (1917); zur Bedeutung unbewusster Vorurteile für den Richter siehe Hirsch, ZRP 2009, 61 f.; Jäger, DRiZ 2018, 24 ff. 111 Albrecht, Roboter können wie Insekten handeln, aber nicht denken wie Menschen, Welt vom 16. November 2017; Lenzen, Künstliche Intelligenz, S. 35 f.; im Hinblick auf die Zukunft aber zweifelnd: Enders, JA 2018, 721 (722). 112 Siehe jedoch zu den nachteiligen Auswirkungen auf die Meinungsbildung unten VI. Beeinflussung der Meinungsbildung. 113 Dzida/Groh, NJW 2018, 1917 (1917); Lenzen, Künstliche Intelligenz, S. 173. 114 Haft, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 21 (43). 115 Ernst, JZ 2017, 1026 (1029). 116 Dzida/Groh, NJW 2018, 1917 (1917); Härtel, LKV 2019, 49 (55). 117 Ernst, JZ 2017, 1026 (1028); Martini, JZ 2017, 1017 (1018). 118 Ernst, JZ 2017, 1026 (1029). B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 39 Zusammenhang, dass Algorithmen potentiell für die Anwendung auf eine Vielzahl von Fällen ausgerichtet sind. Bewusste und unbewusste Vorurteile können sich dadurch in ihrer Breitenwirkung potenzieren.119 Vor allem dann, wenn Computerentscheidungen eine umfangreiche Daten- und Faktenbasis zugrunde liegt, versprechen sie ein hohes Maß an Objektivität.120 Eine solch umfangreiche Basis liegt typischerweise selbstlernenden Systemen zugrunde. Allerdings können auch die Trainingsdaten von selbstlernenden Systemen diskriminierende Auswirkungen haben. Denn die Datensätze, aus denen sie eigene Regeln entwickeln, werden ebenfalls vom Menschen bereitgestellt, der dadurch eine Vorauswahl trifft, die sich unmittelbar auf die später vom System zu entwickelnden Regeln auswirkt. Dem vermeintlichen Gewinn an Objektivität durch computergenerierte Entscheidungen ist daher kritisch zu begegnen.121 Beruht bereits der Datenpool auf einer diskriminierenden Auswahl von Daten122, wiederholen, verfestigen und verstärken sich diskriminierende Aspekte.123 Erstellt etwa ein System aus einem Pool von historischen Gerichtsentscheidungen Muster für eine automatisierte Beweiswürdigung, kann zum Beispiel Zeugen eines bestimmten Geschlechts, einer bestimmten ethnischen Herkunft oder eines bestimmten Alters124 einfach deshalb mehr oder weniger Glauben geschenkt werden, weil dies in der Vergangenheit häufig das Ergebnis einer Beweisaufnahme gewesen ist. Das Verpacken solcher Kriterien in Programmcodes oder Trainingsdaten kann nicht über ihre diskriminierende Wirkung hinwegtäuschen. Daneben können Diskriminierungen auch indirekt erfolgen. So kann ein System etwa gewisse Namen mit bestimmten Eigenschaften mit jeweils mehr oder weniger vorhandener Zuverlässig- 119 So im Hinblick auf Verwaltungsentscheidungen auch Martini/Nink, NVwZ-Extra 10/2017, 1 (10). 120 Ernst, JZ 2017, 1026 (1029). 121 Grundsätzlich kritisch gegenüber dem Ideal einer „Objektivität der Rechtsfindung“: Wysk, in: GS Brandner, S. 137 (151 f.). 122 Dzida/Groh, NJW 2018, 1917 (1917), bezeichnen dies als „fehlerhafte Datenbasis“ und führen beispielhaft aus, dass ein Tool zur Bewerberauswahl, das die bisherigen Auswahlprozesse eines Unternehmens, das in der Vergangenheit vorwiegend Männer eingestellt hat, analysiert, sich dies „merken“ und auch in Zukunft männliche Bewerber bevorzugen könne. Da eine rein algorithmische Anwendung seine Entscheidungsmuster nicht selbst ausrichtet, können Modellfehler dieser Art nur selbstlernende Systeme betreffen. 123 Ernst, JZ 2017, 1026 (1028). 124 Vgl. zu weiteren verbotenen Anknüpfungsmerkmalen Art. 3 Abs. 3 GG und § 1 AGG. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 40 keit assoziieren und daran orientiert eine Auswahl treffen.125 Auch können anstelle des Geschlechts Umstände maßgeblich sein, die typischerweise einem bestimmten Geschlecht zuordnet werden. Ferner kann auch die Heranziehung des Wohnsitzes eines Betroffenen als Kriterium diskriminierend wirken; dies beispielsweise dann, wenn das Kriterium „Wohnort“ Menschen einer bestimmten ethnischen Herkunft benachteiligt, weil diese an einem Ort besonders häufig vertreten ist.126 Dass dies kein nur theoretisches Szenario ist, zeigen bereits Fälle aus der Praxis. Die Firma Northpointe Inc. hat eine Software namens COMPAS127 entwickelt, welche die Rückfallwahrscheinlichkeit von Straftätern prognostiziert.128 Grundlage der Entscheidung sind 137 Parameter129, darunter auch das Alter und das Geschlecht des Straftäters.130 Die Software wird in mehreren Bundesstaaten der USA von Gerichten eingesetzt.131 Die Plattform ProPublica hat den vom Hersteller geheim gehaltenen Code der COMPAS-Software auf der Grundlage von mehr als 10.000 Fällen analysiert und hervorgebracht, dass sie Angeklagten mit dunkler Hautfarbe tendenziell eine höhere Rückfallwahrscheinlichkeit attestiert als solchen mit heller Hautfarbe.132 Aufsehen erregte ferner ein bei Krankenversicherern in den USA und den dortigen Krankenhäusern weit verbreitetes Computerprogramm, das für Menschen mit dunkler Hautfarbe bei vergleichbar komplexen medizinischen Bedürfnissen seltener eine aufwendige Behandlung empfiehlt als für Men- 125 Martini, JZ 2017, 1017 (1018), bemerkt, dass Menschen, die die Namen „Mandy“, „Kevin“ oder „Mohammed“ tragen, in automatisierten Bewerbungsverfahren häufiger nicht für den zu Vorstellungsgesprächen einzuladenden Personenkreis berücksichtigt werden. 126 Ernst, JZ 2017, 1026 (1032). Auch Anknüpfungen an die Staatsangehörigkeit können zu mittelbaren Diskriminierungen führen, vgl. hierzu Bezzenberger, AcP 196 (1996), 395 (412 ff.). 127 Abkürzung für Correctional Offender Management Profiling for Alternative Sanctions. 128 Eine ausführliche Darstellung der COMPAS-Software findet sich bei Ziegler, Im Namen des Algorithmus, c’t 25/2017, 68 ff. 129 Steege, MMR 2019, 715 (716). 130 Rütten, Richter entscheiden mittels Computer: Wo ein Algorithmus bestimmt, ob jemand rückfällig wird, Stern vom 30. Januar 2018. 131 Ziegler, Im Namen des Algorithmus, c’t 25/2017, 68 (68); Zweig/Krafft, in: Kar/ Thapa/Parycek, Algorithmen und Automatisierung, S. 204 (205 f.). 132 Larson et al., How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23. Mai 2016. Zu den Schwierigkeiten, den COMPAS-Algorithmus diskriminierungsfrei zu gestalten vgl. Hao/Stray, Can you make AI fairer than a judge? Play our courtroom algorithm game, MIT Technology Review vom 17. Oktober 2019. B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 41 schen mit heller Hautfarbe.133 Das Problem stecke in den Daten, mit denen das Programm arbeite. Es ordne nämlich Patienten, die in der Vergangenheit höhere Behandlungskosten verursacht hätten, in eine höhere Risikoklasse ein, was die Empfehlung einer komplexen Behandlung wahrscheinlicher mache. Der Umstand, dass Nichthellhäutige in den USA einen schlechteren Zugang zu medizinischer Versorgung hätten und schon deshalb weniger Behandlungskosten verursachten, habe sich dadurch in den Algorithmen fortgesetzt. Jüngst erregten zudem Berichte Aufmerksamkeit, wonach die von der Firma Apple herausgegebene Kreditkarte („Apple Card“), deren Kreditrahmen durch selbstlernende Systeme ermittelt wird, Frauen unter im Übrigen vergleichbaren Bedingungen einen geringeren Kreditrahmen einräume als Männern.134 Es besteht freilich kein Anlass, Algorithmen generell als etwas Bedrohliches wahrzunehmen, können sie sich doch als nützlich erweisen. So sind Algorithmen in der Lage, Zusammenhänge und Muster zu erkennen, die sich der menschlichen Wahrnehmung entziehen.135 Dabei sind selbstlernende Systeme insofern neutral, als sie alles abbilden, was sie an Struktur im Datenpool vorfinden.136 Daraus können Erkenntnisse gewonnen werden, die unser Bewusstsein für Korrelationen und Muster schärfen.137 Vorurteile können so gegebenenfalls sogar erst aufgedeckt und bestenfalls zukünftig abgestellt werden. Benachteiligungen können sich aber auch daraus ergeben, dass ein Algorithmus bloße Korrelationen als Verursachung wertet und seine Entscheidungsmuster hieran ausrichtet.138 Das liegt daran, dass ein autonomes System typischerweise Zusammenhänge zwischen 133 Beuth/Breithut, Patienten-Software benachteiligt Millionen Afroamerikaner, Spiegel Online vom 25. Oktober 2019; Ledford, Nature 574 (2019), 608 (608). 134 Siehe nur Hegemann, Weiblich, Ehefrau, kreditunwürdig?, Zeit Online vom 21. November 2019. 135 Ernst, JZ 2017, 1026 (1030); Lenzen, Künstliche Intelligenz, S. 10 und 60 f.; Stiemerling, CR 2015, 762 (764). 136 Lenzen, Künstliche Intelligenz, S. 60. 137 Lenzen, Künstliche Intelligenz, S. 61. 138 Dzida/Groh, NJW 2018, 1917 (1917 f.); Martini/Nink, NVwZ-Extra 10/2017, 1 (9). Für den Menschen können solche scheinbaren wechselseitigen Beziehungen recht überraschend sein. So besteht nach Vigen, Spurious correlations, eine 99,79%-ige Korrelation zwischen den Ausgaben der USA für Wissenschaft, Weltraum und Technologie auf der einen und Freitoden durch Erhängen, Strangulation und Erstickung auf der anderen Seite, eine 99,26%-ige Korrelation zwischen der Scheidungsrate in Maine und dem Pro-Kopf-Konsum von Margarine, eine 98,51 %-ige Korrelation der Gesamteinnahmen aus Spielhallen und den in den USA verliehenen Promotionen in Informatik, außerdem immerhin noch eine 94,71 %-ige Korrelation zwischen dem Pro-Kopf-Konsum von Käse Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 42 Ein- und Ausgabewerten herstellt139 und damit lernt, dass bestimmte Eingaben bestimmte Ausgaben bewirken140. Wenn ein lernfähiges System Zusammenhänge herstellt, können diese aber auch schlicht auf Zufällen beruhen, wobei ihnen das System jedoch aufgrund statistischer Werte Bedeutung beimisst. Zu beachten ist insofern, dass die klassifizierende Rasterung selbstlernender Systeme nur statistische Rückschlüsse auf Wahrscheinlichkeiten zulässt.141 Die durch Algorithmen ermittelten statistischen Wahrscheinlichkeiten können zwar sehr genau sein.142 Gleichwohl kann daraus nicht auf Kausalitäten geschlossen werden.143 Allerdings kann es sich mitunter schwierig gestalten, den (nach menschlichem Ermessen nur scheinbaren) Zusammenhang zu widerlegen, wenn der Algorithmus eine anerkannte statistische Methodik verwendet.144 Ferner können auf die Erledigung einer Vielzahl von Fällen zugeschnittene Algorithmen dazu führen, dass die Besonderheiten des Einzelfalls aus dem Blick geraten und nur noch schematisch entschieden wird.145 Dies hängt mit der Funktionsweise von Algorithmen zusammen. Sie sind nicht in der Lage, im Einzelfall von der Programmierung abzuweichen.146 Mängel im Hinblick auf die Bearbeitung des Einzelfalls können sich dann insbesondere daraus ergeben, dass der Algorithmus Daten nur lückenhaft erfasst oder abhängig von der Programmierung bestimmten Daten gar keine oder eine zu geringe Bedeutung beimisst. Spezielle Aspekte können dem Algorithmus unbekannt sein, so dass er diese überhaupt nicht einordnen kann.147 Zwar ist eine menschliche Entscheidungsfindung weniger vorhersehbar als ein determinierter Algorithmus.148 Dafür ist sie aber auch offeund der Anzahl der Menschen, die gestorben sind, weil sie sich in ihrer Bettdecke verheddert haben. 139 Vgl. Stiemerling, CR 2015, 762 (764). 140 Hierzu A.II. Autonome Systeme. 141 Martini, JZ 2017, 1017 (1018). 142 Martini, DVBl 2014, 1481 (1485). 143 Martini, JZ 2017, 1017 (1018); Martini/Nink, NVwZ-Extra 10/2017, 1 (9). 144 Ernst, JZ 2017, 1026 (1030). 145 Im Hinblick auf KI-Systeme deutlich optimistischer hingegen Guggenberger, NVwZ 2019, 844 (847) m. w. N., der aufgrund der „Vielfalt der Daten, mit denen KI-Systeme trainiert werden, […] individuellere Lösungen im Einzelfall“ erwartet. 146 Ernst, JZ 2017, 1026 (1028); hierzu Kapitel 2) D. Keine Lösungen außerhalb der Programmvorgaben. 147 Vgl. im Hinblick auf negative Bewertungen aufgrund außergewöhnlicher Sprachgewohnheiten bei der Anwendung von Sprachanalyse-Software Dzida/ Groh, NJW 2018, 1917 (1919). 148 Ernst, JZ 2017, 1026 (1028). B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 43 ner und flexibler, Besonderheiten des Einzelfalls in die Entscheidung einfließen zu lassen.149 Einem Algorithmus, der etwa vor der Rechtsprechung zu sogenannten Angehörigenbürgschaften150 programmiert worden wäre und Ansprüche schematisch nach § 765 BGB geprüft hätte, wären die zusätzlichen Kriterien (insbesondere: nahe Angehörige, krasse finanzielle Überforderung, mangelndes eigenes Interesse151) mangels darauf ausgerichteter Programmierung beziehungsweise darauf ausgerichteten Trainings beim selbstlernenden System vermutlich entgangen. Sie hätten keinen Einfluss auf die schematische Entscheidung gehabt. Auch selbstlernende Systeme können den Einzelfall aus dem Blick verlieren. Die Auswertung von Korrelationen in großen Datenmengen bringt eine gewisse Unschärfe mit sich.152 Da es dabei gerade um die Erkennung von Mustern geht, zielt der Selbstlernprozess nicht auf das Erlernen von Ausnahmen ab. (In-)Transparenz? Welche Maßstäbe einer computergenerierten Entscheidung zugrunde liegen, bleibt für den Nutzer in der Regel im Dunkeln.153 Dabei spielt es zunächst keine Rolle, ob es sich um eine rein algorithmische Anwendung oder ein autonomes System handelt. Selbst wenn der Code eines determinierten Programms offen gelegt wird, wie dies bei Open-Source-Software154 gehandhabt wird, ist allenfalls das Fachpublikum in der Lage, diesen nachzuvollziehen. Ein Computercode ist in den seltensten Fällen selbsterklärend. Wie den durchschnittlichen Verbraucher überfordert dies in aller Regel auch den Richter.155 Ohnehin besteht bislang keine rechtliche Verpflichtung, Algorithmen offenzulegen.156 Regelmäßig sind sie Gegenstand von Geschäftsgeheimnissen.157 Ob Algorithmen rechtlichen Vor- IV. 149 Ernst, JZ 2017, 1026 (1028). 150 Siehe hierzu den Überblick bei Habersack, in: MünchKomm-BGB, § 765 Rn. 23 ff. 151 Vgl. Habersack, in: MünchKomm-BGB, § 765 Rn. 23 ff. 152 Martini, DVBl 2014, 1481 (1488). 153 Martini, JZ 2017, 1017 (1018). 154 Der Quellcode einer Open-Source-Software ist für jedermann einsehbar. Inwieweit Nutzer ihn verstehen können, hängt freilich von ihren individuellen Fähigkeiten ab. 155 Im Hinblick auf Verbraucher: Martini, JZ 2017, 1017 (1018 Fn. 9). 156 Hoffmann-Riem, AöR 142 (2017), 1 (32). 157 Hoffmann-Riem, AöR 142 (2017), 1 (32); Lenzen, Künstliche Intelligenz, S. 180; Scheja, CR 2018, 485 (487 ff.). Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 44 gaben entsprechen, ist für Dritte daher schwierig zu kontrollieren.158 Auch die auf einem komplexen maschinellen Lernverfahren basierenden Regeln können von Menschen ob der Fülle der erhobenen Trainingsdaten (erst recht) nicht nachvollzogen werden.159 Der Versuch, den maschinellen Entscheidungsprozess im Einzelnen zu verstehen, stellt sogar die Entwickler von autonomen Systemen vor erhebliche Schwierigkeiten. Eine Nachvollziehbarkeit ist nahezu ausgeschlossen. Der maschinelle Entscheidungsprozess stellt sich daher – jedenfalls für den Anwender – häufig als „Blackbox“ dar. Demgegenüber sind aber auch menschliche Entscheidungsfindungsprozesse nicht im Einzelnen vorauszusehen160, weshalb Richter gelegentlich ebenfalls als „Blackbox“ bezeichnet werden.161 Sie sind sogar weniger vorhersehbar als ein (bekannter) determinierter Algorithmus.162 Die menschliche Entscheidungsfindung wird im juristischen Kontext zwar durch die Auslegungsmethoden gelenkt. Allerdings verschließt sich der genaue Entscheidungsprozess objektiver Erkenntnis. Rein algorithmische Entscheidungen können hingegen vor der Verwendung kontrolliert und im Nachhinein exakt nachvollzogen werden.163 Gleichwohl kann die zunehmende Verwendung von Algorithmen Transparenz und Nachvollziehbarkeit der Entscheidungsfindung mindern. Algorithmen entstehen anders als Gesetze nicht in demokratischen Entscheidungsprozessen, sondern werden von Entwicklern mittels eines Computercodes programmiert. Mit der Zielstellung, etwas Licht ins Dunkel zu bringen, haben die Justizministerinnen und Justizminister der Länder auf ihrer Frühjahrskonferenz am 5. und 6. Juni 2019 verlautbart, dass der derzeitige und künftige Einsatz von digitalen Anwendungen in der gerichtlichen Praxis nur insoweit unbedenklich sei, als es sich hierbei um eine transparente und dadurch nachvollziehbare bloße Unterstützung der richterlichen Entscheidungsfindung handele.164 158 Hoffmann-Riem, AöR 142 (2017), 1 (32). 159 Wahlster bei Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015. 160 Ernst, JZ 2017, 1026 (1028). 161 Vgl. Haft, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 21 (25). 162 Ernst, JZ 2017, 1026 (1028). 163 Ernst, JZ 2017, 1026 (1029). 164 Vgl. Beschluss der 90. Konferenz der Justizministerinnen und Justizminister am 5. und 6. Juni 2019 in Lübeck-Travemünde zu TOP I.11 „Legal Tech: Herausforderung für die Justiz“, https://www.justiz.nrw.de/JM/jumiko/beschluesse/2019/F B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 45 Mangelnde Transparenz kann zu einer verminderten Akzeptanz der Entscheidungen führen.165 Dem entgegenwirken würde eine Begründungspflicht algorithmenbasierter Entscheidungen.166 Zieht sich das Gericht etwa auf den bloßen Hinweis zurück, die Entscheidung oder auch nur ein Teil der Entscheidung, wie beispielsweise die Berechnung eines bestimmten Betrags, gehe auf die Verwendung von Algorithmen zurück, erfahren die Betroffenen nichts über die an die Entscheidung angelegten Maßstäbe. Die Nachvollziehbarkeit beschränkt sich in dem Fall auf den Fakt, dass das Gericht sich eines Entscheidungsalgorithmus bedient hat. Wer Rechtsverletzungen durch ein algorithmenbasiertes Verfahren nachweisen und sich ihrer erwehren möchte, muss zwar wissen, dass der Entscheidung der Einsatz von Algorithmen zugrunde lag.167 Doch wird diese Erkenntnis allein oft nicht ausreichen. Solange die betroffene Person die Funktionsweise des Algorithmus nicht nachvollziehen kann, wird ihr die Verteidigung gegen die Entscheidung zumindest erschwert, weil sie nicht ersehen kann, welche Maßstäbe an die Entscheidung angelegt wurden. Freilich bleibt es ihr unbenommen, die Rechtslage selbst zu prüfen beziehungsweise vom Rechtskundigen prüfen zu lassen und das Ergebnis der Entscheidung hieran zu messen. Damit wäre allerdings eine mögliche Begründung für die Entscheidung nur außerhalb der Entscheidung selbst zu finden.168 Aktualität, Fehler und Manipulationen Algorithmen werden von Menschen programmiert. Es verwundert daher nicht, dass sich insbesondere in komplexen Softwaresystemen fast immer Programmierfehler finden lassen.169 Diese können sich bei der massenhaf- V. ruehjahrskonferenz_2019/I -11_Legal_Tech.pdf, zuletzt abgerufen am 18. Februar 2020. 165 Wahlster bei Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015. 166 Martini, JZ 2017, 1017 (1020). 167 Martini, JZ 2017, 1017 (1020). 168 Näheres zur Begründungspflicht richterlicher Entscheidungen unter Kapitel 3) D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. 169 Sosnitza, CR 2016, 764 (769); Spindler, CR 2015, 766 (769); kritisch W. Kilian, CR 2017, 202 (207), der dies auf einen auf Kosteneinsparung zurückgehenden Mangel an Funktionstests zurückführt. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 46 ten Verwendung eines Algorithmus dramatisch auswirken.170 Außerdem können Berechnungsprogramme einer bestimmten Rechtsansicht folgen, ohne dass dies von Seiten der Entwickler mitgeteilt wird. Denkbar sind auch absichtliche Manipulationen171, bei denen die Funktionsweise des Programms bewusst unzutreffend erläutert wird. Auch selbstlernende Systeme sind nicht frei von Manipulationen. Obwohl die Entwickler keinen unmittelbaren Einfluss auf die Ergebnisse von selbstlernenden Systemen haben, können sie doch den Lernalgorithmus nach ihren Vorstellungen programmieren und dabei in beliebiger Weise manipulieren. Außerdem können sie die Ergebnisse durch Vor-Auswahl der im Pool enthaltenen Trainingsdaten beeinflussen.172 Denn die Ergebnisse des maschinellen Lernens hängen von der Auswahl der Trainingsdaten ab.173 Denkbar ist auch, dass Updates ohne Wissen des Anwenders eingespielt werden und den Entscheidungsalgorithmus ohne seine Kenntnis nachträglich verändern. Fehlende Updates können hingegen einen Mangel an Aktualität zur Folge haben.174 Denn computergenerierte Entscheidungen beruhen auf den Strukturen in der Vergangenheit liegender Konstellationen.175 Änderungen in der Gesetzgebung oder der Rechtsprechung können dazu führen, dass eine Verarbeitung nicht mehr der aktuellen Rechts- 170 Eine fehlerhafte Datenkonvertierung soll in Dänemark in den Jahren 2012 bis 2019 bis zu 10.700 Strafverfahren betroffen haben, Biselli, Vorratsdatenspeicherung in Dänemark: Ein IT-Fehler könnte zu falschen Urteilen geführt haben, netzpolitik.org vom 9. Juli 2019. Das von der australischen Regierung eingesetzte automatisierte Schuldeneintreibungssystem (debt recovery system) soll aufgrund eines Fehlers im Jahr 2016 innerhalb eines halben Jahres bis zu 169.000 tatsächlich nicht erfolgte Überzahlungen an Sozialhilfeempfänger festgestellt und entsprechende Informationsschreiben versandt haben, Anderson/Belot, Centrelink debt recovery system failures have 'frightened' recipients, Andrew Wilkie says, ABC News vom 4. Januar 2017. 171 Zu den Auswirkungen (auch) von manipulierten automatisierten Anwendungen auf die Meinungsbildung siehe nachfolgend VI. Beeinflussung der Meinungsbildung. 172 Im März 2016 musste „Tay“, ein Microsoft Chatbot, der durch Gespräche mit Nutzern lernen konnte, innerhalb von 24 Stunden abgeschaltet werden, nachdem er mit Schimpfwörtern und Verschwörungstheorien gefüttert worden war, vgl. Boyle, Microsoft’s chatbot gone bad, Tay, makes MIT’s annual list of biggest technology fails, GeekWire vom 27. Dezember 2016. 173 Lenzen, Künstliche Intelligenz, S. 61. 174 Siehe zur Gefahr der Wirkung von Legal Tech als Anpassungs- und Innovationsbremse nachfolgend VI. Beeinflussung der Meinungsbildung. 175 Lenzen, Künstliche Intelligenz, S. 61. B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 47 lage entspricht. Durch Aktualisierungen, etwa das Einspielen von Updates, kann dem zwar entgegengewirkt werden. Allerdings geben auch fortlaufende Aktualisierungen immer nur einen in der Vergangenheit liegenden status quo wieder.176 Beeinflussung der Meinungsbildung Bei der Wiederverwendung eigener (Vor-)Arbeiten, etwa in der Form eines früheren Urteils, kommt dem Richter seine Erfahrung mit der seinerzeit entschiedenen Konstellation zugute, so dass es ihm in der Regel nicht schwerfallen wird, die Unterschiede zwischen der vorherigen und der neuen Konstellation zu erkennen und Textpassagen aus der früheren Entscheidung auf die nunmehr zur Entscheidung stehende Konstellation anzupassen. Anders sieht dies bei der Übernahme gedanklicher Vorarbeit durch Dritte, beispielsweise der von einem Richterkollegen zur Verfügung gestellten Vorlage, aus. Um etwaig notwendige Veränderungen am übernommenen Text vornehmen zu können, muss dieser zunächst erschlossen werden, da die Veränderung eines Musters ein vertieftes Wissen voraussetzt.177 Wird die zu beurteilende Konstellation lediglich an der Entscheidungsvorlage gemessen, gerät die juristische Methodik bereits ins Hintertreffen. Zu Recht mahnt Strauch daher im Hinblick auf die Nutzung von juristischen Datenbanken, an die Stelle der Erarbeitung der Falllösung über dogmatische Strukturen und Kategorien nicht zunehmend eine Einordnung in „Fallreihen“ treten zu lassen.178 Berlit warnt in diesem Zusammenhang ebenfalls vor einer schleichenden Beeinflussung der Entscheidungsfindung.179 Im Vergleich zur händischen Übertragung einer Entscheidungsvorlage (beispielsweise eines früheren Urteils in einer vergleichbaren Konstellation) stellen Legal Tech-Anwendungen eine sogar noch bequemere Fallbearbeitung in Aussicht. Wer eine Entscheidungsvorlage auf eine neue Konstellation überträgt, muss eigene Anpassungen vornehmen. Legal Tech-Anwendungen erfordern hingegen lediglich die Eingabe bestimmter Falldaten, um sodann ein Ergebnis, bis hin zu einem ausformulierten Entscheidungsvorschlag, zu präsentieren. VI. 176 Lenzen, Künstliche Intelligenz, S. 61. 177 So differenzierend im Hinblick auf erfahrene und jüngere Rechtsanwälte: Breidenbach, in: ders./Glatz, RHB Legal Tech, S. 40. 178 Strauch, DVBl 2007, 1000 (1004). 179 Vgl. Berlit, JurPC Web-Dok. 77/2012, Abs. 46 ff. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 48 Einer näheren Betrachtung bedürfen daher die Möglichkeiten, Einfluss auf die Meinungsbildung und damit auch auf die Entscheidungsfindung zu nehmen, die Legal Tech-Anwendungen bieten. Dabei wird festzustellen sein, dass diese kaum zu überschätzen sind. Den Entwicklern eines determinierten Programms bietet sich etwa die Möglichkeit, ihm eine bestimmte Rechtsansicht zugrunde zu legen und eine andere bewusst auszusparen. Wird dies dem Richter nicht mitgeteilt und macht er sich auch sonst keine Gedanken über die Funktionsweise der Applikation, wirkt er nach außen als Vertreter dieser Rechtsansicht, ohne sich dessen bewusst zu sein. Noch dazu trägt er zu ihrer Förderung im Hinblick auf nachfolgende Entscheidungen bei, weil sich andere Gerichte möglicherweise daran orientieren. Autonome Systeme versprechen zwar eine Entscheidung auf einer breit angelegten Wissensbasis. Allerdings sagt dies noch nichts darüber aus, ob die Trainingsdaten bereits tendenziös ausgewählt wurden. Die Vorauswahl der in den Datenpool aufzunehmenden Entscheidungen beeinflusst den späteren Entscheidungsinhalt, ohne dass dies für den Anwender erkennbar sein muss. Denn das autonome System wertet nur die im Datenpool enthaltenen Entscheidungen aus und kann möglicherweise außen vor gelassene, anderslautende Entscheidungen nicht erfassen. Nicht nur die heimliche, sondern auch die offenkundige Implementierung einer bestimmten Rechtsansicht (unter Außerachtlassung einer abweichenden Auffassung) ist geeignet, die Meinungsbildung zu beeinflussen. Denn in dem Fall kann schon der Umstand, dass für die abweichende Ansicht keine Applikation existiert, dazu führen, dass der potentielle Anwender geneigt sein wird, der dem Programm zugrunde liegenden Rechtsauffassung zu folgen, um die Technik zur Arbeitserleichterung einsetzen zu können. Auch kann die ständige Verfügbarkeit automatisierter Anwendungen zu einem Abnehmen der Bereitschaft führen, weniger leicht zugängliche, abweichende Auffassungen und Gegenargumente in die Überlegungen zur Entscheidungsfindung einzubeziehen.180 Dies trüge zu einem „Einfrieren“ des Rechts bei, wenn mit der Nutzung der Anwendungen das Bemühen eingestellt würde, der Diskussion neue Argumente hinzuzufügen.181 Insofern wirkt Legal Tech gegebenenfalls sogar als Anpassungsund Innovationsbremse und fördert eine Abschottung gegen Neues. Hinzu kommt, dass der Einfluss eines Anbieters potentiell wächst, je weniger Legal Tech-Anwendungen für eine bestimmte Konstellation zur Verfü- 180 Ebenso Enders, JA 2018, 721 (723). 181 Weniger kritisch Grundmann, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 97 (107 ff.). B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 49 gung stehen. Denn mit der Marktmacht eines Anbieters nimmt sein Einflusspotential auf die Rechtsentwicklung zu.182 Der Rückgriff auf Computerlösungen kann außerdem dazu führen, die Besonderheiten des Einzelfalls aus dem Blick zu verlieren, was dem Anspruch der Rechtsuchenden auf rechtliches Gehör183 im Weg stehen würde. Denn je gründlicher der Einzelfall untersucht wird, umso größer scheint die „Gefahr“, dass auf die Computerlösung vielleicht doch nicht zurückgegriffen werden kann, weil gewisse Aspekte darin nicht berücksichtigt werden. Schneller voran kommt derjenige, der Bedenken nicht aufkommen lässt und nur eine oberflächliche Einordnung vornimmt. Ferner steht zu befürchten, dass im Vertrauen auf eine vermeintliche Unfehlbarkeit von Computern zunehmend die Bereitschaft sinken wird, die vom Programm vorgeschlagene Lösung infrage zu stellen und eine davon abweichende Entscheidung zu treffen.184 Die vermeintliche Unfehlbarkeit kann darüber hinaus den – ohnehin jeder zu begründenden gerichtlichen Entscheidung innewohnenden – Rechtfertigungsdruck erhöhen, wenn ein Gericht vom computergenerierten Vorschlag abweichen möchte. Mit einer wachsenden Akzeptanz von automatisierten Entscheidungen dürfte den Rechtsuchenden eine Abweichung zunehmend schwieriger zu vermitteln sein. Dies kann nicht nur zu einer schleichenden Entscheidungsbeeinflussung185, sondern auch zu einem Übernahmeautomatismus186 führen. Bei letzterem erschöpft sich die menschliche Mitwirkung in der ungeprüften Übernahme des Ergebnisses oder allenfalls noch in einer mehr oder minder oberflächlichen Plausibilitätskontrolle. Dies liegt nicht allzu fern. Hoher Erledigungsdruck und die zunehmende Verfügbarkeit jederzeit abrufbarer technischer Lösungen fördern die Gefahr, solche Lösungen weithin ungeprüft zu übernehmen.187 Schließlich macht die Nutzung automatisierter Anwendungen eine Rechtsfortbildung, die durch eine Konkretisierung von wertausfüllungsbe- 182 Vgl. Nack, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 191 (212). 183 Hierzu Kapitel 3) B. Der Anspruch auf rechtliches Gehör. 184 Enders, JA 2018, 721 (723). 185 Auch Berlit, JurPC Web-Dok. 77/2012, Abs. 46, warnt vor einer schleichenden Beeinflussung der Entscheidungsfindung durch Informationstechnologie. 186 Vgl. Enders, JA 2018, 721 (723), der allgemein vor der Gefahr eines „gewissen“ Automatismus, computergenerierte Ergebnisse ungeprüft in die Entscheidung zu übernehmen, warnt. 187 So im Hinblick auf Datenbankrecherchen Berlit, JurPC Web-Dok. 77/2012, Abs. 48. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 50 dürftigen Wertungsmaßstäben erfolgt und beispielgebend für zukünftig zu entscheidende Fälle wirkt188, unmöglich. Denn determinierte Systeme geben nur (und allenfalls) einen zu einem bestimmten Zeitpunkt geltenden status quo der Rechtsentwicklung wieder und autonome Systeme können nur Regeln aus Entscheidungen der Vergangenheit bilden. Auch dies führte zu einem „Einfrieren“ des Rechts. Die Entwicklung des Rechts geriete ins Stocken.189 Es verharrte in seinem status quo. Entkopplung von gesetzlichen Grundlagen Bereits heute ist ein Bedeutungsverlust des Privatrechts durch die Zunahme des Handels über digitale Plattformen zu verzeichnen.190 Sie schlichten Konflikte immer häufiger nach eigenen, von der Zivilrechtsordnung unabhängigen Regeln.191 Je erfolgreicher die Legal Tech sich ihren Weg in die Justiz bahnt, umso mehr wächst die Gefahr, von den gesetzlichen Grundlagen entkoppelte Entscheidungen herbeizuführen. Namentlich ist dies schon dann der Fall, wenn das Gericht sich an die Ergebnisse einer automatisierten Anwendung bindet. Über den Aufbau und die Funktionslogik einer Softwareanwendung entscheidet allein ihr Hersteller durch entsprechende Programmierung der Algorithmen.192 Autonome Systeme erstellen hingegen ihre eigenen Regeln, so dass ihnen die Loslösung von gesetzlichen Vorgaben immanent ist. Erstellt ein selbstlernendes System Regeln aus einem Pool von historischen Gerichtsentscheidungen, fließen gesetzliche Regelungen bei der Anwendung der Regeln allenfalls noch mittelbar in die Falllösung ein. Primär richtet das Programm seine Entscheidungen an den im Datenpool festgestellten Korrelationen aus.193 Auch ein kombinierter Datenpool aus Gesetzestexten und Gerichtsentscheidungen oder eine implizite Programmierung von Gesetzesvorgaben (soweit dies überhaupt möglich ist194), die durch einen mit Gerichtsentscheidungen gefüll- VII. 188 Larenz, Methodenlehre der Rechtswissenschaft, S. 224. 189 Fritz, Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, S. 23. 190 Fries, NJW 2016, 2860 (2861). 191 Fries, NJW 2016, 2860 (2861). 192 Schreiber-Ehle, CR 2015, 469 (469). 193 Zur grundsätzlichen Problematik der Relativierung des Rechts durch Digitalisierung mit Blick vor allem auf das Demokratieprinzip: Boehme-Neßler, NJW 2017, 3031 ff. 194 Hierzu Kapitel 2) A. Formalisierung des Rechts? B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 51 ten Datenpool ergänzt werden, verändert diesen Befund der Loslösung von den gesetzlichen Grundlagen nicht. Der Computer wird in all diesen Fällen eigene Regeln zur Falllösung aufstellen. Sichtbar würde die Loslösung von gesetzlichen Grundlagen gegebenenfalls aber erst dann, wenn die programmierten Algorithmen eine vom geltenden Recht offenkundig abweichende Falllösung präsentieren. Auswirkungen auf die gerichtliche Arbeitswelt Die Auswirkungen der Digitalisierung auf die (nicht nur gerichtliche) Arbeitswelt werden in der Literatur leidenschaftlich diskutiert.195 Im Mittelpunkt stehen dabei zumeist Studien, die erhebliche Umwälzungen nahelegen. Frey/Osborne prognostizierten in einer im Jahr 2013 publizierten Studie, dass 47 % aller Arbeitsplätze in den USA in 20 Jahren durch Computer ersetzt werden könnten.196 Das Zentrum für Europäische Wirtschaftsforschung übertrug diese Studie im Jahr 2016 im Auftrag des Bundesministeriums für Arbeit und Soziales auf den deutschen Arbeitsmarkt und ermittelte immerhin noch einen Wert von 42 % gefährdeten Stellen.197 Helbing et al. prognostizierten im Jahr 2015 hingegen eine Verdrängung der Hälfte der vorhandenen Arbeitsplätze innerhalb von 10 bis 20 Jahren.198 Bonin et al. schätzen wiederum, dass lediglich 12 % der Arbeitsplätze in Deutschland gefährdet seien.199 Der Nutzen solcher Studien ist allerdings umstritten. Kritik regt sich vor allem daran, dass nicht zwischen einzelnen Arbeitsschritten und Fähigkeiten, sondern zu pauschal nach Berufen differenziert werde.200 In der Tat wird der Blick weniger auf ganze Berufszweige, sondern auf konkrete Tätigkeiten zu richten sein, die von Computern übernommen werden können.201 VIII. 195 Vgl. Bues, in: Hartung/Bues/Halbleib, Legal Tech, Rn. 1158 ff.; Lenzen, Künstliche Intelligenz, S. 196 ff.; Stiemerling, CR 2015, 762 (762). 196 Frey/Osborne, The Future of Employment: How susceptible are Jobs to Computerisation, S. 1 und 48. 197 Düll et al., Arbeitsmarkt 2030 – Digitalisierung der Arbeitswelt, S. 11. 198 Helbing et al., Digitale Demokratie statt Datendiktatur, Spektrum der Wissenschaft vom 17. Dezember 2015. 199 Bonin et al., Übertragung der Studie von Frey/Osborne auf Deutschland, S. 14 und 23. 200 Bues, in: Hartung/Bues/Halbleib, Legal Tech, Rn. 1159. 201 Ähnlich Bues, in: Hartung/Bues/Halbleib, Legal Tech, Rn. 1161. Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 52 Monotone Arbeiten auf Maschinen zu übertragen, setzt Kapazitäten der menschlichen Arbeitskraft für anspruchsvollere Aufgaben frei.202 Gerade sich wiederholende Tätigkeiten sind leichter einer Automatisierung zugänglich als abwechslungsreiche oder gestaltende Tätigkeiten.203 Zum Beispiel können Berechnungen dem Menschen einfacher abgenommen werden als Tätigkeiten, die Empathie oder Verhandlungsgeschick bedürfen.204 Übertragen auf die richterliche Arbeitswelt bedeutet dies eine zunehmende Verdichtung richterlicher Tätigkeit auf ihren Kernbereich: die Rechtsfindung im Einzelfall beziehungsweise die Entwicklung von Lösungen für eine Vielzahl gleichgelagerter Fälle in sogenannten Massenverfahren. Dies kann einerseits zu einer Qualitätsverbesserung führen, weil das Gericht mehr Zeit hat, sich intensiver mit den „entscheidenden“ Fragen zu bestimmten Fallkonstellationen auseinanderzusetzen. Wahrscheinlich ist aber auch, dass mit dem Wegfall sich wiederholender Tätigkeiten Stellen abgebaut werden.205 Mit der zunehmenden Verfügbarkeit außergerichtlicher Streitbeilegungsplattformen, die zumindest mitverantwortlich für die sinkenden Eingangszahlen an den Zivilgerichten sein dürften206, geht zudem ein Bedeutungsverlust der Rechtsprechung einher. Es ist davon auszugehen, dass insbesondere Fälle mit hohem Standardisierungspotential in Zukunft zunehmend außergerichtlich abgewickelt werden. Allerdings lässt sich auch ein gegenläufiger Trend erkennen. Denn Amtsgerichte erleben einen Anstieg der Eingangszahlen im Bereich der Fluggastrechte.207 Dies hängt damit zusammen, dass Legal Tech-Unternehmen, die sich auf die Geltendmachung solcher Rechte spezialisiert haben, großen Zulauf erfahren,208 während es 202 Lenzen, Künstliche Intelligenz, S. 198. 203 Lenzen, Künstliche Intelligenz, S. 199. 204 Lenzen, Künstliche Intelligenz, S. 199 f. 205 Vgl. im Hinblick auf die allgemeine Arbeitswelt: Stiemerling, CR 2015, 762 (762); den Fokus auf Rechtsanwälte richtend: Markoff, Armies of Expensive Lawyers, Replaced by Cheaper Software, The New York Times vom 4. März 2011. 206 Hierzu II. Erwartungen der Rechtsuchenden. 207 Darüber berichteten die Amtsgerichte Frankfurt am Main (Ecovis vom 15. August 2019, https://www.ecovis.com/tech-law/flightright-ueberlastet-amtsgerichte /), Düsseldorf (WDR vom 29. April 2019, https://www1.wdr.de/nachrichten/rhe inland/fluggastklagen-amtsgericht-duesseldorf-100.html) und das für den Bezirk des Flughafens München zuständige Amtsgericht Erding (Merkur vom 16. August 2019, https://www.merkur.de/lokales/erding/erding-ort28651/amtsgericht-e rding-flughafen-muenchen-loest-klagewelle-aus-12920606.html), alle Internetseiten zuletzt abgerufen am 18. Februar 2020. 208 Hierzu II. Erwartungen der Rechtsuchenden. B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 53 so manche Fluggesellschaft weiterhin auf eine gerichtliche Geltendmachung ankommen lässt.209 Möglicherweise verändert sich die richterliche Tätigkeit durch den Einsatz von Legal Tech aber auch dahingehend, dass Richter maschinelle Entscheidungsentwürfe überarbeiten und sodann verwenden. Bei Übersetzern ist eine solche Tendenz bereits zu beobachten, wobei Studien auf eine höhere Produktivität hindeuten als wenn sie Texte komplett selbst übersetzen.210 Allerdings können Richter sich aufgrund der Verfügbarkeit automatisierter Entscheidungen verstärkt dem Gefühl ausgesetzt sehen, in ihrer Arbeitsweise einschließlich der Entscheidungsfindung überwacht zu werden. Namentlich kann es sich in zunehmendem Maße schwierig gestalten, von computergenerierten Lösungsvorschlägen abzuweichen.211 Ferner steht zu befürchten, dass der persönliche Eindruck des Richters von den Rechtsuchenden in den Hintergrund rückt, wenn Maschinen Entscheidungen über Menschen treffen. Der persönliche Eindruck ist aber beispielsweise für die Bewertung von Zeugenaussagen von erheblicher Bedeutung. Eine maschinelle Auswertung von Gerichtsentscheidungen und gegebenenfalls weiteren Daten (wie zum Beispiel Wetterdaten, Daten zu Störungen im Betriebsablauf oder Staumeldungen) könnte zu einer Korrelation von äußeren Umständen oder von persönlichen Daten der Parteien (wie deren Alter oder Geschlecht) mit dem Inhalt der Entscheidungen führen.212 Fügte ein Computer solche Begleitumstände mittels Durchleuchtung aller zu einer Norm ergangenen Entscheidungen zu einem „faktischen Tatbestand“ zusammen, könnte dies dem Ansehen der Justiz schaden.213 Dass dies kein theoretisches Konstrukt ist, zeigen erste Untersuchungen. Berlemann/Christmann/Focken214 stellten zwei Studien zur Vergleichs-215 und Berufungswahrscheinlichkeit216 vor. Im Rahmen der Untersuchungen wurden sämtliche Zivilakten des Amtsgerichts Hamburg-Wandsbek aus dem Jahr 2009 ausgewertet.217 Zahlreiche mögliche fallbezogene Einfluss- 209 Hierzu Kapitel 4) C.I. Fluggastentschädigungsrechner. 210 Lenzen, Künstliche Intelligenz, S. 66 f. 211 Zum damit verbundenen Rechtfertigungsdruck siehe VI. Beeinflussung der Meinungsbildung. 212 Fries, NJW 2016, 2860 (2864). 213 Fries, NJW 2016, 2860 (2864). 214 Berlemann/Christmann/Focken, DRiZ 2016, 62 ff. 215 Berlemann/Christmann, Diskussionspapier 155, 2014. 216 Berlemann/Christmann, Diskussionspapier 154, 2014. 217 Berlemann/Christmann/Focken, DRiZ 2016, 62 (62). Kapitel 1) Legal Tech: Begriffsbestimmung, Chancen und Risiken 54 faktoren wie das betroffene Rechtsgebiet und die Anzahl der Verhandlungstage, aber auch weitere Faktoren wie die Berufserfahrung und das Geschlecht der Abteilungsrichter wurden erhoben.218 Man habe festgestellt, dass die Durchführung einer mündlichen Verhandlung sowie das Rechtsgebiet und die Berufungsfähigkeit eines Streitverfahrens Einfluss auf das Erreichen einer gütlichen Einigung hätten.219 Zudem hätten die zuständigen Richter bei gleicher Komplexität der verhandelten Fälle zu umfangreicheren Urteilsbegründungen tendiert, wenn Streitfälle eine höhere anfängliche Berufungswahrscheinlichkeit aufgewiesen hätten.220 Auch ein Zusammenhang zwischen dem Geschlecht der Abteilungsrichter und der Vergleichswahrscheinlichkeit sei in bestimmten Rechtsgebieten festgestellt worden.221 Zwischenergebnis Den Chancen des Einsatzes von Legal Tech im Zivilprozess stehen beachtliche Risiken gegenüber. Zwar können wiederkehrende Abläufe effizienter bearbeitet werden, was den Rechtsuchenden durch zügigere Erledigung der Verfahren zugutekommt. Dadurch drohen allerdings die gesetzlichen Grundlagen und die Besonderheiten des Einzelfalls aus dem Blick zu geraten. Ferner können sich bewusste und unbewusste Vorurteile in automatisierten Anwendungen fortsetzen und sich dadurch in ihrer Breitenwirkung potenzieren. Gelangten Diskriminierungen durch automatisierte Anwendungen an die Öffentlichkeit, würde das Vertrauen in die Justiz darunter leiden. Auch können automatisierte Anwendungen die Entscheidungsfindung des Gerichts beeinflussen, einerseits durch die Implementierung nur bestimmter Auslegungsvarianten und andererseits durch zu weitgehendes Vertrauen in die Ergebnisse einer Computerberechnung. Daher gilt es sorgfältig abzuwägen, in welchen Konstellationen sich der Technikeinsatz als sinnvoll erweist und in welchen darauf besser verzichtet werden sollte. Schließlich ist darauf hinzuwirken, dass automatisierte Anwendungen hinreichend transparent ausgestaltet und angewendet werden. IX. 218 Berlemann/Christmann/Focken, DRiZ 2016, 62 (63). 219 Berlemann/Christmann/Focken, DRiZ 2016, 62 (63 f.). 220 Berlemann/Christmann/Focken, DRiZ 2016, 62 (64 f.). 221 Berlemann/Christmann/Focken, DRiZ 2016, 62 (63). B. Mögliche (rechts-)praktische Folgen des Einsatzes von Legal Tech 55 Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht Formalisierung des Rechts? Algorithmen wurden oben als Handlungsanweisungen beschrieben.222 Auch Normen enthalten Handlungsanweisungen. Etwa heißt es in § 242 BGB: „Der Schuldner ist verpflichtet, die Leistung so zu bewirken, wie Treu und Glauben mit Rücksicht auf die Verkehrssitte es erfordern“. Darin steckt die Anweisung, dass der Schuldner die Leistung so bewirken soll, wie Treu und Glauben mit Rücksicht auf die Verkehrssitte es erfordern. Die gleichlautende Zweckbestimmung von Normen und Algorithmen als Handlungsanweisungen wirft die grundsätzliche Frage auf, ob es möglich ist, Rechtssätze in eine formale Computersprache zu übersetzen und den Computer darunter subsumieren zu lassen. Die Semantik natürlicher Sprache Während Computerprogramme heute schon in der Lage sind, Musikstücke zu komponieren223 oder sich in der Malerei zu betätigen224 und darin so gut sind, dass sie vom Nichtfachmann nicht als computergemacht identifiziert werden können, haben sich computergenerierte Geschichten und Theaterstücke bislang als kaum sinnhaft erwiesen.225 Dabei gehört die Entwicklung von Verfahren, die es Computern ermöglichen, den semantischen Bedeutungsgehalt von Texten inhaltlich und in ihrem Kontext zu erschließen, weiterhin zu den Forschungsschwerpunkten der Digitalisie- Kapitel 2) A. I. 222 Siehe oben unter Kapitel 1) A.I. Determinierte Programme. 223 Zakharyan/Götz, Die Künstliche Intelligenz komponiert die Musik der Zukunft, PC-Welt vom 18. April 2019, berichteten davon, dass das auf einem künstlichen neuronalen Netz beruhende System AIVA aus mehr als 30.000 Partituren gelernt habe, Musik zu komponieren. 224 Wolf, Quellcode auf Leinwand, Zeit Online vom 31. Oktober 2018, berichtete davon, dass das New Yorker Auktionshaus Christie’s im Oktober 2018 erstmals ein durch ein künstliches neuronales Netz gemaltes Gemälde versteigerte. 225 Lenzen, Künstliche Intelligenz, S. 120 ff. 56 rung.226 Ob Computer jemals dazu in der Lage sein werden, erscheint indes zweifelhaft. Während Rechtsnormen in natürlicher Sprache verfasst sind, versteht ein Computer nur solche Anweisungen, die er in seinen Schaltungen verarbeiten kann.227 Diese Anweisungen, der Computercode, sind nicht in natürlicher Sprache verfasst. Um sie einer maschinellen Bearbeitung zugänglich zu machen, muss natürliche Sprache daher zunächst in eine formale (Computer-)Sprache übersetzt werden.228 Eine formale Sprache zeichnet sich dadurch aus, dass sie vollständig definiert und in ihrer Interpretation eindeutig ist.229 Jeder Satz hat genau eine Bedeutung, die sich ohne zusätzliches Wissen ermitteln lässt.230 Der natürlichen Sprache ist hingegen eine gewisse Unschärfe immanent. Zwar unterliegt sie grammatischen Regeln.231 Allerdings sind einzelne Worte häufig nicht auf eine immer gleichlautende Bedeutung festgelegt.232 Die Bedeutung solcher Homonyme lässt sich nur aus dem Kontext, in dem sie gebraucht werden, erschließen (Kontextvarianz).233 „Dietrich“ kann einerseits der Vor- oder Nachname einer Person sein. Andererseits ist das Wort ein Synonym für einen Nachschlüssel. Der Begriff „Hahn“ kann ein männliches Haushuhn oder einen Gas- oder Wasserhahn bezeichnen. Das Wort „Flügel“ kennzeichnet nicht nur eine bestimmte Bauform des Klaviers, sondern auch die vorderen als Bewegungsorgane dienenden Gliedmaßen von Vögeln sowie daneben auch noch einen Gebäudeteil (z. B. den Westflügel eines Hauses). Mit dem Wort „Akte“ können ein Papierkonvolut oder aber mehrere Handlungen gemeint sein. 226 Breidenbach/Glatz, in: dies., RHB Legal Tech, S. 3; zum Stand der Forschung: von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 54 ff. Über Probleme von Computern, den Kontext einer Aussage zu erfassen, berichtete im Hinblick auf das Kooperationsprojekt „Linguistik- und logikbasiertes juristisches Expertensystem“ (LEX) bereits Alschwee, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 87 (92): „Es ist in der jetzigen Version noch nicht möglich, zu erkennen, daß der Beschuldigte dieses Satzes und der des ersten Satzes die gleiche Person sind“. 227 Lenzen, Künstliche Intelligenz, S. 37. 228 Alschwee, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 87 (87 f.); Buchholtz, JuS 2017, 955 (957); Lehmann, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 75 (75); Lenzen, Künstliche Intelligenz, S. 37 f.; Raabe et al., Recht ex machina, S. 70. 229 Raabe et al., Recht ex machina, S. 70. 230 Raabe et al., Recht ex machina, S. 70. 231 Worauf auch Kotsoglou, JZ 2014, 451 (453), hinweist. 232 Larenz, Methodenlehre der Rechtswissenschaft, S. 206. 233 Dreyer/Schmees, CR 2019, 758 (761 f.); Lenzen, Künstliche Intelligenz, S. 64. A. Formalisierung des Rechts? 57 Die in der natürlichen Sprache angelegte Unschärfe setzt sich in Gesetzestexten fort.234 Teilweise bedient sich der Gesetzgeber auch ganz bewusst solcher Begrifflichkeiten, die einen weiten Interpretationsspielraum zulassen. Hierzu gehören Termini wie „die guten Sitten“ (§ 138 BGB), „Treu und Glauben“ (§§ 242, 307 Abs. 1 BGB) und „die Verkehrssitte“ (§§ 157, 242 BGB). Gleiches gilt für den in dem Erfordernis der Angemessenheit (z. B. in §§ 281 Abs. 1 Satz 1, 314 Abs. 3, 641 Abs. 2 Satz 1 Nr. 3 BGB) beziehungsweise dem Ausschluss der Unangemessenheit (§ 307 Abs. 1 BGB) angelegten Beurteilungsspielraum. Sprachliche Mehrdeutigkeiten sind mit der strengen Logik einer formalen Sprache nicht zu vereinbaren (Kontextinvarianz).235 Dies steht der Formalisierung natürlicher Sprache entgegen.236 Soweit hingegen darauf hingewiesen wird, dass kontextbezogene Differenzierungen durchaus vorhersehbar seien, so dass diese sich im Algorithmus einzeln definieren lassen könnten237, kann dies nicht darüber hinwegtäuschen, dass es Computern gleichwohl an der Fähigkeit mangelt, den Begriff mittels semantischen Verständnisses eigenständig in die eine oder eine andere Kategorie zutreffend einzuordnen. Sofern nämlich vorgeschlagen wird, kontextabhängig unterschiedliche Bedeutungen einzeln zu definieren und je nach Sachzusammenhang aufzurufen238, dürfte damit eine menschliche Vorgabe bei der Bedienung des Programms verbunden sein, um das fehlende semantische Verständnis des Computers auszugleichen. Eine Formalisierung der Sprache gelingt dadurch jedoch nicht. Verzichtet man auf eine menschliche Vorgabe im Zuge der Berechnung, wird dies ferner dann offenbar, wenn eine Konstellation auftaucht, die im Programm schließlich doch nicht abgebildet ist. Auch die Implementierung eines zusätzlichen „Wertungsalgorithmus“ hilft insofern nicht weiter. Einen solchen hat Ring vorgeschlagen, um auch unvorhergesehene Situationen einer Entscheidung zuführen zu können.239 Dadurch soll im Fall des Eintritts einer unvorhergesehenen Konstellation ein Programmabbruch vermieden werden.240 Der Wertungsalgorithmus basiert auf einem künstlichen neuronalen Netz, das – ohne jegliches semantisches Verständnis – auf der Grundlage einer statis- 234 Zippelius, Juristische Methodenlehre, S. 35 und 38 f. 235 Kotsoglou, JZ 2014, 451 (453 f.). 236 Ebenso Buchholtz, JuS 2017, 955 (958); Grupp, AnwBl 2014, 660 (664); Kotsoglou, JZ 2014, 451 (453 f.); Zippelius, Juristische Methodenlehre, S. 89. 237 So Engel, JZ 2014, 1096 (1098). 238 So Engel, JZ 2014, 1096 (1098). 239 Ring, Computergestützte Rechtsfindungssysteme, S. 146 f. 240 Ring, Computergestützte Rechtsfindungssysteme, S. 146 f. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 58 tischen Bewertung entscheidet.241 Er soll nur überhaupt eine – jedoch nicht notwendig richtige – Ergebnisausgabe ermöglichen.242 In eine ähnliche Richtung weist die Anregung Lenzens, selbstlernende Systeme Mustervergleiche in großen Mengen von Texten anstellen zu lassen, statt ihnen die Feinheiten einer Grammatik „beizubringen“.243 Bereits bestehende Anwendungen wie Google Translate lieferten so bereits passable Übersetzungen.244 Ein eigenes Sprachverständnis entwickeln Computer dadurch allerdings nicht, wie die in den vergangenen Jahren zwar deutlich verbesserten, aber letztlich doch teilweise noch sinnentstellenden Übersetzungen durch Computer belegen. Zuweilen machen Meldungen die Runde, es sei nunmehr doch endlich gelungen, Computern ein Textverständnis beizubringen. Zum Beispiel soll das von IBM entwickelte System „Watson“ in der Lage sein, Texte zu lesen, zu interpretieren und „eigene“ Antworten zu geben.245 Auf der Grundlage von Watson haben amerikanische Studenten das System „Ross“, das bestimmte Rechtsfragen beantworten können soll, entwickelt.246 Microsoft und Alibaba vermeldeten, ein System entwickelt zu haben, das sich im Vergleich zu Menschen bei einem Standardtest im Leseverständnis als überlegen erwiesen habe.247 Bei näherem Hinsehen wird allerdings deutlich, dass Computer tatsächlich doch nicht wirklich verstehen, was sie „lesen“.248 Sie lernen nur, Fragen die richtigen Antworten zuzuordnen249, was mal mehr und mal weniger gut funktioniert.250 241 Ring, Computergestützte Rechtsfindungssysteme, S. 146 f. 242 Ring, Computergestützte Rechtsfindungssysteme, S. 146 f. 243 Lenzen, Künstliche Intelligenz, S. 31. 244 Lenzen, Künstliche Intelligenz, S. 31. 245 Hierzu Frese, NJW 2015, 2090 (2091). 246 Hierzu Frese, NJW 2015, 2090 (2092). 247 Hierzu Grolle, Wenn der Computer versteht, was er liest, Spiegel Online vom 23. Januar 2018; Simonite, AI Beat Humans at Reading! Maybe Not, WIRED vom 1. Oktober 2018. 248 Grolle, Wenn der Computer versteht, was er liest, Spiegel Online vom 23. Januar 2018. 249 Vgl. Grolle, Wenn der Computer versteht, was er liest, Spiegel Online vom 23. Januar 2018: „Die Forscher der kalifornischen Stanford University, die den Test entwickelt haben, räumen selbst ein, dass er Maschinen tendenziell begünstigt. Auch fällt es nicht schwer, den Rechner durch kleine Tricks, die jeder Mensch sofort als solche erkennen würde, in die Irre zu führen. Denn die Computer verstehen nicht wirklich, was sie lesen. Sie lernen nur, auf Fragen zum Text die richtigen Antworten zu geben“. 250 Vgl. Meier, IBMs virtueller Arzt macht Fehler, NZZ vom 9. August 2018; ferner Lenzen, Künstliche Intelligenz, S. 74: „Aber auch Watson ist meilenweit davon A. Formalisierung des Rechts? 59 Festzuhalten ist, dass eine maschinelle Erfassung des semantischen Bedeutungsgehalts eines Textes bis heute nicht gelungen ist.251 Der Sinn eines in Computersprache umgewandelten Textes bleibt dem Computer somit verborgen.252 Dies schließt allerdings nicht aus, Computer bei der Bearbeitung schematischer, durch mechanisches Vorgehen lösbarer Konstellationen, die kein semantisches Verständnis erfordern, gewinnbringend einzusetzen.253 Hierzu zählen insbesondere mathematische Berechnungen. Kommt es hingegen auf ein semantisches Verständnis an, muss dieses der Mensch bei der Anwendung selbst einbringen. Die juristische Hermeneutik Um herauszufinden, ob eine tatsächliche Gegebenheit unter ein Merkmal des gesetzlichen Tatbestandes zu subsumieren ist, muss dieses ausgelegt werden.254 Auslegung bedeutet semantische Interpretation255, weshalb die eben erörterten Bedenken bezüglich der Vereinbarkeit der Logik mit der Semantik natürlicher Sprache auf die Auslegung ausstrahlen. Voraussetzung für die Auslegung ist ein „Verstehen“. Allerdings ist der Prozess des Verstehens keiner Formalisierung zugänglich. Da sich die Bedeutung eines Wortes erst aus dem Sinnzusammenhang und dieser sich wiederum erst aus der Bedeutung der ihn bildenden Wörter ergibt, muss derjenige, der einen Text verstehen will, bei den einzelnen Worten auf den von ihm er- II. entfernt, so zu denken wie ein Mensch. Er findet häufig die richtige Antwort, doch wenn er einmal falsch liegt, sind die Antworten oft so abstrus, dass klar wird: Verstehen in einem menschlichen Sinne kann dieses System nicht“. Das im Jahr 2019 vorgestellte Projekt „GPT-2“ liefert zwar verblüffende Ergebnisse im „Schreiben“ von Texten, beschränkt sich bei näherem Hinsehen aber – mit unterschiedlichem Erfolg – auf die Zuordnung von Texten, vgl. Kremp, Diese künstliche Intelligenz schreibt beängstigend gut, Spiegel Online vom 7. November 2019. 251 Vgl. von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 51; vgl. auch Bues, Was ist „Legal Tech”?, Legal Tech Blog vom 2. September 2015, für den die Entwicklung von Technologien zur Automatisierung der Rechtsfindung und -analyse insbesondere vor dem Hintergrund der juristischen Semantik noch vor „großen Herausforderungen“ steht. 252 Breidenbach, in: ders./Glatz, RHB Legal Tech, S. 35 f.; Buchholtz, JuS 2017, 955 (957). 253 Ähnlich Buchholtz, JuS 2017, 955 (958); Engel, JZ 2014, 1096 (1098). 254 Zippelius, Juristische Methodenlehre, S. 80 f. 255 Koch/Rüßmann, Juristische Begründungslehre, S. 24. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 60 warteten Sinn des Textes vorausschauen und von dem Text auf die einzelnen Wörter zurückblicken und das Sinnverständnis abgleichen.256 Ergibt die Erschließung des Textes, dass die zunächst angenommene Wortbedeutung von dem Sinnzusammenhang des Textes abweicht, korrigiert der Interpret seine ursprüngliche Annahme.257 Dieser Prozess des Verstehens im Sinne eines Voraus- und Zurückblickens kann je nach Komplexität des Textes mehrfach zu wiederholen sein.258 Larenz fasst dies treffend wie folgt zusammen: „Der Verstehensprozeß verläuft […] nicht lediglich in einer Richtung ‚linear‘, wie ein mathematischer Beweis oder eine logische Schlußkette, sondern in Wechselschritten, die eine wechselseitige Erhellung des einen durch das andere (und dadurch eine Annäherung mit dem Ziele weitgehender Deckung) bezwecken“.259 Wechselschritte können Computer aber heutzutage (noch) nicht durchführen.260 Weiter setzt der Verstehensprozess bei der Interpretation von Texten ein Vorverständnis voraus.261 Dieses setzt sich aus der Gesamtheit der Kenntnisse und Erfahrungen des Interpreten zusammen.262 Sein individuelles Vorverständnis ist nicht generalisierbar.263 Denn der einem Wort zugeschriebene Sinngehalt kann sich je nach persönlicher Erfahrung unterscheiden.264 Dies liegt daran, dass Worte seit der Kindheit durch Erfahrungswerte eingeführt werden (z. B. „das ist ein Pferd“).265 Wer das Wort „Baum“ liest, assoziiert damit eine ganz bestimmte persönliche Vorstellung, wie ein Baum aussieht. Die Vorstellung eines anderen Lesers kann davon abweichen, so dass sich etwa einer einen Laubbaum und der nächste einen Nadelbaum vorstellt. Wer der deutschen Schriftsprache nicht mächtig ist, sieht hingegen nur eine Buchstaben- oder Zeichenfolge. Daher bemerken Röhl/Röhl richtig: „Man muss immer schon etwas wissen, um verstehen zu können.“266 Zuweilen können auch die Bezüge eines Satzes oder Halbsatzes unklar und nur aus dem Kontext heraus verständlich 256 Larenz, Methodenlehre der Rechtswissenschaft, S. 206. 257 Larenz, Methodenlehre der Rechtswissenschaft, S. 206 f. 258 Larenz, Methodenlehre der Rechtswissenschaft, S. 207. 259 Larenz, Methodenlehre der Rechtswissenschaft, S. 207; zustimmend: Buchholtz, JuS 2017, 955 (958); Kotsoglou, JZ 2014, 451 (452). 260 Buchholtz, JuS 2017, 955 (958); Engel, JZ 2014, 1096 (1097). 261 Larenz, Methodenlehre der Rechtswissenschaft, S. 206 ff. 262 Larenz, Methodenlehre der Rechtswissenschaft, S. 208. 263 Zippelius, Juristische Methodenlehre, S. 38. 264 Zippelius, Juristische Methodenlehre, S. 38. 265 Zippelius, Juristische Methodenlehre, S. 15. 266 Röhl/Röhl, Allgemeine Rechtslehre, S. 116. A. Formalisierung des Rechts? 61 sein.267 Mit dem Ausspruch, „er geht zur Bank“ kann als Ziel des Weges sowohl eine Sitzgelegenheit als auch ein Geldinstitut gemeint sein. Aus dem Satz, „er legte den Regenschirm in die Badewanne, weil er noch nass war“ ist ohne zusätzliches Hintergrundwissen nicht zu ermitteln, ob er oder der Regenschirm nass war.268 Ferner kann mit einem Satz ein bestimmter Zweck verfolgt werden, der sich aus den Worten selbst nicht ergibt.269 So wird die Frage „Wissen Sie, wie spät es ist?“ regelmäßig nicht (nur) mit „Ja!“ beantwortet.270 Hinzu kommen in Bildsprache verfasste Redewendungen wie „etwas durch die Blume sagen“, „jemandem einen Bären aufbinden“ oder „den Wald vor lauter Bäumen nicht sehen“, deren Bedeutung sich ohne ein Vorverständnis nicht erschließt. Auch haben Worte häufig keinen klar umrissenen Bedeutungsumfang.271 Wie viele Bäume etwa einen Baumbestand zum Wald machen, ist dem Wort „Wald“ selbst nicht zu entnehmen.272 Das „Hin und Her zwischen Vorverständnis und Deutung“, das „Voraus- und Zurückblicken“ zwischen den einzelnen Worten und dem Textsinn weist eine zirkuläre Struktur auf und wird deshalb auch als „hermeneutischer Zirkel“ bezeichnet.273 Der zirkuläre Verstehensprozess widerspricht der linearen Arbeitsweise des Computers. Sodann folgt die Auslegung von Gesetzen zwar gewissen Regeln. Es gelten die vier klassischen Auslegungsmethoden: die grammatikalische, die systematische, die teleologische und die historische Auslegung.274 Auch wird die Ermittlung des Wortsinns eines Textes (grammatikalische Auslegung) als Ausgangspunkt einer jeden Auslegung angesehen.275 Gleichwohl fehlen eindeutige Vorgaben für die Rechtsanwendung, was einer Darstellung nach den Regeln formaler Logik entgegensteht.276 Insbesondere steht nicht allgemeingültig fest, welcher Auslegungsmethode bei sich widerspre- 267 Lenzen, Künstliche Intelligenz, S. 64; Raabe et al., Recht ex machina, S. 70. 268 Beispiel nach Raabe et al., Recht ex machina, S. 70. 269 Lenzen, Künstliche Intelligenz, S. 64. 270 Lenzen, Künstliche Intelligenz, S. 64. 271 Zippelius, Juristische Methodenlehre, S. 38. 272 Beispiel nach Zippelius, Juristische Methodenlehre, S. 38. 273 Vgl. Larenz, Methodenlehre der Rechtswissenschaft, S. 206; Röhl/Röhl, Allgemeine Rechtslehre, S. 116 f. 274 Vgl. die Aufzählung in: BVerfG, Beschluss vom 17. Mai 1960 – 2 BvL 11/59, BVerfGE 11, 126, juris Rn. 17; Kramer, Juristische Methodenlehre, S. 60; vgl. auch Möllers, Juristische Methodenlehre, S. 206 ff. 275 Vgl. Larenz, Methodenlehre der Rechtswissenschaft, S. 343; Möllers, Juristische Methodenlehre, S. 119 f. 276 Ebenso Hoffmann-Riem, AöR 142 (2017), 1 (27 f.). Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 62 chenden Ergebnissen der Vorrang gebührt.277 Bewertungen folgen keiner klaren Wertehierarchie.278 Die einzelnen Kriterien unterliegen keiner starren Gewichtung.279 Auch Willenserklärungen und Verträge können nicht nach formal abbildbaren Kriterien ausgelegt werden, sondern bedürfen einer Wertung. So ist „der wirkliche Wille zu erforschen und nicht an dem buchstäblichen Sinne des Ausdrucks zu haften“, § 133 BGB. Ferner sind Verträge so auszulegen, „wie Treu und Glauben mit Rücksicht auf die Verkehrssitte es erfordern“, § 157 BGB.280 Formale Logik und Subsumtion Rechtssätze und Logik sind unterschiedlich konzipiert. Die Logik verknüpft beschreibende Aussagen als Wahrheitswertträger.281 Die Struktur lautet beispielhaft: Wenn p wahr ist, dann ist auch q wahr. Hingegen beschreiben Rechtssätze ein Sollen282: Wenn der Tatbestand T verwirklicht ist, dann soll die Rechtsfolge R gelten.283 Deshalb heißt es, von einem Sollen könne nicht auf ein Sein und von einem Sein nicht auf ein Sollen geschlossen werden.284 Rechtssätze könnten nicht als „wahr“ oder „falsch“ III. 277 Larenz/Canaris, Methodenlehre der Rechtswissenschaft, S. 166; Wysk, in: GS Brandner, S. 137 (142); a. A. Koch/Rüßmann, Juristische Begründungslehre, S. 176 ff., die aus der Gesetzesbindung einen Vorrang der sogenannten „subjektiven“ Auslegung, also gemäß dem Willen des historischen Gesetzgebers, folgern; ebenso Röhl/Röhl, Allgemeine Rechtslehre, S. 631 f.; Rüthers, NJW 2005, 2759 ff. Das BVerfG, Urteil vom 21. Mai 1952 – 2 BvH 2/52, BVerfGE 1, 299, juris Rn. 56, und Beschluss vom 17. Mai 1960 – 2 BvL 11/59, BVerfGE 11, 126-136, juris Rn. 19, misst der subjektiven Auslegung hingegen nur eine untergeordnete Bedeutung bei. 278 W. Kilian, CR 2017, 202 (210). 279 Larenz/Canaris, Methodenlehre der Rechtswissenschaft, S. 166. 280 Die Problematik der logischen Abbildung wertender Entscheidungen wird nachfolgend unter IV. Formale Logik und Wertungen näher erörtert. 281 Koch/Rüßmann, Juristische Begründungslehre, S. 33 f.; Kotsoglou, JZ 2014, 451 (453); Zippelius, Juristische Methodenlehre, S. 88. 282 Kotsoglou, JZ 2014, 451 (453); Zippelius, Juristische Methodenlehre, S. 88. 283 Zippelius, Juristische Methodenlehre, S. 88. 284 So Kelsen, Allgemeine Theorie der Normen, S. 44 ff.; vgl. auch Röhl/Röhl, Allgemeine Rechtslehre, S. 129 f. („Gegensatz von Sein und Sollen“); zustimmend Kotsoglou, JZ 2014, 451 (453). Allerdings weist Möllers, Juristische Methodenlehre, S. 83, zutreffend darauf hin, dass die Lebenswirklichkeit (das Sein) durchaus auf die Rechtsquelle (das Sollen) einwirkt. Dies wird insbesondere an den gesetzlichen Generalklauseln deutlich, siehe hierzu nachfolgend IV. Formale Lo- A. Formalisierung des Rechts? 63 gekennzeichnet werden.285 Schreibt man Normen nun gleichwohl Wahrheitswerte zu, ergibt sich folgendes Problem, das anhand der Wahrheitswerttafel nach Koch/Rüßmann286 verdeutlicht werden soll: Wahrheitswerttafel p q p ˄ q(p und q) p ˅ q (p oder q) p → q (wenn p, dann q) wahr wahr w w w wahr falsch f w f falsch wahr f w w falsch falsch f f w Die Wahrheitswerttafel besagt, dass die Variablen p und q eine gültige (Und-)Relation (p ˄ q) darstellen, wenn sowohl p als auch q wahr sind. Hingegen ist die (Oder-)Relation (p ˅ q) nur dann falsch, wenn p und q falsch sind. Schwieriger gestaltet sich die Wenn-Dann-Relation (p → q). Diese ist nur falsch, wenn die Wenn-Komponente (p) wahr ist und die Dann-Komponente (q) falsch. Nach den Regeln der Logik ist nun aber im Fall des Nichteintritts von p die Behauptung „wenn p, dann q“ zumindest nicht widerlegt, so dass die Relation p → q gleichwohl als wahr angesehen wird.287 Übertragen auf Tatbestand und Rechtsfolge einer Norm bedeutete dies, dass das Nichtvorliegen des Tatbestandes (p) und das Eintreten der Rechtsfolge (q) zu einer gültigen Relation führten. Dies lässt sich aber mit der „Logik“ des Gesetzes, wonach die Rechtsfolge nur eintreten soll, wenn der Tatbestand erfüllt ist, nicht vereinbaren und erscheint mithin widersinnig.288 Abbildung 3: gik und Wertungen. Röhl/Röhl, Allgemeine Rechtslehre, S. 130 f., behandeln die Einwirkung des Seins auf das Sollen unter Bezugnahme auf Jellinek unter der Überschrift „Die normative Kraft des Faktischen“. Auch die juristische Hermeneutik, nach der sich Sachverhaltsanalyse und Subsumtion überschneiden, zeigt, dass Sein und Sollen nicht streng voneinander getrennt werden können. 285 Koch/Rüßmann, Juristische Begründungslehre, S. 44; Kotsoglou, JZ 2014, 451 (453). 286 Koch/Rüßmann, Juristische Begründungslehre, S. 34. 287 Koch/Rüßmann, Juristische Begründungslehre, S. 34. 288 Ebenso Kotsoglou, JZ 2014, 451 (452 f.). Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 64 Versuchen, eine Formalisierung des Rechts voranzutreiben289, wird deshalb entgegengehalten, dass die juristische Subsumtion sich nicht allein durch formale Logik abbilden lasse.290 Gleichwohl weisen Logik und Subsumtion zumindest im Ansatz Ähnlichkeiten auf. Nach dem „Syllogismus der Rechtsfolgebestimmung“ nach Larenz folgt die Gesetzesanwendung grundsätzlich einem logischen Schema: „Immer wenn der Tatbestand T in einem konkreten Sachverhalt S verwirklicht ist, gilt für S die Rechtsfolge R.“291 Danach sind zwei Prämissen zu bilden, die Obersatz und Untersatz genannt werden. Der Obersatz spiegelt den gesetzlichen Tatbestand wider und der Untersatz setzt sich aus den entscheidenden Angaben im Sachverhalt zusammen.292 Aus den beiden Prämissen folgt sodann die Schlussfolgerung. Dazu folgendes Schema nach Larenz:293 1. Obersatz (= erste Prämisse): Für den Tatbestand T gilt die Rechtsfolge R. 2. Untersatz (= zweite Prämisse): Sachverhalt S ist ein Fall von T. 3. Schlussfolgerung: Für S gilt R. Zur Veranschaulichung folgendes an Koch/Rüßmann294 angelehntes Beispiel: Alle Juristen bekommen Geld. Alle Richter sind Juristen. Alle Richter bekommen Geld. Die Subsumtion kennzeichnet den Vorgang der Gewinnung des Untersatzes, woraufhin ein logischer Schluss folgt. Hierzu ein weiteres Schema nach Larenz:295 289 Erdmann et al., Computergestützte Juristische Expertensysteme; Fikentscher, Methoden des Rechts; Haft, Einführung in die Rechtsinformatik; Kaufmann, Logik und Rechtswissenschaft; W. Kilian, Juristische Entscheidung und elektronische Datenverarbeitung; Raabe et al., Recht ex machina. 290 So Buchholtz, JuS 2017, 955 (958); Kotsoglou, JZ 2014, 451 (452 ff.); Larenz, Methodenlehre der Rechtswissenschaft, S. 213 f.; Zippelius, Juristische Methodenlehre, S. 89. 291 Larenz, Methodenlehre der Rechtswissenschaft, S. 271; kritisch im Hinblick auf logische Ableitungen: Gröschner, JZ 2018, 737 (741). 292 Möllers, Juristische Methodenlehre, S. 109. 293 Larenz, Methodenlehre der Rechtswissenschaft, S. 271. 294 Koch/Rüßmann, Juristische Begründungslehre, S. 14. 295 Larenz, Methodenlehre der Rechtswissenschaft, S. 273. A. Formalisierung des Rechts? 65 1. Der Tatbestand T ist abschließend gekennzeichnet durch die Merkmale M1, M2 und M3. 2. Der Sachverhalt S weist die Merkmale M1, M2 und M3 auf. 3. Mithin ist S ein Fall von T. Beim Subsumieren werden Oberbegriffe und Unterbegriffe gebildet,296 sodann ist zu prüfen, ob sich die Merkmale des Oberbegriffs in dem Unterbegriff wiederfinden.297 Dies ist dann der Fall, wenn ein speziellerer Begriff von einem allgemeineren Begriff erfasst wird.298 Dafür muss der speziellere Begriff neben weiteren besonderen Merkmalen sämtliche Merkmale des allgemeineren Begriffs aufweisen.299 Demnach kann etwa der Unterbegriff „Baum“ unter dem Oberbegriff „Pflanze“ subsumiert werden, weil er wie alle Pflanzen ein fortbewegungsunfähiges Lebewesen ist, das Photosynthese betreibt. Die Gewinnung des Schlusses aus zwei Prämissen mutet zunächst logisch an. Gleichwohl taugt das dargestellte Schema aus mehreren Gründen letztlich aber doch nicht als vollständiges Abbild der Gesetzesanwendung. Zum einen kann nur unter hinreichend präzise definierte Begriffe subsumiert werden, was dann problematisch ist, wenn Begriffe nicht einheitlich verstanden werden.300 Zum anderen erschöpft sich die Subsumtion nicht in den soeben dargestellten logischen Ableitungen. Denn sie können nicht bis ins Unendliche fortgesetzt werden.301 Vielmehr bedarf es früher oder später eines Elementarurteils, das keinen logischen Schlüssen folgt, sondern auf Wahrnehmungen oder sozialen Erfahrungen beruht.302 Auf Wahrnehmung basierende Urteile betreffen tatsächliche Umstände, die dem Beweis zugänglich sind, wie die Größe, das Gewicht oder das Aussehen einer Sache.303 Ob wir einen Gegenstand als rot, gelb oder grün wahrnehmen, kann sprachlich nicht logisch geschlussfolgert werden, sondern folgt aus dem Erfahrungswissen und dem Sehvermögen. Auch die Deu- 296 Larenz, Methodenlehre der Rechtswissenschaft, S. 273. 297 Larenz, Methodenlehre der Rechtswissenschaft, S. 273. 298 Zippelius, Juristische Methodenlehre, S. 79. 299 Zippelius, Juristische Methodenlehre, S. 79. 300 Röhl/Röhl, Allgemeine Rechtslehre, S. 67. 301 Larenz, Methodenlehre der Rechtswissenschaft, S. 274; im Grundsatz auch Koch/ Rüßmann, Juristische Begründungslehre, S. 65 f. 302 Larenz, Methodenlehre der Rechtswissenschaft, S. 274; a. A. Koch/Rüßmann, Juristische Begründungslehre, S. 67 ff., nach denen sich vage Begriffe so weit konkretisieren lassen könnten, dass darunter im Ergebnis doch subsumiert werden könne. 303 Larenz, Methodenlehre der Rechtswissenschaft, S. 284. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 66 tung menschlichen Verhaltens als auf einen bestimmten Zweck gerichtet (wie etwa einen Geldschein zu reichen, um damit zu bezahlen) folgt keiner logischen Schlussfolgerung, sondern fußt auf den in der Vergangenheit gemachten sozialen Erfahrungen.304 Haft, der in den Achtzigerjahren des vergangenen Jahrhunderts an der Entwicklung eines juristischen Expertensystems für das Straßenverkehrsrecht beteiligt war, berichtete von den Schwierigkeiten der Implementierung derartigen Wissens in ein Expertensystem: „Wenn ich wissen will, was ein ‚Unfall‘ ist, oder was ein ‚Schaden‘ ist, oder was ‚Straßenverkehr‘ ist, dann schaue ich hin. Ich schaue etwa einfach zum Fenster hinaus. Ich weiß es eben.“305 Auch Beurteilungsspielräume ausfüllende Werturteile folgen keinen logischen Schlüssen. Vielmehr sind sie Resultat eines Abwägungsprozesses.306 Neben dem früheren oder späteren Abbruch der logischen Ableitungen ist die Subsumtion durch eine weitere logisch nicht darstellbare Besonderheit geprägt: Obersatz und Lebenssachverhalt können nicht isoliert voneinander betrachtet werden.307 Denn die Bildung des Sachverhalts und seine Würdigung erfolgen nicht zeitlich nacheinander, sondern nebeneinander.308 Die Bildung des Sachverhalts durch den Rechtsanwender enthält bereits eine Würdigung, weil sie mit Rücksicht auf die Bedeutung der einzelnen tatsächlichen Gegebenheiten erfolgt.309 Engisch beschreibt Subsumtion deshalb als wechselseitige Zuordnung im Sinne eines „Hin- und Herwandern[s] des Blickes zwischen Obersatz und Lebenssachverhalt“.310 Scheuerle spricht von einer „wechselseitige[n] Durchdringung zwischen den Akten der Tatsachenfeststellung und denen der rechtlichen Qualifizierung“.311 Der „Roh-Sachverhalt“, der noch im Ergebnis unbedeutende Nebenumstände umfasst, wird gedanklich auf das für den Anwendungsbereich der Norm Wesentliche, den endgültigen Sachverhalt, und der Gesetzestext auf das für die Beurteilung des Sachverhalts Wesentliche konkreti- 304 Larenz, Methodenlehre der Rechtswissenschaft, S. 285. 305 Haft, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 589 (592). 306 Hierzu nachfolgend IV. Formale Logik und Wertungen. 307 Engisch, Logische Studien zur Gesetzesanwendung, S. 14 f.; Larenz, Methodenlehre der Rechtswissenschaft, S. 278 f.; Scheuerle, Rechtsanwendung, S. 23. 308 Larenz, Methodenlehre der Rechtswissenschaft, S. 278. 309 Larenz, Methodenlehre der Rechtswissenschaft, S. 278 f. 310 Engisch, Logische Studien zur Gesetzesanwendung, S. 15. 311 Scheuerle, Rechtsanwendung, S. 23. A. Formalisierung des Rechts? 67 siert.312 Engisch schreibt: „Für den Obersatz ist wesentlich, was auf den konkreten Fall Bezug hat, am konkreten Fall ist wesentlich, was auf den Obersatz Bezug hat.“313 Larenz sieht darin eine Erscheinungsform des „hermeneutischen Zirkels“.314 Bei der Sachverhaltsbildung werden mithin für die rechtliche Beurteilung bedeutungslose Umstände aussortiert.315 Ferner werden Umstände, die für die Beurteilung möglicherweise von Bedeutung sein können, erfragt.316 Der „Roh-Sachverhalt“ wird also im Hinblick auf die rechtliche Beurteilung zum endgültigen Sachverhalt gleichsam reduziert und vervollständigt.317 Die Vervollständigung des Sachverhalts erfordert nicht nur die schematische Anwendung eines konkreten Rechtssatzes, sondern ein Vorverständnis über die gesetzliche Regelung als Ganzes. So gilt es, bei Schadensersatzansprüchen die Möglichkeit eines Mitverschuldens318, bei länger zurückliegenden Sachverhalten Verjährungsfragen zu bedenken319. Nicht nur der Sachverhalt, auch der Gesetzestext erfährt durch die Rechtsanwendung eine Abwandlung.320 Das Gesetzesrecht wird durch Auslegung konkretisiert und präzisiert, so dass die Rechtsanwendung im Einzelfall mit Rechtssetzung einhergeht.321 Dabei ist der Blick nicht lediglich auf eine bestimmte Norm zu richten. Denn die Rechtsordnung setzt sich nicht aus einer Summe von Rechtssätzen, sondern aus Regelungen zu- 312 Buchholtz, JuS 2017, 955 (958); Larenz, Methodenlehre der Rechtswissenschaft, S. 281 und 312. Hierzu stellt Möllers, Juristische Methodenlehre, S. 83 und 490, fest, dass die Trennung von Sein und Sollen insoweit durchbrochen werde, da Lebenswirklichkeit (das Sein) und Rechtsquelle (das Sollen) sich gegenseitig bedingten. 313 Engisch, Logische Studien zur Gesetzesanwendung, S. 14 f. 314 Larenz, Methodenlehre der Rechtswissenschaft, S. 281; kritisch Haft, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 21 (27 f.). 315 Larenz, Methodenlehre der Rechtswissenschaft, S. 279. 316 Larenz, Methodenlehre der Rechtswissenschaft, S. 279. 317 Larenz, Methodenlehre der Rechtswissenschaft, S. 279. 318 Larenz, Methodenlehre der Rechtswissenschaft, S. 279. 319 Larenz, Methodenlehre der Rechtswissenschaft, S. 282. 320 Larenz, Methodenlehre der Rechtswissenschaft, S. 214. 321 Kotsoglou, JZ 2014, 451 (455); Larenz, Methodenlehre der Rechtswissenschaft, S. 214; vgl. auch (allerdings im Hinblick auf das case law) Leith, The Computer Journal 1986, 545 (548): „To me, the existence of the rule depends upon the personal view of the judge positing that rule – it is created, discussed, manipulated by the judge as an abstract concept. It is not pulled out from the law reports and legislation (or expert systems) on that judge's bookshelf – it has no concrete life which leads to it being spotted automatically by any number of judges“. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 68 sammen.322 Einzelne Rechtssätze stehen also nicht singulär für sich. Sie können nicht ohne Rücksicht auf die Gesamtrechtsordnung angewendet werden.323 Erst das Zusammenspiel von Rechtssätzen ergibt als Ganzes eine Regelung.324 Hierzu gehören auch die „negativen“ Entscheidungen des Gesetzgebers, Sachverhalte nicht zum Gegenstand einer Regelung zu machen.325 Das Denken in voraus- und zurückblickenden Wechselschritten unterscheidet die Jurisprudenz von anderen „exakten“ Wissenschaften.326 Sofern nun ein Computer in Wechselschritten arbeiten würde, müsste er als Input bereits teilweise seinen Output (nämlich das auf den Einzelfall konkretisierte Gesetzesrecht) enthalten, was – nach dem heutigen Stand der Technik – nicht umsetzbar ist.327 Ihre Unfähigkeit zur klassischen Subsumtion schließt Computer jedoch nicht per se vom Einsatz bei der Rechtsfindung aus. Konstellationen, die keine eigene Subsumtion des Computers, sondern ein rein schematisches Vorgehen erfordern, können sie übernehmen.328 Dabei kann es sich insbesondere um mathematische Berechnungen handeln. Den Subsumtionsvorgang im klassischen Sinn kann ein Computer dem Rechtsanwender jedoch nicht abnehmen. Formale Logik und Wertungen Rechtsanwendung und (Wert-)Urteile Die abstrakte Formulierung von Gesetzen belässt dem Rechtsanwender häufig einen Deutungsspielraum, der verschiedene Interpretationen zulässt.329 Rechtsanwendung erfordert daher nicht nur die Auslegung von Normen und die Subsumtion des Sachverhalts darunter, sondern auch Wertungen. Zwar nimmt der Umfang der wertenden Tätigkeit ab, je kla- IV. 1. 322 Larenz, Methodenlehre der Rechtswissenschaft, S. 264. 323 Larenz, Methodenlehre der Rechtswissenschaft, S. 271. Auch Reisinger, Rechtsinformatik, S. 212, weist darauf hin, dass die Algorithmisierung von Rechtsnormen die Formalisierung der Beziehungen der Rechtsnormen untereinander erfordert. 324 Larenz, Methodenlehre der Rechtswissenschaft, S. 264. 325 Larenz, Methodenlehre der Rechtswissenschaft, S. 271. 326 Larenz, Methodenlehre der Rechtswissenschaft, S. 207. 327 Buchholtz, JuS 2017, 955 (958); Kotsoglou, JZ 2014, 451 (455). 328 Ebenso Buchholtz, JuS 2017, 955 (958); Engel, JZ 2014, 1096 (1098). 329 Zippelius, Juristische Methodenlehre, S. 19. A. Formalisierung des Rechts? 69 rer der im Gesetz verwendete Tatsachenbegriff gefasst ist.330 Von einem in diesem Sinne im „Idealfall“ wertungsfreien Tatsachenbegriff spricht man, wenn die vollständige Angabe der ihn kennzeichnenden Merkmale eindeutig definiert und eine tatsächliche Gegebenheit darunter subsumiert werden kann.331 Die Subsumtion setzt dann aber zumindest noch die Feststellung (das Urteil) voraus, dass sich sämtliche dem Begriff unterfallenden Merkmale in dem zu beurteilenden Sachverhalt wiederfinden.332 Insofern wurde bereits angesprochen, dass Ableitungen vom Allgemeinen zum Spezielleren nicht bis ins Unendliche fortgeführt werden können, sondern es früher oder später eines Elementarurteils bedarf, das nicht mehr mit logischen Schlüssen zu begründen ist, sondern auf Wahrnehmungen oder sozialen Erfahrungen beruht.333 Immer dann, wenn es Beurteilungsspielräume gibt, können unterschiedliche Ergebnisse vertretbar sein, so dass eine streng logische Subsumtion nicht möglich ist.334 Der Rechtsanwender lotet aus, ob ein Verhalten den Tatbestand verwirklicht oder nicht, wobei er sich zwischen den beiden Extremen „Tatbestandsverwirklichung“ und „keine Tatbestandsverwirklichung“ bewegt und schließlich eine Entscheidung treffen und sich damit auf ein Ergebnis festlegen muss.335 Noch deutlicher zutage tritt die wertende Tätigkeit bei der Zuordnung von tatsächlichen Gegebenheiten zu einem unbestimmten Rechtsbegriff (sogenannter Typus) und bei der Konkretisierung des ausfüllungsbedürftigen Maßstabs einer Generalklausel. Ein unbestimmter Rechtsbegriff wird nicht definiert, sondern beschrieben, wobei die ihn beschreibenden Merkmale ein Gesamtbild ergeben.336 Die einzelnen Merkmale sind austauschbar und können jeweils mehr oder weniger vorliegen.337 Es können zugleich Aspekte vorliegen, die für und andere, die gegen eine Tatbestandsverwirklichung sprechen.338 Auch das Feh- 330 Larenz, Methodenlehre der Rechtswissenschaft, S. 215. 331 Larenz, Methodenlehre der Rechtswissenschaft, S. 216. 332 Larenz, Methodenlehre der Rechtswissenschaft, S. 215. 333 Hierzu vorstehend III. Formale Logik und Subsumtion. 334 Larenz, Methodenlehre der Rechtswissenschaft, S. 217. 335 Enders, JA 2018, 721 (725). 336 Larenz, Methodenlehre der Rechtswissenschaft, S. 221; Pahlke, DStR-Beih 2011, 66 (67). 337 Enders, JA 2018, 721 (725); Haft, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 589 (595), der damit schon den Menschen überfordert sieht; Larenz, Methodenlehre der Rechtswissenschaft, S. 221; Pahlke, DStR-Beih 2011, 66 (67). 338 Enders, JA 2018, 721 (725). Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 70 len eines der beispielgebenden Merkmale steht der Zuordnung nicht zwingend im Weg.339 Zu den unbestimmten Rechtsbegriffen gehört der Begriff des Tierhalters im Sinne von § 833 BGB. Denn der gesetzlich nicht definierte Begriff umschreibt lediglich einen Typus und lässt keinen logischen Schluss zu, welche Personen ihm unterfallen. Stattdessen hängt die Einordnung von einer Gesamtabwägung aller Umstände des Einzelfalls ab.340 Das bedeutet, dass der Lebensvorgang dem Typus wertend zugeordnet werden muss.341 Dabei sind verschiedene Gesichtspunkte, die in unterschiedlicher Weise miteinander kombiniert sein können, zu berücksichtigen.342 Maßgebliche Indizien sind, „wem die Bestimmungsmacht über das Tier zusteht und wer aus eigenem Interesse für die Kosten des Tieres aufkommt und das wirtschaftliche Risiko seines Verlustes trägt“.343 Zu den einzelnen Kriterien sind Feststellungen zu treffen und diese in ihrer Gesamtheit abzuwägen. Dabei zu berücksichtigen ist auch der „leitende[…] Wertgesichtspunkt“344 beziehungsweise der zu präzisierende „Begriffskern“345 des unbestimmten Rechtsbegriffs, hier des Begriffs „Tierhalter“. Ferner erfordert etwa die Feststellung der Erheblichkeit der Pflichtverletzung (§ 323 Abs. 5 Satz 2 BGB) eine umfassende Interessenabwägung auf der Grundlage der Umstände des Einzelfalls346 und stellt damit ebenfalls einen unbestimmten Rechtsbegriff dar. Unter welchen Umständen eine Pflichtverletzung unerheblich ist, lässt sich nicht logisch ableiten. Was erheblich oder nicht erheblich ist, ist keiner genauen Definition zugänglich, sondern nach einem gleitenden Maßstab zu bestimmen.347 Auch insoweit ist eine wertende Zuordnung erforderlich.348 Zu berücksichtigende Kriterien sind hier etwa der für die Mangelbeseitigung erforderliche Auf- 339 Larenz, Methodenlehre der Rechtswissenschaft, S. 221. 340 Sprau, in: Palandt, BGB, § 833 Rn. 10. 341 Larenz, Methodenlehre der Rechtswissenschaft, S. 222 und 275. 342 Larenz, Methodenlehre der Rechtswissenschaft, S. 217. 343 BGH, Urteil vom 19. Januar 1988 – VI ZR 188/87, NJW-RR 1988, 655, juris Rn. 12. 344 Larenz, Methodenlehre der Rechtswissenschaft, S. 222. 345 Möllers, Juristische Methodenlehre, S. 256. 346 BGH, Urteil vom 28. Mai 2014 – VIII ZR 94/13, BGHZ 201, 290, juris Rn. 16; Grüneberg, in: Palandt, BGB, § 323 Rn. 32. 347 Larenz, Methodenlehre der Rechtswissenschaft, S. 216 f., im Hinblick auf die Auslegung des Merkmals der Wesensveränderung in § 93 BGB, die eine nicht unerhebliche Minderung der Brauchbarkeit oder des Wertes voraussetzt. 348 Vgl. Larenz, Methodenlehre der Rechtswissenschaft, S. 222 und 275. A. Formalisierung des Rechts? 71 wand349 beziehungsweise beim nicht behebbaren Mangel die Beeinträchtigung der Funktionsfähigkeit350 und der Ästhetik351 sowie – nach bestrittener Auffassung – die Schwere des Verschuldens352. Schließlich verlangen auch die ausfüllungsbedürftigen Wertungsmaßstäbe der Generalklauseln dem Rechtsanwender eine wertende Zuordnung ab.353 Hierzu gehören Generalklauseln wie „Treu und Glauben“ (§§ 157, 242, 307 Abs. 1 BGB) und „die guten Sitten“ (§§ 138 Abs. 1, 826 BGB).354 Diese lassen eine Subsumtion ob ihres hohen Abstraktionsniveaus nicht ohne Weiteres zu.355 Anders als unbestimmte Rechtsbegriffe besitzen sie auch keinen eindeutig fassbaren Begriffskern.356 Zudem können die hinter den Generalklauseln stehenden Rechtsgedanken begrifflich meist nicht klar definiert, sondern nur exemplarisch verdeutlicht werden357, wobei die Beispiele zugleich der Konkretisierung des Maßstabs dienen.358 Maßgebend sind jedoch keine gesetzlich konkretisierten, sondern abstrakte Maßstäbe359. Diese Maßstäbe werden durch die Wertentscheidungen des Grundgesetzes und des Europarechts sowie (außerrechtliche) sozialethi- 349 OLG Köln, Urteil vom 27. April 2010 – I-15 U 185/09, NJW-RR 2011, 61, juris Rn. 19; Grüneberg, in: Palandt, BGB, § 323 Rn. 32; a. A. Schwarze, in: Staudinger, BGB, § 323 Rn. C 26, der allein darauf abstellt, wie stark die Gläubigerinteressen beeinträchtigt sind. 350 OLG Karlsruhe, Urteil vom 13. November 2008 – 9 U 150/08, NJW-RR 2009, 741, juris Rn. 19 ff.; Grüneberg, in: Palandt, BGB, § 323 Rn. 32. 351 Grüneberg, in: Palandt, BGB, § 323 Rn. 32. 352 So BGH, Urteil vom 24. März 2006 – V ZR 173/05, BGHZ 167, 19, juris Rn. 11, und Beschluss vom 8. Dezember 2006 – V ZR 249/05, NJW 2007, 835, juris Rn. 15; Grüneberg, in: Palandt, BGB, § 323 Rn. 32; a. A. Lorenz, NJW 2006, 1925 (1926 f.); Schwarze, in: Staudinger, BGB, § 323 Rn. C 26 m. w. N. 353 Larenz, Methodenlehre der Rechtswissenschaft, S. 275 und 288. 354 Larenz, Methodenlehre der Rechtswissenschaft, S. 288; zum Begriff der „guten Sitten“: Sack/Fischinger, in: Staudinger, BGB, § 138 Rn. 56; Schmidt-Räntsch, in: Erman, BGB, § 138 BGB Rn. 12; zum Begriff „Treu und Glauben“: Böttcher, in: Erman, BGB, § 242 Rn. 12; Olzen/Looschelders, in: Staudinger, BGB, § 242 Rn. 140 ff. 355 Möllers, Juristische Methodenlehre, S. 256. 356 Möllers, Juristische Methodenlehre, S. 256. 357 Larenz, Methodenlehre der Rechtswissenschaft, S. 223. 358 Larenz, Methodenlehre der Rechtswissenschaft, S. 223 f. 359 Zu den Maßstäben des § 242 BGB: Böttcher, in: Erman, § 242 Rn. 12; Olzen/ Looschelders, in: Staudinger, BGB, § 242 Rn. 140 ff. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 72 sche Wertanschauungen bestimmt.360 Dabei ist wiederum eine umfassende Interessenabwägung vorzunehmen.361 Beurteilungsspielräume können außerdem auf der Rechtsfolgenseite bestehen. Ist ein Anspruch zwischen den Parteien dem Grunde nach unstreitig oder bewiesen, kann das Gericht über die Höhe eines Schadens oder einer sonstigen Forderung gemäß § 287 Abs. 1 Satz 1 ZPO „nach freier Überzeugung“ entscheiden. Gemeint ist damit die Befugnis des Gerichts, die Schadenshöhe zu schätzen.362 Für den Geschädigten stellt dies eine Beweiserleichterung dar. Er muss den Strengbeweis (§ 286 ZPO) nicht führen. Vielmehr genügt das Vorliegen tragfähiger Anknüpfungspunkte363, die der Geschädigte allerdings im Zweifel nach den Kriterien des § 286 ZPO zu beweisen hat. Die Schätzung der Schadenshöhe ist sodann nicht an abstrakten Maßstäben auszurichten, sondern muss dem jeweiligen Einzelfall Rechnung tragen.364 Ein wichtiger Anwendungsfall in der Gerichtspraxis ist die Schmerzensgeldbemessung.365 Schließlich muss auch im Bereich der Rechtsfortbildung gewertet werden. Gesetzeslücken können durch Umkehr- oder Analogieschlüsse geschlossen werden. Bei der Analogie wird die Rechtsfolge eines gesetzlichen Tatbestandes auf einen nicht darunter fallenden Sachverhalt angewandt, weil eine Abwägung ergibt, dass der nicht geregelte mit den gesetzlich geregelten Fällen aufgrund der Übereinstimmung genereller Merkmale vergleichbar und deshalb nicht abweichend zu bewerten ist.366 Aufgrund eines Umkehrschlusses wird hingegen eine Rechtsfolge, die für einen oder mehrere andere Sachverhalte gesetzlich vorgesehen ist, auf einen von der gesetzlichen Regelung nicht erfassten Sachverhalt nicht angewendet.367 Ob 360 Grüneberg, in: Palandt, BGB, § 242 Rn. 6; Möllers, Juristische Methodenlehre, S. 257, sieht den Rückgriff auf außerrechtliche Maßstäbe als gesetzlich indiziert an. 361 Olzen/Looschelders, in: Staudinger, BGB, § 242 Rn. 144 ff. 362 Vgl. BGH, Urteil vom 22. Juli 2014 – VI ZR 357/13, NJW 2014, 3151, juris Rn. 17; Greger, in: Zöller, ZPO, § 287 Rn. 2. 363 Vgl. BGH, Urteil vom 22. Juli 2014 – VI ZR 357/13, NJW 2014, 3151, juris Rn. 17. 364 BGH, Urteil vom 22. Juli 2014 – VI ZR 357/13, NJW 2014, 3151, juris Rn. 17; Greger, in: Zöller, ZPO, § 287 Rn. 4. 365 Vgl. BGH, Urteil vom 12. Mai 1998 – VI ZR 182/97, BGHZ 138, 388, juris Rn. 11. 366 Zippelius, Juristische Methodenlehre, S. 55. 367 In diesem Fall wird eine Analogie mangels planwidriger Regelungslücke verweigert. Möllers, Juristische Methodenlehre, S. 223, spricht von „bewussten Re- A. Formalisierung des Rechts? 73 nun im Einzelfall dem Umkehr- oder dem Analogieschluss der Vorzug zu geben ist, beruht auf einer wertenden Entscheidung.368 Fähigkeit zur (wertenden) Entscheidung Wenn keine logischen Ableitungen mehr möglich sind, können Menschen zur Entscheidungsfindung auf ihre Lebenserfahrung zurückgreifen.369 Denn sie werden im Laufe ihres Lebens durch ihr soziales Umfeld und persönliche Begebenheiten geprägt.370 Daraus resultiert ein individuelles Vorverständnis371, das auch Richter in ihre Entscheidungsfindung einbringen.372 Bei ihnen bezieht sich das notwendige Vorverständnis neben der „Sache Recht“ insbesondere auf die sozialen Zusammenhänge, die Interessenlagen und die Strukturen der Lebensverhältnisse, die Gegenstand der rechtlichen Regelung sind.373 Das von Person zu Person unterschiedliche Vorverständnis kann zu verschiedenen Wertungsergebnissen führen, ohne dass daraus auf Beliebigkeit geschlossen werden könnte.374 Denn die Interpretation von Texten wird durch die Fähigkeiten, Motive, Erfahrungen und das implizite, das heißt nicht zu verbalisierende, Wissen des Rechtsanwenders beeinflusst.375 Wiederum begrenzt wird die Entfaltung des Vorverständnisses in Bezug auf die richterliche Entscheidungsfindung durch die Bindung an Gesetz und Recht, das nach den anerkannten Methoden376 auszulegen ist.377 Eine Lösung ist vertretbar, wenn mindestens genauso plausible Argumente für wie gegen ihre Richtigkeit sprechen.378 Hingegen 2. gelungslücken“. Kramer, Juristische Methodenlehre, S. 220, und Röhl/Röhl, Allgemeine Rechtslehre, S. 633, sprechen von „beredte[m] Schweigen des Gesetzes“. 368 Kramer, Juristische Methodenlehre, S. 221 ff.; Zippelius, Juristische Methodenlehre, S. 89. 369 Larenz, Methodenlehre der Rechtswissenschaft, S. 217. 370 Hirsch, ZRP 2009, 61 (61). 371 Hierzu II. Die juristische Hermeneutik. 372 Hirsch, ZRP 2009, 61 (61); kritisch im Hinblick auf unbewusste Vorurteile: Jäger, DRiZ 2018, 24 ff. 373 Larenz, Methodenlehre der Rechtswissenschaft, S. 209. 374 Buchholtz, JuS 2017, 955 (957); Hoffmann-Riem, AöR 142 (2017), 1 (27 f.). 375 Buchholtz, JuS 2017, 955 (957); Hoffmann-Riem, AöR 142 (2017), 1 (27 f.). 376 Hierzu II. Die juristische Hermeneutik. 377 Hirsch, ZRP 2009, 61 (61). 378 Larenz, Methodenlehre der Rechtswissenschaft, S. 294; ähnlich Zippelius, Juristische Methodenlehre, S. 82. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 74 stoßen Computer an ihre Grenzen, sobald keine logischen Ableitungen mehr möglich sind. Dies betrifft zum einen die Bildung eines auf Erfahrung gründenden Elementarurteils und zum anderen wertende Entscheidungen. Computer sind bislang nicht in der Lage, ein so breites Vorverständnis zu entwickeln, dass es dem eines Menschen auch nur nahekommt. Während Computer heutzutage in Spezialdisziplinen dominieren und Menschen beispielsweise beim Schachspielen überlegen sind, sind Menschen Generalisten, die zahlreiche Fähigkeiten auf sich vereinigen.379 Sie können gesunden Menschenverstand und Hintergrundwissen aus diversen Bereichen besitzen.380 Dies führt dazu, dass Menschen, anders als Computer, die jede noch so absurde Information wiedergeben, wenn sie an der abzulesenden Stelle der Datenbank hinterlegt ist, Informationen mit ihrem „inneren Kompass“ abgleichen.381 Etwa wird ein Wetterprognosesystem eine Höchsttemperatur von 500 Grad Celsius ankündigen, wenn der zugrunde liegende Datensatz diesen Eintrag an der Stelle enthält, auf die der Algorithmus bestimmungsgemäß zugreift.382 Ein Mensch würde dies als unrealistisch beziehungsweise offensichtlich fehlerhaft verwerfen. Machte man sich daran, einen dem des Menschen vergleichbaren Erfahrungsschatz durch determinierte Programmierung in einen Computer zu implementieren, würde ein solches Vorhaben nicht nur an der Fülle der Sachinformationen scheitern. Denn Menschen sammeln im Laufe einiger Jahrzehnte vielfältige Erfahrungen. Auch nützen abgespeicherte Informationen nichts, wenn sie jeweils nur für sich und nicht untereinander in Beziehung stehen. Die Notwendigkeit von Querverbindungen und Nuancierungen, die bis ins Unendliche reichen, verdeutlicht die Aussichtslosigkeit eines Implementierungsversuchs. Auch durch maschinelles Lernen kann bislang kein so breiter Erfahrungsschatz aufgebaut werden, dass dieser mit dem menschlichen Vorverständnis vergleichbar und in ähnlicher Weise nutzbar wäre. Künstliche neuronale Netze können sich zwar durch beständiges Lernen neuen Situationen anpassen.383 Allerdings „vergessen“ sie die Lösung alter Aufgaben („catastrophic forgetting“), wenn sie auf eine neue trainiert werden.384 379 Lenzen, Künstliche Intelligenz, S. 32 f. 380 Lenzen, Künstliche Intelligenz, S. 47 f. 381 Lenzen, Künstliche Intelligenz, S. 48. 382 Lenzen, Künstliche Intelligenz, S. 47 f. 383 Lenzen, Künstliche Intelligenz, S. 62. 384 Lenzen, Künstliche Intelligenz, S. 62. A. Formalisierung des Rechts? 75 Künstliche neuronale Netze bauen also nicht mehr als ein bloßes Inselwissen auf.385 Hingegen lernen Menschen, wenn sie lernen, zumeist dazu.386 Hinzu kommt, dass sich das Textverständnis von Computern noch immer als unzureichend erweist387, so dass darauf basierende Elementarurteile – jedenfalls derzeit noch – (zu) häufig dem Zufall geschuldet sind. Zwar ermöglicht das maschinelle Lernen Computern mittlerweile eine mal mehr und mal weniger zuverlässige Zuordnung von Bildern oder Zeichen zu Begriffen.388 Daher ist es zumindest denkbar, dem Computer darüber auch gewisse Elementarurteile zu implementieren, indem er diese durch Datenauswertung lernt. Jedoch ist das textbezogene maschinelle Lernen wesentlich anspruchsvoller als die Bilderkennung.389 Werturteile lassen sich nicht formal abbilden.390 Sie können nicht logisch stringent im Sinne eines mathematischen oder physikalischen Beweises begründet werden, sondern nur durch nachvollziehbare, mit der Rechtsordnung in Einklang stehende Erwägungen.391 Außerdem verläuft der gedankliche Prozess der Zuordnung eines Lebensvorgangs zu einem unbestimmten Rechtsbegriff nicht linear in einer Richtung, sondern in wechselnden Richtungen.392 Der zu entscheidende Fall wird mit solchen Fällen verglichen, die vom Anwendungsbereich der Norm umfasst sind, um zu bewerten, ob er dem gesetzlichen Begriff (noch) zuzuordnen ist.393 Dabei wechselt der Blick zwischen dem allgemeinen Rechtsgedanken und den nach ihm beurteilten Fällen.394 Damit besteht das gleiche Mangelnde- 385 Allerdings wird an der Entwicklung eines maschinellen Gedächtnisses geforscht, das etwa aus mehreren spezialisierten Netzwerken und einem Obernetzwerk bestehen könnte, vgl. Lenzen, Künstliche Intelligenz, S. 62. 386 Lenzen, Künstliche Intelligenz, S. 62. 387 Hierzu I. Die Semantik natürlicher Sprache. 388 Beispielsweise bieten Autohersteller mittlerweile eine automatische Verkehrszeichenerkennung für Kraftfahrzeuge an. Forscher der Fraunhofer-Gesellschaft stellten allerdings bei der Untersuchung zweier Programme, die versprachen, Pferde auf Bildern zu erkennen, fest, dass zwar eines der beiden Programme tatsächlich Pferde erkennen konnte, das andere jedoch auf die Copyrightangaben zurückgriff, die u. a. auf Foren für Pferdeliebhaber hinwiesen, so dass dieses Programm tatsächlich nie gelernt hat, wie Pferde aussehen, vgl. Rommel, Watching Computers think, Pressemitteilung der Fraunhofer-Gesellschaft vom 1. Februar 2017. 389 Lenzen, Künstliche Intelligenz, S. 59. 390 Ebenso Zippelius, Juristische Methodenlehre, S. 89. 391 Larenz, Methodenlehre der Rechtswissenschaft, S. 293. 392 Larenz, Methodenlehre der Rechtswissenschaft, S. 292. 393 Zippelius, Juristische Methodenlehre, S. 58. 394 Larenz, Methodenlehre der Rechtswissenschaft, S. 292. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 76 Logik-Problem wie im Hinblick auf die Subsumtion.395 Computer sind nur in der Lage, einen (logischen) Programmcode abzuarbeiten.396 Dabei gehen sie nicht abwägend, sondern schematisch vor.397 Alles, was nicht explizit geregelt ist, können sie nicht verarbeiten.398 Wertende Betrachtungen sind aber mit einfachen Wenn-Dann-Zuordnungen nicht darstellbar.399 Konsequenz ist, dass in Fällen, in denen über die Zuordnung eines Sachverhalts zu einem Typusbegriff zu entscheiden ist, ein Verstoß gegen den Gleichheitssatz bereits angelegt ist, wenn dem Computer die Entscheidung gleichwohl überlassen wird. Denn der typisierende Fallvergleich trägt dem Gleichheitsgrundsatz Rechnung, wonach wesentlich Gleiches gleich und wesentlich Ungleiches ungleich behandelt werden soll.400 Da der Computer eine Wertung nicht leisten kann, setzt seine schematische Bearbeitung die Vorab-Zuordnung des Sachverhalts zum Typusbegriff voraus. Zwar wird teilweise vertreten, dass zumindest lernfähige Systeme durch die Übernahme von Ermessenserwägungen aus den Trainingsdaten auch selbst Ermessensentscheidungen treffen könnten.401 Dies ist aber zu bezweifeln. Denn die Kriterien und damit auch das Ergebnis eines autonomen Systems stehen bereits vor seiner Befassung mit dem Einzelfall fest (auch wenn der Mensch es nicht vorhersagen kann402). Eine echte Abwägung erfolgt damit nicht. Die „Ermessensausübung“ erschöpft sich vielmehr in einer statistischen Auswertung der Ergebnisse von Abwägungsprozessen aus früheren Beispielsverfahren, die als Trainingsdaten im Pool enthalten sind. Hinzu kommt, dass bei der Suche nach übergeordneten Prinzipien die besonderen Umstände des Einzelfalls notwendigerweise in den Hintergrund treten. Wenn der Blick für den Einzelfall verschwimmt, widerspricht dies jedoch dem Sinn von Ermessensvorschriften, mit denen der Gesetzgeber dem Rechtsanwender einen Entscheidungsspielraum zu- 395 Hierzu III. Formale Logik und Subsumtion. 396 Kaulartz/Heckmann, CR 2016, 618 (623). 397 Engel, JZ 2014, 1096 (1100). 398 Paulus/Matzke, CR 2017, 769 (772). 399 Vgl. Enders, JA 2018, 721 (725); ferner Grupp, AnwBl 2014, 660 (664): „Auslegungsbedürftige Tatbestandsmerkmale erfordern nuancierte und flexible Formalisierungen, wie sie nur begrenzt möglich sind“; ders., 25 facts about AI & Law you always wanted to know (but were afraid to ask), Medium vom 7. April 2019: „As soon as an application requires semantic reasoning, we are stuck“. 400 Zippelius, Juristische Methodenlehre, S. 59. 401 So Guggenberger, NVwZ 2019, 844 (848) m. w. N. 402 Hierzu Kapitel 1) A.II. Autonome Systeme. A. Formalisierung des Rechts? 77 billigen will.403 Raum für den Computereinsatz bleibt aber dort, wo einzelne Teiloperationen aus den rechtlichen Erwägungen herausgelöst und in exakte Schritte zerlegt werden können, ohne dass eine Bewertung vorzunehmen wäre.404 Hierzu zählen insbesondere mathematische Berechnungen.405 Auch ist es nicht ausgeschlossen, Ergebnisse von generalisierbaren Wertungsentscheidungen in einer Programmierung abzubilden. Denn der Funktionsweise eines determinierten Programms kann durchaus eine bestimmte Rechtsansicht zugrunde gelegt werden. Dies soll an einer Norm aus dem Bereich der Prozesskostenhilfe verdeutlicht werden: Der § 115 Abs. 1 Satz 1 ZPO sieht grundsätzlich vor, dass die Parteien eines Zivilrechtsstreits zur Finanzierung des Prozesses ihr Einkommen einsetzen. § 115 Abs. 1 Satz 3 ZPO regelt wiederum, welche Beträge hiervon im Rahmen der Prüfung der wirtschaftlichen Verhältnisse einer Partei abzusetzen sind. Darunter fallen gemäß § 115 Abs. 1 Satz 3 Nr. 3 ZPO u. a. die Kosten der Unterkunft und Heizung, soweit sie nicht in einem auffälligen Missverhältnis zu den Lebensverhältnissen der Partei stehen. In welchen Konstellationen ein auffälliges Missverhältnis in diesem Sinne angenommen wird, kann als verallgemeinernde, feststehende Wertung programmiert werden. Denn soweit beispielsweise ein auffälliges Missverhältnis zwischen den Unterkunftskosten und den Lebensverhältnissen der Partei dann angenommen wird, wenn bei durchschnittlichen Einkommensverhältnissen die Unterkunftskosten die Hälfte des Netto-Einkommens übersteigen406, lässt sich dies formal-logisch abbilden. 403 Der Gesetzgeber traut Computern wertende Entscheidungen bislang ebenfalls nicht zu, vgl. § 35a VwVfG, wonach ein Verwaltungsakt nur dann vollständig durch automatische Einrichtungen erlassen werden kann, wenn weder ein Ermessen noch ein Beurteilungsspielraum besteht, wobei auch noch die Zulassung durch Rechtsvorschrift erforderlich ist. 404 Zippelius, Juristische Methodenlehre, S. 91 f. Auch W. Kilian, Juristische Entscheidung und elektronische Datenverarbeitung, S. 252, sieht Anwendungsbereiche für Computerunterstützungen nur für formal modellierbare Teilphasen des juristischen Entscheidungsprozesses. 405 Zippelius, Juristische Methodenlehre, S. 91 f. 406 So OLG Brandenburg, Beschluss vom 16. Oktober 2000 – 9 WF 187/00, juris Rn. 6; Schultzky, in: Zöller, ZPO, § 115 Rn. 41. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 78 Bedeutung der methodischen Probleme für die (zukünftige) Praxis Vor dem Hintergrund der fortschreitenden Entwicklung lassen sich die zukünftigen Grenzen technologischer Entscheidungsfindung nicht in verlässlicher Weise abschätzen.407 Es ist daher trotz der geäußerten Bedenken nicht auszuschließen, dass zumindest einige der vorstehend angesprochenen Probleme eines Tages gelöst werden. Um Computer zu befähigen, Subsumtionsvorgänge selbstständig zu bewältigen, müsste es zuvor allerdings gelingen, ihnen semantisches Verständnis, ein dem Menschen zumindest vergleichbares Vorverständnis sowie eine nicht lineare Vorgehensweise zu implementieren. Bislang ist dies nicht gelungen. Vielfach wird eine Formalisierung des Rechts angesichts dieser Problematiken ausgeschlossen.408 Allerdings erscheint eine Automatisierung im Hinblick auf einfache Regelanwendungen durchaus möglich, nämlich wenn sich Tatbestandsmerkmale auf eindeutige Schemata reduzieren lassen.409 Für die vorliegende Bearbeitung kommt es darauf, was der technische Fortschritt in der Zukunft bringen mag, aus zwei Gründen nicht entscheidend an. Deshalb kann im Ergebnis dahinstehen, ob die juristische Methodenlehre einer vollständigen Formalisierung des Rechts beziehungsweise der Entwicklung eines „Subsumtionsautomaten“ entgegensteht. Erstens rückt bei massenhaft wiederkehrenden Konstellationen die Rechtsfindung für den Einzelfall insofern in den Hintergrund, als dass hier auch ohne Technik schablonenartig unter Zuhilfenahme von Textbausteinen operiert wird. Dies betrifft gleichartige Konstellationen, das heißt Fälle, in denen nur die wesentlichen Daten, insbesondere Zahlen auszutauschen sind und daraus eindeutige Schlüsse gezogen werden können. Schematische Übertragungen erfordern keine vom Computer zu treffenden Elementarurteile oder Wertungen. Vielmehr dienen sie dazu, die für eine bestimmte, sich wiederholende Konstellation gefundenen Auslegungsergebnisse als generalisierbares Wertungsergebnis auf eine Vielzahl gleichartiger Fälle zu übertragen.410 Solche Übertragungen sind keine neue Erfindung, sondern kom- V. 407 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 48 f.; Hoffmann-Riem, AöR 142 (2017), 1 (3); Klaas, MMR 2019, 84 (87). 408 So Buchholtz, JuS 2017, 955 (958); Kotsoglou, JZ 2014, 451 (452 ff.); Larenz, Methodenlehre der Rechtswissenschaft, S. 214; Zippelius, Juristische Methodenlehre, S. 87 ff. 409 Vgl. Grupp, AnwBl 2014, 660 (664). 410 Beispiele für schematische Anwendungen werden an späterer Stelle noch näher untersucht, siehe Kapitel 4) B.I. Prozesskostenhilferechner und Kapitel 4) C.I. Fluggastentschädigungsrechner. A. Formalisierung des Rechts? 79 men in der Praxis bereits vor. Nichts anderes stellt etwa die Wiederverwendung und Anpassung eines früheren Urteilstextes beziehungsweise einer selbst erstellten Urteilsvorlage dar. Vom Menschen gesteuerte schematische Übertragungen verlangen dem Computer weder ein semantisches Verständnis noch eine Auslegung noch eine Subsumtion ab. Wertungsund Auslegungsergebnisse gibt der Mensch durch seine Programmierung vor. Die Übertragung folgt seiner Einschätzung, dass es sich bei dem zu entscheidenden Einzelfall um eine passende Konstellation handelt. Es folgt nur noch eine technisch-logische Umsetzung. Hierzu sind Computer ohne Weiteres in der Lage, da sie logischen Strukturen folgen. Der zweite Grund folgt aus einer praktischen Erwägung: Die technische Weiterentwicklung lässt in der Praxis den zunehmenden Einsatz von technischen Hilfsmitteln ohne Rücksicht auf technisch-logische Grenzen erwarten. So werden bereits heute Prozesskostenhilferechner und andere Berechnungshilfen verwendet. Zudem lassen häufig wiederkehrende Konstellationen wie die Bearbeitung von Verfahren betreffend Fluggastrechteentschädigungen eine technisch basierte Abwicklung attraktiv erscheinen; dies nicht zuletzt deshalb, weil sich auch Legal Tech-Unternehmen technischer Hilfe bei der massenhaften Geltendmachung von Ansprüchen bedienen. Abhängigkeit von der Datenqualität und Problem unstrukturierter Daten Zwar können Datenverarbeitungsprogramme sich bei der Sachverhaltsermittlung als äußerst effizient erweisen, weil sie in der Lage sind, große Datenmengen schneller auszuwerten als es Menschen gelänge.411 Allerdings können Daten nur dann verarbeitet werden, wenn sie überhaupt zur Verfügung stehen.412 Fehlen Daten, etwa weil sich neue Problemfelder eröffnen, stoßen selbst autonome Systeme an ihre Grenzen.413 Es fehlt ihnen die Grundlage ihrer Bearbeitung. Liegen Daten zwar vor, ist die Datenbasis aber gleichwohl nicht ausreichend breit aufgestellt, um Regeln zu erler- B. 411 Fritz, Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, S. 14; Stiemerling, CR 2015, 762 (763 f.). 412 Keßler, MMR 2017, 589 (589); Lenzen, Künstliche Intelligenz, S. 60. 413 Dreyer/Schmees, CR 2019, 758 (759 f.); ferner Wahlster bei Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015: „Wenn Unsicherheit, Vagheit und wenig Erfahrungswerte eine Problemstellung dominieren […], haben heutige KI-Systeme kaum Chancen“. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 80 nen, drohen Verzerrungen und somit fehlerhafte Ergebnisse.414 Wird ein System mit Fotos von grünen Äpfeln trainiert, wird es rote Äpfel nicht einordnen können.415 Ferner sind Datenverarbeitungsprogramme abhängig von der Qualität der Daten.416 Rechtsanwender sehen sich ständig unvollständigen Informationen und Unsicherheiten im Hinblick auf die Verlässlichkeit der vorliegenden Informationen ausgesetzt.417 Diese Probleme werden durch eine Automatisierung nicht gelöst, sondern allenfalls auf den Computer verlagert. Enthält der zu beurteilende Sachverhalt Lücken, können diese nicht durch Algorithmen erkannt oder gar geschlossen werden.418 Während Daten, denen zu entnehmen ist, an welcher Stelle einer Ordnung sie stehen (sogenannte strukturierte Daten), vom Computer leicht zu verarbeiten sind,419 erweisen sich unstrukturierte Daten als besondere Herausforderung. Unstrukturierte Daten sind solche, die nicht eindeutig – etwa in einer Tabelle mit klar vorgegebenen Spalten – definiert sind420, also nicht für den Computer aufbereitet wurden.421 Dazu zählen Texte, Bilder und Filme.422 Im juristischen Kontext bewegen sie sich in erster Linie im Spannungsfeld zwischen ausformulierten Texten und dem Erfordernis einer präzisen Erfassung ihres Sinngehaltes.423 Zwar wird die Fähigkeit von Computern, auch unstrukturierte Daten zu verarbeiten, stetig verbessert.424 Ein Durchbruch im Hinblick auf ein echtes Sinnverständnis zeichnet sich jedoch bislang nicht ab. 414 Dreyer/Schmees, CR 2019, 758 (759 f.); Lenzen, Künstliche Intelligenz, S. 60; Zweig, Überprüfbarkeit von Algorithmen, AlgorithmWatch vom 7. Juli 2016. 415 Lenzen, Künstliche Intelligenz, S. 60. 416 Ehinger/Stiemerling, CR 2018, 761 (762). 417 Glöckner/Towfigh, DRiZ 2015, 270 (270). 418 Fritz, Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, S. 14. 419 Lenzen, Künstliche Intelligenz, S. 47. 420 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 54. 421 Lenzen, Künstliche Intelligenz, S. 47. 422 Lenzen, Künstliche Intelligenz, S. 47. 423 Von Bünau, in: Breidenbach/Glatz, RHB Legal Tech, S. 54. 424 Lenzen, Künstliche Intelligenz, S. 47. B. Abhängigkeit von der Datenqualität und Problem unstrukturierter Daten 81 Simulation von Gefühlen? Maschinen kennen kein Bewusstsein im menschlichen Sinne – dies wäre aber Voraussetzung für die Fähigkeit, Gefühle zu empfinden.425 Zwar beschäftigt sich ein ganzer Forschungszweig mit der Entwicklung sogenannter Self-aware Computing Systems.426 Allerdings befasst sich dieser mit den Funktionen, die das Bewusstsein für den Menschen hat, nicht mit dem Erleben als solchem.427 Zudem erleben Maschinen weder Angst noch Freude.428 Auch Ironie und Sarkasmus sind ihnen fremd.429 Sie sind aufgrund ihrer Programmierung allenfalls in der Lage, Emotionen zu imitieren.430 Um diese sinnvoll einzusetzen, müsste wiederum der Computer in der Lage sein, entsprechende Stimmungen beim Menschen wahrzunehmen; eine Fähigkeit, die ebenfalls in das Programm implementiert werden müsste. Daher nimmt die Eignung maschineller Entscheidungsverfahren ab, je höher die Bedeutung sozialer und emotionaler Faktoren für die zu treffende Entscheidung ist.431 Algorithmen besitzen weder Intuition432 noch Empathie.433 Für Computer ist es daher nahezu unmöglich, eine situationsoder problemangemessene Lösung zu finden.434 Nicht nur bei der Bearbeitung von Familienstreitigkeiten oder bei Vergleichsverhandlungen ist aber ein gewisses Einfühlungsvermögen gefragt. Auch Beweisaufnahmen erfordern ein Mindestmaß an Empathie. Einerseits gehen Zeugen mit der Situation einer richterlichen Vernehmung unterschiedlich um. Während erfahrene Zeugen die Situation teilweise gelassen nehmen, kann eine Verneh- C. 425 Lenzen, Künstliche Intelligenz, S. 132 und 134. 426 Hierzu Lewis et al., Self-aware Computing Systems. 427 Lenzen, Künstliche Intelligenz, S. 133 f. 428 Lenzen, Künstliche Intelligenz, S. 129. 429 Lenzen, Künstliche Intelligenz, S. 66. 430 Lenzen, Künstliche Intelligenz, S. 133. 431 Wahlster bei Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015, äußert sich hierzu wie folgt: „Wenn […] soziale und emotionale Faktoren eine wesentliche Rolle bei der Problemlösung spielen, haben heutige KI-Systeme kaum Chancen“. 432 Martini, DVBl 2014, 1481 (1485). 433 Hoffmann-Riem, AöR 142 (2017), 1 (30). Allerdings wird der Cataphora Software bereits zugeschrieben, zu differenzieren, ob der Sender einer E-Mail-Nachricht positive oder negative Gefühle zum Ausdruck gebracht hat, vgl. Markoff, Armies of Expensive Lawyers, Replaced by Cheaper Software, The New York Times vom 4. März 2011. 434 Hoffmann-Riem, AöR 142 (2017), 1 (30 f.). Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 82 mung für Personen, die sie nicht gewohnt sind, erheblichen emotionalen Stress bedeuten. Hier ist der Richter gehalten, auf den Zeugen einzugehen. Außerdem obliegt es dem Gericht, die Glaubwürdigkeit des Zeugen zu beurteilen, die maßgeblich von seinem persönlichen Eindruck vom Zeugen abhängt. Keine Lösungen außerhalb der Programmvorgaben Legal Tech-Anwendungen bewegen sich stets innerhalb ihrer Programmvorgaben. Bei determinierten Programmen ist dies offensichtlich. Sie können nicht von ihrer Programmierung abweichen.435 Hingegen sind lernende Systeme zwar durchaus in der Lage, sich neuen Situationen anzupassen.436 Die Anpassungsfähigkeit beruht jedoch wiederum auf der vorangegangenen Programmierung. Sie sind nicht in der Lage, über ihre Programmvorgaben hinauszugehen.437 Maschinen können sich derzeit noch nicht unabhängig von der menschlichen Programmierung weiterentwickeln und ihre eigenen Programme selbstständig weiterschreiben.438 Insofern handeln auch selbstlernende Systeme nicht gänzlich autonom, sondern stets innerhalb des durch ihren Schöpfer vorgegebenen Rahmens.439 D. 435 Ernst, JZ 2017, 1026 (1028). 436 Hoffmann-Riem, AöR 142 (2017), 1 (3 und 30). 437 Lenzen, Künstliche Intelligenz, S. 124 ff. 438 Hoffmann-Riem, AöR 142 (2017), 1 (3). 439 Dräger, Wir führen in Deutschland eine falsche KI-Debatte, Handelsblatt vom 4. April 2019; Herberger, NJW 2018, 2825 (2827); Reichertz, Algorithmen als autonome Akteure?, SozBlog vom 24. Februar 2013, führt hierzu Folgendes aus: „Selbst dann, wenn sie unerwartete Entscheidungen treffen, wenn sie scheinbar allein mit anderen Algorithmen ‚interagieren‘ (also wenn scheinbar nur noch die Maschinen aufeinander reagieren) und wenn sie Folgen produzieren, die niemand wollte und voraussehen konnte […], selbst dann bewegen sie sich in der Sinnhaftigkeit der Erzeuger der Algorithmen. Der Algorithmus ist also eine spezifische Form, mit der Menschen Maschinen bestimmte Befehle geben. Wenn also Menschen sich entscheiden, bestimmten Algorithmen die Lösung von bestimmten Aufgaben zu überlassen, dann handeln die Algorithmen nicht selbstständig, sondern sie sind lediglich der erweiterte und ausgelagerte ‚Arm‘ des Menschen oder die mathematisch codierte und niedergelegte Entscheidung, in einem bestimmten Fall sehr schnell etwas Bestimmtes zu tun. Algorithmen sind also in keiner Weise eigenständig (nur automatisch) und wenn Algorithmen ‚entscheiden‘, tun sie das nur so und nur auf diese Weise, die ihnen ihr menschlicher Programmierer mit[-] und eingeschrieben hat“. D. Keine Lösungen außerhalb der Programmvorgaben 83 Damit ist ein grundlegendes Problem technologischer Entscheidungsfindung angesprochen: Eine Weiterentwicklung des Rechts beziehungsweise eine Rechtsfortbildung durch Legal Tech-Anwendungen ist ausgeschlossen.440 Während das Recht durch Rechtsprechung und Lehre ständig weiterentwickelt wird, birgt der Rückgriff auf in der Vergangenheit liegende Daten die Gefahr, dass gesellschaftliche Veränderungen bei der Rechtsanwendung nicht mehr berücksichtigt werden und eine an sich gebotene Rechtsfortbildung ausbleibt.441 Es droht eine „rückwärtsgewandte[…] Rechtsprechung“.442 Hierauf wird zurückzukommen sein.443 Zwischenergebnis Im Zuge der Digitalisierung der Justiz sind die Stärken (hohe Rechenleistung) und Schwächen des Computers (fehlendes semantisches Verständnis, Beschränkung auf strenge Logik, Abhängigkeit vom Vorhandensein möglichst strukturierter Daten, mangelndes Einfühlungsvermögen) in den Blick zu nehmen. Computer werden keine neuen Auslegungsvarianten, keine kreativen Lösungen für Rechtsfälle entwickeln. Sie führen nur das aus, was ihre Entwickler sie angewiesen haben zu tun. Dies gilt selbst dann, wenn die Anweisung lautet, eigene Regeln zu entwickeln und anzuwenden, die die Entwickler selbst nicht mehr nachvollziehen können. Die Verwendung von Computern ist aber dort sinnvoll, wo sie wiederkehrende Konstellationen, bei denen die Rechtsfindung für den Einzelfall in den Hintergrund rückt, schematisch abarbeiten können. E. 440 Buchholtz, JuS 2017, 955 (959). 441 Fritz, Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, S. 22 f. 442 Specht MMR 2019, 153 (157); weniger kritisch sieht dies Heckelmann, NJW 2018, 504 (509 f.). 443 Siehe unter Kapitel 3) A.V.4. Problematik einer determinierenden Wertentscheidung. Kapitel 2) Prinzipielle Grenzen technologischer Entscheidungsfindung im Recht 84 Zulässige und unzulässige Anwendungen von Legal Tech im Lichte übergeordneter Prinzipien Während das deutsche Zivilprozessrecht die Heranziehung von Legal Tech zur richterlichen Entscheidungsfindung zwar nicht ausschließt, aber auch nicht darauf ausgerichtet ist, stellt die verfassungsrechtlich garantierte Unabhängigkeit der Gerichte hohe Hürden dafür auf. Diese verfassungsrechtliche Garantie wird zunächst in ihren Grundlagen dargestellt. Sie umfasst die Frage, ob Gerichte aus eigenem Antrieb auf ihre richterliche Unabhängigkeit verzichten dürfen, um Verfahren einer automatisierten Entscheidung zuzuführen, oder ob der Verzicht zugleich eine Verletzung der Garantie bedeutet (die gegebenenfalls sogar dienstaufsichtsrechtliche oder strafrechtliche Konsequenzen haben kann). Es folgt die Untersuchung, unter welchen Bedingungen ein zulässiger Einsatz von Legal Tech im Zivilprozess in Betracht kommen kann. Soll eine automatisierte Anwendung nicht lediglich als bloßes Hilfswerkzeug eingesetzt werden, sondern die Einzelfallentscheidung des Gerichts ersetzen, ist danach zu differenzieren, ob das Gericht die Funktionsweise der automatisierten Anwendung nachvollziehen kann. Insoweit ist zwischen determinierten Programmen, bei denen eine Nachvollziehbarkeit vorliegen kann, und autonomen Systemen, bei denen dies ausgeschlossen ist, zu unterscheiden. Zur Wahrung der richterlichen Unabhängigkeit wird hier die Einrichtung eines Zertifizierungsverfahrens für determinierte Programme vorgeschlagen. Der Einsatz von Legal Tech im Zivilprozess ist daneben an weiteren, der Zivilprozessordnung übergeordneten Prinzipien wie der Garantie des gesetzlichen Richters (Art. 101 Abs. 1 Satz 2 GG) und dem Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG), aber auch an dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG), dem allgemeinen Gleichheitssatz (Art. 3 Abs. 1 GG) und den Vorgaben der DS-GVO zu messen. Unabhängigkeit der Gerichte Die richterliche Unabhängigkeit dient dem Schutz der Verfahrensbeteiligten vor staatlichen Eingriffen und ist damit ein elementarer Bestandteil des Rechtsstaats. Sie ist Bedingung für die Gewährung eines effektiven Rechts- Kapitel 3) A. 85 schutzes.444 Das Bundesverfassungsgericht leitet die Unabhängigkeit der Gerichte aus Artt. 20 Abs. 2445 und 3446, 92447, 97448 GG ab.449 Durch die Bezugnahme auf Art. 20 Abs. 3 GG, wonach die Rechtsprechung (nur) an Gesetz und Recht gebunden ist, ist ihr Wesensgehalt nach der „Ewigkeitsklausel“ des Art. 79 Abs. 3 GG einer Verfassungsänderung entzogen und darf demnach auch durch eine Änderung des Grundgesetzes nicht abgeschafft werden.450 Rechtsprechende Gewalt Die rechtsprechende Gewalt ist nach Art. 92 GG den Richtern anvertraut. Dem Gesetzgeber ist es daher grundsätzlich verwehrt, Angelegenheiten, die die Rechtsprechung im Sinne des Art. 92 GG betreffen, anderen Stellen als Gerichten zuzuweisen.451 Ob eine Tätigkeit rechtsprechende Gewalt im Sinne des Art. 92 GG ist, hängt von verfassungsrechtlichen Vorgaben sowie von traditionellen oder durch den Gesetzgeber selbst vorgenommenen Qualifizierungen ab.452 Materielle Reichweite der rechtsprechenden Gewalt Wesentliches Element der Rechtsprechung ist die Entscheidung im Sinne der Feststellung und des Ausspruchs dessen, was in einem konkreten Fall I. 1. 444 Detterbeck, in: Sachs, GG, Art. 97 Rn. 1 und 11b; Papier, NJW 1990, 8 (9 f.). 445 Nach Art. 20 Abs. 2 Satz 2 GG wird die Staatsgewalt durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausgeübt. 446 Gemäß Art. 20 Abs. 3 GG ist die Rechtsprechung an Gesetz und Recht gebunden. 447 Nach Art. 92 GG ist die rechtsprechende Gewalt den Richtern anvertraut. 448 Danach sind Richter unabhängig und nur dem Gesetz unterworfen. 449 BVerfG, Beschluss vom 20. April 1982 – 2 BvL 26/81, BVerfGE 60, 253, juris Rn. 144. 450 Detterbeck, in: Sachs, GG, Art. 97 Rn. 6; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 2; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 2. 451 BVerfG, Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 95. 452 BVerfG, Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 96; Morgenthaler, in: BeckOK GG, Art. 92 Rn. 6. Kapitel 3) Zulässige und unzulässige Anwendungen 86 rechtens ist.453 Allerdings ist der Rechtsprechungsbegriff bislang nicht abschließend geklärt.454 In materieller Hinsicht wird die rechtsprechende Gewalt in erster Linie durch verfassungsrechtliche Zuweisungen in Einzelvorschriften des Grundgesetzes455 bestimmt.456 Insoweit werden Bürgerliche Rechtsstreitigkeiten und die Strafgerichtsbarkeit im Grundgesetz zwar nicht ausdrücklich erwähnt. Allerdings zählen sie als traditionelle Kernbereiche der Rechtsprechung ebenfalls zur rechtsprechenden Gewalt im materiellen Sinne des Art. 92 GG.457 Ferner kann ein nicht bereits in materieller Hinsicht zur rechtsprechenden Gewalt gehörender Sachbereich dem Rechtsprechungsbegriff unterfallen, wenn der Gesetzgeber eine Ausgestaltung wählt, die bei funktionaler Betrachtung nur rechtsprechende Gewalt darstellen kann.458 In diesem funktionellen Sinne handelt es sich um Rechtsprechung, „wenn der Gesetzgeber ein gerichtsförmiges Verfahren hoheitlicher Streitbeilegung vorsieht und den dort zu treffenden Entscheidungen eine letztverbindliche Rechtswirkung verleiht, die nur unabhängige Gerichte herbeiführen können“.459 Nicht zur rechtsprechenden Gewalt zählen hingegen Akte der Justizverwaltung.460 Diese dienen der Verwirk- 453 BVerfG, Beschluss vom 28. November 1957 – 2 BvL 11/56, BVerfGE 7, 183, juris Rn. 24, Beschluss vom 27. April 1971 – 2 BvL 31/71, BVerfGE 31, 43, juris Rn. 16, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 97. 454 Vgl. BVerfG, Beschluss vom 14. Oktober 1958 – 1 BvR 510/52, BVerfGE 8, 197, juris Rn. 38, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 96; Morgenthaler, in: BeckOK GG, Art. 92 Rn. 6; Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 25. 455 Vgl. Artt. 13 Abs. 2, 14 Abs. 3 Satz 4, 15 Satz 2, 18, 19 Abs. 4, 21 Abs. 4, 34 Satz 3, 41 Abs. 2, 61, 93, 95, 96, 98 Abs. 2 und 5, 100, 104 Abs. 2 und 3, 126, 132 Abs. 3 GG. 456 BVerfG, Urteil vom 6. Juni 1967 – 2 BvR 375/60, BVerfGE 22, 49, juris Rn. 97, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 96. 457 BVerfG, Beschluss vom 14. Oktober 1958 – 1 BvR 510/52, BVerfGE 8, 197, juris Rn. 38, Beschluss vom 9. Mai 1962 – 2 BvL 13/60, BVerfGE 14, 56, juris Rn. 31, Urteil vom 6. Juni 1967 – 2 BvR 375/60, BVerfGE 22, 49, juris Rn. 101, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 97; Classen, in: v. Mangoldt/Klein/Stark, GG, Art. 92 Rn. 7; Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 33; Wolff, in: Hömig/Wolff, GG, Art. 92 Rn. 3. 458 BVerfG, Beschluss vom 23. Juni 1987 – 2 BvL 5/83, BVerfGE 76, 100, juris Rn. 18, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 97. 459 BVerfG, Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 97. 460 Köhnlein, in: BeckOK GVG, § 23 EGGVG Rn. 17; Pabst, in: MünchKomm-ZPO, § 23 EGGVG Rn. 5; Rathmann, in: Saenger, ZPO, § 23 EGGVG Rn. 1. A. Unabhängigkeit der Gerichte 87 lichung von Verwaltungszwecken.461 Wiederum zur Rechtsprechung zählen hingegen verfahrensleitende und -fördernde Maßnahmen des Gerichts.462 In gewissem Umfang kann der Gesetzgeber den Bereich der materiellen Rechtsprechung zwar verändern, indem er etwa ein bislang strafbewehrtes Verhalten zur bloßen Ordnungswidrigkeit herabstuft.463 Sofern jedoch eine gerichtliche Zuständigkeit nach den eben genannten Kriterien begründet ist, gelten die verfassungsrechtlichen Garantien. Natürliche Personen als Richter Zwar wird (auch) in Deutschland diskutiert, ob intelligenten Robotern (Teil-)Rechtsfähigkeit verliehen werden sollte.464 Richter im Sinne des Grundgesetzes können sie jedoch jedenfalls nicht sein. Wie selbstverständlich geht das Grundgesetz davon aus, dass Richter nur natürliche Personen sind.465 Dies lässt Art. 97 Abs. 2 GG erkennen, worin die persönliche Unabhängigkeit der „hauptamtlich und planmäßig endgültig angestellten Richter“ garantiert wird. Amtsenthebungen (Satz 1), das Erreichen von Altersgrenzen, der Eintritt in den Ruhestand (Satz 2) oder Gehaltszahlungen (Satz 3) sind nur im Hinblick auf natürliche Personen denkbar. Zudem deutet die Zuweisung der Rechtsprechung an „Richter“ und nicht an Gerichte als Institutionen auf einen personalen Bezug hin.466 Auch das Bundesverfassungsgericht nimmt lediglich natürliche Personen in den Blick, wenn es ausführt: „Art. 97 Abs. 1 GG gilt für sämtliche Personen, die 2. 461 Pabst, in: MünchKomm-ZPO, § 23 EGGVG Rn. 5. 462 Pabst, in: MünchKomm-ZPO, § 23 EGGVG Rn. 5. 463 BVerfG, Beschluss vom 14. Oktober 1958 – 1 BvR 510/52, BVerfGE 8, 197, juris Rn. 38, und Urteil vom 6. Juni 1967 – 2 BvR 375/60, BVerfGE 22, 49, juris Rn. 103. Ringelstein, Schwarzfahren soll keine Straftat mehr sein, Tagesspiegel vom 17. September 2019, berichtete von der Bundesratsinitiative Thüringens, das Fahren ohne Fahrschein zur Ordnungswidrigkeit herabzustufen. 464 Vgl. Beck, JR 2009, 225 (229 f.); Hilgendorf, in: ders./Beck, Jenseits von Mensch und Maschine, S. 119 (125 ff.); Kersten, JZ 2015, 1 (7 f.); Keßler, MMR 2017, 589 (593); Kluge/Müller, in: Taeger, Smart World – Smart Law?, S. 989 ff.; kritisch Denga, CR 2018, 69 (77); Grützmacher/Heckmann, CR 2019, 553 (559 f.); Günther, Roboter und rechtliche Verantwortung, S. 245 ff.; Lohmann, ZRP 2017, 168 (171); Müller-Hengstenberg/Kirn, MMR 2014, 307 (307 f.); Nevejans, European Civil Law Rules in Robotics, S. 14 ff.; Spindler, CR 2015, 766 (774 f.). 465 Ebenso Enders, JA 2018, 721 (723); Martini et al., Automatisch erlaubt?, S. 47 f. 466 Classen, in: v. Mangoldt/Klein/Starck, GG, Art. 92 Rn. 4c. Kapitel 3) Zulässige und unzulässige Anwendungen 88 Rechtsprechung ausüben – Berufsrichter wie ehrenamtliche, Bundes- wie Landesrichter.“467 Sodann sind auch die Vorschriften des Deutschen Richtergesetzes auf natürliche Personen als Richter zugeschnitten.468 So ist in § 1 DRiG von Berufsrichtern und ehrenamtlichen Richtern die Rede, die die rechtsprechende Gewalt ausüben. Nach § 2 DRiG gelten die Vorschriften dieses Gesetzes grundsätzlich nur für Berufsrichter. Berufe und Ehrenämter ausüben können nach dem heutigen Sprachverständnis nur natürliche Personen. Ferner „leben“ Computer nicht. Auch dies spricht dafür, dass „Richter auf Lebenszeit“ (§ 27 Abs. 1 DRiG) nur natürliche Personen sein können. Zudem erwirbt nach § 5 Abs. 1 DRiG die Befähigung zum Richteramt, wer ein rechtswissenschaftliches Studium an einer Universität mit der ersten Prüfung und einen anschließenden Vorbereitungsdienst mit der zweiten Staatsprüfung abschließt. Dies ist für Computer nicht vorgesehen. Keine Differenzierung im Instanzenzug Teilweise wird vorgeschlagen, Legal Tech zumindest in den unteren Instanzen einzusetzen, da es dort häufig weniger auf Dogmatik und Rechtsfortbildung ankomme und in den nachfolgenden Instanzen noch genügend Korrekturspielraum bestünde.469 Eine solche Sicht der Dinge verkennt jedoch, dass die richterliche Unabhängigkeit in allen Instanzen (mit der Ausnahme innerprozessualer Bindungen durch höhere Gerichte470) unterschiedslos gilt. Daher verbietet es sich auch, unterschiedliche Maßstäbe für den Einsatz digitaler Anwendungen bei der Rechtsfindung anzunehmen. Außerdem steht längst nicht allen Rechtsuchenden im Zivilprozess frei, Berufung471 oder Revision472 einzulegen. 3. 467 Vgl. BVerfG, Beschluss vom 11. Juni 1969 – 2 BvR 518/66, BVerfGE 26, 186, juris Rn. 43. 468 Ebenso Enders, JA 2018, 721 (723). 469 So Buchholtz, JuS 2017, 955 (959). 470 Hierzu III.3. Unabhängigkeit gegenüber der Judikative. 471 Die Berufung ist gemäß § 511 Abs. 2 ZPO nur zulässig, wenn der Wert des Beschwerdegegenstandes EUR 600,00 übersteigt oder das Gericht des ersten Rechtszugs die Berufung im Urteil zugelassen hat. 472 Die Nichtzulassungsbeschwerde nach § 544 ZPO ist gemäß § 26 Nr. 8 EGZPO nur zulässig, wenn der Wert der mit der Revision geltend zu machenden Beschwer EUR 20.000,00 übersteigt. A. Unabhängigkeit der Gerichte 89 Auch soweit das in den §§ 688 ff. ZPO geregelte automatisierte gerichtliche Mahnverfahren473 als Vorbild herangezogen wird474, taugt dies im Ergebnis nicht. Das automatisierte Mahnverfahren kommt grundsätzlich nicht nur ohne Hinzuziehung eines menschlichen Entscheidungsorgans, sondern auch ohne Schlüssigkeitsprüfung aus. Der Mahnantrag erfordert lediglich „die Bezeichnung des Anspruchs“ (§ 690 Abs. 1 Nr. 3 ZPO), nicht jedoch seine schlüssige Darlegung. Nur die Plausibilität des Mahnantrags wird durch das Computersystem geprüft.475 Unsinnige und nicht einklagbare Forderungen sollen so herausgefiltert werden, wobei eine Vorlage an den Rechtspfleger zwischengeschaltet ist.476 Ferner enthält der Mahnbescheid nach § 692 Abs. 1 Nr. 2 ZPO den Hinweis, dass das Gericht nicht geprüft hat, ob dem Antragsteller der geltend gemachte Anspruch tatsächlich zusteht. Eine Begründung des Anspruchs hat sodann erst nach Abgabe an das Streitgericht zu erfolgen (§ 697 Abs. 1 ZPO). Mittels des Mahnverfahrens werden auch keine „typischen“ gerichtlichen Titel erwirkt. Das Verfahren kennt weder Urteile noch Beschlüsse. Stattdessen erlässt das Mahngericht einen „Vollstreckungsbescheid“ (§ 699 ZPO), sofern der Antragsgegner dem „Mahnbescheid“ (§ 692 ZPO) nicht rechtzeitig widerspricht (§ 694 ZPO). Der begründungslos mögliche Widerspruch gegen den Mahnbescheid und der ebenso keinem Begründungserfordernis unterliegende Einspruch gegen den Vollstreckungsbescheid führen zur Abgabe an das Streitgericht (§§ 696 Abs. 1, 700 Abs. 3 ZPO). Erst hier entfaltet sich eine richterliche Tätigkeit, indem nach Eingang der Anspruchsbegründung die Schlüssigkeit des Anspruchs geprüft wird. Zwischenergebnis Richterliche Entscheidungen sind natürlichen Personen vorbehalten und dürfen daher nicht auf einen Computer übertragen werden. Dies gilt gleichermaßen für Instanz- wie für Obergerichte. Der Gesetzgeber ist bei der 4. 473 Hierzu Sujecki, MMR 2006, 369 ff. 474 So Engel, JZ 2014, 1096 (1100). 475 Sujecki, MMR 2006, 369 (371). 476 Bestimmte Angaben wie die Geltendmachung eines „sonstigen Anspruchs“ (statt eines katalogisierten) führen zu einer Befassung des Rechtspflegers mit dem Mahnantrag. Dieser entscheidet, ob die elektronische Verarbeitung fortgesetzt oder ein Monierungsschreiben an den Antragsteller versendet wird. Siehe zur maschinellen Bearbeitung und der Mitwirkung des Rechtspflegers auch Keller, NJW 1981, 1184 (1185 ff.). Kapitel 3) Zulässige und unzulässige Anwendungen 90 Ausgestaltung des Zivilprozesses an diese Wertung des Grundgesetzes gebunden. Die Schaffung eines „Robotergerichts“ bleibt ihm damit verwehrt. Die Möglichkeit des menschlichen Richters, bei seiner Entscheidungsfindung auf technische Hilfsmittel zurückzugreifen, beschränkt Art. 92 GG aber nicht. Gesetzesbindung Wie die vollziehende Gewalt ist die Rechtsprechung an Gesetz und Recht gebunden, Artt. 20 Abs. 3, 97 Abs. 1 GG. Davon umfasst sind alle materiellen Rechtsnormen. Hierzu gehören die Vorschriften des Grundgesetzes, förmliche Gesetze, Rechtsverordnungen, autonome Satzungen und das Gewohnheitsrecht.477 Ferner zählen dazu die allgemeinen Regeln des Völkerrechts und unmittelbar geltendes Recht der Europäischen Union.478 Außerdem binden Staatsverträge wie die Europäische Menschenrechtskonvention (EMRK), denen der Bundesgesetzgeber durch förmliches Gesetz gemäß Art. 59 Abs. 2 GG zugestimmt hat, die Gerichte wie Gesetze.479 Allgemeine Verwaltungsvorschriften und sonstige verwaltungsinterne Anweisungen binden die Gerichte hingegen nicht.480 Auch an ungültige Rechtsnormen ist der Richter nicht gebunden481, wobei das Verwerfungsmonopol im Hinblick auf nachkonstitutionelle Gesetze beim Bundesverfassungsgericht liegt, Art. 100 Abs. 1 GG. Der Richter ist insoweit auf die Prüfung der Verfassungsgemäßheit beschränkt. Hält er ein für die zu treffende Entscheidung maßgebliches Gesetz für verfassungswidrig, hat er die Entscheidung des Bundesverfassungsgerichts einzuholen. Im Hinblick auf von der Exekutive gesetzte untergesetzliche Rechtsvorschriften (Verordnungen, Satzungen) ist die Bindungswirkung weiter eingeschränkt. Insoweit besit- II. 477 BVerfG, Beschluss vom 31. Mai 1988 – 1 BvR 520/83, BVerfGE 78, 214, juris Rn. 37; zur Bindung an ordnungsgemäß gesetztes Verordnungsrecht: BVerfG, Beschluss vom 2. Juni 1964 – 2 BvL 23/62, BVerfGE 18, 52, juris Rn. 16, und Beschluss vom 5. Mai 1965 – 2 BvL 4/63, BVerfGE 19, 17, juris Rn. 64. 478 Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 8. 479 BVerfG, Beschluss vom 14. Oktober 2004 – 2 BvR 1481/04, BVerfGE 111, 307, juris Rn. 31 und 53. 480 BVerfG, Beschluss vom 31. Mai 1988 – 1 BvR 520/83, BVerfGE 78, 214, juris Rn. 37; Classen, in: v. Mangoldt/Klein/Starck, GG, Art. 97 Rn. 10. 481 Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 8. A. Unabhängigkeit der Gerichte 91 zen alle Gerichte neben der Prüfungs- auch eine Verwerfungskompetenz, sofern diese Vorschriften gegen höherrangiges Recht verstoßen.482 Dem entscheidungsersetzenden Einsatz automatisierter Anwendungen ist die Gefahr eines Verstoßes gegen die Gesetzesbindung immanent. Dass eine automatisierte Rechtsanwendung die Bindung der Entscheidung an gesetzliche Grundlagen zurückstehen lässt, wurde bereits ausgeführt.483 Dies wird an den hier untersuchten Varianten deutlich. Determinierte Programme arbeiten gemäß den Anweisungen ihrer Programmierer484, so dass es darauf ankommt, inwieweit diese das Gesetz in Computercode transformiert haben. Autonome Systeme entwickeln hingegen ihre eigenen Regeln485, die sich nicht notwendig an gesetzlichen Vorschriften ausrichten. Richterliche Unabhängigkeit Richter üben ihre Tätigkeit als nichtbeteiligte Dritte in persönlicher und sachlicher Unabhängigkeit aus.486 Dabei sind sie gemäß Artt. 20 Abs. 3, 97 Abs. 1 GG nur an Gesetz und Recht gebunden.487 Ihre sachliche Unabhängigkeit wird durch die verfassungsrechtliche Garantie der persönlichen Unabhängigkeit gemäß Art. 97 Abs. 2 GG gesichert.488 Sachliche richterliche Unabhängigkeit bedeutet die Freiheit von äußeren Einflüssen und Bin- III. 482 BVerfG, Urteil vom 20. März 1952 – 1 BvL 12/51, BVerfGE 1, 184, juris Rn. 39 ff.; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 77. 483 Siehe Kapitel 1) B.VII. Entkopplung von den gesetzlichen Grundlagen. 484 Hierzu Kapitel 1) A.I. Determinierte Programme. 485 Hierzu Kapitel 1) A.II. Autonome Systeme. 486 BVerfG, Beschluss vom 29. April 1954 – 1 BvR 328/52, BVerfGE 3, 377, juris Rn. 14, Beschluss vom 9. November 1955 – 1 BvL 13/52, BVerfGE 4, 331, juris Rn. 50, Beschluss vom 8. Juli 1992 – 2 BvL 27/91, BVerfGE 87, 68, juris Rn. 56, und Urteil vom 8. Februar 2001 – 2 BvF 1/00, BVerfGE 103, 111, juris Rn. 103; Detterbeck, in: Sachs, GG, Art. 97 Rn. 1. 487 Hierzu vorstehend II. Gesetzesbindung. 488 BVerfG, Beschluss vom 9. November 1955 – 1 BvL 13/52, BVerfGE 4, 331, juris Rn. 47 ff., Beschluss vom 9. Mai 1962 – 2 BvL 13/60, BVerfGE 14, 56, juris Rn. 43, und Beschluss vom 8. Juli 1992 – 2 BvL 27/91, BVerfGE 87, 68, juris Rn. 56. Kapitel 3) Zulässige und unzulässige Anwendungen 92 dungen sowohl für die zu treffende Entscheidung als auch für den Entscheidungsprozess.489 Insbesondere sind Richter frei von Weisungen.490 Die Unabhängigkeit nach Art. 97 Abs. 1 GG soll sicherstellen, dass Richter ihre Entscheidungen allein am Maßstab von Recht und Gesetz ausrichten,491 was insbesondere Einflussnahmen Dritter ausschließen soll. Der Grundsatz wird in § 25 DRiG wiederholt. Unabhängigkeit von der Exekutive Die richterliche Unabhängigkeit richtet sich einerseits gegen die Exekutive und dort insbesondere gegen die Justizverwaltung. Aus der grundgesetzlich garantierten Unabhängigkeit folgt ein Verbot der Einflussnahme auf den Rechtsfindungsprozess durch den Erlass von (Einzel-)Weisungen492 oder Verwaltungsvorschriften493. Weiterhin ist jede vermeidbare, auch mittelbare, subtile und psychologische Einflussnahme der Exekutive auf die Rechtsstellung des einzelnen Richters verboten.494 Dazu gehören insbe- 1. 489 BVerfG, Beschluss vom 23. Mai 2012 – 2 BvR 610/12, BVerfGK 19, 407, juris Rn. 25; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 21; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 30. 490 BVerfG, Urteil vom 17. Dezember 1953 – 1 BvR 335/51, BVerfGE 3, 213, juris Rn. 37, Beschluss vom 9. Mai 1962 – 2 BvL 13/60, BVerfGE 14, 56, juris Rn. 44, Beschluss vom 8. Juli 1992 – 2 BvL 27/91, BVerfGE 87, 68, juris Rn. 56, Beschluss vom 14. Juli 2006 – 2 BvR 1058/05, BVerfGK 8, 395, juris Rn. 21, und Beschluss vom 4. Februar 2016 – 2 BvR 2223/15, NVwZ 2016, 764, juris Rn. 76; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 4. 491 BVerfG, Beschluss vom 30. April 2003 – 1 PBvU 1/02, BVerfGE 107, 395, juris Rn. 20; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 26. 492 BVerfG, Urteil vom 17. Dezember 1953 – 1 BvR 335/51, BVerfGE 3, 213, juris Rn. 37, Beschluss vom 9. Mai 1962 – 2 BvL 13/60, BVerfGE 14, 56, juris Rn. 44, Beschluss vom 11. Juni 1969 – 2 BvR 518/66, BVerfGE 26, 186, juris Rn. 37, Beschluss vom 8. Juli 1992 – 2 BvL 27/91, BVerfGE 87, 68, juris Rn. 56, Beschluss vom 14. Juli 2006 – 2 BvR 1058/05, BVerfGK 8, 395, juris Rn. 21, und Beschluss vom 4. Februar 2016 – 2 BvR 2223/15, NVwZ 2016, 764, juris Rn. 76; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 75; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 10; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 4. 493 Detterbeck, in: Sachs, GG, Art. 97 Rn. 13; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 75; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 10; Schulze-Fielitz, in: Dreier, GG, Art. 20 (Rechtsstaat) Rn. 74. 494 BVerfG. Beschluss vom 24. Januar 1961 – 2 BvR 74/60, BVerfGE 12, 81, juris Rn. 32, Beschluss vom 4. Juni 1969 – 2 BvR 33/66, BVerfGE 26, 79, juris Rn. 44 und 51, Beschluss vom 27. Juni 1974 – 2 BvR 429/72, BVerfGE 38, 1, juris Rn. 66, und Beschluss vom 4. Februar 2016 – 2 BvR 2223/15, NVwZ 2016, 764, A. Unabhängigkeit der Gerichte 93 sondere Anleitungen, Anregungen und Empfehlungen für den Verfahrensablauf und den Entscheidungsausspruch.495 Demnach ist auch jeder Versuch, einen Richter zu veranlassen, vermehrt oder verstärkt eine bestimmte Art der Prozesserledigung anzustreben496 beziehungsweise nicht anzustreben497, oder ihn zu einer Änderung seiner Verhandlungsführung anzuhalten498, unzulässig. Auch Verwaltungsvorschriften, die Leitlinien für die rechtsprechende Tätigkeit, beispielsweise für die Auslegung eines bestimmten Tatbestandsmerkmals einer Norm zum Inhalt haben, sind unzulässig.499 Die Sachentscheidung sowie vorbereitende und nachfolgende Sach- und Verfahrensentscheidungen, Terminsbestimmungen, Ladungen, Verhandlungsführung, Protokollführung und die Beweisaufnahme sind der Dienstaufsicht grundsätzlich entzogen.500 Freilich bedeutet die richterliche Unabhängigkeit keine grenzenlose Freiheit. Richterliche Amtsgeschäfte, die nicht mehr dem Kernbereich der richterlichen Tätigkeit zuzurechnen sind (sogenannter äußerer Ordnungsbereich), können sehr wohl Gegenstand von Maßnahmen der Dienstaufsicht sein.501 Denn insoweit ist die richterliche Unabhängigkeit nicht betroffen.502 An diese Differenzierung knüpfen auch einfachgesetzliche Vorschriften. Nach § 25 Abs. 1 DRiG untersteht der Richter einer Dienstaufsicht nur, soweit seine Unabhängigkeit davon nicht beeinträchtigt wird. Die ordnungswidrige Ausführung von Amtsgeschäften unterfällt gemäß Abs. 2 nur insoweit der Dienstaufsicht, als davon nicht die Unabhängigkeit des Richters beeinträchtigt wird. Nur in eng begrenzten Ausnahmefällen ist hingegen doch eine Einflussnahme auf die eigentliche Rechtsfindung gerechtfertigt. Dies betrifft die Fälle evident fehlerhafter Entscheidungen. Hier darf die Justizverwaltung ausnahmsweise Maßnahmen der Dienstaufjuris Rn. 76; Detterbeck, in: Sachs, GG, Art. 97 Rn. 5; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 3; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 19; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 5. 495 Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 38; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 4. 496 BGH, Urteil vom 3. Oktober 1977 – RiZ (R) 1/77, BGHZ 69, 309, juris Rn. 18. 497 BGH, Urteil vom 10. Dezember 1971 – RiZ (R) 4/71, BGHZ 57, 344, juris Rn. 55. 498 BGH, Urteil vom 31. Januar 1984 – RiZ (R) 3/83, BGHZ 90, 41, juris Rn. 12. 499 Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 75. 500 Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 84. 501 BGH, Urteil vom 23. Oktober 1963 – RiZ 1/62, BGHZ 42, 163, juris Rn. 32, und Urteil vom 9. März 1967 – RiZ (R) 2/66, BGHZ 47, 275, juris Rn. 34 f.; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 5. 502 Vgl. Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 84. Kapitel 3) Zulässige und unzulässige Anwendungen 94 sicht treffen, die die eigentliche Rechtsfindung betreffen.503 Der evident unrichtig entscheidende Richter setzt sich eigenmächtig über die demokratisch legitimierte Entscheidung des Gesetzgebers hinweg und überschreitet damit die durch die Gesetzesbindung gezogenen Grenzen seiner Entscheidungsfreiheit so deutlich, dass das aus Art. 20 Abs. 1 und 2 Satz 2 GG folgende Demokratieprinzip ein Einschreiten der Dienstaufsicht gebietet.504 Mit der Annahme einer evident unrichtigen Entscheidung ist allerdings zurückhaltend umzugehen. Kein solcher Fall ist die Zugrundelegung einer noch vertretbaren Minderansicht. Dies gilt selbst dann, wenn sie in der Entscheidung nicht weiter begründet wird. Evident unrichtig sind nur solche Entscheidungen, deren Rechtswidrigkeit auf der Hand liegt. Allerdings kann eine offenkundige Rechtswidrigkeit nicht nur durch den Entscheidungsinhalt, sondern auch durch die Art der Entscheidungsfindung begründet werden. Hierauf soll an späterer Stelle noch näher eingegangen werden.505 Unabhängigkeit von der Legislative Die richterliche Unabhängigkeit schützt andererseits in gewissem Umfang auch vor Eingriffen der Legislative.506 Die Gerichte sind zwar grundsätzlich an die in Gesetz und Recht gegossenen Entscheidungen der Legislative gebunden.507 Dieser ist es jedoch untersagt, Einfluss auf die Entscheidung in einem konkreten, laufenden Verfahren zu nehmen, etwa durch den Erlass eines darauf zielenden Einzelfallgesetzes oder eines schlichten Parlamentsbeschlusses.508 Ferner ist der Gesetzgeber verpflichtet, gesetzli- 2. 503 BGH, Urteil vom 27. September 1976 – RiZ (R) 3/75, BGHZ 67, 184, juris Rn. 30; Detterbeck, in: Sachs, GG, Art. 97 Rn. 11c; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 83; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 5. 504 Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 83. 505 Siehe D.III. Automatisierte Entscheidungsfindung und Willkürverbot. 506 Vgl. BVerfG, Beschluss vom 17. Januar 1961 – 2 BvL 25/60, BVerfGE 12, 67, juris Rn. 21, und Beschluss vom 27. Juni 1974 – 2 BvR 429/72, BVerfGE 38, 1, juris Rn. 66. 507 Hierzu II. Gesetzesbindung. 508 Detterbeck, in: Sachs, GG, Art. 97 Rn. 12; Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 92; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 8; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 23 und 25; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 5. A. Unabhängigkeit der Gerichte 95 che Vorkehrungen für die effektive Sicherung der richterlichen Unabhängigkeit zu treffen.509 Unabhängigkeit gegenüber der Judikative Die richterliche Unabhängigkeit richtet sich sodann auch gegen die Judikative selbst. Gerichte brauchen einer vorherrschenden Meinung nicht zu folgen und dürfen von den Rechtsauffassungen übergeordneter Gerichte grundsätzlich abweichen.510 Allerdings gilt die Unabhängigkeit gegenüber der Judikative nicht uneingeschränkt. So sind die Vorinstanzen an die Beurteilung von Berufungs- und Revisionsgerichten im jeweiligen Verfahren gebunden (§ 563 Abs. 2 ZPO; § 358 Abs. 1 StPO; §§ 130 Abs. 3 und 144 Abs. 6 VwGO). Bindungen bestehen ferner im Hinblick auf Rechtswegund Zuständigkeitsentscheidungen anderer Gerichte (§ 17a GVG; §§ 11 und 281 Abs. 2 Satz 4 ZPO; § 83 VwGO i. V. m. § 17a GVG) sowie auf rechtskräftige fachgerichtliche (§§ 322, 325 ZPO) oder verfassungsgerichtliche Entscheidungen (Art. 94 Abs. 2 Satz 1 GG, § 31 BVerfGG). Ferner ist grundsätzlich das Berufungsgericht an die vom Gericht des ersten Rechtszugs festgestellten Tatsachen gebunden, § 529 Abs. 1 ZPO, und das Revisionsgericht auf die Feststellungen des Berufungsgerichts festgelegt, § 559 ZPO. Außerdem sind Zivilgerichte innerprozessual durch die von ihnen selbst erlassenen End- und Zwischenurteile gebunden, § 318 ZPO. Schließlich stecken die Parteianträge den Rahmen ab, in dem Gerichte entscheiden dürfen. Es ist ihnen nicht gestattet, darüber hinauszugehen, §§ 308 Abs. 1, 528 und 557 Abs. 1 ZPO (Grundsatz des ne ultra petita). Weitere Einschränkungen erfahren Richter als Mitglied eines Kollegialgerichts. Denn dort kann es vorkommen, dass sie von den anderen Richtern ihres Spruchkörpers überstimmt werden. Die überstimmten Richter müssen dies hinnehmen. Andernfalls wäre die Funktionsfähigkeit der Rechtsprechung in Gefahr.511 Denn ohne diese Einschränkung der richterlichen Unabhängigkeit des einzelnen Richters wäre für jede Entscheidung 3. 509 Detterbeck, in: Sachs, GG, Art. 97 Rn. 2; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 3; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 17. 510 BVerfG, Beschluss vom 3. November 1992 – 1 BvR 1243/88, BVerfGE 87, 273, juris Rn. 15, und Beschluss vom 8. April 1998 – 1 BvR 1680/93, BVerfGE 98, 17, juris Rn. 108; Detterbeck, in: Sachs, GG, Art. 97 Rn. 15; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 11; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 41; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 6. 511 Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 6. Kapitel 3) Zulässige und unzulässige Anwendungen 96 Einstimmigkeit zu verlangen, was in Rechtsfragen zerstrittene Kammern oder Senate bis zum Stillstand lähmen würde. Dies wäre mit dem aus dem Rechtsstaatsgebot folgenden Justizgewährleistungsanspruch nicht vereinbar. Noch keine Beeinträchtigung der richterlichen Unabhängigkeit des einzelnen Richters liegt im Übrigen dann vor, wenn andere Mitglieder desselben Spruchkörpers versuchen, durch bloße Überzeugungsarbeit aufeinander Einfluss zu nehmen.512 Dies gilt auch dann, wenn sie Tabellenwerke513 über den eigenen Spruchkörper oder gar das eigene Gericht hinaus verbreiten, die sodann von anderen Richtern den eigenen Entscheidungen zugrunde gelegt werden.514 Denn in allen diesen Fällen obliegt es der freien Entscheidung des einzelnen Richters, sich der Rechtsauffassung der anderen Richter anzuschließen oder nicht. Anders liegt der Fall wiederum, wenn etwa der Kammervorsitzende eine Einzelrichterentscheidung ohne Zustimmung des Einzelrichters inhaltlich verändert. Der Eingriff des insoweit nicht zuständigen Richters stellt keine Rechtsprechung im Sinne des Art. 92 GG dar, weshalb der eigenmächtig handelnde Richter – im Gegensatz zum von ihm übergangenen – sich nicht auf seine richterliche Unabhängigkeit berufen kann.515 Kein Schutz der Unabhängigkeit außerhalb der rechtsprechenden Tätigkeit Die garantierte Unabhängigkeit betrifft den Kern der richterlichen Tätigkeit, das heißt „die Mitwirkung des Richters an der Rechtsprechung gemäß dem richterlichen Amt, in das er berufen worden ist“.516 Außerhalb dieser Tätigkeit, das heißt soweit er nicht als Organ der Rechtsprechung tätig wird, gilt die richterliche Unabhängigkeit nicht.517 Daher unterfällt we- 4. 512 Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 95; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 11; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 44. 513 Typisches Beispiel sind die sogenannten „Düsseldorfer Tabellen“ im Unterhaltsrecht. 514 Morgenthaler, in: BeckOK GG, Art. 97 Rn. 11; Schulze-Fielitz, in: Dreier, GG, Art. 97 Rn. 44. 515 Detterbeck, in: Sachs, GG, Art. 97 Rn. 16. 516 BVerfG, Beschluss vom 22. Oktober 1974 – 2 BvR 147/70, BVerfGE 38, 139, juris Rn. 50. 517 Vgl. BVerfG, Beschluss vom 27. April 1971 – 2 BvL 31/71, BVerfGE 31, 43, juris Rn. 16. A. Unabhängigkeit der Gerichte 97 der die Mitwirkung des Richters in Angelegenheiten der Justizverwaltung (z. B. Ausübung der Dienstaufsicht, Pressearbeit, Referendarausbildung)518 noch die Erledigung von an das Gericht gerichteten Amtshilfeersuchen aus der Exekutive519 dem Schutz der richterlichen Unabhängigkeit. Richtet die Staatsanwaltschaft ein Amtshilfeersuchen an das Gericht, eine Vernehmung durchzuführen, dient dies nicht der Vorbereitung einer eigenen Entscheidung des damit befassten Richters, sondern der Vorbereitung einer Entschließung der Staatsanwaltschaft.520 Wird ein Richter in der Justizverwaltung tätig, spricht er nicht Recht, sondern übernimmt funktionelle Aufgaben der Exekutive.521 Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit Die grundgesetzlich gegenüber Dritten garantierte Unabhängigkeit schließt nicht per se aus, dass Richter sich freiwillig in Abhängigkeiten begeben. Solche Abhängigkeiten können etwa religiösen oder gesellschaftlichen Ursprungs sein. Soweit dadurch gerichtliche Entscheidungen beeinflusst werden können, stellt sich die Frage, ob ein Richter auf seine Unabhängigkeit verzichten kann. Ein Verzicht wäre dann möglich, wenn die grundgesetzliche Garantie lediglich dem Schutz des einzelnen Richters vor äußeren Einflüssen diente. Sofern keine Rechte Dritter betroffen wären, spräche nichts dagegen, über die eigene Freiheit in der Weise zu disponieren, sie nicht in Anspruch zu nehmen. So haben auch die Grundrechte neben einem positiven noch einen negativen Schutzbereich. Etwa schützt Art. 4 GG nicht lediglich in positiver Hinsicht das Recht, eine Religion zu haben und auszuüben, sondern auch in negativer Hinsicht, konfessionslos zu sein und zu bleiben. Dies ist jedoch nicht auf die richterliche Unabhän- 5. 518 Vgl. BVerfG, Beschluss vom 22. Oktober 1974 – 2 BvR 147/70, BVerfGE 38, 139, juris Rn. 50; Detterbeck, in: Sachs, GG, Art. 97 Rn. 11a und 13; Morgenthaler, in: BeckOK GG, Art. 97 Rn. 5; Papier, NJW 1990, 8 (9); Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 3. 519 BVerfG, Beschluss vom 27. April 1971 – 2 BvL 31/71, BVerfGE 31, 43, juris Rn. 15 f.; Wolff, in: Hömig/Wolff, GG, Art. 97 Rn. 3. 520 BVerfG, Beschluss vom 27. April 1971 – 2 BvL 31/71, BVerfGE 31, 43, juris Rn. 16. Anders liegt es freilich im Fall der Zeugenvernehmung durch den beauftragten oder ersuchten Richter gemäß § 375 ZPO. Denn insoweit wird das Gericht nicht für die Exekutive tätig. Zwar bereitet es keine eigene Entscheidung des mit der Vernehmung befassten Richters, aber immerhin noch eine Entscheidung des beauftragenden oder ersuchenden Gerichts vor. 521 Detterbeck, in: Sachs, GG, Art. 97 Rn. 11a. Kapitel 3) Zulässige und unzulässige Anwendungen 98 gigkeit zu übertragen. Denn bei ihr handelt es sich weder um ein Grundrecht des Richters noch um sein persönliches Standesprivileg.522 Vielmehr dient seine Unabhängigkeit dem Schutz der Verfahrensbeteiligten.523 Rechtsstreitigkeiten sollen von einem nichtbeteiligten Dritten, der keinen Bindungen außer denen an Gesetz und Recht unterliegt, entschieden werden. Die richterliche Unabhängigkeit ist daher nicht disponibel.524 Richterliche Unabhängigkeit aus europäischer Perspektive Nach Art. 47 Abs. 2 GRC hat jede Person ein Recht darauf, dass ihre Sache von einem unabhängigen, unparteiischen und zuvor durch Gesetz errichteten Gericht verhandelt wird. Die Unabhängigkeit hat auch in diesem Kontext einen sachlichen und einen persönlichen Bezug. In sachlicher Hinsicht gebietet die Unabhängigkeit Weisungsfreiheit.525 Es dürfen auch sonst keine Abhängigkeiten von der Exekutive bestehen.526 Der Gesetzgeber darf nicht durch Einzelfallentscheidungen in laufende Verfahren eingreifen.527 In persönlicher Hinsicht wird die richterliche Unabhängigkeit durch einen grundsätzlichen Ausschluss der Absetzbarkeit garantiert.528 Ein engerer Rahmen als nach nationalem Recht ergibt sich aus den Regelungen nicht. IV. 522 BGH, Urteil vom 27. September 1976 – RiZ (R) 3/75, BGHZ 67, 184, juris Rn. 26; Benda, DRiZ 1975, 166 (170). 523 Ebenso BayVerfGH, Entscheidung vom 14. März 2019 – Vf. 3-VII-18, NJW 2019, 2151, juris Rn. 23 und 30 f. zu Art. 85 BayVerf. 524 So im Ergebnis auch Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 57 f., https://www.schles wig-holstein.de/DE/Landesregierung/II/Ministerin/Justizministerkonferenz/Do wnloads/190605_beschluesse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020. 525 Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 32 und 35; Jarass, GRC, Art. 47 Rn. 20; van Vormizeele, in: Schwarze et al., EU-Kommentar, Art. 47 GRC Rn. 12. 526 Jarass, GRC, Art. 47 Rn. 21; van Vormizeele, in: Schwarze et al., EU-Kommentar, Art. 47 GRC Rn. 12. 527 EGMR, Nr. 13427/87 vom 9. Dezember 1994, Rn. 49; EGMR, Nr. 21319/93 vom 23. Oktober 1997, Rn. 112; Jarass, GRC, Art. 47 Rn. 21. 528 Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 35; Jarass, GRC, Art. 47 Rn. 20. A. Unabhängigkeit der Gerichte 99 Unabhängigkeit vs. Nutzung von automatisierten Anwendungen Wenn Gerichte anstelle einer eigenen Prüfung die Ergebnisse einer automatisierten Anwendung in ihre Entscheidung übertragen, kann dies eine faktische Loslösung von ihrer Bindung an Gesetz und Recht bedeuten. An ihre Stelle tritt eine Abhängigkeit von der Computerlösung. Wie gesehen, ist es Richtern jedoch verwehrt, über ihre eigene Unabhängigkeit zu disponieren.529 Genauso wenig dürfen sie sich von ihrer Bindung an Gesetz und Recht lossagen. Daher kann es nicht bedenkenlos hingenommen werden, wenn den von Richtern zu treffenden Entscheidungen Ergebnisse von automatisierten Anwendungen zugrunde liegen. Enders vertritt die Ansicht, der Rechtsanwender müsse schlechthin alles, was er vorfindet, kritisch hinterfragen und dürfe nichts ungeprüft übernehmen.530 Im Ausgangspunkt ist dieser Auffassung im Hinblick auf die richterliche Tätigkeit zuzustimmen, weil die richterliche Unabhängigkeit keine anderen Bindungen als jene an Gesetz und Recht zulässt. Allerdings sind weitere Differenzierungen erforderlich. Zunächst gilt es zu berücksichtigen, inwieweit der Anwender die von ihm verwendete Technik beherrscht. In diesem Zusammenhang ist zu unterscheiden, ob es sich bei der verwendeten Technik um ein determiniertes Programm oder ein autonomes System handelt. Ferner ist die Art und Weise der Nutzung solcher Anwendungen nicht unterschiedslos zu bewerten. Denn die technische Unterstützung muss nicht gleichsam automatisch darauf hinauslaufen, ein so ermitteltes Ergebnis in die zu treffende Entscheidung zu übertragen. Stattdessen kann es auch lediglich als Werkzeug zur Selbstkontrolle eingesetzt werden. Nutzung von determinierten Programmen zur Entscheidungsfindung Soweit Maschinen Entscheidungen treffen, die Menschen betreffen, wird zu Recht gefordert, dass diese Entscheidungen für den Menschen nachvollziehbar sein sollen.531 An diese Forderung knüpfen sich mehrere Fragen: Wer muss die Entscheidung der Maschine nachvollziehen können? Muss V. 1. 529 Hierzu III.5. Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit. 530 Enders, JA 2018, 721 (727): „[A]lles, wirklich alles, was der Rechtsanwender vorfindet, [muss] von ihm selbst kritisch hinterfragt werden […], nichts, wirklich nichts, [darf] ungeprüft hingenommen werden […] – auch wenn er zu seiner Meinungsbildung KI hinzuzieht“. 531 So Lenzen, Künstliche Intelligenz, S. 75 f. Kapitel 3) Zulässige und unzulässige Anwendungen 100 sie (nur) derjenige verstehen, der die Entscheidung delegiert, oder (auch) derjenige, der durch sie betroffen wird? Welcher Grad an Nachvollziehbarkeit ist erforderlich, aber auch ausreichend? Da die vorliegende Arbeit richterliche Entscheidungsfindungen in den Blick nimmt, richtet sich ihr Fokus einerseits auf die Nachvollziehbarkeit auf Seiten des Gerichts, worauf nachfolgend eingegangen werden soll. Das Erfordernis der Nachvollziehbarkeit gründet sich insoweit auf der Unabhängigkeit des Richters sowie seiner Gesetzesbindung, Artt. 97 Abs. 1 und 20 Abs. 3 GG. Andererseits ist auf die Nachvollziehbarkeit auf Seiten der von der Rechtswirkung automatisierter Entscheidungen Betroffenen einzugehen532. Die Notwendigkeit der Nachvollziehbarkeit folgt insoweit aus Art. 2 Abs. 1 GG in Verbindung mit dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG), weil der Betroffene nicht bloßes „Objekt“ des Verfahrens sein darf. Allgemein gilt, dass eine automatisierte Entscheidung nur derjenige nachvollziehen kann, der ihre Datengrundlage, die definierten Lösungsschritte und die Gewichtung der einzelnen Kriterien kennt und versteht.533 Dabei kann man einerseits nur auf die individuellen Kenntnisse und Fähigkeiten des Einzelnen abstellen. Fraglich ist, ob daneben auch verallgemeinerbare Kriterien entwickelt werden können, die eine Nachprüfung im Einzelfall entbehrlich machen. Zulässigkeit bei vollständiger Kenntnis des Richters vom Algorithmus Es kommt vor, dass Richter Software selbst entwickeln.534 Gleich, ob es sich dabei um eine einfach gestrickte Berechnungshilfe oder um Automatisierungen von höherer Komplexität handelt, ist die Benutzung selbst erstellter Software dann grundsätzlich unbedenklich, wenn der Richter sie lediglich nutzt, um seine einmal für eine bestimmte Konstellation getroffea) 532 Näheres hierzu unter D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. 533 Martini, JZ 2017, 1017 (1018). 534 Vgl. Berkemann, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 609 (616); Stewen, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 571 (575). Für familienrechtliche Berechnungen zum Unterhalt, Zugewinn und Versorgungsausgleich hat sich an den Gerichten das von Werner Gutdeutsch entwickelte Programm „WinFam“ durchgesetzt, hierzu Hartung/Meising, NZFam 2019, 982 (984 f.). Im Februar 2019 hat Jan F. Orth einen öffentlichen Beta-Test seiner iOS-App „Richter-Tools“ gestartet, die verschiedene Berechnungsservices für Richter bereithält, abrufbar unter https://www.janforth.de/richter-tools/, zuletzt abgerufen am 18. Februar 2020. A. Unabhängigkeit der Gerichte 101 nen, verallgemeinerbaren (Wertungs-)Entscheidungen auf eine Vielzahl zukünftiger, gleichartiger Verfahren zu übertragen. Voraussetzung ist freilich, dass die verallgemeinerbare (Wertungs-)Entscheidung sich innerhalb des gesetzlich gezogenen Rahmens bewegt. In dem Fall der Nutzung einer selbst erstellten Software entspricht die Programmierung den Vorstellungen des Richters und beschränkt sich auf deren konkrete Umsetzung. Der programmierende Richter definiert alle Regeln, die die Software abarbeiten soll. Da rein algorithmische Anwendungen über keine über die Programmierung hinausgehenden oder von ihr abweichenden Entscheidungsspielräume verfügen535, gibt der Richter seine Entscheidung nicht aus der Hand. Er überträgt seine eigene Entscheidung durch den Einsatz von Technik auf eine potentielle Vielzahl von konkreten (und aus seiner Sicht in der Sache gleich zu beurteilenden) Fällen. Dadurch macht er sich die Funktionsweise von Algorithmen, eine Vielzahl von gleichgelagerten Problemen durch konkrete, im Vorfeld definierte Kriterien zu lösen536, zunutze. Gleichgelagerte Sachverhalte („Probleme“) werden einer gleichlautenden Entscheidung („Lösung“) zugeführt. Die richterliche Unabhängigkeit wird durch eine derartige Nutzbarmachung von Technik nicht tangiert. Eine nachträgliche Überprüfung, ob der Computer richtig gerechnet hat, ist nicht erforderlich, weil die Anwendung „blind“ den Anweisungen des programmierenden Richters folgt. Auch solche Richter, die die Anwendung nicht beziehungsweise nicht vollständig selbst programmiert haben, aber ihren Quellcode kennen und in allen Einzelheiten verstehen, können die Anwendung zur Entscheidungsfindung im Einzelfall einsetzen, wenn die Verarbeitung dem entspricht, was sie den Computer selbst angewiesen hätten zu tun, sofern sie die Anwendung (vollständig) selbst programmiert hätten. Denn auch in dem Fall dient die Technik allein der Umsetzung der richterlich getroffenen Entscheidung auf gleichgelagerte Einzelfälle. Unzulässigkeit bei fehlender Kenntnis des Richters vom Algorithmus Keine ausreichende Kenntnis vom Algorithmus hat der Richter hingegen, wenn ihm lediglich der Zweck des determinierten Programms bekannt ist, er die dahinter versteckten, in Code verpackten mathematischen Berechnungsformeln aber nicht vollständig nachvollziehen kann. In dem Fall b) 535 Ernst, JZ 2017, 1026 (1027 f.). 536 Ernst, JZ 2017, 1026 (1026 f.). Kapitel 3) Zulässige und unzulässige Anwendungen 102 weiß er nicht, wie die Anwendung funktioniert und welche Arbeitsschritte sie vornimmt, um ein Ergebnis zu erzielen. Er kann es nur vermuten. Da das Studium der Rechtswissenschaften derzeit regelmäßig keine Vermittlung von Informatikkenntnissen umfasst537, wird es in aller Regel so liegen. Das Wissen des Anwenders beschränkt sich daher auf den der Anwendung zugeschriebenen Zweck, ohne die Schritte, die für die Erreichung des Zwecks, die Ausgabe des Ergebnisses, erforderlich sind, im Einzelnen zu kennen. Dies ist zum Beispiel dann der Fall, wenn der Richter einen Prozesskostenhilferechner verwendet, um über einen Prozesskostenhilfeantrag zu entscheiden, er aber keine Einsicht in den Entscheidungsalgorithmus nehmen oder diesen mangels Programmierkenntnissen nicht verstehen kann. Während einfache Wenn-Dann-Schlüsse, die ein Programm vollzieht, gegebenenfalls auch ohne weitere Informatikkenntnisse durch Probeversuche noch nachvollzogen werden können, ist dies ab einem gewissen Grad an Komplexität nicht mehr möglich. Die komplexen Berechnungsformeln verbergen sich zumeist hinter einer Benutzeroberfläche und sind für den Anwender schon nicht einsehbar.538 Beispielsweise enthalten familienrechtliche Berechnungsprogramme für Unterhalt und Versorgungsausgleich (z. B. WinFam) recht komplexe und für den Anwender so nicht sichtbare Berechnungsformeln.539 Die vom Computer getätigten Verarbeitungsschritte bleiben dem Anwender also verborgen. Für ihn stellt sich ein solches Programm als sogenannte „Blackbox“ dar, in die er nicht hineinschauen kann. Letztlich hängt dies aber von den individuellen Kenntnissen und vom Verständnis des einzelnen Anwenders ab. Zieht das Gericht für die Entscheidungsfindung eine Software heran, deren Algorithmus es nicht kennt, unterwirft es sich zugleich der Entscheidung des Programms beziehungsweise seiner Entwickler und gibt damit die ihm anvertraute Entscheidung aus der Hand. Die Bindung an Gesetz und Recht löst sich auf. Das Gericht beschränkt sich auf eine Dateneingabe und die Übertragung der Datenausgabe und kommt seiner ihm zugewiesenen Aufgabe, der Rechtsfindung, nicht mehr nach. Dass die richterliche Unabhängigkeit aber keinen negativen Schutz begründet, aus freien Stücken darauf zu verzichten, wurde bereits gesagt.540 Bereits geringfügige Unklarheiten über die Funktionsweise der Anwendung zwingen daher 537 Kritisch dazu Peters, CR 2017, 480 ff; vgl. aber die Auflistung von IT-Aspekte berücksichtigenden Lehrangeboten bei W. Kilian, CR 2017, 202 (204 f.). 538 Berlit, JurPC Web-Dok. 77/2012, Abs. 49. 539 Berlit, JurPC Web-Dok. 77/2012, Abs. 49. 540 Hierzu III.5. Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit. A. Unabhängigkeit der Gerichte 103 zum Absehen von der Benutzung. Deshalb muss das Gericht sich auch im Fall eines einfach gelagerten Algorithmus im Klaren darüber sein, welche von gegebenenfalls mehreren denkbaren Auslegungsvarianten eines Tatbestandsmerkmals der computermäßigen Berechnung zugrunde liegt.541 Zudem muss die der Software zugrunde gelegte Auslegungsvariante mit dem vom Gericht zuvor gefundenen Auslegungsergebnis übereinstimmen. Es darf seine Entscheidung nicht davon abhängig machen, ob für die eine oder die andere Auslegungsvariante eine Software erhältlich ist. Berlit vertritt die Ansicht, dass Raum für die Benutzung von Software dort sei, wo die Rechtslage „eindeutig und keiner Interpretation zugänglich“ ist.542 Eine klare Rechtslage sagt jedoch noch nichts darüber aus, ob die Funktionsweise der Software dieser Rechtslage entspricht. Daher ist selbst in solchen Fällen die Benutzung eines determinierten Programms, dessen Algorithmus dem Gericht nicht bekannt ist, im Grundsatz unzulässig. Wenn der Anwender den Algorithmus nicht nachvollziehen kann, ist die Übereinstimmung des Programmergebnisses mit dem Gesetz aus seiner Sicht stets dem Zufall geschuldet. Er kann nur darauf hoffen, dass der Computer „richtig“ entscheidet. Unwesentlich ist auch, wer Schöpfer der Anwendung ist. Das Gericht darf sich weder „blind“ an Entscheidungen von Richterkollegen noch von (sonstigen) öffentlichen oder privaten Stellen binden. Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens Maßstab für die Nachvollziehbarkeit Sofern das Gericht die einem determinierten Programm zugrunde liegenden Algorithmen nicht aus eigenem Vorwissen heraus versteht, schließt das nicht aus, dass es sich in die Lage versetzt oder in die Lage versetzt wird, diese nachzuvollziehen.543 Beispielsweise kann das Gericht Probeläufe durchführen. Bei ganz einfach angelegten Programmen mit einer überschaubaren Zahl an infrage kommenden Variablen mag dies erfolgversprechend sein. Mit zunehmender Komplexität erweisen sich solche Probeläuc) (1) 541 Berlit, JurPC Web-Dok. 77/2012, Abs. 50. 542 Berlit, JurPC Web-Dok. 77/2012, Abs. 50. 543 Zum Erfordernis der Nachvollziehbarkeit aus Sicht der von determinierten beziehungsweise autonomen Entscheidungen Betroffenen siehe D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. Kapitel 3) Zulässige und unzulässige Anwendungen 104 fe jedoch als wenig aussichtsreich, weil das Durchspielen der Vielzahl an verschiedenen Konstellationen in überschaubarer Zeit nicht mehr zu bewältigen ist. Denn um sich der Funktionsweise sicher zu sein, müsste das Gericht alle möglichen Konstellationen bedenken und ausprobieren. Es könnte sonst allenfalls die Ergebnisse der bereits überprüften Konstellationen bedenkenlos in seine Entscheidung übertragen. Eine andere Möglichkeit ist darin zu sehen, dass das Programm eine Erläuterung seiner Entscheidung bereitstellt. Insoweit kommt es dann aber darauf an, ob der Richter die Erläuterung mit dem Gesetzestext abgleicht und die Berechnung anhand dessen bei jeder zu treffenden Einzelfallentscheidung im Einzelnen nachvollzieht. Dies bedeutete letztlich eine vollständige händische Überprüfung jeder Einzelfallentscheidung und damit doch keine automatisierte Entscheidungsfindung. Eine weitere Möglichkeit ist, das Programm mit einer Anleitung zu versehen.544 Da diese keine Wiedergabe sämtlicher denkbarer Probeläufe, sondern einen Überblick über die Funktionsweise enthalten soll, ist zu ermitteln, welcher Maßstab anzulegen ist, um von einer hinreichenden Nachvollziehbarkeit sprechen zu können. Nicht ausreichend wäre es, das Gericht lediglich in die Lage zu versetzen, die Funktionen der Software schlicht zu nutzen, ohne ihre Funktionsweise im Einzelnen nachzuvollziehen. Denn die Fähigkeit zur bloßen Nutzung eines Computerprogramms setzt nicht voraus, dass dem Anwender die Algorithmen vollständig bekannt sind. Die Fähigkeit, ein Computerprogramm zu bedienen, ist nicht gleichbedeutend damit, den Quellcode programmieren zu können. Sofern die Benutzeroberfläche hinreichend „selbsterklärend“545 gestaltet ist, kann auch derjenige, der seine genaue Funktionsweise nicht überblickt, das Programm bestimmungsgemäß nutzen, das heißt Daten eingeben und das Ergebnis der Datenverarbeitung ablesen beziehungsweise weiterverwenden. Wie die vom Entwickler vorgegebene Berechnung vor sich geht, bleibt dem Anwender dabei verborgen. Er weiß insbesondere nicht, welche der eingegebenen Daten mit welchem Gewicht in die Entscheidung einflie- ßen. Zwar mag er je nach Komplexität des Programms möglicherweise 544 Für den Bereich des maschinellen Lernens über Massendaten wird vorgeschlagen, KI-Systeme mit einer Erklärungskomponente auszustatten, die die Entscheidungsvorschläge dem Menschen plausibel macht, vgl. Wahlster bei Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015. Martini, JZ 2017, 1017 (1020), schlägt für algorithmenbasierte Entscheidungsverfahren eine Information des Betroffenen vor. 545 Die „Selbsterklärung“ enthält aber nicht zwingend eine richtige Auskunft über die Funktionsweise des Programms. A. Unabhängigkeit der Gerichte 105 noch in der Lage sein, das Ergebnis händisch nachzuvollziehen. Ansonsten erweist sich das Programmergebnis für ihn aber als mehr oder weniger zufällig. Daher ist ein gewisses Verständnis für den hinter dem Programm stehenden Wirkmechanismus erforderlich. Allerdings ginge es zu weit, dem Gericht Programmierkenntnisse abzuverlangen, die es in die Lage versetzen, den Quellcode selbst zu erzeugen. In dem Fall wäre nur die Nutzung von Software zulässig, deren Code der Richter vollständig versteht, was in den seltensten Fällen vorkommen wird. Ein erster Schritt zum Verständnis des Algorithmus wäre seine Offenlegung, wie dies bei Open-Source-Software üblich ist.546 Denn die Funktionsweise der Entscheidungsfindung ergibt sich aus den implementierten Algorithmen.547 Gleichwohl ist mit der Veröffentlichung des Quelltextes dem Richter, der nicht in der Lage ist, ihn durch einfache Lektüre zu verstehen, kaum geholfen. Er wird in der Regel – nicht anders als der durchschnittliche Verbraucher – nicht in der Lage sein, den Programmcode durch dessen bloße Lektüre zu verstehen.548 Womit er aber etwas anfangen kann, ist eine Anleitung („Beipackzettel“), die die Funktionsweise des Programms in abstrakter Hinsicht vollständig, zutreffend und in verständlicher Weise erläutert. Diese Anleitung ist der Schlüssel zur Rückübersetzung des Programmcodes in die (natürliche) Rechtssprache. Aus der Übersetzung in die juristische Sprache muss zweifelsfrei hervorgehen, welche Parameter der Datenverarbeitung zugrunde liegen und wie diese im Einzelnen gewichtet sind. Die Übersetzung der formalen Computersprache in natürliche Sprache ist nicht den Schwierigkeiten der Übersetzung in die umgekehrte Richtung ausgesetzt549, weil die logische Sprache auf Eindeutigkeit ausgelegt ist. Jeder Begriff hat eine fest zugewiesene Bedeutung. Daher kann eine Übersetzung in natürliche Sprache erfolgen, ohne dass Ungewissheiten verbleiben.550 546 Allerdings können Algorithmen gesetzlich als Geschäftsgeheimnisse geschützt sein, siehe hierzu (2)(e) Problematik der Überprüfung von Geschäftsgeheimnissen. 547 Ernst, JZ 2017, 1026 (1026). 548 Im Hinblick auf Verbraucher: Martini, JZ 2017, 1017 (1018 Fn. 9). 549 Hierzu Kapitel 2) A.I. Die Semantik natürlicher Sprache. 550 Freilich können aber Mehrdeutigkeiten der natürlichen Sprache bei der Rück- übersetzung deshalb zu Problemen führen, weil ihre Mehrdeutigkeit bei der vorangegangenen Übersetzung in die eindeutige Computersprache nicht abgebildet werden konnte, siehe hierzu Kotsoglou, JZ 2014, 451 (452 f.). Da der Fokus dieser Arbeit sich jedoch nicht auf die Lösung der Widersprüche zwischen Kapitel 3) Zulässige und unzulässige Anwendungen 106 Mit Hilfe der Anleitung muss das Gericht in die Lage versetzt werden, abstrakt zu prüfen, ob die Software nach jenen Maßstäben arbeitet, die das Gericht selbst auf die betreffenden Konstellationen anlegen will. Eine solche Anleitung bewirkt, dass der Anwender die Software beherrscht. Er kennt die Entscheidungslogik und kann vorhersehen, aufgrund welcher Eingabe der Algorithmus welche Ergebnisse produzieren wird. Sofern die Entscheidungslogik dargestellt wird, kann daraus auch die gewählte Auslegungsvariante abgelesen werden. Eine gesonderte Information darüber, dass es gegebenenfalls auch abweichende Auffassungen gibt, ist für die Nachvollziehbarkeit des Algorithmus hingegen nicht erforderlich. Relevant ist insoweit lediglich, dass der Richter von der Benutzung absehen kann, wenn er weiß, dass das Programm einer bestimmten Auslegung folgt, die er selbst nicht für richtig hält. Vorteilhaft wären im Programm integrierte Auswahlmöglichkeiten bezüglich anderer Ansichten aber fraglos.551 Für autonome Systeme ist eine Anleitung praktisch nicht umsetzbar. Die Kriterien und ihre Gewichtung stellen sich aufgrund der großen Datenmengen als zu komplex dar, als dass sie in einer Anleitung wiedergegeben werden könnten. Bei nicht ab einem bestimmten Zeitpunkt „eingefrorenen“ autonomen Systemen scheiterte die praktische Umsetzung ferner daran, dass die Anleitung immer an den aktuellen Stand des Systems angepasst werden müsste, das sich aber ständig weiterentwickelt und Kriterien jederzeit anders gewichten kann. Allenfalls könnte noch eine systemimmanente Begründung in Betracht zu ziehen sein, die das System mit der Entscheidung verbindet. Ob diese Begründung aber tatsächlich die maßgeblichen Kriterien zutreffend wiedergibt, wäre für den Nutzer wiederum nicht zu ersehen. juristischer Methodenlehre und Logik, sondern auf den Umgang mit schon bestehenden oder in Zukunft voraussichtlich auf den Markt drängenden automatisierten Anwendungen richtet, spielt die Erstübersetzung durch den Programmierer hier eine untergeordnete Rolle. Für die Anleitung ist lediglich die (Rück-)Übersetzung in die natürliche Sprache von Bedeutung, die zwar zu Widersprüchen führen kann. Diese Widersprüche würden dann aber auch in der Anleitung als solche abgebildet und mithin erkennbar werden. 551 Vgl. insoweit auch Berlit, JurPC Web-Dok. 77/2012, Abs. 50. A. Unabhängigkeit der Gerichte 107 Erfordernis einer Zertifizierung Problemstellung Eine Anleitung allein ist nicht geeignet, hinreichendes Vertrauen in eine den darin enthaltenen Angaben entsprechende Funktionsweise der Software zu begründen. Dies liegt nicht nur daran, dass Entwicklern Programmierfehler unterlaufen können.552 Auch können Angaben in der Anleitung widersprüchlich oder missverständlich553 wiedergegeben sein oder schlicht nicht mit den tatsächlichen Programmvorgaben übereinstimmen.554 Etwa kann der Programmierung des determinierten Programms eine von den Angaben in der Anleitung abweichende Rechtsansicht zugrunde liegen. Das Vertrauen in die Übereinstimmung der mit der Anleitung mitgeteilten Funktionsweise des determinierten Programms muss aber auf einer sicheren Grundlage stehen. Diese Grundlage kann durch ein Zertifizierungsverfahren geschaffen werden.555 Bislang sieht das geltende Recht kein Zertifizierungsverfahren für automatisierte Anwendungen vor. Gerichte können auf ungeprüfte Online-Angebote oder in Fachanwendungen integrierte Programme zurückgreifen. Weder ist eine Erläuterung der Funktionsweise vorgeschrieben noch ist hierfür eine Prüfung vorgesehen. Hingegen wurde für privatwirtschaftliche Unternehmen und behördliche Anwendungen bereits ein sogenannter „Algorithmen-TÜV“ vorgeschlagen.556 Danach soll eine Behörde oder eine staatlich beliehene Institution (2) (a) 552 Hierzu Kapitel 1) B.V. Aktualität, Fehler und Manipulationen. 553 Widersprüche können beispielsweise aufgrund der Schwierigkeiten der Übersetzung von natürlicher Sprache in Computersprache auftreten (hierzu Kapitel 2] A.I. Die Semantik natürlicher Sprache), die sodann bei der Rückübersetzung von Computersprache in natürliche Sprache offenbar werden, hierzu Kotsoglou, JZ 2014, 451 (452 f.). 554 Beispiele für teilweise dramatische Auswirkungen unzureichender Dokumentation von Softwareprojekten finden sich bei Schreiber-Ehle, CR 2015, 469 (471). So sei Ursache des Verlustes des Mars Climate Orbiters der NASA im Jahre 1999 eine mangelhafte Abstimmung zweier Gruppen von Ingenieuren gewesen, wobei eine Gruppe in Meter und die andere in Inch beziehungsweise Fuß gerechnet habe. 555 Martini/Nink, NVwZ-Extra 10/2017, 1 (12), schlagen eine präventive Prüfungsund Zertifizierungspflicht für in der Verwaltungspraxis einzusetzende algorithmische Systeme im Hinblick auf etwaige Diskriminierungen vor. 556 Vgl. Dräger, Dem Menschen Untertan, Algorithmenethik vom 24. August 2017; Martini, JZ 2017, 1017 (1021). Das Bundesministerium für Arbeit und Soziales plant die Einführung eines „KI-Observatoriums“, das Diskriminierungen durch von Unternehmen eingesetzte Algorithmen in den Blick nimmt, hierzu Krempl, Kapitel 3) Zulässige und unzulässige Anwendungen 108 u. a. die Nachvollziehbarkeit von Algorithmen überprüfen. Dies wäre auch für den Bereich der Justiz ein gangbarer Weg, um ein hinreichendes Maß an Vertrauen in die Funktionsweise einer Software zu begründen. Vergleichbarkeit mit standardisierten Messverfahren An dieser Stelle lohnt sich ein Vergleich zu den sogenannten standardisierten Messverfahren, die bei der Verkehrsraumüberwachung zum Einsatz kommen. Unter dem Begriff standardisiertes Messverfahren ist „ein durch Normen vereinheitlichtes (technisches) Verfahren zu verstehen, bei dem die Bedingungen seiner Anwendbarkeit und sein Ablauf so festgelegt sind, daß unter gleichen Voraussetzungen gleiche Ergebnisse zu erwarten sind“.557 In Bußgeldverfahren verlassen sich Gerichte auf die Ergebnisse eines technischen Geräts. Denn sie stellen überwiegend bei der Beurteilung von Geschwindigkeitsmessungen auf standardisierte Messverfahren mittels speziell zugelassener Geräte ab.558 Die Messergebnisse entfalten zwar keine normative Wirkung.559 Eine Kenntnis der Gerichte von der genauen Funktionsweise des zugelassenen Geräts ist aber nicht erforderlich.560 Die Verwertbarkeit der Messergebnisse hängt in jedem Einzelfall davon ab, ob das zur Messung eingesetzte Gerät in geeichtem Zustand, seiner Bauartzulassung entsprechend und gemäß der Bedienungsanweisung verwendet wurde.561 Die Bauartzulassung durch die Physikalisch-Technische Bundesan- (b) Algorithmen-TÜV, heise online vom 12. November 2019. Für eine Kennzeichnungspflicht im Hinblick auf Algorithmen, die die politische Willensbildung beeinflussen können: Heldt, CR 2018, 494 (497). Zur Regulierung von Scoring- Algorithmen: Gerberding/Wagner, ZRP 2019, 116 ff. 557 BGH, Beschluss vom 30. Oktober 1997 – 4 StR 24/97, BGHSt 43, 277, juris Rn. 27. 558 Vgl. OLG Koblenz, Beschluss vom 12. August 2005 – 1 Ss 141/05, DAR 2006, 101; OLG Hamm, Beschluss vom 15. Mai 2008 – 2 Ss OWi 229/08, VRS 115, 53; OLG Braunschweig, Beschluss vom 14. Juni 2017 – 1 Ss (OWi) 115/17, juris; KG Berlin, Beschluss vom 23. Juli 2018 – 3 Ws (B) 157/18, NStZ 2018, 722. 559 VerfGH des Saarlandes, Urteil vom 5. Juli 2019 – Lv 7/17, juris Rn. 89. 560 OLG Bamberg, Beschluss vom 22. Oktober 2015 – 2 Ss OWi 641/15, DAR 2016, 146, juris Rn. 16. 561 OLG Koblenz, Beschluss vom 12. August 2005 – 1 Ss 141/05, DAR 2006, 101, juris Rn. 8; OLG Hamm, Beschluss vom 15. Mai 2008 – 2 Ss OWi 229/08, VRS 115, 53, juris Rn. 6; KG Berlin, Beschluss vom 23. Juli 2018 – 3 Ws (B) 157/18, NStZ 2018, 722, juris Rn. 8. A. Unabhängigkeit der Gerichte 109 stalt (PTB) bewirkt, dass die Zuverlässigkeit und Geeignetheit des Messgeräts grundsätzlich generell und verbindlich festgestellt ist.562 Weitere Informationen zur Funktionsweise müssen die Gerichte in der Regel nicht einholen.563 Dadurch soll vermieden werden, dass Gerichte in jedem Einzelfall die technische Richtigkeit der Messung überprüfen lassen müssen.564 Vielmehr sind sie lediglich dann gehalten, die Messergebnisse zu überprüfen, wenn konkrete Zweifel an der Funktionstüchtigkeit oder sachgerechten Handhabung des eingesetzten standardisierten Messgeräts aufkommen oder Umstände darauf hindeuten, dass die Messung trotz Zulassung fehlerbehaftet sein könnte.565 Um ein hinreichendes Vertrauen in die Nachvollziehbarkeit automatisierter Anwendungen herzustellen, sollte auch für diese ein Zulassungsverfahren im Sinne einer Zertifizierung vorgesehen werden.566 Programmierkenntnisse wären dann entbehrlich. Die Funktionsweise des determinierten Programms kann den Gerichten durch das Zusammenspiel von Anleitung und Zertifizierung hinreichend zur Kenntnis gebracht werden. Freilich wird das Programm für den einzelnen Richter nicht schon im Zeitpunkt der Zertifizierung, sondern erst dann nachvollziehbar, wenn er sich mit der (zertifizierten) Anleitung auseinandersetzt. Prüfprogramm im Zertifizierungsverfahren Die Erteilung des Zertifikats muss voraussetzen, dass die Anleitung die Funktionsweise der Anwendung hinreichend deutlich und zutreffend in die juristische Sprache übersetzt. Zugleich hat sich die Prüfung darauf zu beschränken. Denn die Zertifizierung durch eine öffentliche Stelle ist im Hinblick auf die richterliche Unabhängigkeit nicht unproblematisch. So ist es denkbar, dass eine Zertifizierung von Anwendungen, denen unliebsame Rechtsauffassungen zugrunde liegen, abgelehnt wird beziehungswei- (c) 562 Krumm, Fahrverbot in Bußgeldsachen, § 5 Rn. 45. 563 OLG Bamberg, Beschluss vom 22. Oktober 2015 – 2 Ss OWi 641/15, DAR 2016, 146, juris Rn. 16; Krumm, Fahrverbot in Bußgeldsachen, § 5 Rn. 45. 564 OLG Bamberg, Beschluss vom 22. Oktober 2015 – 2 Ss OWi 641/15, DAR 2016, 146, juris Rn. 16. 565 Krumm, Fahrverbot in Bußgeldsachen, § 5 Rn. 45 m. w. N. 566 Auch Martini et al., Automatisch erlaubt?, S. 53, schlugen jüngst ein Zulassungsverfahren für die Anwendung von Entscheidungsunterstützungssystemen in der gerichtlichen Praxis unter dem Hinweis auf die Vergleichbarkeit mit standardisierten Messverfahren vor. Kapitel 3) Zulässige und unzulässige Anwendungen 110 se, dass nur Anwendungen, die der gewünschten Auffassung folgen, zertifiziert werden. Insofern muss sichergestellt werden, dass die Überprüfung des Algorithmus allein die Übereinstimmung mit der Anleitung betrifft (Übereinstimmungsüberprüfung). Hingegen darf keine „Rechtmäßigkeitsprüfung“ stattfinden. Inhaltliche Prüfungen, etwa ob die implementierten Maßstäbe der Rechtslage entsprechen oder ob und welche divergierenden Rechtsauffassungen berücksichtigt worden sind, haben folglich zu unterbleiben. Nicht erstrecken darf sich die Prüfung insbesondere darauf, ob die „herrschende“ oder sämtliche denkbaren Auslegungsvarianten in das System integriert wurden. Denn dies übertrüge der Prüfstelle eine zu weitgehende inhaltliche Gestaltungsmacht. Genau dort böte sich das Einfallstor zur Beeinflussung, indem etwa eine bestimmte Auffassung bevorzugt oder eine möglicherweise vom Entwickler nicht berücksichtigte Auffassung von der Prüfstelle sodann (bewusst) weiterhin außen vor gelassen wird. Der Einfluss der Zertifizierungsstelle sollte deshalb auf das für die Schaffung von Vertrauen in die Funktionsweise determinierter Systeme Notwendige beschränkt werden. Ihr Sachverstand soll die Entfaltung richterlicher Unabhängigkeit begünstigen und diese nicht beschneiden. Darum soll sich das Gericht aufgrund der Zertifizierung nur darauf verlassen können, dass die Softwareanwendung tut, was sie zu tun erklärt. Es soll aber nicht darauf vertrauen dürfen, dass sie auch das ganze Spektrum unterschiedlicher Auslegungsvarianten abbildet. Diese im Blick zu haben ist Aufgabe des Gerichts. Da die Zertifizierung allein der Herstellung von Transparenz dienen soll, ist sie nicht geeignet und auch nicht dafür bestimmt, eine Festlegung der Entwickler auf eine bestimmte von mehreren vertretenen Auslegungsvarianten eines Tatbestandsmerkmals zu verhindern. Dass sich am Markt eine Software durchsetzen mag, die dem Gericht möglichst viele Auswahlmöglichkeiten zur Verfügung stellt oder schlicht die herrschende Auffassung umsetzt, darf im Rahmen der Zertifizierung keine Rolle spielen. Soweit die für den außergerichtlichen Bereich vorgeschlagene Algorithmenkontrolle in erster Linie helfen soll, Diskriminierungen zu entlarven und damit zu vermeiden567, spielt dieser Aspekt bei der Zertifizierung determinierter Systeme für die forensische Nutzung hingegen keine wesentliche Rolle. Würde die Prüfstelle Programme auf Diskriminierungen untersuchen, stellte auch dies eine zu weitgehende inhaltliche Einflussnahme 567 Vgl. Martini, DVBl 2014, 1481 (1485). Zur Problematik der Diskriminierung durch Algorithmen siehe Kapitel 1) B.III. Mehr Objektivität oder mehr Diskriminierung? A. Unabhängigkeit der Gerichte 111 dar. Das heißt nicht, dass Gerichte diskriminierende Algorithmen einsetzen dürften. Dem steht Art. 3 Abs. 1 und 3 GG entgegen.568 Den Maßstab, wann eine Diskriminierung gegeben ist, muss das Gericht aber selbst ermitteln. Vorfestlegungen durch öffentliche Stellen müssen insoweit vermieden werden. Daher sollte die Prüfung der Zertifizierungsstelle nicht auf die Ermittlung von Diskriminierungen abzielen. Diese werden ohnehin deshalb offenbar, weil die Anleitung die Funktionsweise der Software zutreffend wiedergeben muss, um eine Zertifizierung zu erlangen. Fehlerausbesserung und Weiterentwicklung Im Rahmen eines Zertifizierungsverfahrens können Fehler nicht nur aufgefunden, sondern auch ausgebessert werden. Fehler sollten also nicht ohne Weiteres zur Ablehnung der Ausstellung des Zertifikats führen. Vielmehr sollte den Entwicklern im Laufe des Verfahrens Gelegenheit zur Nachbesserung gewährt werden, sofern Widersprüche zwischen der Software und der Anleitung festgestellt werden. Trotz größter anzunehmender Sorgfalt bei der Prüfung der Algorithmen ist nicht völlig auszuschließen, dass es doch einmal zu einem zunächst nicht erkannten Widerspruch zwischen Anleitung und Algorithmus kommt. In dem Fall muss die Möglichkeit bestehen, der Anwendung das Zertifikat nachträglich und kurzfristig – gegebenenfalls bis zur Behebung des Fehlers – wieder zu entziehen. Die Zertifizierungsstelle sollte daher in einer Weise ausgestattet und dazu angehalten sein, dass sie auch für Eingaben offen ist, die nachträglich auf etwaige Fehler hinweisen, und diesen nachzugehen. Hingegen würde die Einrichtung einer Aufsichtsinstitution, die statt vorgeschalteten lediglich nachgeordnete Prüfungen in Einzelfällen vornimmt, wie dies insbesondere für privatwirtschaftlich genutzte Algorithmen diskutiert wird569, kein ausreichendes Vertrauen in die Nachvollziehbarkeit des Algorithmus begründen. Im Gegenteil schürt die Einrichtung einer solchen Institution gerade das Misstrauen in die Funktionsweise und deren durch die Anleitung vermittelte Verständlichkeit. Dem Zertifizierungsverfahren sollte sich aber eine begleitende Fehlerkontrolle anschlie- (d) 568 Zur im Einzelfall zu berücksichtigenden mittelbaren Drittwirkung von Art. 3 Abs. 1 GG auf Privatpersonen vgl. BVerfG, Urteil vom 11. April 2018 – 1 BvR 3080/09, VersR 2018, 821 (824). 569 Vgl. Martini, JZ 2017, 1017 (1021 ff.). Kapitel 3) Zulässige und unzulässige Anwendungen 112 ßen.570 Dies führt zu einem weiteren beachtenswerten Aspekt: Da Algorithmen fortlaufend weiterentwickelt werden, stellt sich die Frage, wie mit neuen Programmversionen umzugehen ist. Ein Update kann den Algorithmus jederzeit verändern. Auch wenn insoweit eine neue Anleitung herausgegeben wird, wäre wiederum zu prüfen, ob diese die Funktionsweise des Algorithmus zutreffend wiedergibt. Daher dürften Zertifikate nur für eine bestimmte Programmversion ausgestellt werden. Jedes Update und jede neue Programmversion erfordern eine neue Zertifizierung. Schließlich muss sichergestellt werden, dass Informationen über Zertifizierungen und Entziehungen von Zertifikaten die Gerichte umgehend und zuverlässig erreichen. Im Zeitalter der Online-Kommunikation sollten der sofortigen Übermittlung solcher Informationen allerdings keine bedeutenden Hindernisse im Weg stehen. Problematik der Überprüfung von Geschäftsgeheimnissen Ebenfalls zu bedenken im Hinblick auf das vorgeschlagene Zertifizierungsverfahren ist, dass der verwendete Programmcode durch das europäisches Richtlinienrecht umsetzende Gesetz zum Schutz von Geschäftsgeheimnissen (GeschGehG)571 als Geschäftsgeheimnis geschützt sein kann572, was einer Offenlegung prinzipiell entgegensteht. Zwar ist es denkbar, Unternehmen gesetzlich zur Offenlegung des Programmcodes zu verpflichten, wenn ihre Software (auch) in der Justiz zum Einsatz kommen soll. Denn (e) 570 Martini, JZ 2017, 1017 (1021 f.) befürwortet ebenfalls eine begleitende Fehlerkontrolle algorithmenbasierter Entscheidungen (allerdings ohne den Fokus auf die Justiz zu legen und lediglich im Hinblick auf komplexe Anwendungen in persönlichkeitssensiblen Bereichen). 571 Mit dem am 26. April 2019 in Kraft getretenen GeschGehG (BGBl. 2019 Teil I, S. 466) wurde die Richtlinie (EU) 2016/943 des Europäischen Parlaments und des Rates vom 8. Juni 2016 über den Schutz vertraulichen Know-hows und vertraulicher Geschäftsinformationen (Geschäftsgeheimnisse) vor rechtswidrigem Erwerb sowie rechtswidriger Nutzung und Offenlegung (ABl. Nr. L 157/1 vom 15. Juni 2016) umgesetzt. 572 Vgl. Hoffmann-Riem, AöR 142 (2017), 1 (32); Scheja, CR 2018, 485 ff. Der Bundesgerichtshof hat etwa im Hinblick auf die von der SCHUFA zu erteilenden Auskünfte die sogenannte „Scoreformel“ von der Offenlegung ausgenommen, Urteil vom 28. Januar 2014 – VI ZR 156/13, BGHZ 200, 38. Auch Internet- Suchmaschinenbetreiber halten die konkrete Zusammensetzung und Gewichtung der Parameter innerhalb des Suchalgorithmus geheim, vgl. Dörr/Natt, ZUM 2014, 829 (838). A. Unabhängigkeit der Gerichte 113 ausweislich § 1 Abs. 2 GeschGehG gehen öffentlich-rechtliche Vorschriften zur Offenlegung dem grundsätzlich aus Abs. 1 folgenden Schutz von Geschäftsgeheimnissen vor. Dies liefe allerdings unternehmerischer Motivation, Software für die Justiz zu entwickeln, zuwider. Denn auch Wettbewerber hätten dann Einblick in den Programmcode und könnten die daraus gewonnenen Erkenntnisse – ungeachtet des gemäß § 69a UrhG grundsätzlich bestehenden Urheberrechtsschutzes für Computerprogramme – für die Entwicklung eigener Vorhaben nutzen, dadurch Ausgaben für die Forschung einsparen und gegebenenfalls günstigere Software anbieten. Um die Algorithmen trotz Zertifizierungsverfahren als Geschäftsgeheimnisse zu wahren, könnte ein sogenanntes In-Camera-Verfahren angewendet werden. Dabei würde lediglich die zertifizierende Stelle Einblick in die Algorithmen erlangen, um diese auf die Übereinstimmung mit der Anleitung prüfen zu können.573 Die Prüfstelle müsste insofern zur Geheimhaltung verpflichtet werden. Eine allgemeine Offenlegung der Algorithmen für die Öffentlichkeit wäre damit entbehrlich. Es ist auch nicht notwendig, jedem einzelnen Richter den Quellcode zugänglich zu machen. Die mögliche Lektüre des Codes generiert keinen Mehrwert, wenn ein sich daraus ergebendes Verständnis für den durchschnittlichen Richter ohnehin nicht zu erwarten ist. Vereinbarkeit mit der Berufsfreiheit Das Erfordernis einer Zertifizierung begründet keinen Verstoß gegen die aus Art. 12 GG folgende Berufsfreiheit der Softwarehersteller. Nach der (Drei-)Stufentheorie des Bundesverfassungsgerichts574 können Regelungen, die die Berufsausübung beschränken, durch vernünftige Erwägungen des Gemeinwohls gerechtfertigt sein.575 Eingriffe müssen zudem geeignet und erforderlich sein, das Eingriffsziel zu erreichen und dürfen zugleich nicht übermäßig belastend sein.576 Diese Voraussetzungen wären hier ohne Weiteres gegeben. Denn die zu schützende Bindung der Gerichte an Gesetz (f) 573 Auch für den sogenannten „Algorithmen-TÜV“ wird ein In-Camera-Verfahren vorgeschlagen, Martini, DVBl 2014, 1481 (1485 f.). 574 Grundlegend hierzu das sogenannte „Apothekenurteil“: BVerfG, Urteil vom 11. Juni 1958 – 1 BvR 596/56, BVerfGE 7, 377. 575 BVerfG, Urteil vom 11. Juni 1958 – 1 BvR 596/56, BVerfGE 7, 377, juris Rn. 74, und Urteil vom 30. Juli 2008 – 1 BvR 3262/07, BVerfGE 121, 317, juris Rn. 95. 576 BVerfG, Urteil vom 30. Juli 2008 – 1 BvR 3262/07, BVerfGE 121, 317, juris Rn. 95. Kapitel 3) Zulässige und unzulässige Anwendungen 114 und Recht gehört gemäß Art. 79 Abs. 3 i. V. m. Art. 20 Abs. 3 GG zu den einer Verfassungsänderung entzogenen Grundprinzipien des deutschen Rechtsstaats. Hinzu kommt, dass eine Heranziehung von nicht nachvollziehbarer Software zur Entscheidungsfindung bereits ohne ausdrückliches gesetzliches Verbot unzulässig ist. Eine Verbotsnorm wirkte insofern nur deklaratorisch. Eine Zertifizierung eröffnet daher erst die Möglichkeit, die Software auch zur Nutzung für die richterliche Entscheidungsfindung anzubieten. Zur bloßen Selbstkontrolle ist ihre Nutzung ohnehin auch ohne Zertifizierungsverfahren zulässig. Abweichende Auffassung des Gerichts Wer eine technische Entscheidungshilfe nutzt, muss sich nicht nur mit ihrer Entscheidungslogik auseinandersetzen, sondern sie auch hinterfragen und alternative Lösungsansätze in Erwägung ziehen.577 Wenn das Gericht feststellt, dass die Software, die es zur Entscheidungsfindung heranzuziehen gedenkt, nicht diejenigen Maßstäbe anlegt, die es selbst für zutreffend erachtet, muss es von ihrer Benutzung absehen. Nutzt das Gericht die Anwendung zur Entscheidungsfindung, obwohl es die dort gewählte Auslegungsvariante innerlich ablehnt, gibt es seine Entscheidung aus der Hand und verstößt gegen seine richterliche Unabhängigkeit.578 Die Software kann nur dann bedenkenlos benutzt werden, wenn die Funktionsweise genau dem entspricht, was der Richter den Computer selbst angewiesen hätte zu tun, wenn er – seine Fähigkeit hierzu vorausgesetzt – die Anwendung selbst programmiert hätte. d) 577 Vgl. Klaas, MMR 2019, 84 (87), der im Hinblick auf die Anforderungen an Parlamentsabgeordnete bei der Verwendung von Algorithmen in Gesetzgebungsverfahren ebenfalls darauf abstellt, dass die Vorschläge des Algorithmus hinterfragt und alternative Lösungsansätze in Erwägung gezogen werden. 578 Zur (Un-)Möglichkeit des Verzichts auf die richterliche Unabhängigkeit siehe III.5. Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit. Zu möglichen Konsequenzen des Verstoßes gegen die richterliche Unabhängigkeit siehe 6. Rechtsschutz und Dienstaufsicht sowie G. Amtshaftung und Spruchrichterprivileg. A. Unabhängigkeit der Gerichte 115 Erforderlichkeit von Auswahlmöglichkeiten? Die Auslegung von Gesetzen kann zu unterschiedlichen Ergebnissen führen, weshalb in der Rechtswissenschaft häufig divergierende Auffassungen zu finden sind. An Verbraucher gerichtete Software wird vorzugsweise unter der (ausschließlichen) Berücksichtigung obergerichtlicher Rechtsprechung programmiert, was ein besonderes Qualitätsversprechen mit sich bringt. So prüft die rightmart Rechtsanwalts GmbH579 „ALG II“-Bescheide mittels einer Software, die verspricht, die Rechtsprechung des Bundessozialgerichts umzusetzen.580 Fraglich ist, ob eine entsprechend eindimensionale Programmierung auch den Anforderungen an eine gerichtlich genutzte Software gerecht wird. Die Aufnahme von Entscheidungsvarianten wäre zur Vorbeugung einer Entscheidungsbeeinflussung zumindest wünschenswert.581 Im Lichte der richterlichen Unabhängigkeit geboten ist sie aber nicht. Die Lektüre eines juristischen Fachbuchs bietet ebenfalls keine Gewähr für eine umfassende Darstellung verschiedener Auslegungsvarianten. Die kritische Überprüfung der Rechtslage, die eine über die Nutzung einer Software hinausgehende Recherche beinhalten sollte, obliegt den Gerichten. Wie bei einem Fachbuch gibt es auch bei einer determinierten Anwendung für juristische Zwecke keinen Grund anzunehmen, sie vermittle ein allumfassendes Bild. Wenn Entscheidungsvarianten zur Verfügung stehen, sollten sie zwar möglichst gleichberechtigt dargestellt werden.582 Das bedeutet, dass die anzuwendende Auslegungsvariante vom Anwender aktiv auszuwählen ist, er also nicht mit einer Voreintragung konfrontiert wird. Zwingend erforderlich ist dies im Hinblick auf die richterliche Unabhängigkeit aber nicht. Denn das Gericht soll sich vor der Nutzung der Anwendung selbst festgelegt haben, wie es die Rechtslage im Grundsatz beurteilt. Daher sollte zwar auch von bewertenden Kennzeichnungen (etwa „h. M.“) abgesehen werden. Der Nachvollziehbarkeit der Funktionsweise eines determinierten Programms stehen sie aber nicht entgegen. Freilich zu begrüßen wäre eine weniger bewertende Kennzeichnung, die etwa die Angabe einer absoluten Zahl von Entscheidungen umfasst, die für die eine oder die andere Variane) 579 Https://rightmart.de/, zuletzt abgerufen am 18. Februar 2020. 580 Brandhoff, Digitale Transformation der Rechtsberatung – Kennen Sie Hatsune Miku?, LTO vom 3. Januar 2017; Buchholtz, JuS 2017, 955 (955 f.). 581 Berlit, JurPC Web-Dok. 77/2012, Abs. 50, fordert, entweder alle denkbaren Entscheidungsvarianten oder jedenfalls einen Hinweis in das Programm aufzunehmen, dass der Berechnung eine bestimmte Auslegung zugrunde liegt. 582 Ebenso: Berlit, JurPC Web-Dok. 77/2012, Abs. 50. Kapitel 3) Zulässige und unzulässige Anwendungen 116 te streiten; dies insbesondere dann, wenn damit ein einfacher Zugriff auf die einzelnen Entscheidungen verbunden ist. Auch hier besteht zwar die theoretische Gefahr einer Beeinflussung etwa dadurch, dass bestimmte Entscheidungen nicht verzeichnet werden. Auf der anderen Seite steht aber der Vorteil, einen leichten Zugang zu einschlägigen Entscheidungen zu erhalten. Durch einen Zugang zum Volltext der Entscheidung kann das Gericht das Argumentationsmuster selbst prüfen, was das Risiko einer unzulässigen Beeinflussung herabsenkt. Die bloße Gefahr der Entscheidungsbeeinflussung beziehungsweise der Entstehung eines Übernahmeautomatismus durch die Nutzung eines determinierten Programms begründet aber ohnehin noch keinen Verstoß gegen die richterliche Unabhängigkeit. Denn solange das Gericht seine Entscheidungen allein an Gesetz und Recht ausrichtet, schadet auch die Nutzung eines die richterlichen Entscheidungen umsetzenden Computerprogramms nicht. Schließlich wäre wünschenswert, wenn in determinierte Programme, die Auswahlvarianten enthalten, eine Möglichkeit integriert würde, keine der vorgeschlagenen Entscheidungsvarianten auszuwählen („sonstige Variante“). Die Auswahl „sonstige Variante“ muss zwangsläufig zum Abbruch des Programmablaufs führen, da rein algorithmische Anwendungen keine Lösungen außerhalb ihres Programmcodes kennen. Für das entscheidende Gericht wäre dies zwar die ungünstigste Variante, weil es nunmehr beispielsweise eine Berechnung händisch durchführen müsste. Daraus kann also durchaus eine latente Präferenz für eine der angebotenen Auslegungsvarianten entstehen. Allerdings würde der Anwender mit dem Vorhalten einer „sonstigen Variante“ daran erinnert, dass sich die denkbaren Auslegungsmöglichkeiten nicht notwendig in den angezeigten Auswahlvarianten erschöpfen. Außerdem ginge es zu weit, Richtern grundsätzlich zu unterstellen, sie würden sich darauf zurückziehen, nur die vorgegebenen Lösungen zu übernehmen. Unerkannt „fehlerhafter“ Algorithmus Problemstellung Nicht thematisiert wurde bislang, wie es sich auf die rechtliche Bewertung der Verwendung von rein algorithmischen Anwendungen für die Entscheidungsfindung auswirkt, wenn unerkannte Abweichungen im Algorithmus auftreten. Ein „Fehler“ liegt tatsächlich nicht vor, weil das Programm die implementierten Vorgaben abarbeitet. Die Abweichung beruht f) (1) A. Unabhängigkeit der Gerichte 117 auf der menschlichen Programmierung, die der Software einen Arbeitsschritt anders als vorgestellt vorgibt. Bei der Anwendung eines unbekannten583 oder nicht hinreichend nachvollziehbaren584 Algorithmus hängt die Unzulässigkeit der Benutzung des Programms nicht davon ab, ob dieses dazu auch noch fehlerhaft programmiert worden ist oder nicht. Wie gesehen, ist insoweit jede Benutzung unzulässig. Die Problematik des unerkannt fehlerhaften Algorithmus betrifft daher nur jene Fälle, in denen der Anwender zwar eigentlich hinreichende technische Kenntnisse, gleichwohl aber eine Abweichung der tatsächlichen von der gewollten Ausführung in der Anwendung übersehen hat, oder in denen die eigentlich durch Anleitung und Zertifizierung vermittelte Nachvollziehbarkeit tatsächlich doch nicht besteht, weil der Programmablauf von der Anleitung abweicht. Mögliche Fehlerursachen In den letztgenannten Konstellationen können Fehler in folgenden Gestalten auftreten: Demjenigen Anwender, der den Algorithmus deshalb genau zu kennen glaubt, weil er ihn selbst programmiert hat, kann bei der Übersetzung seiner rechtlichen Bewertung in Programmcode ein Fehler unterlaufen sein.585 Dies ist etwa dann der Fall, wenn für einige Eingaben ein falsches Ergebnis produziert wird.586 Grund hierfür kann eine fehlerhafte Konzeption oder aber auch ein Fehler bei der Implementierung sein.587 Auch kann derjenige, der aufgrund seiner Spezialkenntnisse grundsätzlich in der Lage ist, den Algorithmus zu verstehen, diesen zwar geprüft, dabei den Fehler aber schlicht übersehen haben. Denkbar ist auch, dass der Algorithmus durch die beigefügte Anleitung und Zertifizierung nur vermeint- (2) 583 Siehe hierzu oben b) Unzulässigkeit bei fehlender Kenntnis des Richters vom Algorithmus. 584 Siehe hierzu oben c)(1) Maßstab für die Nachvollziehbarkeit. 585 Vgl. im Hinblick auf Smart Contracts hierzu Kaulartz/Heckmann, CR 2016, 618 (623). 586 Zweig, Was ist ein Algorithmus?, AlgorithmWatch vom 12. Mai 2016. Nach Zweig kann ein Fehler auch in der Weise vorliegen, dass der Algorithmus die Berechnung nicht beendet. Ein solcher Fehler würde mangels Ergebnisausgabe jedoch auffallen, so dass diese Art von Fehlern keine Bedeutung für den hier behandelten Fall des unerkannt fehlerhaften Algorithmus hat. 587 Zweig, Überprüfbarkeit von Algorithmen, AlgorithmWatch vom 7. Juli 2016. Zweig führt noch weitere mögliche Fehlerquellen wie fehlerhafte Modellierung, fehlerbehaftete Daten und gesellschaftlich unerwünschte Nebenwirkungen auf, die aber vor allem auf selbstlernende Systeme zugeschnitten sind. Kapitel 3) Zulässige und unzulässige Anwendungen 118 lich nachvollziehbar geworden ist, weil in der Anleitung die maßgeblichen Kriterien und deren Gewichtung tatsächlich doch nicht zutreffend wiedergegeben worden sind und dies im Zertifizierungsverfahren nicht aufgefallen ist. Folgendifferenzierung Verstoß gegen die richterliche Unabhängigkeit? Die unerkannte Abweichung bewirkt, dass die Funktionsweise für den Anwender nur vermeintlich nachvollziehbar ist. Nun ließe sich (vor)schnell der Schluss ziehen, jede Verwendung eines unerkannt fehlerhaften Programms sei wie die Verwendung eines insgesamt nicht bekannten Algorithmus wegen eines Verstoßes gegen die richterliche Unabhängigkeit unzulässig. Dies ginge jedoch zu weit. Denn das hätte zur Folge, dass die Nutzung von rein algorithmischen Anwendungen praktisch ausgeschlossen wäre, weil sie unter dem ständigen Damokles-Schwert der Grundgesetzwidrigkeit stehen würde. Aus dem Blickwinkel des eigentlich informierten Anwenders, der eine durch eine Zertifizierung bestätigte Vorstellung davon hat, wie der Algorithmus eigentlich funktionieren soll, und ihn unter dieser Prämisse anwendet, wäre der nachträgliche Tadel als verfassungswidriges Vorgehen nicht mehr verständlich. Gerichten wäre anzuraten, auf technische Unterstützung zur Entscheidungsfindung besser ganz zu verzichten. Aber auch aus Sicht der Rechtsuchenden ist fraglich, ob die von einem unerkannt fehlerhaften Algorithmus beeinflusste Entscheidung mit dem Makel der Verfassungswidrigkeit etikettiert werden muss, zumal sie im Allgemeinen von der technologiebedingt zügigeren Verfahrensabwicklung profitieren und ihnen grundsätzlich die Rechtsmittel der Berufung und Revision offenstehen, die zur Überprüfung der Entscheidung führen. Es ist nach Zeitabschnitten zu differenzieren: Sobald das Gericht Kenntnis vom Fehler erlangt oder gewichtige Zweifel an der korrekten Funktionsweise des Programms hat, muss es die Nutzung einstellen. Denn ab dem Zeitpunkt weiß oder ahnt der Richter, dass das Programm nicht so funktioniert, wie er sich das vorgestellt hat und die Ergebnisse möglicherweise nicht mit seiner eigenen Entscheidung in Einklang stehen, sondern eine Übereinstimmung mit dem von ihm gewählten Maßstab mehr oder weniger zufällig ist. Insoweit besteht ein Gleichklang mit der Einbezie- (3) (a) A. Unabhängigkeit der Gerichte 119 hung standardisierter Messverfahren in die richterliche Entscheidungsfindung.588 Anders liegt es jedoch in dem davorliegenden Zeitraum, das heißt solange der Fehler unerkannt geblieben ist. In dieser Konstellation hat der Anwender immerhin noch ein auf dem Zertifizierungsverfahren gründendes Vertrauen in seine Vorstellung von der Funktionsweise des Programms, unterliegt dabei jedoch einem Irrtum. Denn der Algorithmus weicht von der erwarteten Ausführung ab, ohne dass es dem Anwender bewusst ist. Die fehlerhafte Funktionsweise betrifft dabei im Kern nicht die richterliche Unabhängigkeit. Denn der Richter hat sich für eine bestimmte – vom tatsächlichen Programmergebnis abweichende – Lösung entschieden, die das Programm nach dem, was er weiß, auch hätte umsetzen müssen. Damit liegt der Fall anders als bei der unbedarften Übernahme der Ergebnisse eines nicht hinreichend nachvollziehbaren Algorithmus. Denn dort überlässt das Gericht die Entscheidung dem Computer beziehungsweise den Entwicklern der Software. Der Irrtum des Gerichts kann aber erst dadurch entstehen, dass es sich Gedanken über die Funktionsweise des Programms gemacht und eine ganz bestimmte Vorstellung davon entwickelt hat. Es hat sich für die Anwendung der Software entschieden, weil ihre Funktionsweise scheinbar mit der eigenen Überzeugung in Einklang steht. Die Entscheidung, wie über den Fall zu urteilen ist, wird also nicht bewusst aus der Hand gegeben. Mit anderen Worten ist nicht die Willensbildung des Gerichts betroffen. Vielmehr führt der Programmfehler zu einer fehlerhaften Kundgabe des Willens. Möglichkeit der Urteilsberichtigung Fälle, in denen das vom Gericht Erklärte von den von ihm Gewollten abweicht, sind zwar grundsätzlich einer Urteilsberichtigung nach § 319 Abs. 1 ZPO zugänglich.589 Fraglich ist aber, ob dies auch in den Fällen des unerkannt fehlerhaften Algorithmus gilt. Nach § 319 Abs. 1 ZPO können Schreibfehler, Rechnungsfehler und ähnliche offenbare Unrichtigkeiten berichtigt werden. Dabei kommt es auf das Vorliegen einer Divergenz zwischen der in der Entscheidung zum Ausdruck gekommenen Erklärung des richterlichen Willens und der bei der Urteilsfällung vorhandenen Willens- (b) 588 Hierzu c)(2)(b) Vergleichbarkeit mit standardisierten Messverfahren. 589 Vgl. BGH, Urteil vom 12. Januar 1984 – III ZR 95/82, NJW 1985, 742, juris Rn. 15. Kapitel 3) Zulässige und unzulässige Anwendungen 120 bildung an.590 Jeder Bestandteil eines Urteils kann Gegenstand einer Berichtigung sein, wozu auch der Tenor gehört.591 Eine bloß fehlerhafte Willensbildung ist jedoch keiner Berichtigung zugänglich.592 So aber liegt der Fall bei der fälschlichen Entnahme eines Wertes aus einer anderen als der eigentlich zutreffenden Tabelle, um diesen sodann für eine softwarebasierte Berechnung zu nutzen.593 Nicht abweichend zu beurteilen ist die Verwendung eines nicht bekannten oder nicht aufgrund Zertifizierung nachvollziehbaren Algorithmus. Auch hier ist keine Divergenz von Willensbildung und Willensäußerung ersichtlich. Die unbedarfte Übernahme von Ergebnissen einer Software, ohne sich näher mit ihrer Funktionsweise zu beschäftigen, schließt einen Irrtum darüber aus. Anders liegt der Fall aber in den Konstellationen des (durch Spezialkenntnisse oder Zertifizierung) vermeintlich nachvollziehbaren, aber unerkannt fehlerhaften Algorithmus. Dieser ist zumindest im Ansatz vergleichbar mit Eingabefehlern („Vertippen“) bei der Verwendung eines Computerprogramms. Solche bloßen Eingabefehler können im Wege der Urteilsberichtigung korrigiert werden, weil der Eingabefehler eine Divergenz zwischen Erklärtem und Gewolltem bewirkt.594 Auch bei der Verwendung des unerkannt fehlerhaften Algorithmus unterliegt lediglich die Willens- äußerung, nicht aber die Willensbildung einem Mangel. Die Fälle des unerkannt fehlerhaften Algorithmus sind davon geprägt, dass das Gericht sich Gedanken über die Rechtslage und die Wirkungsweise des Programms gemacht hat. Im Zuge dessen hat es sich für eine bestimmte Lösung entschieden, die es dachte, mit Hilfe des Programms auf den Anwendungsfall zu übertragen. Problematisch ist allerdings, ob der Irrtum „offenbar“ im Sinne des § 319 Abs. 1 ZPO ist. Dies ist zwingende Voraussetzung einer Berichtigung nach § 319 Abs. 1 ZPO und immer dann der Fall, wenn der Irrtum sich aus dem Zusammenhang des Urteils selbst oder aus den Vorgängen bei seinem 590 OLG Bamberg, Beschluss vom 15. Oktober 1997 – 2 WF 115/97, NJW-RR 1998, 1620, juris Rn. 3. 591 Feskorn, in: Zöller, ZPO, § 319 Rn. 14. 592 BGH, Urteil vom 12. Januar 1984 – III ZR 95/82, NJW 1985, 742, juris Rn. 15. 593 Vgl. OLG Saarbrücken, Beschluss vom 1. Juni 2004 – 6 UF 2/04, MDR 2005, 47, juris Rn. 10. 594 Siehe hierzu OLG Bamberg, Beschluss vom 15. Oktober 1997 – 2 WF 115/97, NJW-RR 1998, 1620: Die Richterin war bei der Verwendung eines Computerprogramms zur Berechnung des Versorgungsausgleichs einem Eingabefehler unterlegen; ferner OLG Karlsruhe, Beschluss vom 25. Oktober 2002 – 2 UF 98/02, MDR 2003, 523, juris Rn. 7. A. Unabhängigkeit der Gerichte 121 Erlass ergibt.595 Gerichtsinterne Versehen, die nicht ohne Beweiserhebung überprüft werden könnten, sind keine offenbaren Unrichtigkeiten.596 Vielmehr muss das Versehen auch für Dritte augenfällig sein.597 Die Abweichung des Algorithmus von der eigentlich gewollten Entscheidung bleibt dem Richter in den Fällen des unerkannt fehlerhaften Algorithmus verborgen und ist insofern ein gerichtsinternes Versehen. Sofern der vom Gericht zur Übertragung auf den Einzelfall bestimmte Entscheidungsalgorithmus keinen Widerklang in der Urteilsbegründung findet, dürfte aus der Sicht Dritter kaum jemals eine „offenbare“ Divergenz zwischen Gewolltem und Erklärtem zu ermitteln sein. Auch die binnen zwei Wochen ab der Zustellung des Urteils zu beantragende Möglichkeit der bloßen Tatbestandsberichtigung nach § 320 ZPO erweist sich insofern als stumpfes Schwert. Fehler, die die Urteilsformel, die Subsumtion oder wertende Entscheidungsteile betreffen, können auf diesem Weg nicht korrigiert werden.598 Daher hängt die Möglichkeit einer Urteilsberichtigung im Ergebnis davon ab, ob das Gericht seine Vorstellung vom Entscheidungsalgorithmus (also das Gewollte) in den Entscheidungsgründen niedergelegt hat und sich daraus die Divergenz zum maschinell ermittelten Ergebnis ableiten lässt.599 In dem Fall würde sich die Divergenz aus den Urteilsgründen selbst ergeben, so dass eine Berichtigung nach § 319 Abs. 1 ZPO doch noch in Betracht zu ziehen wäre. Daneben ist denkbar, dass sich eine Divergenz zwischen Gewolltem und Erklärtem aus einer vom Computer mitgelieferten und in die Entscheidung übertragenen Begründung entnehmen lässt. Dies wäre dann der Fall, wenn das (falsche) Ergebnis der mitgelieferten Begründung widerspricht, letztere aber im Einklang mit der Anleitung steht, die das Zertifizierungsverfahren trotz des Fehlers betreffend die Ergebnisausgabe zuvor erfolgreich durchlaufen hat. Freilich handelt es sich dabei um kein besonders wahrscheinliches Szenario. Unerkannt „fehlerhaft“ gewordener Algorithmus Weiter ist der Frage nachzugehen, wie die Benutzung einer nicht mehr aktuellen rein algorithmischen Anwendung zu behandeln ist. Der im Prog) 595 BGH, Urteil vom 12. Januar 1984 – III ZR 95/82, NJW 1985, 742, juris Rn. 15. 596 BGH, Urteil vom 8. Juli 1980 – VI ZR 176/78, BGHZ 78, 22, juris Rn. 43. 597 BGH, Urteil vom 12. Januar 1984 – III ZR 95/82, NJW 1985, 742, juris Rn. 15. 598 Elzer, in: BeckOK ZPO, § 320 Rn. 10. 599 Vgl. D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. Kapitel 3) Zulässige und unzulässige Anwendungen 122 gramm verwendete Algorithmus kann etwa durch eine zwischenzeitliche Gesetzesänderung überholt sein. Auch kann der Entscheidungsalgorithmus dadurch in Frage gestellt sein, dass dem Programmergebnis zwischenzeitlich eine (geänderte) höchstrichterliche Rechtsprechung entgegensteht. Der Algorithmus ist tatsächlich nicht „fehlerhaft“, sondern führt unverändert die menschlich programmierten Arbeitsanweisungen aus. Verändert haben sich hingegen die äußeren Rahmenbedingungen. Sowohl bei einer Änderung des Gesetzes als auch der höchstrichterlichen Rechtsprechung weicht die Funktionsweise des Programms nicht von dem ab, was das Gericht sich vorstellt. Das Gericht überträgt seine einst getroffene Entscheidung durch die Nutzung der Software solange auf Einzelfälle, bis es seine Benutzung einstellt. Seine Entscheidung hat es damit nicht aus der Hand gegeben. Weder wendet das Gericht einen nicht bekannten noch einen nicht nachvollziehbaren Algorithmus an. Die richterliche Unabhängigkeit wird daher durch die Verwendung einer veralteten Software nicht tangiert. Insoweit gilt nichts anderes als bei der Verwendung einer veralteten, selbst erstellten Entscheidungsvorlage oder in dem Fall, dass ein konventionell arbeitender Richter ein neues Gesetz oder eine neue obergerichtliche Entscheidung übersieht. Allerdings wäre die Nichtberücksichtigung einer offensichtlich einschlägigen Norm willkürlich und verstieße damit gegen den Gleichheitssatz (Art. 3 Abs. 1 GG).600 Die Nichtzugrundelegung der höchstrichterlichen Rechtsprechung ist zwar nicht per se willkürlich.601 Sie setzt aber voraus, dass das Gericht sich mit der Rechtslage eingehend auseinandergesetzt hat und die Entscheidung sachlich noch ansatzweise nachzuvollziehen ist.602 Insoweit kommt es auf die Umstände des Einzelfalls an. Eine unkritische Übernahme des Ergebnisses einer Softwareanwendung birgt somit jedenfalls die Gefahr, sich dem Vorwurf der Willkür auszusetzen, weil zwischenzeitlich gegebenenfalls Gesetzesänderungen erfolgt sind oder sich in der höchstrichterlichen Rechtsprechung ein Wandel vollzogen hat.603 600 Vgl. BVerfG, Beschluss vom 3. November 1992 – 1 BvR 1243/88, BVerfGE 87, 273, juris Rn. 16; Kischel in, BeckOK GG, Art. 3 Rn. 84. Näheres zum Willkürverbot unter D.III. Automatisierte Entscheidungsfindung und Willkürverbot. 601 Die richterliche Unabhängigkeit umfasst die Freiheit, von obergerichtlichen Entscheidungen abzuweichen, siehe hierzu A.III.3. Unabhängigkeit gegenüber der Judikative. 602 Vgl. BVerfG, Beschluss vom 3. November 1992 – 1 BvR 1243/88, BVerfGE 87, 273, juris Rn. 16. 603 Näheres zur Begründungspflicht richterlicher Entscheidungen unter D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. A. Unabhängigkeit der Gerichte 123 Nutzung von autonomen Systemen zur Entscheidungsfindung Wenn das Gericht für die Entscheidungsfindung ein autonomes System heranzieht, gibt es die Entscheidung aus der Hand, da dessen Regeln für den Menschen weder vorhersehbar noch im Nachhinein einsehbar sind.604 Eine Nachvollziehbarkeit ist daher ausgeschlossen. Macht sich das Gericht gleichwohl die Ergebnisse eines autonomen Systems zu eigen, tritt an die Stelle der Bindung an Gesetz und Recht die Bindung an die Ergebnisse des autonomen Systems. Richter dürfen jedoch keinen anderen Bindungen als denen an Gesetz und Recht unterliegen. Sie dürfen auch nicht freiwillig auf sie verzichten.605 Sofern sie auf die Ergebnisse eines autonomen Systems zurückgreifen, müssen sie diese also in jedem Einzelfall inhaltlich voll überprüfen. Die technische Unterstützung darf insofern lediglich zur Plausibilitätskontrolle im Hinblick auf die selbst gefundenen Ergebnisse oder als Denkanstoß genutzt werden. Anders als bei determinierten Programmen kommt eine Zertifizierung von autonomen Systemen zum Zwecke ihres Einsatzes im Zusammenhang mit der richterlichen Entscheidungsfindung nicht in Betracht.606 Bei dauerhaft weiterlernenden und sich dadurch ständig weiterentwickelnden autonomen Systemen steht bereits die damit verbundene Verschiebung der Gewichtung einzelner Kriterien einer an eine bestimmte Programmversion gekoppelten Zertifizierung entgegen.607 Zwar kann ein autonomes System durch Beendigung des Trainings „eingefroren“ werden, so dass es in einem bestimmten Zustand verharrt.608 Eine Überprüfung des Programmcodes hilft hier gleichwohl nicht weiter, um die Wirkungsweise des Systems zu verstehen. Der Code zeichnet die Regeln, nach denen das System entscheidet, weder vor noch bildet er sie ab.609 Da der Mensch die Funktionsweise nicht nachvollziehen kann, hilft auch die Generierung einer Begründung der jeweiligen Einzelfallentscheidung durch das System selbst 2. 604 Hierzu Kapitel 1) A.II. Autonome Systeme. 605 Hierzu im Einzelnen unter III.5. Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit. 606 Zum Vorschlag der Zertifizierung von rein algorithmischen Anwendungen siehe 1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. 607 So im Hinblick auf einen „Algorithmen-TÜV“ auch Lenzen, Künstliche Intelligenz, S. 180. 608 Lenzen, Künstliche Intelligenz, S. 58. 609 Martini, JZ 2017, 1017 (1020 Fn. 37). Kapitel 3) Zulässige und unzulässige Anwendungen 124 nicht weiter.610 Das Gericht müsste diese händisch mit den rechtlichen Vorgaben abgleichen, also eine eigene rechtliche Prüfung des Einzelfalls vornehmen. Auch wäre unklar, ob die computergenerierte Begründung tatsächlich die Funktionsweise des Systems zutreffend wiedergibt. Dies könnte erst im Nachhinein überprüft werden. Eine Zertifizierung müsste hingegen vorab und in allgemeingültiger Weise erfolgen. Freiwillige und verpflichtende Nutzung Eine von Seiten der Justizverwaltung vorgegebene, verpflichtende Nutzung eines autonomen Systems ist bereits deshalb ausgeschlossen, weil dessen Verwendung zur Entscheidungsfindung unzulässig ist.611 Eine solche Verpflichtung wäre rechtswidrig. Der Richter müsste ihr nicht nachkommen.612 Zur Nutzung eines determinierten Programms darf die Justizverwaltung den Richter ebenfalls nicht anhalten. Die Nutzung würde ihn auf eine bestimmte Rechtsauffassung oder auf jene, die die Software als Auswahlmöglichkeiten vorsieht, festlegen.613 Auch dies wäre mit der richterlichen Unabhängigkeit nicht zu vereinbaren. Nicht so klar liegt der Fall, wenn die Justizverwaltung Richtern ein determiniertes Programm zur Entscheidungsfindung zur freiwilligen Benutzung zur Verfügung stellt. Insoweit ist zunächst klarzustellen, dass die Bereitstellung durch die Justizverwaltung nicht von dem Erfordernis der Nachvollziehbarkeit befreit.614 3. 610 Zweifelnd im Hinblick auf die technische Umsetzbarkeit einer implementierten Begründung: Martini, JZ 2017, 1017 (1020). 611 Hierzu vorstehend 2. Nutzung von autonomen Systemen zur Entscheidungsfindung. 612 Für untergesetzliches Recht gilt das Verwerfungsmonopol des Bundesverfassungsgerichts nicht, vgl. Art. 100 Abs. 1 GG. 613 Sieht die Software aber (neben anderen Optionen) die zum Programmabbruch führende Auswahl „sonstige Auffassung“ vor, kann darin nur vermeintlich eine Verpflichtung zur Nutzung gesehen werden. Denn in dem Fall, dass das Gericht die Auswahl „sonstige Auffassung“ trifft, kann es die vom Programm vorgegebenen Lösungsvorschläge durch eine eigene Lösung, die außerhalb der Programmvorgaben liegt, ersetzen. Anders läge es aber, wenn Richter angewiesen würden, der „sonstigen Auffassung“ nicht zu folgen. Dann würden sie auf die übrigen Auswahlmöglichkeiten, die ein Programmergebnis produzieren, beschränkt. Dies bedeutete einen Verstoß gegen die richterliche Unabhängigkeit. 614 Dazu oben unter 1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. A. Unabhängigkeit der Gerichte 125 Sodann heißt es im Hinblick auf den Betrieb und die Administration eines EDV-Netzes, dies sei unbedenklich, wenn kein Grund bestehe, anzunehmen, das EDV-Netz werde zur inhaltlichen Kontrolle richterlicher Dokumente im Kernbereich der Rechtsprechung genutzt.615 Verbotene Einflussnahme sei aber dann gegeben, „wenn ein besonnener Richter durch ein Gefühl des unkontrollierbaren Beobachtetwerdens […] von der Verwendung der ihm zur Erfüllung seiner richterlichen Aufgaben zur Verfügung gestellten Arbeitsmittel abgehalten würde“.616 Diese Gedanken können auf die Bereitstellung von determinierten Programmen übertragen und fortgeführt werden. Die Bereitstellung eines determinierten Programms zur freiwilligen Nutzung kann zumindest mittelbar auf die Überzeugungsbildung des Richters durchschlagen. Insbesondere wenn die Software eine schnellere Erledigung von Verfahren verspricht, kann mit der Zurverfügungstellung ein latenter Verwendungsdruck einhergehen. Diesen spürt der einzelne Richter jedenfalls dann, wenn die Dezernate aufgrund der zügigeren Bearbeitung gleichartiger Fälle durch Kollegen unter Hinweis auf die durchschnittlich kürzere Bearbeitungsdauer der einzelnen Verfahren aufgestockt werden.617 Außerdem kann sich eine eventuell langsamere händische Bearbeitung negativ auf die richterlichen Beurteilungen auswirken, was zu Nachteilen in Beförderungsverfahren führt. Gleichwohl ist das Maß einer unzulässigen Einflussnahme auf die richterliche Entscheidungsfindung durch die Zurverfügungstellung eines determinierten Programms zur freiwilligen Nutzung noch nicht erreicht. Vom Richter kann erwartet werden, dass er den Verlockungen einer schnelleren und bequemeren Bearbeitung standhält und die Nutzung einer Software von sich aus unterlässt, wenn die Funktionsweise seiner Überzeugung widerspricht. Auf die Verwendung einer von einem Kollegen zur Verfügung gestellten Entscheidungsvorlage wird er trotz der Aussicht auf Zeitersparnis gleichfalls nicht zurückgreifen, wenn diese nicht seiner Rechtsüberzeugung entspricht. Zudem kann der auf die Verwendung der Software verzichtende Richter einen wichtigen Beitrag zur Meinungsbildung leisten. Streiten die überzeugenderen Argumente für die von ihm vertretene Auffassung, spricht einiges dafür, dass auch andere 615 BGH, Urteil vom 6. Oktober 2011 – RiZ (R) 7/10, MDR 2011, 1508, juris Rn. 31. 616 BVerfG, Beschluss vom 17. Januar 2013 – 2 BvR 2576/11, NJW 2013, 2102, juris Rn. 8. 617 Ähnlich Nack, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 191 (212). Kapitel 3) Zulässige und unzulässige Anwendungen 126 Richter von der Verwendung der Software absehen werden, was gegebenenfalls zu einer Anpassung, etwa durch Integration von Auswahlvarianten, führen kann. Um das Einflusspotential zu minimieren, sollte die zur freiwilligen Nutzung zur Verfügung gestellte Software aber hinsichtlich der einzelnen Tatbestandsmerkmale und deren Auslegungsvarianten von vornherein Auswahlmöglichkeiten sowie die Möglichkeit einer individuellen Eingabe vorsehen.618 Denkbar ist auch die gesetzliche Anordnung der Verwendung einer automatisierten Anwendung. Die Gerichte wären aufgrund ihrer Gesetzesbindung gemäß Art. 20 Abs. 3, 97 Abs. 1 GG grundsätzlich daran gebunden. Die richterliche Unabhängigkeit findet hier ihre verfassungsimmanenten Grenzen.619 Allerdings verstieße die gesetzliche Anordnung der Verwendung eines nicht nachvollziehbaren determinierten Programms oder eines autonomen Systems gegen den aus Art. 20 Abs. 3 GG folgenden Bestimmtheitsgrundsatz. Danach muss der Betroffene „die Rechtslage anhand der gesetzlichen Regelung so erkennen können, dass er sein Verhalten danach auszurichten vermag“.620 Auch wäre kein faires Verfahren mehr gewährleistet.621 Denn für die Normadressaten wäre nicht mehr erkennbar, welches Verhalten von ihnen verlangt wird, wenn die Rechtslage von einem undurchschaubaren System ermittelt wird. Man kann dem zwar entgegenhalten, dass auch Gesetze nicht stets so klar formuliert sind, dass sich die Verhaltensanforderungen daraus eindeutig ergeben. So ist der Gesetzgeber nicht gehindert, durch die Schaffung von unbestimmten Rechtsbegriffen, Generalklauseln und Ermessensermächtigungen Wertungsspielräume zu belassen.622 Allerdings steht die Auslegungsbedürftigkeit als solche dem Bestimmtheitserfordernis nicht entgegen, solange eine Auslegung unter Heranziehung der juristischen Methodik zu bewältigen ist und die verbleibenden Ungewissheiten nicht 618 Hierzu 1.e) Erforderlichkeit von Auswahlmöglichkeiten? 619 Anders Martini et al., Automatisch erlaubt?, S. 50, die ein Gesetz, das Richtern vorschreibt, algorithmisch generierte Entscheidungsvorschläge zu übernehmen, mit Blick auf die grundgesetzlich garantierte richterliche Unabhängigkeit per se für verfassungswidrig halten. 620 BVerfG, Beschluss vom 3. März 2004 – 1 BvF 3/92, BVerfGE 110, 33, juris Rn. 103. 621 Zum Recht auf ein faires Verfahren siehe D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. 622 Mit Blick auf das Verwaltungshandeln: Huster/Rux, in: BeckOK GG, Art. 20 Rn. 182. A. Unabhängigkeit der Gerichte 127 so weit gehen, dass eine Vorhersehbarkeit ernsthaft gefährdet ist.623 Automatisierte Anwendungen folgen aber nicht der juristischen Methodik.624 Sofern die Entscheidungen nicht wenigstens noch nachvollziehbar sind, stellen sie sich als mehr oder weniger zufällig dar. Daher spricht auch die Zulässigkeit der Verwendung von Generalklauseln nicht für eine Vereinbarkeit von nicht nachvollziehbaren automatisierten Anwendungen mit dem Bestimmtheitsgrundsatz. Problematik einer determinierenden Wertentscheidung Eine Folge der abstrakten Formulierung von Gesetzen ist, dass sich nicht stets sicher vorhersagen lässt, wie ein Verhalten im Streitfall zu bewerten ist.625 Die Ergebnisse der Interpretation eines Begriffs können – kontextbedingt – unterschiedlich und gleichwohl nicht beliebig sein.626 Der Gesetzgeber lässt – etwa durch den Gebrauch von unbestimmten Rechtsbegriffen und Generalklauseln – ganz bewusst Wertungsspielräume zu, damit sich die konkrete Normanwendung im Laufe der Zeit herauskristallisieren kann.627 Niemand kann sämtliche Konstellationen und die sodann vorherrschenden Wertvorstellungen vorhersehen, die es einmal in die Beziehung zum Anwendungsbereich einer Norm zu setzen gilt. Es ist unmöglich, sämtliche juristische Fragestellungen, die sich aus der Anwendung einer Norm ergeben können, vorab zu klären.628 Auch der Gesetzgeber kann nicht sämtliche Kontexte abschließend vorhersehen, in denen ein Rechtsbegriff Bedeutung erlangen kann.629 Daher können bei der Regelsetzung bestimmte Konfliktkonstellationen absichtlich nicht geregelt, aber auch schlicht übersehen werden.630 Generalklauseln erlauben auch eine Anpassung des Rechts an einen sich vollziehenden Wertewandel in der Gesellschaft.631 So manifestiert sich beispielsweise in der offenen Ausgestal- 4. 623 BVerfG, Beschluss vom 3. März 2004 – 1 BvF 3/92, BVerfGE 110, 33, juris Rn. 111. 624 Hierzu Kapitel 2) A. Formalisierung des Rechts? 625 Wysk, in: GS Brandner, S. 137 (137 f.). 626 Hoffmann-Riem, AöR 142 (2017), 1 (27). 627 Wysk, in: GS Brandner, S. 137 (141 f.). 628 Haft, in: Erdmann et al., Computergestützte Juristische Expertensysteme, S. 21 (22). 629 Kotsoglou, JZ 2014, 451 (455). 630 Hoffmann-Riem, AöR 142 (2017), 1 (34). 631 Möllers, Juristische Methodenlehre, S. 257. Kapitel 3) Zulässige und unzulässige Anwendungen 128 tung des § 242 BGB, wonach der Schuldner verpflichtet ist, „die Leistung so zu bewirken, wie Treu und Glauben mit Rücksicht auf die Verkehrssitte es erfordern“, die Anerkennung eines möglichen Wertewandels, der gerade nicht vom Gesetzgeber vorgegeben wird.632 Auf Generalklauseln können sogar gänzlich neue Regeln gestützt werden.633 Weder determinierte Programme noch autonome Systeme sind zu eigenen wertenden Entscheidungen in der Lage.634 Dies schließt allerdings nicht aus, dass ihre Funktionsweise durch Wertungen geprägt wird. Diese gehen auf die Vorstellungen ihrer Programmierer zurück.635 Behandelt eine Anwendung einen Bereich, in dem eine entscheidungserhebliche Rechtsfrage umstritten ist, hat die Zugrundelegung der einen oder der anderen Auffassung für die zu treffende Entscheidung eine ganz erhebliche praktische Bedeutung. Die Wenn-Dann-Struktur des determinierten Programms führt nur in eine Richtung, während abweichende Auffassungen außen vor gelassen werden. Sofern die Anwendung Alternativen für verschiedene Auffassungen vorhält, erfolgt zumindest noch eine Vorfestlegung. Es stellt sich daher die Frage, wer die initiierenden Wertentscheidungen vorgeben darf.636 Diese können auch einen Wertungsalgorithmus betreffen, der nicht vorhergesehene Konstellationen einer Entscheidung zuführt.637 Autonome Systeme entwickeln zwar eigene Regeln. Diesen liegt aber ein Datenpool zugrunde, den die Entwickler zur Verfügung gestellt haben. Streitet eine Mehrheit der im Datensatz enthaltenen Entscheidungen für eine bestimmte Ansicht, wirkt dies bereits bestimmend für die Ergebnisse. Damit beanspruchen auch die Entwickler selbstlernender Systeme eine erhebliche Gestaltungsmacht. Auch insoweit ist daher zu fragen, wer die ersten zu setzenden Maßstäbe vorgeben darf.638 632 Olzen/Looschelders, in: Staudinger, BGB, § 242 Rn. 143 m. w. N. 633 Möllers, Juristische Methodenlehre, S. 257. 634 Hierzu Kapitel 2) A.IV. Formale Logik und Wertungen. 635 Dörr/Natt, ZUM 2014, 829 (836); Hoffmann-Riem, AöR 142 (2017), 1 (28 f.); Martini, JZ 2017, 1017 (1018). 636 Enders, JA 2018, 721 (725 f.). 637 Zum Vorschlag eines Wertungsalgorithmus: Ring, Computergestützte Rechtsfindungssysteme, S. 146 f. 638 Enders, JA 2018, 721 (725 f.). A. Unabhängigkeit der Gerichte 129 Wer darf Wertentscheidungen treffen? Soweit gesetzliche Tatbestände oder deren Rechtsfolgen Spielräume belassen, ist es bislang Sache des Richters, diese mit Wertungen auszufüllen. Dabei obliegt es seiner Wahl, welcher von mehreren vertretbaren Beurteilungen er folgt.639 Mit seiner Entscheidung konkretisiert er das Gesetz und was rechtens ist im Einzelfall. Zieht er die Verwendung einer automatisierten Anwendung zur Entscheidungsfindung in Betracht, behält er bei hinreichender Nachvollziehbarkeit die Entscheidungshoheit. Er kann die Software benutzen, wenn die Funktionsweise seiner Wertentscheidung entspricht, oder von der Verwendung absehen, wenn dies nicht der Fall ist. Auch kann ein determiniertes Programm verschiedene Entscheidungsvarianten vorhalten, die unterschiedliche Wertungsergebnisse widerspiegeln. Solange ein determiniertes Programm die innerhalb eines gesetzlichen Beurteilungsspielraums zu treffenden Wertungsentscheidungen dem Gericht überlässt, ist die Unabhängigkeit der Gerichte gewahrt. Das Demokratieprinzip sieht sich ebenfalls keiner Gefahr ausgesetzt, solange die implementierten Wertungsergebnisse sich innerhalb des gesetzlich vorgesehenen Beurteilungsspielraums bewegen. Denn die vom Richter zu treffende Entscheidung wird bei Benutzung der Anwendung nicht über diesen Spielraum hinausgehen. Soll eine automatisierte Anwendung den Richter aber auf eine bestimmte Wertung festlegen, ist fraglich, wer Gerichte insofern an seine Entscheidung binden darf. Nachdem die gesetzlichen Vorgaben der Verwendung eines autonomen Systems und eines nicht nachvollziehbaren determinierten Programms ausscheiden640, konzentriert sich die Problematik an dieser Stelle darauf, ob der Gesetzgeber die in einem von Gerichten verbindlich zu nutzenden, nachvollziehbaren determinierten Programm enthaltenen Wertungen selbst vorgeben muss oder an Dritte delegieren darf. Der Gesetzgeber ist zunächst einmal frei darin, selbst festzulegen, ob das verpflichtend zu verwendende determinierte Programm höchstrichterlichen Maßstäben, einer herrschenden Meinung oder einer Minderansicht folgen soll. Er kann den mit einer Norm geschaffenen Wertungsspielraum jederzeit durch Gesetzesänderung auf eine mögliche Deutung verengen und den Auslegungsspielraum dadurch auf null reduzieren. Daneben wirft Enders die Frage auf, ob Wertentscheidungen durch das Bundesministerium der Justiz und für Verbraucherschutz im Einvernehmen mit den Justiza) 639 Larenz, Methodenlehre der Rechtswissenschaft, S. 294. 640 Hierzu 3. Freiwillige und verpflichtende Nutzung. Kapitel 3) Zulässige und unzulässige Anwendungen 130 ministerinnen und Justizministern der Länder, mit ausgesuchten Lehrstühlen und/oder mit speziellen Abteilungen an den obersten Gerichtshöfen getroffen werden könnten.641 Dies setzt voraus, dass der Gesetzgeber seine Entscheidungskompetenz (beispielsweise an eine aus diesen Institutionen gebildete Wertekommission) delegiert, was nicht unerheblichen demokratietheoretischen Bedenken ausgesetzt wäre. Das Demokratieprinzip verlangt, „dass sich die Wahrnehmung staatlicher Aufgaben und die Aus- übung staatlicher Befugnisse auf das Staatsvolk zurückführen lassen“.642 Voraussetzung für eine hinreichende demokratische Legitimation ist dabei ein effektiver Einfluss des Staatsvolks auf das hoheitliche Handeln.643 So ist es dem Bundestag etwa verwehrt, seine Budgetverantwortung durch unbestimmte haushaltspolitische Ermächtigungen auf andere Akteure zu übertragen.644 Generell stellt sich bei der Mitwirkung von Dritten an staatlichen Gestaltungsentscheidungen das Problem, dass diese demokratisch weder legitimiert noch kontrolliert sind.645 Sie wurden weder vom Volk gewählt noch kann das Volk sie abwählen. Überlegungen zur Delegation von Entscheidungskompetenzen (zum Beispiel durch Einsetzung einer Wertekommission) ist daher mit Zurückhaltung zu begegnen. Denkbar wäre auch, dass der Gesetzgeber eine faktische Bindung der Gerichte an sonstige Dritte herstellt. Er könnte etwa die Benutzung eines bestimmten nachvollziehbaren determinierten Programms gesetzlich vorschreiben, deren Funktionsweise aber nicht selbst im Einzelnen vorgeben, das heißt nicht im Gesetz regeln, sondern beispielsweise Softwareentwicklern überlassen. Mag für die Delegation von Entscheidungskompetenz an eine hochrangige Wertekommission noch deren ausgewiesene juristische Fachkompetenz sprechen, die das mit der Delegation verursachte Demokratiedefizit gegebenenfalls aufwiegen würde, können Softwareentwickler eine solche Kompetenz jedoch nicht für sich in Anspruch nehmen. Es wäre daher nicht zu rechtfertigen, Entwicklern Wertentscheidungen zu übertragen, die gesetzliche Auslegungsspielräume betreffen.646 641 Vgl. Enders, JA 2018, 721 (725 f.). 642 BVerfG, Urteil vom 18. März 2014 – 2 BvE 6/12, BVerfGE 135, 317, juris Rn. 234. 643 BVerfG, Urteil vom 18. März 2014 – 2 BvE 6/12, BVerfGE 135, 317, juris Rn. 234. 644 BVerfG, Urteil vom 18. März 2014 – 2 BvE 6/12, BVerfGE 135, 317, juris Rn. 163. 645 Kloepfer, NJW 2011, 131 (133). 646 Vgl. zur Gefährdung des Demokratieprinzips auch die kritischen Ausführungen zum sogenannten digitalen Code bei Boehme-Neßler, NJW 2017, 3031 (3036). A. Unabhängigkeit der Gerichte 131 Wie bleiben Wertentscheidungen aktuell? Gerade bei der Anwendung einer älteren Norm gilt es zu bedenken, ob die mit der Norm seinerzeit geregelte Sachlage so fortbesteht oder sich seit ihrem Erlass gewandelt hat.647 Denn die sozialethischen Gerechtigkeitsvorstellungen können sich innerhalb einer Gesellschaft mit der Zeit verändern.648 Solche gesellschaftlichen Werteänderungen sind innerhalb des Beurteilungsspielraums des Gesetzes zu berücksichtigen.649 Denn das Gesetz soll nicht in der Vergangenheit liegende, sondern sich gegenwärtig stellende Konfliktlagen lösen.650 Zippelius spricht von einem „Bedeutungswandel des Gesetzes“.651 Insbesondere in den Generalklauseln (z. B. § 242 BGB) sei die vom Gesetzgeber gewünschte Berücksichtigung eines Bedeutungswandels bereits angelegt.652 Während etwa im Jahr 1975 die Vermietung eines Doppelzimmers im Hotel an Verlobte noch als sittenwidrig gemäß § 138 BGB angesehen wurde653, wäre dies mit den heute vorherrschenden Moralvorstellungen nicht mehr zu vereinbaren. Das Bundesverfassungsgericht fasst die Notwendigkeit der Berücksichtigung von sich wandelnden Werteanschauungen in der Gesellschaft wie folgt zusammen: „Die Auslegung einer Gesetzesnorm kann nicht immer auf die Dauer bei dem ihr zu ihrer Entstehungszeit beigelegten Sinn stehenbleiben. Es ist zu berücksichtigen, welche vernünftige Funktion sie im Zeitpunkt der Anwendung haben kann. Die Norm steht ständig im Kontext der sozialen Verhältnisse und der gesellschaftlich-politischen Anschauungen, auf die sie wirken soll; ihr Inhalt kann und muß sich unter Umständen mit ihnen wandeln. Das gilt besonders, wenn sich zwischen Entstehung und Anwendung eines Gesetb) 647 Larenz, Methodenlehre der Rechtswissenschaft, S. 213. Zum Streit zwischen „subjektiver“ Theorie, wonach die Absichten des historischen Gesetzgebers im Vordergrund stehen, und „objektiver“ Theorie, nach der die Auslegung von Gesetzen vor dem Hintergrund des dem zum Zeitpunkt ihrer Anwendung zuzumessenden Sinns zu geschehen hat, siehe den Überblick bei Kramer, Juristische Methodenlehre, S. 125 ff., der eine vermittelnde Auffassung vertritt, wonach sowohl der historische Wille des Gesetzgebers als auch aktuelle Bedürfnisse in den Blick zu nehmen sind. Zur Geschichte des Streits siehe Ogorek, Richterkönig oder Subsumtionsautomat? 648 Zippelius, Juristische Methodenlehre, S. 20. 649 Zippelius, Juristische Methodenlehre, S. 19 ff. 650 Kramer, Juristische Methodenlehre, S. 144. 651 Zippelius, Juristische Methodenlehre, S. 20. 652 Vgl. Zippelius, Juristische Methodenlehre, S. 39. 653 Vgl. Amtsgericht Emden, Urteil vom 11. Februar 1975 – 5 C 788/74, NJW 1975, 1363. Kapitel 3) Zulässige und unzulässige Anwendungen 132 zes die Lebensverhältnisse und Rechtsanschauungen so tiefgreifend geändert haben wie in diesem [20.] Jahrhundert.“654 Sofern Wertentscheidungen lediglich einmalig in ein System implementiert würden, hätte dies zur Folge, dass ein Wandel in der gesellschaftlichen Betrachtung und eine damit verbundene Änderung der Wertmaßstäbe unberücksichtigt blieben und die Rechtsprechung sich nicht weiter entwickeln könnte.655 Ältere Gerichtsentscheidungen bildeten den Maßstab und könnten nicht mehr infrage gestellt werden. Dass womöglich mittlerweile die besseren Argumente für eine anderslautende Entscheidung stritten, bliebe unberücksichtigt. Allerdings ist unser heutiges Rechtsverständnis davon geprägt, dass Gerichte von einer einmal vorgenommenen Auslegung nicht nur abweichen können, sondern müssen, wenn nach ihrer Überzeugung die besseren Gründe für eine andere Auslegung sprechen.656 Eine Auslegung ist nie für alle Zeiten verbindlich und abschließend, sondern immer auch Ausdruck des jeweils vorherrschenden Zeitgeistes.657 Dabei haben gerichtliche Bewertungen einem sich wandelnden Rechtsbewusstsein in der Gesellschaft zwar nicht blind zu folgen, dennoch ist es zu berücksichtigen.658 Soweit es auf Wert- und Gerechtigkeitsüberzeugungen ankommt, ist daher nicht auf den Zeitpunkt des Erlasses eines Gesetzes ab- 654 BVerfG, Beschluss vom 14. Februar 1973 – 1 BvR 112/65, BVerfGE 34, 269, juris Rn. 41. 655 Siehe auch: Fritz, Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, S. 22 m. w. N.: „Automation birgt die Gefahr, dass Rechtsfälle nur auf Grundlage der aktuell herrschenden Meinung vor dem Hintergrund der jeweils zur Verfügung stehenden Datengrundlage entschieden werden und sich das Recht in seinen gesellschaftlichen Veränderungen entsprechend nicht mehr weiterentwickeln würde […]“; Larenz/Canaris, Methodenlehre der Rechtswissenschaft, S. 134 f., sprechen davon, dass jede beispielgebende neue Auslegung einer Norm durch ein Gericht die tatsächliche Anwendung der Norm verändere. Das Bewusstsein, eigene Wertentscheidungen zumindest in regelmäßigen Abständen zu überprüfen, ist indes nicht neu, vgl. Berkemann, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 609 (610): „Lästige Verfahrensrügen werden mit Text-Bausteinen beantwortet, die er [Berkemann] in einem etwa halbjährlichen Turnus ‚auffrischt‘“. 656 Larenz/Canaris, Methodenlehre der Rechtswissenschaft, S. 135; vgl. zur Zulässigkeit von Rechtsprechungsänderungen vor dem Hintergrund des (stetigen) Wandels der sozialen, politischen und wirtschaftlichen Verhältnisse auch BVerfG, Beschluss vom 11. November 1964 – 1 BvR 488/62, BVerfGE 18, 224, juris Rn. 38; BGH, Urteil vom 2. Dezember 1976 – VII ZR 88/75, NJW 1977, 375, juris Rn. 31. 657 Larenz/Canaris, Methodenlehre der Rechtswissenschaft, S. 135 f. 658 Vgl. Würtenberger, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 545 (555). A. Unabhängigkeit der Gerichte 133 zustellen, sondern auf den Zeitpunkt der zu treffenden Entscheidung.659 Folge dessen sind von Zeit zu Zeit vorkommende Entscheidungen, die von obergerichtlichen Grundsätzen abweichen und damit die rechtswissenschaftliche Diskussion vorantreiben.660 Wären die zugrunde gelegten Werte unveränderlich, wäre dies nicht mehr denkbar. Statische Anwendungen nehmen gesellschaftliche Entwicklungen nicht wahr und können nicht selbstständig von den programmierten Wertentscheidungen abweichen. Wollte man dies ändern, müssten Wertentscheidungen händisch aktualisiert werden. Selbstlernende Systeme müssten hingegen entweder eine händische Aktualisierung zulassen oder so programmiert sein, dass sie auch sich verändernde gesellschaftliche Strömungen wahrnehmen und in der Lage sind, diese selbst in das System zu implementieren. Letzteres erscheint nur schwer vorstellbar, da auch selbstlernende Systeme sich nicht außerhalb ihres Systems bewegen können. Sie sind abhängig vom Datenpool, über dessen Inhalt sie nicht selbst bestimmen. Selbst wenn in ein autonomes System ein Modus zur Bewertung von Argumenten implementiert würde, hieße das nicht, dass seine künftigen Entscheidungen mit den sich verändernden Werten der Gesellschaft in Einklang stünden. Sowohl determinierte Programme als auch autonome Systeme können mit einer in die Zukunft gerichteten Offenheit nichts anfangen. Sie wurden zu einem bestimmten in der Vergangenheit liegenden Zeitpunkt im Lichte der zu jener Zeit geltenden Wertvorstellungen programmiert beziehungsweise werten in der Vergangenheit ergangene Entscheidungen aus, die wiederum auf der Grundlage von zu jener Zeit vorherrschenden Wertvorstellungen ergangen sind. Veränderte Werte müssten also durch einen ständigen Impuls von außen in das System integriert werden, um die Berücksichtigung von Wertveränderungen in maschinellen Entscheidungen überhaupt zu ermöglichen. 659 Würtenberger, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre, S. 545 (550 ff.). 660 Vgl. etwa OLG Stuttgart, Urteil vom 18. Juli 2017 – 10 U 140/16, BauR 2018, 994, Leitsatz 1: „Änderungen eines Grundstücksübertragungsvertrags bedürfen auch dann gemäß § 311b Abs. 1 Satz 1 BGB der notariellen Beurkundung, wenn der Änderungsvertrag nach Auflassung, aber noch vor Eigentumsumschreibung geschlossen wird (entgegen BGH, […] Urteil vom 28. Oktober 2011, V ZR 212/10, NJW-RR 2012, 18, Rn. 15)“. Kapitel 3) Zulässige und unzulässige Anwendungen 134 Nutzung von automatisierten Anwendungen als Hilfswerkzeug Die Ergebnisse automatisierter Anwendungen müssen nicht zwingend in eine richterliche Entscheidung übertragen werden. Das Gericht kann sie auch als nicht entscheidungsersetzendes Hilfswerkzeug einsetzen. Gegen eine Nutzung zum Zwecke der Fehler- oder Selbstkontrolle oder auch zur Einholung von Anregungen greifen Bedenken nicht durch. Dabei kommt es nicht darauf an, ob das Gericht ein determiniertes Programm oder ein autonomes System heranzieht. Entscheidend ist, dass das Gericht die automatisierte Anwendung nicht in einer seine eigene Entscheidung ersetzenden Weise verwendet. Dies setzt eine eigene Prüfung des Gerichts voraus. Allerdings birgt auch der nicht als Entscheidungsersatz dienende Einsatz automatisierter Anwendungen Risiken. Ihre Ergebnisse können einen Ankereffekt661 entfalten, da zumindest ein Ergebnis schon im Raum steht. Mit dem zunehmenden Vertrauen in die Technik dürfte es schwerfallen, sich von solchen Ergebnissen innerlich zu distanzieren. Den automatisch generierten Entscheidungsvorschlägen wird womöglich zunehmend gefolgt, so dass sich schließlich ein Übernahmeautomatismus entwickelt.662 Zudem ist die Gefahr, Manipulationen aufzusitzen, umso größer, je weniger man die Funktionsweise einer Anwendung versteht. Dem gegenüber steht allerdings der Nutzen automatisierter Anwendungen insbesondere im Hinblick darauf, dass dem Gericht möglicherweise Aspekte aufgezeigt werden, die es sonst nicht gesehen hätte. Insoweit kommt es aber auf die konkrete Ausgestaltung der Anwendung und insbesondere darauf an, wie viel sie von ihrer Funktionsweise preisgibt. Bereits das Erfordernis, bestimmte Angaben in eine Anwendung einzugeben, kann dem Gericht in das Gedächtnis rufen, dass diese erhebliche Auswirkungen haben können. Die das Ausgabeergebnis ergänzende Mitteilung eines konkreten Berechnungswegs kann ihm ebenfalls Aspekte aufzeigen, die es sonst möglicherweise übersehen hätte. Solange das Gericht eine kritische Distanz wahrt, überwiegt deshalb der Nutzen automatisierter Anwendungen. Ihre Nutzung als nicht entscheidungsersetzendes Hilfswerkzeug verletzt die richterliche Unabhängigkeit nicht. Richter sind auch sonst nicht vor jedweder Einflussnahme ge- 5. 661 Ankereffekt bezeichnet den Umstand, dass eine Entscheidung unbewusst an einer Information ausgerichtet wird, die unter rationalen Gesichtspunkten für die Entscheidung eigentlich irrelevant ist, vgl. https://de.wikipedia.org/wiki/An kereffekt, zuletzt abgerufen am 18. Februar 2020. 662 Hierzu Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. A. Unabhängigkeit der Gerichte 135 schützt. So müssen sie auch Überzeugungsversuche ihrer Kammermitglieder oder den Rat von Kollegen663, aber auch einen öffentlichen Diskurs erdulden. Allerdings sollten Gerichte sich bewusst sein, dass Computerlösungen das Recht nicht umfassend abbilden. Mit Abwägungsprozessen und neu aufkommenden Konstellationen sind sie überfordert. Die Kontrolle über die Lösung des Falls muss daher in den Händen der Gerichte verbleiben. Insofern können auch nicht nachvollziehbare automatisierte Anwendungen sinnvoll eingesetzt werden. Rechtsschutz und Dienstaufsicht Bindet sich das Gericht an die Ergebnisse eines von ihm nicht beherrschten Programms, verstößt es gegen die richterliche Unabhängigkeit.664 Im Rahmen des Instanzenzugs kann ein solcher Fehler angegriffen werden. Allerdings ist die richterliche Unabhängigkeit nicht unmittelbar verfassungsbeschwerdefähig. Denn die Artt. 92, 97 GG gehören nicht zum Katalog der Grundrechte oder grundrechtsgleichen Rechte. In der abschließenden Aufzählung des Art. 93 Abs. 1 Nr. 4a GG sind sie nicht genannt. Jedoch verleiht die verfassungsrechtliche Gewährleistung des gesetzlichen Richters in Art. 101 Abs. 1 Satz 2 GG dem Bürger einen subjektiv-rechtlichen Anspruch auch auf Beachtung der in Artt. 92, 97 GG niedergelegten objektiven Anforderungen an Richter.665 Denn der Richterbegriff in Art. 101 Abs. 1 Satz 2 GG unterscheidet sich nicht von dem den Artt. 92, 97 GG zugrunde gelegten.666 Verstöße gegen Artt. 92, 97 GG werden daher über den „Umweg“ des Art. 101 Abs. 1 Satz 2 GG verfassungsbeschwerdefähig.667 So liegt der Fall etwa bei der Mitwirkung eines kraft Gesetzes ausge- 6. 663 Hierzu III.3. Unabhängigkeit gegenüber der Judikative. 664 Hierzu 1.b) Unzulässigkeit bei fehlender Kenntnis des Richters vom Algorithmus. 665 BVerfG, Beschluss vom 3. Dezember 1975 – 2 BvL 7/74, BVerfGE 40, 356, juris Rn. 14 ff., und Beschluss vom 10. Juli 1990 – 1 BvR 984/87, BVerfGE 82, 286, juris Rn. 54 ff.; Jachmann-Michel, in: Maunz/Dürig, GG, Art. 101 Rn. 21; Schulze- Fielitz, in: Dreier, GG, Art. 101 Rn. 27 und 41 m. w. N. 666 Ipsen, in: Bonner Kommentar, Art. 101 Rn. 44; Jachmann-Michel, in: Maunz/ Dürig, GG, Art. 101 Rn. 20. 667 Vgl. BVerfG, Beschluss vom 10. Mai 1992 – 2 BvR 528/92, DtZ 1992, 281, juris Rn. 3, und Beschluss vom 11. März 2013 – 1 BvR 2853/11, juris Rn. 25; Ipsen, in: Bonner Kommentar, Art. 101 Rn. 54; Jachmann-Michel, in: Maunz/Dürig, GG, Art. 101 Rn. 6 und 21; Schulze-Fielitz, in: Dreier, GG, Art. 101 Rn. 27 m. w. N. Kapitel 3) Zulässige und unzulässige Anwendungen 136 schlossenen oder zu Recht abgelehnten Richters668, wobei in diesen Fällen die Erhebung der Nichtigkeitsklage nach § 579 Abs. 1 Nr. 1 und 2 ZPO Bedingung für die Rechtswegerschöpfung und somit vorrangig ist669. Gegen den sich an die Programmergebnisse bindenden, unwissenden Richter kommen ferner Maßnahmen der Dienstaufsicht in Betracht. Diese sind zwar nur in einem engen Rahmen zulässig und dürfen nicht die richterliche Unabhängigkeit betreffen.670 Allerdings gebietet in solchen Fällen das Demokratieprinzip nicht weniger als in einem evident fehlerhaft entschiedenen Einzelfall671 ausnahmsweise ein Einschreiten der Dienstaufsicht. Die Bindung an die Programmergebnisse weicht die Bindung des Richters an Gesetz und Recht auf, wenn es sie nicht sogar aufhebt. Damit überschreitet er die durch die ausschließliche Bindung an Gesetz und Recht gezogenen Grenzen. Hinzu kommt, dass automatisierte Anwendungen typischerweise potentiell auf den Einsatz in einer Vielzahl von Fällen angelegt sind, was einen fortwährenden Verstoß gegen das Prinzip der Gesetzesbindung befürchten lässt. Gelangten solche Umstände an die Öffentlichkeit, dürfte dies dem Bild des Richters in der Öffentlichkeit und der gesellschaftlichen Akzeptanz von Gerichtsentscheidungen dauerhaft erheblichen Schaden zufügen. Zwischenergebnis Auf dem Boden des Grundgesetzes ist eine Ersetzung von (menschlichen) Richtern durch Computer ausgeschlossen. Weder Richter selbst noch der Gesetzgeber dürfen richterliche Entscheidungen einem Computer überlassen. Zwar können determinierte Programme für die Übertragung von generellen Entscheidungen auf den Einzelfall herangezogen werden; dies aber nur, soweit ihre Nachvollziehbarkeit gewährleistet ist. Die Nachvollziehbarkeit kann durch eine Anleitung herbeigeführt werden, deren Übereinstimmung mit der Funktionsweise der Software durch eine öffentliche Stelle zertifiziert wird. Sofern das Gericht das Programm nicht nachvollziehen kann („Blackbox“), muss es von seiner Verwendung absehen. Andernfalls verletzt es seine richterliche Unabhängigkeit. Als Hilfsmittel ist der VI. 668 Jachmann-Michel, in: Maunz/Dürig, GG, Art. 101 Rn. 6; Maurer, in: FS 50 Jahre BVerfG, S. 467 (496). 669 Vgl. BVerfG, Beschluss vom 31. Juli 2001 – 1 BvR 304/01, juris Rn. 6. 670 Siehe hierzu III.1. Unabhängigkeit von der Exekutive. 671 Vgl. insoweit Hillgruber, in: Maunz/Dürig, GG, Art. 97 Rn. 83. A. Unabhängigkeit der Gerichte 137 Einsatz automatisierter Anwendungen trotz Bedenken im Hinblick auf einen Übernahmeautomatismus grundsätzlich zulässig. Insoweit werden sich die Gerichte stets zu vergewissern haben, ob der innere Abstand zur Computerlösung weiterhin gewahrt ist. Richter können nicht durch den Erlass von Verwaltungsvorschriften zur Nutzung von automatisierten Anwendungen angehalten werden. Auch jede sonstige dahingehende Beeinflussung hat zu unterbleiben. Die Zurverfügungstellung von determinierten Programmen zur freiwilligen Nutzung stößt zwar auf Bedenken, ist jedoch im Ergebnis zulässig, wobei Voraussetzung für den zulässigen Einsatz ebenfalls deren Nachvollziehbarkeit ist. Denkbar ist, dass der Gesetzgeber die Verwendung eines determinierten Programms festschreibt. Hieran wären die Gerichte aufgrund ihrer Gesetzesbindung zwar grundsätzlich gebunden. Die gesetzliche Anordnung der Verwendung eines nicht mehr nachvollziehbaren Algorithmus bedeutete aber einen Verstoß gegen den Bestimmtheitsgrundsatz und den Grundsatz des fairen Verfahrens. Der Anspruch auf rechtliches Gehör Das Recht auf Gehör im Gerichtsverfahren soll den Anspruchsberechtigten in die Lage versetzen, die Entscheidungsfindung durch Einbringung seiner Vorstellungen und Kenntnisse zu beeinflussen.672 Als spezielle Ausprägung des auch im gerichtlichen Verfahren geltenden Rechtsstaatsprinzips hat der Anspruch auf rechtliches Gehör seinen Niederschlag in Art. 103 Abs. 1 GG gefunden.673 Seine Gewährleistung ist Voraussetzung für einen wirkungsvollen Rechtsschutz.674 Die nähere Ausgestaltung des Gehörsrechts bleibt zwar den einzelnen Verfahrensordnungen überlassen.675 Diese sind jedoch wiederum an der grundgesetzlichen Garantie zu messen.676 Der verfassungsrechtliche Anspruch und die gesetzgeberische Ausgestaltung stehen daher in einer Wechselwirkung zueinander. B. 672 Maurer, in: FS 50 Jahre BVerfG, S. 467 (496 f.). 673 BVerfG, Beschluss vom 8. Januar 1959 – 1 BvR 396/55, BVerfGE 9, 89, juris Rn. 22. 674 BVerfG, Beschluss vom 11. Februar 1987 – 1 BvR 475/85, BVerfGE 74, 228, juris Rn. 24, und Beschluss vom 14. Januar 2004 – 1 BvL 8/03, juris Rn. 26. 675 BVerfG, Beschluss vom 8. Januar 1959 – 1 BvR 396/55, BVerfGE 9, 89, juris Rn. 24; Degenhart, in: Sachs, GG, Art. 103 Rn. 12; Radtke/Hagemeier, in: BeckOK GG, Art. 103 Rn. 6; Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 27. 676 BVerfG, Beschluss vom 11. Februar 1987 – 1 BvR 475/85, BVerfGE 74, 228, juris Rn. 24, und Beschluss vom 14. Januar 2004 – 1 BvL 8/03, juris Rn. 26. Kapitel 3) Zulässige und unzulässige Anwendungen 138 Anspruchsberechtigte Jeder, dessen Rechte unmittelbar von einem gerichtlichen Verfahren betroffen sind, kann für sich beanspruchen, rechtliches Gehör zu finden.677 Hierzu zählen zunächst die Parteien eines Rechtsstreits, das heißt Kläger und Beklagte beziehungsweise Antragsteller und Antragsgegner, Nebenintervenienten678, aber auch Streitverkündungsempfänger, da die Interventionswirkung des § 68 ZPO für sie nach § 74 Abs. 3 ZPO ebenso gilt wie für den Nebenintervenienten. Nicht von einem Verfahren unmittelbar betroffen sind hingegen Dritte, die in anderer Weise am Verfahren beteiligt sind, insbesondere Rechtsanwälte, Zeugen und Sachverständige. All diese Personen sind grundsätzlich nicht anspruchsberechtigt nach Art. 103 Abs. 1 GG.679 Anders liegt der Fall aber, soweit im Laufe des Verfahrens zu treffende Entscheidungen ihre eigene Rechtsstellung berühren. Sofern sie selbst Adressat gerichtlicher Entscheidungen werden, haben auch sie einen Anspruch, vor Gericht gehört zu werden.680 Umfang des Anspruchs auf rechtliches Gehör und Rechtsschutz Der Anspruch auf rechtliches Gehör umfasst ein Recht auf Äußerung, Information sowie Berücksichtigung des Vorgebrachten.681 Das Äußerungs- I. II. 677 BVerfG, Beschluss vom 22. April 1964 – 2 BvR 190/62, BVerfGE 17, 356, juris Rn. 19 ff., Beschluss vom 2. Mai 1967 – 1 BvR 578/63, BVerfGE 21, 362, juris Rn. 32, Beschluss vom 3. November 1983 – 2 BvR 348/83, BVerfGE 65, 227, juris Rn. 19, und Beschluss vom 14. April 1987 – 1 BvR 332/86, BVerfGE 75, 201, juris Rn. 45; Nolte/Aust, in: v. Mangoldt/Klein/Starck, GG, Art. 103 Abs. 1 Rn. 27; Radtke/Hagemeier, in: BeckOK GG, Art. 103 Rn. 4; Remmert, in: Maunz/ Dürig, GG, Art. 103 Abs. 1 Rn. 40 und 44; Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 21. 678 Degenhart, in: Sachs, GG, Art. 103 Rn. 9; Nolte/Aust, in: v. Mangoldt/Klein/ Starck, GG, Art. 103 Abs. 1 Rn. 25; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 45; Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 22, jeweils m. w. N. 679 Degenhart, in: Sachs, GG, Art. 103 Rn. 9; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 47. 680 Nolte/Aust, in: v. Mangoldt/Klein/Starck, GG, Art. 103 Abs. 1 Rn. 26 f.; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 47. 681 Radtke/Hagemeier, in: BeckOK GG, Art. 103 Rn. 7; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 5 und 62. B. Der Anspruch auf rechtliches Gehör 139 recht und der Informationsanspruch sind eng miteinander verknüpft.682 Denn die Beteiligten müssen wissen, auf welche Gesichtspunkte es bei der zu treffenden Entscheidung ankommen kann, um ihr Äußerungsrecht wirkungsvoll wahrzunehmen.683 Das Äußerungsrecht bietet Gewähr dafür, sich zu dem einer gerichtlichen Entscheidung zugrunde liegenden Sachverhalt erklären zu können.684 Ferner ist der Anspruchsinhaber berechtigt, Anträge zu stellen685 und Ausführungen zur Rechtslage zu tätigen686. Das Äußerungsrecht unterstreicht die Subjektivität des Betroffenen. Er soll nicht zum bloßen „Objekt“ des Verfahrens degradiert werden, sondern auf dessen Verlauf einwirken können.687 Daher ist der Anspruch auf rechtliches Gehör desjenigen, dem überhaupt keine Gelegenheit zur Äußerung zu einer ihn belastenden Entscheidung gewährt wird, in jedem Fall verletzt.688 Die Gelegenheit zur Äußerung muss zudem grundsätzlich vor dem Erlass der Entscheidung bestehen.689 Wird rechtliches Gehör hingegen erst nachträglich gewährt, reicht dies nur in Ausnahmefällen (z. B. in manchen Fällen der Anordnung eines dinglichen Arrests oder einer einst- 682 BVerfG, Beschluss vom 8. Juni 1993 – 1 BvR 878/90, BVerfGE 89, 28, juris Rn. 26. 683 BVerfG, Beschluss vom 8. Juni 1993 – 1 BvR 878/90, BVerfGE 89, 28, juris Rn. 26; Degenhart, in: Sachs, GG, Art. 103 Rn. 16; Nolte/Aust, in: v. Mangoldt/ Klein/Starck, GG, Art. 103 Abs. 1 Rn. 29; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 78; Waldner, Der Anspruch auf rechtliches Gehör, Rn. 28. 684 BVerfG, Beschluss vom 18. September 1952 – 1 BvR 612/52, BVerfGE 1, 418, juris Rn. 46, Beschluss vom 24. März 1982 – 2 BvH 1/82, BVerfGE 60, 175, juris Rn. 124, und Beschluss vom 17. Mai 1983 – 2 BvR 731/80, BVerfGE 64, 135, juris Rn. 31. 685 BVerfG, Beschluss vom 13. November 1956 – 1 BvR 513/56, BVerfGE 6, 19, juris Rn. 4, und Beschluss vom 17. Mai 1983 – 2 BvR 731/80, BVerfGE 64, 135, juris Rn. 31; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 76. 686 BVerfG, Beschluss vom 24. März 1982 – 2 BvH 1/82, BVerfGE 60, 175, juris Rn. 124, Beschluss vom 17. Mai 1983 – 2 BvR 731/80, BVerfGE 64, 135, juris Rn. 31, und Beschluss vom 19. Mai 1992 – 1 BvR 986/91, BVerfGE 86, 133, juris Rn. 35; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 76. 687 BVerfG, Beschluss vom 8. Juni 1993 – 1 BvR 878/90, BVerfGE 89, 28, juris Rn. 26; Degenhart, in: Sachs, GG, Art. 103 Rn. 16. 688 Vgl. BVerfG, Beschluss vom 13. Juli 2015 – 1 BvR 2516/13, FamRZ 2015, 1688, juris Rn. 2. 689 BVerfG, Beschluss vom 3. November 1983 – 2 BvR 348/83, BVerfGE 65, 227, juris Rn. 20, und Beschluss vom 8. Juni 1993 – 1 BvR 878/90, BVerfGE 89, 28, juris Rn. 26; Degenhart, in: Sachs, GG, Art. 103 Rn. 20; Radtke/Hagemeier, in: BeckOK GG, Art. 103 Rn. 1; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 81; Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 48 ff. Kapitel 3) Zulässige und unzulässige Anwendungen 140 weiligen Verfügung nach §§ 916 ff. ZPO) aus.690 Schließlich sind die Äußerungen der Beteiligten vom Gericht zur Kenntnis zu nehmen und in Erwägung zu ziehen.691 Sämtliche von ihnen vorgebrachten Aspekte sind auf ihre Erheblichkeit und Richtigkeit zu prüfen und bejahendenfalls der Entscheidung zugrunde zu legen.692 Dabei gilt im Zivilprozess gemäß § 138 Abs. 3 ZPO, dass Tatsachenbehauptungen grundsätzlich als richtig zu unterstellen sind, soweit sie zwischen den Parteien unstreitig sind. Die Verletzung des Anspruchs auf rechtliches Gehör kann in der (zugleich abschließenden) Eingangsinstanz (§ 321a ZPO), und im Berufungsverfahren (§§ 321a, 529 Abs. 1 Nr. 1 ZPO) gerügt werden, sofern die Entscheidung jeweils nicht mehr mit einem anderweitigen Rechtsbehelf angegriffen werden kann. Auch die Revision kann mit der Verletzung des Gehörsanspruchs begründet werden (§ 545 Abs. 1 i. V. m. § 546 ZPO). Schließlich steht nach Erschöpfung des Rechtswegs die Verfassungsbeschwerde offen (Art. 93 Abs. 1 Nr. 4a GG i. V. m. § 13 Nr. 8a BVerfGG). Grenzen des Anspruchs auf rechtliches Gehör Der Anspruch auf rechtliches Gehör gilt nicht grenzenlos, sondern findet seine Schranken im kollidierenden Verfassungs- und einfachgesetzlichen Recht.693 Insofern gilt, dass der Gesetzgeber das rechtliche Gehör einschränken darf, wenn sachliche Gründe dies rechtfertigen.694 Er kann sowohl im formellen als auch im materiellen Recht Regelungen vorsehen, wonach Sachvortrag der Beteiligten unberücksichtigt bleiben kann oder muss.695 Grenzen des rechtlichen Gehörs kommen etwa in der Beschrän- III. 690 Vgl. Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 49. 691 BVerfG, Beschluss vom 14. Juni 1960 – 2 BvR 96/60, BVerfGE 11, 218, juris Rn. 5, Beschluss vom 18. April 1984 – 1 BvR 869/83, BVerfGE 67, 39, juris Rn. 9, Beschluss vom 19. Mai 1992 – 1 BvR 986/91, BVerfGE 86, 133, juris Rn. 39, und Beschluss vom 17. Januar 2012 – 1 BvR 2728/10, NJW 2012, 1346, juris Rn. 11; Degenhart, in: Sachs, GG, Art. 103 Rn. 28; Radtke/Hagemeier, in: BeckOK GG, Art. 103 Rn. 13. 692 Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 94 m. w. N. 693 Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 98. 694 BVerfG, Beschluss vom 29. November 1989 – 1 BvR 1011/88, BVerfGE 81, 123, juris Rn. 20, und Beschluss vom 27. Oktober 1999 – 1 BvR 385/90, BVerfGE 101, 106, juris Rn. 91. 695 Vgl. BVerfG, Beschluss vom 15. Februar 1967 – 2 BvR 658/65, BVerfGE 21, 191, juris Rn. 9, Urteil vom 8. Juli 1997 – 1 BvR 1621/94, BVerfGE 96, 205, juris Rn. 43, und Beschluss vom 9. März 2015 – 1 BvR 2819/14, juris Rn. 15. B. Der Anspruch auf rechtliches Gehör 141 kung der nach dem Verfahrensrecht zulässigen Beweismittel auf Zeugen (§§ 373 ff. ZPO), Sachverständige (§§ 402 ff. ZPO), Urkunden (§§ 415 ff. ZPO), Augenschein (§§ 371 ff. ZPO) und Parteivernehmung (§§ 445 ff. ZPO) zum Ausdruck. Weiterhin gibt es verfahrensrechtliche Einschränkungen im Hinblick auf den Beschleunigungsgrundsatz. Diese finden sich insbesondere in den Vorschriften zur Präklusion verspäteten Vorbringens (§§ 282, 296, 356 und 531 Abs. 2 Satz 1 Nr. 3 ZPO). Ferner wird das rechtliche Gehör durch Rechtsmittelfristen beschränkt. Diese bewirken, dass Gerichtsentscheidungen in Rechtskraft erwachsen und bis auf wenige Ausnahmefälle696 nicht mehr angreifbar sind.697 Dass Rechtssicherheit in gerichtlichen Verfahren binnen angemessener Frist zu gewährleisten ist, folgt aus Art. 2 Abs. 1 GG in Verbindung mit dem Rechtsstaatsprinzip.698 Der Justizgewährleistungsanspruch kann nur verwirklicht werden, wenn die auf dem Rechtsweg herbeigeführten Entscheidungen Verbindlichkeit beanspruchen. Eine weitere Einschränkung des Anspruchs auf rechtliches Gehör findet sich dort, wo das Gesetz Entscheidungsmöglichkeiten ohne vorherige Gelegenheit des Betroffenen zur Äußerung vorsieht. In diesen Fällen ist ihm eine Einflussnahme vor Erlass einer Entscheidung verwehrt. Nur in Ausnahmefällen und unter strengen Voraussetzungen ist der Verweis auf nachträgliche Äußerungsmöglichkeiten zulässig. Dies ist namentlich dann der Fall, wenn der Schutz gewichtiger Interessen die Überraschung eines Beteiligten zwingend erfordert.699 Dem Betroffenen ist dann zwingend nachträglich Gelegenheit zur Äußerung zu gewähren,700 so dass die Ent- 696 Wiederaufnahmeverfahren sind in §§ 578-591 ZPO geregelt. 697 Berufungen gegen erstinstanzliche und Revisionen gegen zweitinstanzliche Urteile sind binnen eines Monats einzulegen, vgl. §§ 517, 548 ZPO, andernfalls werden sie rechtskräftig. Für Versäumnisurteile gilt dies nach Ablauf einer zweiwöchigen Einspruchsfrist, vgl. § 339 Abs. 1 ZPO. Für sofortige Beschwerden beträgt die Einlegungsfrist zwei Wochen, vgl. § 569 ZPO. Verfassungsbeschwerden zum Bundesverfassungsgericht sind binnen eines Monats zu erheben und zu begründen, vgl. § 93 BVerfGG. 698 BVerfG, Beschluss vom 26. März 2001 – 1 BvR 383/00, NJW 2001, 2161, juris Rn. 13 f. Für Rechtsverletzungen durch die öffentliche Gewalt, also in behördlichen Verfahren, folgt der Justizgewährungsanspruch aus Art. 19 Abs. 4 GG, vgl. BVerfG, Beschluss vom 20. April 1982 – 2 BvL 26/81, BVerfGE 60, 253, juris Rn. 54 ff. 699 BVerfG, Beschluss vom 3. November 1983 – 2 BvR 348/83, BVerfGE 65, 227, juris Rn. 20. 700 BVerfG, Beschluss vom 8. Januar 1959 – 1 BvR 396/55, BVerfGE 9, 89, juris Rn. 29, und Beschluss vom 11. Oktober 1978 – 2 BvR 1055/76, BVerfGE 49, 329, juris Rn. 40. Kapitel 3) Zulässige und unzulässige Anwendungen 142 scheidung unter Umständen zumindest im Nachhinein aufgehoben werden kann. Beispielsweise verlangen die Eilverfahren der Zivilprozessordnung (§§ 916 ff. ZPO) nicht zwingend eine Anhörung des Antragsgegners vor Erlass der Entscheidung.701 Der skizzierte Maßstab gilt aber auch dort. Zwar geht der Entscheidung über den Antrag auf Erlass eines dinglichen Arrests oder einer einstweiligen Verfügung nicht zwingend eine mündliche Verhandlung voraus, in der (auch) der Antragsgegner zu hören ist. Vielmehr kann das Gericht auch ohne mündliche Verhandlung durch Beschluss entscheiden (§§ 922 Abs. 1 Satz 1 Hs. 2, 937 Abs. 2 ZPO). In diesem Fall ist der Antragsgegner aber grundsätzlich vor Erlass der Entscheidung schriftlich anzuhören. Von einer Anhörung kann das Gericht nur aufgrund besonderer Umstände des Einzelfalls, namentlich wenn der Zweck der Anordnung durch die vorherige Anhörung des Gegners vereitelt zu werden droht702, absehen. Dem Antragsgegner bleibt es dann aber unbenommen, zur Wahrung seiner Rechte gegen die Entscheidung Widerspruch einzulegen und damit eine erneute Befassung des Gerichts einschließlich der Durchführung einer mündlichen Verhandlung herbeizuführen (§§ 924 f. ZPO). Schließlich unterliegt das Äußerungsrecht verfassungsimmanenten Schranken. Art. 103 Abs. 1 GG beschränkt es bereits auf Äußerungen „vor Gericht“. Die Ausführungen müssen folglich in einem – jedenfalls irgendwie gearteten – inneren Zusammenhang mit einem anhängigen Verfahren stehen. Hierzu zählen noch Erläuterungen zu Rand- oder gar fernliegenden Aspekten. Nicht mehr vom Äußerungsrecht umfasst sind allerdings solche Äußerungen, die in keinem denkbaren Zusammenhang mit dem konkreten Verfahren stehen.703 Beleidigende oder verleumderische Äußerungen sind vor dem Hintergrund der staatlichen Schutzpflicht für die Ehre der anderen Beteiligten vom Äußerungsrecht ebenfalls nicht mehr gedeckt.704 701 Weitere Beispiele (allerdings für den Bereich der Strafverfolgung) finden sich in der Strafprozessordnung. Die Vorschriften über die Anordnung von Untersuchungshaft nach §§ 112 ff. StPO oder von Wohnungsdurchsuchungen nach §§ 102 ff. StPO sehen keine zwingende vorherige Anhörung des Betroffenen vor. 702 Vollkommer, in: Zöller, ZPO, § 922 Rn. 2. 703 Radtke/Hagemeier, in: BeckOK, GG Art. 103 Rn. 16; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 76. 704 Nolte/Aust, in: v. Mangoldt/Klein/Starck, GG, Art. 103 Abs. 1 Rn. 43; Remmert, in: Maunz/Dürig, GG, Art. 103 Abs. 1 Rn. 77. B. Der Anspruch auf rechtliches Gehör 143 Rechtliches Gehör vs. computergenerierte Entscheidungen Mit der Verwendung von automatisierten Anwendungen zur Entscheidungsfindung geht die Gefahr einher, dass der Anspruch der Betroffenen auf rechtliches Gehör beschnitten wird. Dabei sind alle drei Facetten des Gehörsrechts (Informations-, Äußerungs- und Berücksichtigungsanspruch) berührt. Einem Gericht, das die von ihm verwendete automatisierte Anwendung nicht hinreichend nachvollziehen kann, wird es schwer fallen, auf die Entscheidung bezogene rechtliche Hinweise nach § 139 ZPO zu erteilen. Die mangelnde Information schlägt sodann auf das Äußerungsrecht der Betroffenen durch. Gegebenenfalls hätten sie noch etwas zu einem Umstand beizutragen gehabt, wenn sie gewusst hätten, dass es darauf ankommt. Sofern das Gericht die automatisierte Anwendung aber hinreichend nachvollziehen kann, ist es sich auch der maßgeblichen Kriterien der Entscheidungsfindung bewusst. In dem Fall kann es auch seiner Hinweispflicht nachkommen. Das Berücksichtigungsrecht ist insofern betroffen, als dass die schematische Abwicklung von Rechtsfällen leicht zu einem Übersehen eigentlich relevanter Tatsachen führen kann. Bereits die Übernahme von Entscheidungsvorlagen birgt die Gefahr, Tatsachenvortrag außer Acht zu lassen. Nicht minder gilt dies im Hinblick auf computergenerierte Entscheidungen. Die Konzentration auf jene Tatsachen, die der Anwender in das System eingeben muss, um eine Entscheidung generieren zu lassen, kann dazu führen, dass andere Tatsachen, die eine Eignung des Falls zur schematischen Bearbeitung infrage stellen, aus dem Blick geraten, der Richter hierfür also „blind“ wird. Zudem drohen die Rechtsausführungen der Parteien für die Entscheidung im Ergebnis bedeutungslos zu werden, wenn das Gericht nur noch die für relevant erachteten Tatsachendaten in eine Eingabemaske überträgt. Bereits die Heranziehung einer (noch auf das vorliegende Verfahren zu übertragenden) Entscheidungsvorlage kann dazu führen, sich gegen die „Musterlösung“ sprechenden Argumenten zu verschlie- ßen.705 Dies dürfte erst recht im Hinblick auf Software gelten, die eine zügige Bearbeitung zahlreicher Verfahren in Aussicht stellt. Zwar kann der Gesetzgeber – wie gesehen – den Anspruch auf rechtliches Gehör durch einfachgesetzliche Regelungen einschränken.706 Allerdings würde eine ge- IV. 705 Ähnlich für den speziellen Fall der vorbereitenden KI-Abfrage auch Enders, JA 2018, 721 (723). 706 Hierzu vorstehend III. Grenzen des Anspruchs auf rechtliches Gehör. Kapitel 3) Zulässige und unzulässige Anwendungen 144 setzliche Anordnung zur Verwendung eines determinierten Programms707 solche Gehörsverstöße nicht legitimieren. Es obläge weiter den Gerichten, gewissenhaft zu prüfen, ob der zu entscheidende Fall zur Gruppe jener gehört, die schematisch unter Verwendung des determinierten Programms entschieden werden können. Das Recht auf den gesetzlichen Richter Grundsätze Das in Art. 101 Abs. 1 Satz 2 GG verbürgte Recht auf den gesetzlichen Richter schützt die Unabhängigkeit der Gerichte vor Einflussnahmen unbefugter Dritter.708 Hierzu zählen insbesondere sachfremde Eingriffe der Exekutive einschließlich der Justizverwaltung sowie der Legislative.709 Das Recht ist Ausdruck des Rechtsstaatsprinzips im gerichtlichen Verfahren.710 Gesetzlicher Richter ist der aufgrund einer abstrakt-generellen Regelung im Einzelfall und im Voraus zur Entscheidung berufene Richter.711 Eine Entziehung des gesetzlichen Richters liegt beispielsweise dann vor, wenn an einer Entscheidung eine Person mitwirkt, die nicht Richter ist.712 Umstritten ist, ob Gerichte selbst eine Entziehung des gesetzlichen Richters bewirken können. Nach einer Ansicht sind Eingriffe nur in der Weise denkbar, dass sie von außen kommen.713 Danach kann das zur Entscheidung berufene Gericht das Recht auf den gesetzlichen Richter nicht durch eigenes Verhalten verletzen. Nach anderer Auffassung sind auch aus der C. I. 707 Hierzu A.V.3. Freiwillige und verpflichtende Nutzung. 708 BVerfG, Beschluss vom 26. Februar 1954 – 1 BvR 537/53, BVerfGE 3, 359, juris Rn. 18, und Urteil vom 20. März 1956 – 1 BvR 479/55, BVerfGE 4, 412, juris Rn. 11; Jachmann-Michel, in: Maunz/Dürig, GG, Art. 101 Rn. 4; Morgenthaler, in: BeckOK GG, Art. 101 Rn. 3. 709 Vgl. BVerfG, Beschluss vom 26. Februar 1954 – 1 BvR 537/53, BVerfGE 3, 359, juris Rn. 18. Siehe hierzu A. Unabhängigkeit der Gerichte. 710 BVerfG, Beschluss vom 3. Dezember 1975 – 2 BvL 7/74, BVerfGE 40, 356, juris Rn. 14; Degenhart, in: Sachs, GG, Art. 101 Rn. 2; Jachmann-Michel, in: Maunz/ Dürig, GG, Art. 101 Rn. 19; Schulze-Fielitz, in: Dreier, GG, Art. 101 Rn. 16. 711 BVerfG, Beschluss vom 8. April 1997 – 1 PBvU 1/95, BVerfGE 95, 322, juris Rn. 30; Maurer, in: FS 50 Jahre BVerfG, S. 467 (495 f.); Schulze-Fielitz, in: Dreier, GG, Art. 101 Rn. 18; Wolff, in: Hömig/Wolff, GG, Art. 101 Rn. 5. 712 BVerfG, Beschluss vom 9. Juni 1971 – 2 BvR 114/71, BVerfGE 31, 181, juris Rn. 10. 713 So BGH, Urteil vom 26. Mai 1952 – III ZR 218/50, BGHZ 6, 178, juris Rn. 7. C. Das Recht auf den gesetzlichen Richter 145 Judikative selbst kommende Eingriffe vom Schutzbereich des Rechts auf den gesetzlichen Richter erfasst.714 Der letztgenannten Auffassung ist zuzustimmen. Wie die richterliche Unabhängigkeit715 soll das Recht auf den gesetzlichen Richter die Einflussnahme unbefugter Dritter verhindern und das Vertrauen der Rechtsuchenden in die Unparteilichkeit und Sachlichkeit der Gerichte bewahren.716 Dabei geht es also nicht um die persönliche Stellung des Richters. Die Schutzrichtung zielt vielmehr auf die Verfahrensbeteiligten. Eine Entziehung des gesetzlichen Richters liegt zum einen dann vor, wenn die Justiz sich einer Entscheidung formell verweigert, wie es bei der Nichterledigung einer Sache der Fall ist.717 Zum anderen ist eine Entziehung denkbar, wenn ein Gericht seine Zuständigkeit fehlerhaft annimmt oder ablehnt oder aufgrund gesetzlicher Anordnung (z. B. §§ 41 ff. ZPO) ausgeschlossene Richter an einer Entscheidung mitwirken.718 Allerdings begründet eine bloß fehlerhafte Anwendung von Verfahrensrecht (sogenannter error in procedendo) für sich noch keinen Verstoß gegen das Recht auf den gesetzlichen Richter.719 Vielmehr muss sich die Entscheidung darüber hinaus als willkürlich erweisen.720 Dies ist der Fall, wenn sie auf unsachlichen Erwägungen beruht,721 offensichtlich unhaltbar ist722 oder das Gericht Bedeutung und Tragweite von Art. 101 Abs. 1 Satz 2 GG 714 So BVerfG, Beschluss vom 26. Februar 1954 – 1 BvR 537/53, BVerfGE 3, 359, juris Rn. 19; Kern, Der gesetzliche Richter, S. 185; Wolff, in: Hömig/Wolff, GG, Art. 101 Rn. 9. 715 Hierzu A.III. Richterliche Unabhängigkeit. 716 BVerfG, Urteil vom 20. März 1956 – 1 BvR 479/55, BVerfGE 4, 412, juris Rn. 11, und Beschluss vom 23. Mai 2012 – 2 BvR 610/12, NJW 2012, 2334, juris Rn. 11; Jachmann-Michel, in: Maunz/Dürig, GG, Art. 101 Rn. 5 und 85; Morgenthaler, in: BeckOK GG, Art. 101 Rn. 3; Wolff, in: Hömig/Wolff, GG, Art. 101 Rn. 5. 717 BVerfG, Beschluss vom 26. Februar 1954 – 1 BvR 537/53, BVerfGE 3, 359, juris Rn. 19; Kern, Der gesetzliche Richter, S. 203 f. 718 Vgl. Classen, in: v. Mangoldt/Klein/Starck, GG, Art. 101 Rn. 24. 719 BVerfG, Urteil vom 20. März 1956 – 1 BvR 479/55, BVerfGE 4, 412, juris Rn. 12; Morgenthaler, in: BeckOK GG, Art. 101 Rn. 25. 720 Vgl. BVerfG, Beschluss vom 26. Februar 1954 – 1 BvR 537/53, BVerfGE 3, 359, juris Rn. 19. 721 BVerfG, Beschluss vom 13. März 1958 – 1 BvR 155/58, BVerfGE 7, 327, juris Rn. 5, Beschluss vom 7. März 1963 – 2 BvR 629/62, BVerfGE 15, 303, juris Rn. 8, und Beschluss vom 7. Oktober 1970 – 1 BvR 409/67, BVerfGE 29, 166, juris Rn. 21. 722 BVerfG, Urteil vom 16. Januar 1957 – 1 BvR 134/56, BVerfGE 6, 45, juris Rn. 30, und Beschluss vom 30. Juni 1970 – 2 BvR 48/70, BVerfGE 29, 45, juris Rn. 18. Kapitel 3) Zulässige und unzulässige Anwendungen 146 grundlegend verkannt hat723. Die Verletzung des Rechts auf den gesetzlichen Richter ist gemäß Art. 93 Abs. 1 Nr. 4a GG i. V. m. § 13 Nr. 8a BVerfGG verfassungsbeschwerdefähig. Konsequenzen für die Benutzung automatisierter Anwendungen Sofern Richter zur Entscheidungsfindung auf automatisierte Anwendungen zurückgreifen, stellt sich die Frage, ob dies zu einer Entziehung des gesetzlichen Richters führen kann. Davon ist nicht auszugehen, wenn die Richter die Funktionsweise der automatisierten Anwendung hinreichend nachvollziehen können, also die maßgeblichen Entscheidungsparameter und ihre Gewichtung kennen, da sie dann die Entscheidung nicht jemand oder etwas anderem überlassen. Bei determinierten Programmen kann dies unter bestimmten Umständen der Fall sein. Insofern wurde bereits gesagt, dass dies entweder eine entsprechende Fachkompetenz des Richters voraussetzt, die Funktionsweise der Anwendung vollständig nachzuvollziehen, oder eine Anleitung verbunden mit einer Zertifizierung, wodurch er in die Lage versetzt wird, die Funktionsweise zu verstehen.724 Bindet sich das Gericht hingegen an die Ergebnisse einer von ihm nicht beherrschten automatisierten Anwendung, gibt es die Entscheidungsfindung aus der Hand. Dies ist anzunehmen, wenn es ein nicht nachvollziehbares determiniertes Programm oder ein autonomes System zur Entscheidungsfindung heranzieht. In dem Fall unterliegt es keinem Rechtsanwendungsfehler. Vielmehr wendet es das Recht gar nicht erst an. Denn das Gericht beschränkt seine Tätigkeit auf die (ungeprüfte) Übernahme und Verkündung des maschinengenerierten Ergebnisses. Jedoch sind weder die automatisierte Anwendung noch ihre Entwickler zur Entscheidungsfindung berufen. Es handelt sich dabei um Dritte, denen jede Einflussnahme auf die Entscheidung untersagt ist. Zwar ist es in der Praxis nicht unüblich, sich Entscheidungsvorschläge Dritter, etwa von Rechtsreferendaren, zu eigen zu machen, oder auf Entscheidungsvorlagen von Kollegen oder elektronischen juristischen Datenbanken zurückzugreifen. Der Schritt des II. 723 BVerfG, Beschluss vom 10. Juli 1990 – 1 BvR 984/87, BVerfGE 82, 286, juris Rn. 62, Beschluss vom 3. November 1992 – 1 BvR 137/92, BVerfGE 87, 282, juris Rn. 9, und Beschluss vom 16. Dezember 2014 – 1 BvR 2142/11, BVerfGE 138, 64, juris Rn. 71. 724 Hierzu A.V.1. Nutzung von determinierten Programmen zur Entscheidungsfindung. C. Das Recht auf den gesetzlichen Richter 147 Sich-zu-eigen-Machens markiert insoweit aber den Unterschied zu der Konstellation, in der sich der Richter bereits vorab selbst an die Ergebnisse einer automatisierten Anwendung bindet. Die ungeprüfte Übernahme führt allerdings nicht zu einer direkten Entziehung des gesetzlichen Richters, weil der (zuständige) Richter immerhin noch selbst die schriftliche Abfassung unterzeichnen wird.725 Die Entziehung geschieht vielmehr indirekt. Denn die Selbstbindung an die Programmergebnisse führt zu einer Verletzung der richterlichen Unabhängigkeit, was mittelbar (durch den Verstoß gegen Artt. 92, 97 GG) eine Verletzung von Art. 101 Abs. 1 Satz 2 GG bewirkt.726 Die Betroffenen können den mittelbaren Verstoß gegen Art. 101 Abs. 1 Satz 2 GG mit der Verfassungsbeschwerde angreifen, Art. 93 Abs. 1 Nr. 4a GG i. V. m. § 13 Nr. 8a BVerfGG. Rechtsstaatlichkeit und Gleichheitsgebot Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen folgt aus Art. 2 Abs. 1 GG in Verbindung mit dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG)727, und aus dem Prinzip der Gewährleistung eines fairen Verfahrens,728 wobei es sich bei letzterem um eine spezielle Ausprägung des Rechtsstaatsprinzips handelt729. Ausdrücklich erwähnt wird das Prinzip in Art. 6 Abs. 1 EMRK und Art. 47 Abs. 2 GRC. Das Recht auf ein faires Verfahren gebietet, dass der in seinen Rechten unmittelbar Betroffene die D. I. 725 A. A. Enders, JA 2018, 721 (723), der maßgeblich auf die Ermittlung des Entscheidungsergebnisses durch den Computer anstelle des Richters abstellt. 726 Hierzu A.V.6. Rechtsschutz und Dienstaufsicht. 727 BVerfG, Beschluss vom 26. März 2001 – 1 BvR 383/00, NJW 2001, 2161, juris Rn. 13 ff.; noch maßgeblich allein auf das Rechtsstaatsprinzip abstellend: BVerfG, Urteil vom 16. Januar 1957 – 1 BvR 253/56, BVerfGE 6, 32, juris Rn. 41, und Beschluss vom 29. Oktober 1975 – 2 BvR 812/73, BVerfGE 40, 276, juris Rn. 26. Daneben gründet sich die Begründungspflicht von Verwaltungsentscheidungen auf Art. 19 Abs. 4 GG, vgl. BVerwG, Urteil vom 21. Oktober 1980 – 1 C 19/78, NJW 1981, 1917, juris Rn. 21. 728 Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 37; vgl. auch EGMR, Urteil vom 21. Januar 1999 – 30544/96, NJW 1999, 2429. 729 Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 37. Kapitel 3) Zulässige und unzulässige Anwendungen 148 Möglichkeit hat, auf den Gang und das Ergebnis des Verfahrens Einfluss zu nehmen und die wesentlichen Verfahrensschritte zu verstehen.730 Die Beifügung einer Begründung trägt sowohl zum Verständnis der Entscheidung als auch zum Bewusstsein des Betroffenen bei, als Subjekt wahrgenommen zu werden. Beides stärkt ihre Legitimität.731 Aber auch aus rechtsstaatlicher Sicht ist eine Begründung von Entscheidungen grundsätzlich geboten. Denn aus dem Rechtsstaatsprinzip folgt, dass staatliche Entscheidungsprozesse für den Bürger durchschaubar sein müssen.732 Würde der Bürger lediglich darauf verwiesen, „dass alles schon seine Richtigkeit habe“, degradierte ihn dies zum unmündigen Objekt staatlichen Handelns.733 Die Beifügung einer Begründung vermittelt dem Betroffenen hingegen, dass die Entscheidung auf einer sorgfältigen rechtlichen Prüfung, einer verlässlichen Tatsachenfeststellung und einer ausgewogenen Tatsachenwürdigung fußt.734 Er kann die Entscheidung kontrollieren (Kontrollfunktion).735 Die Begründung dient demnach dem Vertrauen der Rechtsuchenden in die Integrität der Rechtsprechung, während begründungslos ergangene Entscheidungen gegebenenfalls als willkürlich wahrgenommen werden können. Gleichwohl bedarf nach der Rechtsprechung des Bundesverfassungsgerichts nicht jede gerichtliche Entscheidung einer Begründung. Sie soll entbehrlich sein bei letztinstanzlichen Entscheidungen, die den Rechtsweg abschließen und keinem ordentlichen Rechtsmittel mehr unterliegen.736 Zumindest die weitere Funktion des Begründungszwangs, demjenigen, in dessen Rechte eingegriffen wird, eine sachgemäße Verteidigung zu ermöglichen737, steht dem nicht entgegen, da eine weitere Verteidigung seiner Rechte im Fall einer letztinstanzlichen Entscheidung ohnehin ausschei- 730 BVerfG, Beschluss vom 17. Mai 1983 – 2 BvR 731/80, BVerfGE 64, 135, juris Rn. 34. 731 Buchholtz, JuS 2017, 955 (957). 732 Vgl. VerfGH des Saarlandes, Urteil vom 5. Juli 2019 – Lv 7/17, juris Rn. 92. 733 VerfGH des Saarlandes, Urteil vom 5. Juli 2019 – Lv 7/17, juris Rn. 92. 734 BVerfG, Urteil vom 14. Mai 1996 – 2 BvR 1516/93, BVerfGE 94, 166, juris Rn. 146. 735 Vgl. Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 37. 736 BVerfG, Beschluss vom 28. Februar 1979 – 2 BvR 84/79, BVerfGE 50, 287, juris Rn. 11, Urteil vom 14. Mai 1996 – 2 BvR 1516/93, BVerfGE 94, 166, juris Rn. 145, und Beschluss vom 26. März 2001 – 1 BvR 383/00, NJW 2001, 2161, juris Rn. 17. 737 BVerfG, Urteil vom 16. Januar 1957 – 1 BvR 253/56, BVerfGE 6, 32, juris Rn. 41, und Beschluss vom 29. Oktober 1975 – 2 BvR 812/73, BVerfGE 40, 276, juris Rn. 26; Eser/Kubiciel, in: Meyer/Hölscheidt, GRC, Art. 47 Rn. 37. D. Rechtsstaatlichkeit und Gleichheitsgebot 149 det.738 Die Entscheidung ist unverrückbar, gleich wie sie begründet würde. Begründungspflichten bestehen aber dann, wenn durch das Fehlen der Begründung der Zugang zu einer in der jeweiligen Prozessordnung vorgesehenen weiteren Instanz verschlossen würde.739 Daher sind Entscheidungen, die mit der Nichtzulassungsbeschwerde angefochten werden können, stets zu begründen.740 Denn der Erfolg einer Nichtzulassungsbeschwerde hängt von prozessualen Voraussetzungen ab, deren Vorliegen nur anhand einer Begründung der anzufechtenden Entscheidung geprüft und gegen- über dem Revisionsgericht dargelegt werden kann. Ob eine Rechtssache grundsätzliche Bedeutung hat (§ 543 Abs. 2 Satz 1 Nr. 1 ZPO) oder die Fortbildung des Rechts oder die Sicherung einer einheitlichen Rechtsprechung eine Entscheidung des Revisionsgerichts erfordert (§ 543 Abs. 2 Satz 1 Nr. 2 ZPO), kann nur festgestellt werden, wenn die zur Überprüfung zu stellende Entscheidung eine Begründung enthält. Denn eine ordnungsgemäße Darlegung im Sinne des § 544 Abs. 2 Satz 3 ZPO setzt voraus, dass der Beschwerdeführer die Zulassungsgründe substantiiert ausführt, so dass das Revisionsgericht allein anhand der Lektüre der Beschwerdebegründung und des Berufungsurteils die Voraussetzungen der Zulassung prüfen kann.741 Begründungspflichten bestehen ferner dann, wenn in einer Entscheidung von dem eindeutigen Wortlaut einer Norm oder ihrer höchstrichterlichen Auslegung abgewichen werden soll.742 Die Begründungspflicht richterlicher Entscheidungen gilt nicht nur für Urteile, sondern auch für Beschlüsse. Auch diese müssen – ohne dass es einer ausdrücklichen gesetzlichen Anordnung bedarf – jedenfalls dann begründet werden, wenn sie einem Rechtsmittel unterliegen.743 Auch insoweit gilt, dass der Betroffene sich gegen nachteilige Wirkungen effektiv zur Wehr setzen können muss. 738 Vgl. BVerfG, Beschluss vom 28. Februar 1979 – 2 BvR 84/79, BVerfGE 50, 287, juris Rn. 11. 739 BVerfG, Beschluss vom 26. März 2001 – 1 BvR 383/00, NJW 2001, 2161, juris Rn. 17. 740 Vgl. im Hinblick auf die Arbeitsgerichtsbarkeit: BVerfG, Beschluss vom 26. März 2001 – 1 BvR 383/00, NJW 2001, 2161, juris Rn. 18. 741 Vgl. BGH, Beschluss vom 1. Oktober 2002 – XI ZR 71/02, BGHZ 152, 182, juris Rn. 9 ff.; Heßler, in: Zöller, ZPO, § 544 Rn. 10a m. w. N. 742 Zur Abweichung von der höchstrichterlichen Auslegung einer Norm: BVerfG, Beschluss vom 19. Juli 1995 – 1 BvR 1506/93, NJW 1995, 2911, juris Rn. 11; zur Nichtberücksichtigung einer einschlägigen Norm: BVerfG, Beschluss vom 7. Juli 2014 – 1 BvR 1063/14, juris Rn. 13. 743 Vgl. OLG Frankfurt, Beschluss vom 10. Oktober 2005 – 3 UF 202/05, FamRZ 2006, 274, juris Rn. 4. Kapitel 3) Zulässige und unzulässige Anwendungen 150 Einfachgesetzliche Bestimmungen zur Begründungspflicht finden sich in § 313 Abs. 1 Nr. 6, Abs. 3 sowie in § 313a ZPO. Nach § 313 Abs. 3 ZPO müssen die Entscheidungsgründe eines Urteils in Zivilsachen eine kurze Zusammenfassung der Erwägungen enthalten, auf denen die Entscheidung in tatsächlicher und rechtlicher Hinsicht beruht. Es müssen jene Gründe mitgeteilt werden, „die für die richterliche Überzeugung leitend gewesen sind“.744 Die maßgebenden Erwägungen müssen dazu verständlich und nachvollziehbar sein.745 Die Voraussetzungen für das Weglassen von Entscheidungsgründen sind in der ZPO enger gefasst als nach der Rechtsprechung des Bundesverfassungsgerichts zu letztinstanzlichen Entscheidungen. Gemäß § 313a Abs. 1 Satz 2 ZPO bedarf es keiner Aufnahme von Entscheidungsgründen in das Urteil, wenn ein Rechtsmittel unzweifelhaft nicht zulässig ist und kumulativ entweder die Parteien auf sie verzichten oder wenn ihr wesentlicher Inhalt in das Protokoll der mündlichen Verhandlung aufgenommen worden ist. Auch Versäumnis-, Anerkenntnis- und Verzichtsurteile bedürfen (grundsätzlich) keiner Entscheidungsgründe, vgl. § 313b Abs. 1 ZPO.746 Automatisierte Entscheidungen und Begründungspflicht Durch den Einsatz einer automatisierten Anwendung zur Entscheidungsfindung wird das Gericht nicht von der Begründungspflicht befreit. Um ihr nachzukommen, muss es die Funktionsweise der Anwendung kennen und insbesondere wissen, welche Parameter wie gewichtet werden. Dies ist beim Einsatz einer automatisierten Anwendung, die das Gericht nicht nachvollziehen kann, ausgeschlossen. Dabei macht es keinen Unterschied, ob dem Richter der Einsatz einer automatisierten Anwendung von außen vorgegeben wird, oder ob er sich aus eigenem Antrieb einer automatisier- II. 744 BGH, Beschluss vom 7. Februar 1995 – X ZB 20/93, BPatGE 35, 284, juris Rn. 20. 745 OLG Saarbrücken, Beschluss vom 25. Februar 1993 – 6 UF 2/93 VA, FamRZ 1993, 1098, juris Rn. 9; BayVerfGH, Entscheidung vom 22. Juli 2005 – Vf. 72-VI-04, NJW 2005, 3771, juris Rn. 35; Feskorn, in: Zöller, ZPO, § 313 Rn. 19; Musielak, in: MünchKomm-ZPO, § 313 Rn. 14; ähnlich EGMR, Urteil vom 21. Januar 1999 – 30544/96, NJW 1999, 2429 (2429), zu Art. 6 Abs. 1 EMRK. 746 Ist jedoch zu erwarten, dass das Versäumnisurteil oder das Anerkenntnisurteil im Ausland geltend gemacht werden soll, muss es Entscheidungsgründe enthalten, § 313b Abs. 3 ZPO. D. Rechtsstaatlichkeit und Gleichheitsgebot 151 ten Anwendung zur Entscheidungsfindung bedient.747 Kann schon das Gericht die Entscheidung nicht nachvollziehen, wird es diese auch den Betroffenen nicht, schon gar nicht in der gebotenen Klarheit, vermitteln können. Inhaltlich nachvollziehbar begründen kann das Gericht seine Entscheidung nur, wenn es die Gründe, auf denen die Entscheidung in tatsächlicher und rechtlicher Hinsicht beruht, kennt und versteht. Zwar muss der zur Entscheidung berufene Richter nicht jeden einzelnen Schritt der Urteilsfindung selbst vornehmen. Er ist beispielsweise nicht daran gehindert, einen Entscheidungsentwurf des ihm zugewiesenen Stationsreferendars zu übernehmen.748 Allerdings muss er aber im Sinne des Sich-zu-eigen-Machens die vorbereitenden Arbeiten inhaltlich voll nachvollziehen können. Nicht anders liegt dies bei computergenerierten Entscheidungen. Eine bloß auf das Ergebnis eines Computerprogramms verweisende Entscheidung wird dem Begründungserfordernis nicht gerecht.749 Schließlich gilt es noch zu beachten, dass die Rechtsuchenden keinen Einblick in die internen Entscheidungsvorgänge des Gerichts haben. Zwar ist dies im Hinblick auf die Beratungen eines Kollegialgerichts vom Gesetzgeber nicht anders gewünscht, vgl. § 43 DRiG. Die Rechtsuchenden wissen aber auch nicht, ob und in welcher Weise technische Hilfsmittel zur Entscheidungsfindung herangezogen werden. Sofern doch ein Hinweis auf einen Technikeinsatz erfolgt, hilft ihnen auch dieser nicht weiter, wenn sie die Funktionsweise der automatisierten Anwendung nicht nachvollziehen können. Kennen die Betroffenen die Datengrundlage, die im Programm definierten Handlungsschritte und die Gewichtung der einzelnen Kriterien nicht, können sie die Entscheidung auch inhaltlich nicht nachvollziehen.750 Im Hinblick auf die privatwirtschaftliche Nutzung von Algorithmen schlägt Ernst eine Protokollierungspflicht vor, um Entscheidungsvorgänge (und insbesondere die menschliche Mitwirkung daran) transparent zu machen.751 Ähnliches hat Martini im Sinn, wenn er eine Begründungspflicht für algorithmenbasierte Entscheidungsverfahren thema- 747 Hierzu A.V.3. Freiwillige und verpflichtende Nutzung. 748 Vgl. BGH, Urteil vom 23. Oktober 1963 – RiZ 1/62, BGHZ 42, 163, juris Rn. 25. 749 OLG Zweibrücken, Beschluss vom 12. Juni 2003 – 6 WF 91/03, FamRZ 2004, 1735, juris Rn. 7 f.; OLG Frankfurt, Beschluss vom 10. Oktober 2005 – 3 UF 202/05, FamRZ 2006, 274, juris Rn. 5. 750 Martini, JZ 2017, 1017 (1018). 751 Ernst, JZ 2017, 1026 (1031 ff.). Kapitel 3) Zulässige und unzulässige Anwendungen 152 tisiert, wobei die Begründung durch das Programm selbst erstellt werden soll.752 Auch für automatisierte Anwendungen zur gerichtlichen Entscheidungsfindung wäre dies sinnvoll. Denn das Rechtsstaatsprinzip gebietet, dass staatliche Machtausübung transparent und kontrollierbar sein muss.753 Zudem folgt aus dem Grundsatz des fairen Verfahrens, dass algorithmenbasierte Entscheidungen einer Nachprüfung zugänglich sein müssen.754 So hat das Bundesverfassungsgericht entschieden, dass beim Einsatz von elektronischen Wahlgeräten „die wesentlichen Schritte von Wahlhandlung und Ergebnisermittlung zuverlässig und ohne besondere Sachkenntnis überprüft werden können“ müssen.755 Der Verfassungsgerichtshof des Saarlandes hat geurteilt, dass die Verwertung der Ergebnisse von Geschwindigkeitsmessgeräten, die die Rohmessdaten nicht speichern, deshalb gegen das Prinzip des fairen Verfahrens verstößt, weil sie keiner Nachprüfung zugänglich sind.756 Zwingend ist eine gesonderte Protokollierung oder die Ausgabe einer Begründung durch die für die Entscheidungsfindung eingesetzte automatisierte Anwendung aber nicht. Denn das hier vorgeschlagene Zertifizierungsverfahren757 würde bereits ihre hinreichende Transparenz sicherstellen. Außerdem ist eine Nachprüfung, die sich nicht auf tatsächliche Umstände, sondern auf ihre rechtliche Bewertung zu beziehen hätte, auch ohne Protokollierung möglich. 752 Vgl. Martini, JZ 2017, 1017 (1020), der aber auch Zweifel an der technischen Umsetzbarkeit anmeldet. 753 Vgl. BVerfG, Urteil vom 3. März 2009 – 2 BvC 3/07, BVerfGE 123, 39, juris Rn. 110. 754 Vgl. zur Möglichkeit der Nachprüfung einer auf technischen Abläufen und Algorithmen beruhenden Beschuldigung VerfGH des Saarlandes, Urteil vom 5. Juli 2019 – Lv 7/17, juris Rn. 94. 755 BVerfG, Urteil vom 3. März 2009 – 2 BvC 3/07, BVerfGE 123, 39, juris Rn. 118, wobei dort insbesondere auf den Öffentlichkeitsgrundsatz als Teil des Rechtsstaatsprinzips abgestellt wird, vgl. Rn. 105 und 110 f. 756 VerfGH des Saarlandes, Urteil vom 5. Juli 2019 – Lv 7/17, juris; a. A. OLG Oldenburg, Beschluss vom 9. September 2019 – 2 Ss (OWi) 233/19, juris, das die Einhaltung der Voraussetzungen eines standardisierten Messverfahrens für ausreichend und eine nachträgliche Überprüfungsmöglichkeit für nicht erforderlich hält, was aber nicht überzeugt, wenn ein faires Verfahren gewährleistet werden soll. 757 Hierzu A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. D. Rechtsstaatlichkeit und Gleichheitsgebot 153 Automatisierte Entscheidungsfindung und Willkürverbot Die aus Art. 2 Abs. 1 GG in Verbindung mit dem Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) folgende Begründungspflicht gerichtlicher Entscheidungen wird durch weitere grundgesetzliche Bestimmungen inhaltlich ausgestaltet. Wenn vorausgesetzt wird, die wesentlichen, der Rechtsverfolgung und -verteidigung dienenden Tatsachenbehauptungen und rechtlichen Argumente seien in den Entscheidungsgründen einer gerichtlichen Entscheidung zu verarbeiten758, betrifft dies den in Art. 103 Abs. 1 GG niedergelegten Anspruch auf rechtliches Gehör.759 Soweit davon die Rede ist, dass gerichtliche Entscheidungen auf rationaler Argumentation beruhen und die tragenden Erwägungen in einer für die Parteien (und gegebenenfalls das Rechtsmittelgericht) verständlichen und nachvollziehbaren Weise dargestellt werden müssten760, ist dies auf das Verbot willkürlicher Entscheidungen761 und auch auf den Grundsatz des fairen Verfahrens762 zurückzuführen. Eine gerichtliche Entscheidung ist willkürlich, wenn sie „unter keinem denkbaren Aspekt rechtlich vertretbar ist und sich daher der Schluß aufdrängt, daß [sie] auf sachfremden Erwägungen beruht“.763 Zwar sind Gerichte nur Gesetz und Recht unterworfen.764 Allerdings verpflichtet sie das Willkürverbot, ihre Auffassung zu begründen, wenn sie von dem eindeutigen Wortlaut oder von der höchstrichterlichen Auslegung einer Norm abweichen.765 Insofern wurde bereits gesagt, dass einer unkritischen Über- III. 758 BVerfG, Beschluss vom 12. Februar 2004 – 2 BvR 1687/02, BVerfGK 2, 310, juris Rn. 27; Feskorn, in: Zöller, ZPO, § 313 Rn. 19. 759 Vgl. BVerfG, Beschluss vom 12. Februar 2004 – 2 BvR 1687/02, BVerfGK 2, 310, juris Rn. 24 ff. Näher hierzu unter B. Der Anspruch auf rechtliches Gehör. 760 BVerfG, Beschluss vom 5. November 1985 – 2 BvR 1434/83, BVerfGE 71, 122, juris Rn. 35; OLG Saarbrücken, Beschluss vom 25. Februar 1993 – 6 UF 2/93 VA, FamRZ 1993, 1098, juris Rn. 9; BayVerfGH, Entscheidung vom 22. Juli 2005 – Vf. 72-VI-04, NJW 2005, 3771, juris Rn. 34; Feskorn, in: Zöller, ZPO, § 313 Rn. 19; Musielak, in: MünchKomm-ZPO, § 313 Rn. 14. 761 Vgl. BayVerfGH, Entscheidung vom 22. Juli 2005 – Vf. 72-VI-04, NJW 2005, 3771, juris Rn. 32. 762 Zu Art. 6 Abs. 1 EMRK auch EGMR, Urteil vom 21. Januar 1999 – 30544/96, NJW 1999, 2429 (2429). 763 BVerfG, Beschluss vom 3. November 1992 – 1 BvR 1243/88, BVerfGE 87, 273, juris Rn. 16. 764 Hierzu A.II. Gesetzesbindung. 765 BVerfG, Beschluss vom 19. Juli 1995 – 1 BvR 1506/93, NJW 1995, 2911, juris Rn. 11. Kapitel 3) Zulässige und unzulässige Anwendungen 154 nahme des Ergebnisses einer an sich nachvollziehbaren Softwareanwendung die Gefahr innewohnt, sich dem Vorwurf der Willkür auszusetzen, wenn zwischenzeitlich Gesetzes- oder höchstrichterliche Rechtsprechungs- änderungen ergangen sind.766 Die Prüfung, ob ein Gericht willkürlich entschieden hat, bemisst sich allein nach objektiven Kriterien.767 Denn das Willkürverbot folgt aus dem allgemeinen Gleichbehandlungsgebot des Art. 3 Abs. 1 GG.768 Dieses differenziert nicht zwischen bewussten und unbewussten Ungleichbehandlungen, sondern verbietet dem Grunde nach schon jede objektive Ungleichbehandlung gleicher Sachverhalte. Soweit der Bundesgerichtshof als zusätzliches Kriterium darauf abstellt, dass das Gericht von einer höchstrichterlichen Rechtsprechung bewusst abweicht,769 beschränkt sich diese Rechtsprechung auf richterliches Dienstrecht.770 Daraus sind die folgenden weiteren Schlussfolgerungen zu ziehen: Bindet sich das Gericht an die Ergebnisse einer von ihm nicht beherrschten automatisierten Anwendung und verweist es zur Begründung lediglich auf den Programmeinsatz oder teilt trotz bestehender Begründungspflicht zur Entscheidungsfindung überhaupt nichts mit, liegt eine willkürliche Entscheidung vor. Dies liegt aber nicht daran, dass die Entscheidung einzig vom – aus Sicht des Gerichts zufälligen – Ergebnis der Anwendung abhängt, sondern am schlichten Fehlen einer inhaltlichen Begründung. Wenn schon das Fehlen einer angemessenen, das heißt aussagefähigen und nachvollziehbaren Begründung der gerichtlichen Entscheidung zu einer 766 Oben A.V.1.g) Unerkannt „fehlerhaft“ gewordener Algorithmus. 767 Vgl. BVerfG, Beschluss vom 6. Oktober 1981 – 2 BvR 1290/80, BVerfGE 58, 163, juris Rn. 8, Beschluss vom 5. November 1985 – 2 BvR 1434/83, BVerfGE 71, 122, juris Rn. 35, Beschluss vom 26. November 1985 – 2 BvR 851/84, BVerfGE 71, 202, juris Rn. 9, Beschluss vom 3. November 1992 – 1 BvR 1243/88, BVerfGE 87, 273, juris Rn. 16, und Beschluss vom 18. März 2005 – 1 BvR 113/01, BVerfGK 5, 146, juris Rn. 12; zu Art. 52 Abs. 3 Var. 1 der Verfassung des Landes Brandenburg: Verfassungsgericht des Landes Brandenburg, Beschluss vom 12. April 2019 – VfGBbg 25/18, juris Rn. 18. 768 Vgl. BVerfG, Beschluss vom 18. März 2005 – 1 BvR 113/01, BVerfGK 5, 146, juris Rn. 12. 769 Vgl. BGH, Urteil vom 4. Juni 2009 – RiZ (R) 5/08, BGHZ 181, 268, juris Rn. 25. 770 Außerhalb des Gebiets der dienstlichen Beurteilungen findet sich diese Einschränkung nicht, vgl. etwa BGH, Beschluss vom 27. März 2003 – V ZR 291/02, BGHZ 154, 288, juris Rn. 20, Beschluss vom 19. November 2009 – IX ZB 291/08, juris Rn. 3, Beschluss vom 7. Juli 2011 – IX ZR 8/09, juris Rn. 2, und Beschluss vom 27. April 2017 – I ZB 34/15, juris Rn. 7. D. Rechtsstaatlichkeit und Gleichheitsgebot 155 Verletzung des Willkürverbots führen kann771, gilt dies erst recht für den Fall, dass gar keine inhaltliche Begründung erfolgt. Fraglich ist jedoch, ob es einen Fall der Willkür darstellt, wenn das Gericht sich an eine den Rahmen des rechtlich vertretbaren einhaltende Entscheidung einer von ihm nicht beherrschten automatisierten Anwendung bindet und die Entscheidungsgründe diese zutreffend wiedergeben. Gemeint ist damit der Fall, dass das Gericht eine nicht nachvollziehbare automatisierte Anwendung einsetzt, diese aber – aus Sicht des Gerichts zufällig – ein vertretbares Ergebnis einschließlich einer Begründung generiert, die das Gericht in die ausformulierte Entscheidung überträgt. Das Bundesverfassungsgericht stellt maßgeblich auf das Ergebnis des Entscheidungsvorgangs ab, wenn es ausführt: „Ein Verfassungsverstoß liegt bei gerichtlichen Urteilen unter dem Gesichtspunkt des Willkürverbots nicht schon dann vor, wenn die Rechtsanwendung oder das eingeschlagene Verfahren Fehler enthalten. Willkürlich ist der Richterspruch erst dann, wenn er unter keinem denkbaren Aspekt rechtlich vertretbar ist und sich daher der Schluss aufdrängt, dass er auf sachfremden Erwägungen beruht“772. Beliebigkeiten bei der Entscheidungsfindung stellen danach keine Willkür dar, solange das Ergebnis sich noch im Rahmen des objektiv Vertretbaren hält. Selbst das Auswürfeln einer Entscheidung zwischen mehreren für sich genommen vertretbaren Entscheidungsvarianten (die Heranziehung einer nicht nachvollziehbaren automatisierten Anwendung kommt dem nahe) wäre demnach nicht willkürlich. Diese Erkenntnis wirkt zwar auf den ersten Blick verstörend, weil jedenfalls der Anschein von Willkürlichkeit geweckt ist, wenn das Gericht seine Entscheidung dem Zufall überlässt. Da das Willkürverbot aber auf den Gleichheitssatz zurückgeht, wonach Gleiches nicht ungleich und Ungleiches nicht gleich behandelt werden darf, ist dem auf das Ergebnis bezogenen objektiven Maßstab des Bundesverfassungsgerichts zuzustimmen. Das Ergebnis kann trotz beliebiger Verfahrensweise objektiv richtig sein. Ob einem Gericht Willkür vorzuwerfen ist, wenn es eine von ihm nicht beherrschte automatisierten Anwendung zur Entscheidungsfindung einsetzt, hängt daher davon ab, ob das Entscheidungsergebnis sich objektiv noch im Rahmen des Vertretbaren bewegt. Willkür darf nur dort angenommen werden, wo dieser Rahmen verlassen wird. Hiervon losgelöst verstößt ein 771 Vgl. BVerfG, Beschluss vom 5. November 1985 – 2 BvR 1434/83, BVerfGE 71, 122, juris Rn. 35; BayVerfGH, Entscheidung vom 22. Juli 2005 – Vf. 72-VI-04, NJW 2005, 3771, juris Rn. 32. 772 BVerfG, Beschluss vom 18. März 2005 – 1 BvR 113/01, juris Rn. 13. Kapitel 3) Zulässige und unzulässige Anwendungen 156 Gericht, das seine Entscheidung einer nicht nachvollziehbaren automatisierten Anwendung überlässt, jedenfalls gegen seine richterliche Unabhängigkeit.773 Ausrichtung des Zivilprozessrechts auf die Digitalisierung Die Zivilprozessordnung hält bereits einige Regeln für die Digitalisierung des Zivilprozesses bereit. Dabei geht es allerdings nicht um die Verwendung von automatisierten Anwendungen bei der Entscheidungsfindung, sondern um den Einsatz von Technik in der mündlichen Verhandlung (§§ 128a, 160a ZPO) und um den prozessualen Schriftverkehr (§§ 130a-130d, 298, 298a ZPO). Ab dem 1. Januar 2026 ist die elektronische Aktenführung vorgeschrieben (§ 298a ZPO). Zivilprozessuale Grundsätze Die klassischen zivilprozessualen Grundsätze stehen der Verwendung von automatisierten Anwendungen im Zivilprozess grundsätzlich nicht entgegen. Ihr Einsatz verhält sich sogar ganz im Sinne des Beschleunigungsgrundsatzes774, soweit damit das Versprechen einer zügigeren Verfahrenserledigung einhergeht.775 Der zum Rechtsstaatsprinzip gehörende776 Öffentlichkeitsgrundsatz (§ 169 Abs. 1 Satz 1 GVG), wonach grundsätzlich je- E. I. 773 Hierzu A.V. Unabhängigkeit vs. Nutzung von automatisierten Anwendungen. 774 Der Grundsatz findet Ausdruck in zahlreichen Vorschriften: Gemäß § 139 Abs. 4 Satz 1 ZPO sind Hinweise so früh wie möglich zu erteilen. Termine sind unverzüglich zu bestimmen, § 216 Abs. 2 ZPO. Die Klageschrift ist unverzüglich zuzustellen, § 271 Abs. 1 ZPO. Die Güteverhandlung und die mündliche Verhandlung sollen so früh wie möglich stattfinden, § 272 Abs. 3 ZPO. Das Gericht hat erforderliche vorbereitende Maßnahmen rechtzeitig zu veranlassen, § 273 Abs. 1 ZPO. Den Parteien obliegt es, Angriffs- und Verteidigungsmittel rechtzeitig vorzubringen, § 282 ZPO. Verspätetes Vorbringen kann zurückgewiesen werden, § 296 ZPO. Im Fall der Beauftragung eines Sachverständigen hat das Gericht ihm eine Frist zu setzen, innerhalb derer er das Gutachten zu übermitteln hat, § 411 ZPO. Die §§ 198 ff. GVG regeln Entschädigungen für unangemessen lange dauernde Gerichtsverfahren. 775 Hierzu Kapitel 1) B.I. Steigerung von Qualität und Effizienz. 776 Vgl. BVerfG, Urteil vom 24. Januar 2001 – 1 BvR 2623/95, BVerfGE 103, 44, juris Rn. 66. E. Ausrichtung des Zivilprozessrechts auf die Digitalisierung 157 dermann Gerichtsverhandlungen beiwohnen kann777, hindert die Zuhilfenahme automatisierter Anwendungen ebenfalls nicht. Sowohl die mündliche Verhandlung als auch die Verkündung der Entscheidung bleiben auch dann öffentlich, wenn das Gericht beim Vorgang der Entscheidungsfindung ein technisches Hilfsmittel heranzieht. Die richterliche Entscheidungsfindung selbst unterliegt hingegen nicht dem Öffentlichkeitsgrundsatz. Dies verdeutlicht das in § 43 DRiG geregelte Beratungsgeheimnis, wonach der Richter über den Hergang bei der Beratung und Abstimmung auch nach Beendigung seines Dienstverhältnisses zu schweigen hat. Der Konzentrationsgrundsatz (§§ 272 Abs. 1, 279 Abs. 2 ZPO), der die Erledigung des Rechtsstreits in möglichst nur einem Verhandlungstermin gebietet, und die Dispositionsmaxime778, nach der das Verfügungsrecht über den Prozess im Ganzen den Parteien zusteht779, stehen dem Einsatz automatisierter Anwendungen ebenso wenig entgegen. Auch der Mündlichkeitsgrundsatz (§§ 128, 137 Abs. 2 und 3 ZPO), nach dem die tatsächlichen Entscheidungsgrundlagen in einer mündlichen Verhandlung zu erörtern sind780 und der bereits heute einige Ausnahmen zulässt (vgl. §§ 128 Abs. 2-4, 495a ZPO), wird allein durch die Tatsache des Einsatzes automatisierter Anwendungen zur Entscheidungsfindung nicht beeinträchtigt. Im 777 Lückemann, in: Zöller, ZPO, § 169 GVG Rn. 2. Die Zivilprozessordnung kennt aber auch einige Ausnahmen vom Öffentlichkeitsgrundsatz: Mit Zustimmung der Parteien kann das Gericht auch ohne mündliche Verhandlung entscheiden, § 128 Abs. 2 ZPO. Im vereinfachten Verfahren nach § 495a ZPO wird nur auf Antrag einer Partei mündlich verhandelt. Schlussurteile über die Kosten (§ 128 Abs. 3 ZPO) und Beschlüsse (§ 128 Abs. 4 ZPO) bedürfen grundsätzlich ebenfalls keiner mündlichen Verhandlung. 778 Hinweise auf die Dispositionsmaxime finden sich an mehreren Stellen der Zivilprozessordnung: Bei übereinstimmender Erklärung der Erledigung des Rechtsstreits in der Hauptsache ist nicht mehr über die Hauptsache, sondern nur noch über die Kosten zu entscheiden, § 91a ZPO. Die Klage wird von der klagenden Partei eingereicht (§ 253 ZPO) und kann von dieser unter Umständen geändert (§ 263 ZPO) oder (gegebenenfalls nur mit Zustimmung der beklagten Partei) zurückgenommen werden, § 269 Abs. 1 ZPO. Das Gericht darf sodann keine Sachentscheidung mehr treffen. Ferner darf es nicht über die Parteianträge hinausgehen, § 308 ZPO. Der Berufungskläger kann die Berufung bis zur Verkündung des Berufungsurteils zurücknehmen, § 516 Abs. 1 ZPO. Gleiches gilt für den Kläger im Revisionsverfahren, wobei es ab dem Beginn der mündlichen Verhandlung des Revisionsbeklagten auf dessen Zustimmung ankommt, § 565 ZPO. 779 Greger, in: Zöller, ZPO, Vor § 128 Rn. 9. 780 Greger, in: Zöller, ZPO, § 128 Rn. 1. Kapitel 3) Zulässige und unzulässige Anwendungen 158 Hinblick auf den Grundsatz der Unmittelbarkeit781, nach dem die mündliche Verhandlung und Beweisaufnahme vor dem erkennenden Gericht stattzufinden haben782 und der ebenfalls Ausnahmen zulässt (vgl. § 229 ZPO), gilt das gleiche. Zwar sind insoweit durchaus Zweifel angezeigt, wenn das Gericht seine Entscheidung in fremde Hände legt, weil es die Computerentscheidung nicht nachvollziehen kann. Denn an die Stelle seiner Entscheidung tritt jene des Computers beziehungsweise der Entwickler. Da aber das Gericht, vor dem die mündliche Verhandlung stattgefunden hat, die Entscheidung immerhin noch selbst unterzeichnet, ist der Unmittelbarkeitsgrundsatz gleichwohl nicht betroffen. In Konflikt geraten kann der Einsatz automatisierter Anwendungen allerdings mit dem in §§ 138, 282, 288 ZPO niedergelegten Beibringungsgrundsatz, der besagt, dass das Gericht seiner Entscheidung den von den Parteien mitgeteilten Prozessstoff zugrunde zu legen hat und keine Ermittlung von Amts wegen erfolgt.783 Insofern erscheint es problematisch, wenn eine automatisierte Anwendung auf nicht von den Parteien vorgetragene Informationen aus einer Datenbank zurückgreift und diese zur Grundlage einer Entscheidung macht, worauf zurückzukommen sein wird.784 Der automatisierten Übertragung rechtlicher Wertungen steht der Beibringungsgrundsatz hingegen nicht im Weg, da er sich nur auf Tatsachen, nicht aber auf die rechtliche Bewertung bezieht. Dabei besteht aber die Gefahr, dass eigentlich rechtlich erheblicher Parteivortrag übergangen wird, weil das Programm diesen nicht verarbeiten kann. Videoverhandlung Gemäß § 128a Abs. 1 ZPO kann das Gericht Parteien, ihren Bevollmächtigten und Beiständen gestatten, sich während der mündlichen Verhandlung an einem anderen Ort als dem Gerichtssaal aufzuhalten und dort Verfahrenshandlungen vorzunehmen. Entsprechendes gilt gemäß § 128a Abs. 2 II. 781 Bestimmungen hierzu finden sich in §§ 128 Abs. 1, 285 Abs. 2, 309, 355 ZPO und § 169 GVG, in denen jeweils von dem „erkennenden Gericht“ die Rede ist. Zudem hat das Gericht die Wiedereröffnung der Verhandlung anzuordnen, wenn zwischen dem Schluss der mündlichen Verhandlung und dem Schluss der Beratung und Abstimmung ein Richter ausgeschieden ist, § 156 Abs. 2 Nr. 3 ZPO. 782 Greger, in: Zöller, ZPO, Vor § 128 Rn. 13. 783 Greger, in: Zöller, ZPO, Vor § 128 Rn. 10. 784 Unten Kapitel 4) C.I.2. Verknüpfung mit einer Flugdatenbank? E. Ausrichtung des Zivilprozessrechts auf die Digitalisierung 159 ZPO für Vernehmungen von Zeugen, Sachverständigen und Parteien. Das Gericht hat sich jedoch in jedem Fall im Sitzungszimmer aufzuhalten. Die Norm befugt das Gericht nicht zu seiner eigenen Ortsabwesenheit. Es darf also nicht hinter verschlossenen Türen im Richterzimmer per Videochat verhandeln. § 128a ZPO wurde durch das Gesetz zur Reform des Zivilprozesses vom 27. Juli 2001 (Zivilprozessreformgesetz – ZPO-RG) eingeführt und zuletzt durch das Gesetz zur Intensivierung des Einsatzes von Videokonferenztechnik in gerichtlichen und staatsanwaltschaftlichen Verfahren vom 25. April 2013 mit Wirkung vom 1. November 2013 geändert. Nach dieser Vorschrift sind Verhandlungen im Wege der Bild- und Tonübertragung möglich. Die Regelung schränkt das Präsenzerfordernis und damit den Unmittelbarkeitsgrundsatz ein,785 indem sie bezweckt, weite Anreisen zum Gerichtsort und daraus folgende Terminverlegungen zu vermeiden786. Ferner wird der Grundsatz der Mündlichkeit im Interesse der Prozessökonomie durchbrochen.787 Vor allem der Anwaltschaft soll die Gelegenheit geboten werden, an gerichtlichen Verfahren ohne Reisetätigkeit aus der eigenen Kanzlei heraus oder von Videokonferenzanlagen aus teilzunehmen, die die Justizverwaltungen bereitstellen.788 Allerdings sind Gerichte nicht verpflichtet, Videokonferenztechnik vorzuhalten.789 Vielmehr sind die Vorschriften über den Einsatz von Videokonferenztechnik in gerichtlichen Verfahren als reine Befugnisnormen zu verstehen.790 Einfluss auf die Bewertung der Heranziehung von automatisierten Anwendungen zur Entscheidungsfindung hat die Norm nicht. Elektronische Dokumente Gemäß § 130a ZPO können Schriftsätze als elektronische Dokumente bei Gericht eingereicht, mit einer qualifizierten Signatur abgezeichnet und auf einem sicheren Übermittlungsweg eingereicht werden (Abs. 1 und 3), III. 785 Greger, in: Zöller, ZPO, § 128a Rn. 1; vgl. auch Stadler, in: Musielak/Voit, ZPO, § 128a Rn. 1. 786 BT-Drs. 17/12418, S. 14. 787 BT-Drs. 14/6036, S. 119. 788 BT-Drs. 17/1224, S. 12. 789 BT-Drs. 17/12418, S. 17; Greger, in: Zöller, ZPO, § 128a Rn. 1; a. A. von Selle, in: BeckOK ZPO, § 128a Rn. 2.1. 790 BT-Drs. 17/12418, S. 17. Kapitel 3) Zulässige und unzulässige Anwendungen 160 wenn das elektronische Dokument für die Bearbeitung durch das Gericht geeignet ist (Abs. 2 Satz 1). Die Regelung wurde durch das Gesetz zur Anpassung der Formvorschriften des Privatrechts und anderer Vorschriften an den modernen Rechtsgeschäftsverkehr vom 13. Juli 2001 mit Wirkung vom 1. August 2001 eingeführt791 und zuletzt durch das Gesetz zur Förderung des elektronischen Rechtsverkehrs mit den Gerichten vom 10. Oktober 2013792 mit Wirkung vom 1. Januar 2018 geändert. Die elektronische Einreichung ist dem Wortlaut der Vorschrift nach aber noch nicht verpflichtend, sondern lediglich optional.793 Dies ändert sich für Rechtsanwälte, Behörden und juristische Personen des öffentlichen Rechts spätestens ab dem 1. Januar 2022, da dann mit Inkrafttreten des § 130d ZPO das elektronische Dokument für sie verpflichtend wird.794 In § 2 Abs. 1 Elektronischer-Rechtsverkehr-Verordnung vom 24. November 2017 (ERVV)795 werden die Anforderungen an elektronische Dokumente bestimmt. Danach sind elektronische Dokumente in druckbarer, kopierbarer und, soweit technisch möglich, durchsuchbarer Form im Dateiformat PDF zu übermitteln. Gemäß Abs. 3 soll dem elektronischen Dokument darüber hinaus ein strukturierter maschinenlesbarer Datensatz im Dateiformat XML beigefügt werden, der bestimmten Definitions- oder Schemadateien entspricht und u. a. die Bezeichnung des Gerichts, der Parteien und Verfahrensbeteiligten, das Aktenzeichen des Verfahrens und die Angabe des Verfahrensgegenstands enthalten soll. Die Verwendung von elektronischen Dokumenten hat das Potential, die Heranziehung automatisierter Anwendungen zur Entscheidungsfindung zu vereinfachen. Dies gilt insbesondere dann, wenn ihnen maschinenlesbare, strukturierte Datensätze beigefügt werden. Denn das Vorliegen solcher Datensätze eröffnet die Möglichkeit, die händische Eingabe solcher Daten in die automatisierten Anwendungen durch ein automatisches Auslesen und Übertragen zu ersetzen. Die damit verbundene Zeitersparnis geht aber unter Umständen zu Lasten der Gewährung des rechtlichen Gehörs, 791 BGBl. 2001 Teil I, S. 1542. 792 BGBl. 2013 Teil I, S. 3786. 793 Siehe hierzu auch BT-Drs. 14/4987, S. 23. 794 Vgl. § 130d ZPO i. V. m. Art. 26 Abs. 7 des Gesetzes zur Förderung des elektronischen Rechtsverkehrs mit den Gerichten vom 10. Oktober 2013 (BGBl. 2013 Teil I, S. 3786). Gemäß Art. 24 Abs. 2 desselben Gesetzes dürfen die Landesregierungen das Inkrafttreten des § 130d ZPO durch Rechtsverordnung auf den 1. Januar 2020 oder den 1. Januar 2021 vorverlegen. 795 BGBl. 2017 Teil I, S. 3803. E. Ausrichtung des Zivilprozessrechts auf die Digitalisierung 161 namentlich dann, wenn das Gericht sich auf das richtige Herauslesen der Daten durch die Anwendung verlässt, diese aber bestimmte Daten nicht verarbeiten kann und deshalb – ohne das Gericht darauf hinzuweisen – unberücksichtigt lässt. Auslassungen und Übertragungsfehler sind allerdings auch bei händischer Eingabe der Daten in die automatisierte Anwendung nicht ausgeschlossen. Elektronische Akte Die Einführung der elektronischen Akte ist in § 298 ZPO geregelt. Gemäß Abs. 1 Satz 1 können die Akten bereits jetzt elektronisch geführt werden. Durch das Gesetz zur Einführung der elektronischen Akte in der Justiz und zur weiteren Förderung des elektronischen Rechtsverkehrs vom 5. Juli 2017796 wurde ein neuer Abs. 1a eingeführt. Nach dessen Satz 1 sind Gerichte ab dem 1. Januar 2026 zur elektronischen Aktenführung verpflichtet. In diesen Kontext gehören noch weitere Vorschriften, die kurz skizziert werden sollen: § 130b ZPO wurde durch das Gesetz über die Verwendung elektronischer Kommunikationsformen in der Justiz (Justizkommunikationsgesetz – JKomG) vom 22. März 2005797 eingeführt und zuletzt durch das genannte Gesetz zur Einführung der elektronischen Akte in der Justiz und zur weiteren Förderung des elektronischen Rechtsverkehrs geändert. Während § 130a ZPO den Eingang elektronischer Dokumente bei Gericht regelt798, betrifft § 130b ZPO deren Ausgang. Soweit durch die Regelungen der ZPO handschriftliche Unterzeichnung vorgeschrieben ist, genügt die Aufzeichnung als elektronisches Dokument dieser Form, wenn die verantwortenden Personen am Ende des Dokuments ihren Namen hinzufügen und das Dokument mit einer qualifizierten elektronischen Signatur versehen. Gemäß § 298 Abs. 1 Satz 1 ZPO ist von elektronischen Dokumenten ein Ausdruck für die Akten zu fertigen, wenn die Akten in Papierform geführt werden. Damit soll die Führung von sogenannten Hybridakten, die teilweise elektronisch und teilweise in Papierform geführt werden, vermieden werden.799 Solange noch eine Papierakte geführt wird, soll diese auch voll- IV. 796 BGBl. 2017 Teil I, S. 2208. 797 BGBl. 2005 Teil I, S. 837. 798 Hierzu vorstehend III. Elektronische Dokumente. 799 Bacher, in: BeckOK ZPO, § 298 Rn. 1. Kapitel 3) Zulässige und unzulässige Anwendungen 162 ständig sein.800 Bei unverhältnismäßigem Aufwand kann ein Ausdruck gemäß § 298 Abs. 1 Satz 2 jedoch unterbleiben. Im Fall elektronischer Aktenführung gilt gemäß § 298a Abs. 2 Satz 1 ZPO Entsprechendes. Werden die Akten elektronisch geführt, sind in Papierform vorliegende Schriftstücke grundsätzlich in ein elektronisches Dokument zu übertragen. Für elektronische Dokumentenbestände, die lediglich ergänzend und nicht an Stelle der Papierakte geführt werden, gilt § 298a ZPO jedoch nicht.801 § 299 Abs. 3 Satz 1 ZPO regelt ein Einsichtsrecht in elektronische Akten durch Bereitstellung zum Online-Abruf. Dies soll über ein noch zu errichtendes gemeinsames Akteneinsichtsportal der Justizverwaltungen möglich werden.802 Die Einführung der elektronischen Akte wirkt sich insofern auf automatisierte Anwendungen aus, als dass diese in die Aktenverwaltungsprogramme der Gerichte integriert werden könnten.803 Soweit Aktenverwaltungsprogramme strukturierte Daten vorhalten, könnten diese von automatisierten Anwendungen wiederum ausgelesen werden, wodurch die händische Dateneingabe entfiele.804 Datenschutzrechtliche Fragestellungen Berücksichtigung des Art. 22 DS-GVO im Zivilprozess Einzelentscheidungen, die eine automatisierte Bewertung von Persönlichkeitsmerkmalen zum Gegenstand haben, können an Art. 22 Abs. 1 DS-GVO zu messen sein.805 Danach haben natürliche Personen806 das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu wer- F. I. 800 Bacher, in: BeckOK ZPO, § 298 Rn. 3. 801 Bacher, in: BeckOK ZPO, § 298a Rn. 1.1. 802 Bacher, in: BeckOK ZPO, § 299 Rn. 42. 803 Meines Erachtens zu weitgehend meinen Vogelgesang/Krüger, jM 2019, 398 (399), dass Legal Tech-Anwendungen ohne elektronische Aktenführung sinnlos seien. Zuzustimmen ist ihnen aber darin, dass der Einsatz solcher Anwendungen auf der Grundlage einer digitalen Aktenführung praktikabler erscheint. 804 Hierzu vorstehend III. Elektronische Dokumente. 805 Kamlah, in: Plath, DSGVO/BDSG, Art. 22 DS-GVO Einführung Rn. 1. 806 Die in Art. 22 Abs. 1 DS-GVO genannte „betroffene Person“ wird in Art. 4 Abs. 1 DS-GVO als „identifizierte oder identifizierbare natürliche Person“ definiert. F. Datenschutzrechtliche Fragestellungen 163 den, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Da Art. 22 Abs. 1 DS-GVO auf einen bestimmten Typus von Entscheidungen abstellt, ist zunächst zu klären, ob das grundsätzliche Verbot von automatisierten Entscheidungen auch Auswirkungen auf das deutsche Prozessrecht haben kann. Voraussetzung dafür ist, dass die Gerichte der Mitgliedstaaten dem Anwendungsbereich des Art. 22 DS-GVO unterfallen. Zwar bestimmt Erwägungsgrund 20 der Verordnung, dass die DS-GVO für die Tätigkeiten der Gerichte gilt. Auch spricht die ausdrückliche Erwähnung der Gerichte in Artt. 9 Abs. 2 lit. f), 37 Abs. 1 lit. a) und 55 Abs. 3 DS-GVO für die grundsätzliche Anwendbarkeit der DS-GVO auf justizielle Tätigkeiten in den Mitgliedstaaten. Ein Blick auf die Kompetenzen der Europäischen Union begründet gleichwohl Zweifel an der Anwendbarkeit der DS-GVO im deutschen Zivilprozess. Die DS-GVO findet ihre Grundlage in Art. 16 Abs. 2 AEUV. Nach dieser Vorschrift können das Europäische Parlament und der Rat datenschutzrechtliche Vorschriften erlassen. Allerdings findet die Verordnung gemäß Art. 2 Abs. 2 lit. a) DS-GVO keine Anwendung auf die Verarbeitung personenbezogener Daten im Rahmen einer Tätigkeit, die nicht in den Anwendungsbereich des Unionsrechts fällt. Diese Aussage gibt die ohnehin geltenden kompetenzrechtlichen Grenzen des Art. 16 Abs. 2 AEUV wieder und hat damit rein deklaratorische Wirkung.807 Eine Regelungskompetenz der Europäischen Union für das Zivilprozessrecht der Mitgliedstaaten besteht zwar grundsätzlich nicht. Insofern werden auch vereinzelt kompetenzrechtliche Bedenken im Hinblick auf den Grundsatz der begrenzten Einzelermächtigung (Art. 5 Abs. 2 EUV) und das Subsidiaritätsprinzip (Art. 5 Abs. 3 EUV) formuliert.808 Allerdings stellt der Datenschutz eine Querschnittsmaterie dar, die zahlreiche Sachbereiche umfasst.809 Damit können ihre Regelungen auch in den justiziellen Bereich der Mitgliedstaa- 807 Albrecht, CR 2016, 88 (90); Kühling/Raab, in: Kühling/Buchner, DS-GVO/BDSG, Art. 2 DS-GVO Rn. 21. 808 So, allerdings im Ergebnis von der Anwendbarkeit des Art. 22 DS-GVO im justiziellen Bereich ausgehend: Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 110; https://www.s chleswig-holstein.de/DE/Landesregierung/II/Ministerin/Justizministerkonferenz /Downloads/190605_beschluesse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020; ferner kritisch im Hinblick auf das Steuerverfahrensrecht: Krumm, DB 2017, 2182 ff. 809 Durner, JuS 2006, 213 (214); Wolff, in: Schantz/Wolff, Das neue Datenschutzrecht, Rn. 976. Kapitel 3) Zulässige und unzulässige Anwendungen 164 ten hineinwirken. Zudem ist anerkannt, dass „die Vorschriften eines völkerrechtlichen Vertrages oder eines Gesetzes zugleich diejenigen Vorschriften beinhalten, bei deren Fehlen sie sinnlos wären oder nicht in vernünftiger und zweckmäßiger Weise zur Anwendung gelangen könnten“.810 Der Zweck des Art. 22 Abs. 1 DS-GVO, den Menschen nicht zum bloßen Objekt einer algorithmischen Entscheidung verkommen zu lassen811, betrifft (gerade) auch Gerichtsverfahren. Außerdem verfügt der Unionsgesetzgeber im Hinblick auf das Subsidiaritätsprinzip über einen weiten Einschätzungs- und Gestaltungsspielraum812, so dass hier davon ausgegangen wird, dass Art. 22 DS-GVO im Zivilprozess zu berücksichtigen ist.813 810 EuGH, Urteil vom 29. November 1956, C-8/55, Celex-Nr. 61955CJ0008(01), zitiert nach juris; zustimmend Calliess, in: Calliess/Ruffert, EUV/AEUV, Art. 5 EUV Rn. 15. 811 Ernst, JZ 2017, 1026 (1030); Martini, in: Paal/Pauly, DS-GVO BDSG, Art. 22 DS- GVO Rn. 8. 812 Lienbacher, in: Schwarze et al., EU-Kommentar, Art. 5 EUV Rn. 27. 813 Ebenfalls für eine Anwendbarkeit der DS-GVO auf die (Zivil-)Justiz: Referentenentwurf des Bundesministeriums der Justiz und für Verbraucherschutz, Entwurf eines Gesetzes zur Umsetzung der Richtlinie (EU) 2016/680 im Strafverfahren sowie zur Anpassung datenschutzrechtlicher Bestimmungen an die Verordnung (EU) 2016/679, S. 43 (abrufbar unter https://www.bmjv.de/SharedDocs /Gesetzgebungsverfahren/DE/Umsetzung_RL-EU-2016-680_und_Anpassung_da tenschutzrechtlicher_Bestimmungen.html, zuletzt abgerufen am 18. Februar 2020); Bieresborn, DRiZ 2019, 18 (18); Körffer, in: Paal/Pauly, DS-GVO/BDSG, Art. 55 DS-GVO Rn. 5; Ory/Weth, NJW 2018, 2829 (2829 f.); Selmayr, in: Ehmann/Selmayr, DS-GVO, Art. 55 Rn. 13; Wiebe/Eichfeld, NJW 2019, 2734 (2734 f.); Wolff, in: Schantz/Wolff, Das neue Datenschutzrecht, Rn. 1373; a. A., wonach Erwägungsgrund 20 der DS-GVO den Mitgliedstaaten die Möglichkeit einräume, die Gerichte vom Anwendungsbereich der DS-GVO auszunehmen: Kühling et al., Die DS-GVO und das nationale Recht, S. 175 f.; Kühling/Raab, in: Kühling/Buchner, DS-GVO/BDSG, Art. 2 Rn. 30. Im Hinblick auf das Verwaltungsrecht wird unter Verweis auf Art. 16 Abs. 2 AEUV und Art. 2 Abs. 2 lit. a) DS-GVO ferner vertreten, dass die DS-GVO nur anwendbar sei, wenn die Regelungsmaterie materielles Unionsrecht betreffe (so Krumm, DB 2017, 2182 [2185 ff.]). Die Praktikabilität einer solchen Zersplitterung sei dahingestellt. Da der deutsche Gesetzgeber etwa die Vorgaben der Verbraucherrechte-Richtlinie 2011/83/EU und die Verbrauchsgüterkauf-Richtlinie 1999/44/EG in deutsches (Zivil-)Recht transformiert hat, sind jedenfalls auch nach dieser engeren Auffassung gewisse Anwendungsbereiche für die DS-GVO im deutschen Zivilprozess denkbar. F. Datenschutzrechtliche Fragestellungen 165 Inhalt des Art. 22 DS-GVO Nach Art. 22 Abs. 1 DS-GVO814 hat die betroffene Person das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Dieser Grundsatz unterliegt allerdings mehreren Einschränkungen. Verboten sind nur solche Entscheidungen, die ausschließlich auf einer automatisierten Verarbeitung beruhen, also ohne jeglichen menschlichen Einfluss generiert werden, nicht hingegen die algorithmenbasierte Unterstützung menschlicher Entscheidungen.815 Die algorithmenbasierte Grundentscheidung muss, um nicht unter das Verbot zu fallen, also mit einer menschlichen Entscheidung verbunden sein.816 Die inhaltliche Bewertung und die darauf gestützte Entscheidung müssen einer natürlichen Person vorbehalten bleiben817, wobei diese freilich nicht von der algorithmengestützten Entscheidung abweichen muss. Allerdings ist insoweit fraglich, inwieweit der Mensch sich von der computergenerierten Entscheidung lösen kann und nicht einem Übernahmeautomatismus verfällt.818 Gemäß Art. 22 Abs. 2 lit. b) DS-GVO gilt das Verbot automatisierter Entscheidungen nicht, wenn die Entscheidung aufgrund von Rechtsvorschriften der Union oder der Mitgliedstaaten, denen der Verantwortliche unterliegt, zulässig ist und diese Rechtsvorschriften angemessene Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person enthalten. Daher ist es grundsätzlich möglich, dass der Gesetzgeber die Benutzung einer automatisierten Anwendung vorschreibt. Konsequenzen für den Einsatz von Legal Tech im Zivilprozess Der Begriff der „automatisierten Verarbeitung“ im Sinne des Art. 22 Abs. 1 DS-GVO ist nicht gleichzusetzen mit der Entscheidung (nur) eines autonomen Systems. Zwar zielt sie in erster Linie auf moderne Big-Data-Techno- II. III. 814 Die ähnliche Regelung des § 6a BDSG wurde durch die DS-GVO abgelöst und trat mit Ablauf des 24. Mai 2018 außer Kraft. 815 Martini, JZ 2017, 1018 (1020). 816 Hoffmann-Riem, AöR 142 (2017), 1 (36). 817 Ernst, JZ 2017, 1026 (1031). 818 Ähnlich Hoffmann-Riem, AöR 142 (2017), 1 (36); siehe oben Kapitel 1) B. VI. Beeinflussung der Meinungsbildung. Kapitel 3) Zulässige und unzulässige Anwendungen 166 logien ab.819 Dazu gehören selbstlernende Systeme, da sie darauf ausgelegt sind, riesige Datenmengen auszuwerten.820 Allerdings können auch rein algorithmische Anwendungen in der Weise eingesetzt werden, dass der Anwender ihre Ergebnisse ohne konkrete Überprüfung des Einzelfalls in seine Entscheidung überträgt. Auch in dem Fall liegt eine gewisse Automatisierung der Verarbeitung vor, die sodann zu einer Entscheidung führt. Nach den oben821 dargestellten Grundsätzen ist die Übertragung von Entscheidungen eines autonomen Systems in eine Gerichtsentscheidung dem Grunde nach ausgeschlossen. Denn die inhaltliche Bewertung muss – wie gesehen – von einem Menschen getroffen werden. Im Fall der Entscheidung eines autonomen Systems ist der Ausschluss automatisierter Entscheidungen einleuchtend, weil das System nach eigenen Regeln entscheidet, die typischerweise nicht einsehbar oder nachvollziehbar sind. Selbst wenn es den Entwicklern eines Tages gelänge, Ergebnisse im Einzelfall im Nachhinein nachzuvollziehen822, ändert dies nichts daran, dass jedenfalls das Gericht sie im Zeitpunkt der Entscheidungsfindung nicht einsehen kann. Eine nachträgliche Nachvollziehbarkeit hilft insofern nicht weiter. Komplizierter gestaltet sich die Frage im Hinblick auf determinierte Programme. Denn es ist bislang nicht abschließend geklärt, wie der Begriff der automatisierten Verarbeitung im Sinne des Art. 22 Abs. 1 DS-GVO zu verstehen ist. Nach einer Auffassung wird darunter grundsätzlich jede automatisierte Entscheidung gefasst.823 Hingegen soll nach einer anderen Auffassung Art. 22 Abs. 1 DS-GVO teleologisch reduziert werden, so dass einfache „Wenn-Dann-Entscheidungen“ nicht von dem Begriff der automatisierten Verarbeitung erfasst werden.824 Gefordert wird insoweit ein Mindestmaß an Komplexität der automatisierten Datenverarbeitung ähnlich dem beim sogenannten Profiling.825 Begründet wird dies mit den praktischen Konsequenzen für alltägliche Geschäfte wie Abhebungen am 819 Martini, in: Paal/Pauly, DS-GVO BDSG, Art. 22 DSGVO Rn. 8. 820 Hierzu Kapitel 1) A.II. Autonome Systeme. 821 Vorstehend II. Inhalt des Art. 22 DS-GVO. 822 Hierzu Kapitel 1) A.II. Autonome Systeme. 823 Dammann, ZD 2016, 307 (312). 824 Buchner, in: Kühling/Buchner, DS-GVO BDSG, Art. 22 DS-GVO Rn. 18; von Lewinski, BeckOK Datenschutzrecht, Art. 22 DS-GVO Rn. 13; Schulz, in: Gola, DS-GVO, Art. 22 Rn. 20. 825 So ausdrücklich Schulz, in: Gola, DS-GVO, Art. 22 Rn. 20. Zum sogenannten Profiling: vgl. Buchner, in: Kühling/Buchner, DS-GVO BDSG, Art. 22 DS-GVO Rn. 20 ff. F. Datenschutzrechtliche Fragestellungen 167 Geldautomaten, die dann nicht mehr ausschließlich automatisiert erfolgen dürften.826 Folgt man dem engen Verständnis der „automatisierten Verarbeitung“ im Sinne des Art. 22 Abs. 1 DS-GVO, fallen jedenfalls einfache rein algorithmische Anwendungen nicht in den Anwendungsbereich der Norm. Hier wird jedoch das weite Verständnis des Begriffs, wonach auch rein algorithmenbasierte Entscheidungen davon erfasst sind, zugrunde gelegt. Denn zum einen legt der Wortlaut der Norm dies zumindest nahe. Zum anderen ist die Bedeutung einer Gerichtsentscheidung für die Betroffenen nicht mit alltäglichen Vorgängen wie einer Bargeldabhebung am Geldautomaten vergleichbar. Da Art. 22 DS-GVO bezweckt, das Gefühl des Ausgeliefertseins und der Hilflosigkeit des Betroffenen zu verhindern,827 wird der Schutzzweck durch automatisierte Gerichtsentscheidungen gerade betroffen. Menschen sollen nicht zum bloßen Objekt computergenerierter Entscheidungen degradiert werden.828 Ungeachtet der Frage, wann eine „Wenn-Dann-Entscheidung“ noch als einfach oder bereits als komplex zu bezeichnen ist, unterliegen daher auch rein algorithmische Gerichtsentscheidungen dem grundsätzlichen Verbot des Art. 22 DS-GVO. Im Hinblick auf rein algorithmische Anwendungen ist deshalb wie folgt zu differenzieren: Sofern das Gericht die computergenerierte Entscheidung vollständig nachvollziehen kann, gibt es die Bewertung des Falls nicht aus der Hand. Die Anwendung folgt seinen Anweisungen. Seine inhaltliche Bewertung wird ausgeführt. Die Nachvollziehbarkeit kann auf zwei Weisen gelingen: Zum einen kann ein Richter die Software selbst programmieren.829 Zum anderen kann der Weg einer Zertifizierung gewählt werden.830 Einer an den Anforderungen der Ausnahmevorschrift des Art. 22 Abs. 2 lit. b) DS-GVO ausgerichteten Regelung bedarf es daher nicht. Überträgt das Gericht hingegen ein algorithmenbasiertes Ergebnis in seine Entscheidung, ohne dass es die Wirkungsweise der Anwendung nachvollziehen kann, fehlt es an einer eigenen inhaltlichen Bewertung, so dass es gegen Art. 22 826 So Buchner, in: Kühling/Buchner, DS-GVO BDSG, Art. 22 DS-GVO Rn. 18; von Lewinski, in: BeckOK Datenschutzrecht, Art. 22 DS-GVO Rn. 13; Schulz, in: Gola, DS-GVO, Art. 22 Rn. 20, jeweils mit weiteren Beispielen und Nachweisen. 827 Ernst, JZ 2017, 1026 (1030) m. w. N. 828 Buchner, in: Kühling/Buchner, DS-GVO BDSG, Art. 22 DS-GVO Rn. 11; Ernst, JZ 2017, 1026 (1030). 829 Hierzu A.V.1.a) Zulässigkeit bei vollständiger Kenntnis vom Algorithmus. 830 Hierzu A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. Kapitel 3) Zulässige und unzulässige Anwendungen 168 Abs. 1 DS-GVO verstößt. Insofern hülfe auch eine nachgeordnete Kontrollinstanz nicht weiter. Diese könnte den Mangel menschlicher Intervention bei der Entscheidungsfindung nicht nachträglich heilen.831 Die Hinzuziehung autonomer Systeme und nicht nachvollziehbarer determinierter Programme zur Entscheidungsvorbereitung ist im Hinblick auf Art. 22 Art. 1 DS-GVO gleichwohl unbedenklich, solange die Ergebnisse nicht zur Übernahme in die Entscheidung bestimmt sind, sondern lediglich zur Selbstkontrolle generiert werden. Denn die entscheidungsvorbereitende Unterstützung durch automatisierte Verarbeitungen soll durch Art. 22 DS-GVO nicht verhindert werden.832 Über das Vorbereitungsstadium geht die Heranziehung einer automatisierten Anwendung aber bereits dann hinaus, wenn nur ein oder auch mehrere auf die Gesamtentscheidung durchgreifende Teilaspekte durch die Anwendung bewertet und ohne Nachprüfung in die gerichtliche Entscheidung übernommen werden. Die Entscheidung stellt sich in diesem Fall nämlich insgesamt als keine eigene Entscheidung des Gerichts, sondern als computerabhängig dar, da das Gericht die computergenerierte Teil-Entscheidung nicht überprüft. Dem Gesetzgeber steht es zwar nach Art. 22 Abs. 2 lit. b) DS-GVO grundsätzlich frei, die Benutzung automatisierter Anwendungen zu erlauben oder gar vorzuschreiben. Allerdings sind dann gleichwohl die Rechte und Freiheiten sowie die berechtigten Interessen der Entscheidungsadressaten zu wahren. Daher beschränkt sich die Erlaubnisfähigkeit im justiziellen Bereich auf nachvollziehbare determinierte Anwendungen, deren Einsatz die Gerichte im Einzelfall bestimmen. Die Betroffenen dürfen keinen Entscheidungen ausgesetzt werden, die nicht einmal die Gerichte selbst nachvollziehen können. So läge der Fall jedoch bei der Benutzung autonomer Systeme oder (ebenfalls) nicht nachvollziehbarer determinierter Anwendungen. Da in Art. 22 Abs. 2 lit. b) DS-GVO von „Rechtsvorschriften“ die Rede ist, aufgrund derer automatisierte Entscheidungen erlaubt werden, wird zudem implizit vorausgesetzt, dass es sich dabei um gültige Vorschriften handelt. Der deutsche Gesetzgeber ist daher auf Regelungen beschränkt, die der grundgesetzliche Rahmen zulässt. Insofern hätte die gesetzliche Anordnung der Verwendung von automatisierten Anwendungen nicht nur Artt. 97 und 20 Abs. 3 GG Rechnung zu tragen, was eine Nachvollziehbarkeit auf Seiten des Gerichts zwingend und auf Seiten der Be- 831 Ebenso Schulz, in: Gola, DS-GVO, Art. 22 Rn. 17. 832 Martini, in: Paal/Pauly, DS-GVO BDSG, Art. 22 DSGVO Rn. 8 und 20. F. Datenschutzrechtliche Fragestellungen 169 troffenen jedenfalls regelmäßig voraussetzt833, sondern stieße auch auf Bedenken im Hinblick auf den Bestimmtheitsgrundsatz und die Gewährleistung eines fairen Verfahrens834. Der Installierung eines „Roboterrichters“ steht ferner Art. 92 GG entgegen.835 Amtshaftung und Spruchrichterprivileg Nach § 839 Abs. 1 BGB macht sich ein Beamter schadensersatzpflichtig, wenn er die ihm einem Dritten gegenüber obliegenden Amtspflichten verletzt. Für Richterunrecht gilt die Einschränkung des Abs. 2 Satz 1: Erfolgt die Amtspflichtverletzung bei dem Urteil in einer Rechtssache, haftet der (Spruch-)Richter836 für den daraus entstehenden Schaden nur dann, wenn die Pflichtverletzung in einer Straftat besteht. Ob dieses sogenannte Spruchrichterprivileg neben der Rechtskraft richterlicher Entscheidungen837 auch dem Schutz der richterlichen Unabhängigkeit dient, ist umstritten.838 Das Spruchrichterprivileg umfasst nicht nur Pflichtverletzungen durch das Urteil, das heißt aufgrund einer fehlerhaften Entscheidung in der Sache selbst. Vielmehr genügt dem Wortlaut des § 839 Abs. 2 Satz 1 BGB nach auch jede Amtspflichtverletzung bei dem Urteil. Privilegiert sind daher sämtliche Maßnahmen, die objektiv auf die abschließende Entscheidungsfindung gerichtet sind.839 Dies umfasst die Feststellung des Tatbe- G. 833 Hierzu A.V. Unabhängigkeit vs. Nutzung von automatisierten Anwendungen und D. Rechtsstaatlichkeit und Gleichheitsgebot. 834 Hierzu A.V.3. Freiwillige und verpflichtende Nutzung. 835 Hierzu A.I.2. Natürliche Personen als Richter. 836 „Beamter“ im Sinne des § 839 Abs. 2 BGB ist der Spruchrichter, vgl. Sprau, in: Palandt, BGB, § 839 Rn. 64. 837 Vgl. insoweit BGH, Urteil vom 11. März 1968 – III ZR 72/65, BGHZ 50, 14, juris Rn. 10; Papier/Shirvani, in: MünchKomm-BGB, § 839 Rn. 323; Sprau, in: Palandt, BGB, § 839 Rn. 63. 838 Dies annehmend BGH, Urteil vom 11. März 1968 – III ZR 72/65, BGHZ 50, 14, juris Rn. 10; ebenso Sprau, in: Palandt, BGB, § 839 Rn. 63. Hierfür spricht, dass die Beschränkung der Haftung auf Straftaten eine weitgehend freie Entscheidung des Richters, das heißt ohne Angst vor nachteiligen persönlichen Konsequenzen, ermöglicht. A. A. Papier/Shirvani, in: MünchKomm-BGB, § 839 Rn. 322 m. w. N., die dem entgegenhalten, dass mit der Annahme, der Haftungsausschluss schütze die richterliche Unabhängigkeit, der Zweck der gesetzlichen Begrenzung des Haftungsprivilegs auf die spruchrichterliche Tätigkeit ignoriert werde. 839 BGH, Urteil vom 4. November 2010 – III ZR 32/10, BGHZ 187, 286, juris Rn. 13; Sprau, in: Palandt, BGB, § 839 Rn. 65. Kapitel 3) Zulässige und unzulässige Anwendungen 170 standes und seine Würdigung.840 Nicht vom Haftungsprivileg umfasst sind hingegen Pflichtverletzungen durch Verweigerung und Verzögerung der Amtsausübung (vgl. § 839 Abs. 2 Satz 2 BGB). Die Haftung wird durch § 839 Abs. 2 Satz 1 BGB im Ergebnis auf Fälle der Rechtsbeugung und Bestechlichkeit beschränkt.841 Sieht man von der Möglichkeit ab, dass ein Richter Vorteile fordert, sich versprechen lässt oder annimmt, um im Gegenzug eine bestimmte automatisierte Anwendung (gegebenenfalls auch ständig) zu benutzen, entfaltet der Tatbestand der Bestechlichkeit (§ 332 Abs. 2 StGB) bei dem Einsatz von automatisierten Anwendungen zur Entscheidungsfindung keine Bedeutung. Fraglich ist aber, unter welchen Voraussetzungen dieser als Rechtsbeugung zu bewerten ist. Nach der Rechtsprechung des Bundesgerichtshofs ist Tathandlung im Sinne des § 339 StGB im Ausgangspunkt eine Verletzung von Recht und Gesetz.842 Dies wirkt zunächst spiegelbildlich zur Bindung des Richters an Gesetz und Recht843 und meint die Anwendung objektiv nicht vertretbarer Rechtsansichten.844 Teile der Literatur lassen dies ausreichen, um den objektiven Tatbestand des § 339 StGB zu bejahen.845 Hingegen schränkt der Bundesgerichtshof den Rechtsbeugungstatbestand ein, indem er ausführt, eine Beugung des Rechts werde nicht schon durch jede (bedingt) vorsätzlich begangene Rechtsverletzung verwirklicht.846 Vielmehr seien subjektive Elemente in den objektiven Tatbestand einzubeziehen.847 So müsse sich der Richter „bewusst in schwer wiegender Weise“ von Recht und Gesetz entfernen.848 Dafür müsse er sich der grundlegenden Bedeutung der verletzten Rechtsregel für die Verwirklichung von Recht und Gesetz bewusst gewesen sein.849 Der entscheidungsersetzende Einsatz automatisierter Anwendungen kann daher zwar eine Amtshaftung des Richters begründen. Die verschiedenen Auffassungen können aber zu unterschiedlichen Ergebnissen füh- 840 BGH, Urteil vom 11. März 1968 – III ZR 72/65, BGHZ 50, 14, juris Rn. 3; BGH, Urteil vom 4. November 2010 – III ZR 32/10, BGHZ 187, 286, juris Rn. 13. 841 Reinert, in: BeckOK BGB, § 839 Rn. 105. 842 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 8. 843 Zur Bindung der Gerichte an Gesetz und Recht siehe A.II. Gesetzesbindung. 844 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 10. 845 Zum Streitstand vgl. Bange, in: BeckOK StGB, § 339 Rn. 12.1; Fischer, StGB, § 339 Rn. 12 ff., jeweils m. w. N. 846 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 9. 847 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 9; kritisch Fischer, StGB, § 339 Rn. 12 ff. 848 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 9. 849 BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 10. G. Amtshaftung und Spruchrichterprivileg 171 ren. Nutzt das Gericht eine automatisierte Anwendung zur Entscheidungsfindung, deren Ergebnisse sich nicht im Spektrum der vertretbaren Rechtsansichten bewegten, wäre nach Teilen der Literatur der Tatbestand des § 339 StGB bereits dann erfüllt, wenn das Gericht die Unvertretbarkeit seiner Rechtsansicht zumindest für möglich hält und billigend in Kauf nimmt. Nach der einschränkenden Auslegung des Bundesgerichtshofs werden aber die Umstände des Einzelfalls insofern Bedeutung erlangen, als dass zu klären ist, ob das Gericht sich auch „der grundlegenden Bedeutung der verletzten Rechtsregel für die Verwirklichung von Recht und Gesetz bewusst gewesen“ ist.850 Da der Tatbestand der Rechtsbeugung vorsätzliches Handeln verlangt, sind fahrlässige Rechtsverstöße nicht strafbar, § 15 StGB. Hält ein Gericht die von ihm zur Entscheidungsfindung eingesetzte automatisierte Anwendung also für gesetzeskonform, scheidet eine Strafbarkeit nach § 339 StGB aus. In dem Fall greift sodann auch das Haftungsprivileg des § 839 Abs. 2 BGB. Auf die tatsächliche Nachvollziehbarkeit der automatisierten Anwendung kommt es grundsätzlich nicht an. Drängen sich dem Gericht jedoch erhebliche Zweifel an der gesetzeskonformen Funktionsweise auf, was bei der Nutzung eines autonomen Systems ob der Schaffung eigener Regeln anzunehmen ist, kann es sich nicht darauf zurückziehen, die Gesetzeswidrigkeit nicht jedenfalls für möglich gehalten zu haben. Verwendet es die Anwendung gleichwohl zur Ersetzung der eigenen Entscheidung, wird darin jedenfalls eine billigende Inkaufnahme des Rechtsverstoßes zu sehen sein. Zwischenergebnis Während die Benutzung autonomer Systeme zur Entscheidungsfindung sowohl nach Artt. 97 Abs. 1, 20 Abs. 3 GG als auch nach Art. 22 DS-GVO generell unzulässig ist, hängt die Zulässigkeit des Einsatzes determinierter Anwendungen von deren Nachvollziehbarkeit ab. Um Richtern mit eingeschränkten oder auch durchschnittlichen technischen Kenntnissen die Benutzung solcher Anwendungen zu ermöglichen, wird hier die Einführung eines Zertifizierungsverfahrens vorgeschlagen. Solange dadurch die eigene Entscheidung des Gerichts nicht ersetzt wird, ist die Heranziehung automatisierter Anwendungen aber zulässig. Losgelöst von der Art der Benut- H. 850 Vgl. BGH, Urteil vom 22. Januar 2014 – 2 StR 479/13, BGHSt 59, 144, juris Rn. 10. Kapitel 3) Zulässige und unzulässige Anwendungen 172 zung ist der Anspruch der Verfahrensbeteiligten auf rechtliches Gehör zu beachten. Verstöße gegen Begründungspflichten können zur Annahme von Willkür führen. H. Zwischenergebnis 173 Ausgewählte Anwendungsfälle Organisationshilfen Mit der Einrichtung von Computerarbeitsplätzen haben auch digitale Unterstützungsanwendungen Einzug in die richterliche Praxis gefunden, die im Ausgangspunkt keinen unmittelbaren Bezug zur Entscheidungsfindung aufweisen. Die Rede ist von Organisationshilfen wie Software zur Büroorganisation, Kommunikation und (digitalen) Aktenverwaltung.851 Hierzu zählen sogenannte Fachanwendungen, die den Richter bei der Leitung des Verfahrens unterstützen.852 Darüber können etwa Daten der Parteien und Parteivertreter sowie Verhandlungs- und Verkündungstermine und Dokumente zentral gespeichert und abgerufen werden. Die Nutzung von Fachanwendungen zur Organisation des Dezernats ist im Hinblick auf die richterliche Unabhängigkeit grundsätzlich unbedenklich.853 Insofern wurde bereits angesprochen, dass der Betrieb und die Administration eines EDV-Netzes nicht zu beanstanden ist, wenn kein Grund zu der Annahme besteht, das EDV-Netz werde zur inhaltlichen Kontrolle richterlicher Dokumente im Kernbereich der Rechtsprechung genutzt.854 Durch die Nutzung von Fachanwendungen wird der Richter nicht in der ihm obliegen- Kapitel 4) A. 851 Vgl. die Aufzählung bei Schwarzburg, RuP 2019, 63 (63). 852 Typischerweise kommen in der ordentlichen Gerichtsbarkeit sogenannte Fachanwendungen wie forumSTAR, EUREKA (EDV-Unterstützung für Rechtsgeschäftsstellen und Kanzleien sowie der Richter- und Rechtspflegerarbeitsplätze) und AULAK (Automation des Landgerichts, der Amtsgerichte und des Kammergerichts) zum Einsatz, die in erster Linie der Verfahrens- und Dokumentenverwaltung dienen. Mitunter stellen sie auch Berechnungshilfen oder Formulierungsvorschläge für wiederkehrende Entscheidungen bereit. Mit der Einführung der elektronischen Akte dürfte auch die Zahl der integrierten Hilfswerkzeuge noch anwachsen. Die einzelnen digitalen Anwendungen sollen hier losgelöst von einer etwaigen Einbettung in eine Fachanwendung besprochen werden. Im Mahnverfahren werden AUMAV (Automation des gerichtlichen Mahnverfahrens) und EUMAV (Europäische Mahnverfahren) verwendet. 853 Unklar Berlit, JurPC Web-Dok. 77/2012, Abs. 46 ff., der zwar allgemein davor warnt, Informationstechnologie könne richterliche Arbeitstechniken und damit „schleichend“ auch die Entscheidungsfindung beeinflussen, aber seine Bedenken nur bezüglich elektronischen juristischen Datenbanken und Berechnungsprogrammen konkretisiert. 854 Hierzu Kapitel 3) A.V.3. Freiwillige und verpflichtende Nutzung. 174 den Verfahrensleitung und Entscheidungsfindung beeinträchtigt. Er bestimmt, ob, wann und welche verfahrensleitenden Verfügungen oder Beschlüsse er erlässt. Solche Programme stellen hierfür zwar gegebenenfalls Formulare bereit. Deren inhaltliche Ausgestaltung hängt allerdings von den Eingaben des Richters ab. Er bestimmt die Fristen und Termine, erteilt Auflagen und Hinweise, die sich danach richten, wie er die Sach- und Rechtslage einschätzt. Unbedenklich sind in diesem Zusammenhang auch integrierte Warnhinweise, die bei einer Terminsanberaumung auf Doppelterminierungen oder ein Wochenende beziehungsweise einen Feiertag hinweisen. Die Fachanwendung trifft damit keine eigenständige (das Verfahren betreffende) Entscheidung, sondern unterstützt den Richter lediglich bei der Bewältigung seiner organisatorischen Aufgaben. Er wird durch den Hinweis lediglich angehalten, seine Eingabe dahingehend zu überprüfen, ob er diese so tätigen wollte. Sodann kann er frei entscheiden, dem Hinweis nachzugehen oder ihn zu ignorieren. Sofern Fachanwendungen diesen rein organisatorischen Rahmen verlassen und automatisierte Anwendungen zur Entscheidungsfindung bereitstellen, gilt der Unbedenklichkeitsbefund jedoch nicht mehr. In dem Fall gelten für jede einzelne integrierte automatisierte Anwendung die oben dargestellten übergeordneten Prinzipien.855 Berechnungshilfen Wie gesehen, kommt der Einsatz von determinierten Programmen zur Entscheidungsfindung aufgrund der Unfähigkeit von Computern zu subsumieren sowie ihres mangelnden semantischen Verständnisses nur dort in Betracht, wo eine schematische Rechtsanwendung erfolgen kann.856 Während autonome Systeme im Hinblick auf die richterliche Unabhängigkeit nicht zur Entscheidungsfindung eingesetzt werden dürfen857, kommt es bei determinierten Programmen auf die Nachvollziehbarkeit für das Gericht an, die gegebenenfalls von einer Zertifizierung abhängt.858 Dies alles verengt den möglichen Einsatz von Legal Tech im Zivilprozess auf sche- B. 855 Hierzu Kapitel 3) Legal Tech im Lichte übergeordneter Prinzipien. 856 Hierzu Kapitel 2) A. Formalisierung des Rechts? 857 Hierzu Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung. 858 Hierzu Kapitel 3) A.V.1. Nutzung von determinierten Programmen zur Entscheidungsfindung. B. Berechnungshilfen 175 matische Anwendungen. Da Berechnungen schematisch ablaufen, sind Konstellationen, die sich auf Berechnungsfragen reduzieren lassen, einer Automatisierung zugänglich. Dabei scheint der Aufwand einer Programmierung umso lohnenswerter, je mehr gleichgelagerte Fälle in der juristischen Praxis auftreten.859 Berechnungshilfen leisten Unterstützung bei der Bearbeitung von aus der Rechtsanwendung herauslösbaren mathematischen (Teil-)Operationen. Sie weisen ein breites Spektrum auf und reichen bis hin zu Programmen, mit denen unter Berücksichtigung von aktueller Rechtsprechung komplexe Rechenoperationen vorgenommen werden können. In der Justizpraxis häufig eingesetzt werden Prozesskostenhilferechner860, Forderungs- und Zinsrechner861, Prozesskostenrechner862, Tagerechner863, Fristenrechner864 oder Programme zur Berechnung von Unterhalt, Zugewinn oder Versorgungsausgleich865. Prozesskostenhilferechner Modell eines Prozesskostenhilferechners Prozesskostenhilferechner sind häufig bereits in den Fachanwendungen der Gerichte866 integriert. Daneben sind verschiedene Prozesskostenhilfe- I. 1. 859 Damit erklärt sich auch der Zulauf bei Legal Tech-Unternehmen wie der Flightright GmbH und der LexFox GmbH, die sich auf bestimmte Geschäftsfelder, die häufig wiederkehrende Konstellationen betreffen und damit erhebliches Automatisierungspotential aufweisen, spezialisiert haben. 860 Z. B. https://www.pkh-rechner.de/, https://www.rfak.de/pkh_vkh_rechner.php, www.pkh-fix.de, alle zuletzt abgerufen am 18. Februar 2020. 861 Z. B. https://www.lecareonline.de/debicare/, https://www.zinsen-berechnen.de/z insrechner.php, beide zuletzt abgerufen am 18. Februar 2020. 862 Z. B. https://anwaltverein.de/de/service/prozesskostenrechner, https://www.derprozesskostenrechner.de, https://www.foris.com/prozesskostenrechner.html, alle zuletzt abgerufen am 18. Februar 2020. 863 Z. B. https://www.timeanddate.de/datum/zeitspanne, https://www.topster.de/ka lender/tagerechner.php, beide zuletzt abgerufen am 18. Februar 2020. 864 Z. B. https://www.lto.de/juristen/rechner/fristenrechner/, zuletzt abgerufen am 18. Februar 2020. 865 Z. B. WinFam; als speziell für nach dem FamFG zu führende familienrechtliche Prozesse vorgesehenes Tool wird dieses in der weiteren Bearbeitung nicht geprüft. 866 Z. B. AULAK und forumSTAR. Kapitel 4) Ausgewählte Anwendungsfälle 176 rechner im Internet verfügbar.867 Das nachfolgende, der weiteren Betrachtung zugrunde gelegte Modell orientiert sich an der auf der Webseite https://www.pkh-rechner.de/ bereitgestellten Eingabemaske. Gegenstand der Berechnung des dargestellten Modells ist lediglich eine (Teil-)Prüfung der persönlichen und wirtschaftlichen Verhältnisse, nämlich soweit die Prüfung mathematisch-logisch aus der Rechtsprüfung herausgelöst werden kann. Dabei bleiben sowohl die Ermittlung der in das Modell einzutragenden Variablen als auch die weiteren Voraussetzungen der Gewährung von Prozesskostenhilfe außer Betracht. Diese hat nach § 114 Abs. 1 ZPO insgesamt vier Voraussetzungen: (1) Sie wird nur auf Antrag einer Partei gewährt. (2) Der Antragsteller kann nach seinen persönlichen und wirtschaftlichen Verhältnissen die Kosten der Prozessführung nicht, nur zum Teil oder nur in Raten aufbringen. (3) Die beabsichtigte Rechtsverfolgung oder Rechtsverteidigung bietet hinreichende Aussicht auf Erfolg. (4) Die beabsichtigte Rechtsverfolgung oder Rechtsverteidigung erscheint nicht mutwillig. Das Programm prüft nur das Vorliegen der Voraussetzungen nach Ziffer (2) – und aufgrund der Beschränkung auf mathematisch-logisch abbildbare Aspekte nicht einmal dies vollständig. Vom (Brutto-)Einkommen des Antragstellers sind gemäß § 115 Abs. 1 Satz 3 Nr. 1 lit. a) ZPO i. V. m. § 82 Abs. 2 Satz 1 Nr. 1 und 2 SGB XII darauf entrichtete Steuern868 und Sozialabgaben869 abzuziehen. Der hier vorgestellte Prozesskostenrechner berücksichtigt dies, indem er von vornherein nur das Netto-Einkommen der antragstellenden Partei abfragt. Die Angaben zu den wirtschaftlichen Verhältnissen (Abbildung 4) umfassen außerdem bestimmte von ihr zu tätigende Ausgaben sowie ihr Vermögen, das in einer Gesamtsumme anzugeben ist. 867 Z. B. https://www.pkh-rechner.de/, https://www.rfak.de/pkh_vkh_rechner.php, www.pkh-fix.de, alle zuletzt abgerufen am 18. Februar 2020. 868 Hierunter fallen die Einkommens- beziehungsweise Lohnsteuer, der Solidaritätszuschlag, die Kirchensteuer, die Gewerbesteuer und die Kapitalertragssteuer, vgl. Siebel-Huffmann, in: BeckOK Sozialrecht, § 82 SGB XII Rn. 17. 869 Diese umfassen die Beiträge zur Kranken-, Arbeitslosen-, Renten- und Pflegeversicherung, vgl. Siebel-Huffmann, in: BeckOK Sozialrecht, § 82 SGB XII Rn. 18. B. Berechnungshilfen 177 Angaben zu den wirtschaftlichen Verhältnissen Wirtschaftliche Verhältnisse Netto-Einkommen EUR ______/ Monat Abzugsbeträge Miete EUR ______/ Monat Nebenkosten EUR ______/ Monat Versicherungsbeiträge EUR ______/ Monat Werbungskosten EUR ______/ Monat besondere Belastungen EUR ______/ Monat Vermögen insgesamt ca. EUR ______ Die persönlichen Verhältnisse (Abbildung 5) erfordern Ja-/Nein-Aussagen zur Erwerbstätigkeit, zum Bezug von Sozialhilfe oder ALG II, ferner darüber, ob eine Rechtsschutzversicherung vorhanden und der Antragsteller verheiratet beziehungsweise nach dem Lebenspartnerschaftsgesetz verpartnert ist. Einzugeben ist zudem die Anzahl der (weiteren) gegenüber dem Antragsteller unterhaltsberechtigten Personen. Wird die Frage „verheiratet/verpartnert“ mit „ja“ beantwortet, ist in einem weiteren Feld (Abbildung 6) noch das Einkommen des Ehegatten beziehungsweise Lebenspartners einzutragen. Abbildung 4: Kapitel 4) Ausgewählte Anwendungsfälle 178 Angaben zu den persönlichen Verhältnissen Persönliche Verhältnisse Erwerbstätigkeit ja / nein Bezug von Sozialhilfe oder ALG II ja / nein Rechtsschutzversicherung vorhanden ja / nein verheiratet/verpartnert ja / nein Anzahl der (weiteren) gegenüber demAntragsteller unterhaltsberechtigten Personen 0, 1, 2, 3, … Variante „Antragsteller ist verheiratet“ Antragsteller ist verheiratet Netto-Einkommen desEhegatten/Lebenspartners EUR ______/ Monat Für die weiteren unterhaltsberechtigten Personen ist außer dem Netto-Einkommen auch noch das jeweilige Lebensalter zu ergänzen (Abbildung 7). Variante „eine unterhaltsberechtige Person“ Vorliegen einer (weiteren) gegenüber dem Antragsteller unterhaltsberechtigten Person Lebensalter ______ Jahre Netto-Einkommen des/derUnterhaltsberechtigten EUR ______/ Monat Schließlich soll noch der Streitwert angegeben werden (Abbildung 8). Abbildung 5: Abbildung 6: Abbildung 7: B. Berechnungshilfen 179 Streitwert Angabe des Streitwerts Streitwert EUR ______ Die in den Abbildungen 4 bis 7 dargestellte Eingabemaske überlässt die Entscheidung, welche Einkünfte dem Einkommen hinzugerechnet und ob und in welcher Höhe Ausgaben als Abzugsposten berücksichtigt werden, dem Gericht. Auch den Streitwert bestimmt das Gericht selbst (Abbildung 8). Denn der Richter trägt die Beträge selbst in die Eingabemaske ein. Damit bestimmt er, welche Wohnnebenkosten, Versicherungsbeiträge, Werbungskosten und besonderen Belastungen in die Berechnung einbezogen werden. Sodann berechnet die Software die eingetragenen Variablen nach den determinierten Regeln des Algorithmus. Das Ergebnis der Berechnung ist die Information, ob nach den Verarbeitungsregeln der Software im Hinblick auf die persönlichen und wirtschaftlichen Verhältnisse Prozesskostenhilfe zu bewilligen ist und ob und in welcher Höhe Ratenzahlungen festzusetzen sind. Die Datenausgabe kann auch als Beschlussentwurf erfolgen. Mathematisch-logische Komponenten § 115 ZPO definiert für die Berechnung von Prozesskostenhilfe zum Teil klare mathematische Regeln, die ein determiniertes Programm ausführen kann und die sich damit für eine Automatisierung eignen. So wird das einzusetzende Einkommen in Abs. 2 definiert als der nach allen (nach Abs. 1 vorzunehmenden) Abzügen verbleibende Teil des monatlichen Einkommens. Die zu berücksichtigenden Abzüge werden also vom (Brutto-)Einkommen subtrahiert. Dies gilt zum einen für die nach § 115 Abs. 1 Satz 3 Nr. 1 lit. a) ZPO abzuziehenden Steuern und Sozialabgaben870 sowie zum anderen für die übrigen Abzugsbeträge nach § 115 Abs. 1 Satz 3 Nr. 1 lit. b) ZPO (Freibetrag für Erwerbstätige) und § 115 Abs. 1 Satz 3 Nr. 2 ZPO (Un- Abbildung 8: 2. 870 Das hier zugrunde gelegte Modell eines Prozesskostenrechners berücksichtigt diese Abzüge allerdings bereits bei der Eingabe, in dem lediglich das um die Steuern und Sozialabgaben bereinigte Netto-Einkommen einzutragen ist, siehe hierzu vorstehend 1. Modell eines Prozesskostenhilferechners. Kapitel 4) Ausgewählte Anwendungsfälle 180 terhaltsfreibeträge). Letztere stehen jeweils für einen gewissen Zeitraum, nämlich vom 1. Januar bis zum 31. Dezember eines jeden Jahres, fest. Das Bundesministerium der Justiz und für Verbraucherschutz gibt sie regelmä- ßig im Bundesgesetzblatt bekannt, § 115 Abs. 1 Satz 5 ZPO. Erzielt die antragstellende Partei ihr Einkommen aus Erwerbstätigkeit, folgt daraus gemäß § 115 Abs. 1 Satz 3 Nr. 1 lit. b) ZPO ein Abzugsbetrag in Höhe von 50 % des in der Regelbedarfsstufe 1 nach der Anlage zu § 28 SGB XII ausgewiesenen Betrags. Nach Ziffer 1 der 2. PKHB 2019871 beträgt dieser Abzugsbetrag seit dem 1. Januar 2019 EUR 224,00. Für die Partei und ihren Ehegatten oder Lebenspartner wird jeweils ein weiterer Betrag in Höhe des um 10 % erhöhten höchsten Regelsatzes nach der Regelbedarfsstufe 1 nach der Anlage zu § 28 SGB XII vom Einkommen des Antragstellers abgesetzt, vgl. § 115 Abs. 1 Satz 3 Nr. 2 lit. a) ZPO. Dieser Abzugsbetrag beträgt gemäß Ziffer 2. der 2. PKHB 2019 seit dem 1. Januar 2019 EUR 492,00. Bei weiteren Unterhaltsleistungen aufgrund gesetzlicher Unterhaltspflicht wird gemäß § 115 Abs. 1 Satz 3 Nr. 2 lit. b) ZPO für jede unterhaltsberechtigte Person ein (weiterer) Betrag in Höhe des um 10 % erhöhten höchsten Regelsatzes, der für eine Person ihres Alters gemäß den Regelbedarfsstufen 3 bis 6 nach der Anlage zu § 28 SGB XII festgesetzt oder fortgeschrieben ist, vom Einkommen des Antragstellers abgesetzt. Ausweislich Ziffer 3. der 2. PKHB 2019 werden somit seit dem 1. Januar 2019 für Erwachsene EUR 393,00, für Jugendliche vom Beginn des 15. bis zur Vollendung des 18. Lebensjahres EUR 373,00, für Kinder vom Beginn des siebten bis zur Vollendung des 14. Lebensjahres EUR 350,00 und für Kinder bis zur Vollendung des sechsten Lebensjahres EUR 284,00 angesetzt. Diese nach der 2. PKHB 2019 für eine gewisse Zeit feststehenden Beträge können in den Programmcode mit der dazugehörigen Anweisung zur Subtraktion implementiert werden, so dass sie automatisch von dem vom Gericht eingegebenen Einkommen abgezogen werden, um als Zwischenergebnis das einzusetzende Einkommen zu ermitteln. Das hier zugrunde gelegte Modell eines Prozesskostenhilferechners berücksichtigt dabei auch das Alter der unterhaltsberechtigten Personen, um den zutreffenden Absetzungsbetrag zu ermitteln. § 115 Abs. 1 Satz 6 ZPO hält eine weitere Regel bereit, die ein determiniertes Programm ohne Probleme ausführen kann. Danach sind Beträge, soweit sie nicht volle Euro ergeben, bis zu EUR 0,49 abzurunden und von EUR 0,50 an aufzurunden. Da die vom Bundesministerium der Justiz und 871 BGBl. 2019 Teil I, S. 161. B. Berechnungshilfen 181 für Verbraucherschutz bekanntzugebenden Beträge bereits auf volle Euro lauten, beschränkt sich die Relevanz dieser Regelung derzeit auf die vom Brutto-Einkommen abzuziehenden Steuern und Sozialabgaben. Nach dem hier zugrunde gelegten Modell wird diese Berechnung aber nicht automatisiert ausgeführt, weil das Netto-Einkommen in die Eingabemaske einzutragen ist. Das Gericht muss also bei der vorgelagerten Bestimmung des Netto-Einkommens selbst die Rundungsregel beachten. Es wäre aber auch eine Programmierung denkbar, die die Eingabe des Brutto-Einkommens sowie der einzelnen Steuern und Sozialabgaben verlangt. In dem Fall wäre die Rundungsregel des § 115 Abs. 1 Satz 6 ZPO bei der Programmierung zu berücksichtigen. § 115 Abs. 2 ZPO hält sodann weitere klare mathematische Regeln bereit, um mittels der zuvor ermittelten (Einkommens- und Abzugs-)Beträge den Anspruch auf Prozesskostenhilfe zu berechnen. So sind gemäß Satz 1 Hs. 1 Monatsraten in Höhe der Hälfte des einzusetzenden Einkommens festzusetzen. Es ist also durch zwei zu dividieren. Die Monatsraten sind auf volle Euro abzurunden, § 115 Abs. 2 Satz 1 Hs. 2 ZPO. Gemäß Satz 2 ist von der Festsetzung von Monatsraten abzusehen, wenn die Höhe einer Monatsrate weniger als EUR 10,00 beträgt. Bei einem einzusetzenden Einkommen von mehr als EUR 600,00 beträgt die Monatsrate gemäß Satz 3 EUR 300,00 zuzüglich des Teils des einzusetzenden Einkommens, der EUR 600,00 übersteigt. Satz 4 bestimmt, dass höchstens 48 Monatsraten aufzubringen sind. Schließlich wird nach § 115 Abs. 4 ZPO Prozesskostenhilfe nicht bewilligt, wenn die Kosten der Prozessführung der Partei vier Monatsraten nicht übersteigen. All diese eindeutigen Regeln können ohne Weiteres in Programmiersprache übersetzt werden. Dies soll an einer Beispielrechnung verdeutlicht werden: Die Antragstellerin A beantragt Prozesskostenhilfe, über die im November 2019 zu entscheiden ist. Sie erzielt ein monatliches Netto-Einkommen aus Erwerbstätigkeit in Höhe von EUR 2.200,00. Miete und absetzungsfähige Nebenkosten betragen EUR 700,00. A verfügt über kein einzusetzendes Vermögen und ist verheiratet. Ihr Ehemann erzielt kein eigenes Einkommen.872 Weitere unterhaltsberechtigte Personen sind nicht vorhanden. Es fallen monat- 872 Die Unterkunftskosten sind daher nicht nach Kopfteilen aufzuteilen, vgl. OLG Koblenz, Beschluss vom 3. Juli 1995 – 7 W 233/95, juris; OLG Köln, Beschluss vom 17. Februar 2003 – 14 WF 22/03, FamRZ 2003, 1394, juris Rn. 7; Schultzky, in: Zöller, ZPO, § 115 Rn. 40. In Verfahren nach dem FamFG finden die Vorschriften der ZPO über die Prozesskostenhilfe gemäß § 76 Abs. 1 FamFG auf die Bewilligung von Verfahrenskostenhilfe grundsätzlich entsprechende Anwendung. Kapitel 4) Ausgewählte Anwendungsfälle 182 liche Versicherungsbeträge von EUR 20,00 sowie Werbungskosten von EUR 30,00 an. Nach diesen Abzügen verbleibt zunächst ein Einkommen in Höhe von EUR 1.450,00 (= EUR 2.200,00 – EUR 700,00 – EUR 20,00 – EUR 30,00). Da A einer Erwerbstätigkeit nachgeht, ist gemäß § 115 Abs. 1 Satz 3 Nr. 1 lit. b) und Satz 5 ZPO i. V. m. Ziffer 1. der 2. PKHB 2019 ein weiterer Betrag von EUR 224,00 abzuziehen. Sodann erfolgt nach § 115 Abs. 1 Satz 3 Nr. 2 lit. a) und Satz 5 ZPO i. V. m. Ziffer 2. der 2. PKHB 2019 ein weiterer Abzug für A in Höhe von EUR 492,00 und für ihren Ehemann von noch einmal EUR 492,00, insgesamt also EUR 984,00. Insgesamt beziffern sich die nach § 115 Abs. 1 Satz 3 Nr. 1 lit. b) und Nr. 2 ZPO zu berücksichtigenden Abzüge somit auf EUR 1.208,00. Es verbleibt damit ein einzusetzendes Einkommen in Höhe von EUR 242,00 (= EUR 1.450,00 – EUR 1.208,00). Etwas übersichtlicher: Netto-Einkommen der A EUR 2.200,00 + Einkommen des Ehemanns der A EUR 0,00 – Miete und Nebenkosten EUR 700,00 – Versicherungsbeiträge EUR 20,00 – Werbungskosten EUR 30,00 – Abzug wegen Erwerbstätigkeit EUR 224,00 – Abzüge nach § 115 Abs. 1 Satz 3 Nr. 2 lit. a) ZPO EUR 984,00 Einzusetzendes Einkommen EUR 242,00 Die festzusetzenden Monatsraten belaufen sich nach § 115 Abs. 2 Satz 1 ZPO zu erfolgender Halbierung auf EUR 121,00. Es liegt somit weder ein Fall des § 115 Abs. 2 Satz 2 ZPO vor, da die Monatsrate nicht weniger als EUR 10,00 beträgt, noch ist ein Fall des § 115 Abs. 2 Satz 2 ZPO gegeben, weil das einzusetzende Einkommen nicht mehr als EUR 600,00 beträgt. Die Angabe des Streitwerts, der im Beispiel zunächst offengelassen wurde, wird nun für zwei zu ermittelnde Ergebnisse relevant. Einerseits kann nur unter Berücksichtigung des Streitwerts ermittelt werden, wie viele Monatsraten A zu zahlen hat, weil diese von der Höhe der Prozesskosten abhängen. Außerdem schreibt § 115 Abs. 4 ZPO vor, dass Prozesskostenhilfe nicht bewilligt wird, wenn die Kosten der Prozessführung der Partei vier Monatsraten voraussichtlich nicht übersteigen. Zivilverfahren im Allgemeinen schlagen mit 3,0 Gerichtsgebühren zu Buche (vgl. Ziffer 1210 der Anlage 1 zu § 34 GKG). Für die anwaltliche Vertretung fallen im ersten Rechtszug grundsätzlich eine 1,3-Verfahrensgebühr (Ziffer 3100 der Anlage 1 zu § 13 RVG), eine 1,2-Terminsgebühr (Zif- B. Berechnungshilfen 183 fer 3104 der Anlage 1 zu § 13 RVG) sowie eine Pauschale für Post- und Telekommunikationsdienstleistungen (Ziffer 7002 der Anlage 1 zu § 13 RVG) und die Umsatzsteuer (Ziffer 7008 der Anlage 1 zu § 13 RVG) an. Die Höhe der einzelnen Gebühren ist der Anlage 2 zu § 34 Abs. 1 Satz 3 GKG sowie der Anlage 2 zu § 13 Abs. 1 RVG zu entnehmen. 1. Variante: Beträgt der Streitwert EUR 500,00, ergeben sich daraus Gerichtsgebühren in Höhe von EUR 105,00 (= 3,0 x EUR 35,00) und Rechtsanwaltsgebühren nach folgender Berechnung: Verfahrensgebühr 1,3 (Ziffer 3100 der Anlage 1 zu § 13 RVG) EUR 58,50 Terminsgebühr 1,2 (Ziffer 3104 der Anlage 1 zu § 13 RVG) EUR 54,00 Post-/Telekommunikationspauschale (Ziffer 7002 der Anlage 1 zu § 13 RVG) EUR 11,70 Umsatzsteuer 19 % (Ziffer 7008 der Anlage 1 zu § 13 RVG) EUR 23,60 Gesamt EUR 147,80 Die Gerichts- und Rechtsanwaltsgebühren betragen für den ersten Rechtszug zusammen also EUR 252,80. Da vier Monatsraten einen Betrag von EUR 484,00 (= 4 x EUR 121,00) ergeben, scheidet der Anspruch auf Prozesskostenhilfe gemäß § 115 Abs. 4 ZPO aus. 2. Variante: Legt man der Berechnung hingegen einen Streitwert von EUR 5.000,00 zugrunde, ergibt sich ein anderes Bild. Es fallen Gerichtsgebühren in Höhe von EUR 438,00 (= 3,0 x EUR 146,00) an. Die Rechtsanwaltsgebühren sind wie folgt zu berechnen: Verfahrensgebühr 1,3 (Ziffer 3100 der Anlage 1 zu § 13 RVG) EUR 393,90 Terminsgebühr 1,2 (Ziffer 3104 der Anlage 1 zu § 13 RVG) EUR 363,60 Post-/Telekommunikationspauschale (Ziffer 7002 der Anlage 1 zu § 13 RVG) EUR 20,00 Umsatzsteuer 19 % (Ziffer 7008 der Anlage 1 zu § 13 RVG) EUR 147,73873 Gesamt EUR 925,23 Die Gerichts- und Rechtsanwaltsgebühren betragen nach dieser Variante für den ersten Rechtszug zusammen also EUR 1.363,23. § 115 Abs. 4 ZPO steht der Gewährung von Prozesskostenhilfe daher nicht entgegen. A wird 873 Die Rechnung EUR 777,50 x 19 : 100 ergibt einen Betrag von EUR 147,725. Im Hinblick auf die Berechnung der Rechtsanwaltsgebühren ist für (Zwischen-)Ergebnisse, die mehr als zwei Dezimalstellen enthalten, ebenfalls ein Rundungs- Algorithmus zu integrieren. Kapitel 4) Ausgewählte Anwendungsfälle 184 die Prozesskosten in 12 Monatsraten (11 Raten à EUR 121,00 und eine Schlussrate in Höhe von EUR 32,23) zurückzuzahlen haben. Wertende Komponenten Neben den mathematisch-logischen Komponenten verlangt die Bedürftigkeitsprüfung verschiedene Wertungen. Diese können Computer nicht selbst vornehmen.874 Das Gericht kann sie daher nicht zur rein mathematischen Bewältigung aus der Rechtsprüfung herauslösen und auf den Computer übertragen. Das hier zugrunde gelegte Modell trennt deshalb zwischen den mathematisch-logischen Operationen, die Computer umsetzen können, und den zuvor vom Gericht zu treffenden Elementarurteilen und wertenden Entscheidungen.875 Die Entscheidungen, die das Gericht nicht auf den Computer übertragen kann und die daher nach dem hier zugrunde gelegten Modell vor der Eingabe zu ermitteln sind, betreffen sämtliche einzugebenden Variablen. Bereits die Einordnung, was zum Einkommen oder zum Vermögen zu zählen ist, folgt keinen logischen Schlüssen. Vielmehr obliegt dies einer Wertung. So ist beispielsweise die Arbeitskraft als solche zwar weder Einkommen noch Vermögen.876 Allerdings werden der antragstellenden Partei fiktive Einkünfte nach einer Ansicht als Einkommen zugerechnet, wenn sie nicht arbeitet, obwohl sie arbeiten könnte.877 Nach anderer Ansicht sind solche fiktiven Einkünfte hingegen dem Vermögen hinzuzurechnen.878 Nach beiden Auffassungen wird also ein tatsächlich nicht vorhandenes Einkommen aufgrund einer Wertung, nämlich zur Verhinderung der rechtsmissbräuchlichen Inanspruchnahme von Prozesskostenhil- 3. 874 Hierzu Kapitel 2) A.IV. Formale Logik und Wertungen. 875 Zur Differenzierung Kapitel 2) A.IV. Formale Logik und Wertungen. 876 OLG Stuttgart, Beschluss vom 30. Juni 2011 – 18 WF 131/11, FamRZ 2011, 1885, juris Rn. 5; Schultzky, in: Zöller, ZPO, § 115 Rn. 8. 877 KG Berlin, Beschluss vom 26. November 2003 – 12 W 272/03, MDR 2004, 710, juris Rn. 6; OLG Köln, Beschluss vom 21. März 2007 – 4 WF 29/07, FamRZ 2007, 1338, juris Rn. 4; OLG Brandenburg, Beschluss vom 28. Februar 2011 – 9 WF 47/11, FamRZ 2011, 1239, juris Rn. 2; Geimer, in: Zöller, ZPO, 32. Auflage 2018, § 115 Rn. 6. 878 So OLG Bamberg, Beschluss vom 2. März 1994 – 2 WF 32/94, FamRZ 1995, 370, juris Rn. 11; OLG Köln, Beschluss vom 7. März 1998 – 4 WF 42/98, MDR 1998, 1434. B. Berechnungshilfen 185 fe879, bei der Berechnung von Prozesskostenhilfe berücksichtigt. Allerdings erfolgt die Berücksichtigung an unterschiedlichen Prüfungspunkten, was zu abweichenden Ergebnissen führen kann. Denn § 115 Abs. 3 Satz 1 ZPO bestimmt, dass die Partei ihr Vermögen einzusetzen hat, soweit dies zumutbar ist – ein bei dem Einsatz von Einkommen irrelevantes Kriterium. Was zumutbar ist, folgt keiner strengen mathematischen Logik, sondern unterliegt wiederum einer Wertung. Ferner sind nach § 115 Abs. 1 Satz 3 Nr. 3 ZPO die Kosten der Unterkunft zwar grundsätzlich vom Einkommen abzusetzen. Dies gilt aber nicht, soweit sie in einem auffälligen Missverhältnis zu den Lebensverhältnissen der Partei stehen. Die Bestimmung des auffälligen Missverhältnisses folgt dabei keinen klar definierten mathematischen Regeln. In welchen Konstellationen es zu bejahen ist, obliegt vielmehr einer Wertung. Schultzky verweist insofern auf „offensichtl[ichen] Luxus“880, was eine logische Ableitung ebenfalls nicht ermöglicht. Hinzu kommt, dass die Absetzung lediglich unterbleibt, soweit ein auffälliges Missverhältnis besteht. Es hat lediglich ein Abzug in angemessener Höhe zu erfolgen.881 Welcher Abzug angemessen ist, obliegt ebenfalls einer Wertung. Auch die Absetzung von Werbungskosten gemäß § 115 Abs. 1 Satz 3 Nr. 1 lit. a) ZPO i. V. m. § 82 Abs. 2 Satz 1 Nr. 4 SGB XII und besonderen Belastungen gemäß § 115 Abs. 1 Satz 3 Nr. 5 ZPO setzen Wertungen des Gerichts voraus. Denn eine Absetzung von Werbungskosten vom Einkommen erfolgt nur, soweit sie notwendig sind. Welche Belastungen als besondere Belastungen im Sinne des § 115 Abs. 1 Satz 3 Nr. 5 ZPO anerkannt werden und wann hierfür aufgewendete Beträge angemessen sind, ist ebenfalls nur durch Wertungen zu ermitteln. Gleiches gilt für die Angemessenheit von nicht gesetzlich vorgeschriebenen Versicherungen nach § 115 Abs. 1 Satz 3 Nr. 1 lit. a) ZPO i. V. m. § 82 Abs. 2 Satz 1 Nr. 3 SGB XII. 879 Vgl. OLG Bamberg, Beschluss vom 2. März 1994 – 2 WF 32/94, FamRZ 1995, 370, juris Rn. 11; OLG Köln, Beschluss vom 7. März 1998 – 4 WF 42/98, MDR 1998, 1434, juris Rn. 2, und Beschluss vom 21. März 2007 – 4 WF 29/07, FamRZ 2007, 1338, juris Rn. 4; KG Berlin, Beschluss vom 26. November 2003 – 12 W 272/03, MDR 2004, 710, juris Rn. 6; Schultzky, in: Zöller, ZPO, § 115 Rn. 8. 880 Schultzky, in: Zöller, ZPO, § 115 Rn. 41. 881 Schultzky, in: Zöller, ZPO, § 115 Rn. 41. Kapitel 4) Ausgewählte Anwendungsfälle 186 Bewertung Prozesskostenhilfe und Rechtsprechung Zunächst stellt sich die Frage, ob die Prüfung von Prozesskostenhilfeanträgen überhaupt rechtsprechende Tätigkeit ist, und daran anknüpfend, ob die Prüfung, wenn Richter sie ausführen, unter dem Schutz der richterlichen Unabhängigkeit nach Art. 97 GG steht. Mit dem Gesetz zur Änderung des Prozesskostenhilfe- und Beratungshilferechts vom 31. August 2013 wurde § 166 VwGO, nach dem die Vorschriften der Zivilprozessordnung über die Prozesskostenhilfe im verwaltungsgerichtlichen Verfahren entsprechend gelten, mit Wirkung zum 1. Januar 2014 geändert.882 Seither kann der Vorsitzende die Prüfung der persönlichen und wirtschaftlichen Verhältnisse der Prozesskostenhilfe beantragenden Partei gemäß § 166 Abs. 2 VwGO an den Urkundsbeamten der Geschäftsstelle delegieren, wenn Landesrecht dies nicht ausschließt (Abs. 7). Ergibt die Prüfung, dass nach den persönlichen und wirtschaftlichen Verhältnissen keine Bewilligung von Prozesskostenhilfe in Betracht kommt, erlässt der Urkundsbeamte der Geschäftsstelle die den Antrag ablehnende Entscheidung. Es ergeht mithin (zumindest zunächst) keine richterliche Entscheidung, wenn die Ablehnung (allein) darauf gestützt wird, dass die Partei die Kosten der Prozessführung nach ihren persönlichen und wirtschaftlichen Verhältnissen aufbringen kann. Sofern aber die persönlichen und wirtschaftlichen Verhältnisse die Bewilligung von Prozesskostenhilfe rechtfertigen, hat der Urkundsbeamte dies unter Angabe etwaig zu zahlender Monatsraten oder Beträge aus dem Vermögen in den Prozessakten zu vermerken. Dies bereitet die Übertragung des Ergebnisses in die Entscheidung des Gerichts vor, wenn die übrigen Voraussetzungen für die Bewilligung vorliegen. Obwohl eine vergleichbare Regelung in der Zivilprozessordnung fehlt, lässt ihre Aufnahme in die Verwaltungsgerichtsordnung fraglich erscheinen, ob die Prüfung der persönlichen und wirtschaftlichen Verhältnisse der rechtsprechenden Tätigkeit zuzurechnen ist. Zwar liegt es nicht allein in dem Belieben des einfachen Gesetzgebers, den Gerichten bestimmte Aufgaben zuzuweisen oder zu entziehen.883 Allerdings ist insoweit festzustellen, dass auch das Wesen der Prozesskostenhilfe gegen eine Zuordnung zur Rechtsprechung im Sinne des Art. 92 GG spricht. Denn im Kern stellt 4. a) 882 BGBl. 2013 Teil I, S. 3533. 883 Vgl. Burghart, in: Leibholz/Rinck, GG, Art. 92 Rn. 1 ff. B. Berechnungshilfen 187 sie sich als Sozialhilfe im Bereich der Rechtspflege dar.884 Damit kann sie auch nicht als vermögensrechtliche Streitigkeit der Rechtsprechung zugeordnet werden.885 Die Prozessführung wird aus öffentlichen Mitteln unterstützt, wobei sich der Antrag auf Bewilligung an den Staat richtet886 und gerade nicht gegen den Gegner in der Hauptsache887. Auch handelt es sich um kein hoheitliches Streitbeilegungsverfahren, sondern bereitet dieses lediglich vor beziehungsweise begleitet es. Das Prozesskostenhilfeverfahren ist zudem nicht auf eine letztverbindliche Entscheidung gerichtet, was Voraussetzung für die Zuordnung zur Rechtsprechung in funktionaler Hinsicht wäre.888 Denn die Prozesskostenhilfe verweigernde Entscheidung wird nicht materiell rechtskräftig, sondern nur wie ein Verwaltungsakt bestandskräftig.889 Es kann grundsätzlich jederzeit ein weiterer Prozesskostenhilfeantrag gestellt werden, über den grundsätzlich neu zu entscheiden ist.890 Ferner kann die bewilligende Entscheidung in der Folge nach § 120a ZPO geändert werden. Die Möglichkeit der Änderung einer vormals getroffenen und unter Umständen sogar bestandskräftigen Entscheidung (unter Berücksichtigung der §§ 48 f. VwVfG) ist typisch für Verwaltungsentscheidungen und zugleich Abgrenzungsmerkmal zur Rechtsprechung.891 Aus dem Umstand, dass das richterliche Tätigwerden im Prozesskostenhilfeverfahren verwaltenden Charakter aufweist, könnte nun gefolgert werden, dass Richter insoweit nicht in richterlicher Unabhängigkeit handeln. Dann könnte diese durch die Übertragung der Prüfung der persönlichen und wirtschaftlichen Verhältnisse auf den Computer auch nicht verletzt werden. Allerdings gilt die richterliche Unabhängigkeit grundsätzlich auch dann, wenn Organen der Rechtsprechung Aufgaben ohne Rechtsprechungscharakter übertragen werden; dies gilt insbesondere für Angelegen- 884 Vgl. BVerfG, Beschluss vom 3. Juli 1973 – 1 BvR 153/69, BVerfGE 35, 348, juris Rn. 20; vgl. auch Neumann/Schaks, in: Sodan/Ziekow, VwGO, § 166 Rn. 11 ff. 885 Vermögensrechtliche Streitigkeiten unterliegen der bürgerlichen Gerichtsbarkeit, vgl. Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 35. 886 BVerfG, Beschluss vom 3. Juli 1973 – 1 BvR 153/69, BVerfGE 35, 348, juris Rn. 20. 887 Neumann/Schaks, in: Sodan/Ziekow, VwGO, § 166 Rn. 15; Schulze-Fielitz, in: Dreier, GG, Art. 103 Abs. 1 Rn. 22. 888 Hierzu Kapitel 3) A.I.1. Materielle Reichweite der rechtsprechenden Gewalt. 889 Vgl. Geimer, in: Zöller, ZPO, 32. Auflage 2018, § 117 Rn. 6. 890 Schultzky, in: Zöller, ZPO, § 117 Rn. 5. 891 Classen, in: v. Mangoldt/Klein/Starck, GG, Art. 92 Rn. 15; Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 27. Kapitel 4) Ausgewählte Anwendungsfälle 188 heiten mit rechtsfürsorgerischem Charakter.892 Hierzu zählen vor allem die Aufgaben im Bereich der freiwilligen Gerichtsbarkeit.893 Auch die Bewilligung von Prozesskostenhilfe hat rechtsfürsorgerischen Charakter, weil sie – wie gesehen – eine sozialrechtliche Komponente aufweist und den Zugang zum Recht fördert. Außerdem verlangt die Prüfung der Erfolgsaussichten der Klage eine Schlüssigkeitsprüfung, so dass für diesen Teil der Bewilligungsprüfung in jedem Fall die richterliche Unabhängigkeit zu gelten hat. Erfolgen die Prüfungen der Schlüssigkeit und der Bedürftigkeit „aus einer Hand“, handelte es sich aber um eine künstliche Aufspaltung, wenn das Gericht nur teilweise unabhängig entscheiden müsste. Da nach den Regeln der Zivilprozessordnung allein das Gericht zur Entscheidung über die Bewilligung von Prozesskostenhilfe berufen ist, gilt daher auch die in Art. 97 GG garantierte Unabhängigkeit. Selbst wenn man aber im Prozesskostenhilfeverfahren ein Handeln des Richters in richterlicher Unabhängigkeit verneinte, bliebe jedenfalls noch die Gesetzesbindung, die auch für die öffentliche Verwaltung gilt, vgl. Art. 20 Abs. 3 GG, stehen. Die Entscheidungen müssten sich daher gleichwohl in dem vom Gesetzgeber gezogenen Rahmen bewegen, was dem Gericht Ermessensentscheidungen in Wertungsfragen abverlangt.894 Nachvollziehbarkeit Soweit die Prüfung, ob einer Partei Prozesskostenhilfe zu gewähren ist, mathematischen Regeln folgt, ist sie für eine Automatisierung grundsätzlich sehr gut geeignet. Denn die mathematische Berechnung kann aus der übrigen rechtlichen Prüfung herausgelöst werden. Das hier zugrunde gelegte Modell beschränkt sich auf solche rein mathematischen Berechnungen und überlässt das Übrige dem Anwender. Das Gericht entscheidet also vorab selbst, welche Einnahmen es dem Netto-Einkommen hinzuzählt und welche Ausgaben es als abzugsfähig anerkennt. Die von ihm anerkannten Versicherungsbeiträge, Werbungskosten und besonderen Belastungen kann es jeweils in einer Summe in der Eingabemaske eintragen. Auch über den der Berechnung zugrunde zu legenden Streitwert entscheidet das Gericht selbst. b) 892 Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 48. 893 Hierzu Schulze-Fielitz, in: Dreier, GG, Art. 92 Rn. 44. 894 Hierzu unten d) Implementierung von Wertungen. B. Berechnungshilfen 189 Sieht eine Anwendung eine wie im Modell dargestellte Eingabemaske vor, bleibt dem Anwender gleichwohl häufig verborgen, ob die dem Berechnungstool implementierten Algorithmen den gesetzlichen Rahmenbedingungen entsprechen. Denn in der Regel kennt er die genaue Funktionsweise der Anwendung nicht. Insofern wurde bereits ausgeführt, dass sich das Gericht nicht an die Ergebnisse eines autonomen Systems binden, dieses also nicht zur Entscheidungsfindung einsetzen darf.895 Ein determiniertes Programm darf es hingegen zur Entscheidungsfindung einsetzen, wenn die Verwendung Ausdruck seiner eigenen Sachentscheidung ist und es das Programm hinreichend nachvollziehen kann.896 Ohne Zertifizierung sind diese Voraussetzungen aber nur dann erfüllt, wenn das Gericht das Programm selbst entwickelt hat oder aber es die Funktionsweise aufgrund seiner Spezialkenntnisse ausnahmsweise vollständig nachvollziehen kann. Allerdings kennt der durchschnittliche Anwender die hinter dem Prozesskostenrechner stehende Technik nicht. Er wird häufig nicht einmal wissen, ob es sich dabei um ein determiniertes Programm oder ein autonomes System handelt, ob also eine regelgeleitete Wenn-Dann-Programmierung oder eine eigene Regelentwicklung durch das System vorliegt und damit nur die im Datenpool zugrunde liegenden Daten dafür sprechen, dass nicht mehr als eine gewisse Wahrscheinlichkeit für die Richtigkeit des ermittelten Ergebnisses spricht. Aber selbst wenn das Gericht weiß, dass es sich um ein determiniertes Programm handelt, kann es nur vermuten und darauf hoffen, dass die Verarbeitung nach den Regeln des Gesetzes abläuft und die Berechnung mathematisch zutreffend ist, wenn es im Übrigen an einer hinreichenden Nachvollziehbarkeit fehlt. Manipulationen und Aktualität Mangelnde Nachvollziehbarkeit ist das Einfallstor für Manipulationen.897 Dies soll anhand eines Beispiels verdeutlicht werden: Versicherungsbeiträge sind nach § 115 Abs. 1 Satz 3 Nr. 1 lit. a) ZPO i. V. m. § 82 Abs. 2 Satz 1 Nr. 3 SGB XII vom Einkommen abzusetzen, soweit sie gesetzlich vorgec) 895 Hierzu Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung. 896 Hierzu Kapitel 3) A.V.1. Nutzung von determinierten Programmen zur Entscheidungsfindung. 897 Grundsätzliches zu Manipulationen und Aktualität wird unter Kapitel 1) B.V. Aktualität, Fehler und Manipulationen behandelt. Kapitel 4) Ausgewählte Anwendungsfälle 190 schrieben oder nach Grund und Höhe angemessen sind. Die Normen sind auslegungsbedürftig, wobei sich folgende Schwierigkeiten ergeben: Eine Kraftfahrzeug-Haftpflichtversicherung ist zwar gesetzlich vorgeschrieben (§ 1 PflVG) und unterfällt damit dem Wortlaut des Absetzungstatbestands. Jedoch beruht die Verpflichtung zum Abschluss der Versicherung daneben grundsätzlich auch auf einer freien Willensentscheidung desjenigen, der beschließt, ein Kraftfahrzeug zu unterhalten. Das Bundesverwaltungsgericht zählt Kraftfahrzeug-Haftpflichtversicherungsbeiträge deshalb nicht zu den gesetzlich vorgeschriebenen Versicherungsbeiträgen im Sinne der Norm und macht ihre Abzugsfähigkeit stattdessen von der 2. Variante des § 82 Abs. 2 Satz 1 Nr. 3 SGB XII, der Angemessenheit der Ausgabe nach Grund und Höhe, abhängig.898 Die Angemessenheit kann etwa dann bejaht werden, wenn der Antragsteller ein Kraftfahrzeug für seine Erwerbstätigkeit benötigt.899 Die Abzugsfähigkeit obliegt aber in jedem Einzelfall der Entscheidung des Gerichts, das den Beitrag nach Prüfung der Angemessenheit den abzugsfähigen Versicherungsbeiträgen hinzurechnet – oder nicht hinzurechnet. Fassen die Softwareentwickler sämtliche Versicherungsbeiträge aber nicht in einem Eingabefeld zusammen, in das das Gericht diese nach eigener Würdigung und Addition als Summe eingeben kann, sondern differenzieren diese aus, so dass die Beiträge für jede Versicherung einzeln eingetragen werden müssen, droht zum einen das bereits angesprochene „Einfrieren“ des Rechts.900 Denn trägt das Gericht, ohne eigene Überlegungen darüber anzustellen, sämtliche Beiträge in die jeweils dafür vorgesehenen Felder ein und macht das Programm die Berücksichtigung der Beiträge jeweils automatisch von der hierzu ergangenen höchstrichterlichen Rechtsprechung abhängig, gerät die Frage, ob nicht doch eine andere Auffassung den Vorzug verdient, aus dem Blickfeld. Auch wenn im Fall der Kraftfahrzeug-Haftpflichtversicherung das vom Bundesverwaltungsgericht vorgebrachte Argument der freien Willensentscheidung überzeugt, läge gleichwohl die Erwägung jedenfalls nicht fern, dass nur die Entscheidung, ein Kraftfahrzeug zu unterhalten, als frei gewählt beurteilt werden kann, nicht jedoch die gleichzeitige Verpflichtung zum Abschluss der Versiche- 898 BVerwG, Urteil vom 4. Juni 1981 – 5 C 12/80, BVerwGE 62, 261, juris Rn. 11 m. w. N. (auch zur Gegenauffassung). 899 Siebel-Huffmann, in: BeckOK Sozialrecht, § 82 SGB XII Rn. 20. 900 Zum „Einfrieren“ des Rechts siehe Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. B. Berechnungshilfen 191 rung. Diese schließt sich an, gleich ob man das Fahrzeug versichern möchte oder nicht. Zum anderen öffnet die Differenzierung bei der Eingabe der Versicherungsbeiträge in das Programm das Einfallstor für die Durchsetzung eigener Vorstellungen der Entwickler, die hier auch eine von der höchstrichterlichen Rechtsprechung abweichende Auffassung vertreten und diese – gegebenenfalls sogar vom Verwender unbemerkt – in das Programm integrieren können. Insoweit droht der Willkürvorwurf, wenn das Gericht diese Auffassung aufgrund der automatisierten Berechnung begründungslos zur Grundlage seiner Entscheidung macht.901 Im Beispiel der Kraftfahrzeug-Haftpflichtversicherung wäre etwa denkbar, dass die Entwickler die Abzugsfähigkeit der Beiträge entgegen der Rechtsprechung des Bundesverwaltungsgerichts generell vorsehen. Ferner könnte einem Richter, der der Rechtsprechung des Bundesverwaltungsgerichts hingegen aus eigenem Antrieb nicht folgen möchte, mit der Möglichkeit, den Beitrag für die Kraftfahrzeug-Haftpflichtversicherung einzutragen, suggeriert werden, dass dieser abgezogen würde, was dann tatsächlich aber nicht geschieht. Damit wird deutlich, dass vielfältige Möglichkeiten der Manipulation bestehen. Auch im Hinblick auf die Aktualität des Prozesskostenhilferechners ergeben sich Schwierigkeiten. Denn die Berechnungsformeln des Gesetzes sind nicht starr, sondern hinsichtlich mancher Variablen flexibel. So sind für die Abzugsbeträge gemäß § 115 Abs. 1 Satz 3 Nr. 1-5 ZPO nach § 115 Abs. 1 Satz 4 ZPO die zum Zeitpunkt der Bewilligung geltenden Beträge maßgebend. Wird der Prozesskostenhilferechner im Hinblick auf die Bekanntmachungen des Bundesministeriums der Justiz und für Verbraucherschutz zu § 115 der Zivilprozessordnung nicht rechtzeitig aktualisiert, drohen fehlerhafte Ergebnisse. Ferner können sich allgemeine Bewertungsgrundlagen und daraus folgende generalisierbare Wertungsergebnisse mit der Zeit verändern. So wird ein auffälliges Missverhältnis zwischen den Unterkunftskosten und den Lebensverhältnissen der Prozesskostenhilfe beantragenden Partei gemäß § 115 Abs. 1 Satz 3 Nr. 3 ZPO bislang mitunter dann angenommen, wenn bei durchschnittlichen Einkommensverhältnissen die Unterkunftskosten die Hälfte des Netto-Einkommens übersteigen.902 Angesichts der steigenden Mieten in urbanen Ballungsräumen ist freilich zu fragen, ob 901 Hierzu Kapitel 3) D.III. Automatisierte Entscheidungsfindung und Willkürverbot. 902 OLG Brandenburg, Beschluss vom 16. Oktober 2000 – 9 WF 187/00, juris Rn. 6; Schultzky, in: Zöller, ZPO, § 115 Rn. 41. Kapitel 4) Ausgewählte Anwendungsfälle 192 diese pauschale Grenze heute noch zeitgemäß ist. Abgesehen davon drohen auch hier die eben angesprochenen Manipulationen. Denn Entwickler könnten abweichende Formeln für die Berechnung eines auffälligen Missverhältnisses festlegen, ohne dies dem Verwender mitzuteilen. Sie könnten dem Nutzer sogar eine falsche, also eine andere als die tatsächlich in das Programm integrierte Formel mitteilen. Ohne ausreichende eigene Programmierkenntnisse bliebe ihm nur die Möglichkeit der vollständigen Nachprüfung der Berechnung, um die Abweichung aufzudecken. Implementierung von Wertungen Dem Problem der mangelnden Fähigkeit des Computers zur wertenden Entscheidung kann in gewissem Maße abgeholfen werden, indem vorab getroffene Wertentscheidungen implementiert werden. So könnte man eine – eben bereits kurz angesprochene903 – feststehende Wertung zum Vorliegen eines auffälligen Missverhältnisses nach § 115 Abs. 1 Satz 3 Nr. 3 ZPO programmieren. Wie dort erwähnt, wird ein auffälliges Missverhältnis zwischen den Unterkunftskosten und den Lebensverhältnissen der Partei mitunter dann angenommen, wenn bei durchschnittlichen Einkommensverhältnissen die Unterkunftskosten die Hälfte des Netto-Einkommens übersteigen.904 Eine solche Vergleichsrechnung kann ein Computer ohne Weiteres ausführen und ihr Zwischenergebnis in das Gesamtergebnis einfließen lassen. Allerdings wäre insofern noch die weitere Festlegung vonnöten, innerhalb welcher Grenzen von durchschnittlichen Einkommensverhältnissen auszugehen ist. Zu bedenken ist dabei wiederum Folgendes: Sofern man dem Entscheidungsalgorithmus die in der Rechtsprechung bereits entschiedenen Fälle als feststehende Wertungen implementiert, hilft dies zum einen in bislang nicht entschiedenen Konstellationen nicht weiter. Zum anderen droht insoweit ein „Einfrieren“ des Rechts.905 Veränderte Rahmenbedingungen wie hier etwa ein im Verhältnis zu den Einkommen allgemein gestiegenes Mietniveau blieben außer Betracht. Andererseits macht es keinen erheblichen Unterschied, ob das Gericht, wenn es sich im Hinblick auf klar umrissene, vorab kalkulierbare Konstellationen auf bestimmte Lösungen festgelegt hat, dieselben Regeln immer d) 903 Vorstehend c) Manipulationen und Aktualität. 904 OLG Brandenburg, Beschluss vom 16. Oktober 2000 – 9 WF 187/00, juris Rn. 6; Schultzky, in: Zöller, ZPO, § 115 Rn. 41. 905 Hierzu Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. B. Berechnungshilfen 193 wieder händisch oder aber automatisiert anwendet (solange es sie für zutreffend erachtet). Sofern die von Dritten entwickelte Software bereits feststehende Lösungen bereithält, wird damit aber einem Übernahmeautomatismus906 Vorschub geleistet. Vorzugswürdig wären insofern Variablen, die das Gericht selbst festlegen kann. Umgang mit der im Modellrechner angelegten Unvollständigkeit Die Gewährung von Prozesskostenhilfe darf freilich nicht allein vom Programmergebnis abhängen. Gewährte das Gericht Prozesskostenhilfe allein aufgrund der Berechnungsergebnisse des determinierten Programms, missachtete es offensichtlich seine Bindung an Recht und Gesetz, was eine Verletzung der richterlichen Unabhängigkeit bedeutete.907 Denn das Gericht hat vor der Gewährung von Prozesskostenhilfe zunächst das Vorliegen auch ihrer übrigen Voraussetzungen (insbesondere die hinreichenden Erfolgsaussichten der beabsichtigten Klage) zu ergründen. Würde es hiervon absehen, läge im Fall der Gewährung von Prozesskostenhilfe ein Verstoß gegen das Willkürverbot nahe.908 Sicher handelt es sich insoweit um ein fernliegendes Szenario. Allerdings hat das Gericht nicht nur das Vorliegen der weiteren Voraussetzungen der Gewährung von Prozesskostenhilfe zu prüfen. Es muss au- ßerdem eruieren, ob die zur Entscheidung vorliegende Konstellation zur Bearbeitung durch das determinierte Programm überhaupt geeignet ist. Es muss sich fragen: „Ist die zu entscheidende Konstellation ein Fall für ‚meinen‘ Prozesskostenhilferechner?“. Dies erfordert eine der Verwendung des Prozesskostenhilferechners zur Entscheidungsfindung vorgelagerte Prüfung. In diesem Rahmen muss das Gericht zunächst die in die Eingabemaske einzutragenden Variablen feststellen und gegebenenfalls hierüber Erhebungen anstellen, vgl. § 118 Abs. 2 ZPO. Weiter muss es vorab prüfen, ob alle für die Berechnung erforderlichen Informationen vorliegen. Schließlich muss das Gericht im Rahmen der Vorprüfung die Besonderheiten des Einzelfalls und insbesondere die in das Programm implementierten Wertungen in den Blick nehmen, um festzustellen, ob die zu entscheie) 906 Hierzu Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. 907 Hierzu Kapitel 3) A.III.5. III.5. Unzulässigkeit des Verzichts auf richterliche Unabhängigkeit. 908 Zum Willkürverbot Kapitel 3) D.III. Automatisierte Entscheidungsfindung und Willkürverbot. Kapitel 4) Ausgewählte Anwendungsfälle 194 dende Konstellation wirklich derjenigen entspricht, für die es sich auf eine bestimmte Lösung festgelegt hat. Stellt das Gericht fest, dass die Umstände des Einzelfalls eine von den Programmvorgaben abweichende Bewertung erfordern, ist die zu entscheidende Konstellation keiner automatisierten Bearbeitung zugänglich. Auch weitere Unvollständigkeiten der Berechnung muss das Gericht stets im Blick behalten. Das hier vorgestellte Modell berücksichtigt beispielsweise nicht den Bezug von Kindergeld. Dieses ist aber dem Einkommen des Beziehers hinzuzurechnen, wenn es nicht zur Deckung des notwendigen Lebensunterhaltes des Kindes benötigt wird, vgl. § 82 Abs. 1 Satz 3 SGB XII.909 Liegt eine solche Konstellation vor (die wiederum eine Wertung voraussetzt910), muss das Gericht dies bei der Ermittlung des Einkommens berücksichtigen. Ferner sieht § 82 Abs. 2 Satz 2 SGB XII Besonderheiten zur Berücksichtigungsfähigkeit von weiteren Einnahmen vor, die nicht in das hier zugrunde gelegte Modell implementiert worden sind. Auch diese muss das Gericht im Blick behalten. Ferner kann das Modell nicht prüfen, ob eine gegebenenfalls vorhandene Rechtsschutzversicherung überhaupt einstandspflichtig ist. Denn eine solche Prüfung erfordert eine Auslegung der Versicherungsbedingungen. Computer sind hierzu nicht in der Lage.911 Auf der Internetseite https://www.pkh-rechner.de/aus wertung. html erfolgt insoweit lediglich ein Hinweis darauf, dass die Rechtsschutzversicherung vorrangig in Anspruch zu nehmen sein könnte. Das Gericht muss dies indes prüfen, um eine Entscheidung zu treffen. Ist eine hinreichende Nachvollziehbarkeit der Anwendung hergestellt,912 ergibt die Vorprüfung, dass die Konstellation vom Prozesskostenrechner zu lösen ist und liegen auch die übrigen Voraussetzungen für die Gewährung von Prozesskostenhilfe vor, kann das Programmergebnis ohne weitere Nachprüfung in die Entscheidung übernommen werden. Das Gericht kann damit also seine konkrete Einzelfallprüfung bezogen auf die automatisiert zu prüfenden Merkmale durch die technische Lösung ersetzen.913 Ein negatives Programmergebnis, wonach die Gewährung von Prozesskostenhilfe nach den persönlichen und wirtschaftlichen Verhältnissen 909 BGH, Beschluss vom 14. Dezember 2016 – XII ZB 207/15, FamRZ 2017, 633, juris Rn. 7; Schultzky, in: Zöller, ZPO, § 115 Rn. 14. 910 Hierzu vorstehend d) Implementierung von Wertungen. 911 Hierzu Kapitel 2) A.II. Die juristische Hermeneutik. 912 Zu den Voraussetzungen vgl. Kapitel 3) A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. 913 Allerdings befreit dies nicht von der Begründungspflicht, hierzu Kapitel 3) D.I. Der Grundsatz der Begründungspflicht gerichtlicher Entscheidungen. B. Berechnungshilfen 195 also nicht in Betracht kommt, verspricht im Vergleich dazu sogar eine noch spürbarere Entlastung. Denn im Fall einer nach dem Programmergebnis abschlägigen Entscheidung kann das Gericht auf die Prüfung der weiteren Voraussetzungen für die Gewährung von Prozesskostenhilfe verzichten. Schmerzensgeldrechner Schmerzensgeldrechner sind bereits heute im Internet zu finden.914 Solche Angebote zur Berechnung eines (möglicherweise) zu erwartenden Schmerzensgelds zum Ausgleich bestimmter Verletzungen und Leiden richten sich bislang zwar nicht an Gerichte, sondern an Verbraucher. Gleichwohl wirft bereits der Umstand ihrer Verfügbarkeit die Frage auf, ob Gerichte Schmerzensgeldrechner zur Entscheidungsfindung oder zumindest als nicht entscheidungsersetzendes Hilfsmittel heranziehen dürfen. Die an Gerichten übliche Nutzung von Schmerzensgeldtabellen, um Urteile aufzufinden, die mehr oder weniger vergleichbare Konstellationen zum Gegenstand haben915, verdeutlicht das Bedürfnis nach Orientierung. Der Bundesgerichtshof hält die Orientierung an Tabellenwerken im Rahmen der Schätzung nach § 287 ZPO grundsätzlich für zulässig, wenn keine abweichenden konkreten Gesichtspunkte vorliegen.916 Es ist daher denkbar, dass auch eine automatisierte Schmerzensgeldbemessung mit zunehmender Differenzierungsbreite Anklang finden wird. Dabei kann der Weg zur Ermittlung des Schmerzensgeldbetrags unterschiedlich konzipiert sein. Sofern Schmerzensgeldrechner auf autonomen Systemen basieren, nimmt der Computer einen automatischen Abgleich mit früheren Entscheidungen mit dem Ziel vor, einen konkreten Betrag als Ergebnis mitzuteilen. Da der Weg zur Entscheidungsfindung für das Gericht nicht nachvollziehbar ist917, darf es das Ergebnis jedoch nicht in entscheidungsersetzender Weise übernehmen.918 II. 914 Vgl. das Angebot der crashright24 GmbH unter https://www.crashright24.de/sc hmerzensgeldrechner/, zuletzt abgerufen am 18. Februar 2020. 915 Kritisch dazu: Luckey/Putzke/Putzke, JR 2019, 311 ff. 916 BGH, Urteil vom 3. Februar 2009 – VI ZR 183/08, NJW 2009, 2060, juris Rn. 5, zum Haushaltsführungsschaden. 917 Hierzu Kapitel 1) A.II. Autonome Systeme. 918 Hierzu Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung. Kapitel 4) Ausgewählte Anwendungsfälle 196 Zumindest grundsätzlich ist auch denkbar, einen Schmerzensgeldrechner in die Form eines determinierten Programms zu gießen. Das Programm könnte Auswahlmöglichkeiten hinsichtlich der Art der Verletzungen (z. B. Gehirnerschütterung, Prellungen, Halswirbelsäulensyndrom), des Zeitraums der Arbeitsunfähigkeit, des Grades des Mitverschuldens des Verletzten und des Bestehens von Folgeschäden als Berechnungsgrundlage berücksichtigen und sodann ebenfalls einen konkreten Schmerzensgeldbetrag ermitteln. Problematisch daran ist aber, dass die Schmerzensgeldhöhe gemäß § 253 Abs. 2 BGB unter Billigkeitsgesichtspunkten, das heißt unter Berücksichtigung aller für die Bemessung maßgeblichen Umstände zu ermitteln ist.919 Dabei sind die Ausgleichs- und Genugtuungsfunktion des Schmerzensgelds zu berücksichtigen, wobei es auch auf den Grad des Verschuldens ankommen kann.920 Es wurde bereits gesagt, dass Computer aufgrund ihrer Wenn-Dann-Struktur nicht in der Lage sind, wertende Entscheidungen zu treffen.921 Dies führt geradezu in ein Dilemma zwischen Komplexitätsanforderungen und Nachvollziehbarkeit. Denn die Programmierung eines Schmerzensgeldrechners setzte eine Vielzahl von Querverbindungen zwischen verschiedenen Abwägungsgesichtspunkten und damit auch eine nicht mehr überschaubare Anzahl von vorweggenommenen Wertungen voraus, so dass der Versuch einer exakten Programmierung ein unmögliches Unterfangen darstellen würde. Verwendet das Gericht gleichwohl ein insofern unvollständiges Programm, setzt es sich über den gesetzlichen Maßstab der Billigkeit hinweg, weil es ihn nicht ausfüllt, sondern seine Sichtweise auf bestimmte Merkmale beschränkt. Auch ist ausgeschlossen, dass die Vielzahl der erforderlichen Querverbindungen in ihrer Komplexität noch vom einzelnen Anwender nachvollzogen werden könnten. Selbst die Konzentration auf bestimmte Bereiche wie beispielsweise aus Verkehrsunfällen resultierende immaterielle Schäden, führte nicht weiter. Das Programm müsste im Hinblick auf die Darstellung aller denkbaren Abwägungsergebnisse derart komplex ausgestaltet sein, dass es vom Anwender praktisch nicht mehr nachvollzogen werden könnte. Zippelius weist daher zutreffend darauf hin, dass die elektronische Datenverarbeitung nicht mehr leisten kann, als dem Gericht Vergleichsfälle bereitzustellen, wobei die sich anschließende Frage der Gleichbewertung dem Gericht obliegt.922 Man steht also zum einen vor dem Dilemma, dass ein determi- 919 Vgl. Grüneberg, in: Palandt, BGB, § 253 Rn. 15. 920 Grüneberg, in: Palandt, BGB, § 253 Rn. 4 m. w. N. 921 Hierzu Kapitel 2) A.IV. Formale Logik und Wertungen. 922 Vgl. Zippelius, Juristische Methodenlehre, S. 91. B. Berechnungshilfen 197 niert programmierter Schmerzensgeldrechner entweder unvollständig oder nicht nachvollziehbar, mit zunehmender Komplexität sehr wahrscheinlich sogar beides wäre. Zum anderen steht die für die Bemessung des Schmerzensgelds vorzunehmende Abwägung aller Umstände des Einzelfalls einer Standardisierung und Automatisierung entgegen. Im Bereich der Abwägung fehlen logische Wenn-Dann-Folgen beziehungsweise feststehende Variablen, die ohne Weiteres zu einem Ergebnis zusammenzurechnen wären. Schmerzensgeldrechner dürfen deshalb nicht zur Entscheidungsfindung eingesetzt werden. Ihr Einsatz würde die Gesetzesbindung der Gerichte923 aufheben und einen Verstoß gegen die richterliche Unabhängigkeit924 bedeuten. Werden Schmerzensgeldrechner hingegen als nicht die eigene Entscheidung ersetzendes Hilfswerkzeug eingesetzt, ist dies zwar nicht unzulässig, weil sich das Gericht der Entscheidung nicht enthebt. Problematisch ist gleichwohl, dass das Ergebnis einer automatischen Berechnung eine Ankerwirkung entfaltet und das Gericht sich gegebenenfalls unbewusst daran orientiert. Weitere Berechnungshilfen Neben Prozesskostenhilfe- und Schmerzensgeldrechnern stehen im Internet weitere Berechnungshilfen zur Verfügung. Dabei handelt es sich um Programme zur Berechnung von Forderungen und Zinsen925, ferner zur Berechnung von Fristen926 sowie von Vergleichs- und Prozesskosten927. Bei all diesen Berechnungshilfen ist zwischen den aus der Rechtsanwendung herauslösbaren mathematisch-logischen Operationen einerseits und vorzunehmenden Wertungen andererseits zu differenzieren. Es gilt der im Hinblick auf Prozesskostenhilferechner aufgezeigte Grundsatz, dass der Einsatz determinierter Programme auf die Anwendung von mathematischen Formeln begrenzt ist, wohingegen Wertungen vom Gericht selbst vorzu- III. 923 Hierzu Kapitel 3) A.II. Gesetzesbindung. 924 Hierzu Kapitel 3) A.III. Richterliche Unabhängigkeit. 925 Z. B. https://www.lecareonline.de/debicare/, https://www.zinsen-berechnen.de/, beide zuletzt abgerufen am 18. Februar 2020. 926 Z. B. https://www.lto.de/juristen/rechner/fristenrechner/, zuletzt abgerufen am 18. Februar 2020. 927 Z. B. https://anwaltverein.de/de/service/prozesskostenrechner, https://www.derprozesskostenrechner.de, https://www.foris.com/prozesskostenrechner.html, alle zuletzt abgerufen am 18. Februar 2020. Kapitel 4) Ausgewählte Anwendungsfälle 198 nehmen sind. Generalisierbare Wertungsergebnisse können allerdings formalisiert darstellbar sein, so dass der zweite Teil des Grundsatzes eine geringe Aufweichung erfährt. Diese Aufweichung wirkt sich zugleich nachteilig auf den Meinungsbildungsprozess aus, wenngleich die Nutzung einer Berechnungshilfe dadurch noch nicht unzulässig wird. Beispielsweise wirbt der Entwickler der iOS-App „Richter-Tools“ damit, dass die darin integrierte Fristberechnung „die Karenzzeit (‚3. Werktag‘) für die Kündigung von Mietverhältnissen“ unter Berücksichtigung der „höchstrichterliche[n] Rechtsprechung“ beherrsche:928 Nach § 573c Abs. 1 Satz 1 BGB ist die Kündigung spätestens am dritten Werktag eines Kalendermonats zum Ablauf des übernächsten Monats zulässig. Ob der Samstag bei der Berechnung des dritten Werktags mitzählt, ist aber umstritten. Während eine Ansicht den Samstag nicht als Werktag ansieht929, zählt eine andere Auffassung, die auch der Bundesgerichtshof vertritt, ihn als Werktag mit, wenn nicht der letzte Tag der Karenzfrist darauf fällt.930 Die Implementierung dieses Wertungsergebnisses in das Programm kann sich negativ auf den Diskurs auswirken, da sich die Benutzung der App als bequem erweisen und insoweit die Bereitschaft sinken kann, das aus der Rechtsprechung übernommene Wertungsergebnis in Frage zu stellen.931 Ferner besteht im Hinblick auf sämtliche online oder sonst zugänglichen Berechnungshilfen die Problematik der fehlenden hinreichenden Nachvollziehbarkeit ihrer Funktionsweise.932 Ohne diese verbietet sich ihre Heranziehung zur Entscheidungsfindung. Automatisierte Schlüssigkeitsprüfung Fluggastentschädigungsrechner Ein weiterer denkbarer Anwendungsfall für den Einsatz einer automatisierten Anwendung ist die Schlüssigkeitsprüfung vor dem Erlass von Ver- C. I. 928 Vgl. https://www.janforth.de/richter-tools/, zuletzt abgerufen am 18. Februar 2020. 929 So Häublein, MünchKomm-BGB, § 573c Rn. 13; vgl. zum Streitstand auch Blank, in: Schmidt-Futterer, Mietrecht, § 573c BGB Rn. 8 f. m. w. N. 930 So BGH, Urteil vom 27. April 2005 – VIII ZR 206/04, NJW 2005, 2154, juris Rn. 16 ff.; Rolfs, in: Staudinger, BGB, § 573c Rn. 12. 931 Hierzu Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. 932 Hierzu Kapitel 3) A.V. Unabhängigkeit vs. Nutzung von automatisierten Anwendungen. C. Automatisierte Schlüssigkeitsprüfung 199 säumnisurteilen aufgrund von Klagen auf Entschädigung nach der Fluggastrechte-VO933.934 Amtsgerichte registrieren in diesem Bereich einen erheblichen Anstieg der Eingangszahlen.935 Dies geht mit einer zunehmenden Arbeitsbelastung einher, wobei die einzelnen Verfahren häufig gleichförmig erscheinen. Im Fokus der Klagen stehen vor allem sogenannte Billigfluggesellschaften, die mit sehr kurzen „Turnarounds“ kalkulieren, womit eine höhere Anfälligkeit für Verspätungen einhergeht. Zudem lassen es Fluggesellschaften aus betriebswirtschaftlichen Gründen (zahlreiche Kunden verzichten im Anschluss an ihre Beschwerde auf eine gerichtliche Rechtsdurchsetzung) teilweise auf Gerichtsverfahren ankommen, in denen sodann aber häufig Versäumnis- oder Anerkenntnisurteile ergehen.936 Allerdings kommen zumindest „echte“ Versäumnisurteile nicht ohne eine Schlüssigkeitsprüfung aus (§ 331 Abs. 2 ZPO). Überlegenswert ist deshalb, ob eine automatisierte Anwendung die Schlüssigkeitsprüfung übernehmen kann. Durch die automatisierte Bearbeitung könnten Arbeitszeit und -kraft eingespart werden. Mit dem Mahnverfahren steht zwar bereits ein weitgehend automatisiertes Verfahren zur Rechtsdurchsetzung zur Verfügung. Dieses bietet die Möglichkeit, Fluggastentschädigungen auch ohne Schlüssigkeitsprüfung geltend zu machen. Das Mahnverfahren wird jedoch für solche Ansprüche verhältnismäßig selten genutzt. Zum einen mag dies daran liegen, dass einige betroffene Fluggesellschaften sich zunächst den Forderungen widersetzen und es auf das streitige Verfahren ankommen lassen. Zum anderen arbeiten Legal Tech-Unternehmen, die sich auf die Geltendmachung von Ansprüchen nach der Fluggastrechte-VO spezialisiert haben, in der Regel mit Rechtsanwälten zusammen, die im regulären Zivilprozess eine höhere Vergütung erwirtschaften können als im Mahnverfahren. Teilweise wird diskutiert, für Verfahren mit verhältnismäßig geringfügigen Forderungen eine (weitere) besondere Verfahrensart (neben § 495a ZPO) zu schaffen; dabei werden vor allem Verfahren, deren Gegenstand Entschädigungsforderungen nach der Fluggastrechte-VO sind, in den Blick 933 ABl. Nr. L 46/1 vom 17. Februar 2004. 934 Ebenso Martini et al., Automatisch erlaubt?, S. 45. 935 Siehe oben Kapitel 1) B.VIII. Auswirkungen auf die gerichtliche Arbeitswelt. 936 Daher wurde auch bereits eine Verpflichtung der Fluggesellschaften zur automatischen Entschädigungsleistung mittels smart contracts ins Spiel gebracht, vgl. Positionspapier des Verbraucherzentrale Bundesverbands, https://www.vzbv .de/sites/default/files/downloads/2018/09/06/2018-09-03_forderungspapier_flugg astrechte.pdf, zuletzt abgerufen am 18. Februar 2020. Kapitel 4) Ausgewählte Anwendungsfälle 200 genommen.937 Der Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ rückt dabei insbesondere die Nutzung von Onlinekommunikationsmitteln ins Blickfeld. Da der Zweck solcher Überlegungen die Verfahrensbeschleunigung und -vereinfachung ist, könnte allerdings auch daran gedacht werden, eine Schlüssigkeitsprüfung durch automatisierte Anwendungen ohne Beteiligung eines Menschen einzurichten. Dies wäre jedoch nicht zulässig. Soll das Ergebnis des gerichtlichen Verfahrens eine richterliche Entscheidung sein, muss diese nach den grundgesetzlichen Vorgaben, aber auch nach den Vorgaben der DS-GVO von einem Menschen getroffen werden.938 Daraus folgt kein Widerspruch zum automatisierten Mahnverfahren. Es wurde bereits gesagt, dass die Titulierung im Mahnverfahren mangels Schlüssigkeitsprüfung keine richterliche Entscheidung darstellt.939 Schließlich bleibt noch die Möglichkeit, dem Richter die Benutzung einer automatisierten Anwendung zu überlassen. Autonome Systeme kommen insoweit nur als nicht entscheidungsersetzendes Hilfswerkzeug in Betracht, deren Ergebnisse nicht ohne eigene Prüfung übernommen werden dürfen.940 Im Hinblick auf automatisierte Schlüssigkeitsprüfungen ist aber nicht lediglich an autonome Systeme, sondern auch an determinierte Programme zu denken. Diese können allerdings nur für Berechnungen oder sonstige schematische Prüfungen eingesetzt werden; manche Wertentscheidungsergebnisse können dabei logisch integriert werden. Daran orientiert sich das nachfolgende, der weiteren Bearbeitung zugrunde gelegte Modell. 937 Vgl. den Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 74 ff., https://www.schleswig-holstein. de/DE/Landesregierung/II/Ministerin/Justizministerkonferenz/Downloads/1906 05_beschluesse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020. 938 Zu den grundgesetzlichen Vorgaben siehe Kapitel 3) A.I.2. Natürliche Personen als Richter; zu den Vorgaben der DS-GVO siehe Kapitel 3) F. Datenschutzrechtliche Fragestellungen. 939 Hierzu Kapitel 3) A.I.3. Differenzierung im Instanzenzug? 940 Hierzu Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung und Kapitel 3) A.V.5. Nutzung von automatisierten Anwendungen als Hilfswerkzeug. C. Automatisierte Schlüssigkeitsprüfung 201 Modellrechner Determiniert programmierbare Komponenten Einige Regelungen der Fluggastrechte-VO zu den von Fluggesellschaften an ihre Fluggäste zu zahlenden Entschädigungsleistungen folgen klar definierbaren Regeln, die ein Computer umsetzen kann. Diese sollen anhand des in der Abbildung 9 dargestellten Grundmodells941 einer Eingabemaske erläutert werden. Ziel der automatisierten Verarbeitung ist die Ausgabe der Höhe des Entschädigungsanspruchs, das heißt „EUR 0,00“, „EUR 250,00“, „EUR 400,00“ oder „EUR 600,00“942. Nach dem hier zugrunde gelegten Modell ist in der Eingabemaske zunächst eine Auswahl zu treffen, ob es sich um einen Annullierungs-, Nichtbeförderungs- oder Verspätungsfall handelt. Sodann sind Daten zum Abflugort, dem Ankunftsziel (beide zur eindeutigen Bestimmung als IATA- Code943), der Fluggesellschaft sowie zu der geplanten und der tatsächlichen Ankunftszeit einzutragen. Abflugort bezeichnet den Flughafen, von dem aus der Flug angetreten wurde oder werden sollte. Ankunftsziel ist der Flughafen, an dem der Flug beendet wurde beziehungsweise werden sollte. Da die Entschädigungsleistungen maßgeblich von der Entfernung zwischen diesen beiden Flughäfen abhängt, bietet es sich an, die jeweiligen Entfernungen zwischen den Flughäfen im Programm zu hinterlegen, so dass die jeweilige Entfernung zwischen Abflugort und Ankunftsziel ohne explizite Eingabe in die Berechnung einbezogen wird. Die infrage kommenden Flughäfen und Fluggesellschaften sind wie die jeweiligen Entfernungen zwischen den Flughäfen abschließend bestimmbar. 1. a) 941 Das Grundmodell lässt zum Zwecke der Übersichtlichkeit die Ausnahmevorschrift des Art. 7 Abs. 2 Fluggastrechte-VO, wonach unter bestimmten Voraussetzungen die Ausgleichszahlung um 50 % gekürzt werden kann, außen vor. Allerdings könnte auch diese Vorschrift durchaus in determinierter Weise programmiert und damit in die automatisierte Schlüssigkeitsprüfung integriert werden. Ebenfalls dem Zweck, die Übersichtlichkeit zu bewahren, folgt der Verzicht auf tiefer gehende Differenzierungen wie die Berücksichtigung von Zwischenstopps (hierzu EuGH, Urteil vom 11. Juli 2019 – C-502/18, NJW 2019, 2595). Das hier vorgestellte Grundmodell wäre für solche Fälle mangels Vollständigkeit nicht geeignet. 942 Die Höhe der Entschädigung ergibt sich aus Art. 7 Abs. 1 lit. a)-c) Fluggastrechte-VO. 943 Die Angabe „Berlin“ als Abflugort oder Ankunftsziel wäre zu ungenau, da es dort – derzeit – die Flughäfen Tegel (TXL) und Schönefeld (SXF) gibt. Kapitel 4) Ausgewählte Anwendungsfälle 202 Rechner für Fluggastentschädigungen Rechner für Fluggastentschädigungen Auswahl Annullierung Nicht-beförderung Verspätung Daten Abflugort z. B. TXL 944, AMS945 Ankunftsziel z. B. BRU 946, HEL947 Fluggesellschaft z. B. Ryanair,easyJet GeplanteAnkunftszeit Datum / Uhrzeit TatsächlicheAnkunftszeit Datum / Uhrzeit Nach Art. 3 Abs. 1 Fluggastrechte-VO gilt die Verordnung einerseits für Fluggäste, die auf Flughäfen im Gebiet eines Mitgliedstaats, der den Bestimmungen des Vertrags unterliegt, einen Flug antreten. Andererseits gilt sie danach für Fluggäste, die von einem Flughafen in einem Drittstaat einen Flug zu einem Flughafen im Gebiet eines Mitgliedstaats antreten, der den Bestimmungen des Vertrags unterliegt, wenn es sich dabei um ein Luftfahrtunternehmen der Europäischen Union handelt. Der Begriff Abbildung 9: 944 Flughafen Berlin-Tegel. 945 Flughafen Amsterdam Schiphol. 946 Flughafen Brüssel-Zaventem. 947 Flughafen Helsinki-Vantaa. C. Automatisierte Schlüssigkeitsprüfung 203 „Luftfahrtunternehmen der Gemeinschaft“ wird in Art. 2 lit. c) Fluggastrechte-VO definiert als ein Luftfahrtunternehmen mit einer gültigen Betriebsgenehmigung, die von einem Mitgliedstaat gemäß der Verordnung (EWG) Nr. 2407/92 des Rates vom 23. Juli 1992 über die Erteilung von Betriebsgenehmigungen an Luftfahrtunternehmen erteilt wurde. In einem Computerprogramm können sowohl sämtliche Flughäfen im Gebiet der Europäischen Union als auch solche Flughäfen in Drittstaaten integriert werden, von denen Flüge zu Flughäfen in der Europäischen Union stattfinden. Auch die über eine mitgliedstaatliche Betriebsgenehmigung verfügenden Luftfahrtunternehmen können abschließend aufgezählt und damit in ein determiniertes Programm aufgenommen werden. Die Programmoberfläche kann die infrage kommenden Flughäfen und Flugunternehmen beispielsweise bei Anklicken der Felder „Abflugort“, „Ankunftsziel“ und „Fluggesellschaft“ anzeigen. Auch ist dafür eine Auto-Vervollständigen-Funktion denkbar. Die Ermittlung der Entfernung zwischen dem Start- und dem Zielflughafen erfolgt gemäß Art. 7 Abs. 4 Fluggastrechte-VO nach der Methode der Großkreisentfernung. Die Großkreisentfernung bezeichnet die kürzeste Strecke zwischen den beiden Flughäfen entlang der Erdoberfläche.948 Dabei wird nach Art. 7 Abs. 1 Satz 2 Fluggastrechte-VO der letzte Zielort zugrunde gelegt, an dem der Fluggast später als zur planmäßigen Ankunftszeit ankommt. Im Hinblick auf die Ermittlung der Großkreisentfernung würde es sich anbieten, die Prüfung der Zertifizierungsstelle949 auch darauf zu beziehen, ob das Programm die zutreffenden Entfernungen zugrunde legt. Zwar betrifft die Tatsachenermittlung durchaus die Rechtsfindung des Gerichts.950 Allerdings können die Entfernungen mathematisch ermittelt werden und sind – mit Ausnahme tektonischer Bewegungen – unveränderlich. Außerdem wäre die Einholung einer amtlichen Auskunft ohnehin eine Option zur Sachverhaltsaufklärung (vgl. §§ 273 Abs. 2 Nr. 2, 358a Nr. 2 ZPO). Ferner wäre die Einbeziehung der Entfernungen in das Zertifizierungsverfahren im Vergleich zur Nutzung bereits heute im Internet verfügbarer Entfernungsrechner951 vorzugswürdig, da Gerichte die Funktionsweise solcher Rechner in der Regel nicht kennen werden. 948 Steinrötter, in: BeckOGK Fluggastrechte-VO, Art. 7 Rn. 27. 949 Zum Erfordernis einer Zertifizierung determinierter Programme vgl. Kapitel 3) A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. 950 Hierzu Kapitel 2) A.III. Formale Logik und Subsumtion. 951 Z. B. https://www.luftlinie.org/, http://www.agenda21-treffpunkt.de/daten/Luftl inie.htm, beide zuletzt abgerufen am 18. Februar 2020. Kapitel 4) Ausgewählte Anwendungsfälle 204 Ausgleichsansprüche nach Art. 7 Fluggastrechte-VO sind grundsätzlich nur bei Nichtbeförderung eines Fluggasts oder bei Annullierung des Flugs zu zahlen, vgl. Artt. 4 Abs. 3 und 5 Abs. 1 lit. c) Fluggastrechte-VO. Insofern sieht das Modell eine Auswahl vor, ob der Anspruch aufgrund einer Nichtbeförderung oder einer Annullierung geltend gemacht wird. Außerdem hält Art. 7 Fluggastrechte-VO klare Regeln zur Höhe des Ausgleichsanspruchs bereit, die sich leicht in ein determiniertes Programm übertragen lassen. Der Ausgleichsanspruch beträgt (a) EUR 250,00 bei allen Flügen über eine Entfernung von bis zu 1.500 km, (b) EUR 400,00 bei allen innergemeinschaftlichen Flügen über eine Entfernung von mehr als 1.500 km und bei allen anderen Flügen über eine Entfernung zwischen 1.500 km und 3.500 km sowie (c) EUR 600,00 bei allen nicht unter (a) oder (b) fallenden Flügen, also bei nicht innergemeinschaftlichen Flügen über eine Entfernung von mehr als 3.500 km. Wertungen und Wertungsergebnisse Neben der Nichtbeförderung und der Annullierung sieht das Modell die Verspätung als weitere Auswahlmöglichkeit vor. Dies hat folgenden Hintergrund: Zwar sieht der Wortlaut der Fluggastrechte-VO im Fall einer bloßen Flugverspätung keine von den Luftfahrtunternehmen zu erbringenden Ausgleichzahlungen vor. Nach der Rechtsprechung des Europäischen Gerichtshofs stehen Fluggästen gleichwohl nach Art. 7 Abs. 1 Fluggastrechte-VO Ausgleichszahlungen auch bei großer Verspätung zu, sofern sie ihr Endziel nicht früher als drei Stunden nach der von dem Luftfahrtunternehmen ursprünglich geplanten Ankunftszeit erreichen.952 Auch insoweit ist eine determinierte Programmierung ohne Weiteres möglich. Der Computer kann angewiesen werden, aus den eingegebenen Zeiten im Hinblick auf die geplante und tatsächliche Ankunft zu errechnen, ob mindestens eine Differenz von drei Stunden vorliegt. Die Höhe des Entschädigungsanspruchs hängt dann nur noch von der Entfernung des Abflugorts zum Ankunftsziel ab. Die Auslegung des Europäischen Gerichtshofs beruht auf der Wertung, dass die Fluggäste verspäteter Flüge und diejenigen annullierter Flüge im Hinblick auf den Grundsatz der Gleichbehandlung nicht unterschiedlich behandelt werden dürfen, weil die jeweils erlittenen Schäden einander entb) 952 EuGH, Urteil vom 19. November 2009 – C-402/07 und C-432/07, NJW 2010, 43, juris Rn. 61. C. Automatisierte Schlüssigkeitsprüfung 205 sprechen.953 Zwar sind Computer nicht in der Lage, Wertungen selbstständig vorzunehmen.954 Mit der Programmierung der Verspätung von mehr als drei Stunden als weiteren Entschädigungsfall wird aber das Wertungsergebnis des Europäischen Gerichtshofs ohne Rücksicht darauf übernommen, dass möglicherweise auch ein anderes Auslegungsergebnis vertretbar sein könnte.955 Daher droht durch die Verwendung des Modells ein „Einfrieren“ des Rechts.956 Gleiches gilt im Hinblick auf die Auslegung des Begriffs der „Entfernung“ in Art. 7 Abs. 1 Fluggastrechte-VO. Dieser kann zwar so verstanden werden, dass damit die Flugstrecke vom Startflughafen zum Zwischenstopp und von dort zum Zielflughafen zusammengerechnet wird. Allerdings legt der Europäische Gerichtshof den Begriff dahingehend aus, dass davon nur die Entfernung zwischen dem Ort des ersten Abflugs und dem Endziel erfasst sein soll.957 Nicht entlastet wird das Gericht ferner von der Wertung, wie der Begriff der „Ankunftszeit“ auszulegen ist. Die Fluggastrechte-VO verwendet den Begriff zwar an verschiedenen Stellen (vgl. Artt. 2 lit. h], 5 Abs. 1 lit. c] ii] und iii], 7 Abs. 1 lit. c] und Abs. 2). Eine Definition des Begriffs enthält sie jedoch nicht. Der Europäische Gerichtshof behandelt als Ankunftszeit den Zeitpunkt, ab dem „den Fluggästen das Verlassen des Flugzeugs gestattet ist und dafür das Öffnen der Flugzeugtüren angeordnet wird“, weil erst in dem Moment die durch den Flug bedingten Einschränkungen aufgehoben sind.958 Das hier zugrunde gelegte Modell enthält insoweit kein übernommenes Wertungsergebnis, sondern überlässt die Eintragung der Ankunftszeit dem Gericht. 953 EuGH, Urteil vom 19. November 2009 – C-402/07 und C-432/07, NJW 2010, 43, juris Rn. 60. 954 Siehe Kapitel 2) A.IV. Formale Logik und Wertungen. 955 Zur Kritik an der Entscheidung vgl. die Übersicht bei Hopperdietzel, in: BeckOK Fluggastrechte-VO, Art. 6 Rn. 27 ff. 956 Zum „Einfrieren“ des Rechts siehe Kapitel 1) B.VI. Beeinflussung der Meinungsbildung. 957 EuGH, Urteil vom 7. September 2017 – C-559/16, NJW 2018, 529, juris Rn. 33; zustimmend Steinrötter, in: BeckOGK Fluggastrechte-VO, Art. 7 Rn. 29; ablehnend Maruhn, in: BeckOK Fluggastrechte-VO, Art. 7 Rn. 12 ff. m. w. N. 958 EuGH, Urteil vom 4. September 2014 – C-452/13, NJW 2015, 221, juris Rn. 24. Kapitel 4) Ausgewählte Anwendungsfälle 206 Umgang mit der im Modellrechner angelegten Unvollständigkeit Nicht verwendbar ist das Modell bei Umsteigeverbindungen, da es Zwischenstopps nicht berücksichtigt. Bei der Nutzung einer dem Modell entsprechenden automatisierten Anwendung wäre zudem zu berücksichtigen, dass es keine vollständige, sondern nur einen Teil der Schlüssigkeitsprüfung abbildet. Neben der Ausnahmevorschrift des Art. 7 Abs. 2 Fluggastrechte-VO, wonach unter bestimmten Umständen die Ausgleichszahlung um 50 % gekürzt werden kann, trifft das Modell keine Aussage über die gerichtliche Zuständigkeit.959 Auch prüft das Modell nicht die in Art. 3 Abs. 1 lit. b) Fluggastrechte-VO enthaltene Ausnahme, dass der Fluggast im Drittstaat Gegen- oder Ausgleichs- und Unterstützungsleistungen erhalten hat sowie die weiteren in Art. 3 Fluggastrechte-VO neben Abs. 1 aufgeführten Bedingungen und Ausnahmen. Das Programm berücksichtigt ferner nicht die in Art. 5 Abs. 3 Fluggastrechte-VO enthaltene Ausnahme von der Ausgleichszahlungspflicht, wenn die Annullierung auf außergewöhnliche Umstände zurückgeht, die sich auch dann nicht hätten vermeiden lassen, wenn alle zumutbaren Maßnahmen ergriffen worden wären.960 Solche Umstände wären aber auch nur dann zu berücksichtigen, wenn die Fluggesellschaft ihr Vorliegen einwendet.961 Differenzierung bei der Begründung Sodann sind bei der Nutzung einer dem Modell entsprechenden Anwendung Besonderheiten im Hinblick auf die Art der Entscheidung und ein damit gegebenenfalls zusammenhängendes Begründungserfordernis zu berücksichtigen. Wird der Entschädigungsrechner zur Generierung eines Versäumnisurteils verwendet, ist eine Begründung der Entscheidung grundsätzlich entbehrlich, vgl. § 313b Abs. 1 ZPO. Anders sieht es aus, wenn damit die richterliche (Einzelfall-)Entscheidungsfindung im Hinblick auf das Endurteil (§ 313 ZPO) ersetzt werden soll. In dem Fall ist c) d) 959 Vgl. zu den teilweise umstrittenen Fragen der gerichtlichen Zuständigkeit für Entschädigungsansprüche nach der Fluggastrechte-VO: Maruhn, in: BeckOK Fluggastrechte-VO, Art. 7 Rn. 59 ff., und Steinrötter, in: BeckOGK Fluggastrechte-VO, Art. 7 Rn. 79 ff., jeweils m. w. N. 960 Welche Umstände „außergewöhnlich“ und welche Maßnahmen „zumutbar“ sind, ist wiederum durch wertende Abwägung zu ermitteln, wobei die Erwägungsgründe 14 und 15 Fluggastrechte-VO Leitlinien aufzeigen. 961 Vgl. Steinrötter, in: BeckOGK Fluggastrechte-VO, Art. 5 Rn. 126. C. Automatisierte Schlüssigkeitsprüfung 207 auch die Angabe der Entfernung zwischen dem Abflugort und dem Ankunftsziel für das Verständnis der Entscheidung von Bedeutung. Die Entfernung kann das Gericht im Fall der hier vorgeschlagenen Zertifizierung der Anleitung oder – sofern die Programmierung insoweit eine Mitteilung an den Anwender vorsieht – der Ausgabe des Programms selbst entnehmen. Verknüpfung mit einer Flugdatenbank? Legal Tech-Unternehmen, die sich an Verbraucher wenden, um für diese Fluggastentschädigungen gegenüber den Fluggesellschaften durchzusetzen, verknüpfen ihre Anwendungen mit ständig aktualisierten Datenbanken, die Informationen über die geplanten und tatsächlichen Ankunftszeiten sowie über etwaige außergewöhnliche Umstände speichern. Dies ist auch für ein vom Gericht eingesetztes Programm überlegenswert. Das Programm könnte durch den automatischen Rückgriff auf Fluginformationen selbst ermitteln, wie groß die Verspätung ausgefallen ist, so dass die manuelle Eingabe der tatsächlichen Ankunftszeit entfiele und das Vorliegen au- ßergewöhnlicher Umstände berücksichtigt werden könnte. Zwar wäre eine solche Verknüpfung im Hinblick auf die materielle Wahrheitsfindung wünschenswert. Allerdings liefe sie dem zivilprozessualen Beibringungsgrundsatz zuwider962. Denn die Übernahme der Daten aus der Datenbank würde dazu führen, dass abweichender Vortrag der Parteien nicht mehr berücksichtigt wird, weil nur die in der Datenbank enthaltenen Angaben zählen. Dabei ist nicht gewährleistet, dass die in der Datenbank hinterlegten Daten zwingend richtig und vollständig sind. Sogar zwischen den Parteien unstreitiger Vortrag könnte auf diese Weise übergangen werden. Es lauerte ständig die Gefahr eines Verstoßes gegen den Anspruch auf rechtliches Gehör963. Außerdem steht die mit dem Zugriff auf eine fortlaufend aktualisierte Datenbank verbundene Dynamik der hier vorgeschlagenen Zertifizierung964 entgegen. 2. 962 Hierzu Kapitel 3) E.I. Zivilprozessuale Grundsätze. 963 Hierzu Kapitel 3) B. Der Anspruch auf rechtliches Gehör. 964 Hierzu Kapitel 3) A.V.1.c) Nachvollziehbarkeit und Vorschlag eines Zertifizierungsverfahrens. Kapitel 4) Ausgewählte Anwendungsfälle 208 Notwendigkeit einer (Vor-)Prüfung durch den Richter Sollen die nach dem hier zugrunde gelegten Modell eines Entschädigungsrechners als schlüssig erachteten Ergebnisse ohne weitere Prüfung in eine gerichtliche Entscheidung übernommen werden, muss dem in dieser Arbeit aufgezeigten rechtlichen Rahmen Rechnung getragen werden. Der zur Entscheidung berufene Richter muss deshalb das determinierte Programm nachvollziehen können und selbst über seine Verwendung im Einzelfall entscheiden. Dies setzt eine Vorprüfung des Sachverhalts durch den Richter voraus. Dabei macht es keinen Unterschied, ob es sich bei der Entscheidung um ein End- oder ein Versäumnisurteil gegen die beklagte Fluggesellschaft handelt. Wenn der Richter den Sachverhalt nicht zunächst selbst daraufhin bewertet hat, ob sämtliche Tatsachen, die für die Entscheidung relevant sind, vorliegen, oder ob weitere bedeutende Tatsachen gegeben sind, die über die Programmvorgaben hinausgehen, würde dies eine Übertragung der Entscheidungsfindung auf den Computer und damit einen Verstoß gegen die richterliche Unabhängigkeit bedeuten. Auch liefe eine solche Entscheidung Gefahr, dem Vorwurf der Willkür ausgesetzt zu sein, je nachdem, ob sie in objektiver Hinsicht inhaltlich noch vertretbar ist oder nicht.965 Außerdem würde die Nichtberücksichtigung erheblichen Vortrags einen Verstoß gegen den Anspruch auf rechtliches Gehör bedeuten. Schließlich kann nur die Vorprüfung des Richters das dialektische Vorgehen bei der Rechtsanwendung sicherstellen.966 Bei der Lektüre beziehungsweise Ordnung des Sachverhalts hat der Rechtsanwender gedanklich bereits möglicherweise anzuwendende Normen im Blick. Er prüft, ob der Fall in einen bestimmten Regelungsbereich fällt. Sodann folgt die schlichte Umsetzung der Entscheidung des Richters, wonach ein Sachverhalt nach bestimmten Regeln, die das Programm umsetzen kann, behandelt werden soll. Entscheidet der Richter nicht selbst über die Anwendung des Programms und wird er stattdessen ohne eigene Vorprüfung mit dem Programmergebnis konfrontiert, muss er das Ergebnis grundsätzlich vollständig nachprüfen. Kann er die Funktionsweise des Programms nachvollziehen, beschränkt sich die Prüfung immerhin noch auf die nachträgliche Feststellung der Vereinbarkeit der Funktionsweise des Programms mit den von den Parteien mitgeteilten Sachverhaltsdaten. Werden also eingehende 3. 965 Hierzu Kapitel 3) D.III. Automatisierte Entscheidungsfindung und Willkürverbot. 966 Hierzu Kapitel 2) A. Formalisierung des Rechts? C. Automatisierte Schlüssigkeitsprüfung 209 Klagen anstelle einer Vorprüfung durch den zur Entscheidung berufenen Richter durch automatisierte Zuordnung des Inhalts nach Schlagworten automatisch der Schlüssigkeitsprüfung nach einem bestimmten Muster unterzogen, muss das Gericht zumindest im Nachhinein und vor Erlass der Entscheidung prüfen, ob der Sachverhalt tatsächlich für die automatisierte Bearbeitung durch das Programm geeignet war. Stellt sich heraus, dass der Sachverhalt dafür nicht geeignet war, darf die vom Computer entworfene Entscheidung nicht ergehen. Formulargestützte Klageeinreichung? Die Verwendung eines an dem hier dargestellten Modell orientierten Entschädigungsrechners967 könnte dadurch optimiert werden, dass eine formulargestützte (Online-)Einreichung der Klageschrift ermöglicht würde.968 Vergleichbar mit dem Online-Mahnantrag könnte der klagenden Partei eine Eingabemaske angezeigt werden, die sie durch die einzelnen Schritte zur Erstellung einer strukturierten Klageschrift und zur Online- Klageeinreichung führt. Neben den Angaben zu den Streitparteien könnten die maßgeblichen Daten zur Berechnung des Entschädigungsanspruchs abgefragt werden. Der Vorteil einer formulargestützten Klageeinreichung läge darin, die für die Entscheidung relevanten Daten von Anfang an in strukturierter Form vorliegen zu haben, so dass sie maschinell verarbeitet werden können.969 Nach geschäftsplanmäßiger Verteilung könnte der zur Entscheidung berufene Richter die strukturierten Daten in 4. 967 Siehe Abbildung 9, S. 203. 968 § 130c ZPO sieht eine Verordnungsermächtigung für das Bundesministerium der Justiz und für Verbraucherschutz vor, wonach die Übermittlung in strukturierter maschinenlesbarer Form vorgeschrieben werden kann, wobei die Formulare auf einer Kommunikationsplattform im Internet bereitzustellen sind. Die Schaffung der allgemeinen technischen und rechtlichen Voraussetzungen, um ein zivilprozessuales Online-Verfahren anbieten zu können, sollen hier nicht behandelt werden. Vgl. dazu den Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 74 ff., https://w ww.schleswig-holstein.de/DE/Landesregierung/II/Ministerin/Justizministerkonf erenz/Downloads/190605_beschluesse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020, und die Überlegungen von Nicolai/Wölber, ZRP 2018, 229 ff. 969 Zur Problematik der Verarbeitung von unstrukturierten Daten siehe Kapitel 2) B. Abhängigkeit von der Datenqualität und Problem unstrukturierter Daten. Kapitel 4) Ausgewählte Anwendungsfälle 210 sein determiniertes Programm übertragen970 und daraus ein Versäumnisurteil generieren, sofern alle (also auch die prozessualen) Voraussetzungen gegeben sind. Allerdings müsste der Richter die von der klagenden Partei übermittelten Daten vor der Verwendung des Entschädigungsrechners vorab auf Besonderheiten prüfen, die gegebenenfalls dem Erlass des Versäumnisurteils entgegenstehen. Er bewertet, ob die Regeln des Programms die Konstellation nach seiner Rechtsauffassung abdecken und damit die von der klagenden Partei übermittelten Daten für die maschinelle Weiterbearbeitung geeignet sind. Ein vollautomatisiertes, das heißt ohne richterliche Mitwirkung ergehendes Versäumnisurteil dürfte hingegen nicht erlassen werden. Es können also nicht die „Standardfälle“ automatisch „durchlaufen“ und nur die problematischen Fälle dem Richter vorgelegt werden. Wie bereits ausgeführt, sind richterliche Entscheidungen nach den Vorgaben des Grundgesetzes Menschen vorbehalten.971 Daher wäre es unzulässig, ein Versäumnisurteil allein auf eine automatisierte Prüfung zu stützen. Wird jedoch die Mitwirkung des geschäftsplanmäßig zuständigen Richters zwischengeschaltet, der den durch die übermittelten strukturierten Daten mitgeteilten Sachverhalt dahingehend bewertet, dass er für die maschinelle Weiterbearbeitung gemäß seiner Vorgaben geeignet ist, trifft der Richter und nicht die Maschine die Entscheidung, wie der Sachverhalt rechtlich zu bewerten ist. Voraussetzung ist freilich die hinreichende Nachvollziehbarkeit des verwendeten determinierten Programms. Als problematisch erweisen kann sich bei der formulargestützten Klageeinreichung auch die damit zusammenhängende Vorab-Festlegung darauf, welche Daten erhoben werden. Mit der mangelnden Möglichkeit des Klägers, neben den von der Eingabemaske vorgesehenen noch weitere Daten eintragen zu dürfen, korrespondiert ihre fehlende Wahrnehmung und schließlich die ausbleibende Berücksichtigung durch das Gericht. Dem kann zwar durch die Bereitstellung von Freitextfeldern Abhilfe geschaffen werden. Freilich werden Freitextfelder eine automatisierte Bearbeitung aber erschweren. Dennoch sind sie im Hinblick auf den Anspruch auf rechtliches Gehör vor Gericht (Art. 103 Abs. 1 GG) unverzichtbar. 970 Im Fall einer Online-Einreichung wären die Daten bereits in elektronischer Form verfügbar. Daneben sieht der Online-Mahnantrag auch die Übermittlung eines einen Barcode enthaltenden Ausdrucks auf dem Postweg vor. Die Daten könnten also händisch oder mittels eines Barcode-Scanners in das Berechnungsprogramm übertragen werden. 971 Hierzu Kapitel 3) A.I.2. Natürliche Personen als Richter. C. Automatisierte Schlüssigkeitsprüfung 211 Eine noch weitergehende Automatisierung wäre dahingehend denkbar, dass eine automatisierte Anwendung nach Ablauf der zweiwöchigen Frist zur Anzeige der Verteidigungsbereitschaft (§ 276 Abs. 1 Satz 1 ZPO) basierend auf den von der klagenden Partei in der Eingabemaske eingegebenen Daten den Entwurf eines Versäumnisurteils generiert. Allerdings darf das Gericht den Entwurf nicht ohne eigene Prüfung in eine Entscheidung umwandeln. Handelt es sich um den Entwurf eines autonomen Systems, ist seine volle Nachprüfung erforderlich. Kann der Richter das Programm hingegen nachvollziehen und hat er es selbst zur Anwendung auf bestimmte Konstellationen bestimmt, muss er zumindest noch prüfen, ob eine solche Konstellation vorliegt. Sofern er das Programm nicht nachvollziehen kann, etwa weil es ohne Zertifizierung von der Justizverwaltung zur Verfügung gestellt wird, muss er das Ergebnis wiederum vollständig überprüfen. Auch wenn die Zurverfügungstellung einer automatisierten Anwendung durch die Justizverwaltung nicht per se unzulässig ist972, sollte die Gefahr des Übernahmeautomatismus im Zusammenhang mit den Überlegungen zur Anschaffung solcher Anwendungen sorgfältig abgewogen werden. Automatisch generierter Vergleichsvorschlag Nach § 278 Abs. 6 Satz 1 ZPO kann ein gerichtlicher Vergleich u. a. dadurch geschlossen werden, dass die Parteien einen schriftlichen Vergleichsvorschlag des Gerichts durch Schriftsatz gegenüber dem Gericht annehmen. Insofern stellt sich die Frage, ob das Gericht den Parteien auch einen automatisch generierten Vergleichsvorschlag unterbreiten darf. Denn das Ergebnis einer automatisierten Anwendung kann auch die Generierung eines Vergleichsvorschlags sein. Bewertet das Gericht die ihm vorliegende Konstellation als für die maschinelle Bearbeitung geeignet und zieht es ein von ihm beherrschtes determiniertes Programm zur Berechnung eines Vergleichsvorschlags heran, bleibt die Bewertung in den Händen des Gerichts. Aufgrund seiner vorgeschalteten Bewertung liegt keine ausschließlich automatisierte Verarbeitung vor. Der Zulässigkeit eines solchen Vergleichsvorschlags steht daher nichts entgegen. Komplizierter gestaltet es sich, wenn das Gericht das Zustandekommen des Vergleichsvorschlags selbst nicht nachvollziehen kann. Angesprochen sind damit nicht nachvollziehbare determinierte Program- II. 972 Hierzu Kapitel 3) A.V.3. Freiwillige und verpflichtende Nutzung. Kapitel 4) Ausgewählte Anwendungsfälle 212 me und autonome Systeme. Vor allem letztere sind für die Entwicklung von Vorhersagesystemen besonders interessant. Sogenannte „Legal Analytics“ beziehungsweise „Legal Prediction“ sollen aufgrund statistischer Erhebungen in der Lage sein, Gerichtsentscheidungen vorhersagen zu können.973 Solche Projekte beruhen auf selbstlernenden Systemen, die ergangene Gerichtsentscheidungen auswerten und eine auf Wahrscheinlichkeiten beruhende Erfolgsprognose abgeben. Zwar sind autonome Systeme für die richterliche Entscheidungsfindung selbst dann ungeeignet, wenn es sich nur um die Ersetzung einer Teiloperation handelt, weil das Zustandekommen des Ergebnisses nicht nachvollziehbar ist.974 Für die Bewertung der Erfolgsaussichten eines Prozesses mögen sie gleichwohl hilfreich sein, weil sie zumindest eine statistische Erfolgswahrscheinlichkeit ermitteln können, wobei jedoch ein Rest an Unsicherheit verbleibt. Vor dem Hintergrund, dass es dem Wesen eines Vergleichs entspricht, den Streit oder die Ungewissheit der Parteien über ein Rechtsverhältnis im Wege gegenseitigen Nachgebens zu beseitigen (vgl. § 779 Abs. 1 BGB), erscheint es durchaus sinnvoll, autonome Systeme zur Vorhersage von Gerichtsentscheidungen einen Vergleichsvorschlag generieren zu lassen. Problematisch wird es allerdings, wenn dieser Vorschlag von Seiten des Gerichts an die Parteien herangetragen wird. Die gütliche Beilegung von Rechtsstreitigkeiten zählt zu den bedeutungsvollsten Aufgaben des Richters und ist daher dem Kernbereich richterlicher Tätigkeit zuzuordnen.975 So soll das Gericht nach § 278 Abs. 1 ZPO sogar in jeder Lage des Verfahrens auf eine gütliche Beilegung des Rechtsstreits oder einzelner Streitpunkte bedacht sein. Insoweit ist aber zu bedenken, dass auch die Parteivertreter oder sogar (zumindest mittelbar) Dritte nicht gehindert sind, Vergleichsvorschläge in das Verfahren einzubringen. Dabei kommt es auch nicht darauf an, in welcher Weise sie erstellt worden sind. Nicht zuletzt sollen die in Nr. 1000, 1003 und 1004 der Anlage 1 zum RVG ausgewiesenen Einigungsgebühren auch die Parteivertreter motivieren, auf eine gütliche Einigung hinzuwirken. Die fehlende Exklusivität unterscheidet Vergleichsvorschläge von gerichtlichen Entscheidungen, so dass die Zugehörigkeit der gütlichen Streitbeilegung zum Kernbereich richterlicher Tätigkeit einem computergenerierten Vergleichsvorschlag nicht entgegensteht. 973 Hierzu von Bünau, in: Breidenbach/Glatz, Rechtshandbuch Legal Tech, S. 57; Frese, NJW 2015, 2090 (2092); M. Kilian, NJW 2017, 3043 (3049 f.). 974 Hierzu Kapitel 3) A.V.2. Nutzung von autonomen Systemen zur Entscheidungsfindung. 975 BGH, Urteil vom 9. März 1967 – RiZ (R) 2/66, BGHZ 47, 275, juris Rn. 34. C. Automatisierte Schlüssigkeitsprüfung 213 Ferner sind die Vorgaben des Art. 22 DS-GVO zu berücksichtigen.976 Nach Art. 22 Abs. 1 DS-GVO haben natürliche Personen das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Ein Vergleichsvorschlag entfaltet zwar keine unmittelbare rechtliche Wirkung gegenüber den Parteien. Möglicherweise werden sie dadurch aber in „ähnlicher Weise erheblich beeinträchtigt“. In dem Fall wäre ein vollautomatisierter Vergleichsvorschlag unzulässig. Mit der erheblichen Beeinträchtigung in ähnlicher Weise sind faktische Folgen gemeint, die ähnlich wie rechtlich bindende Entscheidungen wirken.977 Die Unterbreitung eines gerichtlichen Vergleichsvorschlags versetzt die Parteien zunächst in die Lage, den Vergleichsvorschlag annehmen oder ihn ablehnen oder auch schlicht ignorieren zu können. Teilweise wird aber vertreten, dass jeder gerichtliche Vergleichsvorschlag Druck auf die Parteien ausübe, der ihre Entscheidungsfreiheit dahingehend beeinträchtige, ihm zuzustimmen. In diesem Sinne heißt es im Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“: „Ein gerichtlicher Vergleichsvorschlag ist für die Parteien – jedenfalls faktisch – keine belanglose Option, er ist auf Basis der vorläufigen rechtlichen Bewertung des Sachverhalts mit der Autorität des Gerichts unterbreitet. Sich als Partei gegen diesen Vorschlag und die vorläufige rechtliche Bewertung des Gerichts zu stellen, […] will […] im Hinblick auf eine wohlwollende Verfahrensleitung und den Ausgang des Verfahrens gut überlegt sein.“978 Zwar liegt schon in jeder für den Betroffenen negativ fühlbaren Entscheidung eine Beeinträchtigung, allerdings bemisst sich deren Erheblichkeit nach objektiven Kriterien.979 Die Entscheidung muss potentiell geeignet sein, das Verhalten oder die Wahlmöglichkeiten des Betroffenen zu beeinflussen.980 Das Hineinwirken in die Rechte oder Freiheiten des Betrof- 976 Zur grundsätzlichen Anwendbarkeit von Art. 22 DS-GVO im Zivilprozess siehe Kapitel 3) F.I. Berücksichtigung des Art. 22 DS-GVO im Zivilprozess. 977 Von Lewinski, in: BeckOK Datenschutzrecht, Art. 22 DS-GVO Rn. 37. 978 Abschlussbericht der Länderarbeitsgruppe „Legal Tech: Herausforderungen für die Justiz“ vom 1. Juli 2019, S. 112 f., https://www.schleswig-holstein.de/DE/Lan desregierung/II/Ministerin/Justizministerkonferenz/Downloads/190605_beschlu esse/TOPI_11_Abschlussbericht.html, zuletzt abgerufen am 18. Februar 2020. 979 Von Lewinski, in: BeckOK Datenschutzrecht, Art. 22 DS-GVO Rn. 38. 980 Hladjk, in: Ehmann/Selmayr, DS-GVO, Art. 22 Rn. 9. Kapitel 4) Ausgewählte Anwendungsfälle 214 fenen muss außerdem nachhaltig sein.981 Ein subjektiv empfundenes Störpotential genügt hingegen nicht.982 Richtig ist insofern zwar, dass der Vergleichsvorschlag aus der Sicht der Parteien im Gewand gerichtlicher Autorität übermittelt wird. Allerdings spiegelt der durch ein autonomes System generierte Vorschlag gerade nicht die rechtliche Bewertung des Gerichts, sondern nur eine statistische Wahrscheinlichkeit wider. Es ginge daher zu weit, Richtern eine tendenziöse Verfahrensleitung zu unterstellen, die darauf beruht, dass die Parteien einem Vergleichsvorschlag nicht zugestimmt haben, der nicht einmal der Rechtsauffassung des Gerichts entsprechen muss. Deshalb ist zu differenzieren: Distanziert sich das Gericht in ausreichendem Maße von dem computergenerierten Vorschlag, in dem es ihn mit einem Hinweis auf seinen Ursprung versieht sowie darauf, dass er nicht die Rechtsauffassung des Gerichts widerspiegeln muss, ist das Maß einer erheblichen Beeinträchtigung im Sinne des Art. 22 Abs. 1 DS-GVO nicht erreicht. Eine – auch nur vorläufige – Festlegung des Gerichts kann in der bloßen Weitergabe des – letztlich von Dritten kreierten – Vorschlags nicht gesehen werden. Wird der Vergleichsvorschlag hingegen ohne eine solche Klarstellung übermittelt, werden die Parteien darin eine vorläufige Festlegung des Gerichts erblicken, die sie im Hinblick auf den weiteren Verfahrensgang abzuwägen haben. In diesem Fall wäre eine erhebliche Beeinträchtigung im Sinne des Art. 22 Abs. 1 DS-GVO zu bejahen. Damit ist die kommentarlose Übermittlung eines durch ein autonomes System erstellten Vergleichsvorschlags unzulässig. Das „Vor-Urteil“ In der Literatur gibt es Überlegungen, Computer basierend auf der Analyse von Fällen ein „Vor-Urteil“ erstellen zu lassen, das das Gericht dann nur noch überprüft.983 Damit gemeint ist die automatisierte Erstellung eines vollständig abgefassten Entscheidungsvorschlags in der Form eines Urteilsentwurfs. Dass Entwicklungen in diese Richtung in der Zukunft nicht abwegig sind, zeigen Studien, wonach Übersetzer produktiver arbeiten, wenn sie Texte nicht vollständig selbst übersetzen, sondern sich auf die III. 981 Martini, in: Paal/Pauly, DS-GVO BDSG, Art. 22 DS-GVO Rn. 28. 982 Schulz, in: Gola, DS-GVO, Art. 22 Rn. 26. 983 So Fries, NJW 2016, 2860 (2864). C. Automatisierte Schlüssigkeitsprüfung 215 Korrektur maschineller Vorarbeiten beschränken.984 Zwar ruft eine solche Vorgehensweise Bedenken hervor, es könnte daraus leicht ein Übernahmeautomatismus entstehen.985 Damit einher geht die Sorge, dass eigentlich relevante tatsächliche oder rechtliche Aspekte womöglich keine Beachtung finden, weil sie nicht zur Computerlösung passen. Würde die Änderung eines abweichend von der Computerlösung zu behandelnden Details zum Umsturz der gesamten Lösung führen, könnte die Verlockung, durch Zurückstellen von Bedenken von einer erheblichen Arbeitsersparnis zu profitieren, gar zu groß sein, um ihr nicht nachzugeben. Trotz dieser Gefahren ist die Nutzung automatisierter Anwendungen zur Erstellung eines „Vor- Urteils“ grundsätzlich zulässig. Denn das Gericht ist auch nicht gehindert, sich die Vorarbeiten eines Stationsreferendars zu eigen zu machen.986 Die Überprüfung gewährleistet, dass das Gericht eine eigene Entscheidung trifft. Die Grenze zur Unzulässigkeit überschreitet das Gericht erst dann, wenn es seine eigene Entscheidung durch eine des Computers ersetzt. Zu weit gehen jedoch die Überlegungen von Fries, durch ein autonomes System erstellte rechtliche Hinweise oder gar ein „Vor-Urteil“ den Parteien zukommen zu lassen.987 Anders als beim automatisch generierten Vergleichsvorschlag988 stünde insofern nicht die gütliche Einigung der Parteien, sondern die rechtliche Bewertung des Sach- und Streitstands im Vordergrund. Versendet das Gericht rechtliche Hinweise an die Parteien, müssen diese sich darauf verlassen können, dass das Gericht seine Entscheidung daran auszurichten beabsichtigt. Die Erfüllung der Hinweispflicht nach § 139 ZPO und die Nachvollziehbarkeit des Entscheidungsvorgangs stünden sonst infrage. Auch wäre es prozesswirtschaftlich fragwürdig, die Parteien zu letztlich doch nicht erheblichen Punkten vortragen zu lassen. Den Parteien würde mit der Erteilung der Hinweise beziehungsweise der Übersendung des ausformulierten „Vor-Urteils“ aber suggeriert, dass es sich dabei um die Rechtsauffassung des Gerichts handelt. Damit wäre jedenfalls die sich nach den Hinweisen beziehungsweise dem „Vor-Urteil“ im Nachteil befindliche Partei im Sinne des Art. 22 DS-GVO in ähnlicher Weise erheblich beeinträchtigt. Denn sie wäre gehalten, ihr prozessuales 984 Vgl. zum Wandel der Tätigkeit des Übersetzers durch den Einsatz von Übersetzungssoftware Lenzen, Künstliche Intelligenz, S. 66 f., und oben Kapitel 1) B.VIII. Auswirkungen auf die gerichtliche Arbeitswelt. 985 Siehe hierzu Kapitel 3) A.V.5. Nutzung von automatisierten Anwendungen als Hilfswerkzeug. 986 Vgl. BGH, Urteil vom 23. Oktober 1963 – RiZ 1/62, BGHZ 42, 163, juris Rn. 25. 987 Vgl. Fries, NJW 2016, 2860 (2864). 988 Hierzu vorstehend II. Automatisch generierter Vergleichsvorschlag. Kapitel 4) Ausgewählte Anwendungsfälle 216 Verhalten an der computergenerierten Entscheidung auszurichten und gegebenenfalls kostensparende Prozesserklärungen (Rücknahme, Verzicht, Anerkenntnis) zu erwägen. Insoweit könnte auch ein ergänzender Hinweis darauf, der soeben erteilte rechtliche Hinweis beziehungsweise das übersandte Vor-Urteil stelle womöglich nicht die Auffassung des Gerichts dar, dem nicht abhelfen. Nicht nur die Sinnhaftigkeit eines solchen Vorgehens erschiene zweifelhaft, sondern auch die Nachvollziehbarkeit der richterlichen Entscheidungsfindung aus Sicht der Parteien. Zwischenergebnis Digitale Arbeitshilfen, die der (effizienteren) Organisation des Dezernats dienen, können Gerichte bedenkenfrei nutzen. Bei der Wahl der Arbeitshilfe ist aber genau darauf zu achten, dass mit ihrer Verwendung keine Übertragung von Entscheidungskompetenzen verbunden ist. Hiervon abweichend zu beurteilen ist der Einsatz determinierter Programme mit Bezügen zur Entscheidungsfindung. Insoweit ist zunächst sowohl bei der Verwendung von Berechnungshilfen als auch im Fall der Heranziehung einer automatisierten Schlüssigkeitsprüfung zwischen den aus der Rechtsanwendung herauslösbaren mathematisch-logischen Operationen einerseits und vorzunehmenden Wertungen andererseits zu unterscheiden. Determinierte Programme können zwar mathematische Formeln, die gegebenenfalls auch generalisierbare Wertungsergebnisse enthalten, abbilden. Eigene Wertungen anstellen können und dürfen sie aber nicht. Vielmehr muss das zur Entscheidung berufene Gericht für die Falllösung erforderliche Wertungen selbst vornehmen. Außerdem muss das Gericht den Sachverhalt, der einer Entscheidung zugeführt werden soll, in jedem Einzelfall dahingehend prüfen, ob er für eine automatisierte Bearbeitung durch das Programm überhaupt geeignet ist. Denn determinierte Programme sind auf die Lösung bestimmter, von vornherein festgelegter Konstellationen zugeschnitten und versagen bei der Lösung davon abweichender Fälle. Hiervon losgelöst stoßen Berechnungshilfen (wie etwa im Internet frei verfügbare Prozesskostenhilferechner oder Fristberechnungstools) und automatisierte Schlüssigkeitsprüfungen (beispielsweise eine Applikation zur Bestimmung von Ansprüchen nach der Fluggastrechte-VO) auf Bedenken im Hinblick auf ihre Nachvollziehbarkeit. Ihre Heranziehung zur Entscheidungsfindung begründet deshalb Zweifel an der Wahrung der richterlichen Unabhängigkeit, die aber mit der Implementierung eines Zertifizierungsverfahrens überwunden werden könnten. D. D. Zwischenergebnis 217 Wendet man den Blick auf autonome Systeme, ergeben sich weitere potentielle Einsatzmöglichkeiten: Gerichte könnten von solchen Systemen erstellte automatisierte Vergleichsvorschläge standardmäßig an die Parteien übermitteln. Eine solche Praxis wäre zulässig, wenn das Gericht sich jeweils gleichzeitig in ausreichendem Maße inhaltlich vom Vergleichsvorschlag distanziert. Auch die automatisierte Erstellung eines „Vor-Urteils“ wäre zulässig. Bedingung für seine Übertragung in eine richterliche Entscheidung ist aber, dass das Gericht den computergenerierten Entscheidungsvorschlag inhaltlich vollständig überprüft. Diese Bedingung gilt nicht nur für die Übertragung in ein Urteil. Schon die Übersendung eines ungeprüften bloßen „Vor-Urteils“ oder ungeprüfter prozessleitender Hinweise an die Parteien wäre nicht mit Art. 22 Abs. 1 DS-GVO vereinbar. Denn das Gericht könnte sich hiervon – anders als bei einem automatisch generierten Vergleichsvorschlag – nicht mehr ausreichend distanzieren. Kapitel 4) Ausgewählte Anwendungsfälle 218 Zusammenfassung in Thesen 1. Die Funktionsweise eines determinierten Programms erschöpft sich in der Ausführung der vom Entwickler explizit vorgegebenen Regeln. 2. Autonome Systeme entwickeln aus einem Datenpool eigene Regeln, die nach dem heutigen Stand der Technik weder vorhersehbar noch im Nachhinein vollständig nachvollziehbar sind. 3. Computer hegen zwar selbst keine Vorurteile; jedoch wirken Vorurteile der Programmierer in automatisierten Anwendungen fort. 4. Einer vollständigen Formalisierung des Rechts stehen das fehlende semantische Verständnis von Computern und die juristische Methodik entgegen. Technik kann daher nur für schematische Prüfungen sinnvoll verwendet werden, insbesondere für mathematische Berechnungen. 5. Ob Richter automatisierte Anwendungen tatsächlich einsetzen, richtet sich nicht danach, was diese semantisch oder methodologisch zu leisten imstande sind, sondern nach ihrer Verfügbarkeit und der Praktikabilität der Bedienung. 6. Die Rechtsprechung ist natürlichen Personen als Richtern vorbehalten. Auf dem Boden des Grundgesetzes ist es dem Gesetzgeber verwehrt, Richter durch Computer zu ersetzen. 7. Die richterliche Unabhängigkeit schützt die Rechtsuchenden. Richtern ist es deshalb nicht gestattet, über ihre eigene Unabhängigkeit zu disponieren. 8. Richter dürfen eine determinierte Anwendung nur dann zur Entscheidungsfindung heranziehen, wenn sie die Anwendung nachvollziehen können. Empfehlenswert ist ein Zertifizierungsverfahren, um auch Richtern mit eingeschränktem oder durchschnittlichem Technikverständnis auf verlässlicher Grundlage zu ermöglichen, die Funktionsweise solcher Programme zu verstehen. 9. Um eine unzulässige Einflussnahme Dritter auszuschließen, sollte sich ein Zertifizierungsverfahren auf die Prüfung der Übereinstimmung der Anleitung mit der Funktionsweise der Software beschränken. 10. Die Nutzung eines unerkannt fehlerhaften Algorithmus stellt keinen Verstoß gegen die richterliche Unabhängigkeit dar, wenn es sich um eine zertifizierte Software handelt. 219 11. Richter dürfen grundsätzlich nicht verpflichtet werden, eine bestimmte Software zu benutzen. Der Gesetzgeber darf Richtern die Verwendung einer Software nur in engen Grenzen vorschreiben. 12. Wertentscheidungen obliegen primär dem Gesetzgeber. Belässt der Gesetzgeber einen Wertungsspielraum, ist dieser von den Gerichten auszufüllen. 13. Autonome Systeme dürfen nicht zur Ersetzung der richterlichen Entscheidungsfindung herangezogen werden, weil sich ihre Ergebnisse nicht an Gesetz und Recht ausrichten, sondern sie eigene – für den Menschen nicht genau nachvollziehbare – Regeln entwickeln und diese anwenden. 14. Werden automatisierte Anwendungen lediglich als nicht entscheidungsersetzendes Hilfswerkzeug herangezogen, ist ihre Verwendung ohne Rücksicht auf ihre Nachvollziehbarkeit zulässig. 15. Verstöße gegen die richterliche Unabhängigkeit durch unzulässige Nutzung von automatisierten Anwendungen können durch Maßnahmen der Dienstaufsicht geahndet werden. 16. Die Nutzung automatisierter Anwendungen kann zu Verstößen gegen den Anspruch auf rechtliches Gehör führen. 17. Die unzulässige Verwendung von automatisierten Anwendungen führt nicht zu einer direkten, wohl aber zu einer indirekten Entziehung des gesetzlichen Richters, weil sich das Gericht dadurch seiner Unabhängigkeit enthebt. 18. Da das Fehlen einer angemessenen Begründung der gerichtlichen Entscheidung zu einer Verletzung des Willkürverbots führen kann, ist ein Verstoß dagegen erst recht anzunehmen, wenn sich das Gericht an die Ergebnisse einer von ihm nicht beherrschten automatisierten Anwendung bindet und zur Begründung lediglich auf den Programmeinsatz verweist. 19. Das Zivilprozessrecht ist bislang nicht auf die Verwendung von automatisierten Anwendungen zur Entscheidungsfindung ausgerichtet. Die zivilprozessualen Grundsätze stehen ihrem Einsatz grundsätzlich aber nicht entgegen. 20. Der Einsatz automatisierter Anwendungen zur Entscheidungsfindung ist auch an Art. 22 DS-GVO zu messen. Zulässig ist danach die Verwendung eines nachvollziehbaren determinierten Programms, unzulässig ist hingegen die Heranziehung eines autonomen Systems. 21. Hält ein Gericht die von ihm zur Entscheidungsfindung eingesetzte automatisierte Anwendung für gesetzeskonform, greift das Spruchrichterprivileg nach § 839 Abs. 2 BGB, wobei es auf die Nachvollziehbar- Zusammenfassung in Thesen 220 keit einer determinierten Anwendung nicht ankommt. Anders liegt der Fall bei der Verwendung eines autonomen Systems, weil hier von vornherein nicht von Gesetzeskonformität ausgegangen werden kann. 22. Gerichtliche Organisationshilfen betreffen nicht die richterliche Entscheidungsfindung, so dass ihr Einsatz grundsätzlich unbedenklich ist. 23. Berechnungshilfen können bei hinreichender Nachvollziehbarkeit zur Entscheidungsfindung eingesetzt werden. Die Berechnung darf sich allerdings nur auf mathematisch-logische Komponenten beziehen, wohingegen Bewertungen dem Gericht vorbehalten bleiben müssen. 24. Auch automatisierte Schlüssigkeitsprüfungen können bei hinreichender Nachvollziehbarkeit zur Entscheidungsfindung eingesetzt werden. Der Computereinsatz darf sich wiederum nur auf determiniert programmierbare Komponenten beziehen, wohingegen Bewertungen dem Gericht vorbehalten bleiben müssen. 25. Die Übersendung eines automatisiert erstellten Vergleichsvorschlags an die Parteien ist dann zulässig, wenn das Gericht sich gleichzeitig davon abgrenzt. Automatisierte gerichtliche Hinweise oder gar ein „Vor- Urteil“ dürfen hingegen nicht ungeprüft ausgereicht werden. Zusammenfassung in Thesen 221 Literaturverzeichnis Albrecht, Jan Philipp Das neue EU-Datenschutzrecht – von der Richtlinie zur Verordnung, CR 2016, 88-98 Albrecht, Roland Roboter können wie Insekten handeln, aber nicht denken wie Menschen, Welt vom 16. November 2017, https://www.welt.de/wirtschaft/bilanz/article17067149 3/Roboter-koennen-wie-Insekten-handeln-aber-nicht-d enken-wie-Menschen.html, zuletzt abgerufen am 18. Februar 2020 Alschwee, Brigitte Analyse natürlicher Sprache in einem juristischen Expertensystem, in: Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland, Computergestützte Juristische Expertensysteme, 1986, Tübingen, S. 87-95 (zitiert: Alschwee, in: Erdmann et al., Computergestützte Juristische Expertensysteme) Anderson, Stephanie / Belot, Henry Centrelink debt recovery system failures have ‘frightened’ recipients, Andrew Wilkie says, ABC News vom 4. Januar 2017, https://www.abc.net.au/news/2017-01-0 4/centrelink-debt-recovery-system-designed-by-dunder head-wilkie/8160990, zuletzt abgerufen am 18. Februar 2020 Bamberger, Heinz Georg / Roth, Herbert / Hau, Wolfgang / Poseck, Roman (Hrsg.) Beck’scher Online-Kommentar BGB, 51. Edition, Stand 1. August 2019, München (zitiert: Bearbeiter, in: BeckOK BGB) Beck, Susanne Grundlegende Fragen zum rechtlichen Umgang mit der Robotik, JR 2009, 225-230 Becker, Ulrich / Hatje, Armin / Schon, Johann / Schwarze, Jürgen (Hrsg.) EU-Kommentar, 4. Auflage 2019, Baden-Baden (zitiert: Bearbeiter, in: Schwarze et al., EU-Kommentar) Benda, Ernst Bemerkungen zur richterlichen Unabhängigkeit, DRiZ 1975, 166-171 223 Berkemann, Jörg Der richterliche Arbeitsplatz der Zukunft, in: Hoppe, Werner / Krawietz, Werner / Schulte, Martin, Rechtsprechungslehre, 1992, Köln u. a, S. 609-625 (zitiert: Berkemann, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre) Berlemann, Michael / Christmann, Robin Do judges react to the probability of appellate review? Empirical evidence from trial court procedures, Diskussionspapier 154, 2014, Helmut-Schmidt-Universität Hamburg (zitiert: Berlemann/Christmann, Diskussionspapier 154, 2014) dies. Determinants of In-Court Settlements, Empirical Evidence from a German Trial Court, Diskussionspapier 155, 2014, Helmut- Schmidt-Universität Hamburg (zitiert: Berlemann/Christmann, Diskussionspapier 155, 2014) dies. / Focken, Niels Lassen sich Vergleich und Berufung vorhersagen?, DRiZ 2016, 62-65 Berlit, Uwe Richterliche Unabhängigkeit und elektronische Akte, JurPC Web-Dok. 77/2012, https://www.jurpc.de/jurpc/ show?id=20120077, zuletzt abgerufen am 18. Februar 2020 Beuth, Patrick Die rätselhafte Gedankenwelt eines Computers, Zeit Online vom 24. März 2017, https://www.zeit.de/digital /internet/2017-03/kuenstliche-intelligenz-black-box-tra nsparenz-fraunhofer-hhi-darpa/komplettansicht, zuletzt abgerufen am 18. Februar 2020 ders. Feindbild Algorithmus, Zeit Online vom 14. Oktober 2017, https://www.zeit.de/digital/internet/2017-10/ google-facebook-algorithmen-regulierung-bundestag-g utachten/komplettansicht, zuletzt abgerufen am 18. Februar 2020 ders. / Breithut, Jörg Patienten-Software benachteiligt Millionen Afroamerikaner, Spiegel Online vom 25. Oktober 2019, https://w ww.spiegel.de/netzwelt/apps/usa-algorithmus-benachte iligt-afroamerikanische-patienten-a-1293382.html, zuletzt abgerufen am 18. Februar 2020 Bezzenberger, Tilman Ethnische Diskriminierung, Gleichheit und Sittenordnung im bürgerlichen Recht, AcP 196 (1996), 395-434 Literaturverzeichnis 224 Bieresborn, Dirk Die Auswirkungen der DSGVO auf das gerichtliche Verfahren, DRiZ 2019, 18-23 Biselli, Anna Vorratsdatenspeicherung in Dänemark: Ein IT-Fehler könnte zu falschen Urteilen geführt haben, netzpolitik.org vom 9. Juli 2019, https://netzpolitik.org/2019/v orratsdatenspeicherung-in-daenemark-ein-it-fehler-koe nnte-zu-falschen-urteilen-gefuehrt-haben/, zuletzt abgerufen am 18. Februar 2020 Boehme-Neßler, Volker Die Macht der Algorithmen und die Ohnmacht des Rechts, NJW 2017, 3031-3037 Bonin, Holger / Gregory, Terry / Zierahn, Ulrich Übertragung der Studie von Frey/Osborne (2013) auf Deutschland, Endbericht vom 14. April 2015, Kurzexpertise Nr. 57, Zentrum für Europäische Wirtschaftsforschung GmbH, Mannheim (zitiert: Bonin et al., Übertragung der Studie von Frey/ Osborne auf Deutschland) Borges, Georg Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, 977-982 Boyle, Alan Microsoft’s chatbot gone bad, Tay, makes MIT’s annual list of biggest technology fails, GeekWire vom 27. Dezember 2016, https://www.geekwire.com/2016/ microsoft-chatbot-tay-mit-technology-fails/, zuletzt abgerufen am 18. Februar 2020 Brandhoff, Jochen Digitale Transformation der Rechtsberatung – Kennen Sie Hatsune Miku?, LTO vom 3. Januar 2019, https://w ww.lto.de/recht/kanzleien-unternehmen/k/innovationrechtsmarkt-digitaler-wandel-legal-tech-juristen-beruf-h atsune-miku/, zuletzt abgerufen am 18. Februar 2020 Breidenbach, Stephan Kapitel 1.5: Argumente gegen Legal Tech, Kapitel 2: Industrialisierung des Rechts, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Breidenbach, in: ders./Glatz, RHB Legal Tech) ders. / Gaier, Reinhard Kapitel 7.2: Strukturierter Vortrag – Zur Digitalisierung des Zivilprozesses, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Breidenbach/Gaier, in: Breidenbach/Glatz, RHB Legal Tech) Literaturverzeichnis 225 Breidenbach, Stephan / Glatz, Florian Kapitel 1.1: Die Digitalisierung des Rechts, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Breidenbach/Glatz, in: dies., RHB Legal Tech) Brink, Stefan / Wolff, Heinrich Amadeus (Hrsg.) Beck’scher Online-Kommentar Datenschutzrecht, 29. Edition, 1. August 2019, München (zitiert: Bearbeiter, in: BeckOK Datenschutzrecht) Buchholtz, Gabriele Legal Tech – Chancen und Risiken digitaler Rechtsanwendung, JuS 2017, 955-960 Bues, Micha-Manuel Was ist „Legal Tech“?, Legal Tech Blog vom 2. September 2015, https://legal-tech-blog.de/was-ist-legal-tech, zuletzt abgerufen am 18. Februar 2020 ders. Kapitel 7.3: Artificial Intelligence im Recht, in: Hartung, Markus / Bues, Micha-Manuel / Halbleib, Gernot, Legal Tech – Die Digitalisierung des Rechtsmarkts, 2018, München (zitiert: Bues, in: Hartung/Bues/Halbleib, Legal Tech) von Bünau, Paul Kapitel 3: Künstliche Intelligenz im Recht, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: von Bünau, in: Breidenbach/Glatz, RHB Legal Tech) Callies, Christian / Ruffert, Matthias (Hrsg.) EUV/AEUV – Das Verfassungsrecht der Europäischen Union mit Europäischer Grundrechtecharta, 5. Auflage 2016, München (zitiert: Bearbeiter, in: Callies/Ruffert, EUV/AEUV) Card, Dallas The “black box” metaphor in machine learning, Towards Data Science vom 5. Juli 2017, https://towardsda tascience.com/the-black-box-metaphor-in-machine-lear ning-4e57a3a1d2b0? gi=be24c5f0c76d, zuletzt abgerufen am 18. Februar 2020 Castelvecchi, Davide The Black Box of AI, Nature 538 (2016), 20-23 Chollet, François Deep Learning mit Python und Keras, 2018, Frechen Czernik, Agnieszka Was ist ein Algorithmus – Definition und Beispiele, https://www.datenschutzbeauftragter-info.de/was-ist-ei n-algorithmus-definition-und-beispiele/, zuletzt abgerufen am 18. Februar 2020 Literaturverzeichnis 226 Dammann, Ulrich Erfolge und Defizite der EU-Datenschutzgrundverordnung – Erwarteter Fortschritt, Schwächen und überraschende Innovationen, ZD 2016, 307-314 Denga, Michael Deliktische Haftung für künstliche Intelligenz – Warum die Verschuldenshaftung des BGB auch künftig die bessere Schadensausgleichsordnung bedeutet, CR 2018, 69-78 Dörr, Dieter / Natt, Alexander Suchmaschine und Meinungsvielfalt, ZUM 2014, 829-847 Dräger, Jörg Dem Menschen Untertan, Algorithmenethik vom 24. August 2017, https://algorithmenethik.de/2017/08/ 24/dem-menschen-untertan/, zuletzt abgerufen am 18. Februar 2020 ders. Wir führen in Deutschland eine falsche KI-Debatte, Handelsblatt vom 4. April 2019, https://www.handelsb latt.com/meinung/gastbeitraege/gastkommentar-wir-fu ehren-in-deutschland-eine-falsche-ki-debatte/24178002. html, zuletzt abgerufen am 18. Februar 2020 Dreier, Horst (Hrsg.) Grundgesetz Kommentar, Band II, Artt. 20-82, 3. Auflage 2015, Tübingen (zitiert: Bearbeiter, in: Dreier, GG) ders. (Hrsg.) Grundgesetz Kommentar, Band III, Artt. 83-146, 3. Auflage 2018, Tübingen (zitiert: Bearbeiter, in: Dreier, GG) Dreyer, Stephan / Schmees, Johannes Künstliche Intelligenz als Richter? – Wo keine Trainingsdaten, da kein Richter – Hindernisse, Risiken und Chancen der Automatisierung gerichtlicher Entscheidungen, CR 2019, 758-764 Düll, Nicola / Bertschek, Irene / Dworschak, Bernd / Meil, Pamela / Niebel, Thomas / Ohnemus, Jörg / Vetter, Tim / Zaiser, Helmut Arbeitsmarkt 2030 – Digitalisierung der Arbeitswelt, Juli 2016, München, http://ftp.zew.de/pub/zew-docs/g utachten/ERC_Arbeitsmarkt2030-Prognose2016-Fache xpertisen.pdf, zuletzt abgerufen am 18. Februar 2020 (zitiert: Düll et al., Arbeitsmarkt 2030 – Digitalisierung der Arbeitswelt) Durner, Wolfgang Zur Einführung: Datenschutzrecht, JuS 2006, 213-217 Literaturverzeichnis 227 Dzida, Boris / Groh, Naemi Diskriminierung nach dem AGG beim Einsatz von Algorithmen im Bewerbungsverfahren, NJW 2018, 1917-1922 Ehinger, Patrick / Stiemerling, Oliver Die urheberrechtliche Schutzfähigkeit von Künstlicher Intelligenz am Beispiel von Neuronalen Netzen, CR 2018, 761-769 Ehmann, Eugen / Selmayr, Martin (Hrsg.) DS-GVO Datenschutz-Grundverordnung, 2. Auflage 2018, München (zitiert: Bearbeiter, in: Ehmann/Selmayr, DS-GVO) Enders, Peter Einsatz künstlicher Intelligenz bei juristischer Entscheidungsfindung, JA 2018, 721-727 Engel, Martin Algorithmisierte Rechtsfindung als juristische Arbeitshilfe, JZ 2014, 1096-1100 Engisch, Karl Logische Studien zur Gesetzesanwendung, 2. Auflage 1960, Heidelberg Epping, Volker / Hillgruber, Christian (Hrsg.) Beck’scher Online-Kommentar Grundgesetz, 41. Edition, Stand 15. Mai 2019, München (zitiert: Bearbeiter, in: BeckOK GG) Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland (Hrsg.) Computergestützte Juristische Expertensysteme, 1986, Tübingen (zitiert: Erdmann et al., Computergestützte Juristische Expertensysteme) Erman, Walter Alexander (Begr.) BGB, 15. Auflage 2017, Köln (zitiert: Bearbeiter, in: Erman, BGB) Ernst, Christian Algorithmische Entscheidungsfindung und personenbezogene Daten, JZ 2017, 1026-1036 Ertel, Wolfgang Grundkurs Künstliche Intelligenz – Eine praxisorientierte Einführung, 4. Auflage 2016, Wiesbaden (zitiert: Ertel, Grundkurs Künstliche Intelligenz) Eskesen, Lotte Digitales Dänemark, DRiZ 2018, 56-57 Fiebig, Peggy Wie Algorithmen Juristen ersetzen, Deutschlandfunk vom 5. Juni 2019, https://www.deutschlandfunk.de/di gitalisierung-in-der-justiz-wie-algorithmen-juristen.724 .de.html?dram:article_id=450642, zuletzt abgerufen am 18. Februar 2020 Literaturverzeichnis 228 Fikentscher, Wolfgang Methoden des Rechts in vergleichender Darstellung, Band IV, 1977, Tübingen (zitiert: Fikentscher, Methoden des Rechts ) Fischer, Frank O. Die Arbeitsbelastung der Zivilrichter am Amtsgericht, DRiZ 2015, 392-395 Fischer, Thomas Strafgesetzbuch mit Nebengesetzen, 66. Auflage 2019, München (zitiert: Fischer, StGB) Frese, Yorck Recht im zweiten Maschinenzeitalter, NJW 2015, 2090-2092 Frey, Carl Benedikt / Osborne, Michael A. The Future of Employment: How susceptible are Jobs to Computerisation, 17. September 2013, https://www. oxfordmartin.ox.ac.uk/downloads/academic/future-ofemployment.pdf, zuletzt abgerufen am 18. Februar 2020 Fries, Martin PayPal Law und Legal Tech – Was macht die Digitalisierung mit dem Privatrecht?, NJW 2016, 2860-2865 Fritz, Luisa Zulässigkeit automatisierter außergerichtlicher Rechtsdienstleistungen, 2019, Hamburg Gaier, Reinhard Strukturiertes Parteivorbringen im Zivilprozess, ZRP 2015, 101-104 ders. Kapitel 7.1: Strukturiertes Parteivorbringen im Zivilprozess, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Gaier, in: Breidenbach/Glatz, RHB Legal Tech) Gerberding, Johannes / Wagner, Gert G. Qualitätssicherung für „Predictive Analytics“ durch digitale Algorithmen, ZRP 2019, 116-119 Giesen, Richard / Kreikebohm, Ralf / Rolfs, Christian / Udsching, Peter (Hrsg.) Beck’scher Online-Kommentar Sozialrecht, 54. Edition, Stand 1. September 2019, München (zitiert: Bearbeiter, in: BeckOK Sozialrecht) Glöckner, Andreas / Towfigh, Emanuel V. Entscheidungen zwischen „Intuition“ und „Rationalität“, DRiZ 2015, 270-273 Gola, Peter (Hrsg.) Datenschutz-Grundverordnung, 2. Auflage 2018, München (zitiert: Bearbeiter, in: Gola, DS-GVO) Literaturverzeichnis 229 Graf, Jürgen-Peter (Hrsg.) Beck’scher Online-Kommentar GVG, 4. Edition, Stand 1. August 2019, München (zitiert: Bearbeiter, in: BeckOK GVG) Grolle, Johann Wenn der Computer versteht, was er liest, Spiegel Online vom 23. Januar 2018, https://www.spiegel.de/wiss enschaft/mensch/kuenstliche-intelligenz-wenn-der-co mputer-versteht-was-er-liest-a-1189094.html, zuletzt abgerufen am 18. Februar 2020 Gröschner, Ralf Der Streit als Vater aller Fälle, JZ 2018, 737-745 Grundmann, Stefan Juristische Expertensysteme – Brücke von (Rechts)informatik zu Rechtstheorie, in: Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland, Computergestützte Juristische Expertensysteme, 1986, Tübingen, S. 97-110 (zitiert: Grundmann, in: Erdmann et al., Computergestützte Juristische Expertensysteme) Grupp, Michael 25 facts about AI & Law you always wanted to know (but were afraid to ask), Medium vom 7. April 2019, https://medium.com/@Grupp/25-facts-about-ai-law-yo u-always-wanted-to-know-but-were-afraid-to-ask-a43fd9 568d6d, zuletzt abgerufen am 18. Februar 2020 ders. Legal Tech – Impulse für Streitbeilegung und Rechtsdienstleistung, AnwBl 2014, 660-665 Grützmacher, Malte / Heckmann, Jörn Autonome Systeme und KI – vom vollautomatisierten zum autonomen Vertragsschluss?, CR 2019, 553-561 Guckelberger, Annette / Starosta, Gina Rechtsschutzgarantie als Taktgeber für die Digitalisierung der Justiz, DRiZ 2020, 22-25 Guggenberger, Leonid Einsatz künstlicher Intelligenz in der Verwaltung, NVwZ 2019, 844-850 Günther, Jan-Philipp Roboter und rechtliche Verantwortung, 2014, München Haft, Fritjof Einführung in die Rechtsinformatik, 1977, Freiburg/ München ders. Juristische Erwartungen an Expertensysteme, in: Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland, Computergestützte Juristische Expertensysteme, 1986, Tübingen, S. 21-48 (zitiert: Haft, in: Erdmann et al., Computergestützte Juristische Expertensysteme) Literaturverzeichnis 230 ders. Computergestützte Entscheidungsfindung, in: Hoppe, Werner / Krawietz, Werner / Schulte, Martin, Rechtsprechungslehre, 1992, Köln u. a, S. 589-607 (zitiert: Haft, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre) Hao, Karen / Stray, Jonathan Can you make AI fairer than a judge? Play our courtroom algorithm game, MIT Technology Review vom 17. Oktober 2019, https://www.technologyreview.com/ s/613508/ai-fairer-than-judge-criminal-risk-assessment-a lgorithm/?etcc_med=newsletter&etcc_cmp=nl_algoeth ik_13834&etcc_plc=aufmacher&etcc_grp=, zuletzt abgerufen am 18. Februar 2020 Harke, Jan Dirk (Hrsg.) beck-online.GROSSKOMMENTAR Fluggastrechte- VO, Stand 1. Juni 2019, München (zitiert: Bearbeiter, in: BeckOGK Fluggastrechte-VO) Härtel, Ines Digitalisierung im Lichte des Verfassungsrechts – Algorithmen, Predictive Policing, autonomes Fahren, LKV 2019, 49-60 Hartung, Markus „Legal Tech“ – eine Bestandsaufnahme, Der Wirtschaftsführer 2016-2017, 16-18 ders. / Meising, Ulrike Legal Tech im Familienrecht, NZFam 2019, 982-987 Heckelmann, Martin Zulässigkeit und Handhabung von Smart Contracts, NJW 2018, 504-510 Hegemann, Lisa Weiblich, Ehefrau, kreditunwürdig?, Zeit Online vom 21. November 2019, https://www.zeit.de/digital/datens chutz/2019-11/apple-card-kreditvergabe-diskriminieru ng-frauen-algorithmen-goldman-sachs/komplettansich t, zuletzt abgerufen am 18. Februar 2020 Heintschel-Heinegg, Bernd von (Hrsg.) Beck’scher Online-Kommentar StGB, 43. Edition, Stand 1. August 2019, München (zitiert: Bearbeiter, in: BeckOK StGB) Literaturverzeichnis 231 Helbing, Dirk / Frey, Bruno S. / Gigerenzer, Gerd / Hafen, Ernst / Hagner, Michael / Hofstetter, Yvonne / van den Hoven, Jeroen / Zicari, Roberto V. / Zwitter, Andrej Digitale Demokratie statt Datendiktatur, Spektrum der Wissenschaft vom 17. Dezember 2015, https://ww w.spektrum.de/news/wie-algorithmen-und-big-data-un sere-zukunft-bestimmen/1375933, zuletzt abgerufen am 18. Februar 2020 (zitiert: Helbing et al., Digitale Demokratie statt Datendiktatur, Spektrum der Wissenschaft vom 17. Dezember 2015) Heldt, Amélie Pia Transparenz bei algorithmischen Entscheidungen – Food for Thoughts, CR 2018, 494-500 Henssler, Martin Prozessfinanzierende Inkassodienstleister – Befreit von den Schranken des anwaltlichen Berufsrechts?, NJW 2019, 545-550 Herberger, Maximilian „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829 Hilgendorf, Eric Können Roboter schuldhaft handeln?, in: Hilgendorf, Eric / Beck, Susanne, Jenseits von Mensch und Maschine, Band 1, 2012, Baden-Baden, S. 119-132 (zitiert: Hilgendorf, in: ders./Beck, Jenseits von Mensch und Maschine) Hirsch, Günter „Vom Vorurteil zum Urteil“ – Kein Richter geht „jungfräulich“ an die Entscheidung eines Falls, ZRP 2009, 61-62 Hirtz, Bernd Die Zukunft des Zivilprozesses, NJW 2014, 2529-2533 Hoffmann-Riem, Wolfgang Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für das Recht, AöR 142 (2017), 1-42 Hömig, Dieter (Begr.) / Seifert, Karl-Heinz (Begr.) / Wolff, Heinrich Amadeus (Hrsg.) Grundgesetz für die Bundesrepublik Deutschland, 12. Auflage 2018, Baden-Baden (zitiert: Bearbeiter, in: Hömig/Wolff, GG) Jäger, Kathleen Unbewusste Vorurteile und ihre Bedeutung für den Richter, DRiZ 2018, 24-27 Jarass, Hans D. Charta der Grundrechte der Europäischen Union, 3. Auflage 2016, München (zitiert: Jarass, GRC) Literaturverzeichnis 232 Jung, Marcus Ein Lastwagen voller Papier – 650.000 Seiten Klageschrift, FAZ vom 24. Juni 2019, https://www.faz.net/ak tuell/wirtschaft/unternehmen/anwaelte-vertreten-daim ler-im-prozess-um-ein-lkw-kartell-16252012.html, zuletzt abgerufen am 18. Februar 2020 Käde, Lisa / von Maltzan, Stephanie Die Erklärbarkeit von Künstlicher Intelligenz (KI) – Entmystifizierung der Black Box und Chancen für das Recht, CR 2020, 66-72 Kahl, Wolfgang / Waldhoff, Christian / Walter, Christian (Hrsg.) Bonner Kommentar zum Grundgesetz, Loseblattsammlung, Ordner 18, Stand 167. Aktualisierung Mai 2014, Heidelberg (zitiert: Bearbeiter, in: Bonner Kommentar) Kastl, Graziana Algorithmen – Fluch oder Segen?, GRUR 2015, 136-141 Kaufmann, Annelie / Sehl, Markus Studie zu Klagerückgang an Zivilgerichten, LTO vom 8. August 2019, https://www.lto.de/recht/justiz/j/justizklage-rueckgang-studie-bmjv-zivil-gericht-rechtsschutzzugang-zum-recht/, zuletzt abgerufen am 18. Februar 2020 Kaufmann, Felix Logik und Rechtswissenschaft – Grundriss eines Systems der reinen Rechtslehre, 1966, Tübingen Kaulartz, Markus Die Blockchain-Technologie, CR 2016, 474-480 ders. Rechtliche Grenzen bei der Gestaltung von Smart Contracts, in: Taeger, Jürgen, Smart World – Smart Law?, 2016, Edewecht, S. 1023-1038 (zitiert: Kaulartz, in: Taeger, Smart World – Smart Law?) ders. / Heckmann, Jörn Smart Contracts – Anwendungen der Blockchain- Technologie, CR 2016, 618-624 Keller, Rolf Die Automation des Mahnverfahrens – Schwerpunkte einer Projektentwicklung, NJW 1981, 1184-1188 Kelsen, Hans Allgemeine Theorie der Normen, 1979, Wien Kern, Eduard Der gesetzliche Richter, 1927, Berlin Kersten, Jens Menschen und Maschinen, JZ 2015, 1-8 Keßler, Oliver Intelligente Roboter – neue Technologien im Einsatz – Voraussetzungen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR 2017, 589-594 Literaturverzeichnis 233 Kilian, Matthias Die Zukunft der Juristen – Weniger, anders, weiblicher, spezialisierter, alternativer – und entbehrlicher?, NJW 2017, 3043-3050 Kilian, Wolfgang Juristische Entscheidung und elektronische Datenverarbeitung, 1974, Frankfurt am Main ders. Idee und Wirklichkeit der Rechtsinformatik in Deutschland, CR 2017, 202-212 Kirn, Stefan / Müller-Hengstenberg, Claus D. Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie? Verselbstständigung technischer Systeme, MMR 2014, 225-232 Klaas, Arne Demokratieprinzip im Spannungsfeld mit künstlicher Intelligenz, MMR 2019, 84-90 Kloepfer, Michael Gesetzgebungsoutsourcing – Die Erstellung von Gesetzentwürfen durch Rechtsanwälte, NJW 2011, 131-134 Kluge, Vanessa / Müller, Anne-Kathrin Autonome Systeme – Überlegungen zur Forderung nach einer „Roboterhaftung“, in: Taeger, Jürgen, Smart World – Smart Law?, 2016, Edewecht, S. 989-1006 (zitiert: Kluge/Müller, in: Taeger, Smart World – Smart Law?) Koch, Hans-Joachim / Rüßmann, Helmut Juristische Begründungslehre – Eine Einführung in Grundprobleme der Rechtswissenschaft, 1982, München (zitiert: Koch/Rüßmann, Juristische Begründungslehre) Kotsoglou, Kyriakos N. Subsumtionsautomat 2.0, JZ 2014, 451-457 Krakovsky, Marina Finally, a peek inside the ‘black box’ of machine learning systems, Stanford Engineering vom 25. April 2017, https://engineering.stanford.edu/magazine/article/final ly-peek-inside-black-box-machine-learning-systems, zuletzt abgerufen am 18. Februar 2020 Kramer, Ernst A. Juristische Methodenlehre, 5. Auflage 2016, Bern u. a. Kremp, Matthias Diese künstliche Intelligenz schreibt beängstigend gut, Spiegel Online vom 7. November 2019, https://www.s piegel.de/netzwelt/web/talk-to-transformer-kuenstliche -intelligenz-schreibt-texte-fertig-a-1295116.html, zuletzt abgerufen am 18. Februar 2020 Literaturverzeichnis 234 Krempl, Stefan „Algorithmen-TÜV“: Deutsches KI-Observatorium soll noch 2019 starten, heise online vom 12. November 2019, https://www.heise.de/newsticker/meldung/Algor ithmen-TUeV-Deutsches-KI-Observatorium-soll-noch-2 019-starten-4584781.html, zuletzt abgerufen am 18. Februar 2020 (zitiert: Krempl, Algorithmen-TÜV, heise online vom 12. November 2019) Krumm, Carsten Fahrverbot in Bußgeldsachen, 4. Auflage 2017, Baden- Baden Krumm, Marcel Grundfragen des steuerlichen Datenverarbeitungsrechts, DB 2017, 2182-2195 Kühling, Jürgen / Buchner, Benedikt (Hrsg.) Datenschutz-Grundverordnung / BDSG, 2. Auflage 2018, München (zitiert: Bearbeiter, in: Kühling/Buchner, DS-GVO/ BDSG) Kühling, Jürgen / Martini, Mario / Heberlein, Johanna / Kühl, Benjamin / Nink, David / Weinzierl, Quirin / Wenzel, Michael Die Datenschutz-Grundverordnung und das nationale Recht, 2016, http://www.foev-speyer.de/files/de/downl oads/Kuehling_Martini_et_al_Die_DSGVO_und_das_ nationale_Recht_2016.pdf, zuletzt abgerufen am 18. Februar 2020 (zitiert: Kühling et al., Die DS-GVO und das nationale Recht) Kuhlmann, Nico Legal Tech in einer smarten Welt – Ermöglichungsund Beschränkungspotenzial, in: Taeger, Jürgen, Smart World – Smart Law?, 2016, Edewecht, S. 1039-1052 (zitiert: Kuhlmann, in: Taeger, Smart World – Smart Law?) ders. Baum der Erkenntnis nicht nur im Paradies verboten, LTO vom 14. Juni 2019, https://www.lto.de/recht/zuk unft-digitales/l/frankreich-legal-tech-beschraenkung-pr edictive-analysis-verbotene-erkenntnis/, zuletzt abgerufen am 18. Februar 2020 Larenz, Karl Methodenlehre der Rechtswissenschaft, 6. Auflage 1991, Berlin u. a. Larenz, Karl / Canaris, Claus-Wilhelm Methodenlehre der Rechtswissenschaft, 3. Auflage 1995, Berlin u. a. Literaturverzeichnis 235 Larson, Jeff / Mattu, Surya / Kirchner, Lauren / Angwin, Julia How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23. Mai 2016, https://www.pro publica.org/article/how-we-analyzed-the-compas-recidi vism-algorithm, zuletzt abgerufen am 18. Februar 2020 (zitiert: Larson et al., How We Analyzed the COMPAS Recidivism Algorithm, ProPublica vom 23. Mai 2016) Ledford, Heidi Millions affected by racial bias in health-care algorithms, Nature 574 (2019), 608-609 Lehmann, Hubert Formale Repräsentation juristischen Wissens, in: Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland, Computergestützte Juristische Expertensysteme, 1986, Tübingen, S. 75-86 (zitiert: Lehmann, in: Erdmann et al., Computergestützte Juristische Expertensysteme) Leibholz, Gerhard / Rinck, Hans-Justus (Begr.) Grundgesetz, Stand 78. Lieferung Mai 2019 (zitiert: Bearbeiter, in: Leibholz/Rinck, GG) Leith, Philip Fundamental Errors in Legal Logic Programming, The Computer Journal 1986, 545-552 Lenzen, Manuela Künstliche Intelligenz – Was sie kann & was uns erwartet, 2018, München (zitiert: Lenzen, Künstliche Intelligenz) Lewis, Peter R. / Platzner, Marco / Rinner, Bernhard / Tørressen, Jim Self-aware Computing Systems, 2016, Schweiz (zitiert: Lewis et al., Self-aware Computing Systems) Lohmann, Melinda F. Ein europäisches Roboterrecht – überfällig oder überflüssig?, ZRP 2017, 168-171 Lorenz, Stephan Arglist und Sachmangel – Zum Begriff der Pflichtverletzung in § 323 V 2 BGB, NJW 2006, 1925-1927 Löschhorn, Alexander Pflicht zur Nutzung des besonderen elektronischen Anwaltspostfachs (beA) und zur anwaltlichen Verschwiegenheit, MMR 2018, 204-209 Luckey, Jan / Putzke, Holm / Putzke, Christina Schmerzensgeldbemessung – ist Billigkeit berechenbar?, JR 2019, 311-319 v. Mangoldt, Hermann (Begr.) / Klein, Friedrich / Starck, Christian v. Mangoldt/Klein/Starck, Grundgesetz, Band 3, Artt. 83-146, 7. Auflage 2018, München (zitiert: Bearbeiter, in: v. Mangoldt/Klein/Starck, GG) Literaturverzeichnis 236 Markoff, John Armies of Expensive Lawyers, Replaced by Cheaper Software, The New York Times vom 4. März 2011, https://www.nytimes.com/2011/03/05/science/05legal. html?_r=0, zuletzt abgerufen am 18. Februar 2020 Martini, Mario Big Data als Herausforderung für den Persönlichkeitsschutz und das Datenschutzrecht, DVBl 2014, 1481-1489 ders. Algorithmen als Herausforderung für die Rechtsordnung, JZ 2017, 1017-1025 ders. / Botta, Jonas / Kolain, Michael Automatisch erlaubt? – Fünf Anwendungsfälle algorithmischer Systeme auf dem juristischen Prüfstand, Januar 2020, https://www.bertelsmann-stiftung.de/filea dmin/files/BSt/Publikationen/GrauePublikationen/Aut omatisch_erlaubt_final.pdf, zuletzt abgerufen am 18. Februar 2020 (zitiert: Martini et al., Automatisch erlaubt?) Martini, Mario / Nink, David Wenn Maschinen entscheiden… – vollautomatisierte Verwaltungsverfahren und der Persönlichkeitsschutz, NVwZ-Extra 10/2017, 1-14 Marx, Iris Legal Tech – wann kommt der Robo-Richter?, DRiZ 2018, 422 Maunz, Theodor / Dürig, Günter (Begr.) Grundgesetz Kommentar, Band VI, Artt. 87a-106b, Stand 87. EL März 2019, München (zitiert: Bearbeiter, in: Maunz/Dürig, GG) Maurer, Hartmut Rechtsstaatliches Prozeßrecht, in: Badura, Peter / Dreier, Horst, Festschrift 50 Jahre Bundesverfassungsgericht, Zweiter Band, 2001, Tübingen, S. 467-503 (zitiert: Maurer, in: FS 50 Jahre BVerfG) Meier, Christian J. IBMs virtueller Arzt macht Fehler, NZZ vom 9. August 2018, https://www.nzz.ch/wissenschaft/ibms-virtu eller-arzt-watson-for-oncology-macht-fehler-ld.141011 1, zuletzt abgerufen am 18. Februar 2020 Mellouli, Taïeb Enzyklopädie der Wirtschaftsinformatik, Online-Lexikon, http://www.enzyklopaedie-der-wirtschaftsinforma tik.de, Stichwort „Algorithmus“, zuletzt abgerufen am 18. Februar 2020 (zitiert: Mellouli, Enzyklopädie der Wirtschaftsinformatik: Algorithmus) Literaturverzeichnis 237 Meyer, Jan-Bernd Interview mit Wolfgang Wahlster – „Künstliche Intelligenz ist besser als natürliche Dummheit“, Computerwoche vom 17. Mai 2015, https://www.computerwoch e.de/a/kuenstliche-intelligenz-ist-besser-als-natuerlichedummheit,3210426, zuletzt abgerufen am 18. Februar 2020 (zitiert: Meyer, Künstliche Intelligenz ist besser als natürliche Dummheit, Computerwoche vom 17. Mai 2015) Meyer, Jürgen / Hölscheidt, Sven (Hrsg.) Charta der Grundrechte der Europäischen Union, 5. Auflage 2019, Baden-Baden (zitiert: Bearbeiter, in: Meyer/Hölscheidt, GRC) Möllers, Thomas M. J. Juristische Methodenlehre, 2. Auflage 2019, München Müller-Hengstenberg, Claus D. / Kirn, Stefan Intelligente (Software-)Agenten: Eine neue Herausforderung unseres Rechtssystems – Rechtliche Konsequenzen der „Verselbstständigung“ technischer Systeme, MMR 2014, 307-313 Musielak, Joachim / Voit, Wolfgang (Hrsg.) Zivilprozessordnung, 16. Auflage 2019, München (zitiert: Bearbeiter, in: Musielak/Voit, ZPO) Nack, Armin Richter am Computer, in: Erdmann, Ulrich / Fiedler, Herbert / Haft, Fritjof / Traunmüller, Roland, Computergestützte Juristische Expertensysteme, 1986, Tübingen, S. 191-220 (zitiert: Nack, in: Erdmann et al., Computergestützte Juristische Expertensysteme) Nevejans, Nathalie European Civil Law in Robotics, Europäisches Parlament, 2016, https://op.europa.eu/de/publication-detail/ -/publication/19ea0f1c-9ab0-11e6-868c-01aa75ed71a1/la nguage-de, zuletzt abgerufen am 18. Februar 2020 Nicolai, Jakob / Wölber, Jill Zukunftsoffene und verbraucherfreundliche Justiz – Überlegungen zu einem Beschleunigten Online-Verfahren für geringe Streitwerte, ZRP 2018, 229-233 Ogorek, Regina Aufklärung über Justiz, Zweiter Halbband: Richterkönig oder Subsumtionsautomat? – Zur Justiztheorie im 19. Jahrhundert, 2. Auflage 2008, Frankfurt am Main (zitiert: Ogorek, Richterkönig oder Subsumtionsautomat?) Ory, Stephan / Sorge, Christoph Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710-713 Literaturverzeichnis 238 Ory, Stephan / Weth, Stephan Betroffenenrechte in der Justiz – Die DS-GVO auf Konfrontationskurs mit der ZPO?, NJW 2018, 2829-2834 Paal, Boris P., / Pauly, Daniel A. (Hrsg.) Datenschutzgrundverordnung Bundesdatenschutzgesetz, 2. Auflage 2018, München (zitiert: Bearbeiter, in: Paal/Pauly, DS-GVO/BDSG) Pahlke, Armin Typusbegriff und Typisierung, DStR-Beih 2011, 66-71 Palandt, Otto (Begr.) Bürgerliches Gesetzbuch mit Nebengesetzen, 79. Auflage 2020, München (zitiert: Bearbeiter, in: Palandt, BGB) Papastefanou, Stefan Genetic Breeding Algorithms als Form des „Machine Learning“ im Urheber- und Patentrecht, CR 2019, 209-215 Papier, Hans-Jürgen Richterliche Unabhängigkeit und Dienstaufsicht, NJW 1990, 8-14 Paulus, Christoph G. / Matzke, Robin Digitalisierung und private Rechtsdurchsetzung, CR 2017, 769-778 Peters, Falk Rechtsinformatik – Plädoyer für eine der digitalen Welt angemessene Rechtskultur, CR 2017, 480-488 Plath, Kai-Uwe (Hrsg.) DSGVO/BDSG, 3. Auflage 2018, Köln (zitiert: Bearbeiter, in: Plath, DSGVO/BDSG) Podszun, Rupprecht / Rohner, Tristan Nach dem Brexit: Die Stärkung staatlicher Gerichte für wirtschaftsrechtliche Streitigkeiten, BB 2018, 450-454 Prantl, Heribert Langsame Justiz – Gutes Recht ist schnelles Recht, Süddeutsche Zeitung vom 8. April 2010, https://www. sueddeutsche.de/politik/langsame-justiz-gutes-recht-istschnelles-recht-1.6205, zuletzt abgerufen am 18. Februar 2020 Prütting, Hanns Rückgang der Klageeingangszahlen bei den staatlichen Gerichten, DRiZ 2018, 62-65 Raabe, Oliver / Wacker, Richard / Oberle, Daniel / Baumann, Christian / Funk, Christian Recht ex machina – Formalisierung des Rechts im Internet der Dienste, 2012, Berlin u. a. (zitiert: Raabe et al., Recht ex machina) Literaturverzeichnis 239 Rauscher, Thomas / Krüger, Wolfgang (Hrsg.) Münchener Kommentar zur Zivilprozessordnung mit Gerichtsverfassungsgesetz und Nebengesetzen, Band 1, §§ 1-354 ZPO, 5. Auflage 2016, München (zitiert: Bearbeiter, in: MünchKomm-ZPO) dies. Münchener Kommentar zur Zivilprozessordnung mit Gerichtsverfassungsgesetz und Nebengesetzen, Band 3, §§ 946-1117 ZPO, EGZPO, GVG, EGGVG, UKlaG, Internationales Europäisches Zivilrecht, 5. Auflage 2017, München (zitiert: Bearbeiter, in: MünchKomm-ZPO) Reichertz, Jo Algorithmen als autonome Akteure?, Blog der Deutschen Gesellschaft für Soziologie vom 24. Februar 2013, https://blog.soziologie.de/2013/02/algorithmen-a ls-autonome-akteure/, zuletzt abgerufen am 18. Februar 2020 Reichwald, Julian / Pfisterer, Dennis Autonomie und Intelligenz im Internet der Dinge, CR 2016, 208-212 Reisinger, Leo Rechtsinformatik, 1977, Berlin u. a. Rich, Elaine Artificial Intelligence, 1983, New York u. a. Ring, Stephan Computergestützte Rechtsfindungssysteme, 1994, Köln u. a. Ringelstein, Ronja Senat unterstützt Bundesratsinitiative – Schwarzfahren soll keine Straftat mehr sein, Tagesspiegel vom 17. September 2019, https://www.tagesspiegel.de/berli n/senat-unterstuetzt-bundesratsinitiative-schwarzfahre n-soll-keine-straftat-mehr-sein/25024200.html, zuletzt abgerufen am 18. Februar 2020 Röhl, Klaus F. / Röhl, Hans Christian Allgemeine Rechtslehre, 3. Auflage 2008, Köln u. a. Römermann, Volker Vom Glück personalisierter Urteilsanalyse, LTO vom 2. Januar 2020, https://www.lto.de/recht/zukunft-digit ales/l/urteilsanalyse-predictive-analytics-legal-tech-soft ware-algorithmen-justiz-profil-richter-datenschutz-geri chtsoeffentlichkeit/, zuletzt abgerufen am 18. Februar 2020 ders. / Günther, Tim Legal Tech als berufsrechtliche Herausforderung – Zulässige Rechtsdurchsetzung mit Prozessfinanzierung und Erfolgshonorar, NJW 2019, 551-556 Literaturverzeichnis 240 Rommel, Anne Watching Computers think, Pressemitteilung der Fraunhofer-Gesellschaft vom 1. Februar 2017, https:// www.fraunhofer.de/en/press/research-news/2017/febru ary/watching-computers-think.html, zuletzt abgerufen am 18. Februar 2020 Rüthers, Bernd Geleugneter Richterstaat und vernebelte Richtermacht, NJW 2005, 2759-2761 Rütten, Finn Richter entscheiden mittels Computer: Wo ein Algorithmus bestimmt, ob jemand rückfällig wird, Stern vom 30. Januar 2018, https://www.stern.de/panorama/ stern-crime/compas-bei-gericht--wo-ein-algorithmus-be stimmt--ob-jemand-rueckfaellig-wird-7843206.html, zuletzt abgerufen am 18. Februar 2020 Sachs, Michael (Hrsg.) Grundgesetz, 8. Auflage 2018, München (zitiert: Bearbeiter, in: Sachs, GG) Säcker, Franz Jürgen / Rixecker, Roland / Oetker, Hartmut / Limperg, Bettina (Hrsg.) Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 4, Schuldrecht – Besonderer Teil II, §§ 535-630h, 7. Auflage 2016, München (zitiert: Bearbeiter, in: MünchKomm-BGB) dies. Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 6, Schuldrecht Besonderer Teil IV, §§ 705-853, Partnerschaftsgesellschaftsgesetz, Produkthaftungsgesetz, 7. Auflage 2017, München (zitiert: Bearbeiter, in: MünchKomm-BGB) Saenger, Ingo (Hrsg.) Zivilprozessordnung, 8. Auflage 2019, Baden-Baden (zitiert: Bearbeiter, in: Saenger, ZPO) Schantz, Peter / Wolff, Heinrich Amadeus (Hrsg.) Das neue Datenschutzrecht, 2017, München (zitiert: Bearbeiter, in: Schantz/Wolff, Das neue Datenschutzrecht) Scheja, Katharina Schutz von Algorithmen in Big Data Anwendungen, CR 2018, 485-492 Schemmel, Alexander / Dietzen, Alexandra Kapitel 5.6: „Effective Corporate Governance” by Legal Tech & Digital Compliance, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Schemmel/Dietzen, in: Breidenbach/Glatz, RHB Legal Tech) Scheuerle, Wilhelm A. Rechtsanwendung, 1952, Nürnberg u. a. Literaturverzeichnis 241 Schmid, Ronald (Hrsg.) Beck’scher Online-Kommentar Fluggastrechte-Verordnung, 12. Edition, Stand 1. Oktober 2019, München (zitiert: Bearbeiter, in: BeckOK Fluggastrechte-Verordnung) Schmidt-Futterer, Wolfgang (Begr.) Mietrecht, 14. Auflage 2019, München (zitiert: Bearbeiter, in: Schmidt-Futterer, Mietrecht) Schmieder, Philipp / Liedy, Benjamin Der Versand durch Dritte aus dem beA ohne qualifizierte Signatur, NJW 2018, 1640-1644 Schreiber-Ehle, Sabine Dokumentation in Softwareerstellungsverträgen, CR 2015, 469-481 Schrey, Joachim / Thalhofer, Thomas Rechtliche Aspekte der Blockchain, NJW 2017, 1431-1436 Schwarzburg, Peter Rechtspolitisches aus Europa, RuP 2019, 63-65 Schwintowski, Hans-Peter Legal Tech – Im Spannungsfeld zwischen Gewerbefreiheit und (erlaubnispflichtiger) Rechtsdienstleistung, EWeRK 2018, 214-224 Siegmund, Alexander Das beA von A bis Z, NJW 2017, 3134-3137 Simmchen, Christoph Blockchain (R)Evolution, MMR 2017, 162-165 Simonite, Tom AI Beat Humans at Reading! Maybe Not, WIRED vom 1. Oktober 2018, https://www.wired.com/story/ai-beathumans-at-reading-maybe-not/, zuletzt abgerufen am 18. Februar 2020 Sodan, Helge / Ziekow, Jan (Hrsg.) Verwaltungsgerichtsordnung, 5. Auflage 2018, Baden- Baden (zitiert: Bearbeiter, in: Sodan/Ziekow, VwGO) Sosnitza, Olaf Das Internet der Dinge – Herausforderung oder gewohntes Terrain für das Zivilrecht?, CR 2016, 764-772 Specht, Florian Chancen und Risiken einer digitalen Justiz für den Zivilprozess – Vor- und Nachteile von außergerichtlichen Konfliktlösungsmöglichkeiten, MMR 2019, 153-157 Spindler, Gerald Roboter, Automation, künstliche Intelligenz, selbststeuernde Kfz – Braucht das Recht neue Haftungskategorien?, CR 2015, 766-776 Literaturverzeichnis 242 Staudinger, Julius von (Begr.) Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Buch 1. Allgemeiner Teil, §§ 134-138; ProstG (Gesetzliches Verbot, Verfügungsverbot, Sittenwidrigkeit), 2017, Berlin (zitiert: Bearbeiter, in: Staudinger, BGB) ders. (Begr.) Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Buch 2. Recht der Schuldverhältnisse, Einleitung zum Schuldrecht, §§ 241-243 (Treu und Glauben), 2015, Berlin (zitiert: Bearbeiter, in: Staudinger, BGB) ders. (Begr.) Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Buch 2: Recht der Schuldverhältnisse: §§ 315-326 (Leistungsstörungsrecht 2), 2015, Berlin (zitiert: Bearbeiter, in: Staudinger, BGB) ders. (Begr.) Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Buch 2. Recht der Schuldverhältnisse, Übersicht §§ 557-580a; Anhang: AGG (Mietrecht 2 – Miethöhe und Beendigung des Mietverhältnisses), 2018, Berlin (zitiert: Bearbeiter, in: Staudinger, BGB) Steege, Hans Algorithmenbasierte Diskriminierung durch Einsatz von Künstlicher Intelligenz – Rechtsvergleichende Überlegungen und relevante Einsatzgebiete, MMR 2019, 715-721 Stewen, Werner Die EDV bei der Entscheidungsvorbereitung, in: Hoppe, Werner / Krawietz, Werner / Schulte, Martin, Rechtsprechungslehre, 1992, Köln u. a, S. 571-588 (zitiert: Stewen, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre) Stiemerling, Oliver „Künstliche Intelligenz“ – Automatisierung geistiger Arbeit, Big Data und das Internet der Dinge, CR 2015, 762-765 Strauch, Hans-Joachim Wandel des Rechts durch juristische Datenbanken?, DVBl 2007, 1000-1007 Sujecki, Bartosz Das Online-Mahnverfahren in Deutschland, MMR 2006, 369-373 Literaturverzeichnis 243 Tobschall, Dominik / Kempe, Johann Kapitel 1.4: Der deutsche Legal-Tech-Markt, in: Breidenbach, Stephan / Glatz, Florian, Rechtshandbuch Legal Tech, 2018, München (zitiert: Tobschall/Kempe, in: Breidenbach/Glatz, RHB Legal Tech) Viefhues, Wolfram Rechtliche Grundlagen des beA und des elektronischen Rechtsverkehrs, NJW-Beilage 2016, 86-90 Vigen, Tyler Spurious correlations, www.tylervigen.com/spurious-c orrelations, zuletzt abgerufen am 18. Februar 2020 Vogelgesang, Stephanie / Krüger, Jochen Legal Tech und die Justiz – ein Zukunftsmodell? (Teil 1), jM 2019, 398-404 Vorwerk, Volkert Strukturiertes Verfahren im Zivilprozess, NJW 2017, 2326-2330 ders. / Wolf, Christian (Hrsg.) Beck’scher Online-Kommentar ZPO, 34. Edition, Stand 1. September 2019, München (zitiert: Bearbeiter, in: BeckOK ZPO) Waldner, Wolfram Der Anspruch auf rechtliches Gehör, 2. Auflage 2000, Köln Wandtke, Artur-Axel / Bullinger, Winfried (Hrsg.) Praxiskommentar Urheberrecht, 5. Auflage 2019, München (zitiert: Bearbeiter, in: Wandtke/Bullinger, Urheberrecht) Wiebe, Andreas / Eichfeld, Matthias Spannungsverhältnis Datenschutzrecht und Justiz – Anwendungsbereich, Verantwortlichkeit, richterliche Unabhängigkeit, NJW 2019, 2734-2738 Wolf, Daniel Quellcode auf Leinwand, Zeit Online vom 31. Oktober 2018, https://www.zeit.de/2018/45/kuenstliche-inte lligenz-gemaelde-leinwand-versteigerung-urheber, zuletzt abgerufen am 18. Februar 2020 Würtenberger, Thomas Rechtsprechung und sich wandelndes Rechtsbewusstsein, in: Hoppe, Werner / Krawietz, Werner / Schulte, Martin, Rechtsprechungslehre, 1992, Köln u. a, S. 545-570 (zitiert: Würtenberger, in: Hoppe/Krawietz/Schulte, Rechtsprechungslehre) Literaturverzeichnis 244 Wysk, Peter Das Gesetz und seine Richter: Mund des Gesetzes? Rechtsbeistand des Gesetzgebers? Oder...?, in: Kloepfer, Michael, Gesetzgebung als wissenschaftliche Herausforderung – Gedächtnisschrift für Thilo Brandner, 2. Auflage 2018, Baden-Baden, S. 137-154 (zitiert: Wysk, in: GS Brandner) Zakharyan, Ashkhen / Götz, Birgit AIVA: Die Künstliche Intelligenz komponiert die Musik der Zukunft, PC-Welt vom 18. April 2019, https:// www.pcwelt.de/a/aiva-die-kuenstliche-intelligenz-kom poniert-die-musik-der-zukunft,3450745, zuletzt abgerufen am 18. Februar 2020 Ziegler, Peter-Michael Im Namen des Algorithmus, c’t 25/2017, 68-70, https:// www.heise.de/select/ct/2017/25/1512700333136715, zuletzt abgerufen am 18. Februar 2020 Zimmer, Mark / Stajic, Sara Unbewusste Denkmuster – Sollen Arbeitgeber dagegen mit Unconscious Bias Training vorgehen?, NZA 2017, 1040-1045 Zippelius, Reinhold Juristische Methodenlehre, 11. Auflage 2012, München Zöller, Richard (Begr.) Zivilprozessordnung, 32. Auflage 2018 (Vorauflage), Köln (zitiert: Bearbeiter, in: Zöller, ZPO, 32. Auflage 2018) ders. (Begr.) Zivilprozessordnung, 33. Auflage 2020, Köln (zitiert: Bearbeiter, in: Zöller, ZPO) Zweig, Katharina A. 1. Arbeitspapier: Was ist ein Algorithmus?, Algorithm Watch vom 12. Mai 2016, https://algorithmwatch.org/ publication/arbeitspapier-was-ist-ein-algorithmus/, zuletzt abgerufen am 18. Februar 2020 (zitiert: Zweig, Was ist ein Algorithmus?, Algorithm Watch vom 12. Mai 2016) dies. 2. Arbeitspapier: Überprüfbarkeit von Algorithmen, Algorithm Watch vom 7. Juli 2016, https://algorithmw atch.org/publication/zweites-arbeitspapier-ueberpruefb arkeit-algorithmen/, zuletzt abgerufen am 18. Februar 2020 (zitiert: Zweig, Überprüfbarkeit von Algorithmen, Algorithm Watch vom 7. Juli 2016) Literaturverzeichnis 245 dies. / Krafft, Tobias D. Fairness und Qualität algorithmischer Entscheidungen, in: Kar, Resa Mohabbat / Thapa, Basanta / Parycek, Peter, (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, 2018, Berlin, S. 204-227 (zitiert: Zweig/Krafft, in: Kar/Thapa/Parycek, Algorithmen und Automatisierung) Literaturverzeichnis 246

Zusammenfassung

Unter welchen Bedingungen dürfen Gerichte in Deutschland digitale Anwendungen zur Entscheidungsfindung einsetzen? Das Werk zeigt die engen Grenzen und einen Lösungsweg hierfür auf. Neben rechtstheoretischen und durch die computerspezifische Arbeitsweise gesetzten Grenzen ist der durch das Grundgesetz und das Europarecht abgesteckte Rechtsrahmen zu beachten. Im Zentrum der Bearbeitung steht die Garantie der richterlichen Unabhängigkeit, die durch den Technikeinsatz nicht infrage gestellt werden darf. Zur Auflösung des daraus resultierenden Konflikts wird ein Zertifizierungsverfahren für determinierte Programme vorgeschlagen. Schließlich werden konkrete Anwendungsbeispiele beleuchtet.

References

Zusammenfassung

Unter welchen Bedingungen dürfen Gerichte in Deutschland digitale Anwendungen zur Entscheidungsfindung einsetzen? Das Werk zeigt die engen Grenzen und einen Lösungsweg hierfür auf. Neben rechtstheoretischen und durch die computerspezifische Arbeitsweise gesetzten Grenzen ist der durch das Grundgesetz und das Europarecht abgesteckte Rechtsrahmen zu beachten. Im Zentrum der Bearbeitung steht die Garantie der richterlichen Unabhängigkeit, die durch den Technikeinsatz nicht infrage gestellt werden darf. Zur Auflösung des daraus resultierenden Konflikts wird ein Zertifizierungsverfahren für determinierte Programme vorgeschlagen. Schließlich werden konkrete Anwendungsbeispiele beleuchtet.