106
Die vom Management verfolgte Strategie dagegen verkörpert den selbst gesteckten
Rahmen zukünftiger Entscheidungen.173 Aufgrund der Pfadabhängigkeit muss die
unternehmerische Strategie eines Netzbetreibers auf der Infrastrukturebene notgedrungen sehr langfristig orientiert sein, um wirksam sein zu können.174 Das hat zur
Konsequenz, dass sich der konkrete Inhalt einer Strategie oder eines Strategiewechsels nur sehr zeitverzögert in einem real veränderten Kapitalgüterbestand widerspiegelt. Die Anpassungsgeschwindigkeit auf der Infrastrukturebene ist in den durch
signifikanten technischen Fortschritt geprägten dynamischen Netzsektoren, z.B. der
Telekommunikation, tendenziell höher als in vergleichsweise stationären Netzsektoren.175 Auf der Ebene der Netzdienstleistungen können demgegenüber auch in stationären Netzsektoren kurz- oder mittelfristig signifikante Strategiewechsel umgesetzt
werden, die dann auch sehr rasch von den Konsumenten (und den Konkurrenten)
wahrgenommen werden.176
6.2.2 Differenzierte Investitionsmodellierung nach einheitlichen Prinzipien
Bei der Modellierung des Mengengerüsts der Kapitalkosten (Investitionsmodellierung) ist eine differenzierte Vorgehensweise erforderlich (vgl. Knieps 2003c: S. 16-
18). Es gilt insbesondere zu unterscheiden zwischen neuen und bestehenden Netzteilen. Zur Modellierung neuer und bestehender Netzteile spielen im Netzkontext zwei
Methoden eine wichtige Rolle: analytische Kostenmodelle und Benchmarking.
Die Grundidee analytischer Kostenmodelle lässt sich zurückführen auf das Konzept der Engineering Production Functions (vgl. Chenery 1949 und 1953).177 "Ihr
Anliegen ist es, die Gesetzmäßigkeiten produktiver Zusammenhänge industrieller
173 "[A] cost analysis which is to be useful in decision-making needs to be historical dynamics,
not comparative statics" (Turvey 1969: S. 287).
174 Es lassen sich drei Grundformen der Netzentwicklung unterscheiden: a) Vollständiger Neuaufbau ohne Rücksicht auf die Netztopologie des bestehenden Netzes; b) Vollständige Erneuerung mit Beibehaltung der bestehenden Netztopologie; c) Partielle Modernisierung ("Upgrading") des bestehenden Netzes (vgl. Albach/Knieps 1997: S. 20 und Knieps 2007: S. 33).
175 In den Verkehrssektoren kann es leicht über ein Jahrzehnt dauern, bis ein Strategiewechsel zu
einer tatsächlichen Änderung des Mengengerüsts führt. Ein Beispiel ist der Hochgeschwindigkeitsverkehr der Eisenbahn. Während in Frankreich die Neubaustrecken für den TGV ausschließlich für diesen spezialisierten Zweck gebaut wurden, verfolgte die damalige Deutsche
Bundesbahn bei den ersten ICE-Neubaustrecken noch eine Mehrzweckstrategie (Personenund Güterverkehr). Nach einem zwischenzeitlichen Strategiewechsel wurde die Neubaustrecke Köln-Rhein/Main nur noch für den reinen Personenverkehr gebaut.
176 Ein Beispiel ist der Aufbau von Liniennetzen nach dem so genannten Hub and spoke-System
im Zuge der Deregulierung des amerikanischen Luftverkehrs (vgl. Knieps 1987b: S. 36 f. und
Besanko et al. 2007: S. 375 f.).
177 "In den USA wurde die Theorie der "engineering production functions" von Chenery begründet und von vielen anderen Autoren weiterentwickelt. Die "engineering functions" entsprechen der deutschen Theorie der Kosteneinflussgrößen" (Albach/Knieps 1997: S. 52). Zur Genesis von Chenerys Konzept vgl. Wibe (1984), Smith (1986), Gasmi et al. (2002: S. 15 f.)
und Fandel (2005: S. 127-143).
107
Fertigungsprozesse auf der Basis der ihnen zugrunde liegenden technischnaturwissenschaftlichen Verfahren näher zu analysieren" (Fandel 2005: S. 128). Aus
einer ingenieurtechnisch ermittelten Produktionsfunktion (technische Transformationsbeziehungen) wird eine ökonomische Produktionsfunktion (Input-Output-
Beziehung) abgeleitet, die wiederum – analog zur üblichen mikroökonomischen
Vorgehensweise – die Grundlage für die Ableitung einer Kostenfunktion darstellt
(vgl. Knieps 2007: S. 34 f.). Der empirische Gehalt des Konzepts ist sehr groß, aber
die Anwendung ist beschränkt auf relativ spezifische, durch technische Prozesse
geprägte Produktionsbereiche (vgl. Fandel 2005: S. 201).178 Da es gerade in Netzindustrien einige relativ stark durch technische Prozesse dominierte Produktionsbereiche gibt (z.B. Energietransport), ist ein signifikanter Teil der Anwendungen des
Konzepts der Engineering Production Functions im Netzkontext angesiedelt.179 So
war denn auch die Weiterentwicklung des Konzepts der Engineering Production
Functions hin zum Konzept der analytischen Kostenmodelle in den 1990er Jahren
sehr stark von den neueren Entwicklungen in den Netzindustrien getrieben:
"Analytische Kostenmodelle (AKM) dienen dazu, Erkenntnisse über das effiziente Kostenniveau von Netzbetreibern und über Zusammenhänge zwischen den Netzkosten und wesentlichen Einflussfaktoren auf analytischem Weg durch rechnergestützten Entwurf kostenoptimaler
Netze und deren kostenmäßige Bewertung zu gewinnen" (CONSENTEC et al. 2006: S. 1).180
Die Grundidee von Benchmarking geht zurück auf das Konzept der Effizienzmessung von Farrell (1957).181 Farrell kritisierte die Verwendung eines ingenieurtechnischen Referenzpunkts nicht nur wegen der beschränkten Anwendbarkeit, sondern
insbesondere wegen der Vernachlässigung des menschlichen Faktors in der Produktion (vgl. Farrell 1957: S. 255).182 Als Alternative schlug er vor: "[I]t is far better to
compare performances with the best actually achieved than with some unattainable
ideal" (Farrell 1957: S. 255). Farrell will durch einen Unternehmensvergleich einen
realtypischen Referenzpunkt kostenminimaler Produktion ermitteln. Er unterschei-
178 Das optimale Mengengerüst wird durch ingenieurtechnische Gedankenexperimente gefunden
(vgl. Chenery 1953: S. 298). Diese experimentelle Seite mag ein Grund dafür gewesen sein,
dass die Anwendung dieses Konzepts zum ersten Forschungsschwerpunkt des späteren Nobelpreisträgers Vernon Smith wurde (vgl. Smith 1959 und 1961).
179 So befasste sich z.B. Chenery in seinen ersten Arbeiten mit dem Erdgastransport mittels
Pipelines (vgl. Chenery 1949: S. 514 ff. und 1953: S. 311 ff.).
180 Die wesentliche Neuerung der analytischen Kostenmodelle im Vergleich zu den Engineering
Production Functions liegt weniger im konzeptionellen Bereich, als vielmehr in der umfassenden Nutzung moderner Verfahren rechnergestützter Optimierung (vgl. Gasmi et al. 2002:
S. 16).
181 Zu den Weiterentwicklungen von Farrells Ansatz und einen Überblick über die modernen
Benchmarking-Methoden vgl. Ajodhia/Petrov/Scarsi (2003) und Murillo-Zamorano (2004).
182 Der Einfluss des menschlichen Faktors wurde später von Leibenstein (1966) in den Mittelpunkt seines Konzepts der X-Effizienz gestellt. Insbesondere Stigler (1976) hat diese Erweiterung des in der neoklassischen Theorie entwickelten Effizienzbegriffs kritisiert, weil die
von Leibenstein verwendete Terminologie zu wirtschaftspolitischen Trugschlüssen verleitet.
Zu den Gemeinsamkeiten und Unterschieden zwischen den Ansätzen von Farrell und Leibenstein vgl. Leibenstein/Maital (1992) und Button/Weyman-Jones (1994).
108
det zwischen technischer Effizienz und Faktorpreiseffizienz. Bei der vergleichenden
Messung der technischen Effizienz unterschiedlicher Unternehmen geht es um die
Frage, ob mit einem gegebenen Mengengerüst der Inputs der größtmögliche Output
(mengenmäßig) erzielt wird. Demgegenüber geht es bei der vergleichenden Messung der Faktorpreiseffizienz darum, ob das Mengengerüst der Inputs (z.B. Kapitalgüter) optimal an die relativen Faktorpreise (z.B. Zinskosten) angepasst ist (vgl.
Knieps 2007: S. 175).183 Farrell hielt die Faktorpreiseffizienz für empirisch kaum
messbar und legte in seiner Benchmarking-Methode den Fokus auf die technische
Effizienz (vgl. Farrell 1957: S. 260 f. und 264). Der Ansatz steht und fällt mit der
Auswahl der Vergleichsgruppe. Wenn eine relativ homogene Vergleichsgruppe
zusammengestellt werden kann, funktioniert Benchmarking am besten. Je heterogener jedoch die Grundgesamtheit, desto problematischer sind die Schlussfolgerungen.184
Analytische Kostenmodelle können einem Netzbetreiber dabei helfen, das optimale Mengengerüst eines neu aufzubauenden Netzes bzw. neuer Netzteile zu
bestimmen. Zur Charakterisierung des Mengengerüsts eines bestehenden Netzes
sind sie dagegen ungeeignet, denn es ist gerade das besondere Charakteristikum
dieser Modelle, vom bereits bestehenden Kapitalstock weitgehend zu abstrahieren
(vgl. Knieps 2007: S. 34 f. u. 171 f.).185 Bei Benchmarking ist es gerade umgekehrt.
Sie können dem Netzbetreiber dabei helfen, das Mengengerüst des bereits bestehenden Netzes zu optimieren. Benchmarking ist jedoch ungeeignet, um das Mengengerüst eines neu aufzubauenden Netzes zu bestimmen, denn der zentrale Ausgangspunkt für Benchmarking ist der Vergleich bereits bestehender Netze.
Die gemeinsame Basis einer differenzierten Investitionsmodellierung neuer und
bestehender Netzteile ist die Strategie des Netzbetreibers (vgl. Abschnitt 6.2.1).
Davon ausgehend kann bei der Modellierung des Mengengerüsts sowohl auf die
Erkenntnisse analytischer Kostenmodelle als auch auf die Erkenntnisse von Benchmarking-Analysen (soweit vorhanden) zurückgegriffen werden. Die Verwendung
183 Der Effizienzbegriff wird in der Literatur unterschiedlich verwendet. In der Produktionstheorie wird mit effizienter Produktion die technisch effiziente Produktion im Sinne Farrells bezeichnet. Davon unterschieden wird die kostenminimale Produktion, die sowohl technische
Effizienz als auch Preiseffizienz im Sinne Farrells voraussetzt (vgl. Fandel 2005: S. 48-51
und 217 f.). Was Farrell Preiseffizienz nennt, wird häufig auch allokative Effizienz genannt
(vgl. Murillo-Zamorano 2004: S. 33 f.). Beide Begriffe können aber zu Verwechslungen mit
Outputpreisverzerrungen (z.B. wegen Marktmacht) führen, deshalb wird hier im Text der
Begriff Faktorpreiseffizienz verwendet.
184 Farrell selbst hat diesen Einwand schon vorausgesehen (vgl. Farrell 1957: S. 260). Letztlich
basiert auch seine Methode auf einer Idealisierung im Sinne einer künstlichen Homogenisierung der Vergleichsgruppe: "[T]his method of measuring the technical efficiency of a firm
consists in comparing it with a hypothetical firm which uses the factors in the same proportions. This hypothetical firm is constructed as a weighted average of two observed firms, in the
sense that each of its inputs and outputs is the same weighted average of those observed
firms, the weights chosen so as to give the desired factor proportions" (Farrell 1957: S. 256).
185 Vgl. hierzu auch die Unterscheidung zwischen einem engeren und einem weiteren Begriffsverständnis von analytischen Kostenmodellen in CONSENTEC et al. (2006: S. 3).
109
unterschiedlicher Methoden der Investitionsmodellierung für neue und bestehende
Netzteile stellt solange kein Problem dar, als auf die Einhaltung folgender Prinzipien
geachtet wird:
Kompatible Partitionierung: Die Partitionierung des Mengengerüsts eines Netzbetreibers in eine Menge N = {1, ..., n} unterschiedlicher Kapitalgüter ist eine Abstraktion. Theoretisch kann das Mengengerüst beliebig grob (Extremfall n = 1) oder
fein (Extremfall n??) partitioniert werden.186 Je feiner die Partitionierung. desto
genauer kann auch die im jeweiligen Entscheidungskontext relevante Teilmenge
NS ? des bestehenden Netzes abgegrenzt werden. Allerdings verschärft sich damit
auch das in Abschnitt 6.1 erläuterte Aggregationsproblem bei der nachfolgenden Bewertung.187 Wenn neue Netzteile geplant sind, d.h. die Menge N um ein ?N erweitert
wird, dann sollten neue und bestehende Netzteile nach der gleichen Systematik partitioniert werden. Dies ist die Voraussetzung für eine konsistente Abgrenzung der
jeweils relevanten Teile des Mengengerüsts.188
Ingenieurtechnische Fundierung: Die Produktionstechnologien in Netzindustrien
sind in einem erheblichen Umfang durch technische Prozesse geprägt, deren konkrete Ausprägung vom jeweiligen Stand des technischen Wissens und der vom Netzbetreiber verfolgten Netzaufbaustrategie abhängen. Diese technischen Prozesse spielen eine zentrale Rolle bei der Investitionsmodellierung und der Kostenermittlung.189
Das gilt nicht nur für neue sondern auch für bestehende Netzteile. Wenn z.B. die
Wiederbeschaffungskosten bereits bestehender Netzteile ermittelt werden, dann ist
in der Regel nicht davon auszugehen, dass das Kapitalgut in identischer Form wiederbeschafft wird (insbesondere wegen technischen Fortschritts). Die Spezifikation
eines funktionsgleichen modernen Kapitalguts (so genanntes Modern Equivalent
Asset – MEA) erfordert nicht nur Informationen über heutige und zukünftige Inputpreise, sondern auch in hohem Maße technischen Sachverstand (vgl. Albach/Knieps
1997: S. 48). Dazu gehört nicht nur die Fähigkeit zur Beurteilung technischer Entwicklungen der Vergangenheit, sondern auch die Fähigkeit zur Abschätzung der
186 "In establishing a consistent asset policy, the determination of base units is of prime importance. The base unit is the smallest asset component. It is the basic unit in which the property
records are maintained" (Peterson 2002: S. 39).
187 Zudem steigen bei feinerer Partitionierung die Kosten der Erhebung und fortlaufenden Pflege
der Bestandsdaten (vgl. Peterson 2002: S. 40 f.).
188 Gerade bei Netzinfrastrukturen ist zu berücksichtigen, dass deren Kapazität in der Regel nicht
kontinuierlich sondern nur in diskreten Sprüngen veränderbar ist (vgl. Turvey 2000b: S. 207).
Dies gilt nicht nur bei einer Erhöhung der Kapazität (Inkrement) sondern auch bei deren Reduzierung (Dekrement): "Unfortunately, the use of the term increment makes it easy to forget
to examine decrements as well as increments" (Turvey 2000a: S. 3, Hervorhebung wie im
Original).
189 Ein Beispiel sind die Kirchhoffschen Gesetze in Stromnetzen. Ihre Berücksichtigung ist
elementar für die Ermittlung der Kosten des Stromtransports (vgl. Knieps 2007: S. 69-77).
Der Elektrizitätssektor ist auch ein gutes Beispiel dafür, wie sich die Rollenverteilung zwischen Ingenieuren und Ökonomen im Zuge der Liberalisierung verändert hat (vgl. Mueller/
Carter 2007).
110
Möglichkeiten und Grenzen zukünftiger technischer Entwicklungen (vgl.
Cruz/Hisiger/Wolff 1989 und Pohler/Beckert/Schefczyk 2006).
Realtypisches versus idealtypisches Mengengerüst: Analytische Kostenmodelle
führen zum idealtypischen Mengengerüst eines repräsentativen Unternehmens.190
Für unternehmerische Entscheidungen ist jedoch das realtypische Mengengerüst
eines ganz konkreten Unternehmens relevant (vgl. Albach/Knieps 1997: S. 27 f.).191
Es gilt Trugschlüsse zu vermeiden, die charakteristisch sind für einen Ansatz zur
Modellierung von Mengengerüsten, der sich – in Anlehnung an Demsetz (1969) –
als Nirvana-Ansatz kennzeichnen lässt.192 Auf der Ebene der Netzinfrastrukturen
kann insbesondere die Missachtung der Pfadabhängigkeit zu Trugschlüssen führen.
Die Topologie eines historisch gewachsenen Infrastrukturnetzes (Brownfield approach als Realtypus) ist nicht ohne weiteres mit einem "auf der grünen Wiese" völlig
neu geplanten Infrastrukturnetz (Greenfield approach als Idealtypus) vergleichbar.
Ein solcher Vergleich ist allenfalls dann zulässig, wenn sämtliche Übergangskosten
vom realtypischen Ist-Zustand in den idealtypischen Soll-Zustand mitberücksichtigt
werden (vgl. Streit 2005: S. 22).193
Durchgängiges Wertgerüst: Keine ökonomisch fundierte Investitionsmodellierung (Mengengerüst) kann ohne Annahmen über die Kapitalkosten (Wertgerüst)
auskommen. Die Annahmen bezüglich der Kapitalkosten müssen für neue und bestehende Netzteile konsistent sein.194 Das Deprival value-Konzept liefert hierfür den
konzeptionellen Rahmen. Die auf dem Deprival value-Konzept beruhende Abschreibungsermittlung nach Wright betont nicht das Trennende sondern das Verbindende zwischen neuen und alten Kapitalgütern – bzw. im Netzkontext: zwischen
neuen und bestehenden Netzteilen. Gerade die konzeptionelle Verbindung zwischen
neuen und bereits vorhandenen Kapitalgütern ist nach Wright der Schlüssel zur
Periodisierung der Kapitalkosten (vgl. Abschnitt 4.2.2).
190 "A cost proxy model conceptually consists of a set of more or less detailed descriptions of the
technical processes underlying the cost function of a representative firm in the industry"
(Gasmi et al. 2002: S. 11).
191 Zur Kritik an der Verwendung des Konzepts der repräsentativen Firma zur Effizienzmessung
vgl. Stigler (1976: S. 214 f.).
192 "The nirvana approach is much more susceptible than is the comparative institution approach
to committing three logical fallacies – the grass is always greener fallacy, the fallacy of the
free lunch, and the people could be different fallacy" (Demsetz 1969: S. 2, Hervorhebungen
wie im Original).
193 Analytische Kostenmodelle können dies nicht leisten. Ein Unternehmen, dass analytische
Kostenmodelle zur Bewertung neuer Netzteile einsetzt, wird die jeweiligen Übergangskosten
fallweise abschätzen – ausgehend vom jeweiligen Status quo und unter Berücksichtigung seiner langfristigen Netzaufbaustrategie.
194 Das bedeutet nicht, dass auch dieselben Kostenkonzepte relevant sind: für neue Netzteile sind
die langfristigen Zusatzkosten relevant, für bestehende die langfristig vermeidbaren Kosten
(vgl. Knieps 2007: S. 27).
111
6.3 Das Mengengerüst in regulierten Netzbereichen
6.3.1 Die Kosten der effizienten Leistungsbereitstellung
Vor der Liberalisierung war in der Regulierungstheorie lange Zeit die Auffassung
vorherrschend, dass ein Unternehmen auch dann, wenn es Marktmacht hat und reguliert wird, genügend Anreize zur effizienten Produktion und damit einhergehend zur
optimalen Gestaltung seines Kapitalgüterbestands hat.195 Diese Auffassung wurde
durch den berühmten Beitrag von Averch/Johnson (1962) grundlegend in Frage
gestellt. Der so genannte Averch-Johnson-Effekt ist der Prototyp einer regulierungsbedingten Ineffizienz. Weil die Rate of return-Regulierung den Inputfaktor Arbeit
gegenüber dem Inputfaktor Kapital diskriminiert, besteht eine (unerwünschte) Nebenwirkung der Regulierung darin, dass die regulierten Unternehmen ihren Kapitalgüterbestand (Mengengerüst) zu groß dimensionieren.196
In der US-amerikanischen Regulierungspraxis sind die Regulierungsbehörden in
den 1970er Jahren vermehrt dazu übergegangen, die von den regulierten Unternehmen vorgelegten Kosteninformationen sehr viel kritischer als zuvor zu hinterfragen
und gegebenenfalls Kosten nicht anzuerkennen. Dabei ging es vor allem um die
Einbeziehung von Kapitalgütern, d.h. die Frage nach dem relevanten Mengengerüst.197 Das zentrale Problem für die Behörden war aber, dass sie keinen unabhängigen Prüfungsmaßstab fanden, um entscheiden zu können, ob ein vom regulierten
Unternehmen als relevant deklariertes Kapitalgut zur effizienten Leistungsbereitstellung wirklich erforderlich war oder nicht:198
"Under traditional rate-making principles, public utilities are entitled to recover "prudent" investments when they become "used and useful." Certain items may be excluded from the rate
base, including "excess capacity." But since the late 1970s, it has become clear that all three
terms lack precise definitions" (Phillips 1993: S. 340).
Nach der Liberalisierung stehen die Regulierungsbehörden wieder vor demselben
Problem. Der Übergang von traditioneller Kostenregulierung zu moderner Anreizregulierung hat das Problem nicht beseitigt, denn von einer Regulierungsbehörde wird
nun erwartet, dass sie Art und Umfang ungenutzter Effizienzspielräume abschätzen
195 "The decision as to what property is "used and useful" is normally left to management, although certain items claimed by utilities may be questioned and excluded from the rate base
by the commissions" (Phillips 1993: S. 316).
196 Nach der im vorhergehenden Abschnitt erläuterten Klassifikation von Farrell wird das Kriterium der Faktorpreiseffizienz verletzt; die technische Effizienz ist trotz Averch-Johnson-
Effekt gegeben.
197 Diese so genannten Cost Disallowances spielten vor allem im amerikanischen Energiesektor
in den 1970er und 1980er Jahren eine große Rolle. Die damit einhergehenden Unsicherheiten
für die Unternehmen wurden von Kolbe/Tye/Myers (1993) als Regulatory Risk charakterisiert. Das Konzept des Regulierungsrisikos wird in Kapitel 9 der vorliegenden Arbeit ausführlich behandelt.
198 Auch die Regulierungsökonomen haben sich mit dem empirischen Nachweis des Averch-
Johnson-Effekts sehr schwer getan (vgl. Borrmann/Finsinger 1999: S. 353 f.).
Chapter Preview
References
Zusammenfassung
Für die in liberalisierten Netzindustrien aktiven Unternehmen sind Kosteninformationen insbesondere bei Preis- und Investitionsentscheidungen von zentraler Bedeutung. Darüber hinaus interessieren sich in zunehmendem Maße die wirtschaftspolitischen Entscheidungsträger für die Kosten der Netze, vor allem bei der Regulierung von Marktmacht und der Bestellung defizitärer Netzleistungen. Dies erfordert eine auf anerkannten ökonomischen Prinzipien basierende entscheidungsorientierte Kostenermittlung, die durchgängig und konsistent in allen Netzbereichen – seien sie nun wettbewerblich, reguliert oder subventioniert – anwendbar ist. Die vorliegende Habilitationsschrift will hierfür eine systematische methodische Grundlage legen.
Im Mittelpunkt steht die disaggregierte Ermittlung der Kapitalkosten. Es wird aufgezeigt, dass das Deprival value-Konzept bei der Kapitalkostenermittlung eine zentrale Rolle spielt. Darauf aufbauend wird ein analytischer Rahmen entwickelt, der das Zusammenspiel von Regulierung und Subventionierung (z.B. bei defizitären Eisenbahninfrastrukturen) normativ begründen kann.