Content

Hans-Jörg Weiß, Differenzierte Investitionsmodellierung nach einheitlichen Prinzipien in:

Hans-Jörg Weiß

Entscheidungsorientiertes Costing in liberalisierten Netzindustrien, page 106 - 111

1. Edition 2009, ISBN print: 978-3-8329-4061-4, ISBN online: 978-3-8452-1481-8 https://doi.org/10.5771/9783845214818

Series: Freiburger Studien zur Netzökonomie, vol. 16

Bibliographic information
106 Die vom Management verfolgte Strategie dagegen verkörpert den selbst gesteckten Rahmen zukünftiger Entscheidungen.173 Aufgrund der Pfadabhängigkeit muss die unternehmerische Strategie eines Netzbetreibers auf der Infrastrukturebene notgedrungen sehr langfristig orientiert sein, um wirksam sein zu können.174 Das hat zur Konsequenz, dass sich der konkrete Inhalt einer Strategie oder eines Strategiewechsels nur sehr zeitverzögert in einem real veränderten Kapitalgüterbestand widerspiegelt. Die Anpassungsgeschwindigkeit auf der Infrastrukturebene ist in den durch signifikanten technischen Fortschritt geprägten dynamischen Netzsektoren, z.B. der Telekommunikation, tendenziell höher als in vergleichsweise stationären Netzsektoren.175 Auf der Ebene der Netzdienstleistungen können demgegenüber auch in stationären Netzsektoren kurz- oder mittelfristig signifikante Strategiewechsel umgesetzt werden, die dann auch sehr rasch von den Konsumenten (und den Konkurrenten) wahrgenommen werden.176 6.2.2 Differenzierte Investitionsmodellierung nach einheitlichen Prinzipien Bei der Modellierung des Mengengerüsts der Kapitalkosten (Investitionsmodellierung) ist eine differenzierte Vorgehensweise erforderlich (vgl. Knieps 2003c: S. 16- 18). Es gilt insbesondere zu unterscheiden zwischen neuen und bestehenden Netzteilen. Zur Modellierung neuer und bestehender Netzteile spielen im Netzkontext zwei Methoden eine wichtige Rolle: analytische Kostenmodelle und Benchmarking. Die Grundidee analytischer Kostenmodelle lässt sich zurückführen auf das Konzept der Engineering Production Functions (vgl. Chenery 1949 und 1953).177 "Ihr Anliegen ist es, die Gesetzmäßigkeiten produktiver Zusammenhänge industrieller 173 "[A] cost analysis which is to be useful in decision-making needs to be historical dynamics, not comparative statics" (Turvey 1969: S. 287). 174 Es lassen sich drei Grundformen der Netzentwicklung unterscheiden: a) Vollständiger Neuaufbau ohne Rücksicht auf die Netztopologie des bestehenden Netzes; b) Vollständige Erneuerung mit Beibehaltung der bestehenden Netztopologie; c) Partielle Modernisierung ("Upgrading") des bestehenden Netzes (vgl. Albach/Knieps 1997: S. 20 und Knieps 2007: S. 33). 175 In den Verkehrssektoren kann es leicht über ein Jahrzehnt dauern, bis ein Strategiewechsel zu einer tatsächlichen Änderung des Mengengerüsts führt. Ein Beispiel ist der Hochgeschwindigkeitsverkehr der Eisenbahn. Während in Frankreich die Neubaustrecken für den TGV ausschließlich für diesen spezialisierten Zweck gebaut wurden, verfolgte die damalige Deutsche Bundesbahn bei den ersten ICE-Neubaustrecken noch eine Mehrzweckstrategie (Personenund Güterverkehr). Nach einem zwischenzeitlichen Strategiewechsel wurde die Neubaustrecke Köln-Rhein/Main nur noch für den reinen Personenverkehr gebaut. 176 Ein Beispiel ist der Aufbau von Liniennetzen nach dem so genannten Hub and spoke-System im Zuge der Deregulierung des amerikanischen Luftverkehrs (vgl. Knieps 1987b: S. 36 f. und Besanko et al. 2007: S. 375 f.). 177 "In den USA wurde die Theorie der "engineering production functions" von Chenery begründet und von vielen anderen Autoren weiterentwickelt. Die "engineering functions" entsprechen der deutschen Theorie der Kosteneinflussgrößen" (Albach/Knieps 1997: S. 52). Zur Genesis von Chenerys Konzept vgl. Wibe (1984), Smith (1986), Gasmi et al. (2002: S. 15 f.) und Fandel (2005: S. 127-143). 107 Fertigungsprozesse auf der Basis der ihnen zugrunde liegenden technischnaturwissenschaftlichen Verfahren näher zu analysieren" (Fandel 2005: S. 128). Aus einer ingenieurtechnisch ermittelten Produktionsfunktion (technische Transformationsbeziehungen) wird eine ökonomische Produktionsfunktion (Input-Output- Beziehung) abgeleitet, die wiederum – analog zur üblichen mikroökonomischen Vorgehensweise – die Grundlage für die Ableitung einer Kostenfunktion darstellt (vgl. Knieps 2007: S. 34 f.). Der empirische Gehalt des Konzepts ist sehr groß, aber die Anwendung ist beschränkt auf relativ spezifische, durch technische Prozesse geprägte Produktionsbereiche (vgl. Fandel 2005: S. 201).178 Da es gerade in Netzindustrien einige relativ stark durch technische Prozesse dominierte Produktionsbereiche gibt (z.B. Energietransport), ist ein signifikanter Teil der Anwendungen des Konzepts der Engineering Production Functions im Netzkontext angesiedelt.179 So war denn auch die Weiterentwicklung des Konzepts der Engineering Production Functions hin zum Konzept der analytischen Kostenmodelle in den 1990er Jahren sehr stark von den neueren Entwicklungen in den Netzindustrien getrieben: "Analytische Kostenmodelle (AKM) dienen dazu, Erkenntnisse über das effiziente Kostenniveau von Netzbetreibern und über Zusammenhänge zwischen den Netzkosten und wesentlichen Einflussfaktoren auf analytischem Weg durch rechnergestützten Entwurf kostenoptimaler Netze und deren kostenmäßige Bewertung zu gewinnen" (CONSENTEC et al. 2006: S. 1).180 Die Grundidee von Benchmarking geht zurück auf das Konzept der Effizienzmessung von Farrell (1957).181 Farrell kritisierte die Verwendung eines ingenieurtechnischen Referenzpunkts nicht nur wegen der beschränkten Anwendbarkeit, sondern insbesondere wegen der Vernachlässigung des menschlichen Faktors in der Produktion (vgl. Farrell 1957: S. 255).182 Als Alternative schlug er vor: "[I]t is far better to compare performances with the best actually achieved than with some unattainable ideal" (Farrell 1957: S. 255). Farrell will durch einen Unternehmensvergleich einen realtypischen Referenzpunkt kostenminimaler Produktion ermitteln. Er unterschei- 178 Das optimale Mengengerüst wird durch ingenieurtechnische Gedankenexperimente gefunden (vgl. Chenery 1953: S. 298). Diese experimentelle Seite mag ein Grund dafür gewesen sein, dass die Anwendung dieses Konzepts zum ersten Forschungsschwerpunkt des späteren Nobelpreisträgers Vernon Smith wurde (vgl. Smith 1959 und 1961). 179 So befasste sich z.B. Chenery in seinen ersten Arbeiten mit dem Erdgastransport mittels Pipelines (vgl. Chenery 1949: S. 514 ff. und 1953: S. 311 ff.). 180 Die wesentliche Neuerung der analytischen Kostenmodelle im Vergleich zu den Engineering Production Functions liegt weniger im konzeptionellen Bereich, als vielmehr in der umfassenden Nutzung moderner Verfahren rechnergestützter Optimierung (vgl. Gasmi et al. 2002: S. 16). 181 Zu den Weiterentwicklungen von Farrells Ansatz und einen Überblick über die modernen Benchmarking-Methoden vgl. Ajodhia/Petrov/Scarsi (2003) und Murillo-Zamorano (2004). 182 Der Einfluss des menschlichen Faktors wurde später von Leibenstein (1966) in den Mittelpunkt seines Konzepts der X-Effizienz gestellt. Insbesondere Stigler (1976) hat diese Erweiterung des in der neoklassischen Theorie entwickelten Effizienzbegriffs kritisiert, weil die von Leibenstein verwendete Terminologie zu wirtschaftspolitischen Trugschlüssen verleitet. Zu den Gemeinsamkeiten und Unterschieden zwischen den Ansätzen von Farrell und Leibenstein vgl. Leibenstein/Maital (1992) und Button/Weyman-Jones (1994). 108 det zwischen technischer Effizienz und Faktorpreiseffizienz. Bei der vergleichenden Messung der technischen Effizienz unterschiedlicher Unternehmen geht es um die Frage, ob mit einem gegebenen Mengengerüst der Inputs der größtmögliche Output (mengenmäßig) erzielt wird. Demgegenüber geht es bei der vergleichenden Messung der Faktorpreiseffizienz darum, ob das Mengengerüst der Inputs (z.B. Kapitalgüter) optimal an die relativen Faktorpreise (z.B. Zinskosten) angepasst ist (vgl. Knieps 2007: S. 175).183 Farrell hielt die Faktorpreiseffizienz für empirisch kaum messbar und legte in seiner Benchmarking-Methode den Fokus auf die technische Effizienz (vgl. Farrell 1957: S. 260 f. und 264). Der Ansatz steht und fällt mit der Auswahl der Vergleichsgruppe. Wenn eine relativ homogene Vergleichsgruppe zusammengestellt werden kann, funktioniert Benchmarking am besten. Je heterogener jedoch die Grundgesamtheit, desto problematischer sind die Schlussfolgerungen.184 Analytische Kostenmodelle können einem Netzbetreiber dabei helfen, das optimale Mengengerüst eines neu aufzubauenden Netzes bzw. neuer Netzteile zu bestimmen. Zur Charakterisierung des Mengengerüsts eines bestehenden Netzes sind sie dagegen ungeeignet, denn es ist gerade das besondere Charakteristikum dieser Modelle, vom bereits bestehenden Kapitalstock weitgehend zu abstrahieren (vgl. Knieps 2007: S. 34 f. u. 171 f.).185 Bei Benchmarking ist es gerade umgekehrt. Sie können dem Netzbetreiber dabei helfen, das Mengengerüst des bereits bestehenden Netzes zu optimieren. Benchmarking ist jedoch ungeeignet, um das Mengengerüst eines neu aufzubauenden Netzes zu bestimmen, denn der zentrale Ausgangspunkt für Benchmarking ist der Vergleich bereits bestehender Netze. Die gemeinsame Basis einer differenzierten Investitionsmodellierung neuer und bestehender Netzteile ist die Strategie des Netzbetreibers (vgl. Abschnitt 6.2.1). Davon ausgehend kann bei der Modellierung des Mengengerüsts sowohl auf die Erkenntnisse analytischer Kostenmodelle als auch auf die Erkenntnisse von Benchmarking-Analysen (soweit vorhanden) zurückgegriffen werden. Die Verwendung 183 Der Effizienzbegriff wird in der Literatur unterschiedlich verwendet. In der Produktionstheorie wird mit effizienter Produktion die technisch effiziente Produktion im Sinne Farrells bezeichnet. Davon unterschieden wird die kostenminimale Produktion, die sowohl technische Effizienz als auch Preiseffizienz im Sinne Farrells voraussetzt (vgl. Fandel 2005: S. 48-51 und 217 f.). Was Farrell Preiseffizienz nennt, wird häufig auch allokative Effizienz genannt (vgl. Murillo-Zamorano 2004: S. 33 f.). Beide Begriffe können aber zu Verwechslungen mit Outputpreisverzerrungen (z.B. wegen Marktmacht) führen, deshalb wird hier im Text der Begriff Faktorpreiseffizienz verwendet. 184 Farrell selbst hat diesen Einwand schon vorausgesehen (vgl. Farrell 1957: S. 260). Letztlich basiert auch seine Methode auf einer Idealisierung im Sinne einer künstlichen Homogenisierung der Vergleichsgruppe: "[T]his method of measuring the technical efficiency of a firm consists in comparing it with a hypothetical firm which uses the factors in the same proportions. This hypothetical firm is constructed as a weighted average of two observed firms, in the sense that each of its inputs and outputs is the same weighted average of those observed firms, the weights chosen so as to give the desired factor proportions" (Farrell 1957: S. 256). 185 Vgl. hierzu auch die Unterscheidung zwischen einem engeren und einem weiteren Begriffsverständnis von analytischen Kostenmodellen in CONSENTEC et al. (2006: S. 3). 109 unterschiedlicher Methoden der Investitionsmodellierung für neue und bestehende Netzteile stellt solange kein Problem dar, als auf die Einhaltung folgender Prinzipien geachtet wird: Kompatible Partitionierung: Die Partitionierung des Mengengerüsts eines Netzbetreibers in eine Menge N = {1, ..., n} unterschiedlicher Kapitalgüter ist eine Abstraktion. Theoretisch kann das Mengengerüst beliebig grob (Extremfall n = 1) oder fein (Extremfall n??) partitioniert werden.186 Je feiner die Partitionierung. desto genauer kann auch die im jeweiligen Entscheidungskontext relevante Teilmenge NS ? des bestehenden Netzes abgegrenzt werden. Allerdings verschärft sich damit auch das in Abschnitt 6.1 erläuterte Aggregationsproblem bei der nachfolgenden Bewertung.187 Wenn neue Netzteile geplant sind, d.h. die Menge N um ein ?N erweitert wird, dann sollten neue und bestehende Netzteile nach der gleichen Systematik partitioniert werden. Dies ist die Voraussetzung für eine konsistente Abgrenzung der jeweils relevanten Teile des Mengengerüsts.188 Ingenieurtechnische Fundierung: Die Produktionstechnologien in Netzindustrien sind in einem erheblichen Umfang durch technische Prozesse geprägt, deren konkrete Ausprägung vom jeweiligen Stand des technischen Wissens und der vom Netzbetreiber verfolgten Netzaufbaustrategie abhängen. Diese technischen Prozesse spielen eine zentrale Rolle bei der Investitionsmodellierung und der Kostenermittlung.189 Das gilt nicht nur für neue sondern auch für bestehende Netzteile. Wenn z.B. die Wiederbeschaffungskosten bereits bestehender Netzteile ermittelt werden, dann ist in der Regel nicht davon auszugehen, dass das Kapitalgut in identischer Form wiederbeschafft wird (insbesondere wegen technischen Fortschritts). Die Spezifikation eines funktionsgleichen modernen Kapitalguts (so genanntes Modern Equivalent Asset – MEA) erfordert nicht nur Informationen über heutige und zukünftige Inputpreise, sondern auch in hohem Maße technischen Sachverstand (vgl. Albach/Knieps 1997: S. 48). Dazu gehört nicht nur die Fähigkeit zur Beurteilung technischer Entwicklungen der Vergangenheit, sondern auch die Fähigkeit zur Abschätzung der 186 "In establishing a consistent asset policy, the determination of base units is of prime importance. The base unit is the smallest asset component. It is the basic unit in which the property records are maintained" (Peterson 2002: S. 39). 187 Zudem steigen bei feinerer Partitionierung die Kosten der Erhebung und fortlaufenden Pflege der Bestandsdaten (vgl. Peterson 2002: S. 40 f.). 188 Gerade bei Netzinfrastrukturen ist zu berücksichtigen, dass deren Kapazität in der Regel nicht kontinuierlich sondern nur in diskreten Sprüngen veränderbar ist (vgl. Turvey 2000b: S. 207). Dies gilt nicht nur bei einer Erhöhung der Kapazität (Inkrement) sondern auch bei deren Reduzierung (Dekrement): "Unfortunately, the use of the term increment makes it easy to forget to examine decrements as well as increments" (Turvey 2000a: S. 3, Hervorhebung wie im Original). 189 Ein Beispiel sind die Kirchhoffschen Gesetze in Stromnetzen. Ihre Berücksichtigung ist elementar für die Ermittlung der Kosten des Stromtransports (vgl. Knieps 2007: S. 69-77). Der Elektrizitätssektor ist auch ein gutes Beispiel dafür, wie sich die Rollenverteilung zwischen Ingenieuren und Ökonomen im Zuge der Liberalisierung verändert hat (vgl. Mueller/ Carter 2007). 110 Möglichkeiten und Grenzen zukünftiger technischer Entwicklungen (vgl. Cruz/Hisiger/Wolff 1989 und Pohler/Beckert/Schefczyk 2006). Realtypisches versus idealtypisches Mengengerüst: Analytische Kostenmodelle führen zum idealtypischen Mengengerüst eines repräsentativen Unternehmens.190 Für unternehmerische Entscheidungen ist jedoch das realtypische Mengengerüst eines ganz konkreten Unternehmens relevant (vgl. Albach/Knieps 1997: S. 27 f.).191 Es gilt Trugschlüsse zu vermeiden, die charakteristisch sind für einen Ansatz zur Modellierung von Mengengerüsten, der sich – in Anlehnung an Demsetz (1969) – als Nirvana-Ansatz kennzeichnen lässt.192 Auf der Ebene der Netzinfrastrukturen kann insbesondere die Missachtung der Pfadabhängigkeit zu Trugschlüssen führen. Die Topologie eines historisch gewachsenen Infrastrukturnetzes (Brownfield approach als Realtypus) ist nicht ohne weiteres mit einem "auf der grünen Wiese" völlig neu geplanten Infrastrukturnetz (Greenfield approach als Idealtypus) vergleichbar. Ein solcher Vergleich ist allenfalls dann zulässig, wenn sämtliche Übergangskosten vom realtypischen Ist-Zustand in den idealtypischen Soll-Zustand mitberücksichtigt werden (vgl. Streit 2005: S. 22).193 Durchgängiges Wertgerüst: Keine ökonomisch fundierte Investitionsmodellierung (Mengengerüst) kann ohne Annahmen über die Kapitalkosten (Wertgerüst) auskommen. Die Annahmen bezüglich der Kapitalkosten müssen für neue und bestehende Netzteile konsistent sein.194 Das Deprival value-Konzept liefert hierfür den konzeptionellen Rahmen. Die auf dem Deprival value-Konzept beruhende Abschreibungsermittlung nach Wright betont nicht das Trennende sondern das Verbindende zwischen neuen und alten Kapitalgütern – bzw. im Netzkontext: zwischen neuen und bestehenden Netzteilen. Gerade die konzeptionelle Verbindung zwischen neuen und bereits vorhandenen Kapitalgütern ist nach Wright der Schlüssel zur Periodisierung der Kapitalkosten (vgl. Abschnitt 4.2.2). 190 "A cost proxy model conceptually consists of a set of more or less detailed descriptions of the technical processes underlying the cost function of a representative firm in the industry" (Gasmi et al. 2002: S. 11). 191 Zur Kritik an der Verwendung des Konzepts der repräsentativen Firma zur Effizienzmessung vgl. Stigler (1976: S. 214 f.). 192 "The nirvana approach is much more susceptible than is the comparative institution approach to committing three logical fallacies – the grass is always greener fallacy, the fallacy of the free lunch, and the people could be different fallacy" (Demsetz 1969: S. 2, Hervorhebungen wie im Original). 193 Analytische Kostenmodelle können dies nicht leisten. Ein Unternehmen, dass analytische Kostenmodelle zur Bewertung neuer Netzteile einsetzt, wird die jeweiligen Übergangskosten fallweise abschätzen – ausgehend vom jeweiligen Status quo und unter Berücksichtigung seiner langfristigen Netzaufbaustrategie. 194 Das bedeutet nicht, dass auch dieselben Kostenkonzepte relevant sind: für neue Netzteile sind die langfristigen Zusatzkosten relevant, für bestehende die langfristig vermeidbaren Kosten (vgl. Knieps 2007: S. 27). 111 6.3 Das Mengengerüst in regulierten Netzbereichen 6.3.1 Die Kosten der effizienten Leistungsbereitstellung Vor der Liberalisierung war in der Regulierungstheorie lange Zeit die Auffassung vorherrschend, dass ein Unternehmen auch dann, wenn es Marktmacht hat und reguliert wird, genügend Anreize zur effizienten Produktion und damit einhergehend zur optimalen Gestaltung seines Kapitalgüterbestands hat.195 Diese Auffassung wurde durch den berühmten Beitrag von Averch/Johnson (1962) grundlegend in Frage gestellt. Der so genannte Averch-Johnson-Effekt ist der Prototyp einer regulierungsbedingten Ineffizienz. Weil die Rate of return-Regulierung den Inputfaktor Arbeit gegenüber dem Inputfaktor Kapital diskriminiert, besteht eine (unerwünschte) Nebenwirkung der Regulierung darin, dass die regulierten Unternehmen ihren Kapitalgüterbestand (Mengengerüst) zu groß dimensionieren.196 In der US-amerikanischen Regulierungspraxis sind die Regulierungsbehörden in den 1970er Jahren vermehrt dazu übergegangen, die von den regulierten Unternehmen vorgelegten Kosteninformationen sehr viel kritischer als zuvor zu hinterfragen und gegebenenfalls Kosten nicht anzuerkennen. Dabei ging es vor allem um die Einbeziehung von Kapitalgütern, d.h. die Frage nach dem relevanten Mengengerüst.197 Das zentrale Problem für die Behörden war aber, dass sie keinen unabhängigen Prüfungsmaßstab fanden, um entscheiden zu können, ob ein vom regulierten Unternehmen als relevant deklariertes Kapitalgut zur effizienten Leistungsbereitstellung wirklich erforderlich war oder nicht:198 "Under traditional rate-making principles, public utilities are entitled to recover "prudent" investments when they become "used and useful." Certain items may be excluded from the rate base, including "excess capacity." But since the late 1970s, it has become clear that all three terms lack precise definitions" (Phillips 1993: S. 340). Nach der Liberalisierung stehen die Regulierungsbehörden wieder vor demselben Problem. Der Übergang von traditioneller Kostenregulierung zu moderner Anreizregulierung hat das Problem nicht beseitigt, denn von einer Regulierungsbehörde wird nun erwartet, dass sie Art und Umfang ungenutzter Effizienzspielräume abschätzen 195 "The decision as to what property is "used and useful" is normally left to management, although certain items claimed by utilities may be questioned and excluded from the rate base by the commissions" (Phillips 1993: S. 316). 196 Nach der im vorhergehenden Abschnitt erläuterten Klassifikation von Farrell wird das Kriterium der Faktorpreiseffizienz verletzt; die technische Effizienz ist trotz Averch-Johnson- Effekt gegeben. 197 Diese so genannten Cost Disallowances spielten vor allem im amerikanischen Energiesektor in den 1970er und 1980er Jahren eine große Rolle. Die damit einhergehenden Unsicherheiten für die Unternehmen wurden von Kolbe/Tye/Myers (1993) als Regulatory Risk charakterisiert. Das Konzept des Regulierungsrisikos wird in Kapitel 9 der vorliegenden Arbeit ausführlich behandelt. 198 Auch die Regulierungsökonomen haben sich mit dem empirischen Nachweis des Averch- Johnson-Effekts sehr schwer getan (vgl. Borrmann/Finsinger 1999: S. 353 f.).

Chapter Preview

References

Zusammenfassung

Für die in liberalisierten Netzindustrien aktiven Unternehmen sind Kosteninformationen insbesondere bei Preis- und Investitionsentscheidungen von zentraler Bedeutung. Darüber hinaus interessieren sich in zunehmendem Maße die wirtschaftspolitischen Entscheidungsträger für die Kosten der Netze, vor allem bei der Regulierung von Marktmacht und der Bestellung defizitärer Netzleistungen. Dies erfordert eine auf anerkannten ökonomischen Prinzipien basierende entscheidungsorientierte Kostenermittlung, die durchgängig und konsistent in allen Netzbereichen – seien sie nun wettbewerblich, reguliert oder subventioniert – anwendbar ist. Die vorliegende Habilitationsschrift will hierfür eine systematische methodische Grundlage legen.

Im Mittelpunkt steht die disaggregierte Ermittlung der Kapitalkosten. Es wird aufgezeigt, dass das Deprival value-Konzept bei der Kapitalkostenermittlung eine zentrale Rolle spielt. Darauf aufbauend wird ein analytischer Rahmen entwickelt, der das Zusammenspiel von Regulierung und Subventionierung (z.B. bei defizitären Eisenbahninfrastrukturen) normativ begründen kann.