Content

Hans-Jörg Weiß, Der Ansatz von Ahn/Thompson in:

Hans-Jörg Weiß

Entscheidungsorientiertes Costing in liberalisierten Netzindustrien, page 153 - 155

1. Edition 2009, ISBN print: 978-3-8329-4061-4, ISBN online: 978-3-8452-1481-8 https://doi.org/10.5771/9783845214818

Series: Freiburger Studien zur Netzökonomie, vol. 16

Bibliographic information
153 9 Kostendeckung unter Regulierungsrisiko272 9.1 Der traditionelle Ansatz zur Modellierung von Regulierungsrisiken 9.1.1 Der Ansatz von Ahn/Thompson Regulierungsinstrumente werden von Regulierungsbehörden implementiert. Im Mittelpunkt der Implementierung steht die Festlegung von Regulierungsparametern. Bei der Rate of return-Regulierung ist der zentrale Regulierungsparameter die zugelassene Kapitalverzinsung (Rate of return), bei der Price cap-Regulierung ist es die Produktivitätsfortschrittsrate (so genannter X-Faktor). Bei der Festlegung dieser Regulierungsparameter spielen Kosteninformationen eine zentrale Rolle (vgl. Abschnitt 3.3.2). Angesichts der Komplexität der Kostenermittlung in Netzen ist nicht auszuschließen, dass der Regulierungsbehörde bei der Kostenermittlung oder der Parameterfestlegung Fehler unterlaufen. Derartige Fehler können die verschiedensten Ursachen haben, z.B. dass die Regulierungsbehörde ungeeignete Kostenkonzepte und Ermittlungsmethoden verwendet, bei der Anwendung der Methoden Fehler macht oder in Bezug auf die Parameterfestlegung die falschen Schlüsse aus den gesammelten Kosteninformationen zieht. All diese potenziellen Fehlerquellen können dazu führen, dass ein von der Regulierungsbehörde festgelegter Parameterwert vom tatsächlichen Wert abweicht. Mess- und Prognosefehler dieser Art auf Seiten der Regulierungsbehörde führen dazu, dass die Werte zukünftiger Regulierungsparameter aus der ex ante-Sicht der betroffenen Firmen unsichere bzw. stochastische Größen sind. Regulierungsrisiken dieser Kategorie werden in Ahn/Thompson (1989) ausführlich analysiert. Ahn/Thompson gehen von einem für die USA typischen Regulierungskontext aus. Ein Unternehmen unterliegt einer Rate of return-Regulierung. Das Ziel der Regulierungsbehörde besteht darin, den zugelassenen Rate of return x (definiert als Jahresüberschuss im Verhältnis zum Buchwert des Eigenkapitals) mit den Cost of capital x* (inklusive aller regulierungsbedingten Risiken) in Übereinstimmung zu bringen. Die Entwicklung von x im Zeitablauf wird als Wiener-Prozess modelliert.273 Sobald x einer von der Regulierungsbehörde definierten Obergrenze xU ("upper control limit") oder einer Untergrenze xL ("lower control limit") zu nahe kommt, wird ein Regulierungsverfahren ("rate case") ausgelöst ("triggering"). Die Verfügungen der Regulierungsbehörde führen dazu, dass x nach einem Verfahren 272 Kapitel 9 basiert auf gemeinsamen Forschungsarbeiten mit G. Knieps (vgl. Knieps/Weiß 2007 und 2008). 273 Ein Wiener-Prozess (Brown'sche Bewegung) ist ein zeitstetiger stochastischer Prozess, der normalverteilte, unabhängige Zuwächse hat (vgl. Dixit/Pindyck 1994: Kap. 3). 154 wieder näher bei x* liegt und der Wiener-Prozess nach dieser Sprungstelle ("jump") fortgesetzt wird, bis das nächste Verfahren ausgelöst wird. Das Regulierungsrisiko liegt in den Sprungstellen begründet, und zwar in zweifacher Hinsicht. Erstens ist unsicher, wann genau ein Regulierungsverfahren ausgelöst wird. Mit positiver Wahrscheinlichkeit kann der Fall eintreten, dass ein Verfahren ausgelöst wird, bevor die Schwellenwerte xU und xL erreicht werden. Ahn/Thompson bezeichnen dies als Triggering risk. Zweitens ist unsicher, ob x am Ende eines Regulierungsverfahrens tatsächlich auf einen Wert x* gesetzt wird, der den Cost of capital entspricht. Mit positiver Wahrscheinlichkeit kann der Fall eintreten, dass der Regulierer den erlaubten Rate of return höher oder niedriger als die Cost of capital setzt. Ahn/Thompson bezeichnen dies als Setting risk. Ahn/Thompson nehmen die Cost of capital des regulierten Unternehmens auch als Maßstab für die Höhe des Regulierungsrisikos.274 Das Setting risk hat systematische Effekte auf die Cost of capital, die davon abhängen, ob die zulässige Bandbreite zwischen den Ober- und Untergrenzen xU und xL groß oder klein festgelegt wurde. Falls die Bandbreite groß gewählt wurde, dann sinken die Cost of capital. Falls die Bandbreite dagegen klein gewählt wurde, dann gilt das Umgekehrte: die Cost of capital steigen. Für das Triggering risk lassen sich aus den numerischen Simulationen kaum systematische Effekte ableiten. Es zeigt sich lediglich, dass die Cost of capital-Veränderungen (seien sie nun positiv oder negativ) komparativ gesehen geringer sind, wenn die Bandbreite größer festgelegt wurde. Allerdings gibt es einen Spezialfall, in dem die beiden Regulierungsrisiken zu einer eindeutigen Senkung der Cost of capital führen; dies ist dann der Fall, wenn die Untergrenze xL relativ nahe bei x* liegt und die Obergrenze xU relativ weit davon entfernt.275 In den numerischen Simulationen von Ahn/Thompson bewirkt das Regulierungsrisiko "nur" einen Anstieg der Cost of capital von 9,68% auf 9,8%, d.h. 12 Basispunkte. Damit wird suggeriert, dass Regulierungsrisiken für die Regulierungspraxis (zumindest im Kontext einer Rate of return-Regulierung) von überschaubarer Bedeutung sind und im Rahmen von entsprechenden Sicherheitszuschlägen bei der Kapitalkostenermittlung berücksichtigt werden können.276 Dabei ist jedoch zu be- 274 Ahn/Thompson verwenden das Modell von Brennan/Schwartz (1982) als Vergleichsbasis. Bereits Brennan/Schwartz modellieren die Entwicklung von x als Wiener-Prozess, der zwischen den Grenzwerten xU und xL und mit Sprüngen zurück zum Basiswert x* abläuft, und messen die Effekte auf die Cost of capital. Allerdings gehen sie davon aus, dass xU, xL und x* sichere Sprungstellen sind, während Ahn/Thompson davon ausgehen, dass diese Regulierungsparameter unsicher sind. Durch Herausfiltern der Nettoeffekte dieser zusätzlichen Unsicherheitsfaktoren können Ahn/Thompson die Höhe von Triggering risk und Setting risk isoliert bestimmen. Sie verwenden hierzu numerische Simulationen. 275 Ahn/Thompson sehen den Spezialfall als Bestätigung dafür, "that the optimal regulatory policy is one which is quick to initiate a rate case when the rate of return falls below the cost of capital but which also follows considerable opportunity for the company to earn high rates of return" (Ahn/Thompson 1989: S. 255). 276 Die Berücksichtigung von Sicherheitszuschlägen bei der Ermittlung der Weighted Average Cost of Capital (WACC) ist in Lally (2005: S. 59-63) für ein konkretes Anwendungsbeispiel dargestellt. 155 rücksichtigen, dass Ahn/Thompson davon ausgehen, dass die Mess- und Prognosefehler der Regulierungsbehörde keinen systematischen Bias in die eine oder andere Richtung aufweisen. Opportunistisches Verhalten der Regulierungsbehörde als Ursache für die fehlerhafte Festlegung von Regulierungsparametern ist somit ausgeschlossen. Es wird eine wohlfahrtsmaximierende Regulierungsbehörde unterstellt.277 9.1.2 Kritische Betrachtung des traditionellen Ansatzes Der Ansatz von Ahn/Thompson macht deutlich, dass Regulierungsrisiken auf stochastische Elemente im Regulierungsprozess zurückzuführen sind.278 Sie sind die Folge unsicherer Regulierung. Bei sicherer Regulierung gibt es keine Regulierungsrisiken. Bei sicherer Regulierung sind die Regulierungsbasis (z.B. die Stromübertragungsnetze), das zum Einsatz kommende Regulierungsinstrumentarium (z.B. Price cap-Regulierung) und die im Zuge der Implementierung festzulegenden Regulierungsparameter (z.B. die Höhe des X-Faktors) sichere Größen. Das schließt keineswegs aus, dass sich diese Größen im Zeitablauf ändern (z.B. neuer X-Faktor alle fünf Jahre). Der entscheidende Punkt bei sicherer Regulierung ist, dass die von der Regulierung Betroffenen (Produzenten und Konsumenten der jeweiligen Branche) diese Änderungen mit Sicherheit vorhersehen können. Dagegen ist dies bei unsicherer Regulierung nicht mehr möglich. Bei unsicherer Regulierung sind Zukunftsprognosen bezüglich der Basis, der Instrumente oder der Höhe der Parameter mit Risiken behaftet. Das Regulierungsrisiko umfasst das Risikodifferential zwischen sicherer und unsicherer Regulierung (vgl. Ahn/Thompson 1989: S. 241 f.). Von den Aktivitäten einer Regulierungsbehörde ausgehende Regulierungsrisiken können zwei unterschiedliche Ursachen haben: Mess- und Prognosefehler sowie Opportunismus. Ahn/Thompson fokussieren die Mess- und Prognosefehler. Sie sind eine zwangsläufige Begleiterscheinung des Einsatzes von Regulierungsinstrumenten bei unvollständiger Information und deshalb bis zu einem gewissen Grad unver- 277 Bemerkenswert ist, dass Thompson seinen gemeinsam mit Ahn im Kontext der Rate of return-Regulierung entwickelten Ansatz auch im Kontext der Price cap-Regulierung für anwendbar hält, jedoch dem Einfluss der Interessengruppen in diesem Kontext eine größere Bedeutung beimisst: "These ideas of how control limits and variability affect the cost of capital under rate of return regulation can be extended to analyzing the effect of price cap regulation on the cost of capital. Since recalibration of the price caps is part of any proposed system, the price cap system will act like a control system (...). However, the effective controls are likely to be wider than those under rate of return regulation. The political strength of consumer interest groups and investor interest groups will determine the relative expansion of the lower and upper control limits, thus leaving the effect on the cost of capital in doubt" (Thompson 1991: S. 221). Wenn das Verhalten der Regulierungsbehörde durch Interessengruppen beeinflusst wird, ist die Annahme der Wohlfahrtsmaximierung nicht mehr plausibel (mehr dazu in Abschnitt 9.2). 278 Auch Woroch (1988: S. 75 f.) hat betont, dass die Existenz von Regulierungsrisiko mindestens ein stochastisches Element voraussetzt, das unabhängig von den typischen Marktrisiken (Nachfrageschwankungen, Faktorpreisveränderungen etc.) ist.

Chapter Preview

References

Zusammenfassung

Für die in liberalisierten Netzindustrien aktiven Unternehmen sind Kosteninformationen insbesondere bei Preis- und Investitionsentscheidungen von zentraler Bedeutung. Darüber hinaus interessieren sich in zunehmendem Maße die wirtschaftspolitischen Entscheidungsträger für die Kosten der Netze, vor allem bei der Regulierung von Marktmacht und der Bestellung defizitärer Netzleistungen. Dies erfordert eine auf anerkannten ökonomischen Prinzipien basierende entscheidungsorientierte Kostenermittlung, die durchgängig und konsistent in allen Netzbereichen – seien sie nun wettbewerblich, reguliert oder subventioniert – anwendbar ist. Die vorliegende Habilitationsschrift will hierfür eine systematische methodische Grundlage legen.

Im Mittelpunkt steht die disaggregierte Ermittlung der Kapitalkosten. Es wird aufgezeigt, dass das Deprival value-Konzept bei der Kapitalkostenermittlung eine zentrale Rolle spielt. Darauf aufbauend wird ein analytischer Rahmen entwickelt, der das Zusammenspiel von Regulierung und Subventionierung (z.B. bei defizitären Eisenbahninfrastrukturen) normativ begründen kann.