1 Einführung in die Immobilienrisikoforschung und Vorstellung der Forschungsmethode

Zahlreiche Studien sind in den letzten Jahren zu dem Ergebnis gekommen, dass Immobilienrenditen nicht normalverteilt sind. „Na und?“ könnte man fragen, schließlich ist die Normalverteilung nur ein Spezialfall unter den Häufigkeitsverteilungen, und die Annahme, dass sich die Renditen von so etwas Komplexem wie Immobilieninvestitionen durch so etwas Regelmäßiges wie die Normalverteilung darstellen lassen, ist dem realitätsfernen Modell der Portfoliotheorie geschuldet. Dennoch ist das Ergebnis mindestens aus den folgenden drei Gründen bemerkenswert: Erstens macht es darauf aufmerksam, dass noch nicht klar ist, wie die Verteilung der Renditen wirklich aussieht und welche Faktoren sie bestimmen. Zweitens zerstört das Ergebnis manche liebgewonnene Angewohnheit, z. B. die Volatilität unreflektiert als Risikokennzahl zu verwenden. Drittens fordert es zum Nachdenken darüber auf, nach welchen Kriterien Entscheidungen über Immobilieninvestitionen getroffen werden sollten. Wir widmen uns in diesem Artikel vor allem dem ersten Punkt und stellen daraufhin Überlegungen zu den anderen beiden Punkten an. Bevor wir unsere Herangehensweise erläutern, wollen wir kurz den Wissensstand zur Verteilung von Immobilienrenditen skizzieren.

Die erwartete Rendite ist für einen professionellen Investor das wichtigste Kriterium bei der Bewertung einer Investition (French 2001). Sie drückt den natürlichen Wunsch des Investors nach einer Belohnung für das eingegangene Risiko und die aufgegebene Liquidität aus. Die Rendite ist für einen Investor der nächstliegende Eckpunkt des KapitalanlagedreiecksFootnote 1, während die anderen beiden Eckpunkte ihm weniger vertraut sind (Strümpel 1968, S. 95 ff.; Luhmann 1997, S. 327 ff.), er wenig Gespür für sie hat (Gigerenzer 2013; Kahneman 2016) und deren Kennzahlen weniger erforscht sind. Die Liquidität kann auch als Teilrisiko betrachtet werden, so dass die Betrachtung der Einfachheit halber auf Rendite und Risiko reduziert wird (Pástor und Stambaugh 2003, S. 644). Das Risiko schließlich wird häufig aus der Verteilung der Rendite abgeleitet, vor allem aus den Streuungsmaßen Varianz, Standardabweichung und Volatilität.

Praxis und Wissenschaft haben zur Messung des Risikos viele Kennzahlen entwickelt, für die zum Beispiel Baumeister (2004, S. 17) eine übersichtliche, wenn auch unvollständige, weil auf quantitative Größen beschränkte Einteilung bereitstellt (Abb. 1).

Abb. 1
figure 1

Übersicht zu Ansatzpunkten in der Risikobewertung (Eigene Darstellung in Anlehnung an Baumeister (2004), S. 17)

Grundsätzlich kann man zur Risikobewertung die vollständige Verteilung berücksichtigen oder das Risiko mittels Kennzahlen verdichten. Die vollständige (empirische) Verteilung ist für Immobilien aus Datenmangel meist nicht bekannt. Daher wird auf idealisierte Modelle zurückgegriffen, wie zum Beispiel die Normalverteilung, die durch die erwartete Rendite und die Standardabweichung vollständig beschrieben wird (zurückgehend auf Markowitz 1952, und von Neumann und Morgenstern 1944). Des Weiteren können Risikomaße danach unterschieden werden, ob nur ein Teil der Verteilung zur Berechnung des Risikos betrachtet werden sollte (ursprünglicher Gedanke von Roy 1952); Kennzahlen wie die Semi-Volatilität beschränken sich auf den Bereich unterhalb der erwarteten Rendite. Dadurch nimmt die Zahl der notwendigen Kennzahlen zu, was eine Entscheidung erschwert. Um die steigende Komplexität durch weitere Kennzahlen zu reduzieren, wurden risikoadjustierte Performancemaße entwickelt. Hierzu gehört bspw. der Risk-adjusted Return on Capital (RAROC), der ursprünglich für Banken entwickelt wurde (Schierenbeck et al. 2008), aber mittlerweile auch Anwendung in Immobiliengesellschaften gefunden hat. Dennoch werden quantitative Risikomaße in der Immobilienwirtschaft eher stiefmütterlich behandelt, es dominieren qualitative Methoden wie die Szenarioanalyse (Plantz 2012, S. 120). Die Gründe sind nicht genau erforscht, aber es gibt Hinweise, dass es Praktikern schwerfällt, Risikomaße mit typischen Maßnahmen der immobilienwirtschaftlichen Praxis zu verbinden (Pfnür und Armonat 2001).

Den quantitativen Risikomaßen ist gemein, dass ihnen zur Berechnung oftmals ein Verteilungsmodell zugrunde liegt. Es können auch verteilungsfreie Methoden eingesetzt werden, die aber eine geringere Teststärke besitzen und mit einer höheren Komplexität des Modells einhergehen. Daher erfreut sich die Normalverteilung als Verteilungsmodell immer noch großer Beliebtheit. Dies wäre nicht problematisch, wenn das Modell in Bezug auf die empirischen Phänomene bei Immobiliendaten hinreichend präzise wäre – ist es aber nicht, wie u. a. die Untersuchungen von Müller et al. (2014), Young (2008), Young et al. (2006), Wellner (2003), Lizieri und Ward (2001) sowie Young und Graff (1995) belegen. Die Abweichungen vom Modell zeigen sich vor allem in den spitzeren Wölbungen (Leptokurtosis) und stärkeren Enden (Fat-Tails) von Immobilienrenditen.Footnote 2

Es gibt nach unserer Ansicht vier grundsätzliche Strategien, mit dem Problem der Nicht-Normalverteilung umzugehen. Die erste Strategie ist das Ignorieren einer Normal-Verteilung, die natürlich nur sinnvoll ist, wenn davon ausgegangen werden kann, dass dadurch kein systematischer Fehler entsteht. Angesichts der deutlichen Abweichungen in den bisherigen Untersuchungen, insbesondere am linken Rand der Verteilung, ist dies nicht empfehlenswert (s. Taleb 2007). Des Weiteren ist der Forschungsstand über Verteilungen immobilienwirtschaftlicher Größen zu gering, um von einer Unbedenklichkeit ausgehen zu können. Eine weitere Strategie ist die in der Statistik übliche Transformation der Eingangsvariablen. Hier gibt es diverse Verfahren, um spezielle Charakteristika von Querschnitts- und Längsschnittdaten zu korrigieren, z. B. die Trendbereinigung, das Logarithmieren nicht-linearer Daten oder die Transformation nach Box und Cox (1964). Leider ist dies nicht immer wirkungsvoll und mündet trotz aller Bemühungen oft in fehlerbehaften oder instabilen Modellen. Die dritte Strategie ist die Verwendung von Verfahren, die robust gegen Ausreißer und asymmetrische Verteilungen sind. Eine Möglichkeit sind verteilungsfreie Modelle wie beispielsweise die Nutzung des Medians, der Mean Absolute Deviation oder Shrinkage-Verfahren. Letzteres soll die Weiterverwendung der Normalverteilung und den Erhalt ihrer Vorzüge ermöglichen, wie es beispielsweise der Ansatz von Ledoit und Wolf (2003) zeigt. Die letzte Strategie versucht Verteilungsmodelle zu nutzen, die eine bessere Anpassung an die Charakteristika empirischer Daten bieten. Beispiele hierfür sind die relativ gut erforschte t‑Verteilung (Bollerslev 1987), Sprungverteilungen (siehe bspw. Cont und Tankov 2004) oder auch die sehr flexible alpha-stabile Verteilung (Mandelbrot 1960). Zum einen gewähren solche Modelle eine präzisere Anpassung an empirische DatenFootnote 3, zum anderen immunisieren sie die Messung statistischer Parameter gegen Ausreißer. Dieser Ansatz kann jedoch akzeptierte ökonomische Axiome verletzen und in mathematisch komplexe Lösungen münden.

Alle vier Strategien sind prinzipiell nützlich, doch ignorieren sie die Gründe für die Nicht-Normalverteilung von Renditen. Die wahren Gründe sind leider bisher kaum bekannt, es existieren derzeit lediglich Vermutungen und abstrakte mathematische Beschreibungen (Cont 2001), die wenig Praxisbezug aufweisen. Daher soll dies der erste Aufsatz sein, der das Phänomen der Nicht-Normalität versucht zu ergründen, anstatt es zu umgehen, zu beschreiben oder zu modellieren.

Die folgenden Ausführungen versuchen die bisherigen Erkenntnisse zu kategorisieren. Nach unserer Einschätzung gelingt das am besten nach dem Kriterium der funktionalen Abhängigkeit der Variablen.Footnote 4

Die erste Kategorie der Gründe für nicht-normale Renditeverteilungen bilden dauerhafte Abhängigkeiten, die am besten durch ein Korrelationsmaß beschrieben werden können – siehe Abb. 2. Hier kann man weiter in Abhängigkeiten von exogenen und von endogenen Faktoren unterteilen. Die Forschung konzentriert sich überwiegend auf exogene Faktoren wie Zinsen, Inflation und Einkommen (siehe z. B. Lieser und Groh 2014 und Kurzrock et al. 2009). Auch Steueranreize haben über ihren Einfluss auf Bautätigkeit und Mietentwicklung (Smith et al. 2000; Gallagher und Wood 1999) einen permanenten Bezug zu Immobilienrenditen. Dass „dauerhaft“ nicht „konstant“ bedeutet, sieht man unter anderem daran, dass die Korrelationen zwischen Finanzmärkten in Wirtschaftskrisen ansteigen und so die Diversifikation eines Portfolios verringern (Sandoval Jr. und Franca 2012). Die Korrelationen zwischen Immobilienmärkten sind ebenfalls instabil (Schindler 2009; Lee 2006), was ein wesentlicher Grund für Abweichungen von der Normalverteilung ist.

Abb. 2
figure 2

Unterteilung von Abhängigkeiten zweier oder mehrerer Variablen

Die Autokorrelation, also die Abhängigkeit des aktuellen Wertes von Werten aus vorherigen Perioden, ist eine endogene Korrelation, die ebenfalls als Grund für Nicht-Normalverteilung angeführt wird (Mandelbrot 1960). Die Gründe für ihre Existenz sind nicht restlos geklärt, obwohl es sich um einen der größten Streitpunkte in der Diskussion um das Konzept der Markteffizienz handelt (Fama 1970, 1965; Mandelbrot 1963). Die Autokorrelation tritt insbesondere bei Immobilienbewertungen auf, da eine aktuelle Bewertung zum Teil auf den Informationen früherer Gutachten beruht (Brown und Matysiak 2000). In Immobilienmärkten wie auch in anderen Märkten mit ausgeprägten Zyklen wurden schon häufig Autokorrelationen nachgewiesen (Wheaton 1987; Liow 2007; Grenadier 1995). Außerdem existieren psychologische Faktoren, die zu den endogenen Gründen gezählt werden können. Northcraft und Neale (1987) haben zum Beispiel nachgewiesen, dass Immobiliengutachter an vielen verschiedenen Werten „ankern“ (wie ihren eigenen, früher ermittelten Werten (Diaz und Wolverton 1998)) und somit Immobilien systematisch über- oder unterbewerten. Tritt die Ernüchterung im Markt ein, kommt es zu einer Marktkorrektur bei Transaktionspreisen. Diese Marktkorrekturen fallen zudem noch stärker aus als rational angebracht wäre (DeBondt und Thaler 1986), was Ausreißer begünstigt.

Die zweite Kategorie bilden sporadische Abhängigkeiten, die naturgemäß nur selten zu beobachten sind, im Immobilienkontext wenig erforscht wurden und schwierig zu modellieren sind. Ein gutes Beispiel dafür sind exogene Schocks, wie die Änderung von Steuergesetzen. Das Gewähren und spätere Auslaufen von Steuervorteilen für Immobilien hat direkten, aber zeitlich begrenzten Einfluss auf die Renditen.Footnote 5 Der Transmissionsmechanismus ist dabei oft kompliziert, wie bei dem bekannten Beispiel des Börsenkrachs vom 19. Oktober 1987: Die Ergebnisse von Shiller (1987) legen nahe, dass es zu einer zufälligen Angleichung der Handelsstrategien kam, die zu den massiven Kurseinbrüchen geführt hat. Ein weiteres Beispiel sind die Mietvertragsrestlaufzeiten beim liquidierten Immobilienfonds Hansaimmobilia (Hansainvest 2011). Ein Drittel aller Mietverträge lief ohne erkennbaren Grund innerhalb von nur einer Periode aus.

Zusammengefasst kann man sagen, dass Abhängigkeiten zu Ausreißern und einer stärkeren Wölbung im Vergleich zur Normalverteilung führen. Wie häufig sporadische im Vergleich zu dauerhaften Abhängigkeiten sind, wurde noch nicht untersucht. Mit Taleb (2007) lässt sich aber feststellen, dass höchst unwahrscheinliche Ereignisse einen großen Einfluss auf den Lauf der Geschichte haben – und auf Immobilienrenditeverteilungen ebenso!

Ziel dieses Artikels ist, die Gründe für diese Nicht-Normalverteilung explorativ zu untersuchen, wofür wir das Prinzip der TriangulationFootnote 6 einsetzen (Yin 2014, S. 119 ff.). Die Untersuchung ist dabei auf Direktinvestments in deutsche Wohnimmobilienportfolios beschränkt. Die Abweichungen von der Normalverteilung werden aus drei verschiedenen Perspektiven analysiert, bei denen verschiedene Datensätze sowie quantitative und qualitative Methoden eingesetzt werden, um ein vollständigeres Bild zu erzeugen (Hammersley 2008). Die erste Perspektive konzentriert sich auf die Literatur, die alternative Modelle auf Basis unterschiedlicher Datensätze untersucht hat. Hierzu wurde eine umfangreiche Literaturrecherche zur Messung des Renditerisikos in Immobilienmärkten durchgeführt. Die zweite Perspektive fokussiert auf Beispiele, die zu Abweichungen von der Normalverteilung führen. Als erster Schritt werden die zuvor analysierten Modelle mit Renditedaten auf Objektebene angepasst, um die Genauigkeit der Modelle zu bestimmen. Für den zweiten Schritt konnten drei umfangreiche Datensätze mit Mieteinnahmen auf Portfolio‑, Objekt- und Mietvertragsebene sowie Ausgaben auf Portfolioebene analysiert werden. Diese Datensätze sollen Hinweise auf die Gründe für Abweichungen von der Normalverteilung geben. Die dritte Perspektive untersucht die Wahrnehmung des Risikos durch die Beteiligten, da der Begriff „Risiko“ uneinheitlich definiert ist. (French 2001) Beim Risikobegriff handelt sich um ein soziales Konstrukt, das durch Subjektivität geprägt ist und ohne den Menschen als Entscheider nicht auskommt (Slovic 1999). Aus diesem Grund wird die Analyse durch drei Interviews ergänzt, die mit Experten aus dem Assetmanagement, dem Risikomanagement und der Bewertung geführt wurden.

2 Die verwendeten Daten

Es ist praktisch unmöglich, in einem Modell alle Entscheidungen zu berücksichtigen, die zu Änderungen in einem Immobilienportfolio führen können. Daher erfolgte eine Auswahl benötigter Daten auf Basis der Bestandteile des Total Returns, der auch den Einstiegspunkt in die Untersuchung von Risikomodellen bildet. Hierzu wurden uns von einem Assetmanager die Total Returns eines Immobilienportfolios zur Verfügung gestellt (Zeitreihe A).Footnote 7 Dieser institutionelle Investor verfügt über einen in Jahrzehnten aufgebauten Immobilienbestand überwiegend in deutschen A‑ und B‑Städten. Das hier betrachtete Teilportfolio umfasst insgesamt 70 in Deutschland belegene Wohnimmobilien und gemischt genutzte Immobilien mit überwiegender Wohnnutzung. Die Total Returns erstrecken sich über einen Zeitraum von 2008 bis 2012. Zu Vergleichszwecken wurde der German Property Index Wohnen von BulwienGesa in die Untersuchung einbezogen (Zeitreihe B1). Er wurde ausgewählt, da er zum einen als reiner Wohn-Performanceindex publiziert wird und zum anderen eine hohe Datenqualität besitzt. Zum Vergleich wurden ferner die Kurse einer zufällig ausgewählten illiquiden Immobilienaktie herangezogen (Zeitreihe B2). Die für viele Immobilienaktien typische geringe Liquidität schlägt sich stark in der Häufigkeitsverteilung der Aktienrenditen nieder, weil die selten vorkommenden Transaktionen starke Kursausschläge bewirken.

Damit auch Eingangsvariablen des Total Returns untersucht werden, wurden weitere Daten in die Analyse einbezogen. Für die Cashflow-Untersuchungen wurden Daten von drei Immobilienportfolios verwendet, die uns von den jeweiligen Assetmanagern überlassen wurden.Footnote 8 Die Portfolios C1 und C2 befinden sich jeweils in einer deutschen A‑Stadt. Das Portfolio C1 umfasst insgesamt 92.317 m2 vermietbare Fläche, das Portfolio C2 186.299 m2, in beiden Fällen vereinzelt auch Gewerbeflächen. Die Portfolios blieben während des Betrachtungszeitraums in ihrer vertraglichen Mietfläche und der Anzahl der Objekte unverändert und umfassen einen Zeitraum von Januar 2009 bis Dezember 2013. Die Daten der beiden Portfolios stehen lediglich auf Portfolioebene zur Verfügung, umfassen aber die Variablen Soll-MieteinnahmenFootnote 9 (M), Leerstand (L), geplante Instandhaltung (gI), ungeplante Instandhaltung (uI) und Modernisierung (Mo). Das Portfolio C3 befindet sich in einer deutschen B‑Stadt und bestand zum Juli 2014 aus einer vermietbaren Fläche von insgesamt 786.273 m2 in 13.008 Wohnungen, die sich auf 497 WirtschaftseinheitenFootnote 10 verteilen. Das Wohnportfolio wurde über den Betrachtungszeitraum von Januar 2011 bis Juli 2014 um 415 Wohnungen (ca. 3,1 %) erweitert, was einem Anstieg der vermietbaren Fläche von ca. 3,7 % entspricht. Dies ist der bisher detaillierteste Datensatz, der für eine derartige Untersuchung herangezogen wurde, er umfasst jedoch lediglich die Soll-Mieteinnahmen, keine Kostenpositionen. Tab. 1 gibt eine Übersicht über die verwendeten Daten.

Tab. 1 Daten zur Ermittlung der Modellanpassung

Die empirische Literatur zu Risikomodellen zeigt, dass Renditen nur mit verschiedenartig strukturierten, stochastischen Signalen beschrieben werden können. (Assaf 2015) Diese stochastischen Modelle liefern aber keine Erklärung bezüglich der Leptokurtosis und den Fat tails. Des Weiteren muss berücksichtigt werden, dass sich Aggregatvariablen wie der Total Return aus mehreren Komponenten zusammensetzen, die wiederum eigene stochastische Merkmale aufweisen. Insbesondere der im Total Return enthaltene Marktwert integriert mit dem Werturteil des Gutachters die Risikoperspektive eines Dritten und kann als Unsicherheit zweiter Ordnung bezeichnet werden. Eine Berechnung des Total Returns auf Transaktionsbasis würde dieses Problem zwar umgehen, ist aber wiederum auf Portfolio- und Objekteebene für die Risikomessung nicht praktikabel, da ansonsten zu wenig Daten zur Verfügung stehen würden.

Der erste Schritt der Untersuchung soll klären, ob für die verschiedenen Zeitreihen eine Normalverteilung vorliegt. Die Forschungsfrage lautet:

F1:

„Liegt eine Normalverteilung für die einzelnen Zeitreihen vor?“

Tab. 2 gibt eine Übersicht über die Daten und deren Analyse, die in der Untersuchung verwendet werden. Die Immobilienportfolios C1 bis C3 wurden für die allgemeine statistische Auswertung zusammengefasst, außer für die Variable Leerstand, da diese unterschiedlich berechnet wird. Der Leerstand von Portfolio C1 und Portfolio C2 wird in der Soll-Miete des Vormonats ausgedrückt, wohingegen der Leerstand von Portfolio C3 zu Marktwerten berechnet wird. Für alle Zeitreihen der drei Portfolios wurden die ersten Differenzen berechnet, um eine stationäre Zeitreihe herzustellen. Für die Zeitreihen A, B1 und B2 wurden die logarithmierten Renditen berechnet, um die Stetigkeit der Variablen (im statistischen Sinne) zu gewährleisten. Bis auf die Variable Leerstand weichen alle Zeitreihen von der Normalverteilung auf einem Signifikanzniveau von unter 1 % ab.Footnote 11 Dies ist ein häufiges Merkmal empirischer Zeitreihen, aber die hohe Exzess-Kurtosis der Soll-Miete ist bemerkenswert. Auch der Kurs der Immobilienaktie weist eine hohe Kurtosis auf, die in Verbindung mit der Illiquidität der Aktie bzw. der geringen Granularität der Nachfrage gebracht wird (Cristelli et al. 2010).

Tab. 2 Übersichtsstatistiken zu den standardisierten Zeitreihen

Zur Komplettierung des Datenbestands wurden zudem Presseberichte und unstrukturierte Experteninterviews verwendet, um Ähnlichkeiten und Strukturen von Sprüngen aufzudecken. Die drei Interviewpartner sind branchenbekannte Fachleute mit langer Berufserfahrung im ausgeübten Tätigkeitsfeld (Assetmanagement, Risikomanagement, Bewertung), die in drei bekannten Immobilienunternehmen in Deutschland arbeiten.

3 Die Messung von Veränderungen in Immobilienmärkten und -portfolios

Wie oben beschrieben, legen die empirischen Befunde nahe, dass die Normalverteilungsannahme für die Risikomessung ungeeignet ist. Durch sie entsteht ein hohes Modellrisiko, da die empirischen Verteilungen ökonomischer Variablen von einer Normalverteilung gravierend abweichen, insbesondere wird die Häufigkeit sehr großer Abweichungen unterschätzt. Allerdings ist die Normalverteilung wegen ihrer Einfachheit immer noch sehr beliebt. Außerdem herrscht Uneinigkeit darüber, welche alternativen Modelle geeignet sind. Aus dieser andauernden Diskussion haben sich zwei unterschiedliche Lösungen entwickelt: (1) ein theoretischer Ansatz deterministisch-chaotischer Prozesse und (2) ein pragmatischer Ansatz sprungartiger Prozesse. Die erste Perspektive der Triangulation soll mittels einer ausführlichen Literaturrecherche prüfen, ob ein dominantes und hinreichend präzises Modell existiert. Die diametral gelagerten Forschungsfragen hierfür lauten:

F2a:

„Gibt es Hinweise in der Literatur zu einem dominanten Sprungmodell?“

F2b:

„Gibt es Hinweise in der Literatur zu einem dominanten chaotisch-deterministischen Modell?“

Die Diskussion über nicht-normalverteilte Renditen begann schon mit den Arbeiten von Bachelier (1900). Doch erste wesentliche Beiträge lieferte Mandelbrot (1960), der auf Basis des verallgemeinerten Grenzwertsatzes eine alpha-stabile Verteilung vorschlägt, die die Normalverteilung als Sonderfall umfasst. Die Normalverteilung liegt bei dieser Verteilungsklasse auf einem Alphawert von 2, während die empirischen Verteilungen tendenziell bei 1,4 liegen. (Young 2008) Der Vorteil der Verteilung ist die bessere Anpassung der Leptokurtosis und der Fat tails der empirischen Verteilung. Dies führt aber zu dem Nachteil, dass bei Verteilungen mit einem Alphawert kleiner als 2 kein Streuungsmaß zur Berechnung des Risikos existiert. Der eigentliche Streitpunkt ist jedoch die theoretische Interpretation. Denn eine solche Verteilung besitzt eine Langzeitautokorrelation, die eine Zeitreihe auf Basis eines solchen Prozesses prognostizierbar machen könnte. Darin hat auch die eigenwillige Namensgebung als „deterministisches Chaos“ ihren Ursprung. Diese Prozesse entwickeln sich in vorbestimmten Bahnen, die aufgrund der Sensitivität gegenüber dem Startwert schwierig vorherzusagen sind. Die Theorie ist jedoch umstritten, da für Immobilienmärkte die Markteffizienzhypothese in ihrer starken Form verworfen und die Bedingung der Arbitragefreiheit nicht eingehalten wird.

Untersuchungen zu deterministisch-chaotischen Prozessen wurden für viele Finanzmärkte durchgeführt, auch für Investments in Immobilienmärkten. Die Befunde sind jedoch uneinheitlich und wenig verlässlich, denn die statistischen Tests reagieren äußerst sensitiv auf die Verletzung von Testvoraussetzungen. Zu den aussagekräftigeren Immobilienmarktstudien gehören die von Belaire-French und Opong (2013), Zhou (2011) sowie Assaf (2015), bei denen robustere Tests zum Einsatz kommen. Die Autoren kommen aber nicht zu einer einheitlichen Aussage, ob deterministisches Chaos in den untersuchten Zeitreihen vorhanden ist. Zhou (2011) bestätigt die Hypothese für REIT-Märkte, schließt jedoch nicht aus, dass die Ergebnisse zufällig zustande gekommen sein könnten. Assaf (2015) bestätigt ebenso die Ergebnisse für REIT-Märkte. Belaire-French und Opong (2013) finden lediglich nichtlineare Prozesse, die sich teilweise deterministisch, aber nicht chaotisch verhalten. Selbst wenn zugunsten deterministisch-chaotischer Prozesse in Märkten entschieden wird, stellen Liow und Webb (2008) fest, dass dies keine Rückschlüsse auf direkte Investments in Immobilien zulässt. Daher erscheint die Forderung einer Integration deterministisch-chaotischer Prozesse in die Bewertung von Immobilien und Immobilienportfolios von Wyman et al. (2011) überzogen. Es existieren derzeit keine Befunde, dass diese Ergebnisse auch für direkt gehaltene Immobilienportfolios oder Einzelobjekte zutreffen. Eine unserer Recherchen nach vollständige Auflistung aller Studien zu chaotisch-deterministischen Prozessen im Zusammenhang mit Immobilieninvestitionen findet sich in der nachfolgenden Tab. 3.

Tab. 3 Untersuchungen zu chaotisch-deterministischen Prozessen einschließlich der Literatur über Testverfahren und Limitationen

Die meisten Tests zum Nachweis deterministisch-chaotischer Prozesse haben eine Gemeinsamkeit: Die Ergebnisse sind sehr sensitiv gegenüber zufälligen Sprüngen in Zeitreihen, was zur zweiten Theorie, der Theorie von Sprungprozessen führt. Ein Sprung verhält sich überproportional gegenüber den Auf- und Abwärtsbewegungen eines normalverteilten Zufallsprozesses. Der Sprung formt dabei die Fat tails, und die Verteilungskurve wird wegen der höheren Häufigkeit extremer Werte gestaucht. Diese Ausreißer (Sprünge) werden häufig mit Klumpenrisiken in Verbindung gebracht und wurden bereits sehr früh von Merton (1976) in einer sogenannten Sprungdiffusion modelliert. Sein Schluss war, dass solche Sprünge bei ausreichender Diversifikation verschwinden, was jedoch nicht zwangsläufig der Fall ist. Es stimmt, dass die Leptokurtosis bei steigender Diversifikation und auch bei einer Ausdehnung des Zeithorizonts abnimmt. Die Exzess-Kurtosis strebt dabei aber viel zu langsam gegen Null. Eine extreme Version dieses Phänomens kann in Tagesrenditen von illiquiden Aktien beobachtet werden, wie beispielsweise die Kursrendite der Areal Immobilien und Beteiligungs- AG verdeutlicht.Footnote 12 Sprünge können in vielen Zeitreihen gefunden werden, nicht nur in Ausnahmesituationen. Maitland-Smith und Brooks (1999) weisen für den NCREIF- und den UK-IPD-Index Sprünge nach. Auch für REITs und Immobilienaktien kann dieses Phänomen eindeutig nachgewiesen werden (Paskelian et al. 2011; Vishwakarma und Paskelian 2012). Allgemein bestehen ausführliche und widerspruchsfreie Ergebnisse zu Sprüngen für verbriefte Immobilieninvestments. Lizieri und Satchell (1997); Lizieri et al. (2012); Kallberg et al. (2002); Krystalogianni und Tsolacos (2004); Liow et al. (2005); Liow und Zhu (2007); Li et al. (2015) sowie Krystalogianni und Tsolacos (2004) weisen ebenso Sprünge in direkten Immobilieninvestments nach. Das Phänomen von Sprüngen kann auch insofern als gesichertes Wissen angesehen werden, da für statistische Tests zur Messung deterministisch-chaotischer Prozesse die Robustheit gegen Sprünge gefordert wird (Baillie und Kapetanios 2007). Aus theoretischer Sicht wird mit Sprüngen die Forderung eines perfekten Hedgings aufgegeben, aber nicht die Forderung der Arbitragefreiheit (Cont und Tankov 2004). Somit bildet dieses Modell im Gegensatz zur Theorie deterministisch-chaotischer Prozesse eine moderatere Erweiterung der neoklassischen Markttheorie.

4 Die Dynamik innerhalb von Wohnimmobilienportfolios

Im vorherigen Kapitel wurden die Sprung- und die alpha-stabile Verteilung als Erweiterung der Normalverteilungshypothese diskutiert. Der zweite Schritt der Triangulation widmet sich einer empirischen Auswertung und unterscheidet sich somit stark von der vorherigen Perspektive. Kern der folgenden Analyse ist die Beobachtbarkeit eines Sprung- oder deterministisch-chaotischen Prozesses in den verfügbaren Portfoliodaten. Daher lautet die erste Forschungsfrage:

F3a:

„Können die Daten mittels eines Sprungprozesses oder eines alpha-stabilen Prozesses beschrieben werden?“

Alle Sprungprozesse werden durch einen Trend, einen Gauß-Prozess sowie eine Sprungkomponente beschrieben. Dies führt zu zwei Arten von Sprungprozessen: Sprung-Diffusion und reiner Sprungprozess. Sowohl die Normalverteilung als auch die chaotisch-deterministischen Verteilungen sind rein theoretische Positionen. Daher sollte für die Sprungtheorie ebenfalls eine reine Sprungverteilung, wie bspw. die Varianz-Gamma-Verteilung (Cont und Tankov 2004), gewählt werden. In Abb. 3 sind die Quantil-Quantil-Plots für die drei Verteilungen auf Basis der Total Returns (Zeitreihe A) berechnet.Footnote 13 Während die spitze Wölbung von der Varianz-Gamma-Verteilung und der alpha-stabilen Verteilung gut angenähert werden kann, haben alle drei Modelle Probleme mit der Annäherung der Fat tails. Nach der grafischen Analyse fallen die Abweichungen für die Varianz-Gamma-Verteilung am geringsten aus.

Abb. 3
figure 3

Quantil-Quantil-Plots zur Anpassung theoretischer Verteilungen an die Total Returns von Zeitreihe A

Insgesamt können alle drei Modelle statistisch verworfen werden, wobei das Sprungmodell den empirischen Daten noch am ähnlichsten ist. Hier stellt sich die Forschungsfrage:

F3b:

„Können Sprünge auch in den aggregierten Zeitreihen beobachtet werden?“

Da der Total Return aus mehreren Variablen besteht, kann auch von einer gemischten Verteilung ausgegangen werden (Armonat 2008, S. 150 f.). Es stellt sich dabei die Frage, wodurch die Fat tails einer Verteilung verursacht werden. Eine mögliche Antwort gibt die Analyse der Cash-Inflows des Wohnungsportfolios C1, die in Abb. 4 betrachtet werden. Teil (a) der Abbildung zeigt die Soll-Mieten pro Quadratmeter über einen Zeitraum von 43 Monaten, Teil (b) zeigt das Signifikanzniveau an, das nur für die Monate 15 und 33 unterschritten wird. Die beiden identifizierten Sprünge sind auf einem Niveau von p kleiner als 5 % signifikant. Das Signifikanzniveau wurde mittels eines rollierenden MittelwertvergleichsFootnote 14 auf Basis der Soll-Mieten pro Quadratmeter und Objektebene einer Periode (Querschnittsvergleich) errechnet. Die Steigung der Zeitreihe entspricht dem Augenschein nach einem deterministischen Trend mit stufenförmiger (sprunghafter) Entwicklung. Die beiden signifikanten Sprünge sind durch Mieterhöhungen entstanden, wie die Befragung des Datenlieferanten ergab. Die Abwärtsbewegung am Ende der Zeitreihe ist laut dem Datenlieferanten auf eine Mietsenkung durch politischen Druck zurückzuführen.

Abb. 4
figure 4

Soll-Mieten und Signifikanzniveau des Portfolios C3

Solche Muster können durch vielfältige Gründe hervorgerufen werden, die im Folgenden beispielhaft illustriert werden. Folgen wir der am Anfang gewählten Systematik, wäre ein exogener Grund durch regional unterschiedlich steigende Marktmieten gegeben. Variierende Abstände (Frequenzen) zwischen den Mieterhöhungen können einen Sprung auslösen, wenn der Bestand entsprechende Konzentrationen aufweist. Hierdurch würden Mieterhöhungen gehäuft in einer Periode auftreten und einen Sprung in der Zeitreihe sichtbar machen. Dies dürfte zwar selten vorkommen, das Beispiel der Hansaimmobilia zeigt aber, dass dieses Szenario beobachtet werden kann. Ein endogener Grund sind Arbeitsabläufe, die sich auf die Zahlungsflüsse auswirken, wie die Sammelmieterhöhungen und -senkungen des Portfolios C3 zeigen. Allerdings sind sie in diesem Umfang ungewöhnlich. Es ist nicht unüblich Mietanpassungen über mehrere Wirtschaftseinheiten zusammenzufassen, aber eine Erhöhung für ca. 50 % des Bestandes sticht in der Analyse heraus.

Auch in den Daten der Wohnungsportfolios C1 und C2 können Sprünge optisch identifiziert werden (siehe Abb. 5).Footnote 15 Der große Sprung im Portfolio C1 ist nach Aussage des Datenlieferanten auf eine Mieterhöhung nach einer Teilmodernisierung des Portfolios zurückzuführen. Die turmartigen Gebilde am Anfang eines jeden Jahres – also in den Monaten 13, 25, 37 und 49 –, rühren aus wenigen gewerblichen Mietverträgen her, die jährlich oder quartalsweise im Voraus bezahlt werden. Dies können beispielsweise Verträge zu Mobilfunkmasten, Werbetafeln oder sonstige Gewerbemietverträge mit jährlichem Zahlungsturnus sein. Die Miete steigt bei Einzahlung in dem jeweiligen Monat und sinkt im nächsten Monat wieder auf das Ausgangsniveau. Die Gründe für solch ein sprunghaftes Verhalten können somit vielfältiger Natur sein, sind aber auf bestimmte Maßnahmen der Geschäftstätigkeit und „Handelsbräuche“ zurückzuführen.

Abb. 5
figure 5

Soll-Mieten von drei Portfolios im Zeitverlauf

Die Sprünge nehmen für kleine Portfolios grundsätzlich zu, was durch die geringere Diversifikation begründet werden kann. Das Portfolio C3 ist wesentlich größer als die Portfolios C1 und C2. Es ist ersichtlich, dass die Anzahl der Mietverträge glättend auf die Zeitreihe einwirkt, wenn eine hohe Anzahl an Wohneinheiten vorliegt, wie es auch in den Zeitreihen des GdW (2016) zu sehen ist. Dieser Effekt ist auch als Granularität bei Fremdkapitalinstrumenten oder naive Diversifikation bei Eigenkapitalinstrumenten bekannt (Benartzi und Thaler 2001; Norden et al. 2016). Bei Gewerbeimmobilien scheint auch die Höhe der Mietzahlungen im Verhältnis zu den übrigen Mietzahlungen relevant zu sein. Wenn der Anteil der Soll-Miete geringer ausfällt, kann dieser Effekt durch das allgemeine Mietniveau des Portfolios kompensiert werden, da der prozentuale Anteil der gewerblichen Mieten abnimmt (vgl. bspw. Portfolio C1 und C2). Auch scheint die Soll-Mieten-Entwicklung kein reiner Zufallsprozess zu sein, da zu viele Regelmäßigkeiten in den Zeitreihen sichtbar sind. Abschließend muss festgehalten werden, dass die Zeitreihen optisch weder einem Sprungprozess noch einem chaotisch-deterministischen Prozess ähneln.

In Abb. 6 sind die kumulierten Kosten für (a) die geplante Instandhaltung, (b) die Modernisierung von Immobilien und (c) die ungeplante Instandhaltung der Portfolios C1 und C2 abgebildet. Die geplante Instandhaltung und die Modernisierung weisen ebenfalls sprunghafte Muster zum Jahresende hin auf. Vermutlich ist die Entwicklung auf saisonale Muster und auf Budgetierungs- und ähnliche Besonderheiten in den betrieblichen Prozessen zurückzuführen. Die abnehmende Steigung des Trends für die geplante Instandhaltung und Modernisierung ist wahrscheinlich bedingt durch den aufholenden Effekt der durchgeführten Bauleistungen.

Abb. 6
figure 6

Kumulierte Kostenverläufe für drei Kostenarten für zwei Portfolios

Im Kontrast zu den aktiv-gemanagten Zeitreihen (geplante Instandhaltung, Modernisierung) können bei der ungeplanten Instandhaltung optisch keine deutlichen Sprünge identifiziert werden. Die Leptokurtosis deutet aber darauf hin, dass wohl Sprünge enthalten sind. Insgesamt weist die ungeplante Instandhaltung jedoch einen relativ konstanten Trend auf, der nur kleine, vermutlich zufallsbedingte Variationen aufweist. Dies ist wenig überraschend, da der Name „ungeplante Instandhaltung“ bereits auf den Zufallscharakter hindeutet. Wie im weiteren Verlauf des Artikels noch gezeigt wird, sollte man aus dem Kurvenverlauf nicht folgern, dass Sprünge lediglich durch planerische Aktivitäten ausgelöst werden. Weiterhin müsste sich aufgrund der Modernisierungs- und Instandhaltungsmaßnahmen auch ein aufholender Effekt in der ungeplanten Instandhaltung zeigen, der hier jedoch fehlt. Eine plausible Erklärung ist schwierig, aber es könnte mit dem Prozess der Budgetierung zusammenhängen, der die Zeitreihe von den restlichen Maßnahmen „entkoppelt“. Dem Augenschein nach erscheint es sinnvoller, Prognosen für die ungeplante Instandhaltung mittels der kumulierten Zeitreihe vorzunehmen, anstatt absolute monatliche Auszahlungen zu verwenden.

Die Ergebnisse zeigen, dass betriebliche Entscheidungen die Sprünge in den Zeitreihen und damit die Abweichungen von der Normalverteilung zumindest teilweise plausibel erklären können. Diese Sprünge treten zum Teil in periodischen Abständen auf und können kaum als zufällig betrachtet werden. Hieraus folgt, dass ohne Korrekturen für planmäßige, periodische und saisonale Muster eine Verteilung nicht sinnvoll für die Risikomessung verwendet werden kann. Bei manchen Zahlungsströmen besteht weniger Unsicherheit, beispielweise bei Mieterhöhungen, da die Maßnahme im Voraus absehbar ist und die Miete danach normalerweise mit derselben Regelmäßigkeit eingeht wie vorher. Auf der anderen Seite ändern sich die Mieteinnahmen nicht, sobald eine Ratingagentur die Bonität eines Mieters herabstuft und die Unsicherheit der zukünftigen Cashflows demnach zunimmt. Diese beiden Beispiele weisen auf ein grundsätzliches Problem hin: Es gibt für den Begriff „Risiko“ keine einheitliche Definition, was die Konstruktion geeigneter, objektiver Risikomaße schwierig macht.

Auch der Erwartungswert scheint nicht geeignet zu sein, da ein Mittelwert die Planung des aktiven Managements nicht abbildet. Jedoch ist diese Planung als implizite Information im Kaufpreis der Immobilie enthalten. Weiterhin ist es nachvollziehbar, dass Mieterhöhungen zu Sprüngen in den Einnahmen führen. Eine andere Frage ist, ob ein Sprung ein Risiko – also eine Abweichung vom Mittelwert – darstellt. Hier kann man sich auf den Standpunkt stellen, dass nicht die Erhöhung der Soll-Miete das Risiko darstellt, sondern die Unsicherheit, ob die Ist-Miete der Soll-Miete entsprechen wird. In manchen Fällen können Mieterhöhungen nur mit Verzögerung oder gar nicht durchgesetzt werden. Daraus folgt ein höheres Liquiditätsrisiko, wofür der Sprung der Soll-Miete jedoch ein unpräziser Stellvertreter ist. Als Ausgangsbasis für ein Risikomaß auf Portfolio- bzw. Objektebene scheint die Differenz aus Planung und Realisation angebrachter. Abschließend können die Ergebnisse noch einmal der folgenden Tab. 4 entnommen werden.

Tab. 4 Zusammenfassung der Ergebnisse aus den Abb. 234 und 5

5 Die Bewertung von Risiken bei Nicht-Normalverteilung

Eine sehr häufige Perspektive, auch in der immobilienwirtschaftlichen Literatur, ist die Betrachtung des Risikos als eine eindeutige, objektive und quantifizierbare Größe. Dieser Ansatz geht auf die Erwartungsnutzentheorie und die moderne Portfoliotheorie zurück (Markowitz 1952; von Neumann und Morgenstern 1944). Allerdings ist es wenig überraschend, dass dieses Entscheidungsverhalten in empirischen Untersuchungen nicht festgestellt werden kann (Kahneman 2016; Bals und Wellner 2016). Dies liegt auch daran, dass Risiko als soziales Konstrukt betrachtet werden muss (Luhmann 1997; Slovic 1987), wodurch es eine mehrdimensionale, subjektive und schlecht quantifizierbare Größe wird. Die Vertreter dieser Perspektive führen neue Variablen ins Feld, beispielsweise die wahrgenommene Eintrittswahrscheinlichkeit oder die antizipierten Emotionen im Schadensfall. Versucht man beide Ansätze in Einklang zu bringen, muss man akzeptieren, dass man mit objektiven und subjektiven Risikomaßen nur jeweils einen Teil des Risikos bewerten kann und noch keine überzeugende Methode der gemeinsamen Bewertung gefunden wurde. Im vorherigen Kapitel wurden Gründe für Sprünge identifiziert, die beispielsweise durch Sammelmieterhöhungen oder kostenintensive Einzelmaßnahmen entstehen können. Eine vollständige Inventarisierung solcher Gründe ist durch die Fülle an Möglichkeiten ausgeschlossen, auch wenn eine intensivere Forschung diesbezüglich wünschenswert ist. Daher wird in der letzten Perspektive der Triangulation mittels unterschiedlicher Quellen, Logik und Interviews eine TaxonomieFootnote 16 als Begründung gewagt, die die komplexe empirische Verteilung zu formen scheint. Die dazugehörige Forschungsfrage lautet:

F4:

„Existieren Charakteristika anhand derer die beobachteten Muster kategorisiert werden können?“

Ein Kernproblem bei der Risikobewertung bildet die subjektive Wahrnehmung der Beteiligten, die die Risikokommunikation erschwert. Callahan (2002) sowie Smithson und Simkins (2005) illustrieren dies anhand von Hedging-Strategien, die vom Aktienmarkt durch Preisabschläge bestraft werden. Ähnliche Beispiele können auch in der Immobilienwirtschaft gefunden werden. Eine klassische Gegenstrategie liefern die Interviewpartner 1 und 2 aus dem Asset- und Risikomanagement: Eine allzu klare Kommunikation sei demnach nicht immer gewünscht, da sie den Verfasser angreifbar machen könnte. Ein weiteres Beispiel findet sich in der Immobilienbewertung: Gutachten werden in der Regel so verfasst, dass der Immobilienwert oberhalb des „wahren“ Wertes einer Immobilie liegt (Crosby und Hughes 2011; Hansz und Diaz III 2001; Chinloy et al. 1997). Interviewpartner 3 (2016) ergänzt diese Ergebnisse aus seiner Sicht mit der ökonomischen Begründung, dass etwaige Diskussionen zu höherem Aufwand oder zur Unzufriedenheit des Kunden führen können. Dies ist ein grundsätzliches Principal-Agent Problem, das selbst durch eine geeignete Managementstruktur, die Interessengleichheit anstrebt, nicht restlos aufgelöst werden kann. An dieser Stelle kann zwar keine überzeugende Methode zur Lösung all dieser Probleme vorgestellt werden, aber es werden Überlegungen präsentiert, wie Risiken unter Beachtung der Nicht-Normalverteilung der Renditen bewertet werden können. Menschen sind durchaus in der Lage, anhand von Kennzahlen subjektive Prognosen zu erstellen, die vergleichbar mit der Präzision statistischer Ergebnisse sind (Lawrence et al. 2006). Die Grundlage könnten die folgenden Kennzahlen zur Bewertung von Risiken bilden, die anscheinend mit der komplexen Form empirischer Verteilungen in Verbindung stehen.

Lage:

Die Bewertung durch einen Gutachter stellt eine stichtagsbezogene Einschätzung der zukünftigen Entwicklung einer Immobilie dar. Erhöht sich der Wert einer Immobilie, liegt dieser Betrag nicht liquide auf einem Konto vor, sondern der Mehrwert wird erst mit dem Verkauf realisiert. Daher entspricht der Total Return nicht der tatsächlich erwirtschafteten Rendite, sondern einer geschätzten Rendite. Im vorherigen Absatz wurde bereits darauf hingewiesen, dass Fluktuationen im Total Return enthalten sein können, die kein Risiko darstellen und damit die Messung verfälschen. Geeigneter als eine auf einer Bewertung basierende Kennzahl scheint der Vergleich mit den tatsächlich erwirtschafteten Größen zu sein. Die Differenz zwischen Soll- und Ist-Rendite ergibt eine Wahrscheinlichkeitsverteilung, die die Abweichung von tatsächlichen Erwartungen wiedergibt. Wenn sich Soll- und Ist-Wert decken, existiert kein Risiko. Entstehen Abweichungen, erlaubt dies eine Aufspaltung in antizipierte und nicht-antizipierte Risiken, ähnlich der Methodik zur Prognose der Inflation (Dornbusch et al. 2003, S. 141). Sehr wahrscheinlich wird diese Kennzahl ebenfalls von einer Normalverteilung abweichen. Sie bietet aber den Vorteil, dass sie ohne die Annahme des homo oeconomicus auskommt. Aus diesem Grund wird das Lagemaß als alleinige Kennzahl auch nicht ausreichen, so dass es weiterhin mehrerer Kennzahlen bedarf. Die folgenden Konzepte scheinen hierfür allenfalls ein geeigneter Startpunkt zu sein.

Granularität:

Die einfachste Form der Diversifikation ist eine gleichmäßige Verteilung des Vermögens auf möglichst viele unabhängige Vermögensgegenstände. Diese Strategie umfasst die elementaren Konzepte „Anzahl der Assets“ sowie „gleiche Gewichtung der Assets“ und ist unter dem Namen naive Diversifikation oder „1/N-Regel“ bekannt. Obwohl die naive Diversifikation die Korrelationen zwischen den Vermögensteilen vernachlässigt, scheint sie sich positiv auf die Schwankungen des Portfolios auszuwirken (DeMiguel et al. 2009; Wellner 2003). Dieser Effekt kann auch in den Cashflows der zuvor untersuchten Wohnungsportfolios festgestellt werden. Vermutlich liegt es daran, dass selten kausale Zusammenhänge zwischen Wohnungsmietverträgen bestehen. In Gewerbeimmobilienportfolios, in denen Mietverträge mit festen Laufzeiten dominieren und die Miethöhen sehr unterschiedlich sein können, sieht das anders aus. Das Beispiel der HansaInvest (2011, S. 9) zeigt, dass die unterschiedlichen fixierten Laufzeiten dazu neigen „Klumpen“ zu bilden. Interviewpartner 2 (2016) ist der Meinung, dass es praktisch unvermeidbar ist, dass sich Mietvertragsausläufe in bestimmten Jahren kumulieren. Dieser zweite Teil der Strategie verdient eine gesonderte Betrachtung und kann unter dem Begriff „Homogenität“ zusammengefasst werden.

Homogenität:

Als Grund für nicht-normalverteile Renditen spielen Ausreißer und Klumpen eine elementare Rolle. Diese können sich durch einmalige große Ereignisse oder eine Vielzahl kleiner Ereignisse zum selben Zeitpunkt bilden. Je höher die Homogenität von Zahlungsgrößen, desto mehr nähern sich die Zahlungsgrößen der 1/N-Regel an, der Gewichtung zu gleichen Teilen. Dabei muss festgehalten werden, dass so viele Klumpenrisiken entstehen können, wie es Merkmale in einem Portfolio gibt. Zur Messung der Homogenität existieren mehrere absolute Konzentrationsmaße, wie der Rosenbluth-Index, sowie relative Konzentrationsmaße bzw. Ungleichverteilungsmaße, wie der Gini-Koeffizient (Eliazar und Sokolov 2010; Hirschman 1964; Rosenbluth 1955). Bei Kreditverträgen – die Ähnlichkeiten zu Mietverträgen aufweisen – wird häufig der Herfindahl-Hirschman-Index (Agarwal et al. 2011) verwendet, der eine konservative Kompensation für die Granularität eines Portfolios darstellt. Er entspricht dem Korrekturfaktor vom arithmetischen Mittelwert zum gewichteten Mittelwert. Diese Maßzahlen haben allerdings den Nachteil, dass sie zeitpunktbezogen sind und dynamische Effekte nicht berücksichtigen (Huschens und Stahl 2004). Gerade diese zeitliche Komponente kann die Bildung von Klumpenrisiken maßgeblich beeinflussen, was unter dem Begriff Frequenz zusammengefasst werden kann.

Frequenz:

Sowohl Granularität als auch Homogenität eines Portfolios sind auf einzelne Zeitpunkte oder einen normierten Zeitraum beschränkt. Selbst unter Ausschluss jeglicher Einwirkungen ist die Homogenität nicht zwangsläufig konstant. Dies liegt an der Frequenz von Ereignissen im Zeitverlauf, wie das Beispiel des Hansaimmobilia-Fonds mit mehr als 30 % Mietvertragsausläufen zeigt (Hansainvest 2011, S. 9). Ein solches Problem bildet die im gewerblichen Immobilienbereich übliche Kennzahl „Weighted Average Lease Term (WALT)“ nicht ab. Der WALT gibt zwar Auskunft über die Unsicherheit der zukünftigen Cashflows, aber nicht über dessen Schwankungen. Dies zeigt ein kurzes Beispiel: Ein 10-Jahres- und ein 5‑Jahres-Mietvertrag gleicher Größe ergeben einen WALT von 7,5 Jahren. Zwei gleich große Mietverträge über 7,5 Jahre ergeben auch einen WALT von 7,5 Jahren. Das Leerstandsrisiko beträgt im ersten Fall 50 %, weil die Mietverträge zu unterschiedlichen Zeitpunkten auslaufen, im zweiten aber 100 %, da beide Mietverträge gleichzeitig auslaufen. Eine Möglichkeit zur Lösung dieses Problems wäre die Berechnung der Streuung des WALT, die bei größerer Streuung stabilere Cashflows verspricht, wie das obige Beispiel verdeutlicht. Gleiche Beispiele können auch für Instandhaltungs- und Instandsetzungskosten konstruiert werden, wie ähnliche Überlegungen von Swiss Finance & Property AG (2015, S. 8) zeigen.Footnote 17

Dies zeigt noch eine weitere interessante Eigenschaft, die in der Literatur als glättender Effekt bezeichnet wird (Hamilton et al. 2006; Hendershott 2002; Myer und Webb 1994, 1993). Eine Ausdifferenzierung von Laufzeiten in Verbindung mit der Erhöhung der Granularität wirkt dämpfend auf das Risiko durch Marktänderungen, wofür sich in der immobilienwirtschaftlichen Praxis mehrere Belege finden. Im Bereich der Kreditfinanzierung gibt es beispielsweise die Strategie, Immobilien mit mehreren Krediten unterschiedlicher Laufzeit zu finanzieren, um Zinsschwankungen zu dämpfen (Ledergerber 2012; Norden et al. 2016). Für das Segment des studentischen Wohnens stellt Rottwilm (2011, p. 2) fest, dass die kurzen Mietverträge zu einer besseren Anpassung an den Markt beitragen. Hamilton et al. (2006) stuft die in Großbritannien üblichen langen Mietvertragslaufzeiten in Verbindung mit der Upward-Only-Klausel als eine Art Absicherung gegen Marktfluktuationen ein. In Bezug auf den Cashflow scheint dieser Mechanismus aber nicht bewusst für das Risikomanagement eingesetzt zu werden. Interviewpartner 1 (2016) und Interviewpartner 2 (2016) stufen diese Maßnahme unabhängig voneinander als eher ungeeignet ein, da eine Anpassung über Neuvermietungen aus Kostengründen vermieden werden sollte, wenn die Anpassung auch durch eine Prolongation des Vertrags vereinbart werden kannFootnote 18.

Die präsentierten Konzepte bieten sowohl Vor- als auch Nachteile. Die Ersetzung des Erwartungswertes durch ein Planungskonstrukt kann ein Vorteil sein, da die Planung durch das Feedback Learning und das Debiasing verbessert werden kann (Karelaia und Hogarth 2008; Lawrence et al. 2006; Croskerry et al. 2013). Des Weiteren können die Konzepte der Granularität, Homogenität und Frequenz leichter in Maßnahmenkataloge transponiert werden als Risikomaße wie der Value-at-Risk. Ein weiterer Vorteil ist auch die Übertragbarkeit auf sehr unterschiedliche Bereiche wie Kosten oder Bilanzpositionen. Zudem sind die Kennzahlen mittels Monte-Carlo-Simulation dynamisch abschätzbar, so dass dies ein echter „forward-looking approach“ wäre (Wheaton et al. 2001), was allerdings mit erheblichem Rechenaufwand verbunden wäre sowie zusätzliche Kenntnisse in der Ermittlung und Interpretation komplexer Kennzahlen erfordern würde. Ein weiterer Nachteil ist die Aufspaltung des Risikos in mehrere Kennzahlen. Es ist nicht absehbar, ob sich diese Kennzahlen in ein einheitliches Kennzahlensystem zusammenführen lassen. Es ist somit unklar, wie sich die vorgeschlagenen Maße zu den in der Praxis verfolgten Investitions- und Risikomanagementstrategien verhalten. Jedoch bieten die vorgestellten Konzepte eine alternative Herangehensweise zu den üblichen kapitalmarktheoretischen Ansätzen, deren Grenzen mittlerweile hinlänglich bekannt sind. Es sind jedoch weitere Untersuchungen notwendig, um die gewonnenen Einsichten in ein theoretisches Konstrukt einzubetten und auf Widerspruchsfreiheit und Vollständigkeit zu testen.

6 Zusammenfassung und Ausblick

Ziel des Artikels war es, ausgewählte Gründe für Abweichungen von der Normalverteilung bei deutschen Wohnimmobilien zu untersuchen und Hinweise auf neue Risikomanagementansätze zu liefern. Dafür wurden drei unterschiedliche Perspektiven gewählt, bei denen teilweise unterschiedliche Daten und Tests zum Einsatz kamen. Die Untersuchung baut auf einer Literaturrecherche, der Auswertung von Mietvertrags‑, Rendite- und Börsendaten sowie Experteninterviews auf. Insbesondere die umfangreichen Datensätze zu den drei Wohnungsportfolios gewähren detaillierte Einblicke in die Dynamik von Immobilienbeständen. Durch die eingeschränkte Validität der Untersuchung müssen die Ergebnisse allerdings sehr vorsichtig interpretiert werden, was ein typischer Nebeneffekt explorativer Forschung ist. Es ist den Autoren ebenfalls bewusst, dass eine Reproduktion der Ergebnisse durch die Vertraulichkeit der Daten ausgeschlossen ist. Die Falsifizierung dieser Untersuchung ist durch andere Datensätze mit Renditen, Cashflows und Kosten aber nicht vollständig ausgeschlossen. Trotz dieser Limitationen sind einige wichtige Ergebnisse erzielt worden, die hier nochmals zusammengefasst werden.

Die Abweichungen von der Normalverteilung scheinen eher durch sprungartige Muster getrieben zu sein. Die Gründe für die Sprünge können nicht abschließend geklärt werden, da unendlich viele unterschiedliche Ereignisse vorstellbar sind. Jedoch können diese Gründe klassifiziert werden. Erstens – Granularität: Die Normalverteilung ist eine stetige Wahrscheinlichkeitsverteilung, wobei Immobilienportfolios durch die Anzahl ihrer Immobilien, Mietverträge und weiterer Merkmale eher einer diskreten Entwicklung folgen. Je kleiner ein Portfolio ist, desto stärker wächst die Intensität des Sprungs, und die Diskretheit des Merkmals tritt immer deutlicher hervor. Dies kann bei der illiquiden Aktie, bei Sammelmieterhöhungen in Portfolio C3 oder der Modernisierung in Portfolio C1 beobachtet werden. Zweitens – Homogenität: Sprünge können auch auftreten, wenn zwar viele Elemente vorhanden sind, diese aber nicht gleichverteilt auftreten. Hier können die gewerblichen Mietverträge in den Portfolios C2 und C3 angeführt werden, die durch ihr Volumen und ihre besondere Sollstellung Sprünge im Portfolio verursachen. Drittens – Frequenz: Die Frequenz von Ereignissen ist eine weitere moderierende Größe. Die Frequenz kann auf unterschiedliche Weise zu Sprüngen führen. (a) Inaktivität innerhalb eines Zeitverlaufs erhöht die Leptokurtosis, da die sich nicht ändernden Werte redundant sind. Die anschaulichsten Beispiele sind die illiquide Aktie und der Mieten-Cashflow einer einzelnen Wohnung. Letzteres ist insofern interessant, da das Mietrecht die Frequenz besonders stark bei Wohnungsmieten reglementiert. (b) Weiterhin könnten Frequenzüberschneidungen zu Sprüngen führen, da unterschiedlich fixierte Mietvertragslaufzeiten zu sog. „Klumpen“ führen können, die aber von einer Diversifikation auf Objektebene unabhängig sind. Organisatorische Gründe scheinen ebenfalls eine Rolle zu spielen, wie das Beispiel der Sammelmieterhöhung zeigt. Auch Skaleneffekte sind vorstellbar, die zu einer gesammelten Abarbeitung von Maßnahmen beitragen können. Die Untersuchung zeigt auch, dass die Sprünge nicht rein zufällig zu sein scheinen, da periodische Muster in den Daten auftreten. Daher müssen Sprünge auch nicht per se ein Risiko darstellen, insbesondere wenn Planungsaspekte diese Sprünge formen.

Die Risikomessung sollte um diesen Planungsteil bereinigt werden, da ein Immobilien-Assetmanager im Gegensatz zu einem Wertpapier-Assetmanager das Investment aktiv steuern kann. Des Weiteren verfälschen Wertgutachten die Risikomessung durch ein Modellrisiko, sobald der wertermittlungsbasierte Total Return verwendet wird. Diese Kennzahl schadet bei der Risikomessung mehr als sie nützt, auch wenn der Total Return durchaus seine Berechtigung bei der Performancemessung hat. Für die Risikomessung ergibt sich daraus die Notwendigkeit einer Neuberechnung von Lagemaßen, die auf Basis von Plan-Ist-Differenzen gebildet werden sollten. Dies würde eine klar abgegrenzte verhaltensorientierte (subjektive) Komponente integrieren, die einer objektiven Größe gegenübergestellt wird. Insgesamt bedarf es neuer Kennzahlen und einer sorgfältigen Auswahl „harter“ Daten. Die drei aufgeführten Kategorien Granularität, Homogenität und Frequenz sollten helfen, neue Denkansätze zu entwickeln. Entsprechende Kennzahlen liegen für diese Kategorien bereits teilweise vor.

Insgesamt scheint es geboten, den Risikobegriff für die Immobilienwirtschaft auf den Prüfstand zu stellen. Die bisher üblichen Sichtweisen – die wirkungsorientierte, die ursachenorientierte und die probabilistische Sichtweise – sind zu eng formuliert, weil sie die Gründe für die Nicht-Normalverteilung von Renditen und damit auch manche Risiken nicht erklären können (s. auch Armonat 2008, S. 157). Die Vorschläge aus der verhaltenswissenschaftlichen Literatur und aus diesem Artikel können einen Impuls zur Erweiterung der Risikomessung liefern. Insbesondere die Integration eines subjektiven Planungsansatzes eröffnet die Möglichkeit, Erkenntnisse aus der kognitiven Psychologie zu integrieren, die die Einschätzung von Praktikern – auch mittels Software – unterstützen könnten (Karelaia und Hogarth 2008; Lawrence et al. 2006). Der Fokus von Entscheidungsunterstützungssystemen sollte hierfür auf den Nutzer und die Effektivität des Systems gelenkt werden. Ein wichtiger Punkt, der in der bisherigen Literatur kaum behandelt wurde und neue Erkenntnisse erwarten lässt.