Skip to main content

Empirische Analyse von Hochfrequenzdaten im Hinblick auf die Value at Risk-Berechnung

  • Chapter
Value at Risk-Quantifizierung unter Verwendung von Hochfrequenzdaten

Zusammenfassung

Nach den theoretischen Ausführungen des ersten Teils sollen die Tick-by-Tick-Daten von ausgewählten Aktien aufbereitet und untersucht werden. Dazu werden typische Merkmale von Zeitreihen bestehend aus Aktienrenditen und Varianzen für unterschiedliche Frequenzen analysiert, um diese anschliessend besser modellieren und deren Verteilungen prognostizieren zu können.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 99.00
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literature

  1. Vgl. Brockhaus (1996b), S. 456.

    Google Scholar 

  2. Hierbei handelt es sich teilweise um einen adjustierten Kurswert, da Splits in den Zeitreihen neutralisiert wurden (vgl. auch Kapitel A.I.3.).

    Google Scholar 

  3. Für die Branchenzugehörigkeit und Kotierung vgl. Finanz und Wirtschaft (2002).

    Google Scholar 

  4. Bzgl. des Anteils der Börsenkapitalisierung am SPI und Free Float vgl. Finanz und Wirtschaft (2002).

    Google Scholar 

  5. Gleichzeitig fällt die spektakuläre „Rettungsaktion“des LTCM-Hegde Funds in diese Periode.

    Google Scholar 

  6. Für die Darstellung der Börsenöffhungszeiten vgl. Kapitel A.II.1.

    Google Scholar 

  7. Dieser erste Schritt kann für viele Aktien, welche während des Untersuchungszeitraums mehrmals die Valorennummer und den Namen gewechselt haben, aufwendig werden.

    Google Scholar 

  8. Vgl.Tsay (2002), S. 62.

    Google Scholar 

  9. Vgl. auch Tabelle 6.

    Google Scholar 

  10. Diese Festellung geht auf Wood/McInish/Ord (1985) und Harris (1986) zurück.

    Google Scholar 

  11. Für den Parameter „Zeit“bedeutet eine homogene Datenreihe bestehend aus Kurswerten beispielsweise, dass die zeitlichen Abstände zwischen den einzelnen Kurswerten konstant sind.

    Google Scholar 

  12. Vgl. Areal/Taylor (2000), S. 4.

    Google Scholar 

  13. Vgl. Dacorogna et al. (2001), S. 37f.

    Google Scholar 

  14. In Anlehnung an Dacorogna et al. (2001), S. 38.

    Google Scholar 

  15. Vgl. Dacorogna et al. (2001), S. 35.

    Google Scholar 

  16. Vgl. Dacorogna et al. (2001), S. 188ff.

    Google Scholar 

  17. Im weiteren Verlauf der Arbeit wird deshalb eine spezifische Activity Timescale, die eine identische Anzahl an Intervallen aufweist wie die Business Timescale, auch in Minuten charakterisiert. So würde z.B. die Activity Timescale von Abbildung 44 in Anlehnung an die Bezeichnung bei der Business Timescale als Activity Timescale mit einer Intervalllänge von fünf Minuten benennt.

    Google Scholar 

  18. Vgl. Dacorogna et al. (2001), S. 176.

    Google Scholar 

  19. Guillaume/Pictet/Dacorogna (1995a), S. 4f. passen eine Aktivitätsfunktion an die durchschnittliche Aktivität an. Die Activity Time leitet sich dann aus dem Integral der nunmehr stetigen Funktion ab. Die gesamte Fläche unterhalb der Funktion entspricht einem Handelstag. Ein bestimmter Prozentsatz der Fläche (Aktivität) würde dann mit einem Zeitpunkt korrespondieren.

    Google Scholar 

  20. Dacorogna et al. (1997) untersuchten die Saisonalität des dezentralisierten FX-Marktes. Aufgrund des kontinuierlichen Handels an den Haupthandelsstandorten in Asien, Europa und den USA sind die Saisonalitäten für Wechselkursrisiken nicht mehr mit den Saisonalitäten aus Aktienkursrisiken zu vergleichen.

    Google Scholar 

  21. Diese Überlegung wird im dritten Teil, Kapitel C. ausführLicher diskutiert.

    Google Scholar 

  22. Der Renditezeitreihe liegen die Business Timescale und die Previous Value-Interpolationsmethode zugrunde.

    Google Scholar 

  23. Hinweis: Der Schnittpunkt ist in Abbildung 47 wegen der diskreten Darstellung in Form eines Histogramms nicht genau ersichtlich.

    Google Scholar 

  24. Vgl. Alexander (2001), S. 288f.

    Google Scholar 

  25. Vgl. dazu auch Kapitel A.I.1.

    Google Scholar 

  26. Ohne die Annahme normalverteilter Renditen ist die Ermittlung der Standardfehler für die Schiefe und Kurtosis aber auch für die Standardabweichung schwierig zu berechnen, vgl. Greene (2000).

    Google Scholar 

  27. Die Stichprobengrössen für den Analysezeitraum können aus Tabelle 6 entnommen werden.

    Google Scholar 

  28. Vgl. Hill/Griffiths/Judge (2001), S. 139.

    Google Scholar 

  29. Anhand der p-Werte kann entschieden werden, ob die Nullhypothese abgelehnt wird oder nicht. Wenn der p-Wert eines Tests kleiner ist als das Signifikanzniveau a (des Fehlers 1. Art), wird die Nullhypothese abgelehnt, vgl. Hill/Griffiths/Judge (2001), S. 104f.

    Google Scholar 

  30. Vgl. auch Gleichung 82.

    Google Scholar 

  31. Vgl. Penza/Bansal(2001), S. 160f.

    Google Scholar 

  32. Die Werte werden wegen der eindeutigen Ablehnung der Normalverteilung nicht im Einzelnen aufgeführt.

    Google Scholar 

  33. Wenn diese Feststellung auf die Activity Timescale übertragen wird, bedeutet dies, dass die Desaisonalisierung bei der Activity Timescale mögLicherweise durchaus erfolgreich gewesen ist, auch wenn die Renditen kaum mehr einer Normalverteilung gehorchten als auf Basis der Business Timescale.

    Google Scholar 

  34. Vgl. Mandelbrot (1963).

    Google Scholar 

  35. Vgl. Gleichung 7 und die Ausführungen zur Normalverteilung im ersten Teil, Kapitel B.III.1.

    Google Scholar 

  36. Vgl.Meyer (1999), S.268.

    Google Scholar 

  37. Vgl. Penza/Bansal (2001), S. 160.

    Google Scholar 

  38. Diese Feststellung steht in Einklang mit dem verallgemeinerten zentralen Grenzwertsatz, der besagt, dass wenn eine Summe von unabhängig und identisch verteilten Zufallsvariablen eine Grenzverteilung besitzt, diese Grenzverteilung eine stabile Verteilung sein muss.

    Google Scholar 

  39. Vgl. Cont/Potters/Bouchaud (1997), S. 4. Stabile Pareto-Verteilungen besitzen Skalierungsfaktoren, die grösser als 0.5 sind.

    Google Scholar 

  40. 192 Intervalle à fünf Minuten entsprechen zwei Handelstagen (bei einem Handelstag von acht Stunden).

    Google Scholar 

  41. Vgl. BleymÜller/Gehlert/GÜLicher (2002), S. 78.

    Google Scholar 

  42. Da von stabilen Pareto-Verteilungen identisch und unabhängig verteilte Zufallsvariablen voraussetzen, ist für Volatilitäten und VaR-Werte nur unter dieser Voraussetzung ein einheitliches Skalierungsgesetz zu erwarten. Sobald mit bedingten Werten gerechnet werden muss, ist obige Prämisse verletzt, da die Zufallsvariablen voneinander abhängen.

    Google Scholar 

  43. Vgl. Dacorogna et al. (2001), S. 154.

    Google Scholar 

  44. Vgl. Alexander (2001), S. 7.

    Google Scholar 

  45. Vgl. Dacorogna et al. (2001), S. 271ff.

    Google Scholar 

  46. Vgl. Epps (1979), Lundin/Dacorogna/Müller (1999) und Muthuswamy/Sarkar/Low(2001).

    Google Scholar 

  47. Für eine Länge des Handelstages von acht Stunden.

    Google Scholar 

  48. Dies entspricht bei einem angenommenen durchschnittlichen Handelstag von acht Stunden insgesamt 240 Intervallen.

    Google Scholar 

  49. Eine geringe Korrelation muss aber nicht zwingenderweise in einer Zufälligkeit begründet sein. Es ist auch möglich, dass die Korrelation aufgrund nichtlinearer Effekte gegen Null geht.

    Google Scholar 

  50. Ein Pionier auf diesem Gebiet war Fama (vgl. Fama (1965) und Fama (1970)).

    Google Scholar 

  51. Für eine Übersicht vgl. ELTON/Gruber (1995), S. 416.

    Google Scholar 

  52. Vgl. Cont/Potters/Bouchaud (1997), S. 7.

    Google Scholar 

  53. Vgl. Goodhart (1989) und Goodhart/Figliuoli (1991).

    Google Scholar 

  54. Vgl. Hill/Griffiths/Judge (2001), S. 342.

    Google Scholar 

  55. Eine Ausnahme bildet die Activity Timescale auf Basis von Transaktionen.

    Google Scholar 

  56. Vgl. Dacorogna et al. (2001), S. 124.

    Google Scholar 

  57. Vgl. Ahn et al. (2000).

    Google Scholar 

  58. Vgl. Dacorogna et al. (2001), S. 124.

    Google Scholar 

  59. Diese Aussage trifft vor allem auf die Methode des einfachen Durchschnitts zu, da bei dieser Methode die interpolierten Preise jeweils in zwei aufeinander folgenden Intervallen für die Durchschnittsbildung verwendet werden.

    Google Scholar 

  60. Vgl. Enders (1995), S. 87f. oder Tsay (2002), S. 25.

    Google Scholar 

  61. Vgl. Tsay (2002), S. 25.

    Google Scholar 

  62. Wie anschliessend zu sehen ist, liegt der Grund in einer Exponierung der Autokorrelation der Overnight-Volatilität.

    Google Scholar 

  63. Da nicht von normalverteilten Renditen und Volatilitäten ausgegangen werden kann, ist das Konfidenz-intervall (das die Normavertei lung unterstellt) als Richtwert zu betrachten.

    Google Scholar 

  64. Der Zeitpunkt des Börsenschlusses ist für beide Timescales identisch. Eine leichte Differenz ergibt sich für den Zeitpunkt nach der Börseneröffnung. Bei einer Intervalllänge von 30 Minuten beispielsweise wird der erste Kurswert bei der Activity Timescale um 09:15:39 Uhr anstatt (wie bei der Business Timescale) um 09:30:00 Uhr gemessen. Dieser zeitliche Unterschied wird aber, verglichen mit der Verarbeitung der Informationen, die sich im Eröffnungskurs niederschlagen, keine grossen Veränderungen bei den Overnight-Autokorrelationen verursachen.

    Google Scholar 

  65. Für Studien bzgl. des Einflusses der Potenz auf die Autokorrelation vgl. Granger/Dïng (1995), MÜller et al. (1998) und Bouchaud/Potters (2000).

    Google Scholar 

  66. Vgl. Dacorogna et al. (2001), S. 162.

    Google Scholar 

  67. Vgl. Dacorogna et al. (2001), S. 162.

    Google Scholar 

  68. Vgl. Ebens (1999), S.2.

    Google Scholar 

  69. Oomen (2001), S. 5ff. argumentiert, dass unkorrelierte Renditen fìir eine genaue Schätzung der realisierten Varianz sehr wichtig sind, da es ansonsten bei positiv korrelierten Renditen zu einer Unterschätzung der durchschnittlichen Varianz und vice versa kommt.

    Google Scholar 

  70. Für eine Definition der realisierten Volatilität vgl. auch Taylor/Xu (1997), Dacorogna et al. (1998). Areal/Taylor (2000), S. 11 f. schlagen eine Gewichtung der quadrierten Renditen vor, um der Intraday-Aktivität Rechnung zu tragen. Die Berücksichtigung von Saisonalitäten kann aber auch dadurch erreicht werden, dass anstelle der Business Timescale die Activity Timescale verwendet wird.

    Google Scholar 

  71. Vgl. Corsi et al. (2001), S. 185.

    Google Scholar 

  72. Vgl. Corsi et al. (2001), S. 185f.

    Google Scholar 

  73. Eine formale Rechtfertigung dieser Aussage wird in Andersen et al. (2001 und 2003) gegeben. Diese Autoren zeigen im Rahmen einer kontinuierlichen Zeit, dass wenn der Renditeprozess einem speziellen Semi-Martingale-Prozess folgt, die Summe aus den quadrierten Renditen ein konsistenter Schätzer für die integrierte Varianz des Renditeprozesses ist.

    Google Scholar 

  74. Maheu/McCurdy (2000), S. 1 sind im Gegensatz zu anderen Autoren allerdings der Meinung, dass die realisierte Volatilität für praxisrelevante Stichprobenfrequenzen nicht fehlerfrei ist.

    Google Scholar 

  75. Vgl. Andersen et al. (1999b), S. 8.

    Google Scholar 

  76. Andersen et al. (2000a) kommen in ihrer Studie von 30 DJIA-Firmen zu ähnlichen Ergebnissen. Für eine theoretische Herleitung dieser Erkenntnis und die damit verbundenen Prämissen vgl. Andersen et al. (2000b), S. 172.

    Google Scholar 

  77. Die Schiefe der realisierten Varianz ist um etwa einen Faktor zwei und die der Kurtosis um einen Faktor drei höher als die dargestellte Schiefe und Kurtosis der realisierten Standardabweichung.

    Google Scholar 

  78. Zu ähnlichen Ergebnissen kamen Andersen et al. (2001) für Wechselkursdaten und Andersen et al. (2000a) für Aktienrenditen amerikanischer Aktien.

    Google Scholar 

  79. Die Frage, ob quadrierte oder absolute Renditen Long Memory-Prozesse aufweisen, ist intensiv diskutiert worden, vgl. Ding et al. (1993), Baillie/Bollerslev/Mikkelsen (1996), Sibbertsen (2002) und andere.

    Google Scholar 

  80. Vgl. Enders (1995), S. 211ff. für Tests von Trends und „Unit Roots“.

    Google Scholar 

  81. Diese Werte basieren auf einer Regressionsspezifikation mit einer Konstanten aber ohne Trend. Die Anzahl Differenzterme wurden nach der sequenziellen Testprozedur von Ng/Perron (1996) bestimmt. Dabei wurden zwischen drei und vier Differenzterme berücksichtigt.

    Google Scholar 

  82. Diese Ergebnisse deuten auf einen teilintegrierten ARMA-Prozess (einen sog. ARFIMA-Prozess) hin. Ein solcher Prozess zeichnet sich typischerweise durch einen langsamen, hyperbolischen Zerfall der Autokorrelationsfunktion aus, der durch 1/kd beschrieben werden kann, wobei d die Höhe der Integration 1(d) bestimmt und zwischen 0 und 0.5 liegen muss, damit der Prozess schwach stationär ist, vgl. Zumbach (2002), S. 2. Auf die Beschreibung teilintegrierter Prozesse soll hier nicht näher eingegangen werden, da im Folgenden vereinfachend ein ARMA-Prozess unterstellt wird.

    Google Scholar 

  83. Vgl. Hamilton (1994), S. 449.

    Google Scholar 

  84. Zusätzliche Koeffizienten ergeben zwar eine bessere Anpassung des Modells an die Daten, reduzieren aber bei einer „Überanpassung“die Prognosequalität des Modells. Diesem Trade-off versucht das Akaike-Kriterium zu begegnen, indem zusätzliche Koeffizienten bestraft werden, vgl. Enders (1995), S. 88.

    Google Scholar 

  85. Vgl. Alexander (2001), S. 85.

    Google Scholar 

  86. Der GARCH(1,1)-Prozess ist in Gleichung 33 dargestellt.

    Google Scholar 

  87. Die z-Statistik ergibt sich, indem der geschätzte Koeffizient durch den Standardfehler geteilt wird. Für hohe Werte der z-Statistik wird die Null-Hypothese (kein Zusammenhang zwischen dem geschätzten Koeffizienten und den Daten) abgelehnt.

    Google Scholar 

  88. Diese berechnet sich aus der Wurzel der Multiplikation aus der langfristigen Varianz von 0.000515 mit der Anzahl Handelstagen in Höhe von 252.

    Google Scholar 

  89. Vgl. Kapitel A.I.1.b).

    Google Scholar 

  90. Vgl. Eviews (2001), S. 402ff.

    Google Scholar 

  91. Vgl. Alexander (2001), S. 68.

    Google Scholar 

  92. Vgl. auch die Ausführungen des ersten Teils, Kapitel B.II.3.b).

    Google Scholar 

  93. Bzgl. Voraussetzungen fìir die Aggregation vgl. J.P. Morgan (1996), S. 97.

    Google Scholar 

  94. Vgl. JanecskÓ (2001), S. 5.

    Google Scholar 

  95. Dieser Wert kann mit Hilfe von Gleichung 28 ermittelt werden.

    Google Scholar 

  96. Der hohe Wert von 14.04 kommt bei Nestlé aufgrund der positiven Autokorrelation zum zweiten Lag in Höhe von 0.123 zustande (vgl. auch Abbildung 78).

    Google Scholar 

  97. Aus diesem Grund werden die Autokorrelationsfunktionen der exponentiellen Glättung für die Backtestingperiode nicht mehr abgebildet.

    Google Scholar 

  98. Vgl. auch Zumbach/Corsi/Trapletti (2002), S. 2.

    Google Scholar 

  99. Einige Autoren verwenden deshalb für die stochastische Variable eine leptokurtische Verteilung (wie beispielsweise die Studentverteilung), die aber mit einem grösseren Aufwand für die Optimierung der Parameter verbunden ist und zudem anfälligere Resultate liefert.

    Google Scholar 

  100. Streng genommen ist die Overnight-Rendite auch von der Wahl der Zeitreihe abhängig, da sich das Overnight-Intervall aus dem Schlusskurs und dem ersten interpolierten Kurs des neuen Tages zusammensetzt. Da die grössten Kursänderungen aber bereits im Eröffnungskurs enthalten sind, wird im Weiteren unterstellt, dass das Overnight-Intervall von der Intraday-Zeitreihe unabhängig ist.

    Google Scholar 

  101. Diese Aussage gilt nicht für sehr hohe Frequenzen, bei denen der Preisformationsprozess noch nicht abgeschlossen ist (vgl. Abbildung 62 und 63).

    Google Scholar 

  102. Vgl. erster Teil, Kapitel B.II.3.a).

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 2004 Deutscher Universitäts-Verlag/GWV Fachverlage GmbH, Wiesbaden

About this chapter

Cite this chapter

Neukomm, M. (2004). Empirische Analyse von Hochfrequenzdaten im Hinblick auf die Value at Risk-Berechnung. In: Value at Risk-Quantifizierung unter Verwendung von Hochfrequenzdaten. Deutscher Universitätsverlag. https://doi.org/10.1007/978-3-322-81728-0_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-81728-0_3

  • Publisher Name: Deutscher Universitätsverlag

  • Print ISBN: 978-3-8244-8074-6

  • Online ISBN: 978-3-322-81728-0

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics