Zusammenfassung
Nach den theoretischen Ausführungen des ersten Teils sollen die Tick-by-Tick-Daten von ausgewählten Aktien aufbereitet und untersucht werden. Dazu werden typische Merkmale von Zeitreihen bestehend aus Aktienrenditen und Varianzen für unterschiedliche Frequenzen analysiert, um diese anschliessend besser modellieren und deren Verteilungen prognostizieren zu können.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literature
Vgl. Brockhaus (1996b), S. 456.
Hierbei handelt es sich teilweise um einen adjustierten Kurswert, da Splits in den Zeitreihen neutralisiert wurden (vgl. auch Kapitel A.I.3.).
Für die Branchenzugehörigkeit und Kotierung vgl. Finanz und Wirtschaft (2002).
Bzgl. des Anteils der Börsenkapitalisierung am SPI und Free Float vgl. Finanz und Wirtschaft (2002).
Gleichzeitig fällt die spektakuläre „Rettungsaktion“des LTCM-Hegde Funds in diese Periode.
Für die Darstellung der Börsenöffhungszeiten vgl. Kapitel A.II.1.
Dieser erste Schritt kann für viele Aktien, welche während des Untersuchungszeitraums mehrmals die Valorennummer und den Namen gewechselt haben, aufwendig werden.
Vgl.Tsay (2002), S. 62.
Vgl. auch Tabelle 6.
Diese Festellung geht auf Wood/McInish/Ord (1985) und Harris (1986) zurück.
Für den Parameter „Zeit“bedeutet eine homogene Datenreihe bestehend aus Kurswerten beispielsweise, dass die zeitlichen Abstände zwischen den einzelnen Kurswerten konstant sind.
Vgl. Areal/Taylor (2000), S. 4.
Vgl. Dacorogna et al. (2001), S. 37f.
In Anlehnung an Dacorogna et al. (2001), S. 38.
Vgl. Dacorogna et al. (2001), S. 35.
Vgl. Dacorogna et al. (2001), S. 188ff.
Im weiteren Verlauf der Arbeit wird deshalb eine spezifische Activity Timescale, die eine identische Anzahl an Intervallen aufweist wie die Business Timescale, auch in Minuten charakterisiert. So würde z.B. die Activity Timescale von Abbildung 44 in Anlehnung an die Bezeichnung bei der Business Timescale als Activity Timescale mit einer Intervalllänge von fünf Minuten benennt.
Vgl. Dacorogna et al. (2001), S. 176.
Guillaume/Pictet/Dacorogna (1995a), S. 4f. passen eine Aktivitätsfunktion an die durchschnittliche Aktivität an. Die Activity Time leitet sich dann aus dem Integral der nunmehr stetigen Funktion ab. Die gesamte Fläche unterhalb der Funktion entspricht einem Handelstag. Ein bestimmter Prozentsatz der Fläche (Aktivität) würde dann mit einem Zeitpunkt korrespondieren.
Dacorogna et al. (1997) untersuchten die Saisonalität des dezentralisierten FX-Marktes. Aufgrund des kontinuierlichen Handels an den Haupthandelsstandorten in Asien, Europa und den USA sind die Saisonalitäten für Wechselkursrisiken nicht mehr mit den Saisonalitäten aus Aktienkursrisiken zu vergleichen.
Diese Überlegung wird im dritten Teil, Kapitel C. ausführLicher diskutiert.
Der Renditezeitreihe liegen die Business Timescale und die Previous Value-Interpolationsmethode zugrunde.
Hinweis: Der Schnittpunkt ist in Abbildung 47 wegen der diskreten Darstellung in Form eines Histogramms nicht genau ersichtlich.
Vgl. Alexander (2001), S. 288f.
Vgl. dazu auch Kapitel A.I.1.
Ohne die Annahme normalverteilter Renditen ist die Ermittlung der Standardfehler für die Schiefe und Kurtosis aber auch für die Standardabweichung schwierig zu berechnen, vgl. Greene (2000).
Die Stichprobengrössen für den Analysezeitraum können aus Tabelle 6 entnommen werden.
Vgl. Hill/Griffiths/Judge (2001), S. 139.
Anhand der p-Werte kann entschieden werden, ob die Nullhypothese abgelehnt wird oder nicht. Wenn der p-Wert eines Tests kleiner ist als das Signifikanzniveau a (des Fehlers 1. Art), wird die Nullhypothese abgelehnt, vgl. Hill/Griffiths/Judge (2001), S. 104f.
Vgl. auch Gleichung 82.
Vgl. Penza/Bansal(2001), S. 160f.
Die Werte werden wegen der eindeutigen Ablehnung der Normalverteilung nicht im Einzelnen aufgeführt.
Wenn diese Feststellung auf die Activity Timescale übertragen wird, bedeutet dies, dass die Desaisonalisierung bei der Activity Timescale mögLicherweise durchaus erfolgreich gewesen ist, auch wenn die Renditen kaum mehr einer Normalverteilung gehorchten als auf Basis der Business Timescale.
Vgl. Mandelbrot (1963).
Vgl. Gleichung 7 und die Ausführungen zur Normalverteilung im ersten Teil, Kapitel B.III.1.
Vgl.Meyer (1999), S.268.
Vgl. Penza/Bansal (2001), S. 160.
Diese Feststellung steht in Einklang mit dem verallgemeinerten zentralen Grenzwertsatz, der besagt, dass wenn eine Summe von unabhängig und identisch verteilten Zufallsvariablen eine Grenzverteilung besitzt, diese Grenzverteilung eine stabile Verteilung sein muss.
Vgl. Cont/Potters/Bouchaud (1997), S. 4. Stabile Pareto-Verteilungen besitzen Skalierungsfaktoren, die grösser als 0.5 sind.
192 Intervalle à fünf Minuten entsprechen zwei Handelstagen (bei einem Handelstag von acht Stunden).
Vgl. BleymÜller/Gehlert/GÜLicher (2002), S. 78.
Da von stabilen Pareto-Verteilungen identisch und unabhängig verteilte Zufallsvariablen voraussetzen, ist für Volatilitäten und VaR-Werte nur unter dieser Voraussetzung ein einheitliches Skalierungsgesetz zu erwarten. Sobald mit bedingten Werten gerechnet werden muss, ist obige Prämisse verletzt, da die Zufallsvariablen voneinander abhängen.
Vgl. Dacorogna et al. (2001), S. 154.
Vgl. Alexander (2001), S. 7.
Vgl. Dacorogna et al. (2001), S. 271ff.
Vgl. Epps (1979), Lundin/Dacorogna/Müller (1999) und Muthuswamy/Sarkar/Low(2001).
Für eine Länge des Handelstages von acht Stunden.
Dies entspricht bei einem angenommenen durchschnittlichen Handelstag von acht Stunden insgesamt 240 Intervallen.
Eine geringe Korrelation muss aber nicht zwingenderweise in einer Zufälligkeit begründet sein. Es ist auch möglich, dass die Korrelation aufgrund nichtlinearer Effekte gegen Null geht.
Ein Pionier auf diesem Gebiet war Fama (vgl. Fama (1965) und Fama (1970)).
Für eine Übersicht vgl. ELTON/Gruber (1995), S. 416.
Vgl. Cont/Potters/Bouchaud (1997), S. 7.
Vgl. Goodhart (1989) und Goodhart/Figliuoli (1991).
Vgl. Hill/Griffiths/Judge (2001), S. 342.
Eine Ausnahme bildet die Activity Timescale auf Basis von Transaktionen.
Vgl. Dacorogna et al. (2001), S. 124.
Vgl. Ahn et al. (2000).
Vgl. Dacorogna et al. (2001), S. 124.
Diese Aussage trifft vor allem auf die Methode des einfachen Durchschnitts zu, da bei dieser Methode die interpolierten Preise jeweils in zwei aufeinander folgenden Intervallen für die Durchschnittsbildung verwendet werden.
Vgl. Enders (1995), S. 87f. oder Tsay (2002), S. 25.
Vgl. Tsay (2002), S. 25.
Wie anschliessend zu sehen ist, liegt der Grund in einer Exponierung der Autokorrelation der Overnight-Volatilität.
Da nicht von normalverteilten Renditen und Volatilitäten ausgegangen werden kann, ist das Konfidenz-intervall (das die Normavertei lung unterstellt) als Richtwert zu betrachten.
Der Zeitpunkt des Börsenschlusses ist für beide Timescales identisch. Eine leichte Differenz ergibt sich für den Zeitpunkt nach der Börseneröffnung. Bei einer Intervalllänge von 30 Minuten beispielsweise wird der erste Kurswert bei der Activity Timescale um 09:15:39 Uhr anstatt (wie bei der Business Timescale) um 09:30:00 Uhr gemessen. Dieser zeitliche Unterschied wird aber, verglichen mit der Verarbeitung der Informationen, die sich im Eröffnungskurs niederschlagen, keine grossen Veränderungen bei den Overnight-Autokorrelationen verursachen.
Für Studien bzgl. des Einflusses der Potenz auf die Autokorrelation vgl. Granger/Dïng (1995), MÜller et al. (1998) und Bouchaud/Potters (2000).
Vgl. Dacorogna et al. (2001), S. 162.
Vgl. Dacorogna et al. (2001), S. 162.
Vgl. Ebens (1999), S.2.
Oomen (2001), S. 5ff. argumentiert, dass unkorrelierte Renditen fìir eine genaue Schätzung der realisierten Varianz sehr wichtig sind, da es ansonsten bei positiv korrelierten Renditen zu einer Unterschätzung der durchschnittlichen Varianz und vice versa kommt.
Für eine Definition der realisierten Volatilität vgl. auch Taylor/Xu (1997), Dacorogna et al. (1998). Areal/Taylor (2000), S. 11 f. schlagen eine Gewichtung der quadrierten Renditen vor, um der Intraday-Aktivität Rechnung zu tragen. Die Berücksichtigung von Saisonalitäten kann aber auch dadurch erreicht werden, dass anstelle der Business Timescale die Activity Timescale verwendet wird.
Vgl. Corsi et al. (2001), S. 185.
Vgl. Corsi et al. (2001), S. 185f.
Eine formale Rechtfertigung dieser Aussage wird in Andersen et al. (2001 und 2003) gegeben. Diese Autoren zeigen im Rahmen einer kontinuierlichen Zeit, dass wenn der Renditeprozess einem speziellen Semi-Martingale-Prozess folgt, die Summe aus den quadrierten Renditen ein konsistenter Schätzer für die integrierte Varianz des Renditeprozesses ist.
Maheu/McCurdy (2000), S. 1 sind im Gegensatz zu anderen Autoren allerdings der Meinung, dass die realisierte Volatilität für praxisrelevante Stichprobenfrequenzen nicht fehlerfrei ist.
Vgl. Andersen et al. (1999b), S. 8.
Andersen et al. (2000a) kommen in ihrer Studie von 30 DJIA-Firmen zu ähnlichen Ergebnissen. Für eine theoretische Herleitung dieser Erkenntnis und die damit verbundenen Prämissen vgl. Andersen et al. (2000b), S. 172.
Die Schiefe der realisierten Varianz ist um etwa einen Faktor zwei und die der Kurtosis um einen Faktor drei höher als die dargestellte Schiefe und Kurtosis der realisierten Standardabweichung.
Zu ähnlichen Ergebnissen kamen Andersen et al. (2001) für Wechselkursdaten und Andersen et al. (2000a) für Aktienrenditen amerikanischer Aktien.
Die Frage, ob quadrierte oder absolute Renditen Long Memory-Prozesse aufweisen, ist intensiv diskutiert worden, vgl. Ding et al. (1993), Baillie/Bollerslev/Mikkelsen (1996), Sibbertsen (2002) und andere.
Vgl. Enders (1995), S. 211ff. für Tests von Trends und „Unit Roots“.
Diese Werte basieren auf einer Regressionsspezifikation mit einer Konstanten aber ohne Trend. Die Anzahl Differenzterme wurden nach der sequenziellen Testprozedur von Ng/Perron (1996) bestimmt. Dabei wurden zwischen drei und vier Differenzterme berücksichtigt.
Diese Ergebnisse deuten auf einen teilintegrierten ARMA-Prozess (einen sog. ARFIMA-Prozess) hin. Ein solcher Prozess zeichnet sich typischerweise durch einen langsamen, hyperbolischen Zerfall der Autokorrelationsfunktion aus, der durch 1/kd beschrieben werden kann, wobei d die Höhe der Integration 1(d) bestimmt und zwischen 0 und 0.5 liegen muss, damit der Prozess schwach stationär ist, vgl. Zumbach (2002), S. 2. Auf die Beschreibung teilintegrierter Prozesse soll hier nicht näher eingegangen werden, da im Folgenden vereinfachend ein ARMA-Prozess unterstellt wird.
Vgl. Hamilton (1994), S. 449.
Zusätzliche Koeffizienten ergeben zwar eine bessere Anpassung des Modells an die Daten, reduzieren aber bei einer „Überanpassung“die Prognosequalität des Modells. Diesem Trade-off versucht das Akaike-Kriterium zu begegnen, indem zusätzliche Koeffizienten bestraft werden, vgl. Enders (1995), S. 88.
Vgl. Alexander (2001), S. 85.
Der GARCH(1,1)-Prozess ist in Gleichung 33 dargestellt.
Die z-Statistik ergibt sich, indem der geschätzte Koeffizient durch den Standardfehler geteilt wird. Für hohe Werte der z-Statistik wird die Null-Hypothese (kein Zusammenhang zwischen dem geschätzten Koeffizienten und den Daten) abgelehnt.
Diese berechnet sich aus der Wurzel der Multiplikation aus der langfristigen Varianz von 0.000515 mit der Anzahl Handelstagen in Höhe von 252.
Vgl. Kapitel A.I.1.b).
Vgl. Eviews (2001), S. 402ff.
Vgl. Alexander (2001), S. 68.
Vgl. auch die Ausführungen des ersten Teils, Kapitel B.II.3.b).
Bzgl. Voraussetzungen fìir die Aggregation vgl. J.P. Morgan (1996), S. 97.
Vgl. JanecskÓ (2001), S. 5.
Dieser Wert kann mit Hilfe von Gleichung 28 ermittelt werden.
Der hohe Wert von 14.04 kommt bei Nestlé aufgrund der positiven Autokorrelation zum zweiten Lag in Höhe von 0.123 zustande (vgl. auch Abbildung 78).
Aus diesem Grund werden die Autokorrelationsfunktionen der exponentiellen Glättung für die Backtestingperiode nicht mehr abgebildet.
Vgl. auch Zumbach/Corsi/Trapletti (2002), S. 2.
Einige Autoren verwenden deshalb für die stochastische Variable eine leptokurtische Verteilung (wie beispielsweise die Studentverteilung), die aber mit einem grösseren Aufwand für die Optimierung der Parameter verbunden ist und zudem anfälligere Resultate liefert.
Streng genommen ist die Overnight-Rendite auch von der Wahl der Zeitreihe abhängig, da sich das Overnight-Intervall aus dem Schlusskurs und dem ersten interpolierten Kurs des neuen Tages zusammensetzt. Da die grössten Kursänderungen aber bereits im Eröffnungskurs enthalten sind, wird im Weiteren unterstellt, dass das Overnight-Intervall von der Intraday-Zeitreihe unabhängig ist.
Diese Aussage gilt nicht für sehr hohe Frequenzen, bei denen der Preisformationsprozess noch nicht abgeschlossen ist (vgl. Abbildung 62 und 63).
Vgl. erster Teil, Kapitel B.II.3.a).
Rights and permissions
Copyright information
© 2004 Deutscher Universitäts-Verlag/GWV Fachverlage GmbH, Wiesbaden
About this chapter
Cite this chapter
Neukomm, M. (2004). Empirische Analyse von Hochfrequenzdaten im Hinblick auf die Value at Risk-Berechnung. In: Value at Risk-Quantifizierung unter Verwendung von Hochfrequenzdaten. Deutscher Universitätsverlag. https://doi.org/10.1007/978-3-322-81728-0_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-81728-0_3
Publisher Name: Deutscher Universitätsverlag
Print ISBN: 978-3-8244-8074-6
Online ISBN: 978-3-322-81728-0
eBook Packages: Springer Book Archive