Skip to main content

Aktienmarkt-Anomalien im wissenschaftlichen Diskurs

  • Chapter
Prognostizierbarkeit von Aktienrenditen

Part of the book series: Gabler Edition Wissenschaft ((GEW))

  • 319 Accesses

Zusammenfassung

Der Gegenstand dieser Arbeit soll das anomale Verhalten von Renditen an Aktienmärkten sein. Die Frage, was normal ist und was nicht, wird hierbei durch die vorherrschende wissenschaftliche Meinung definiert, die bekanntlich alles andere als unveränderlich ist. Im Gegenteil: Der wissenschaftliche Erkenntnisfortschritt ist ein evolutionärer Prozeß, in dem Theorien, die in der einen Generation noch als unumstößlich galten, sich bereits in der nächsten Generation als obsolet erweisen können. Die Auslöser für den Übergang von einem zum nächsten Paradigma sind dabei sehr oft empirische Beobachtungen, die nicht mit dem herrschenden Theoriegebäude in Einklang zu bringen sind. Sie bilden den Ausgangspunkt für das Schaffen neuer Theorien, die besser dazu in der Lage sind, reale empirische Phänomene zu erklären und so ihrerseits den Status eines Paradigmas für sich zu reklamieren. Um als neues Paradigma akzeptiert zu werden, muß eine Theorie, gemäß Poppers kritischem Rationalismus, keineswegs alle empirischen Phänomene erklären mit denen sie konfrontiert wird. Vielmehr reicht es aus, wenn sie

  1. 1.

    umfassender und exakter und damit leichter falsifizierbar ist als die mit ihr konkurrierenden Theorien (vgl. Kuhn, 1962)

  2. 2.

    mehr reale Erscheinungen zu erklären bzw. zu prognostizieren vermag und

  3. 3.

    eine hinreichend große Anzahl von Falsifikationsversuchen übersteht.

„An anomaly exists only in a widely accepted belief or benchmark. Insofar as beliefs change, so do the anomalies.[...] Of course anomalies may be short-lived, almost by definition. The exceptions to the current body of knowledge may be incorporated into that body of knowledge and become tomorrow’s conventional wisdom.“ Marc R. Reinganum (1993), S. 571.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Letzteres würde jedenfalls die Auffassung von Kuhn (1962) unterstützen, der argumentiert, dass es sich bei den meisten Anomalien um eben solche Artefakte handelt. Ähnliche Überlegungen stellt z.B. auch Lakatos (1974) an, der aufbauend auf Kuhns Überlegungen die Methodologie der Forschungsprogramme entwickelte. 12 Ein Forschungsprogramm besteht demnach aus einem harten Theoriekern sowie einem weichen Schutzgürtel von Theorieimplikationen, die durchaus falsifiziert werden können, ohne das der harte Kern notwendigerweise hiervon betroffen sein muß.

    Google Scholar 

  2. Black (1993a, 1993b) verweist in diesem Zusammenhang auch auf die Gefahr einer Überschätzung der Signifikanz von Anomalien. Siehe hierzu die Diskussion in Abschnitt 2.3.3.

    Google Scholar 

  3. E/P steht für Earnings-to-Price (Gewinnrendite), D/P für Dividends-to-Price (Dividendenrendite) und B/M für Book-to-Market (Buchwert/Marktwert-Verhältnis).

    Google Scholar 

  4. Dementsprechend findet man in letzter Zeit immer mehr Untersuchungen, die den Aspekt des Investmentstils und damit die Sicht der Praxis in den Vordergrund rücken. Ein Beispiel hierfür ist die Arbeit von Paulus (1997), der die Performance von Value-Strategien an europäischen Aktienmärkten analysiert. Für die Praxis ergibt sich aus diesen empirischen Erkenntnissen z.B. die Notwendigkeit, die Performance von Portfoliomanagem, die unterschiedliche Investmentstile pflegen, auch mit entsprechenden Style-Benchmarks zu messen (siehe hierzu z.B. Sharpe, 1992 ).

    Google Scholar 

  5. Ein bewertungseffizienter Sekundärmarkt bildet daher die Voraussetzung für die Allokationseffizienz des Primärmarktes. Zur Hierarchie von Effizienzbegriffen siehe auch Bienert (1996).

    Google Scholar 

  6. Von allen Bewertungskalkülen der Neo-Klassik gilt das SLM-Modell als das restriktivste und damit auch als das am leichtesten falsifizierbare Modell. Damit erfüllt es eine der wichtigsten qualitativen Anforderungen, die man aus Popperscher Sicht an ein Modell haben sollte. Zu den genauen Voraussetzungen zur Ableitung des CAPM siehe Abschnitt 2. 2. 2.

    Google Scholar 

  7. Eine weitere Dimension wird diesem Dilemma durch die Tatsache hinzugefügt, dass man zur Durchführbarkeit empirischer Tests weitere Annahmen treffen muß (siehe hierzu Abschnitt 2.2.2), was bei einer Ablehnung der getesteten Hypothesen das Zuordnungsproblem noch weiter verschärft.

    Google Scholar 

  8. Dies ändert sich allerdings, wenn man die Langzeitwirkung von Ereignissen wie Firmenübernahmen (Asquith, 1983) oder Gewinnankündigungen (Bemard/fhomas, 1989) betrachtet. In diesen Fällen gewinnt die Auswahl des Marktgleichgewichtsmodells wieder an Bedeutung. So gehen beispielsweise Bernard/Thomas der Frage nach, ob der von ihnen auf Basis des CAPM beobachtete post earnings announcement dritt mit Hilfe eines APT-Modells erklärt werden kann. Zu den Ergebnissen von Bemard/Thomas siehe Abschnitt 5.2.

    Google Scholar 

  9. Zur Ereignisstudienmethodik siehe z.B. Brown/Wamer (1980, 1985).

    Google Scholar 

  10. Die Preiswirkungen von Dividendenankündigungen am deutschen Aktienmarkt untersuchten Gerke/Oerke/ Sentner (1997).

    Google Scholar 

  11. Einen Überblick zur Bewertung von Corporate-Control-Entscheidungen am US-Aktienmarkt liefern beispielsweise JarrelUBrickley/Netter (1988). Die Bewertung von Unternehmensübernahmen am deutschen Aktienmarkt untersuchten u.a. Bühner (1990) sowie Gerke/Garz/Oerke (1995). Gebhardt/Entrup (1993) analysierten dagegen die Kurswirkungen der Ankündigung von Eigenkapital-und Fremdkapitalemissionen am deutschen Markt.

    Google Scholar 

  12. Zu den wichtigsten Ansätzen zählen die Modelle von Easterbrook (1984), Myers/Majluf (1984), Miller/Rock (1985) und Ross (1977).

    Google Scholar 

  13. Allerdings muß man einräumen, dass der post earnings announcement drift (vgl. z.B. Ball/Kothari/Watts, 1988, und Bernard/Thomas, 1989) dieser Einschätzung zu widersprechen scheint. Er beschreibt das Phänomen, dass die kumulierten abnormalen Renditen im Anschluß an die Bekanntgabe überraschend guter bzw. überraschend schlechter Unternehmensergebnisse durch einen stabilen Aufwärts-bzw. Abwärtstrend gekennzeichnet sind. Aufgrund der Ausdehnung des analysierten Zeitfensters steht hier jedoch nicht mehr nur das Ereignis selber sowie dessen Verarbeitung im Vordergrund. Auch das als Bewertungsmaßstab verwendete Marktgleichgewichtsmodell, also in aller Regel das CAPM, spielt eine wichtige Rolle. Damit dürfte aber klar sein, dass der post earnings announcement drift nicht eindeutig Famas Rubrik „Ereignisstudien“ zugeordnet werden kann.

    Google Scholar 

  14. Die Wirkungen von Anlageempfehlungen in Börseninformationsdiensten auf die Kursbildung am deutschen Aktienmarkt untersuchten Pieper/Schiereck/Weber (1993) sowie Röckemann (1994). Das Problem bei diesen Arbeiten liegt (a.) in der Frage, ob es überhaupt plausibel ist, anzunehmen, dass die Empfehlungen in den untersuchten Medien auf Informationsvorsprüngen beruhen und (b.) in der Dominanz sehr kleiner Börsengesellschaften in den Untersuchungsstichproben. Nur bei ihnen lassen sich auch wirklich signifikante Kurswirkungen feststellen. Dies läßt zwei Interpretationen zu: Zum einen kann es natürlich sein, dass die Bildung eines privaten Informationsvorsprungs im Bereich kleiner Firmen einfacher ist, da in diesem Bereich der Umfang der Vorabinformation weitaus geringer ist als bei den großen Firmen (siehe Atiase, 1985 ). Die Kurswirkungen wären in diesem Fall dann tatsächlich auf die Offenlegung privater Informationen zurückzufahren. Eine zweite Möglichkeit besteht jedoch darin, dass die Kurswirkungen im Small-Firm-Segment lediglich auf temporären Preisdrücken basieren, für die kleine Firmen wegen ihrer Marktenge besonders anfällig sind. Mit Informationswirkungen hätte dies dann nichts mehr zu tun.

    Google Scholar 

  15. Im Gegensatz zu Deutschland stehen die Daten über meldepflichtige Insider-Geschäfte in den USA schon seit langem zu Analysezwecken zur Verfügung. Daten über „verbotene“ und daher auch nicht gemeldete Insider-Geschäfte sind natürlich auch dort nicht verfügbar.

    Google Scholar 

  16. Eine andere Frage ist noch, inwiefern ein extemer Investor von der Veröffentlichung der Tatsache, dass Insider-Geschäfte tatsächlich stattgefunden haben (eine entsprechende Anzeigepflicht besteht in den USA), profitieren kann. Hier kamen Jaffeé und Seyhun zu widersprüchlichen Ergebnissen.

    Google Scholar 

  17. Aus Gründen der Datenverfügbarkeit wurden hierbei primär börsennotierte Publikumsfonds betrachtet.

    Google Scholar 

  18. Genau diese Problematik hat zur Entwicklung neuer Performance-Maßstäbe geführt. Siehe hierzu z.B. Sharpe (1992).

    Google Scholar 

  19. Nachdem man in den frühen Jahren der Markteffizienzforschung vor allem auf die serielle Korrelation kurzfristiger Renditen (tägliche Renditen) fokussiert war (siehe Fama, 1965), ging man später dazu über, auch die Autokorrelation langfristiger Renditen zu untersuchen (siehe z.B. Fama/French, 1988a).

    Google Scholar 

  20. Der Month-of-the-Year-Effekt ist auch bekannt unter dem Namen Januar-Effekt. Für den Day-of-the-WeekEffekt findet man oft die Bezeichnung Montags-oder Wochenend-Effekt. Empirische Untersuchungen des deutschen Aktienmarktes im Hinblick auf kalenderzeitliche Effekte findet man z.B. bei Schnittke (1989) oder Franzmann (1989).

    Google Scholar 

  21. Der Kovarianzeffekt ergibt sich aus dem bedingten CAPM, das in Abschnitt 4.4 ausführlich behandelt wird. Als eine mögliche Erklärung für CAPM-Anomalien wurde der Kovarianzeffekt erstmals von Chan (1988) ins Gespräch gebracht.

    Google Scholar 

  22. Gleiches gilt für den Size-Effekt (siehe Keim, 1983), den D/P-Effekt (siehe Keim, 1985) und den P/E-Effekt (siehe Keim, 1990).

    Google Scholar 

  23. Siehe hierzu ausführlich Abschnitt 2.3.4.

    Google Scholar 

  24. Ablesen läßt sich letzteres z.B. an den wichtigsten Erklärungshypothesen für den Day-of-the-Week-Effekt, die man in den letzten 20 Jahren nach seiner Entdeckung vorbrachte. So machten z.B. Miller (1988) sowie Lakonishok/Maberly (1990) das Investitionsverhalten privater Anleger für die im Durchschnitt negativen Montags-Renditen am US-Aktienmarkt verantwortlich. Offenbar stehen sie zum Wochenbeginn auf der Nettoverkäuferseite, was im Verbund mit einer unter dem Durchschnitt liegenden Liquidität an Montagen zu temporärem Preisdruck führt. Penman (1987) argumentierte, dass die Informationspolitik der Unternehmen für den Montags-Effekt verantwortlich sein könnte. Er stellte nämlich fest, dass negative Zwischenberichte überdurchschnittlich häufig an Montagen veröffentlicht werden. Die sogenannte Settlement-Hypothese (vgl. Gibbons/Hess, 1981) basiert auf der Erkenntnis, dass Kassageschäfte an Aktienbörsen durch die Existenz einer Erfilllungsfrist zu Termingeschäften werden und in den Kursen dementsprechend auch die cost of carry enthalten sind. Die Wochentagsabhängigkeit der Renditen entsteht nun dadurch, dass die Erfiillungsfristen in aller Regel kürzer ausfallen als fünf Börsentage. Hierdurch hängen die cost of carry davon ab, an welchem Börsentag das Geschäft abgeschlossen wird. Nimmt man beispielsweise die deutschen Börsen, so gilt eine Erfüllungsfrist von zwei Tagen. Dies hat zur Folge, dass in den Kursen von Montag bis Mittwoch jeweils zwei Zinstage enthalten sind, in den Kursen von Donnerstag bis Freitag jedoch jeweils vier Zinstage, so dass die Kurse zum Wochenschluß nach oben hin verzerrt sind. Schließlich machten Admati/Pfleiderer (1989) das optimierte Verhaltenskalkül der market maker infolge informationsgetriebenen Handels für Wochentags-Effekte verantwortlich.

    Google Scholar 

  25. Gleichwohl sei darauf hingewiesen, dass es durchaus Arbeiten gibt, die den Wochentags-Effekt mit dem CAPM und auch mit anderen Gleichgewichtsmodellen konfrontieren (siehe z.B. Frantzmann, 1989).

    Google Scholar 

  26. Zukünftige Wertpapierpreise sind hierbei als Cum-Preise zu verstehen. D.h., dass sie z.B. sowohl Dividendenzahlungen als auch Bezugsrechterlöse enthalten.

    Google Scholar 

  27. Sumfaßt natürlich auch die relevanten Informationsmengen der Vorperioden, also.Q,_, D Dchwr(133).

    Google Scholar 

  28. Strenggenommen impliziert Gleichung 2–2 bereits die korrekte Bestimmung der Verteilung, da R. per Definition alles enthält, was man aus dem gegenwärtigen Umweltzustand für zukünftige Umweltzustände ableiten kann.

    Google Scholar 

  29. Da alle Informationen in den Preisen enthalten sind, entspricht die geschilderte Situation einem Walras’schen Gleichgewicht, bei dem alle Marktteilnehmer ihre Information veröffentlichen bevor sie handeln (siehe Grossman, 1976 ). Dem Problem, dass in diesem Fall gar kein Handel zustande käme (Stichwort: No-TradeTheorem, siehe z.B. Admati, 1989), kann durch die Einführung von noise begegnet werden (siehe Grossman/ Stiglitz, 1980 ).

    Google Scholar 

  30. Verallgemeinerte Separationsbedingungen leiten z.B. Cass/Stiglitz (1970) und Ross (1978) ab. Während Cass/Stiglitz beweisen, dass alle Nutzenfunktionen mit linearer Risikotoleranz die Portfolioseparationseigenschaft nach sich ziehen, zeigt Ross, dass eine ganze Reihe von Verteilungsklassen, wie die der stabilen Pareto-Verteilungen, sie ebenfalls gewährleistet.

    Google Scholar 

  31. Das Beta-Risiko von Wertpapier j ist definiert als Kovarianz der Rendite von j und der Marktrendite, im Verhältnis zur Varianz der Marktrendite. Man hat somit:

    Google Scholar 

  32. Man findet diese in zahlreichen Lehrbüchern der Finanzierungstheorie, wie z.B. bei Fama/Miller (1972), Fama (1976), Copeland/Weston (1988) und in der deutschsprachigen Literatur bei Gerke/Bank (1998).

    Google Scholar 

  33. Das mehrperiodige CAPM von Merton (1973) wird an dieser Stelle bewußt noch nicht eingeführt, da es in der Literatur nicht als Meßlatte für die noch zu diskutierenden Anomalien fungiert, sondern vielmehr als ein möglicher Erklärungsansatz für die Existenz derselben in Frage kommt. Siehe hierzu ausführlich Abschnitt 5.1.

    Google Scholar 

  34. Siehe hierzu ausführlich Abschnitt 2.3.2 sowie Abschnitt 4.2.1.

    Google Scholar 

  35. Generell gilt, dass die Nichterfilllung von einer der drei Forderungen stets eine hinreichende Bedingung für die Ablehnung des CAPM darstellt.

    Google Scholar 

  36. Es werden somit lediglich Annahmen über den Mittelwert der Renditeverteilung gemacht, nicht aber über die höheren Momente der Verteilung.

    Google Scholar 

  37. Hierbei wird die Stationarität der Varianz/Kovarianz-Matrix vorausgesetzt.

    Google Scholar 

  38. Letzteres bedingt die Einordnung von Anomaliestudien in die Rubrik „Tests auf Renditeprognostizierbarkeit“ (vgl. Abbildung 2–1).

    Google Scholar 

  39. Zum Konzept der Arbitragefreiheit von Märkten siehe Abschnitt 5.1.

    Google Scholar 

  40. Bei den Variablen handelt es sich um Vektoren der Dimension n (= Anzahl der am Markt gehandelten Wertpapiere). Der Vektor w, stellt den Vektor der Portfoliogewichte dar. Negative Komponenten von w, werden auch als leerverkaufte Anlagepositionen (Short-Positionen) bezeichnet. Beim Vektor e,handelt es sich um den Einheitsvektor.

    Google Scholar 

  41. Frei zitiert nach Milton Friedman.

    Google Scholar 

  42. Die Antwort hierauf ist keineswegs so eindeutig, wie dies in der Frage suggeriert wird. So kann z.B. argumentiert werden, dass die Ausbeutbarkeit von Fehlbewertungen durch die zu kurzen Anlagehorizonte „rationaler Spekulanten“ verhindert wird (siehe hierzu z.B. DeLong/Shleifer/Summers/Waldman, 1990a ).

    Google Scholar 

  43. Nicht angesprochen werden an dieser Stelle die indirekten Auswirkungen von Informations-und Transaktionskosten. So führt ihre Existenz z.B. zu einem segmentierten Kapitalmarkt, auf dem die Marktteilnehmer nur noch unvollständig diversifizierte Portfolios halten (vgl. Merton, 1987 ). Die Folge ist, dass Variablen, für die im CAPM kein Platz ist, zur Erklärung von Renditeunterschieden heranzuziehen sind. In einem anderen Ansatz führt der Ausgleich marginaler Informationkosten dazu, dass sich die Informationsqualitäten von Wertpapieren im Marktgleichgewicht unterscheiden und sich dies in einer Divergenz von tatsächlichen und wahrgenommenen Risiken widerspiegelt (siehe hierzu z.B. Barry/Brown, 1985 sowie Gerke, 1993). Zu den sich hieraus ergebenden Erklärungsansätzen für CAPM-Anomalien siehe ausführlich Abschnitt 2. 3. 4.

    Google Scholar 

  44. In einem solchen Markt käme es zu dem unter dem Begriff Informationsparadoxon bekannt gewordenen Dilemma, dass kein Investor mehr angereizt würde Informationen zu sammeln und zu verarbeiten und die Marktpreise angesichts dieser Tatsache schwerlich dazu in der Lage wären, dennoch alle Informationen akkurat widerzuspiegeln (siehe hierzu Grossman/Stiglitz, 1980).

    Google Scholar 

  45. Zur Bildung von Gleichgewichtsrenditen unter Berücksichtigung von Informationskosten siehe z.B. Cornell/ Roll (1981).

    Google Scholar 

  46. Siehe hierzu ausfilhrlich Abschnitt 2.3.4.

    Google Scholar 

  47. Um dem Rechnung zu tragen, wurde im Rahmen dieser Arbeit die Profitabilität von Anlagestrategien untersucht, die sich aus den untersuchten Anomalien ableiten lassen. Hierbei wurden sowohl direkte als auch indirekte Transaktionskosten berücksichtigt. Zu den Ergebnissen siehe Kapitel 7.

    Google Scholar 

  48. Einen Ansatz zur Integration nicht-marktfähiger Assets in die Modellwelt des CAPM findet man bei Mayers (1972).

    Google Scholar 

  49. Sicherlich sind Rolls Einwände, die in dem Zitat „/f the horn honks and the mechanic concludes that the whole electrical system is working, he is in deep trouble. “ von Pirsig (1974) zum Ausdruck kommen, berechtigt, daraus aber die völlige Wertlosigkeit empirischer CAPM-Tests zu folgern, erscheint zu weit gegriffen, würde sie doch die Ökonometrie insgesamt in Frage stellen. Schließlich würde es z.B. auch keinen Sinn machen, ökonometrische Untersuchungen über die Inflationsentwicklung a priori nur deshalb abzulehnen, weil die in aller Regel hierfür verwendeten Veränderungsraten des Konsumentenpreisindex nur Stellvertreter für die „wahre” Inflationsrate sind (siehe hierzu Mayers/Rice, 1979).

    Google Scholar 

  50. Auch Miller/Scholes (1972) kamen zu einem ähnlichen Ergebnis. Sie stellten fest, dass die Ergebnisse einer Schätzung der empirischen Wertpapiermarktlinie nahezu unabhängig davon sind, ob man - wie üblich - einen reinen Aktienindex als Stellvertreter für das Marktportfolio wählt oder einen gemischten Aktien/Renten-Index.

    Google Scholar 

  51. Wichtig ist hierbei, dass Stambaugh das CAPM auch tatsächlich mit jedem Index separat testete und sich nicht damit begnügte, auf die hohe Korrelation der verschiedenen Stellvertreterkandidaten hinzuweisen. Hohe Korrelationen allein sind keineswegs hinreichend, um daraus die Irrelevanz der Indexwahl zu schlußfolgern. Hierzu bemerkt z.B. Roll ( 1977, S. 130): „This high correlation will make it seem that the exact composition is unimportant, whereas it can cause quite dierent inferences. “

    Google Scholar 

  52. Dies gilt zumindest im Hinblick auf die Messung abnormaler Renditen. Ein ernstes empirisches Problem bleibt jedoch, will man im Rahmen eines CAPM-Tests die Gültigkeit des Modells u.a. mit Hilfe der statistischen Signifikanz der geschätzten Marktrisikoprämie beurteilen. So zeigten z.B. RoIVRoss (1994), dass ein Index sehr nahe an der Effizienzlinie liegen kann, ohne dass sich deshalb aus einer Querschnittsregressionsanalyse ein statistisch signifikanter Zusammenhang zwischen mittlerer Rendite und Beta-Risiko ergeben muß. Umgekehrt gelang es RolVRoss jedoch Fälle zu konstruieren, in denen der Index sehr weit von der Effizienzlinie entfernt liegt, sich in der Querschnittsregressionsanalyse aber dennoch ein sehr starker statistischer Zusammenhang zwischen beiden Größen zeigt.

    Google Scholar 

  53. Eine ausführliche Darstellung dieser Methoden findet man in den Abschnitten 4.1.1 (ZRM) und 4.5.2 (QRM).

    Google Scholar 

  54. Wenn man das Beta als Regressor auffaßt, steht man vor dem Problem, dass diese Größe nicht unmittelbar beobachtbar ist. Sie muß in einem ersten Schritt geschätzt werden. Dies geschieht i.d.R. mit Hilfe des sog. Marktmodells (vgl. Sharpe, 1963 ): R, = a. + 13 .,• R,, + e„ (weiter nächste Seite).

    Google Scholar 

  55. Hierbei handelt es sich um ein einfaches Zeitreihenregressionsmodell, bei dem die Konstanz beider Parameter für den gesamten Schätzzeitraum unterstellt wird. Der Least-Squares-Schätzer far Beta dient dann in aller Regel als Input für das Querschnittsregressionsmodell in Gleichung 2–13. Die meisten empirischen Untersuchungen kommen zu dem Ergebnis, dass die empirische Wertpapiermarktlinie „zu flach“ verläuft, was bedeutet, dass die geschätzte Marktrisikoprämie signifikant geringer ausfällt als die im Durchschnitt realisierte. Eine Erklärung hierfür könnte in der „Mathematik” mittelwert/varianzefFzienter Portfolios liegen (siehe RoII/Ross, 1994). Zu weiteren möglichen Ursachen und den Auswirkungen auf die Messung von Anomalien siehe vor allem die Abschnitte 2.3.2 und 2. 3. 3.

    Google Scholar 

  56. Der Grund hierfür liegt in der Vernachlässigung der zeitlichen Variation der Risikoprämien. Auf sie ist es u.a. auch zurückzuführen, dass frühe CAPM-Tests (so z.B. Lintner, 19656, sowie Miller/Scholes, 1972) zu ungewöhnlich hohen t-Statistiken far die geschätzte Marktrisikoprämie kamen.

    Google Scholar 

  57. Zur Berechnung der Teststatistiken nach der Methode von Fama/Macbeth siehe Abschnitt 4.5.2.1.

    Google Scholar 

  58. In der Regel werden 5, 10 oder 20 Portfolios gebildet (zur Vorgehensweise siehe Abschnitt 3.2). Die Portfoliobildung kann dabei sowohl vor (auf Rohrenditebasis) als auch nach Durchführung der Regressionen (auf Residuairenditebasis) erfolgen. Schätzt man die Regressionsmodelle auf der Basis von Portfolios, so hat dies den Vorteil der größeren Schatzgenauigkeit (Minimierung von Fehler-in-den-Variablen-Verzerrungen). Führt man die Regressionen dagegen auf der Einzelwertebene durch (siehe z.B. Fama/French, 1992), so liegt der Vorteil hierbei in einer größeren statistischen Effizienz. Eine objektive Empfehlung für das eine oder andere Vorgehen kann wegen des bestehenden Zielkonflikts (Genauigkeit versus Effizienz) nicht gegeben werden.

    Google Scholar 

  59. Auf der Ad-hoc-Erweiterungsmethodik basierende Analysen findet man z.B. bei Banz (1981), Bhandari (1988), Fama/French (1992) und Davis (1994). Ihren Ursprung hat diese Vorgehensweise jedoch bereits in den frühen CAPM-Tests von Lintner (1965b), Miller/Scholes (1972) und erneut auch Fama/Macbeth (1973). So fügten z.B. Fama/Macbeth das quadrierte Beta-Risiko dem Basismodell hinzu, um das Linearitätspostulat des CAPM auf den Prüfstand zu stellen. Die ausschließliche Relevanz des systematischen Risikos bzw. umgekehrt die Irrelevanz anderer Risikogrößen wird in aller Regel durch Hinzufügen der Standardabweichung der Gesamtrendite oder der sich aus dem Marktmodell ergebenden Residualrendite getestet. Von den Ad-hocErweiterungen des CAPM-Ansatzes sind die theoretisch begründeten Modellerweiterungen zu unterscheiden. In ihnen behält zwar das Beta-Risiko, so wie man es aus dem herkömmlichen CAPM kennt, eine wichtige Rolle, verliert aber den Anspruch der Ausschließlichkeit bei der Erklärung von Renditeunterschieden. Beispiele hierfir sind das Nach-Steuer-CAPM von Brennan (1970) und Litzenberger/Ramaswamy (1979), das die Dividendenrendite als zusätzliche erklärende Variable enthält, sowie das Drei-Momenten-CAPM von Kraus/Litzenberger (1976), das bei der Erklärung erwarteter Renditen auch auf die sog. Ko-Schiefe einer Anlage zurückgreift. Zu den theoretisch begründeten Erweiterungen des CAPM-Erklärungsansatzes siehe Abschnitt 2. 3. 2.

    Google Scholar 

  60. Um der Nicht-Linearität des Zusammenhangs Rechnung zu tragen, wird in aller Regel der natürliche Logarithmus der Marktkapitalisierung als Size-Variable verwendet (siehe hierzu z.B. Banz, 1981).

    Google Scholar 

  61. Hieraus ergibt sich der folgende wesentliche Unterschied zum QRM: Beim ZRM wird unterstellt, dass die Steigung der empirischen WML der im Durchschnitt tatsächlich realisierten Risikoprämie (Marktrendite abzüglich risikoloser Zins) entspricht. Im QRM wird dagegen statistisch ermittelt, in welcher Höhe ein Investor dir das Eingehen von Beta-Risiken entlohnt wird. Schon allein aus diesem Grund können ZRM und QRM, trotz ihrer grundsätzlichen Kompatibilität, zu abweichenden Ergebnissen bei der Schätzung abnormaler Renditen kommen.

    Google Scholar 

  62. In Anlehnung an Michael Jensen, der dieses Verfahren erstmalig anwendete (siehe Jensen, 1968, 1969).

    Google Scholar 

  63. Anwendungen in der Anomalienliteratur fmdet man z.B. bei Basu (1977,1983), Banz (1981) und Kothari/ Shanken/Sloan (1995). Was den deutschen Aktienmarkt anbelangt, ist z.B. die Arbeit von Warfsmann (1993) zu nennen, in der CAPM-Tests u.a. auch auf Basis des ZRM durchgeführt werden.

    Google Scholar 

  64. Ermöglicht wird diese Form der Modellierung durch Zellners Seemingly-Unrelated-Regressions-Verfahren (SUR-Verfahren, siehe Zehner, 1962). Anwendungsbeispiele innerhalb der Anomalienliteratur findet man u.a. bei Brown/Kleidon/Marsh (1983), Jaffeé/Keim/Westerfield (1989) und Chan/Hamao/Lakonishok (1991). Eine ausführliche Beschreibung des Ansatzes wird in Abschnitt 4.1.1 geliefert.

    Google Scholar 

  65. Beide stellten abnormale Renditen in einer Größenordnung von rund 20% p.a. fest.

    Google Scholar 

  66. Siehe hierzu Abschnitt 2.3.3.

    Google Scholar 

  67. Hierbei handelt es sich zumindest um die erste „echte“ Anomalienuntersuchung. Tests auf Eigenvarianz-Effekte (Gesamtrisiko oder nur unsystematisches Risiko) findet man dagegen auch schon früher. Sie sind jedoch in erster Linie Bestandteil „normaler” CAPM-Tests. Die Ergebnisse dieser Tests sind gemischt. Während Winkelmann (1984) zu dem Ergebnis kam, dass die Eigenvarianz einen signifikant positiven Einfluß auf die Renditebildung von Portfolios hat und darin per saldo dem Beta-Risiko überlegen ist, konnten M6Iler (1988) und Frantzmann (1989) dies nicht bestätigen. Bei ihnen fiel der Erklärungsgehalt der Eigenvarianz sehr gering aus und oft besaß der den Einfluß messende Koeffizient sogar das „falsche“ Vorzeichen. Die stärksten Hinweise auf die Bewertungsrelevanz unsystematischer Risiken fand noch Beiker (1993).

    Google Scholar 

  68. Er stellte fest, dass die von ihm gemessenen Abweichungen von der empirischen Wertpapiermarktlinie in 11 von 16 Jahren positiv mit der Varianz der Marktmodellresiduen korrelieren. In immerhin sieben dieser Falle, ergab sich ein zum 1%-Niveau signifikantes Bestimmtheitsmaß.

    Google Scholar 

  69. Wie z.B. Stehle (1991), der den fir deutsche Verhältnisse außerordenlich langen Zeitraum von 1954 bis 1990 untersuchte.

    Google Scholar 

  70. Als wichtigste Faktoren wurden von Haugen/Baker identifiziert: Einmonats-Überschußrendite, DreimonatsÜberschußrendite, Zwölfmonats-Überschußrendite, Fünfjahres-Überschußrendite, B/M-Verhältnis, C/PVerhältnis, E/P-Verhältnis, Umsatz/Kurs-Verhältnis, FremdkapitalEigenkapital-Verhältnis, Varianz der Gesamtrendite, Varianz der Residualrendite, Eigenkapitalrendite.

    Google Scholar 

  71. Die Ergebnisse von Haugen/Baker sind offenbar nicht sample-spezifisch. So kamen z.B. auch Fama/French (1998) zu dem Ergebnis, dass die Vorhersagekraft von Value-Indikatoren (B/M, P/E, C/P und D/P) am deutschen Aktienmarkt im internationalen Kontext vergleichsweise gering zu sein scheint. Weitere internationale Vergleiche findet man bei Capaul/Rowley/Sharpe (1993), Paulus (1997) und Bauman/Conover/Miller (1998).

    Google Scholar 

  72. Man spricht daher auch allgemein von Behavioral Finance (siehe z.B. Fama, 1998, und Unser, 1999).

    Google Scholar 

  73. Z.B. interpretiert Gerke (1997) den Noise-Trader-Ansatz als Versuch einer Rettung des CAPM. Das NoiseTrader-Modell wird in Abschnitt 2.3.5 diskutiert.

    Google Scholar 

  74. Hierbei handelt es sich um ein Minimum-Varianz-Portfolio, dessen Rendite nicht mit der Marktrendite korreliert ist, so dass sein systematisches Risiko gleich null ist. Als risikolos kann das Portfolio deshalb allerdings nicht bezeichnet werden, da es eine Renditevarianz größer null aufweist. Die Annahme der risikolosen Verzinsung durch das SLM-Modell ist ohnehin sehr kritisch zu sehen. Selbst wenn man fier eine Periode unbegrenzt Geld zu einem festen Zins sowohl anlegen als auch aufnehmen könnte, wäre dieser Zins in einem Multiperiodenkontext (intertemporal) nicht völlig risikolos, da sich von Periode zu Periode ein neuer Gleichgewichtszins aus der veränderten Angebots/Nachfrage-Konstellation ergibt. Es kommt somit zu stochastischen Verschiebungen der Effizienzkurve, gegen die sich ein risikoaverser Anleger möglichst schützen möchte (siehe hierzu Abschnitt 5.1). Darüber hinaus kann der „risikolose“ Zins im CAPM schon allein deshalb nicht risikolos sein, da die Schuldner die aufgenommenen Geldbeträge annahmegemäß in das Marktportfolio investieren. Da das Marktportfolio selber jedoch risikobehaftet ist und die Kredite aus den Marktertragen heraus bedient werden müssen, kann der Fall eintreten, dass ein Schuldner bankrott ist und seinen Gläubiger nicht befriedigen kann. Der Gläubiger trägt somit in jedem Fall ein Ausfallrisiko. Dies könnte z.B. auch eine Erklärung fir die Existenz von Finanzintermediären sein.

    Google Scholar 

  75. Mit „zu flach“ meint man, dass die Steigung der empirischen Wertpapiermarktlinie deutlich geringer ausfällt, als der Durchschnittswert der tatsächlich realisierten Marktrisikoprämien.

    Google Scholar 

  76. So fanden z.B. Roll (1981a) und Reinganum (1982a) einen streng monotonen, negativen Zusammenhang zwischen der Size-Rangwertklasse von Aktien und ihrem Beta-Risiko.

    Google Scholar 

  77. Auch an den europäischen Aktienmärkten hat man eine Korrelation zwischen Firmengröße und Beta nachweisen können, allerdings meist mit umgekehrten Vorzeichen (siehe z.B. Levis, 1989, für Großbritannien).

    Google Scholar 

  78. Siehe hierzu z.B. Fama/Miller (1972).

    Google Scholar 

  79. Kraus/Litzenberger führten auch empirische Tests durch und stellten fest, dass die Ergebnisse im Wesentlichen mit den Modellaussagen übereinstimmen. Die geschätzten Koeffizienten für Beta und Gamma weisen die erwarteten Vorzeichen auf und sind statistisch signifikant von null verschieden.

    Google Scholar 

  80. Voraussetzung hierfür war, ähnlich wie in Deutschland, dass die Papiere länger als sechs Monate gehalten wurden. Nur dann kam man in den Genuß eines Freibetrages von 60% des Kursgewinns, so dass sich bei einem Spitzensteuersatz von 50% eine maximale Steuerbelastung der Kursgewinne in Höhe von 20% ergab. Einen Überblick Ober die Historie des US-Einkommenssteuersystems findet man bei Bay (1990).

    Google Scholar 

  81. Der Koeffizient 0 2 kann auch hier wieder als Marktpreis des systematischen Risikos interpretiert werden. Im Modell von Brennan, das von einer unbeschränkten proportionalen Besteuerung ausgeht, ist der Koeffizient a1 gleich null. Im Modell von Litzenberger/Ramaswamy, das Einkommens-und Vermögensrestriktionen berücksichtigt, ist a,dagegen von null verschieden.

    Google Scholar 

  82. Empirische Untersuchungen des Nach-Steuer-CAPM für den US-Aktienmarkt lieferten u.a. Brennan (1970), Black/ Scholes (1974), Litzenberger/Ramaswamy (1979), Gordon/Bradford (1980), Litzenberger/Ramaswamy (1982) und Miller/Scholes (1982). Sie kamen in der Mehrzahl zu dem Ergebnis, dass die Dividendenrendite einen signifikanten Einfluß auf die Bewertung von Aktien hat (siehe Ergebnisüberblick in Tabelle A-1 im Anhang). Die Ergebnisse hängen allerdings sehr stark davon ab, wie die Variable Dividendenrendite definiert wurde. Zum diesbezüglichen Methodenstreit in der Literatur fmdet man in Copeland/Weston (1988) einen guten Überblick.

    Google Scholar 

  83. Zu den steuerlichen Konsequenzen der Dividendenpolitik in Deutschland siehe z.B. Schindler (1977), König (1990), Bay (1990) sowie Swoboda (1991).

    Google Scholar 

  84. Ein Wertaufholungsgebot besteht gem. § 280 Abs. 1 HGB nur bis zur Höhe der Anschaffungskosten für die Wertpapiere.

    Google Scholar 

  85. Einen empirischen Test des Nach-Steuer-CAPM flr den deutschen Markt liefert König (1990). Die Ergebnisse sind weitestgehend konsistent mit den Vorhersagen des Modells. Ob hierbei allerdings tatsächlich Steuereffekte gemessen wurden, erscheint aus den oben genannten Grilnden zumindest fraglich.

    Google Scholar 

  86. Probiert man z.B. 100 potentielle Prognose-Variablen aus, so findet man bei einem Konfidenzniveau von 95% rein durch Zufall bereits fünf Variablen, die einen statistisch signifikanten Einfluß ausüben, ohne dass auch nur eine von ihnen ökonomisch signifikant wäre.

    Google Scholar 

  87. Hierfür spricht die in diesen Fällen gegebene Unabhängigkeit der Stichproben sowie die Robustheit eines Effektes gegenüber einer Variation der Ökonomischen und institutionellen Rahmenbedingungen, die mit der Analyse verschiedener nationaler Aktienmärkte verbunden ist. Man kann sich natürlich auch andere Out-ofSample-Tests vorstellen, die sich ebenfalls zur Beantwortung dieser Fragestellung eignen. So blieb z.B. Davis (1994) am US-Markt, griff dabei aber auf einen „unverbrauchten“ Untersuchungszeitraum zurück und erreicht auf diese Weise, dass seine Ergebnisse nicht durch data snooping verzerrt sind.

    Google Scholar 

  88. Siehe hierzu ausführlich Abschnitt 2.2.2.

    Google Scholar 

  89. Zur Frage des proxy bias im Rahmen dieser Arbeit durchgeführten empirischen Tests siehe Abschnitt 4.2.1.

    Google Scholar 

  90. Eine Abschätzung der Verzerrung lieferten z.B. Miller/Scholes (1972): Gut 64% des Betrages, uni den die tatsächlich realisierte Marktrisikoprämie durch die Steigung der empirischen WML unterschätzt wird, könnten demnach auf eine FidV-Verzerrung zurückzuführen sein ( Annahme: Das Beta wird mit einem additiven Meßfehler geschätzt).

    Google Scholar 

  91. Das Problem hierbei liegt in der Annahme der Verteilungsstationarität, die allerdings unter bestimmten Bedingungen durchaus gerechtfertigt werden kann (siehe hierzu Chan/Chen, 1988).

    Google Scholar 

  92. Insbesondere seien in diesem Zusammenhang der Size-und der Share-Price-Effekt genannt (siehe z.B. Stoll/Whaley, 1983).

    Google Scholar 

  93. Zur generellen Definition von Liquidität in der Marktmikrostruktur-Literatur siehe z.B. Bank (1998).

    Google Scholar 

  94. Zur Geld/Brief-Spanne als MaB fir die Liquidität eines Wertpapiers siehe z.B. Schwartz (1991).

    Google Scholar 

  95. Umgekehrt lassen sich aus der seriellen Korrelation von Renditen somit aber auch Rückschlüsse auf die Geld/ Brief-Spanne ziehen. In diesem Fall spricht man von impliziten Geld/Brief-Spannen. Siehe hierzu Roll (1984). 107 Z.B. reagieren market maker auf das zeitlich stark variierende Risiko des Insider-Handels, der im Bereich der Nebenwerte eine große Rolle spielt. Zum Zusammenhang zwischen Firmengröße und Geld/Brief-Spanne siehe z.B. Easley/Kiefer/O’Hara/Paperman (1996).

    Google Scholar 

  96. Ein weiterer Vorteil ist, dass es das mutmaßliche Investitionsverhalten eines Investors in vielen Fällen besser abzubilden vermag als das Rebalancing-Verfahren. Nimmt man z.B. die Gewinner/Verlierer-Strategie, so würde ein Investor nach der Allokation seiner Mittel in Erwartung einer langfristigen Renditeumkehr sein Ausgangsportfolio auch langfristig halten wollen. Die Rebalancing-Methode unterstellt jedoch ein monatliches Wiederherstellen gleicher Portfoliogewichte. Diese Annahme widerspricht aber nicht nur dem Strategiekonzept im Allgemeinen, sie würde darüber hinaus durch die monatlichen Umschichtungen auch noch enorme Transaktionskosten produzieren.

    Google Scholar 

  97. Siehe hierzu Bhardwaj/Brooks (1992).

    Google Scholar 

  98. Zum anderen existieren aber auch „künstliche“ Beschränkungen, die in der Mikrostruktur des Börsenmarktes begründet liegen. So gilt z.B. an der New York Stock Exchange (NYSE) die sog. tick rule. Demnach beträgt die kleinste zulässige Preisänderung 1/8 US-$. Im Falle niedrigpreisiger Aktien verhindert oder verzögert diese Regel mitunter Kursanpassungen, auch wenn diese in Relation zum Gesamtmarkt angezeigt wären. Bei einer 5 US-S-Aktie impliziert die tick rule z.B. eine relative Preisänderung von +/- 2,5%, was deutlich über der normalen Tagesvolatilität des Marktes liegt. So zeigte Kross (1985), dass die Preisveränderung an der NYSE in 2 von 3 Tagen (einfaches Schwankungsintervall) zwischen -0,72% und +0,79% liegt, was bedeuten würden, dass sich nur die Aktien mit einem Aktienkurs von mehr als 15 US-$ (0,125/0,0079) überhaupt bewegen (Annahme: Beta = 1). In den anderen Fällen würde der Kurs auf seinem alten Niveau verharren und somit u.U. auch eine Veränderung von Fundamentalinformationen nicht sogleich widerspiegeln.

    Google Scholar 

  99. Insbesondere trifft dies natürlich auch auf das Marktportfolio zu.

    Google Scholar 

  100. Das Marktmodell mißt nur die kontemporäre Kovariation zwischen erklärender und zu erklärender Variable. Will man das Beta-Risiko einer vergleichsweise illiquiden Aktie im Verhältnis zu einem Marktindex messen, so spiegeln die Kursanpassungen dieser Aktie Veränderungen des Informationsstandes im Mittel „später“ wider, als dies bei Kursanpassungen des Index der Fall ist. Bei der Beta-Berechnung werden jedoch nur die zeitgleichen Kursanpassungen berücksichtigt. M.a.W. bleiben die verspäteten, aber aufs gleiche Ereignis zurücktührbaren Kursanpassungen der illiquiden Aktie bei der Schätzung ihres Beta-Risikos unberücksichtigt.

    Google Scholar 

  101. Dies ergibt sich schon allein daraus, dass das Beta-Risiko des Marktes defmitionsgemäß gleich eins ist.

    Google Scholar 

  102. Zum Ausdruck kommt dies beispielsweise in den sog. Intervaling-Effekten, für die es zahlreiche empirische Belege gibt (vgl. Handa/Kothari/Wasley, 1989). Als Intervaling-Effekt bezeichnet man die Abhängigkeit geschätzter Risikokennziffern von der Frequentierung der Renditedaten. Dabei steigt das geschätzte Risiko tendenziell mit der Länge des Renditeintervalls an. Dass das Ausmaß des Anstiegs dabei in inverser Form von der Firmengröße abhängt, kann als Beleg für die Gültigkeit der Non-Synchronous-Trading-Hypothese gewertet werden. Intervaling-Effekte können freilich auch dann auftreten, wem die Annahme seriell unabhängiger Renditen erfüllt ist (siehe Levhari/Levy, 1977 ). Das Vorzeichen des Intervaling-Effekts hängt dann allerdings davon ab, ob das Beta-Risiko des Unternehmens größer oder kleiner als eins ist. Die empirischen Befunde sprechen daher eindeutig dafür, dass die Auswirkungen des nicht-synchronen Handels klar dominieren. Eine Analyse von Intervaling-Effekten am deutschen Aktienmarkt findet man z.B. bei Frantzmann (1990).

    Google Scholar 

  103. Inwiefern auch empirische Untersuchungen des deutschen Marktes unter ähnlichen Ex-post-Auswahlfehlern leiden, wurde bislang noch nicht systematisch untersucht.

    Google Scholar 

  104. Untersuchungszeitraum: 1974–1981. In einer aktuelleren Untersuchung kamen Chan/Jegadeesh/Lakonishok (1995) allerdings zu dem Ergebnis, dass die Auswirkungen des survivorship bias doch nicht so signifikant zu sein scheinen, wie man dies nach der Veröffentlichung der Ergebnisse von Banz/Breen zunächst befürchtet hatte.

    Google Scholar 

  105. Dies ist auch nicht weiter verwunderlich, da die Hauptgründe für ein delisting in einem Konkurs des Unternehmens oder in einer Übernahme desselben bestanden. Dass die Kurse von Übemahmezielen über einen längeren Zeitraum vor Bekanntgabe der Übernahme unter Druck stehen, zeigt eine ganze Reihe von empirischen Untersuchungen (siehe Jarrell/Brickley/Netter, 1988). Eine Erklärung hierfür ist z.B. die mangelhafte Managementqualität, die das Unternehmen erst zum Übernahmeziel machte. Siehe hierzu z.B. Jensen/Ruback (1983).

    Google Scholar 

  106. Zur Rolle der Transaktionskosten als Qualitätsdeterminante von Wertpapiermärkten siehe z.B. Bank (1998).

    Google Scholar 

  107. Siehe z.B. Blume/Stambaugh (1983) oder Roll (1983a).

    Google Scholar 

  108. Siehe z.B. Mayshar (1981).

    Google Scholar 

  109. Zur Window-Dressing-Hypothese siehe z.B. Haugen/Lakonishok (1987).

    Google Scholar 

  110. Dieser Zusammenhang läßt sich aus Theoriesicht sowohl mit dem Inventarkostenansatz (vgl. Demsetz, 1968, und Stoll, 1978) begründen als auch mit den Ansätzen von Copeland/Galai (1983) und Glosten/Milgrom (1985), die die Geld/Brief-Spanne mit der Informationsasymmetrie zwischen market maker und Investor erklären. Eng verwandt hiermit ist auch der Ansatz von Easley/Kiefer/O’Hara/Paperman (1996). Sie führten den empirischen Zusammenhang zwischen Handelsaktivität und Geld/Brief-Spanne auf Unterschiede in der Wahrscheinlichkeit informationsgetriebenen Handels zurück.

    Google Scholar 

  111. Sehr ähnliche Ergebnisse erhielten StolUWhaley im übrigen auch für Share-Price-Portfolios, so dass ihre Ergebnisse nicht nur für den Size-Effekt relevant sind.

    Google Scholar 

  112. Unter der erwarteten Brutto-Rendite ist die Rendite zu verstehen, die von den Marktteilnehmern fier die „risikolose“ Null-Beta-Anlage vor Transaktionskosten im Marktgleichgewicht gefordert wird.

    Google Scholar 

  113. Belegen läßt sich dies zumindest filr den deutschen Markt. Siehe hierzu Oertmann (1994).

    Google Scholar 

  114. Siehe hierzu Blume/Friend (1975), die eine empirische Analyse real existierender Portfolios durchfilhren, sowie Schröder-Wildberg (1998), der feststellt, dass die Teilnehmer an einer experimentellen Computerbörse die Möglichkeiten zur Diversifikation nur unzureichend nutzen. Weitere experimentelle Studien, die dies belegen, sind die von Weber/Camerer (1992) und Kroll/L,evy/Rapoport (1988).

    Google Scholar 

  115. M.a. W. werden die Effizienzmengen der einzelnen Marktsegmente eindeutig von der globalen Effizienzmenge dominiert.

    Google Scholar 

  116. Variierende Transaktionskostensätze, wie sie z.B. StolUWhaley (1983) in Abhängigkeit von der Firmengröße dokumentierten (siehe oben), lassen sich somit mit Mayshars Modell nicht erfassen.

    Google Scholar 

  117. Mayshar zeigte jedoch, dass das y in seinem Modell kleiner sein sollte als die Steigung der Wertpapiermarktlinie des CAPM. Auch hierin könnte also eine Erklärung fdr das Ergebnis liegen, dass die empirische Wertpapiermarktlinie zu flach verläuft.

    Google Scholar 

  118. Diese Annahme ist durchaus disputabel, da man z.B. davon ausgehen kann, dass sich Anleger mit geringer Risikotoleranz vor allem in Blue-Chip-Werten mit hoher Publizität engagieren. Es dürfte somit auch hierdurch zu Klientele-Effekten kommen.

    Google Scholar 

  119. Zu diesem Ergebnis gelangten z.B. Lintner (1965) und Miller/Scholes (1972) vor dem Hintergrund des CAPM sowie Dhrymes/Friend/Gultekin (1984) auf Basis der APT.

    Google Scholar 

  120. Es fanden sich keine größenklassenspezifischen Unterschiede im Zusammenhang zwischen der Durchschnittsrendite von Aktien und den beiden Risikogrößen Beta und Sigma.

    Google Scholar 

  121. Mayshars Ansatz ist zu unterscheiden von Lintners Version des CAPM (siehe Lintner, 1969 ), die ebenfalls von heterogenen Erwartungen ausgeht. Bei ihr wirkt sich dies jedoch nicht auf den Marktpreis aus, da alle Investoren in allen Titeln (also letztlich im Marktportfolio) investiert bleiben. Der Marktpreis spiegelt demnach den Durchschnitt der Erwartungen wider. Das Marktergebnis ist das gleiche wie beim traditionellen CAPM mit homogenen Erwartungen.

    Google Scholar 

  122. Diese Abhängigkeiten können nicht unmittelbar aus Gleichung 2–26 abgeleitet werden. Vielmehr kommen sie durch die innere Ableitung des Schattenpreises y, nach den jeweiligen Größen zustande. Details findet man bei Merton (1987), S. 490–496.

    Google Scholar 

  123. Für eine aktuellere Periode (1982–1995) und eine sehr breite Aktienstichprobe kamen Beard/Sias (1997) dagegen zu dem Ergebnis, dass kein Vemachlässigungs-Effekt am US-Aktienmarkt mehr vorzuliegen scheint. Man kann spekulieren, dass die Gründe hierfür die gleichen sind, die auch far den Rückgang bzw. die Umkehr des Size-Effekts in der jüngeren Vergangenheit gesorgt haben.

    Google Scholar 

  124. Das Informationsrisiko entspricht dem Risiko zweiter Ordnung, wie man es aus der baysianischen Statistik kennt.

    Google Scholar 

  125. Die Auswirkungen titelspezifischer Informationsrisiken auf das Marktgleichgewicht wurden sowohl im Kontext des CAPM (siehe Barry/Brown, 1985) als auch im Kontext der APT (siehe Handa/Linn, 1993) untersucht.

    Google Scholar 

  126. Siehe hierzu z.B. Clarkson/Thompson (1990).

    Google Scholar 

  127. Siehe z.B. Zeghal (1984), Atiase (1985) sowie Chari/Jagganathan/Ofer (1988), die die Kursreaktionen auf die regelmäßige Bekanntgabe der Quartalsergebnisse von US-Unternehmen untersuchten, oder auch Barber/Loeffler (1993) und Liang (1999), die die Preiswirkung der Veröffentlichung von Sekundärinformationen (Anlageempfehlungen) in der Tagespresse analysierten. Letzteres findet man mit Blick auf den deutschen Aktienmarkt auch bei Pieper/Schiereck/Weber (1993) sowie Röckemann (1994). Auch sie bestätigten im Wesentlichen die Firmengrößenabhängigkeit der Kursreaktionen. Dem ist so, weil das Schätzrisiko multiplikativ verknüpft ist mit dem Beta-Risiko, wie man es aus dem Marktmodell kennt, während bei den Marktsegmentierungsmodellen ein additiver Faktor hinzu kommt (siehe Schattenpreisfaktor im Merton-Modell, Gleichung 2–26 ).

    Google Scholar 

  128. Für den deutschen Markt kann Oertmann (1994) einen Small-Firm-Effekt sogar nur für down markets nachweisen.

    Google Scholar 

  129. Im CAPM selbst sind Preisdrücke unbekannt (Kurse kommen umsatzlos zustande). Einen Hinweis auf die Relevanz von Preisdruckeffekten liefern Untersuchungen, die die Reaktionen des Marktes auf die Veröffentlichung sog. Sekundarinformationen (zumeist Anlageempfehlungen) in der Presse analysieren. So kam z.B. Liang (1999) zu dem Ergebnis, dass die signifikant positiven Kursreaktionen auf die Veröffentlichung von Aktienempfehlungen im Wall Street Journal innerhalb von 15 Tagen wieder vollständig „revidiert“ wurden. 142 Liang wertete dies als Hinweis auf die Präsenz uninformierter noise trader, die während des Veröffentlichungszeitraums für Preisdruck in den empfohlenen Titeln sorgen. Empirische Untersuchungen für den deutschen Aktienmarkt findet man bei Pieper/Schiereck/Weber (1993) und Röckemann (1994).

    Google Scholar 

  130. Gleichzeitig zeigte sich, dass die „Gewinner“ des Jahres abnormal niedrige Umsätze aufweisen. Dieses Ergebnis läßt sich natürlich nicht mit tax loss selling begründen. Eine mögliche Erklärung hierfür liegt jedoch ebenfalls im steuerlichen Bereich. Der aus steuerlicher Sicht optimale Termin, um Gewinner zu verkaufen, liegt nämlich zu Beginn eines Steuerjahres. Zu diesem Zeitpunkt ist der Barwert der aufgrund der Kursgewinne zu erwartenden zukünftigen Steuerzahlungen minimal. Man spricht hier auch von einem Tax-Lock-In-(TLI-) Effekt. Er fuhrt dazu, dass man die zum Jahresende hin aus einem Gewinnmitnahmemotiv heraus getroffenen Verkaufsentscheidungen tendenziell erst zu Beginn des nächsten Jahres umsetzt und damit den Barwert der Steuerschuld minimiert. Dieser Attentismus fuhrt dazu, dass die Umsätze von Gewinner-Aktien im Dezember so auffällig gering sind, wie dies von Dyl bemerkt wurde. Gleichzeitig sollte natürlich auch gelten, dass die Handelsvolumina der TU-Kandidaten gerade im Januar besonders hoch sind. Wie die Ergebnisse von Lakonishok/Smidt (1986) zeigen, lädt sich diese These, zumindest was den amerikanischen Aktienmarkt anbelangt, auch empirisch bestätigen.

    Google Scholar 

  131. Dies wurde auch von Pontiff(1995) bestätigt. 145Fairerweise sollte man an dieser Stelle jedoch erwähnen, dass Gultekin/Gultekin für Australien keinen Juli-Effekt feststellen konnten, obwohl das Steuerjahr mit dem Monat Juni endet.

    Google Scholar 

  132. Frantzmann (1989) kam für den deutschen Markt allerdings zu einer Ablehnung der TLS-Hypothese.

    Google Scholar 

  133. Außerdem dürften die Auslandseinflüsse zu diesem Zeitpunkt eher von untergeordneter Bedeutung gewesen sein, so dass man tatsächlich von einer nahezu idealen ceteris paribus Umgebung ausgehen kann.

    Google Scholar 

  134. Seine Ergebnisse wurden jedoch von Jones/Pearce/Wilson (1987) aus methodischen Gründen in Frage gestellt. Sie kamen zu dem Ergebnis, dass für den US-Aktienmarkt bis zurück in das Jahr 1871 ein signifikanter Januar-Effekt nachweisbar ist.

    Google Scholar 

  135. Eine mögliche Erklärung, warum dem offenbar nicht so ist, liegt in den hohen Transaktionskosten, die mit einer solchen Handelsstrategie verbunden wären. Insbesondere die Geld/Brief-Spanne, die bei einem round trip in vollem Umfang zu zahlen ist, schlägt hierbei zu Buche. Bei den TLS-Kandidaten handelt es sich nämlich bevorzugt um Aktien mit vergleichsweise niedrigen Kursen (siehe z.B. Conrad/Kaul, 1993), so dass der minimale absolute spread von 1/8 US-$ angesichts der kurzen Laufzeit des Engagements eine durchaus substanzielle Verminderung des potentiell erzielbaren Arbitragegewinns darstellt.

    Google Scholar 

  136. Die Kritik von Constantinides und Chan läßt sich ebenfalls durch den Hinweis auf die Existenz von Transaktionskosten relativieren. Wenn man nämlich bedenkt, dass sich der Barwert der durch tax loss selling verursachten Transaktionskosten minimieren läßt, falls die zu tätigenden Verkäufe bis zum Ende des Jahres aufgeschoben werden, so erscheint das im Rahmen der TLS-Hypothese unterstellte Verhalten doch nicht so suboptimal zu sein. Vielmehr ergibt sich aus dieser Überlegung die Erkenntnis, dass ein optimaler TLS-Zeitpunkt aus der Theorie nicht eindeutig ableitbar ist.

    Google Scholar 

  137. Siehe Von Neumann/Morgenstern (1947).

    Google Scholar 

  138. Abgeschwächt spricht Bienert (1996) von „vemiinftigem“ Verhalten.

    Google Scholar 

  139. Für die Gültigkeit dieser Annahme sprechen z.B. die Ergebnisse von Smith (1989). Er stellte fest, dass die Marktpreise in experimentellen Märkten bei stationärer Wiederholung gegen die Gleichgewichtspreise bei Unterstellung vollständig rationaler Erwartungen konvergieren.

    Google Scholar 

  140. Siehe hierzu Abschnitt 2.1.

    Google Scholar 

  141. Das CAPM selbst macht keine Annahmen über das Verhalten erwarteter Renditen im Zeitablauf, so dass man im Rahmen von CAPM-Tests dazu gezwungen ist, eine zusätzliche Annahme über den renditegenerierenden Prozeß zu machen.

    Google Scholar 

  142. Langfristiger Bereich heißt hier drei bis fünf Jahre. Abzulesen z.B. an den empirischen Ergebnissen von DeBondtlthaler (1985,1987).

    Google Scholar 

  143. Siehe hierzu ausführlich Abschnitt 5.1.

    Google Scholar 

  144. Den Prognosegehalt von Dividendenrenditen wiesen z.B. Rozeff (1984) sowie Fama/French (1988b) nach. In ähnlicher Weise eignen sich auch Kurs/Gewinn-Verhältnisse zu Prognosezwecken (vgl. Campbell/Shiller, 1988). Genau wie bei den univariaten Tests stellte sich hierbei heraus, dass der Anteil der erklärten Varianz mit der Länge des betrachteten Renditeintervalls zunimmt. Während z.B. Fama/French der Dividendenrendite in bezug auf monatliche und vierteljährliche Renditen nur eine sehr geringe, ökonomisch kaum als signifikant zu bezeichnende Prognosegüte bescheinigen konnten, steigt der Anteil der erklärten Varianz beim Übergang auf zwei-bis vierjährige Renditeintervalle auf rund 25% an. Keim/Stambaugh (1986) gelang es sogar, Marktrisikoprämien mit Hilfe des Marktwertes eines Kleinfirmenportfolios zu erklären. Dieser Vorgehensweise liegt der Gedanke zugrunde, dass die Marktwerte kleiner Firmen besonders sensitiv auf Schocks in der erwarteten Marktrendite reagieren und daher ein besonders günstiges Signal-to-Noise-Verhältnis aufweisen. Dies kommt auch in den Ergebnissen von Conrad/Kaul (1988) zum Ausdruck. Sie stellten fest, dass sich die Varianz der realisierten Renditen bei kleinen Firmen besonders gut (zu 26%) durch die Varianz der erwarteten Renditen erklären läßt. Dieser Anteil fällt monoton mit der Firmengröße und erreicht bei ihrem Großfinnen-portfolio einen Wert von nur noch 1%. Die absolute Varianz der Erwartungswerte ist beim Kleinfirmenportfolio 90-mal so groß wie beim Großfirmenportfolio.

    Google Scholar 

  145. Auch die Beobachtung integrierter Märkte „beweist` nicht eindeutig die Gültigkeit der Rationalitätshypothese. So läßt sich z.B. durchaus plausibel argumentieren, dass die Fehlbewertungen an verschiedenen Märkten, etwa aufgrund von allgemeinen Investor-Stimmungen (vgl. Lee/Shleifer/Thaler, 1991), miteinander korreliert sind und dass auch die Stimmungslage selbst von den Ökonomischen Rahmenbedingungen abhängt.

    Google Scholar 

  146. Siehe hierzu ausführlich Abschnitt 5.1.

    Google Scholar 

  147. Eine ausführliche Darstellung der empirischen Ergebnisse in der Literatur findet man in Abschnitt 5.2.

    Google Scholar 

  148. Zur Vorgehensweise siehe die ausfilhrliche Darstellung in Abschnitt 6.2.

    Google Scholar 

  149. In ihr beobachtet man das Verhalten von Probanden in künstlich erzeugten Entscheidungssituationen. Der Vorteil hierbei ist, dass man die Umgebung, in der diese Entscheidungen stattfinden, kontrollieren kann. So kann z.B. gesteuert werden, welche Informationen den Probanden zu welchem Zeitpunkt zur Verfügung stehen. Man kann daher nicht nur beobachten, welche Entscheidungen die Versuchspersonen tatsächlich treffen, sondern kennt auch genau die Bedingungen, unter denen sie dies tun. Daraus ergibt sich ein großer Vorteil gegenüber der empirischen Forschung, die darauf angewiesen ist, aus Marktdaten Rückschlüsse auf das Entscheidungsverhalten der Marktteilnehmer zu ziehen. Das größte Problem der experimentellen Forschung besteht dagegen in der Sicherstellung der externen Validität der Experimentergebnisse. Um eine der Realität entsprechende Selbstverpflichtung der Marktteilnehmer herzustellen, greift man auf monetäre Anreize zurück und gestaltet die Experimente so, dass eine möglichst hohe intrinsische Motivation gegeben ist (siehe hierzu z.B. Bienert, 1996). Einen Überblick über die Methoden und die Ergebnisse dieses Forschungszweiges findet man z.B. bei Schröder-Wildberg (1998) und Unser (1999).

    Google Scholar 

  150. Einen Überblick über die in der experimentellen Forschung entdeckten Verhaltensanomalien findet man z.B. bei Oehler (1992).

    Google Scholar 

  151. GerkeBienert/Sun (1992) und Gerke/Bienert (1993) gelang es, diesen Effekt auch an einem experimentellen Aktienmarkt nachzuweisen und somit die Relevanz der individuellen Verhaltensanomalie für das Marktergebnis zu unterstreichen.

    Google Scholar 

  152. Der bloße Hinweis, dass sich die Kurse aufgrund von Stimmungen, Launen oder fragwürdigen Modellen sehr weit von ihren Fundamentalwerten entfernen können, reicht hierfür bei weitem nicht aus.

    Google Scholar 

  153. Gestützt wird dies z.B. durch die Ergebnisse von Andreassen/Krauss (1988). Vor dem Hintergrund simulierter Aktienkursverläufe, die von ihnen selbst nicht beeinflußt wurden, verhielten sich die Teilnehmer eines von ihnen durchgeführten Marktexperiments nur dann preisstabilisierend, wenn sich die Kurse in einer Seitwärtsbewegung befanden. D.h., dass sie in diesem Fall kauften, wenn die Kurse niedrig sind und verkauften wenn die Kurse hoch sind. Genau umgekehrt verhielten sie sich allerdings, wem sich die Kurse in simulierten Aufwärtsbzw. Abwärtstrendphasen befanden. In diesen Fallen gingen die Probanden zu trendfolgendem Verhalten über, sprich sie extrapolierten realisierte Preisveränderungen in die Zukunft. Dass das extrapolative Verhalten, das man unter simulierten Marktbedingungen beobachten kann, keineswegs auf die Besonderheit der experimentellen Situation oder die Unerfahrenheit bzw. Unprofessionalität der Probanden zurückgeführt werden kann, zeigen die Ergebnisse einer Expertenbefragung, die von Franket/Froot (1988) durchgeführt wurde. Gegenstand der Befragung war die Entwicklung des US-$-Wechselkurses Mitte der 80er Jahre. In diesem Zeitraum stieg der US-$ gegenüber anderen wichtigen Reservewährungen, wie der Deutschen Mark, obwohl sich das Zinsdifferential nicht noch stärker ausweitete und das Handelsdefizit der USA stetig weiter zunahm. Wenig überraschend fiel daher auch das Urteil der meisten Experten aus, die dem US-$ eine fundamentale Überbewertung bescheinigten und dementsprechend auch mit seiner Abwertung im Laufe des nächsten Jahres rechneten. Zur gleichen Zeit prognostizierten die gleichen Experten aber auch die Fortsetzung des Aufwärtstrends mit Sicht auf den nächsten Monat, so dass sie überwiegend auch bei ihren Kaufempfehlungen für den US-$ blieben. Eine derartige „Schizophrenie“ der Expertenmeinungen stellt im täglichen Börsengeschehen keine Ausnahme sondern eher die Regel dar. Zu den psychologischen Hintergründen einer trendfolgenden Erwartungsbildung (Ähnlichkeitsprinzip, Vollständigkeitsprinzip, Figur-Grund-Prinzip) siehe Schröder-Wildberg (1998).

    Google Scholar 

  154. Man spricht daher auch von einer sich selbst erfüllenden Prophezeiung.

    Google Scholar 

  155. Auslöser für das Platzen sog. Kursblasen (bubbles) können z.B. exogene Informationsschocks (z.B. die unerwartete Erhöhung der Leitzinsen durch eine Notenbank) sein, die das Vertrauen in die Fortsetzung der Kursentwicklung nachhaltig untergraben.

    Google Scholar 

  156. Siehe hierzu ausführlich Abschnitt 6.2.

    Google Scholar 

  157. Siehe Black (1986).

    Google Scholar 

  158. An dieser Stelle sei auch auf die in Wissenschaftskreisen äußerst umstrittenen Volatilitätstests von Shiller (1981) und LeRoy/Porter (1981) hingewiesen.

    Google Scholar 

  159. Das bedeutet allerdings nicht, dass Überreaktionen und noise trading nicht kompatibel miteinander sind. Auch Noise-Trader-Märkte können sich durch übertriebene Reaktionen der Marktteilnehmer auszeichnen. Der Unterschied zum überreagierenden Markt im Sinne von DeBondt/Thaler (1985) besteht allerdings darin, dass sich die Richtung der Überreaktion a priori nicht prognostizieren läßt. So können noise trader auf die gleiche Nachricht einmal zu optimistisch reagieren und das nächste Mal zu pessimistisch. Hinzu kommt, dass die Definition des noise trading nicht nur einen spezifischen kognitiven Fehler (etwa die sich selbst korrigierende Überreaktion) zuläßt, sondern die ganze Familie kognitiver Fehler mit einschließt (vgl. Shefrin/Statman, 1994).

    Google Scholar 

  160. Dass die Diskussion nicht immer sachlich blieb, sondern eher durch die ideologische Zugehörigkeit der Autoren zu der einen oder der anderen Schule gekennzeichnet war, zeigt auch ein Zitat aus der Erwiderung von Chopra/Lee/Shleifer/Tahler (1993a): „We should consider investor sentiment and other new hypotheses, and not go back to the ‘stone age’ of finance. “

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 2000 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Garz, H. (2000). Aktienmarkt-Anomalien im wissenschaftlichen Diskurs. In: Prognostizierbarkeit von Aktienrenditen. Gabler Edition Wissenschaft. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08180-7_2

Download citation

  • DOI: https://doi.org/10.1007/978-3-663-08180-7_2

  • Publisher Name: Deutscher Universitätsverlag, Wiesbaden

  • Print ISBN: 978-3-8244-7113-3

  • Online ISBN: 978-3-663-08180-7

  • eBook Packages: Springer Book Archive

Publish with us

Policies and ethics