Advertisement

Prognoseanwendungen

  • Karsten Füser
Chapter
  • 87 Downloads

Zusammenfassung

„Ein Grund für den Enthusiasmus zur Verwendung von NN bei Voraussagen ist deren Fähigkeit, sehr komplexe inhärente Gleichungen eines Systems zu modellieren. So forderte zum Beispiel ein Finanzberater einen skeptischen Kollegen heraus und bat ihn um irgendeine mathematische Gleichung. Der Kollege wählte: a2 + b2 + c = r. Ein kleines NN wurde gebaut und mit verschiedenen Werten für a, b, c und r trainiert. Nach der Trainingsphase konnten dem Netzwerk beliebige Werte a, b und c eingegeben werden und das NN erzeugte jedesmal das richtige Resultat für r.“1 Diese Fähigkeit, Gleichungen von schlecht, unscharf oder gar nicht zu definierenden Prozessen zu simulieren, macht Neuronale Netzwerke für eine große Anzahl von Voraussage-Experten zu einem sehr attraktiven Hilfsmittel.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Referenzen

  1. 1.
    Alvager, T./Humpert, B./Weers, D. (1991), Seite 22.Google Scholar
  2. 2.
    Dieselbe Auffassung vertritt Chatfield, C. (1993) auf der Seite 2. Er sagt: „This could be seen as an advantage or a disadvantage!“Google Scholar
  3. 3.
    Vgl. Riess, M. (1994), Seite 184.Google Scholar
  4. 4.
    Vgl. Baun, S. (1994), Seite 134.Google Scholar
  5. 5.
    Malliaris, M. E. (1994), Seite 87.Google Scholar
  6. 6.
    Baun, S. (1994), Seite 137.Google Scholar
  7. 7.
    Vgl. Gorr, W.L. (1994), Seite 3.Google Scholar
  8. 8.
    Baun, S. (1994), Seite 142.Google Scholar
  9. 9.
    Vgl. Baun, S. (1994), Seite 142.Google Scholar
  10. 10.
    Vgl. Hillmer, M./Graf, J. (1994), Seite 170. Vgl. ebenso Baun, S. (1994), Seite 142 ff.Google Scholar
  11. 11.
    Storm, A./Baun, S. (1992), Seite 536. In diesem Kontext bemerkt H.-G. Zimmermann: „Der Erfolg der Chartanalyse ist durch die begrenzte Inputinformation, der der Fundamentalanalyse durch die Komplexität des Marktes und durch die Vernachlässigung der psychologischen Entscheidungsvorgänge limitiert.“ Zimmermann, H. G. (1992), Seite 28.Google Scholar
  12. 12.
    Vgl. Storm, A./Baun, S. (1992), Seite 537.Google Scholar
  13. 13.
    Storm, A./Baun, S. (1992), Seite 539.Google Scholar
  14. 14.
    Baun, S. (1994), Seite 145.Google Scholar
  15. 15.
    Vgl. Fridson, M. S. (1994), Seiten 77.Google Scholar
  16. 16.
    Graf, J. (1991), Seite 496.Google Scholar
  17. 17.
    Brause, R. (1991), Seite 229.Google Scholar
  18. 18.
    „Die Aufgabenstellung wird deshalb gerne gewählt, weil sich der Kursverlauf von Wertpapieren üblicherweise im kurzfristigen Bereich schlecht glätten läßt und damit konventionelle Prognosemethoden eine unzureichende Performance zeigen.“ Schumann, M. (1991), Seite 32.Google Scholar
  19. 19.
    Vgl. Wittkemper, H.-G. (1994), Seite 32.Google Scholar
  20. 20.
    Vgl. White, H. (1988), Seiten 451–458. Vgl. auch Rehkugler, H./Poddig, T. (1991), Seite 371. Dort wird der Ansatz von H. Whitehite kurz kommentiert.Google Scholar
  21. 21.
    Vgl. Schöneburg, E. (1990), Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seiten 151 ff.Google Scholar
  22. 22.
    Vgl. Rehkugler, H./Polddig, T. (1990A). Für alle in dieser Abhandlung vorgestellten Ansätze zur Aktienkursprognose sei hier schon übertragbar erwähnt: „Eine hohe Trefferrate impliziert nicht unweigerlich eine hohe Rendite.“ Vgl. Baun, S. (1994), Seite 170.Google Scholar
  23. 23.
    Neben den detaillierter diskutierten Vorgehensweisen existieren weitere Ansätze, die hier jedoch aufgrund ihrer Spezifika nicht eingehend gewürdigt werden können. Vgl. z.B. Windsor, C. G./Harker, A. H. (1990), Seiten 357–360, deren Untersuchungen sich auf den United Kingdom Ordinary Share Index beziehen. Tanigawa, T./Kamijo, K. (1992), Seiten 465–471, stellen ein „Stock Price Pattern Matching System“ vor, welches anhand von Übereinstimmungen zwischen dem aktuell beobachteten und den gelernten historischen Formationen (z.B. erlernter Kopf-Schulter- oder Untertassen-Formationen) eine Prognose erstellt. Baba, N./Kozaki, M. (1992), Seite 371–377, stellen einen hybriden Ansatz zur Aktienkusprognose, bestehend aus Backpropagation-Verfahren gekoppelt mit einer „Random optimization“-Methode, bezogen auf den japanischen Markt, vor.Google Scholar
  24. 24.
    Vgl. White, H. (1988), Seiten 451–458.Google Scholar
  25. 25.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seiten 1–6. Eine kurze Beschreibung des Ansatzes von Kimoto et al. findet sich in Schumann, M. (1991), Seite 32. M. Yoda berichtet im Jahre 1994 erneut über diesen Ansatz. Vgl. Yoda, M. (1994), Seiten 66–79.Google Scholar
  26. 26.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 6.Google Scholar
  27. 27.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 1.Google Scholar
  28. 28.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 1. M. Yoda konkretisiert in seinem bereits zitierten Aufsatz aus dem Jahre 1994 die in den Ansatz einfließenden Faktoren: 1) A vector curve consisting of regression coefficients over time of changes in the weekly Dow Jones Index (DJI). 2) A moving average of the interest rate of the long-term Japanese Government Bond (JGB). 3) A vector curve for the JGB. 4) A technical indicator called the IT radar, developed by Nikko. Vgl. Yoda, M. (1994), Seiten 67 ff. Dort wird auch die Frage der Vorverarbeitung dieser Zeitreihen kurz angerissen.Google Scholar
  29. 29.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 2.Google Scholar
  30. 30.
    Vgl. hierzu Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 2. Die Beschreibung a.a.O. enthält eine detaillierte Fassung dieser sicherlich sehr interessanten Variante des Error-Backpropagation-Algorithmus. Vgl. auch Yoda, M. (1994), Seite 71. „Supplementary learning, based on the error back propagation, automatically schedules pattern presentation and changes learning constants.“Google Scholar
  31. 31.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 3.Google Scholar
  32. 32.
    „The method used was simple: if the value predicted by the system was higher than a certain level, a portfolio of stocks interlocked with the Topix index was purchased; if the predicted value was lower than a certain level, the portfolio was sold.“ Yoda, M. (1994), Seite 74.Google Scholar
  33. 33.
    Vgl. Kimoto, T./Asakawa, K./Yoda, M./Takeoka, M. (1990), Seite 4.Google Scholar
  34. 34.
    Vgl. hierzu auch die Kommentare von Alvager, T./Humpert, B./Weers, D. (1991), Seiten 25–27.Google Scholar
  35. 35.
    Vgl. Yoda, M. (1994), Seite 66. Anhand dieser Aussage ist zu erkennen, daß mit einer Wochenprognose gearbeitet wurde.Google Scholar
  36. 36.
    Vgl. Alvager, T./Humpert, B./Weers, D. (1991), Seite 26.Google Scholar
  37. 37.
    Vgl. insb. Rehkugler, H./Poddig, T. (1990A), Rehkugler, H./Poddig, T. (1991)Google Scholar
  38. 38.
    Vgl. Rehkugler, H./Poddig, T. (1990A), Seite 1.Google Scholar
  39. 39.
    In Riess, M. (1994), Seite 189, findet sich eine interessante Diskussion von Gütekriterien, mit denen heute Neuronale Netze beurteilt werden.Google Scholar
  40. 40.
    An dieser Stelle ist eine generelle Anmerkung zum Multilayer-Perzeptron angebracht, die sicherlich auch auf andere Netzwerkmodelle zu übertragen ist. Rehkugler/Poddig bemerken: „Der zur Zeit in Wissenschaft und Praxis am meisten eingesetzte Netzwerktyp ist das ‚Multilayer‘-Perzeptron (MP), meist ‚Backpropagation‘-Netzwerk genannt. Die letztere Bezeichnung ist übrigens irreführend, da ‚Backpropagation‘, genau genommen, nur ein Lernverfahren für Multilayer-Perzeptrons bezeichnet.“ Rehkugler, H./Poddig, T. (1992B), Seite 414. Bei der Beschreibung der Ansätze Dritter wurde aufgrund der möglichen Interpretationsweisen stets die Wortwahl der zitierten Autoren verwendet. Dennoch ergibt sich hieraus ein Spielraum für alternative Interpretationen aufgrund nicht einheitlicher bzw. standardisierter Beschreibungssprachen für Neuronale Netze. „Heißt es also ‚Mit einem KNN wurde diese und jene Leistung erzielt‘, müßte sofort die Gegenfrage lauten: ‚Mit was für einem Typ, in welcher Variante und mit welcher Architektur.‘“ A.a.O., Seite 414.Google Scholar
  41. 41.
    Vgl. hierzu Rehkugler, H./Poddig, T. (1991), Seiten 368 und 369 sowie die dort angegebenen Quellen.Google Scholar
  42. 42.
    Vgl. hierzu die Ausführungen in Rehkugler, H./Poddig, T. (1990A) zur Systematik.Google Scholar
  43. 43.
    Rehkugler/Poddig verwendeten diesen, da er um Dividendenzahlungen und Bezugsrechte bereinigt aufgrund der Vielzahl einbezogener Unternehmen repräsentativer als andere und weiter in die Vergangenheit zurückgehend erhältlich war.Google Scholar
  44. 44.
    Klasse 1: Indexveränderung > 10 Prozent Klasse 2: 0 Prozent < Indexveränderung ≤ 10 Prozent Klasse 3: -10 Prozent < Indexveränderung ≤ 0 Prozent Klasse 4: Indexveränderung < -10 ProzentGoogle Scholar
  45. 45.
    Vgl. Rehkugler, H./Poddig, T. (1991), Seite 372.Google Scholar
  46. 46.
    Rehkugler, H./Poddig, T. (1991), Seite 369.Google Scholar
  47. 47.
    Vgl. Rehkugler, H./Poddig, T. (1992A), Seite 54.Google Scholar
  48. 48.
    Rehkugler, H./Poddig, T. (1991), Seite 373.Google Scholar
  49. 49.
    Poddig, T./Rehkugler, H./Jandura, D. (1994), Seiten 337–425. Vgl. hierzu auch Poddig, T./Rehkugler, H. (1995).Google Scholar
  50. 50.
    Vgl. Schöneburg, E./Gantert, M./Reiner, M. (1989), Seiten 121–124. Das gleiche Thema behandelt E. Schöneburg 1990 erneut. Vgl. Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seiten 151 ff.Google Scholar
  51. 51.
    Vgl. Schöneburg, E./Gantert, M./Reiner, M. (1989), Seite 121.Google Scholar
  52. 52.
    Vgl. Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seite 153.Google Scholar
  53. 53.
    Vgl. Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seiten 153–156.Google Scholar
  54. 54.
    Vgl. Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seite 163.Google Scholar
  55. 55.
    Schöneburg, E./Hansen, N./Gawelczyk, A. (1990), Seite 176.Google Scholar
  56. 56.
    Rehkugler, H./Poddig, T. (1991), Seite 371.Google Scholar
  57. 57.
    Vgl. Rehkugler, H./Poddig, T. (1991), Seite 372.Google Scholar
  58. 58.
    Vgl. Schöneburg, E. (1993), Seite 50. A.a.O. ist darüber hinaus zu lesen, daß in allen Projekten die Resultate herkömmlicher Prognosetechniken deutlich übertroffen werden konnten (teilweise um mehr als 20 Prozent!). Unter dem Namen NeuroChart wird ein Neuro-Compiler von E. SchöNeburg heute vom Verlag Dr. Th. Gabler GmbH, Wiesbaden, angeboten.Google Scholar
  59. 59.
    Schöneburg, E. (1993), Seite 51.Google Scholar
  60. 60.
    Vgl. o.V. (1992A), Seite 100, Baun, S./Storm, A. (1992), Seiten 8–11. Gegenstand der Untersuchung waren eine längerfristige Zinsprognose und eine kurzfristige Devisenkursprognose. „Alle am Projekt Beteiligten stuften die Ergebnisse als „sehr positiv“ ein. Der Nachweis, daß Neuronale Netze durchaus mit herkömmlichen Prognosemethoden konkurrieren können, falls sie diese sogar nicht übertreffen, motivierte SNI dahingehend, die aus der Projektarbeit entstandene „Software Entwicklungsumgebung für Neuronale Netze“ — SENN++ — zu einem marktreifen Produkt weiterzuentwickeln.“ Baun, S./Storm, A. (1992), Seite 10.Google Scholar
  61. 61.
    Chaouli, M./Froitzheim, U. J. (1992), Seite 139.Google Scholar
  62. 62.
    Abkürzung für: Software Entwicklungsumgebung für Neuronale Netze oder Software Enviroment for Neural Networks.Google Scholar
  63. 63.
    „Neuronale Netze eröffnen zwar neue Perspektiven für Prognosen komplexer wirtschaftlicher Entwicklungen, aber eine nennenswert höhere Wahrscheinlichkeit als mit bisherigen Prognoseverfahren sei noch nicht erreicht worden. Darauf hat dieser Tage Dr. Hans Georg Zimmermann von der zentralen Forschungsabteilung der Siemens AG, München, anläßlich eines Pressegesprächs des Verbandes Deutscher Elektrotechniker (VDE) und der Technisch-Literarischen Gesellschaft (Teli) in Frankfurt hingewiesen.“ Nöldechen, A. (1993), Seite 8.Google Scholar
  64. 64.
    Vgl. Zell, A. (1994), Seite 355, o.V. (1992A), Seite 100.Google Scholar
  65. 65.
    Vgl. Baun, S. (1994), Seiten 131–207. Vgl. zur Modellentwicklung ergänzend Baun, S./Storm, A. (1992), Seiten 8–11. Dort wird der Zwischenstand des Ende 1991 abgeschlossenen Innovationsprojektes, an dem sich wie bereits erwähnt, Banken und Versicherungen beteiligten, skizziert.Google Scholar
  66. 66.
    Vgl. Baun, S. (1994), Seite 136.Google Scholar
  67. 67.
    Baun, S. (1994), Seite 193.Google Scholar
  68. 68.
    Man denke hier z.B. an die von Finanzchemikern in letzter Zeit neu geschaffenen Instrumente (Bund-Future, DAX-Future, CDAX, Volatilitäts-DAX, etc.), die heute an Börsen handelbar sind. Sie determinieren den Entscheidungsfindungsprozeß von Marktteilnehmern und müssen somit auch innerhalb von Prognoseinstrumentarien, ihrem Einfluß entsprechend, berücksichtigt werden. Sie bereiten den Entwicklern von Neuronalen Netzen zunehmend Schwiergkeiten, da durch sie Strukturbrüche erzeugt werden, die kein Netz erlernen kann bzw. nur unter erschwerten Bedingungen zu erlernen sind. Ebenso fehlt die für ein Training notwendige Zeitreihenhistorie dieser neuen Finanzinstrumente. Hieraus ergeben sich für die Zukunft eine Fülle von Problemen beim Aufbau von Prognoseinstrumentarien, die unabhängig von deren theoretischem Fundament sind.Google Scholar
  69. 69.
    Die Erweiterungen von SENN betreffen z.B. das Pre-Processing der Rohdatenreihen, ein auf finanzwirtschaftliche Anwendungen zugeschnittenes Post-Processing der Simulatorausgaben, die Adaption automatischer Pruning-Methoden oder aber die Nutzung von Wissen, welche mit den Regeln der Fuzzy Logic vorverarbeitet wurde. Vgl. Produktinformation SENN, 10/94 und Optionen 95.Google Scholar
  70. 70.
    Vgl. Baun, S. (1994), Seite 173.Google Scholar
  71. 71.
    Vgl. hierzu Baun, S. (1994), Seiten 174–178. Dort erfolgt eine Aufzählung und daran anschließend eine Begründung für die Wahl jeder einzelnen Variablen. Unterstrichen werden soll dabei, daß die Auswahl der ökonometrischen Analyse Rechnung trägt.Google Scholar
  72. 72.
    Vgl. Baun, S. (1994), Seite 156.Google Scholar
  73. 73.
    Baun, S. (1994), Seite 182.Google Scholar
  74. 74.
    Vgl. zur Vorverarbeitung Baun, S. (1994), Seiten 179 ff.Google Scholar
  75. 75.
    Vgl. Baun, S. (1994), Seiten 182 und 183.Google Scholar
  76. 76.
    „Weight Pruning nach dem ‚Statistical Significance Test‘ beurteilt die Relevanz eines Gewichts nicht nur nach seiner absoluten Höhe, sondern auch nach seiner Volatilität. So fließt die strukturelle Stabilität des Gewichts und damit der dahinterstehenden Information in die Relevanzbeurteilung mit ein.“ Baun, S. (1994), Seite 165.Google Scholar
  77. 77.
    Vgl. hierzu Baun, S. (1994), Seite 185. Beachte die dort aufgeführten Verweise.Google Scholar
  78. 78.
    Vgl. Baun, S. (1994), Seite 187, Tabelle 13.Google Scholar
  79. 79.
    Vgl. Rojas, R. (1992), Seite 201.Google Scholar
  80. 80.
    Vgl. zur Definition der Wegstrecke Baun, S. (1994), Seite 186, Fußnote 62 und Anhang B.Google Scholar
  81. 81.
    Vgl. Baun, S. (1994), Seite 189 und 190.Google Scholar
  82. 82.
    Vgl. Baun, S. (1994), Seite 193.Google Scholar
  83. 83.
    Vgl. Graf, J. (1991), Seiten 496–499.Google Scholar
  84. 84.
    Vgl.Graf, J. (1991), Seite 497.Google Scholar
  85. 85.
    Vgl. Graf, J. (1991), Seite 498.Google Scholar
  86. 86.
    Vgl. Werner, P. (1993), Seite 75.Google Scholar
  87. 87.
    Vgl. Hillmer, M./Graf, J. (1994), Seiten 149–182.Google Scholar
  88. 88.
    „Tendenziell kann man sagen, daß mit zunehmendem Prognosehorizont (d.h. Monats- oder Quartalshorizont) der Schwierigkeitsgrad der Prognose abnimmt.“ Baun, S. (1994), Seite 150.Google Scholar
  89. 89.
    Vgl. Hillmer, M./Graf, J. (1994), Seite 149.Google Scholar
  90. 90.
    „Bei Monatsdaten steht der Verfügbarkeit von mehr Beobachtungen, die die tatsächliche Kausalstruktur beschreiben, der Nachteil einer geringen Anzahl von Beobachtungszeitpunkten gegenüber. Bei Tages- oder Untertagesmodellen hat man es mit stark verrauschten Beobachtungsreihen zu tun, aber es stehen viel mehr Trainingsbeispiele zur Verfügung. Die Erfahrung hat gezeigt, das es diese Gegensätze sind, die die Qualität des Modellaufbaus bestimmen.“ Zimmermann, H. G. (1994), Seite 20.Google Scholar
  91. 91.
    Betrachtet wurden als Einflußfaktoren Kennzahlen aus drei Kategorien: 1) monetäre Einflüsse, 2) konjunkturelle Einflußgrößen und 3) markt- und unternehmensspezifische Einflüse. Vgl. Hillmer, M./Graf, J. (1994), Seite 153.Google Scholar
  92. 92.
    Hillmer, M./Graf, J. (1994), Seite 155.Google Scholar
  93. 93.
    Vgl. Hillmer, M./Graf, J. (1994), Seiten 174 und 175.Google Scholar
  94. 94.
    Zur Eliminierung von nicht eindeutigen Signalen werden die Output-Werte im Neuronalen Netz von über 0,8 auf 1,0 und von unter 0,2 auf 0 gesetzt, wobei die Eins für steigende und die Null für fallende Aktienkurse steht. Vgl. Hillmer, M./Graf, J. (1994), Seite 174.Google Scholar
  95. 95.
    Ein solches Zeitfenster sollte zum einen groß genug sein, um eine ausreichende, ausgewogene Zahl von „Steigen“- und „Fallen“-Beispielen zu enthalten, andererseits aber auch klein genug, um auf Strukturbrüche rechtzeitig reagieren zu können und die Anzahl zu simulierender Prognosen nicht allzusehr einzuschränken. Vgl. Rehkugler, H./Poddig, T. (1991), Seite 369. Vgl. hierzu auch Refenes, A. N./Azema-Barac, M./Chen, L./Karoussos, S. A. (1993), Seite 48 f.Google Scholar
  96. 96.
    Vgl. Hillmer, M./Graf, J. (1994), Seite 175.Google Scholar
  97. 97.
    Vgl. Ruggiero, M. A. (1994D), Seite 56.Google Scholar
  98. 98.
    Vgl. dazu die Ausführungen von Hillmer, M./Graf, J. (1994), Seiten 175 ff. und auch die Gedanken von Rehkugler, H./Poddig, T. (1990A).Google Scholar
  99. 99.
    Vgl. Hillmer, M./Graf, J. (1994), Seite 176.Google Scholar
  100. 100.
    Vgl. hierzu Hillmer, M./Graf, J. (1994), Seite 176 und 177.Google Scholar
  101. 101.
    Vgl. dazu Werner, P. (1993) und die obigen Ausführungen.Google Scholar
  102. 102.
    Zum Thema “Testing and Evaluation of Neural Trading Systems“ vergleiche insbesondere die Ausführungen von Deboeck, G. J./Cader, M. (1994), Seiten 40 ff. Sie schreiben u.a.: „A useful framework for evaluating financial results of a neural net is compressed to three criteria: profitability, consistency, and robustness“. Vgl. a.a.O. Seite 40.Google Scholar
  103. 103.
    Vgl. Hillmer, M./Graf, J. (1994), Seiten 180 und 181.Google Scholar
  104. 104.
    Vgl. Alvager, T./Humpert, B./Weers, D. (1991), Seite 24.Google Scholar
  105. 105.
    Alvager, T./Humpert, B./weers, D. (1991), Seite 25.Google Scholar
  106. 106.
    Alvager, T./Humpert, B./Weers, D. (1991), Seite 25.Google Scholar
  107. 107.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seiten 247–269.Google Scholar
  108. 108.
    Vgl. hierzu auch Schumann, M/Lohrbach, T. (1993), Seiten 597–606. Dort behandeln Schuman/Lohrbach bereits das Thema „Aktienkursprognose mit Hilfe Neuronaler Netze“, in einer Form, der der hier dargestellten im wesentlichen entspricht.Google Scholar
  109. 109.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 248. Dort findet sich eine Liste der weiteren Einflußfaktoren. Genannt werden: die Anzahl aller gehandelten Aktien, die Anzahl der in ihrer Notierung unveränderten Aktien, die Anzahl der gestiegenen Aktien, die Anzahl der gefallenen Aktien sowohl an der Frankfurter als auch an der New Yorker Börse, Dow-JonesIndex, Nikkei-Index, Financial-Time-Index, Westbau-Index, Wechselkurse: DM zu US$, Englisches Pfund, Französischer Franc, Schweizer Franken und ECU, Geldmarktsätze: Tages-, Monatsund Dreimonatsgeld, Goldpreis und Rohölpreis. Diese Werte sind börsentäglich vorhanden.Google Scholar
  110. 110.
    Neuron 1: Preis steigt am folgenden Tag Neuron 2: Preis sinkt am folgenden Tag Neuron 3: Preis steigt am folgenden Tag signifikant (> 0, 5 Prozent) Neuron 4: Preis sinkt am folgenden Tag signifikant (> 0, 5 Prozent) In einer Erweiterung finden sich bei Schuman/Lohrbach weitere vier Neuronen in der Grossberg-Schicht. Neuron 5: Preis steigt an den folgenden fünf Tagen signifikant (> 1 Prozent) Neuron 6: Preis sinkt an den folgenden fünf Tagen signifikant (> 1 Prozent) Neuron 7: Preis steigt an den folgenden zehn Tagen signifikant (> 2 Prozent) Neuron 8: Preis sinkt an den folgenden zehn Tagen signifikant (> 2 Prozent) Da die Ausgabewerte an den Output-Neuronen im kontinuierlichen Bereich zwischen 0 und 1 liegen, wurde die Eins als JA und die Null als NEIN interpretiert. Dabei wurden Werte über 0,5 auf die Eins und kleinere Werte auf die Null abgebildet. Vgl. Schumann, M./Lohrbach, T. (1994), Seiten 247–269.Google Scholar
  111. 111.
    Vgl. hierzu auch Schumann, M./Lohrbach, T. (1993), Seite 600.Google Scholar
  112. 112.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 256.Google Scholar
  113. 113.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seiten 256 ff.Google Scholar
  114. 114.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 257, Abb. 8. Umfassender sind die Darstellungen der Thematik in Schumann, M./Lohrbach, T. (1993).Google Scholar
  115. 115.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 258.Google Scholar
  116. 116.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 259.Google Scholar
  117. 117.
    Schumann, M./Lohrbach, T. (1994), Seite 259.Google Scholar
  118. 118.
    Die Idee des rollierenden Lernalgorithmus besteht darin, im Zeitablaufjeweils die aktuellsten historischen Informationen zum Training und somit zur Vorhersage zu nutzen. Bei Bekanntwerden aktuellerer Daten muß somit das Netz erneut, z.B. anhand der letzten n Einflußfaktoren bzw. -vektoren, trainiert werden.Google Scholar
  119. 119.
    Vgl. Schumann, M./Lohrbach, T. (1994), Seite 268.Google Scholar
  120. 120.
    Vgl. Malliaris, M. E. (1994), Seite 86–90. „The Standard and Poor‘s 500 market index is a value-weighted arithmetic mean of the market value of its 500 components. These consist of 400 industrial, 20 transportation, 40 utilities and 40 financial issues traded in the USA. The index is continually updated and provides a measure of the market as a whole, with respect to the launch in April 1982 when the index started at 100. The futures contract in the index was launched simultaneously, traded at the Chicago Mercantile Exchange‘s Index and Options Market, and is one of the most actively traded in the futures market.“ Azoff, E. M. (1994), Seite 113.Google Scholar
  121. 121.
    Vgl. Malliaris, M. E. (1994), Seite 86.Google Scholar
  122. 122.
    Vgl. Malliaris, M. E. (1994), Seite 87.Google Scholar
  123. 123.
    Genetische Algorithmen sind stochastische Suchstrategien, die in Anlehnung an natürliche evolutionäre Prozesse entwickelt wurden. Ein genetischer Algorithmus zur Netzwerkoptimierung könnte wie folgt arbeiten: 1) Generiere eine zufällige Anfangspopulation von Netzwerken. 2) Trainiere jedes Netzwerk dieser Population. 3) Evaluation: Teste jedes Netzwerk auf seine Güte (Fitness, gemäß vorgegebenem Kriterium). 4) Selektion: Wähle die leistungsfähigsten Netzwerke aus. 5) Reproduktion: Erzeuge eine neue Population aus den selektierten Netzwerken mit den genetischen Operatoren: Kreuzung, Mutation und Inversion (angewendet auf die eine Netzwerk beschreibenden Parameter). 6) Starte erneut mit 2), bis eine zufriedenstellende Lösung gefunden wurde. Untersuchungen mit genetisch optimierten Netzen belegen, daß sich auf diese Weise extreme Leistungssteigerungen gegenüber einem willkürlich angelegten KNN erzielen lassen. Weiterhin hat sich gezeigt, daß die von genetischen Algorithmen erzeugten Netze nicht nur leistungsfähiger, sondern auch deutlich kleiner waren als die von Experten generierten Pendants. Vgl. Kühn, M. (1992), Seite 47.Google Scholar
  124. 124.
    Vgl. Malliaris, M. E. (1994), Seite 88.Google Scholar
  125. 125.
    Malliaris, M. E. (1994), Seite 89.Google Scholar
  126. 126.
    Vgl. Ruggiero, M. A. (1994c), Seiten 42–44.Google Scholar
  127. 127.
    Vgl. Ruggiero, M. A. (1994c), Seite 42. Vgl. dort und auf der nachfolgenden Seite auch die Graphiken zur Entwicklung der betrachteten Einflußfaktoren zwischen Januar 1988 und April 1994.Google Scholar
  128. 128.
    Vgl. hierzu Jurik, M. (1992A), Seite 39.Google Scholar
  129. 129.
    Vgl. Ruggiero, M. A. (1994c), Seite 42.Google Scholar
  130. 130.
    Ruggiero, M. A. (1994c), Seite 43.Google Scholar
  131. 131.
    Vgl. Ruggiero, M. A. (1994c), Seite 44.Google Scholar
  132. 132.
    Vgl. Ruggiero, M. A. (1994c), Seite 44.Google Scholar
  133. 133.
    Vgl. Ruggiero, M. A. (1994c), Seite 44Google Scholar
  134. 134.
    Vgl. Rhee, M. J. (1994), o.S.Google Scholar
  135. 135.
    Vgl. Rhee, M. J. (1994), o.S.Google Scholar
  136. 136.
    Vgl. Chenoweth, T./Obradovic, W. (1994), o.S.Google Scholar
  137. 137.
    Chenoweth, T./Obradovic, W. (1994), o.S.Google Scholar
  138. 138.
    Vgl. Hiemstra, Y. (1994), o.S.Google Scholar
  139. 139.
    Der bereits mehrfach erwähnte A. N. Refenes ist seit 1992 Direktor des NeuroForecasting Centre, ein Institut der London Business School und der University College London. Google Scholar
  140. 140.
    Vgl. Bentz, Y./Refenes, A. N. (1994), o.S.Google Scholar
  141. 141.
    Vgl. Bentz, Y./Refenes, A. N. (1994), o.S.Google Scholar
  142. 142.
    Vgl. in diesem Kontext Refenes, A. N. et al. (1994).Google Scholar
  143. 143.
    Vgl. Bentz, Y./Refenes, A. N. (1994), o.S. Die Ergebnisse berechnet mit k = 0 sind äquivalent mit denen der OLS-Fehlerfunktion.Google Scholar
  144. 144.
    Entz, Y./Refenes, A. N. (1994), o.S.Google Scholar
  145. 145.
    NöLdechen, A. (1993), Seite 8.Google Scholar
  146. 146.
    Kühn, M. (1992), Seite 47.Google Scholar
  147. 147.
    Vgl. Baestaens, D. E./van Den Bergh, W. M. (1995), Seiten 149–161.Google Scholar
  148. 148.
    Baestaens/van Den Bergh konstatieren: „The out-of-sample predictions produced by the MBPN model appear to outweigh those generated by OLS in terms of both magnitude and direction.“ Baestaens, D. E./van Den Bergh, W. M. (1995), Seite 161.Google Scholar
  149. 149.
    Vgl. Baestaens, D. E./van Den Bergh, W. M./Wood, D. (1994), Seiten 207–224.Google Scholar
  150. 150.
    Vgl. Berndt, M. (1995), Seiten 226–230.Google Scholar
  151. 151.
    Berndt, M. (1995), Seite 228.Google Scholar
  152. 152.
    Vgl. Levin, K. (1993), Seite 651.Google Scholar
  153. 153.
    Levin, K. (1993), Seite 657.Google Scholar
  154. 154.
    Vgl. Wild, K.-D. (1991), Seite 258.Google Scholar
  155. 155.
    Vgl. hierzu und zu den nachfolgenden Ausführungen Wild, K.-D. (1991).Google Scholar
  156. 156.
    Vgl. Wild, K.-D. (1991), Seite 257.Google Scholar
  157. 157.
    Vgl. zu den nachfolgenden Ausführungen Wild, K.-D. (1994).Google Scholar
  158. 158.
    o.V. (1995A).Google Scholar
  159. 159.
    Wild, K.-D. (1991), Seite 258.Google Scholar
  160. 160.
    Vgl. Baun, S./Kööhr, Th. (1994). Die nachfolgenden Ausführungen basieren auf einem Arbeitspapier, das mir vor Veröffentlichung zur Verfügung gestellt wurde. Die hiesige Beschreibung des Modells stellt somit einen recht aktuellen Entwicklungsstand dar. Vgl. auch Lüthje, B. (Hrsg.) (1994), Seiten 39–66. Dort veröffentlichten Baun/Köhr später ihr Arbeitspapier.Google Scholar
  161. 161.
    Vgl. Poddig, T. (1994A), Seite 220.Google Scholar
  162. 162.
    Vgl. Baun, S./Köhr, Th. (1994), Seite 14.Google Scholar
  163. 163.
    Vgl. hierzu die Ausführungen im Abschnitt 4.1 zum Modell von SM/SENN. Google Scholar
  164. 164.
    Transformationsarten, die zum Einsatz kamen, waren z.B. relative Differenzen, Volatilitätsbeschreibungen, Trendbildungen, Kennziffern des Krümmungs- und Wendepunktverhaltens der Zeitreihen, Overbought- und Oversold-Indikatoren, Aufbereitungen in Anlehnung an die Pointand-Figure-Analyse. Vgl. Baun, S./Köhr, Th. (1994), Seite 14.Google Scholar
  165. 165.
    Vgl. Baun, S./Köhr, Th. (1994), Seite 15.Google Scholar
  166. 166.
    Vgl. zum Einsatz künstlicher Störgrößen z.B. Wittkemper, H.-G. (1994), Seite 65 f. Der Nutzen des Hinzufügens von Rauschfaktoren ist es, die Anzahl der Trainingsdaten künstlich zu vergrößern, um damit die Generalisierungsfähigkeit des Netzes zu verbessern.Google Scholar
  167. 167.
    Vgl. Lüthje, B. (Hrsg.) (1994), Seite 60.Google Scholar
  168. 168.
    Vgl. Baun, S./Köhr, Th. (1994), Seite 19 oder Lüthje, B. (Hrsg.) (1994), Seite 63.Google Scholar
  169. 169.
    Vgl. Matthes, R. (1994), Seiten 41–60.Google Scholar
  170. 170.
    Vgl. Matthes, R. (1994), Seite 41.Google Scholar
  171. 171.
    Matthes, R. (1994), Seite 51.Google Scholar
  172. 172.
    Vgl. Matthes, R. (1994), Seite 53.Google Scholar
  173. 173.
    Vgl. Matthes, R. (1994), Seite 57.Google Scholar
  174. 174.
    Vgl. Matthes, R. (1994), Seite 58.Google Scholar
  175. 175.
    Vgl. Matthes, R. (1994), Seite 59.Google Scholar
  176. 176.
    Vgl. Riess, M. (1994), Seiten 183–222, Riess, M. (1992), Seiten 6–9.Google Scholar
  177. 177.
    Riess, M. (1992), Seite 8. „Software Enviroment for Neural Networks (Senn) is used by Allianz Life Assurance in Germany for interest rate prognosis and at a bank in Lausanne, Switzerland in a forex trading application. Furthermore, contracts are close to being signed with a further five top German banks for forex forecasting applications.“ Booth, G. (1992/1993), Seite 38.Google Scholar
  178. 178.
    Riess, M. (1992), Seite 8.Google Scholar
  179. 179.
    A1le in Tabelle 4.2 aufgeführten Zeitreihen mit Ausnahme der zu prognostizierenden Zeitreihe.Google Scholar
  180. 180.
    Riess, M. (1994), Seite 209.Google Scholar
  181. 181.
    Vgl. Riess, M. (1994), Seite 206. Die monatlich aktualisierten Zeitreihenwerte standen von Januar 1963 bis November 1988 zum Training, ab Dezember 1988 zur Generalisierung zur Verfügung.Google Scholar
  182. 182.
    Vgl. Riess, M. (1994), Seiten 209 ff.Google Scholar
  183. 183.
    Vgl. Riess, M. (1994), Seite 212.Google Scholar
  184. 184.
    Vgl. Riess, M. (1994), Seite 214.Google Scholar
  185. 185.
    Vgl. Riess, M. (1994), Seite 217. Vgl. zum Verfahren der Sensitivitätsanalyse auch die Seiten 18–21. Vgl. ebenso zur Input Sensitivity Analysis Azoff, E. M. (1994), Seiten 60–62.Google Scholar
  186. 186.
    Vgl. Riess, M. (1994), Seite 218.Google Scholar
  187. 187.
    Vgll. Riess, M. (1994), Seiten 218–220Google Scholar
  188. 188.
    Vgl. Fuser, K. (1995), Seiten 6–10 und Fuser, K. (1995), Seiten 70–76, an die diese Darstellung angelehnt ist.Google Scholar
  189. 189.
    Vgl. hierzu die Untersuchungen von Englisch, H./Funke, M./Herrman, M. (1994), o.S., die ebenso die Entwicklung am „German Bond Maket“ mit Hilfe Neuronaler Netze zu prognostizieren versuchen.Google Scholar
  190. 190.
    „But it is more evident that (in coincidence with a model of oscillating interest rates) the short rates fluctuate more than the long ones and that the long rates can increase and the short one decrease (as it is now, April’94, the case in Germany).“ Englisch, H./Funke, M./Herrman, M. (1994), o.S.Google Scholar
  191. 191.
    Ähnlich denkt K. Tam, wobei er die Probleme einer solchen Vorgehensweise jedoch nicht verschweigt: „An important feature of a neural net is that past information is not ignored; instead, its importance will be reduced (or strengthened) incrementally as new examples are fed into the network. In actual implementation, a sliding window scheme is needed to retain part of the old sample and combine it with the new sample to create a new training set. The exact proportion of the old sample to be retained depends on the stability of the distribution and the level of noise in the sample.“ Tam, K./Kiang, M. (1992), Seite 943.Google Scholar
  192. 192.
    „Stability: concerns the consistency of the results produced by neural networks when varying the values of the parameters that might influence their performance. Neural networks, like most nonparametric regression systems, have been known to produce wide variations in their predictive properties. This is to say that small changes in network design, learning times, initial conditions, etc. may produce large changes in network outputs.“ Refenes, A. N. (1994), o.S.Google Scholar
  193. 193.
    „A approach is to have multiple neural networks that predict the same output but use different inputs or network configurations. This is analogous to having many experts give their opinion. You then can use a hybrid system to develop a consensus. A well-designed hybrid system should outperform any of its components. We call this effect synergy.“ Ruggiero, M. A. (1994D), Seite 58. „Different forecasters typically have access to different types of information. In theory, one would ideally like to combine all of the individual forecasters‘ information sets to construct a mega information set with which to construct the most reliable forecasting model and thus the most reliable forecasts. In practice, however, this is not always possible. It is often much easier to obtain an individual forecaster‘s forecast than it is to obtain the conditioning information used by the forecaster. In such cases, a reasonable alternative is to combine the forecasts from a variety of forecasters in the hope that this will in same way combine the various bits of individual information and thus producessingle combined forecast that is more accurate than any of the individual ones.“ Donaldson, R. G./Kamstra, M. (1994), o.S. In diesem Kontext bemerkt G. Mani: „An attractive, albeit indirect, way of dealing with this problem is to train a number of Anns (on the same data, using different learning algorithms, momentum rates, learning rates, topologies, etc.) and to use this portfolio of Anns to make the final decision. Portfolio theory (starting with Markowitz 1952) provides the rationale for such an approach and the purpose of this note is to draw attention to this fact.“ Mani, G. (1991), Seite 484.Google Scholar
  194. 194.
    Hierzu dürfte eine detailliertere Darstellung in dem angekündigten Tagungsband zu finden sein.Google Scholar
  195. 195.
    Kratzer, K. P. (o.J.), Seite 76.Google Scholar
  196. 196.
    Hujer, M. (1995), Süddeutsche Zeitung vom 10.1.1995.Google Scholar
  197. 197.
    Vgl. Rehkugler, H./Poddig, T. (1991), Seite 367.Google Scholar
  198. 198.
    Vgl. Rehkugler, H./Poddig, T. (1990B), Rehkugler, H./Poddig, T. (1991).Google Scholar
  199. 199.
    Vgl. Poddig, T./Wallem, A. (1994), Seite 294.Google Scholar
  200. 200.
    Vgl. Rehkugler, H./Poddig, T. (1990A).Google Scholar
  201. 201.
    Loddig, T./Wallem, A. (1994), Seite 314Google Scholar
  202. 202.
    Vgl. Rehkugler, H./Poddig, T. (1990B), Seite 19, Rehkugler, H./Poddig, T. (1991), Seite 370.Google Scholar
  203. 203.
    Ein weiterer interessanter Ansatz zur Wechselkursprognose wird in Mehta, M. (1994), o.S., diskutiert. „This paper proposes use of Kalman filter to first filter closely sampled foreign exchange (Fx) data dynamically and then uses neural network learning technique to learn the data characteristics. The Kalman filter suggested for this application facilitates in reducing noise/dither present in the high frequency Fx data to a large extent. This dither in the market is caused by continuous trading activity which generally takes place when the market is actively trading.“ Das von M. Mehta implementierte Netz lernt kontinuierlich und prognostiziert den Dollar/Dmwechselkurs mit einem Vorhersagehorizont von zehn Minuten. Die Ergebnisse seiner Arbeit werden leider nicht im Detail dargestellt. Auch Pecen, L./Beran, H./Pelikan, E. (1994), o.S., widmen sich dieser Fragestellung und versuchen mit Hilfe von Intra-day-Daten die Usdollar/DM-, US-Dollar/Yen- und DM/Yen-Wechselkurse im Tagesbereich zu prognostizieren. Sie stellen fest: „The results of these tests show us the predictability of future market behavior over the next 2–5 hours, depending on the period of the day and business activities.“Google Scholar
  204. 204.
    Vgl. Ehkugler, H./Poddig, T. (1994A), Seiten 1–24.Google Scholar
  205. 205.
    Vgl. Rrehkugler, H./Poddig, T. (1994A), Seite 2.Google Scholar
  206. 206.
    Vgl. Ehkugler, H./Poddig, T. (1994A), Seite 3.Google Scholar
  207. 207.
    Vgl. Rehkugler, H./Poddig, T. (1994A), Seite 5.Google Scholar
  208. 208.
    Vgl. Rehkugler, H./Poddig, T. (1994A), Seite 7.Google Scholar
  209. 209.
    Vgl. Ehkugler, H./Poddig, T. (1994A), Seite 10.Google Scholar
  210. 210.
    Rehkugler, H./Poddig, T. (1994A), Seite 12.Google Scholar
  211. 211.
    Vgl. Ehkugler, H./Poddig, T. (1994A), Seite 21.Google Scholar
  212. 212.
    Vgl. Poddig, T./Wallem, A. (1994), Seiten 291–336.Google Scholar
  213. 213.
    Vgl. Poddig, T./Wallem, A. (1994), Seite 324.Google Scholar
  214. 214.
    Loddig, T./Wallem, A. (1994), Seite 329.Google Scholar
  215. 215.
    Poddig, T./Wallem, A. (1994), Seite 330.Google Scholar
  216. 216.
    Vgl. Poddig, T./Wallem, A. (1994), Seite 333.Google Scholar
  217. 217.
    Vgl. Knaus, R. (1994), Seiten 9–13.Google Scholar
  218. 218.
    Knaus, R. (1994), Seite 9.Google Scholar
  219. 219.
    Knaus, R. (1994), Seite 11.Google Scholar
  220. 220.
    Knaus, R. (1994), Seite 12.Google Scholar
  221. 221.
    Vgl. Knaus, R. (1994), Seite 12 und 13.Google Scholar
  222. 222.
    Knaus, R. (1994), Seite 12.Google Scholar
  223. 223.
    Vgl. Baun, S./Storm, A. (1992), Seite 8.Google Scholar
  224. 224.
    Baun, S./Storm, A. (1992), Seite 10.Google Scholar
  225. 225.
    Baun, S./Storm, A. (1992), Seite 11. Vgl. in diesem Kontext Hsu, W./Hsu, L. S./Tenorio, M. F. (1995), Seiten 245–257. Dort werden Verfahren vorgestellt, die aus einer Menge von potentiellen Indikatoren die aussagekräftigsten selektieren. Die von den Autoren vorgestellten systematischen Pre-ProcessingMethoden werden als penalty feature selection algorithm und feature elimination algorithm bezeichnet und am Beispiel der DM/US-Dollarwechselkursprognose illustriert.Google Scholar
  226. 226.
    Vgl. Baun, S./Storm, A. (1992), Seite 10.Google Scholar
  227. 227.
    Vgl. Würtz, D./de Groot, C. (1992), Seiten 44–46.Google Scholar
  228. 228.
    Vgl.Würtz, D./de Groot, C. (1992), Seite 45.Google Scholar
  229. 229.
    Vgl. Würtz, D./de Groot, C. (1991), o.S. und de Groot, C./Würtz, D. (1991A), Seite 92. Es handelt sich hierbei um zwei identische Quellen.Google Scholar
  230. 230.
    Vgl. de Groot, C./Würtz, D. (1991A), Seite 93. Sie schreiben u.a.: „In this study we considered about 250 indicators derived from the 22 time series and performed over different time periods approximately 2500 statistical tests.“Google Scholar
  231. 231.
    WÜrtz, D./de Groot, C. (1992), Seite 45. Vgl. auch de Groot, C./Würtz, D. (1991A), Seite 93. Dort steht: „We will briefly describe the trading scheme. The prediction procedure witt tell, how much the exchange rate will raise or fall. If the prediction is ‚raise‘ we buy for the amount of one Swiss franc today and sell the dollars we get on the basis of the rate tomorrow. If the system predicts fall‘ we sell the dollars today and calculate the return on the basis of the rate of tomorrow.“Google Scholar
  232. 232.
    Vgl. hierzu Würtz, D./de Groot, C. (1991), o.S.Google Scholar
  233. 233.
    Würtz, D./de Groot, C. (1992), Seite 45.Google Scholar
  234. 234.
    Vgl. Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 395. Vgl. hierzu auch den Kurzkommentar zum Ansatz von Azoff, E. M. (1994), Seite 8. Vgl. auch Hsu, W./Hsu, L. S./Tenorio, M. F. (1995), Seiten 245–257, die aufbauend auf dem Ansatz von Weigend/Hubermann /Rumelhart arbeiten.Google Scholar
  235. 235.
    Vgl. Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 397.Google Scholar
  236. 237.
    „The foreign exchange market is a prime example of a system that is believed to be very noisy. No equations from first principles (such as in some areas of physics) are known. This make it an excellent testbed for any algorithm that is supposed to be able to deal with noisy data.“ Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 417.Google Scholar
  237. 238.
    „Haugen and Lakonishok provide evidence for the January effect. Thorp and Kassouf found arbitrage opportunities by analysing stock warrants. Evidence for nonrandom behaviour in market time series is accumulating. See also Lakonishok and Maberly on the weekend effect and Aiel on the phenomenon of high stock returns before holidays.“ Azoff, E. M. (1994), Seite 7 und 8.Google Scholar
  238. 239.
    Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 419.Google Scholar
  239. 241.
    Vgl. Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 422.Google Scholar
  240. 242.
    Weigend, A. S./Hubermann, B. A./Rumelhart, D. E. (1992), Seite 424. Vgl. hierzu Hsu, W./Hsu, L. S./Tenorio, M. F. (1995), Seiten 245 ff., die die Relevanz der von Weigend/Hubermann/Rumelhart genutzten Einflußfaktoren überprüfen. Sie kommen zu der Erkenntnis, daß die nachfolgend aufgeführten besondere Signifikanz, in Bezug auf die betrachtete Problemstellung, besitzen: „1) the two- and five-point tangent slopes, 2) the past oneweek returns of the Deutschmark, 3) the trends for 5, 10 and 65 days on the Deutschmark, 4) 65-day trend on the swiss franc, 5) the 20- and 40-day volatility, 6) the Monday returns on sterling, 7) the Monday returns on the Japanese yen.“Ebenso wie Weigend/Hubermann/Rumelhart stellen sie fest, daß der Einfluß der mit dem Kanadischen Dollar verbundenen Kennzahlen, wohl aufgrund seiner engen Verknüpfung mit dem US-Dollar, unbedeutend ist.Google Scholar
  241. 243.
    Mehta, M. (1995), Seiten 177–198.Google Scholar
  242. 244.
    Vgl. Mehta M. (1995), Seite 196. Er schreibt dort: 1) „Ten to fifteen input nodes, and data input sampled at half- to one-hour intervals. First differences of the prices should be considered. The configuration may be one hidden layer with as few nodes as possible (to be decided after a number of experiments).“ 2) „Five to ten input nodes, with first difference of hourly rates as the input. The training should be performed on the next hour‘s first difference price.“ 3) „Simultaneously, test using out-of-sample data set is required to be carried out in accordance to the procedure mentioned above to make sure that the network has learned properly and not overfitted.“Google Scholar
  243. 245.
    Azoff, E. M. (1994), Seite 8.Google Scholar
  244. 246.
    Vgl. Refenes, A. N./Zaidi, A. (1995), Seiten 213–219. Refenes/Azema-Barac/Chen/Karoussos stellen bereits 1993 einen Ansatz zur Wechselkursprognose vor, der jedoch von C. Chatfield vehement kritisiert wird. Vgl. Refenes, A. N./Azema-Barac, M./Chen, L./Karoussos, S. A. (1993), Seiten 46–58 und kommentierend hierzu die Bemerkungen von Chatfield, C. (1993), Seiten 2 und 3.Google Scholar
  245. 247.
    Vgl. Refenes, A. N./Zaidi, A. (1995), Seite 213.Google Scholar
  246. 248.
    Vgl. Refenes, A. N./Zaii, A. (1995), Seite 214.Google Scholar
  247. 249.
    Vgl. Refenes, A. N./Zaidi, A. (1995), Seite 215.Google Scholar
  248. 250.
    Vgl. Klimasauskas, C. C. (1994), Seite 23 f. Er schreibt: „Sometimes it is not easy to decide which network to deploy. One may work better in upward trending, another in downward trending, and a third in sideways markets. An approach to solving this problem is to use all three. A fourth neural network can be trained to decide which of the other three to use at any given time.“Google Scholar
  249. 251.
    Vgl. Refenes, A. N./Zaidi, A. (1995), Seite 216.Google Scholar
  250. 252.
    Vgl. Refenes, A. N./Zaidi, A. (1995), Seite 217.Google Scholar
  251. 253.
    Eine weitere Vorgehensweise, die als Untersuchungsgegenstand den U.S. Dollar/U.K. PfundWechselkurs besitzt, diskutieren Green/Pearson. Vgl. Green, H. (1994), Seiten 123–129.Google Scholar

Copyright information

© Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH, Wiesbaden 1995

Authors and Affiliations

  • Karsten Füser

There are no affiliations available

Personalised recommendations