Zusammenfassung
In diesem Kapitel werden die begrifflichen Festlegungen vorgestellt, die in der Informatik für künstliche neuronale Netze (KNN), oft auch als Artificial Neural Networks (ANN) bezeichnet, Verwendung finden. KNN werden im Bereich der Künstlichen Intelligenz den sogenannten KI-Methoden zugeordnet. Die Forschungsrichtung wird als Konnektionistischer Ansatz bezeichnet und gehört zu dem wohl am stärksten expandierenden Teilgebiet der Informatik. Ziel dieses Forschungsgebietes ist es die menschliche Intelligenz sowie die biologische Informationsverarbeitung mit Hilfe der Computertechnologie nachzuahmen. Dieses einleitende Kapitel bildet somit die Grundlage für das Verständnis der nachfolgenden Ausführungen. Desweiteren werden Aufbau und Architektur von KNN vorgestellt und ihre Funktionsweise beschrieben. Besonderes Augenmerk richtet sich dabei auf die unterschiedlichen Lernalgorithmen. In einer theoretischen Ausleuchtung werden diese in die bestehenden mathematischen Verfahren eingeordnet. Abschließend werden Verfahren vorgestellt, um die KNN-Architektur zu optimieren.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Eine detaillierte Darstellung von biologischen Neuronen findet man in Kandel et al. (1993).
In der Literatur schwankt diese Zahl, siehe Zell (1994), S. 35, im Gegensatz zu FÜser (1995), S. 12 und Kinnebrock (1994), S. 13.
Einen Geschwindigkeitsvergleich zwischen Gehirn und Rechner findet man bei Zell (1994), S.25 ff.
Im biologischen Vorbild erfolgt der Informationstransport über elektrische Impulse, die durch chemische Prozesse ausgelöst werden. Siehe dazu Rojas (1993), S. 12 ff. oder Zell (1994), S. 39 ff.
Rojas (1993), S. 20 hält andere Formen der Informationsspeicherung für wahrscheinlich, aber die Möglichkeiten sind entweder noch unbekannt oder wenig verstanden. Andere Arten des Lernens findet man in Zell (1994), S. 84.
Vgl. Hinton (1992).
Vgl. Hrushka (1991), S. 217.
Zur Schreibweise der Indizes gibt es zwei unterschiedliche Konventionen. So findet man in der Literatur oft die Schreibweise w ji für die Verbindung von Zelle i nach Zelle j. Die Festlegung für eine Schreibweise ist für die späteren Matrizenoperationen von Bedeutung. Vgl. Zell (1994), S. 80.
Die Hauptbestandteile eines KNN werden durch Fettschrift hervorgehoben.
t bezeichnet die Zeit.
Vgl. dazu auch Zell (1994), S. 77.
Der Abschnitt 2.2.3 beschäftigt sich mit Pruning-Verfahren.
Hebb (1949).
Die Hebbsche Lernregel ist zwar biologisch plausibel aber eine bisher noch nicht nachgewiesene Art des Lernens. Der tatsächlich verwendete Lernalgorithmus in biologischen Neuronen ist unbekannt. Vgl. hierzu Berns & Kolb (1994), S.3 oder Rojas (1993), S. 21.
Siehe Abschnitt 1.2.2 und 1.2.3.
Der Faktor 1/2 vereinfacht die spätere Ableitung und ist genaugenommen nicht erforderlich.
Die Verwendung sigmoider Aktivierungsfunktionen nimmt jedoch die Entstehung lokaler Minima in Kauf, in denen sich die Lernalgorithmen verfangen können.
Dieser Nachteil gilt für alle Hill-Climbing-Verfahren.
Das Verfahren ist auch als Newton-Methode zur Bestimmung von Nullstellen bekannt.
Der Einsatz eines Simulators im Rahmen dieser Arbeit wird Aufschluß darüber geben, ob Backper-colation wirklich schneller ist als das klassische Backpropagation.
Fahlman & Lebière (1990), S. 524 ff.
Auch bei einem Fehler von Null, ist das Problem der suboptimalen Lösungen nicht gelöst. Vielmehr existiert es in Form von lokalen Minima oder als flache Fehlerflächen.
Als Overfitting bezeichnet man die Überanpassung des Netzes an die Trainingsdaten.
Die Anzahl der lokalen Minima ist problemabhängig. Bei einfachen Problemen ist auch ein einziges lokales Minimum möglich.
Eine Reduktion der Trainingsmenge impliziert auch die Zunahme der Modellvarianz.
Oft ist in der Literatur zu lesen, daß zweischichtige Netze bessere Ergebnisse erzielen als drei-schichtige Netze. Sollte dies zutreffen, ist für die Problemlösung der Einsatz eines KNN nicht erforderlich, siehe GRINO (1992).
Es ist klar, daß, wenn die gewöhnliche Inverse definiert ist, diese identisch mit der Pseudoinversen ist.
siehe Abschnitt 1.2.7
Rights and permissions
Copyright information
© 1998 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Benenati, I. (1998). Künstliche neuronale Netze. In: Neuronale Netze im Portfoliomanagement. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08788-5_1
Download citation
DOI: https://doi.org/10.1007/978-3-663-08788-5_1
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-2117-6
Online ISBN: 978-3-663-08788-5
eBook Packages: Springer Book Archive