Zusammenfassung
Die folgenden zwei Kapitel verbindet die Frage nach der Repräsentation und Verarbeitungsmodalität von Wissen. Diese wird explizit in diesem besprochen werden, um die Ergebnisse dieser Diskussion im folgenden Kapitel zur schrittweisen Entwicklung eines kognitiven Modelies heranzuziehen. Wie bereits in Kapitel 5 (Cognitive Science) angedeutet, ist die Repräsentationsproblematik eine ganz zentrale Frage in der Cognitive Science. In unserer Diskussion soll daher alles, was bisher über Symbolverarbeitung, den PDP-Ansatz, und die Konzepte des (radikalen) Konstruktivismus dargestellt wurde, einfließen.
26. Man meint, das Lernen der Sprache bestehe darin, daß man Gegenstände benennt. Und zwar: Menschen, Formen, Farben, Schmerzen, Zahlen, etc. Wie gesagt — das Benennen ist etwas Ähnliches, wie, einem Ding ein Namenstäfelchen anheften. Man kann das eine Vorbereitung zum Gebrauch eines Wortes nennen. Aber worauf ist es eine Vorbereitung?
L. Wittgenstein, Philosophische Untersuchungen
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Referenzen
In Poppers Sinn meint ‘wirklich’ neben den realen Gegenständen folgendes: “Wir akzeptieren also Dinge als ‘wirklich’, wenn sie kausal auf gewöhnliche, reale materielle Dinge wirken oder wenn sie mit diesen in Wechselwirkung stehen.” (Popper, [POPP 85], p 29f)
Dies ist im zuvor gezeigten Sinn von ‘wirklich’ zu verstehen.
Dies ist in folgendem Sinn zu verstehen: sie stellt eine objektive (im Sinne: für jedes erkennende System im gleichen Maße zugängliche) Grundlage für die Wahrnehmung dar. Mit anderen Worten bedeutet das aber, daß es — wie wir in Kapitel 2 gesehen haben — alleine auf die Struktur des Organismus ankommt, wie er diese ‘reale’ Welt wahrnimmt und erfahrt.
I.e.: der Zustand des Systems zur Zeit der Engrammbildung ist das Substrat für diese und daher auch für die Bedeutung des Symbols ausschlaggebend.
Dies ist in Abbildung 6.3 durch die strichlierte Kante ‘steht für’ angedeutet und stellt das ‘Verhängnis’ der orthodoxen AI dar.
Um eine Trennung der beiden gleichlautenden, aber nicht gleichbedeutenden Begriffen vorzunehmen, wurde eine andere Schriftart gewählt.
Es wäre jedoch wünschenswert, daß es auch in der formalen Domäne operieren könnte — dies müßte aber auf nicht symbolischer Basis geschehen.
Das Setzen von Hand ist bei distributed representation nur sehr schwer möglich, da units subsymbolische features repräsentieren, die einzeln sprachlich nicht mehr zu bezeichnen sind.
Ein wenig polemisch könnte man sagen, daß man sich die teure Anordnung mit dem Sensor sparen und den Wert über eine bei jedem Computer vorhandene Tastatur symbolisch eingeben hätte können.
‘Explizit’ bezieht sich auf die in der orthodoxen AI verwendeten Symbole, die in dieser Form explizites Wissen darstellen und somit für den Interpreter des Systems in ihrer (scheinbaren) Bedeutung klar erscheinen.
Dies gilt ganz besonders für hidden units.
Der Name ‘subsymbolisch’ hat also nichts mit Symbolen im herkömmlichen Sinne zu tun — er bezieht sich lediglich darauf, daß er unter der symbolischen Ebene liegt.
Um die Einordnung eines neuen Symbols zu erzielen, muß erst wieder eine neue Symbolstruktur erzeugt werden, die die Beziehung zu den alten (bereits vorhandenen) Symbolen bezeichnet und auch sprachlich bezeichenbar sein muß.
Die Frage, wie fein man die Auflösung wählen muß, stellt sich in dem Sinn auch nicht mehr, da die Feinheit der Auflösung durch die Feinheit des inputs bestimmt ist.
In lernenden orthodoxen AI Systemen kann durch ein einziges gelerntes Beispiel die ganze interne (bisher aufgebaute) Struktur vollständig verändert werden. Dies ist die Folge der recht unflexiblen, starren und diskreten Struktur der Symbole und ihrer Verbindungen.
’Diskret’ bedeutet, daß die Verbindungen wie Kanten in einem semantischen Netzwerk angesehen werden — i.e. jede Kante bezeichnet eine Eigenschaft und ist somit eine symbolisch bedeutsame Struktur, wohingegen in PDP-Netzwerken ‘bedeutungslose’ Gewichte als Verbindungen fungieren.
Diese Verbindungen beziehen sich einerseits auf die units innerhalb dieser Gruppe und andrerseits natürlich auch auf alle anderen units im Netzwerk.
Dieser Sachverhalt stellt ein weiteres Argument gegen die Anwendung der orthodoxen AI im Bereich des cognitive modelling dar.
Das ‘prinzipiell nicht’ läßt sich mit der Konnotati vi tat der Sprache, wie sie in Kapitel 2 angesprochen wurde, begründen.
Rights and permissions
Copyright information
© 1990 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Peschl, M.F. (1990). Wissensrepräsentation — natürliche vs. künstliche Konzepte. In: Cognitive Modelling. DUV: Datenverarbeitung. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-14658-2_6
Download citation
DOI: https://doi.org/10.1007/978-3-663-14658-2_6
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-2014-8
Online ISBN: 978-3-663-14658-2
eBook Packages: Springer Book Archive