Advertisement

Einführung

Chapter
  • 19 Downloads
Part of the Informatik-Fachberichte book series (INFORMATIK, volume 243)

Zusammenfassung

Die vorliegende Arbeit enthält Beiträge sowohl zu empirischen als auch methodischen Aspekten der Beschreibung und automatischen Analyse natürlicher Sprachen. Im empirischen Teil (Kap.4) wird ein Fragment einer Textgrammatik des Deutschen beschrieben, das im Rahmen des Textver-stehenssystems TOPIC1 mit einem entsprechenden Text-Parser experimentell überprüft wurde. Der methodische Beitrag der Arbeit (Kap.2 und 3) liegt in der Entwicklung eines Beschreibungsformalismus für verteilte semantische Grammatiken und Parser, der die deklarativen Teile der Textgrammatik und die prozedurale Beschreibung des Text-Parsers auf der Grundlage einer am Aktorenmodell orientierten Spezifikationssprache formal vereinheitlicht.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literature

  1. 1.
    Hahn/Reimer 1985, Hahn/Reimer 1986, Reimer/Hahn 1989.Google Scholar
  2. 2.
    Ziel dieser Analysen sind inhaltliche Beschreibungen einzelner Dokumente durch Deskriptoren (automatisches Indexing) bzw. die Gruppierung von Teilen der Dokumentenkollektion in inhaltlich homogene Subpopulationen (automatische Klassifikation). Einen Überblick über entsprechende (statistische) Methoden der Inhaltserschließung von Abstracts gibt Salton 1975, Kap.3 (automatisches Indexing) und Kap.8 (automatische Klassifikation).Google Scholar
  3. 5.
    Zu solchen für Fachsprachen (sublanguages) charakteristischen Prägungen der sprachlichen Variabilität vgl. die Beiträge in Kittredge/Lehrberger 1982 und Grishman/Kittredge 1986.Google Scholar
  4. 6.
    Die gleiche Problematik beschreibt Riesbeck 1982 für den Bereich der Analyse von Zeitungsartikeln.Google Scholar
  5. 7.
    Konzeptionelle Vorschläge für die formale Organisation von Textgrammatiken reichen von der direkten Übertragung der Prinzipien der generativen Transformationsgrammatik (Petöfi 1971) über logische (Dijk 1973, Kamp 1981) bis hin zu kognitiv-pragmatisch motivierten Beschreibungssystemen (Dijk 1980). Neben diesen formalisierten Ansätzen existiert in der textlinguistischen Literatur eine nahezu unüberschaubare Fülle ausschließlich phänomenologischer Beschreibungen, die einer auf Algorithmisierung zielenden operationalen Reformu-lierung meist kaum zugänglich sind.Google Scholar
  6. 8.
    “Textualität” wird hier nicht in einem intuitiv-impressionistischen Sinne verstanden, sondern (in Übereinstimmung mit Hobbs 1983, S.33) als terminus technicus zur formalen Charakterisierung von Texten gegenüber anderen linguistischen Beschreibungsebenen oder-Objekten, etwa der “Grammatikalität” von Sätzen im Kontext generativer Grammatiken.Google Scholar
  7. 11.
    Zu dieser Gruppe werden hier (abweichend etwa von der in Wahlster 1982, S.233 vorgeschlagenen Typologie) nicht die regelbasierten Systeme gezählt, die lediglich durch eine semanti-sche Interpretation des (non)terminalen Vokabulars der Grammatiken gekennzeichnet sind (charakteristisch dafür ist z.B. die Lifer-Grammatik (Hendrdc 1977) oder der in Burton 1976 beschriebene semantische ATN) bzw. durch Kasusrahmen gesteuert werden, sondern primär die sog. lexikon-basierten Parser (Wahlster 1982, S.247).Google Scholar
  8. 12.
    Eine detaillierte Kritik des Paradigmas der generativen Linguistik aus der Warte einer kognitiv motivierten “Prozeßlinguistik” formuliert Adriaens 1986b, Kap.1–3.Google Scholar
  9. 13.
    Eine Darstellung verbreiteter Systemarchitekturen natürlichsprachlicher Systeme gibt Wahlster 1982, S.226–228. Christaller 1985, (S.167–175) diskutiert die Architekturproblematik aus der Perspektive der Einbettung von Parsern in natürlichsprachliche Systeme.Google Scholar
  10. 14.
    Wie die in Chomsky 1965a [1956] eingeführten Phrasenstruktur- und Transformationsgrammatiken.Google Scholar
  11. 15.
    Wie die in Woods 1970 beschriebenen Erweiterten Übergangsnetze (ATNs). Diese Einschätzung gilt auch für die flexibler konfigurierbaren kaskadierten ATNs (Woods 1980), weil sie auf jeder Kaskadenebene die Verwendung des ATN-Formalismus verlangen (vgl. Christaller 1985, S.174).Google Scholar
  12. 17.
    Die Argumentation folgt im wesentlichen der in Small 1980, S.43–44.Google Scholar
  13. 18.
    Im Sinne der auf semantischen Merkmalen und Projektionsregeln aufbauenden Interpretativen Semantik von Katz/Fodor 1963.Google Scholar
  14. 19.
    Im Sinne der Montague-Grammatik (Montague 1974a, 1974b), in der zu jeder syntaktischen Regel, die eine zusammengesetzte Konstituente erzeugt, eine Übersetzungsregel existiert, die eine Beziehung zwischen dieser syntaktischen und einer semantischen Regel herstellt, d.h. dem von dieser syntaktischen Regel erzeugten Ausdruck eine Bedeutungsbeschreibung zuordnet.Google Scholar
  15. 20.
    Das Problem der Regelauswahl tritt natürlich auch in konventionellen regelbasierten Systemen auf (vgl. Davis/King 1977), verschärft sich aber bei nicht-uniformen Daten durch die Komplexität der zu prüfenden Muster in den Regeln.Google Scholar
  16. 21.
    Dieser Weg wird bevorzugt im Bereich der Produktionsregelsysteme für Expertensysteme begangen (vgl. Davis/Buchanan/Shortliffe 1977, insbes. S.30–34).Google Scholar
  17. 22.
    Will man nicht enorm komplexe Kontrollstrukturen (z.B. eigene Kontrollvariablen zur Kommunikation zwischen und Synchronisation von Regeln) in die Datenbasis eines Produktionssystems einführen, müssen bei parallel operierenden Produktionssystemen explizite Steuerungsinformationen entweder direkt auf der Ebene der Regeln (etwa durch die Strukturierung der Regelkomponente in Form von Regelhierarchien und ihre Steuerung durch Petrinetze; vgl. Zisman 1978) oder durch eine weitgehende Modifikation des Regelinterpreters (wie etwa in der von Gupta 1987 vorgeschlagenen Parallelversion des Rete-Algorithmus und dessen Implementierung auf spezialisierter Mehrprozessor-Hardware) formuliert werden. In beiden Fällen müßten also in erheblichem Ausmaß global wirksame Kontrollflußspezifikationen (prozedurales Wissen) beim Entwurf lokaler linguistischer Regeln antizipiert werden.Google Scholar
  18. 23.
    Schank 1973.Google Scholar
  19. 24.
    Im theoretischen Status dieser semantischen Primitive liegt ein wesentliches Unterscheidungsmerkmal zum Modell der Präferenzsemantik (Wilks 1975, 1978). Bei Wilks sind sie einer beliebigen natürlichen Sprache entnommen, bei Schank sind sie abstrakte Entitäten einer kognitiven Metasprache. Eine ausführliche Betrachtung methodologischer Unterschiede zwischen der Präferenzsemantik und der konzeptuellen Analyse enthält Wilks 1983.Google Scholar
  20. 25.
    Variationen dieses ursprünglichen Konzepts wurden exemplarisch in zwei Parsern realisiert: CA (Riesbeck 1975) und ELI (Riesbeck/Schank 1978).Google Scholar
  21. 26.
    Diese starke Hypothese wird in aktuellen Arbeiten innerhalb dieses Paradigmas relativiert. So beschreibt Lytinen 1987 den MOPTRANS-Parser mit einem größeren autonomen Satz syntaktischer Regeln und den Aufbau syntaktischer Repräsentationen, um einige Fälle struktureller Ambiguität aufzulösen. Dezidiert syntaktische Steuerungsinformationen (Aufbau syntaktischer Erwartungsrahmen, Prozeduralisierung syntaktischer Kategorien) enthält auch der lexikalisch orientierte WEDNESDAY-Parser. den Stock et al. 1983 beschreiben.Google Scholar
  22. 27.
    Exemplarisch stehen für diesen Ansatz die Systeme SAM (Cullingford 1979) und Frump (DeJong 1979, 1982).Google Scholar
  23. 28.
    Beschrieben im System IPP (Lebjwitz 1983).Google Scholar
  24. 29.
    Sie wurden im Kontext des Systems Boris (Dyer 1983) entwickelt.Google Scholar
  25. 30.
    Betrachtungen dieser Art stehen im Mittelpunkt der Architektur des SCISOR-Systems und seines Parsers TRUMP (Rau/Jacobs 1988).Google Scholar
  26. 31.
    Berg 1987.Google Scholar
  27. 32.
    Den Übergang vom klassischen Konzept der konzeptuellen Analyse zum DMAP-Konzept beschreibt Riesbeck 1986, einen DMAP-Prototypen stellen Riesbeck/Martin 1986 vor.Google Scholar
  28. 33.
    Rieger 1978a, Rieger/Small 1979, Small 1980, Small/Rieger 1982, Small 1987.Google Scholar
  29. 34.
    Wie im CA-Parser, s. Riesbeck 1975, S.115–118.Google Scholar
  30. 35.
    Wie im Dypar-Parser des Boris-Systems, vgl. Dyer 1983.Google Scholar
  31. 36.
    Ein Ansatz, der durch kognitionswissenschaftliche Untersuchungen zu lexikalisch organisierten Lese- und Verstehensstrategien (Thibadeau/Just/Carpenter 1982) auch experimentell bestätigt werden konnte und in die Architektur entsprechender Simulationssysteme eingegangen ist.Google Scholar
  32. 37.
    Genau an diesem Punkt setzt die Kritik an dem interessanten Versuch eines konzeptionellen Vergleichs zwischen der Conceptual Dependency-Theorie mit der Montague-Grammatik, den Jones/Warren 1982 unternehmen, an. Es genügt nicht, CD-Strukturen in prädikatenlogi-sche Formeln umzuschreiben (wie dies ähnlich schon Hayes 1979 für die logische Reformu-lierung der Frame-Repräsentationssprache KRL-0 oder Bartsch 1987 bei der wahrheitsfunktionalen Rekonstruktion von Frames und Scripts im Rahmen der Diskursrepräsentationstheorie (Kamp 1981) unternommen haben). Vielmehr müssen auch die stark ausgeprägten Steuerungskonstrukte semantischer Parser bei einer solchen (Re-)Modellierung mit berücksichtigt werden. Für solch prozedurales Wissen stellen logische Beschreibungssysteme jedoch keine adäquaten Konstrukte bereit, weshalb entsprechende logische Rekonstruktionen an einem entscheidenden Punkt unvollständig und damit inadäquat bleiben.Google Scholar
  33. 38.
    Vgl. zu dieser Argumentationslinie auch Sacerdoti 1978, Riesbeck 1979 oder Eiselt/Granger 1990. Daß diese Konzeption nicht notwendigerweise auf einen semantischen Ansatz zur Sprachanalyse begrenzt werden muß, zeigt der Parsifal-Parser (Marcus 1980), in dem syntaktische Konstrukte als aktive Einheiten im Sprachanalyseprozeß modelliert sind.Google Scholar
  34. 39.
    Es gehört zu den grundlegenden und stark verbreiteten Missverständnissen des Konzepts se-mantischer Parser, daß sie syntax-frei konzipiert seien. Richtig ist vielmehr, daß semanti-sche Erwartungen zwar wesentlichen Einfluß auf die Kontrolle des Parsing-Prozesses haben, aber durch gegenteilige Evidenzen diese Voreinstellungen korrigiert und in diese Revisionsprozesse auch syntaktische, morphologische etc. Indikatoren verstärkt eingehen (zur Disam-biguierung durch syntaktische Kriterien vgl. etwa Riesbeck/Schank 1978, S.252).Google Scholar
  35. 40.
    Diese Aussagen werden auch durch eine Vielzahl experimenteller kognitionspsychologischer Studien zum Unmittelbarkeitsprinzip des Sprachverstehens gestützt (vgl. etwa Marslen-Wilson 1975, Thibadeau/Just/Carpenter 1982). Zentrale Hypothese ist dabei. daß Sprachverstehensprozesse lexikalisch initialisiert und unter simultaner Einbindung aller Ebenen der Sprachbeschreibung (d.h. der Einbeziehung phonologischen, morphologischen, syntaktischen, semantischen und pragmatischen Wissens) parallel prozessiert werden. Ein Projekt, in dem die Entwicklung einer an solchen kognitiven Evidenzen ausgerichteten, mental plausiblen Parser-Architektur für ein automatisches Textverstehenssystem eine zentrale Rolle spielt und im Rahmen kognitionswissenschaftlicher Simulationsexperimente auch validiert werden soll, beschreiben Aulich et al. 1988.Google Scholar
  36. 41.
    Zu einem Überblick vgl. Hahn/Adriaens/Selman 1990. Der historisch früheste Vorschlag zur Verteilung und Parallelisierung linguistischer Analysen stammt von Kaplan 1973, in dem er die Verteilung von Subgrammatiken auf mehrere Prozessoren und die Koordination der Analyse im Rahmen einer Chart vorschlägt. Im Kontext natürlichsprachlicher Systeme wurden Parallelverarbeitungskonzepte erstmals im Rahmen des HEARSAY-II-Systems am Beispiel eines verteilten Produktionssystems eingeführt (Fennell/Lesser 1977).Google Scholar
  37. 42.
    Diese Beobachtung macht auch Adriaens 1986b, S.110–112 bei den meisten der in Kap. 1.2.1.2 betrachteten Grammatikmodelle.Google Scholar
  38. 43.
    Als vierte Entwicklungsschiene könnte man Parser-Hardware, wie die in Kitano 1988 beschriebene VLSI-Chip-Implementation eines DMAP-artigen Parsers anführen (zur DMAP-Theorie vgl. Riesbeck 1986, Riesbeck/Martin 1986). Jedoch sind die Arbeiten auf diesem Gebiet noch in einem sehr frühen Experimentstadium.Google Scholar
  39. 44.
    Vgl. etwa die Übersicht von Nijholt 1990.Google Scholar
  40. 45.
    Vgl. Aho/Ullman 1972, S.314–330.Google Scholar
  41. 46.
    Yonezawa/Ohsawa 1988.Google Scholar
  42. 47.
    Dieser Ansatz ist durch eine breite Methodenpalette charakterisiert, die Konzepte der dynamischen Programmierung (Fanty 1990, Schnelle/Doust 1988), stochastischer Energie-minimierungsmodelle, wie etwa Boltzmann-Maschinen (Selman/Hirst 1987), oder Techniken zur constraint satisfaction (Charniak/Santos 1987, Howells 1988) umfaßt.Google Scholar
  43. 48.
    Vgl. Hirakawa 1983 und Lozinskii/Nirenburg 1986 zu rein syntaktischen Ansätzen und Grishman/Chitrao 1988 sowie Hirschman/Hopkins/Smith 1988 zu semantischen Erweiterungen des PSG-Formats.Google Scholar
  44. 49.
    Haas 1987.Google Scholar
  45. 50.
    Slack 1984.Google Scholar
  46. 51.
    Eine rein syntaktisch spezifizierte DCG verwendet Matsumoto 1986, während Huang/Guthrie 1986 eine durch Selektionsrestriktionen (im Sinne von Katz/Fodor 1963) um semantische Kriterien erweiterte DCG-Variante benutzen.Google Scholar
  47. 52.
    Wanner 1987.Google Scholar
  48. 53.
    Kempen/Hoenkamp 1987. Ein Konzept zur lokalen Parallelisierung bei der Verarbeitung von Teilkonstituenten im Rahmen eines Sprachgenerterungssystems beschreibt De Smedt 1990.Google Scholar
  49. 55.
    Steels 1978. Conceptual besitzt hier nicht die Lesart “begrifflich”, sondern “ein theoretisches Konzept (Konstrukt) betreffend”. Konstrukte der Grammatik modellieren dann sowohl akustische (etwa Intonation) wie grammatische Phänomene (z.B. Pluralität oder Modus) oder prototypische linguistische Situationen (Kasusrahmen, Sprechaktkonstellationen o.ä.).Google Scholar
  50. 56.
    Zwei typische Vertreter dieses linguistischen Ansatzes sind DIK 1978 und Halliday 1985.Google Scholar
  51. 57.
    Mann 1982.Google Scholar
  52. 58.
    Feldman/Ballard 1982. Aktuelle Übersichten zum Konnektionismus und dessen Anwendung auf natürlichsprachliche Problemstellungen geben Kemke 1988, Selman 1989 und Diederich 1989.Google Scholar
  53. 59.
    Small/Cottrell/Shastri 1982, Cottrell/Small 1984.Google Scholar
  54. 60.
    Cottrell/Small 1984, S.95–98, 101–105. Ähnliche Ansätze zum konnektionistischen Parsing beschreiben Gigley 1982, Waltz/Pollack 1985, McClelland/Kawamoto 1986 (hier werden besonders Aspekte der Kasusrahmen-Instanziierung und des (Verb-)Lernens betont), Jones 1987 (unter besonderer Beachtung von feature constraints regelbasierter linguistischer Grammatiken) und Nakagawa/Mori 1988 (für ein reines PSG-Format). Konnektio-nistische Ansätze zur Sprachgenerierimg beschreiben Kukich 1987 und Gasser/Dyer 1988.Google Scholar
  55. 61.
    Vgl. etwa die in Charniak 1983 und 1986. Riesbeck/Martin 1986, Norvig 1987 und Tomabechi/Tomita 1988 beschriebenen Parser. Ein marker passing-System zur Sprach-generierung wird in Kalita/Shastri 1990 vorgestellt.Google Scholar
  56. 62.
    Vgl. zu solchen Marker-Typen etwa Tomabechi/Tomita 1988.Google Scholar
  57. 63.
    Heuristiken für diese Variante des parallelen Parsing beschreibt Charniak 1983.Google Scholar
  58. 64.
    Dieses Problem hat seine Entsprechung in der Vielzahl ambiger Strukturbeschreibungen, die (auch serielle) primär mit syntaktischen Regeln operierende Parser produzieren. Lediglich bei Waltz/Pollack 1985, S.65–69 und McClelland/Kawamoto 1986 wird das Konzept se-mantischer Primitive in Form eines mit Aktivierungsgewichten voreingestellten Merkmalsvektors in das Parallelverarbeitungsmodell ansatzweise integriert.Google Scholar
  59. 65.
    In wesentlichen Zügen in Cottrell/Small 1984, S.92–94 skizziert.Google Scholar
  60. 66.
    Eine vergleichbare Skepsis artikuliert Adriaens 1986b, S.215–218. Sie zielt letztlich auf eine unzureichende Staffelung von Abstraktionsebenen zwischen streng subsymbolischen (im engeren Sinn konnektionistischen) und kompositioneilen Prozessen auf der Symbolebene.Google Scholar
  61. 67.
    Diese Kritik äußern auch Fodor/Pylyshyn 1988 bei der Konfrontation konnektionisti-scher Ansätze mit den methodologischen Prinzipien “klassischer” (d.h. symbolmanipulierender) kognitiver Modelle. Letztere haben in dieser Diskussion den Status abstrakter Maschinen, für die konnektionistische Konzepte eine mögliche Implementierungsstrategie beschreiben, aber selbst nicht dem umfassenden Anspruch eines eigenständigen Erklärungsansatzes gerecht werden. Diesen Einwand gegen die Erklärungskapazität konnektionistischer Systeme nimmt Slack 1990 auf und entwickelt ein stratifiziertes, symbolische und konnektionistische Strukturebenen integrierendes Sprachverarbeitungsmodell. Dabei gelingt ihm der Nachweis, daß eine ausschließlich konnektionistische Strukturebene mit eigenem Alphabet und eigenen Operatoren Darstellungsprobleme von (symbolorientierten) LFG-Formalismen (Prozessierung von komplexen Kontrollgleichungen, Behandlung von long-distance dependencies) durch konnektionistische Strukturen beseitigt.Google Scholar
  62. 68.
    Chomsky 1965b.Google Scholar
  63. 69.
    Chomsky 1981, 1982.Google Scholar
  64. 70.
    Proudian/Pollard 1985.Google Scholar
  65. 71.
    Gazdar et al. 1985.Google Scholar
  66. 72.
    Kaplan/Bresnan 1982. Eine Zusammenfassung der Entwicklungslinien, die zur Formulierung eines ausgeprägt lexikalistischen Ansatzes im Rahmen der Theorie der generativen Transformationsgrammatik’führen, beschreiben Hoekstra/v. d. Hulst/Moortgat 1980.Google Scholar
  67. 73.
    Schabes/Abeille/Joshi 1988.Google Scholar
  68. 74.
    Diehl 1981, zit. nach Adriaens 1986b, S.110.Google Scholar
  69. 75.
    Uszkoreit 1986.Google Scholar
  70. 76.
    Zum ursprünglichen Konzept vgl. Fillmore 1968. Eine Übersicht über die daraus erwachsene Vielzahl kasusgrammatischer Ansätze gibt Bruce 1975.Google Scholar
  71. 77.
    Starosta/Nomura 1986.Google Scholar
  72. 78.
    Gross 1984.Google Scholar
  73. 79.
    Harris 1970.Google Scholar
  74. 80.
    Becker 1975.Google Scholar
  75. 81.
    Eine Implementation dieses Ansatzes auf der Basis entwickelter Pattern Matching-Verfahren beschreiben Wilensky/Arens 1980.Google Scholar
  76. 82.
    Hudson 1984.Google Scholar
  77. 83.
    Langacker 1986.Google Scholar
  78. 84.
    Petöfi 1977.Google Scholar
  79. 85.
    Kindermann 1987.Google Scholar
  80. 86.
    Vgl.a. Adriaens 1986b, S.111–112.Google Scholar
  81. 87.
    Hier scheint auch das grundlegende Mißverständnis zu liegen, dem Berwick 1983 bei seinem Versuch, lexikon-basierte Parser (wie Wortexpertensysteme oder Ansätze des konnektionisti-schen Parsing) als ausdrucksschwächere Notationsvarianten der “modernen” Transformationsgrammatik darzustellen (ebd., insbes. S. 409–414), aufsitzt.Google Scholar
  82. 88.
    Dieser Ansatz ist etwa von Petöfi 1971 im Kontext der generativen Transformationsgrammatik verfolgt worden.Google Scholar
  83. 89.
    Small 1983, S.247–248 bzw. S.253–264.Google Scholar
  84. 90.
    Eine entgegengesetzte Position nehmen Polanyi/SCHA 1984 ein, deren Diskursgrammatik durchgängig aus ATNs besteht und Textkohäsions- und -kohärenzstrukturen auf der Grundlage von Repräsentationsstrukturen berechnet, die aus Satzanalysen resultieren. Am auf die Textebene übertragenen Kompositionalitätsprinzip, Textbezüge aus Konstituentenstruktur-daten und assoziierten semantischen Merkmalsbündeln vorangegangener Satzanalysen zu berechnen, wird auch im Kontext einer aktuelleren Reformulierung im Format einer erweiterten kontextfreien Grammatik festgehalten (vgl. Scha/Polanyi 1988).Google Scholar
  85. 91.
    Dies wird in den frühen Arbeiten von Riesbeck 1979 und Cullingford 1981 mit der Vielfalt zu berücksichtigender Wissensquellen und deren Interdependenz eingehend motiviert (gleiche Argumente gelten auch für das Verstehen gesprochender Sprache; vgl. Lesser 1975 und Fennell/Lesser 1977). Aktuelle Aktivitäten sind in einem auf dem spreading activation-Modell (marker passing) beruhenden parallelen Parsing-Ansatz für das Textverstehen bei Granger/Eiselt/Holbrook 1986 beschrieben.Google Scholar
  86. 92.
    Small 1983, S.248.Google Scholar
  87. 93.
    Faktisch bedeutet dies wohl, daß jede Form von Text-Parsing mit authentischen Texten noch auf absehbare Zeit prinzipiell partiell sein wird (s.a. Kap.1.5).Google Scholar
  88. 94.
    Die hier beschriebene Konzeption des lexikalisch verteilten Parsing umreißt ein Modell der Sprachanalyse, dessen konzeptioneller Kern eindeutig in der Entwicklung des “Wortexperten-Parsing” aufgehoben ist. Aufbauend auf der Darstellung des Ursprungsmodells in Rieger 1978a, die deutlich macht, daß die lexikalisch organisierte Bedeutungsselektion der Wortexperten als grundlegendes Konstrukt einer Theorie des Sprachverstehens analog zu commonsense-Problemlösungsstrategien modelliert wird (Rieger 1976, Rieger 1978a, S.98–101), und seiner Konsolidierung in Rieger/Small 1979, fixiert Small 1980 (und das Extrakt dieser Arbeit in Small/Rieger 1982) bzw. Small 1983 und 1987 einen Entwicklungsstand, auf den im folgenden als “Standardmodell” des Wortexperten-Parsing referenziert wird. Kognitions-wissenschaftliche Evidenzen lassen Small besonders von den grundlegenden Kontrollmustern des Standardmodells abrücken (Cottrell/Small 1984, S.99) und führen hin zur Entwicklung eines massiv parallelen konnektionistischen Parsing (Small/Cottrell/Shastri 1982). Die hier beschriebene Form des lexikalisch verteilten Parsing ist Eine eigenständige Modellvariante, die sich durch die Umorientierung der linguistischen Beschreibungsphilosophie und die formalen und empirischen Erweiterungen (s. Kap. 1.4 (1)–(8)) vom Standardmodell des Wortexperten-Parsing unterscheidet. Diese sprachmethodischen Bemühungen stimmen in einigen Teilbereichen mit den in Eimermacher 1983a und 1983b beschriebenen Fortschreibungen des Wortexperten-Konzepts überein.Google Scholar
  89. 96.
    Die große lexikalische Bedeutungsvarianz (Ambiguität), die ein einzelnes lexikalisches Element isoliert betrachtet i.a. kennzeichnet, wird durch die Kombination mit anderen lexikalischen Einheiten in sprachlichen Äußerungskontexten weitgehend reduziert, da sich viele dieser Varianten wechselseitig ausschließen. Die Modellierung dieses lexikalisch organisierten Diskriminierungsprozesses steht im Mittelpunkt des Konzepts lexikalisch verteilter Grammatiken. Jedes lexikalische Objekt der Sprache wird als ein solcher Diskriminierungsprozeß modelliert, der die Verträglichkeit seiner individuellen Bedeutungspalette im Kontext seiner jeweiligen lexikalischen Umgebung im Text sondiert und daraufhin zu einer Entscheidung über seine funktionale Rolle in der zugrunde liegenden sprachlichen Äußerung gelangt (vgl. zu strategischen Varianten der lexikalischen Disambiguierung im Textkontext Granger/Holbrook/Eiselt 1984). Im Kontext der hier entwickelten Lösung spielt jedoch weniger die Diskriminierung von Bedeutungsvarianten, sondern die Bestimmung von plausiblen konzeptuel-len Relationen zwischen im Text ko-okkurrierenden lexikalischen Einheiten die Hauptrolle.Google Scholar
  90. 97.
    Eine Theorie der Syntax natürlicher Sprachen modelliert unter dieser Perspektive lediglich einige der stereotypen Grundmuster lexikalischer Interaktionen, die der kontextbezogenen Bedeutungsvielfalt einzelner lexikalischer Elemente nicht gerecht wird und Anlaß für die kontinuierliche Nachbesserung konventioneller grammatischer Beschreibungen ist; vgl. Small 1980, S.2.Google Scholar
  91. 98.
    Das in Kap.4 beschriebene textgrammatische System bezieht seine (konzeptueilen) Erwartungen aus den Strukturen der zugrunde liegenden (Frame-)Wissensbasis. interpretiert also vorab spezifizierte Weltwissenstrukturen im Sinne von semantischen Ko-Okkurrenzrestrik-tionen zwischen im Text gemeinsam auftretenden lexikalischen Einheiten. Damit reduziert sich die Komplexität der semantischen Grammatik ganz erheblich, da die strukturellen Details der Wissensrepräsentation für die konzeptuelle Modellierung der jeweiligen Diskursdomäne in einer analytisch von der Modellierung des Sprachwissens abgetrennten Komponente betrieben werden. Sie sind somit von der Formulierung grammatischer Regularitäten weitgehend entkoppelt, so daß auf relativ hoher Konzeptualisierungsstufe angesiedelte Konstrukte (vgl. Kap.3.1) für die semantische Grammatik bereitgestellt werden können (dieser Zusammenhang ist für die Modellierung semantischer Parser bereits früh erkannt (etwa Hawkinson 1975, S.109), aber selten genug realisiert worden). Die Annahme interpretationsleitenden und -erleichternden Hintergrundwissens für das Textverstehen in Form komplexer konzeptueller Schemata (wie Frames, Scripts oder thematic abstraction units) wird im übrigen durch eine Fülle kognitionswissenschaftlicher Experimente gestützt (vgl. etwa den UYL/van Oostendorp 1980, Haberlandt/Bingham 1982, Seifert/Dyer/Black 1986).Google Scholar
  92. 99.
    Vgl. etwa den strikt auf die Erfüllung seiner konzeptuellen Erwartungen ausgelegten ELI-Parser (Riesbeck/Schank 1978), der bei Nichterfüllung eines semantischen Erwartungsrahmens das gesamte Muster, aus dem die Erwartung abgeleitet wurde, verwirft und nach einem Backtracking ein neues Muster mit neuen bindenden Erwartungen instanziiert.Google Scholar
  93. 101.
    Marcus 1980, S. 14–25, Kap.3 (S.39–54).Google Scholar
  94. 102.
    Vgl. Small 1980, S.3–4, 12, 42–45, 207–211; Hahn/Reimer 1983, S.64–65.Google Scholar
  95. 103.
    Rieger 1978a, S.103; Rieger/Small 1979, S.728; Small 1980, S.27–35; Small/Rieger 1982, S.90–91.Google Scholar
  96. 104.
    Auch Small verkennt nicht, daß linguistische Generalisierungen durchführbar seien und ggf. sogar in das Wortexpertenkonzept integriert werden sollten (Small 1980, S. 198–199, 201–202). Offenbar folgt er sogar einem taktischen Kalkül und bezieht einen möglichst provozierenden Standpunkt, um die Unterschiede zum regelbasierten Ansatz um so deutlicher hervortreten zu lassen (Small 1980, S. 199).Google Scholar
  97. 105.
    Rieger/Small 1979, S.728; Small 1980, S.3–4; insbesondere aber Small/Lucas 1983, S.9–10 und S.48–57 sowie Adriaens 1986b, S.191–218 mit einer intensiven Diskussion kog-nitionswissenschaftlicher Evidenzen für die wesentlichen Analysestrategien des Wortexperten-Parsers.Google Scholar
  98. 106.
    Dies gesteht auch Small ein (Small 1980, S.6). Bei der Entwicklung massiv paralleler Sprachverstehensmodelle trifft dieser Vorwurf nicht länger zu, da sie explizit neurophysio-logische, -linguistische und kognitionspsychologische Befunde in die Modellierung mit einfließen lassen (vgl. etwa Cottrell/Small 1984, S.92–94).Google Scholar
  99. 107.
    Vgl.a. Hahn 1987.Google Scholar
  100. 108.
    vgl. Small 1980, Kap. 3 zur Organisation des Wortexperten-Modells.Google Scholar
  101. 109.
    vgl. Eimermacher 1983a.Google Scholar
  102. 110.
    Die Verbesserung gegenüber dem ursprünglichen Modellzustand wird am Unterschied zwischen dem Spezifikationsfragment der Experten für das lexikalische Element “deep” vor (Small 1980, S. 48) und nach (dto., S. 102) Einführung der Spezifikationssprache deutlich. Der wesentliche Fortschritt ist darin begründet, daß ursprünglich beliebige Kanten- und Knotenbeschriftungen der Entscheidungsnetze von Wortexperten vorgenommen werden konnten, sie in der von Small eingeführten Form jedoch in die Beschreibungsdisziplin einer zumindest syntaktisch definierten Spezifikationssprache eingebunden werden (s.a. Small 1980, S. 143).Google Scholar
  103. 111.
    Diesen Mangel erkennt auch Small (Small 1980, S. 192–193).Google Scholar
  104. 112.
    Small 1980, S. 199.Google Scholar
  105. 113.
    Einen ähnlichen Ansatz verfolgt auch Eimermacher 1983a. S. 9–15, der durch die Anbin-dung seines Wortexperten-Parsers an die logische Repräsentationssprache (M)SRL (Habel/Reddig/Rollinger 1981) als Zielsprache des semantischen Parsing ebenfalls eine modell-seitige Abgrenzung zwischen der Repräsentation des Welt- und Sprachwissens erzielt.Google Scholar
  106. 114.
    Small 1980, S. 103–115.Google Scholar
  107. 115.
    Die Interaktionssprache LIL ermöglicht, das Verhalten eines Wortexperten, nicht jedoch das interagierender Experten zu beschreiben; vgl. a. Small 1980, S. 51–52.Google Scholar
  108. 116.
    Einen Vorschlag zur Parallelisierung des klassischen Wortexpertenmodells durch program-miersprachliche Konstrukte (Flat Concurrent Prolog) machen Devos/Adriaens 1990.Google Scholar
  109. 117.
    Rieger/Small 1979, S. 728; Small 1980, S. 198.Google Scholar
  110. 118.
    Ein vergleichbares Anliegen verfolgt auch Eimermacher, der strukturelle semantische (durch standardisierte “Metaeinträge” in Eimermacher 1983a, S.28–32) und syntaktische (u.a. durch Wortstammexperten und auf Wortartenverbände rekurrierende Wortartexperten in Eimermacher 1983b, S.11–22) Gemeinsamkeiten im Sinne von Erwartungen der Wortexperten generalisiert. In die gleiche Richtung zielt auch der Vorschlag zur Spezifikation von Experten-Prototypen bei Kindermann 1987. Eine gesteigerte Abstraktion von Wortexpertenbeschreibungen streben auch Devos/Adriaens 1990 an. Jedem Experten ist eine eigene Datenstruktur (expert frame) zugeordnet, in der funktionale, konzeptuelle und lexikalische Attribute auf unterschiedlichen Aggregationsstufen (entsprechend dem Stand und den Ebenen der linguistischen Analyse, etwa morphologische Abhängigkeiten, syntaktische Konstituenz u.ä.) zusammengefaßt sind und damit auch die flache, ausschließlich lexikalisch orientierte Beschreibung des Standardmodells aufgegeben wird.Google Scholar
  111. 119.
    Eine Liste verfügbarer Wortexperten für das Englische enthält Appendix B in Small 1980, S. 219–241. Vergleichbaren Umfang hat die Wortexpertenkollektion für das Holländische in Adriaens 1986b, Appendix 2 (S. 231–263).Google Scholar
  112. 120.
    Obwohl seine Einbettung in das Textverstehenssystem Grind (Rieger 1978b) in mehreren Arbeiten (Small 1978, S. 13, Rieger/Small 1979, S. 725, 726) angesprochen wird, sind alle veröffentlichten Parse-Beispiele und Spezifikationen von Wortexperten (s. etwa Small 1980, S. 10, 242 und Appendix C, Small/Rieger 1982, S. 113–146) eindeutig satzorientiert. Die fehlende Beachtung textueller Phänomene (wie Fokus) spricht Small 1980, S. 94–97 sogar explizit an.Google Scholar
  113. 121.
    Das empirische Problem der Textanalyse (s.a. Kap. 1.1) gab den entscheidenden Impuls für die hier zusammenfaßten konzeptionellen Arbeiten zur lexikalisch verteilten Grammatik; s. Hahn/Reimer 1983 und Hahn 1984.Google Scholar
  114. 122.
    Ausgenommen davon sind Parser, die bewußt auf die Simulation menschlicher Verarbeitungsstrategien, wie etwa dem am “Querlesen” von Texten orientierten skimming (DeJong 1979) ausgelegt sind.Google Scholar
  115. 123.
    Indikative Abstracts beschreiben die thematische Struktur eines Dokuments. Sie referen-zieren damit primär auf den Originaltext im Unterschied zu informativen Referaten, die so präzise Textzusammenfassungen enthalten, daß sie das Original ggf. sogar ersetzen. Kritische Referate evaluieren das Bezugsdokument unter Vorgabe von bestimmten Einschätzungsparametern, wobei die Grenzen zur Synopse naturgemäß fließend sind. Zur Typologie von Abstracts vgl. Borko/Bernier 1975. S. 13–20.Google Scholar
  116. 124.
    Dabei zur Anwendung kommende Methoden sind in Hahn 1986 beschrieben.Google Scholar
  117. 125.
    Vorschläge zur partiellen Analyse von Texten sind in vielen Anwendungsumgebungen der informationellen Sprachanalyse ausgearbeitet worden. Im Information Retrieval sind nach der Phase der rein lexikalischen Keyiuord-Analyse besonders Parser für Nominalgruppen entwik-kelt worden. Eines der frühen Beispiele ist im Leader-System für Volltext-Retrieval beschrieben (Hillman/Kasarda 1969), einen für die Zwecke des Indexing entworfenen syntaktischen Parser für Nominalphrasen beschreibt Rostek 1979, eine “flache” syntaktische Konstituentenstrukturanalyse mit gezielt verarmten Dependenzstrukturen für die Übersetzung einer eingegrenzten Klasse von Sachtexten (Stellenanzeigen) stellen Buchmann/Warwick/Shann 1984 vor. Für das semantische Parsing verallgemeinern Schank/Lebowitz/ Birnbaum 1980 das im FRUMP-System (DeJong 1982) experimentell erprobte skimming zum Konzept des “integrierten Parsing”, das auf der Spezifikation strukturell ausgedünnter (sketchy)Scripts beruht. Eine methodische Variante dazu, die auf gewichteten Produktionsregeln beruht, beschreiben Kayser/Coulon 1981.Google Scholar
  118. 126.
    Damit steht diese Arbeit im Kontext anderer konzeptueller Ansätze zur semantischen Analyse von Nominalstrukturen, wie etwa von Gershman 1982, Birnbaum/Selfridge 1981. Lebowitz 1983 und Finin 1986.Google Scholar
  119. 127.
    Das wurde bereits in frühen Entwürfen zu Abstracting-Systemen erkannt. Rush/Salvador/Zamora 1971 verwenden eine vergleichsweise stabile Wortliste, die als Berechnungsgrundlage für die Zurückweisung bzw. den Einschluß von solchen Sätzen in ein Extrakt dient, die einen entsprechenden Hinweischarakter auf inhaltlich (in)signifikante Textpassagen haben. Ihre kommunikative und organisationale Funktion für die Kohärenz von Argumentationsdialogen beschreibt Cohen 1984, in bezug auf Kohärenzrelationen in schriftsprachlichen Texten Winter 1978.Google Scholar
  120. 128.
    Linguistische Evidenzen für die Denotierung von Diskursthemen durch nominale Ausdrücke entwickelt Bayer 1980, die mit experimentellen Untersuchungen zu Produktionsstrategien beim manuell-intellektuellen Abstracting (Smetacek/Königova 1977) übereinstimmen. Ähnliche Argumente für das Indexing und Retrieval entwickeln Hillman/Kasarda 1969.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 1990

Authors and Affiliations

  1. 1.Fakultät für Mathematik und InformatikUniversität PassauPassauDeutschland

Personalised recommendations