Advertisement

Das Besondere und das Allgemeine an der Entwicklung der Expertensystemtechnik

Chapter
  • 35 Downloads
Part of the Informatik-Fachberichte book series (INFORMATIK, volume 229)

Zusammenfassung

Der Computer ist vielfach erfunden worden. Charles Babbages Maschine scheiterte eher an den Verbohrtheiten ihres Konstrukteurs und daran, daß sich Babbage mit seinem Mechaniker überwarf, als an prinzipiellen Unzulänglichkeiten. Mit Hermann Holleriths Lochkarten war es zwar möglich, die Verwaltung großer Datenbestände einschließlich Sortieren, Vervielfältigen und Mischen zu maschinisieren, aber die universelle Manipulation von Daten wurde erst durch den Einsatz elektromechanischer und elektronischer Mittel praktikabel. Der Zugang zu diesen Manipulationen geschah über die Ausweitung des Begriffs ‘Berechnung’; mit der Kombination von Rechenmaschinen und Datenverarbeitung entstand die neue Technik der Elektronischen Datenverarbeitung (EDV). Alan M. Turings theoretische Arbeiten haben ab 1936 diese Kombination von Rechnen, Manipulation von Symbolen und Datenverarbeitung beschrieben; seine praktischen Arbeiten während des zweiten Weltkrieges wurden erst in den letzten Jahrzehnten bekannt. Auch hierin scheiterte er am Zwang zur Geheimhaltung. Konrad Zuse arbeitete seit 1935 an einer digitalen Rechenmaschine. Seine Versuche, die Luftwaffe von der universellen Nützlichkeit seiner Maschine zu überzeugen, prallte auf das Verdikt eines deutschen Luftwaffengenerals, der ihm bündig beschied „Die deutsche Luftwaffe ist tadellos, was braucht da noch berechnet zu werden“ [381]. Zuses Arbeiten zielten genau wie die US-amerikanischen Entwicklungen John Atanasoffs sowie Vannevar Bushs und Norbert Wieners Forschungen auf die Verbesserung des maschinellen Rechnens.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 6.
    “Of course the computer can also be used to lie. There are four canonical forms of the lie: commission, omission, statistics, graphs. And now there is also Visicalc” [139].Google Scholar
  2. 7.
    so wie Konrad Zuse sich um 1935 als Bauingenieur über die stets gleichen, aber umfangreichen statischen Berechnungen ärgerte.Google Scholar
  3. 8.
    Friedrich Lüthe: Ist Cobol wirklich ein alter Hut? Aus Topix Nr. 9, September 1988.Google Scholar
  4. 9.
    Allein in den USA sind lt. Information Quarterly vom Dez. 88 über 17 Mio. PCs installiert; nach einer detaillierten Untersuchung von Storeboard Inc. (zitiert nach der PC-Woche vom 13.2.89) wurden dort 1988 knapp 2,8 Mio. Geräte verkauft. In der Bundesrepublik wird die Zahl der 1987 verkauften (und professionell eingesetzten) Geräte auf 570000 geschätzt. Für 1989 wird von mbp ein PC-Bestand von über 4 Mio. Geräten in der BRD erwartet.Google Scholar
  5. 10.
    Meyrowitz ist Leiter der Forschungsförderung des U.S. Office of Naval Research, zitiert nach Newsletter Digest, p.50, Sept. 1988.Google Scholar
  6. 11.
    Nicht immer. Vgl. [77].Google Scholar
  7. 12.
    Tausend Worte kann als eine aktuelle praktische Grenze angesehen werden. Dies mag für eingeschränkte, aber dennoch interessante Anwendungen genügen. Ein Sprechschreiber müßte allerdings den gesamten Wortschatz umfassen (einschließlich der ad hoc-Verbindungen zusammengesetzter Hauptworte, die im Deutschen so häufig sind). Für die deutsche Sprache ergeben sich dann mehrere hunderttausend Wörter.Google Scholar
  8. 13.
    Zitiert aus [374]. Leider nehmen die Informatiker und KI-Forscher Wittgenstein, wenn überhaupt, nur bis zum Jahr 1918 wahr (in dem er das Vorwort zum Tractatus geschrieben hat).Google Scholar
  9. 14.
    Eine formale logische Schlußfolgerung bezeichnet man als ‘Deduktion’ oder unter dem Einfluß der englischen und französischen Sprache als ‘Inferenz’. ‘Inferenzmaschinen’ oder ‘Inferenzmechanismen’ können im Sinne der Programmiertechnik als Interpreter verstanden werden.Google Scholar
  10. 15.
    Über die Problematik dieser Begriffsbildung vgl. Kapitel 3.Google Scholar
  11. 16.
    Vgl. Dreyfus [109], p.149. 1977 spielte das Samuel-Programm gegen ein nicht ‘lernfähig’ gestaltetes Programm von E.Jensen und T.Truscott. Nach Samuels Bericht in [325] war dieses neue Programm seinem eigenen leicht überlegen.Google Scholar
  12. 17.
    John McCarthy hat die Formalisierung von Alltagswissen von Anfang an als sein ‘persönliches Forschungsprogramm’ in der KI gesehen (vgl. den 1958 erschienenen Aufsatz “Programs with Common Sense” [215]).Google Scholar
  13. 18.
    das japanische ‘Electronic Dictionary Research’ Projekt.Google Scholar
  14. 19.
    Auf der anderen Seite können natürlich auch vollständig spezifizierbare Aufgaben mit regelbasierten Programmiermethoden behandelt werden, was sich besonders für solche Anwendungsfelder empfiehlt, die (recht gut) spezifizierbar sind, aber ständigen zeitlichen Änderungen unterliegen: sind sind leichter programmierbar, da leichter wartbar, als in herkömmlichen Programmiersprachen.Google Scholar
  15. 20.
    Solche Probleme werden im Informatiker-Jargon ‘ill-defined’ genannt.Google Scholar
  16. 21.
    Es sind Expertensysteme denkbar, deren Aufgabenstellung vollständig algorithmisch definiert ist, und die deshalb ‘fertig’ sein können. Solche Systeme sind vermutlich besser in herkömmlicher Programmiertechnik zu erstellen.Google Scholar
  17. 22.
    In der Praxis der Softwaretechnik kann diese Unterscheidung nicht durchgehalten werden, da eine vollständige algorithmische Spezifikation großer Programme kaum möglich ist.Google Scholar
  18. 23.
    A.W. Burks in der Einleitung zu J. von Neumanns “Theory of self-reproducing automata”. Von Neumann spricht übrigens nicht von Programmiersprache, sondern von ‘Short Code’ im Gegensatz zum ‘Complete Code’, der Maschinensprache.Google Scholar
  19. 24.
    Dieser Zusammenhang wird in [92] etwas breiter entfaltet.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 1989

Authors and Affiliations

  1. 1.Universität Bremen, InformatikBremen 33Deutschland

Personalised recommendations