Skip to main content
  • 3404 Accesses

Zusammenfassung

Methoden zur Auswertung multivariater Messgrößen behandeln mehrere Eingangsvariablen in deren Zusammenhang gleichzeitig und repräsentieren ihre Attribute als Gesamtmerkmal. Diese Methoden sind nicht nur für die Effizienz der Verarbeitung der Messgrößen wichtig, sondern es kann zu falschen Schlussfolgerungen kommen, wenn der Einfluss der Messgrößen jeweils einzeln, d. h. univariat ausgewertet wird. Kommt bei der letztgenannten Art der Auswertung eine zweite Variable hinzu, muss deren Einfluss bei der Messwertbestimmung beispielsweise mit einem Kennlinienfeld oder einer Kompensationsrechnung berücksichtigt werden. Bei mehreren Einflüssen und damit multivariaten Messgrößen erhöht sich der Aufwand bei dieser Vorgehensweise beträchtlich. Bei nichtlinearen Verhältnissen wird die Realisierung noch aufwendiger und damit meist praktisch nicht mehr durchführbar. Künstliche neuronale oder auch konnektionistische Netze sind dagegen gut geeignet, multivariate Messgrößen effizient zu verarbeiten.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 69.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Unter neuronal werden im Zusammenhang mit KNN neuronenähnliche Netze verstanden.

  2. 2.

    Siehe dazu im Glossar in Anhang K.7 die unter KNN und Statistik ihrem Äquivalent in der Statistik gegenübergestellten Begriffe.

  3. 3.

    In Matlab geschriebene m-files sind als C-Code auf andere Systeme übertragbar, z. B. in Mikrokontroller.

  4. 4.

    Siehe Anhang F, Architekturen.

  5. 5.

    Eine nach grundsätzlichen Eigenschaften der KNN geordnete Übersicht befindet sich im Anhang D in Tab. D.1.

  6. 6.

    Diese könnte auch ein leistungsfähiger Rechner sein, der über das Internet angekoppelt wird.

  7. 7.

    Siehe dazu Nachteile klassischer KNN in Abschn. 2.4.

  8. 8.

    Cross-Validierung zur Überprüfung der Generalisierungsfähigkeit [6, S. 182].

  9. 9.

    Genauere Beschreibung im Anhang F.4.

  10. 10.

    Zu nennen sind in diesem Zusammenhang das Projekt ENZO – der evolutionäre Netzwerkoptimierer ENZO ist frei verfügbar (Evolutionärer Netzwerkoptimierer) [1] – und ein Forschungsbericht Modellierung räumlicher Interaktionen mithilfe evolutionär optimierter neuronaler Netze [4] in Verbindung mit dem Projekt ENZO.

  11. 11.

    Abschn. 1.5, Naturnahe Strategien.

  12. 12.

    Um ein deterministisches Verhalten zu garantieren, müssen bei technischen Systemen die Freiheitsgrade (wie in Abschn. 2.2 diskutiert) wohlüberlegt zugelassen werden.

  13. 13.

    Siehe dazu Abschn. 2.5, RBF-Netze.

  14. 14.

    Der in Bruskes Arbeit vorgeschlagene Weg, die Adaptivität des Systems an dessen Leistungsmerkmale zu koppeln, erscheint vielversprechend. Es sind jedoch noch weitere theoretische und experimentelle Untersuchungen notwendig, um die endgültige Bandbreite dieses Konzeptes erfassen zu können [2].

  15. 15.

    Die Eigenschaften voll transparent, teilweise transparent und nicht transparent in Bezug auf Einheiten, die Verbindungen oder Verknüpfungen zwischen Ausgängen und Eingängen enthalten, werden im Englischen mit den Begriffen White-Box, Grey-Box und Black-Box bezeichnet.

Literatur

  1. Braun H, Feuler J, Malaka R (1996) Praktikum Neuronale Netze. Springer Verlag, Berlin and Heidelberg

    Book  Google Scholar 

  2. Bruske J, Sommer G (1995) Dynamic cell structure learns perfectly topology preserving map. In Neural Computation vol. 7:S. 845–865

    Article  Google Scholar 

  3. Domingos (2015) The Master Algorithm. BASIC BOOKS, New York

    Google Scholar 

  4. Fischer MM, Koch A, Reismann M (2001) Neuronale räumliche Interaktionsmodelle: Modellspezifikation und Parameterschätzung mit Hilfe eines evolutionären Netzwerkoptimierers. In: Josef Strobl, Thomas Blaschke, Gerald Griesebner (ed) Angewandte Geographische Informationsverarbeitung XIII. Beiträge zum AGIT-Symposium Salzburg 2001, Wichmann Verlag, pp 148–154, URL http://www.rwth-aachen.de/geo/Ww/deutsch/NeuronaleNetzeKoch.pdf

  5. Foerster Hv (1993) KybernEthik, Internationaler Merve-Diskurs & Perspektiven der Technokultur, vol 180. Merve-Verl., Berlin

    Google Scholar 

  6. Masters T (1995) Advanced algorithms for neural networks: A C++ Sourcebook. John Wiley & Sons, Inc, New York, Chichester, Brisbane, Toronto, Singapore

    Google Scholar 

  7. Osuna E, Freund R, Girosi F (1997) Improved Training Algorithm for Support Vector Machines: Pavel Laskov Department of Computer and Information Sciences University of Delaware Newark, DE 19718. Report, University of Delaware, Newark

    Book  Google Scholar 

  8. Platt JC (1998) A Fast Algorithm for Training Support Vector Machines: Technical Report MSR-TR-98-14. URL http://pdfs.semanticscholar.org/59ee/e096b49d66f39891eb88a6c84cc89acba12d.pdf

    Google Scholar 

  9. Schlagner S, Strehlau U (2004) Fourier-Analyse versus Wavelet-Analyse: Ein Vergleich von Fourier- und Wavelet-Transformation bei der Signalanalyse von stationären und instationären Zeitfunktionen: Zugl.: Berlin, Techn. Univ., Diplomarbeit, 2004. Shaker, Aachen

    Google Scholar 

  10. Schoeneberg KP (2014) Komplexität – Einführung in die Komplexitätsforschung und Herausforderungen für die Praxis. In: Schoeneberg KP (ed) Komplexitätsmanagement in Unternehmen, Springer Gabler, Wiesbaden, pp 13–27, https://doi.org/10.1007/978-3-658-01284-7_2

    Chapter  Google Scholar 

  11. Schölkopf B, Burges, Christopher, J C, Smola AJ (1999) Advances in Kernel Methods. The MIT Press, Cambridge, Massachusetts, London, England

    Google Scholar 

  12. Schöneburg E, Heinzmann F, Feddersen S (1994) Genetische Algorithmen und Evolutionsstrategien. Addison-Wesley (Deutschland)GmbH,NOTE = (Deutschland), Bonn and Paris, Reading u.a

    Google Scholar 

  13. Sedgewick R (2002) Algorithmen und Datenstrukturen. Pearson Studium, München

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Sartorius, G. (2019). Einleitung. In: Erfassen, Verarbeiten und Zuordnen multivariater Messgrößen. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-23576-5_1

Download citation

Publish with us

Policies and ethics