Skip to main content

Zusammenfassung

In diesem Kapitel sind wieder die Merkmalsvektoren zweier Klassen gegeben, die möglichst gut voneinander getrennt werden sollen. Im Fall der linearen Trennbarkeit wird nicht irgendeine trennende Hyperebene gesucht, sondern eine solche, für die der Abstand der orthogonalen Projektionen von zwei Punkten verschiedener Klassen auf eine durch den Stellungsvektor gegebene Gerade durch eine möglichst große Schranke nach unten abgeschätzt werden kann. Falls eine lineare Trennung nicht möglich ist, wird eine angepasste Zielfunktion verwendet, die sich von der Zielfunktion des vorigen Kapitels unterscheidet. Dies führt auf ein einfaches quadratisches Optimierungsproblem mit linearen Nebenbedingungen. Es erweist sich als vorteilhaft, das dazu duale Problem zu lösen, woraus man dann die Lösung des ursprünglichen Problems erhält. Die notwendigen Grundlagen aus der restringierten quadratischen Optimierung werden bereitgestellt. Die aus den vorigen Kapiteln bekannte Idee zur Einbeziehung von Nichtlinearitäten wird ebenfalls verwendet, hier werden die neuen Merkmale aber nicht explizit, sondern nur implizit über gewisse Kerne erzeugt. Dazu müssen dann Kerne charakterisiert werden. Ein elementarer Algorithmus zur Lösung des dualen Problems schließt dieses Kapitel ab.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

eBook
USD 14.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 19.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Konrad Engel .

Rights and permissions

Reprints and permissions

Copyright information

© 2024 Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Engel, K. (2024). Support-Vektor-Maschinen. In: Mathematische Grundlagen des überwachten maschinellen Lernens. Springer Vieweg, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-68134-3_5

Download citation

Publish with us

Policies and ethics