Literatur vom gleichen Autor/der gleichen Autor*in
plus bei Google Scholar

Bibliografische Daten exportieren
 

Statistische Eigenschaften lokalisierter maschineller Lernverfahren

Titelangaben

Dumpert, Florian:
Statistische Eigenschaften lokalisierter maschineller Lernverfahren.
Bayreuth , 2020 . - ix, 81 S.
( Dissertation, 2020 , Universität Bayreuth, Fakultät für Mathematik, Physik und Informatik)
DOI: https://doi.org/10.15495/EPub_UBT_00004600

Volltext

Link zum Volltext (externe URL): Volltext

Angaben zu Projekten

Projektfinanzierung: Deutsche Forschungsgemeinschaft

Abstract

Neben anderen Methoden des maschinellen Lernens spielen Support Vector Machines (SVMs) heute in vielen Wissenschaftsbereichen eine wichtige Rolle. In den letzten zwei Jahrzehnten wurde beträchtlich im Bereich statistischer Eigenschaften und der Berechenbarkeit von Support Vector Machines und verwandten kernbasierten Methoden geforscht. Auf der einen Seite ist man aus statistischer Sicht an der Konsistenz und Robustheit der Methode interessiert. Auf der anderen Seite, aus Sicht der Berechenbarkeit, ist man an einer Methode interessiert, die mit vielen Beobachtungen und vielen erklärenden Variablen umgehen kann. Da SVMs viel Rechenleistung und Speicherkapazität benötigen, wurden verschiedene Möglichkeiten zur Handhabung großer Datensätze vorgeschlagen. Eine davon, die als Regionalisierung bezeichnet wird, teilt den Raum der erklärenden Variablen datengesteuert in möglicherweise überlappende Bereiche auf und definiert den Prädiktor durch das Zusammenspiel lokal erlernter Support Vector Machines. Diese Arbeit zeigt, dass ein so erlernter Prädiktor Konsistenz und Robustheitseigenschaften unter Annahmen bewahrt, die vom Anwender dieser Methode geprüft werden können.

Abstract in weiterer Sprache

Among different machine learning methods, support vector machines (SVMs) play an important role in many fields of science nowadays. A lot of research about statistical and computational properties of support vector machines and related kernel methods has been done during the last two decades up to now. On the one hand, from a statistical point of view, one is interested in consistency and robustness of the method. On the other hand, from a computational point of view, one is interested in a method that can deal with many observations and many features. As SVMs need a lot of computing power and storage capacity, different ways to handle big data sets were proposed. One of them, which is called regionalization, divides the space of the declaring variables into possibly overlapping regions in a data driven way and defines the output predicting function by composing locally learnt support vector machines. This thesis shows that a predictor learnt in this way conserves consistency and robustness results under assumptions that can be checked by the user of this method.

Weitere Angaben

Publikationsform: Dissertation
Keywords: localized learning; support vector machines; universal consistency; robustness
Institutionen der Universität: Fakultäten > Fakultät für Mathematik, Physik und Informatik > Mathematisches Institut > Lehrstuhl Mathematik VII - Stochastik > Lehrstuhl Mathematik VII - Stochastik - Univ.-Prof. Dr. Andreas Christmann
Fakultäten
Fakultäten > Fakultät für Mathematik, Physik und Informatik
Fakultäten > Fakultät für Mathematik, Physik und Informatik > Mathematisches Institut
Fakultäten > Fakultät für Mathematik, Physik und Informatik > Mathematisches Institut > Lehrstuhl Mathematik VII - Stochastik
Titel an der UBT entstanden: Ja
Themengebiete aus DDC: 500 Naturwissenschaften und Mathematik > 510 Mathematik
Eingestellt am: 08 Feb 2020 22:00
Letzte Änderung: 10 Jul 2020 11:58
URI: https://eref.uni-bayreuth.de/id/eprint/54309