[go: up one dir, main page]

Robust Training of Artificial Neural Networks via p-Quasinorms

  • Data used for the purpose of machine learning are often erroneous. In this thesis, p-quasinorms (p<1) are employed as loss functions in order to increase the robustness of training algorithms for artificial neural networks. Numerical issues arising from these loss functions are addressed via enhanced optimization algorithms (proximal point methods; Frank-Wolfe methods) based on the (non-monotonic) Armijo-rule. Numerical experiments comprising 1100 test problems confirm the effectiveness of the approach. Depending on the parametrization, an average reduction of the absolute residuals of up to 64.6% is achieved (aggregated over 100 test problems).

Volltext Dateien herunterladen

Metadaten exportieren

Weitere Dienste

Teilen auf Twitter Suche bei Google Scholar
Metadaten
Verfasserangaben:Stefan Geisen
URN:urn:nbn:de:hbz:385-1-14359
DOI:https://doi.org/10.25353/ubtr-xxxx-0afe-e122
Betreuer:Ekkehard Sachs, Volker Schulz
Dokumentart:Dissertation
Sprache:Englisch
Datum der Fertigstellung:29.06.2020
Veröffentlichende Institution:Universität Trier
Titel verleihende Institution:Universität Trier, Fachbereich 4
Datum der Abschlussprüfung:26.06.2020
Datum der Freischaltung:06.08.2020
GND-Schlagwort:Maschinelles Lernen; Neuronales Netz; Optimierung
Institute:Fachbereich 4
DDC-Klassifikation:5 Naturwissenschaften und Mathematik / 51 Mathematik / 510 Mathematik
Lizenz (Deutsch):License LogoCC BY-NC-ND: Creative-Commons-Lizenz 4.0 International

$Rev: 13581 $