Abstract
-------------
Die Anzahl der Parameter einer Modellklasse, zum Beispiel eines Neuronalen
Netzes, wird gerne als Maß für die Komplexität des Modells verwendet. Die Anzahl der Trainingsdaten und Anzahl der Modellparameter werden gerne zueinander in Beziehung gesetzt, um die Lösbarkeit des Lernproblems abzuschätzen. An einem einfachen Beispiel wird gezeigt, dass diese Betrachtung völlig versagen kann. Es wird eine Funktion mit nur einem Parameter vorgestellt, mit der jeder Datensatz beliebig genau approximiert werden kann. Dies sind keine neuen Erkenntnisse, haben jedoch durch eine aktuelle Publikation
https://colala.bcs.rochester.edu/papers/piantadosi2018one.pdf
erneut zu Überraschungen und Diskussionen in der Community geführt.
Ort: s.t. INB Seminarraum (Geb. 64, 1. OG, Raum 17)