Training eines kleinen neuronalen Netzes
Ordne die Begriffe den entsprechenden Beschreibungen zu!
Klicke auf die jeweiligen Punkte, die du verbinden möchtest.
-
Hohe Lernrate
-
Niedrige Lernrate
-
Viele Epochen
-
Weniger Epochen
-
Hohe Sample Size
-
Bessere Modellanpassung durch wiederholtes Lernen, aber Risiko für Overfitting
-
Modell lernt schnell, kann aber instabil werden und wichtige Muster überspringen.
-
Kürzere Trainingszeit, aber Modell bleibt oft untertrainiert.
-
Modell lernt langsamer, aber der Trainingsprozess ist stabiler und zuverlässiger.
-
Besseres Generalisierungsvermögen, da das Modell auf vielfältigeren Daten lernt.
