Notationen¶
Neuronale Netzwerke¶
Ein hochgestelltes (i) beschreibt den ith Trainingssatz. Ein hochgestelltes [l] beschreibt den lth layer.
Dimensionen¶
m |
Anzahl Beispiele im Datensatz |
nx |
Input-Werte |
ny |
Ergebnisse |
\(n ^{\text{[l]}}_{\text{h}}\) |
Anzahl der Hidden Einheiten im l-ten Layer |
\(a ^{\text{[l]}}\) |
Aktivierungsfunktionen im Layer l |
\(w ^{\text{[l]}}\) |
Gewichtungen im Layer l |
In einer for - Schleife ist auch folgende Schreibweise möglich \(n_x = n ^{\text{[0]}}_{\text{h}}\) und \(n_y = n ^{\text{[number of layers + 1]}}_{\text{h}}\) |
|
L |
Anzahl Layer im Netzwerk |
log |
im Machine Learning Kontext ist damit der natürliche Logarithmus ln gemeint. |
Zurück zu Notationen
Objects¶
Zurück zu Notationen
Beispiele für typische Forward Propagation Gleichungen¶
Zurück zu Notationen
Beispiele für Kostenfunktionen¶
Zurück zu Notationen
Matrixdimensionen¶
Bei der Berechnung eines NN vektorisiert man die einzelnen Variablen im Modell. Beim Debuggen ist es hilfreich, wenn die Dimensionen der Matritzen je Layer bekannt sind.
Es gilt:
Vektor |
Matrixdimension je Layer |
Gewichtungsfaktor w |
\(w ^{\text{[l]}} : (n^{\text{[l]}},n^{\text{[l-1]}})\) |
Änderung von Gewichtungsfaktor w |
\(dw ^{\text{[l]}} : (n^{\text{[l]}},n^{\text{[l-1]}})\) |
Bias b |
\(b^{\text{[l]}} : (b^{\text{[l]}},1)\) |
Änderung von bias b |
\(db^{\text{[l]}} : (b^{\text{[l]}},1)\) |
Aktivierungsfkt. A und Funktion Z |
\(Z^{\text{[l]}}, A^{\text{[l]}} : (n^{\text{[l]}},m)\) |
Änderung Aktivierungsfkt. A und Funktion Z |
\(dZ^{\text{[l]}}, dA^{\text{[l]}} : (n^{\text{[l]}},m)\) |