
8.8 Künstliche Neuronale Netzwerke 213
Durch die Gleichungen 8.46 und 8.47 können somit die Gradienten des Fehlers
E in Abhängigkeit jedes Gewichts b bei Betrachtung eines bekannten Datensatzes
bestimmt werden. Bei der Berücksichtigung von n
r
Datensätzen wird der Gradient
jedes Gewichts b durch die Summe der einzelnen Gradienten berechnet:
∂ E
∂ b
lk
∑
=
n
r
∑
i=1
∂ E
∂ b
lk
i
(8.48)
Nachdem durch die Bestimmung der Gradienten ein Richtungsvektor B
g
zur Mi-
nimierung von E bestimmt wurde, wird die Länge s entlang dieses Vektors gesucht,
die ausgehend von den momentanen Gewichten B
0
den Fehler E minimiert.
min
s
E (B
0
+ sB
g
) (8.49)
Neben anderen Verfahren wird hierzu das Konjugierte-Gradienten-Verfahren ein-
gesetzt [109, 146, 19].
In einem iterativen Prozess wird das Training solange fortgesetzt, bis ein Ab-
bruchkriterium erreicht wird (zum Beispiel Unterschreiten einer maximalen Fehler-
grenze oder Überschreiten einer maximalen Anzahl an Iterationen). Aus mathemati-
scher Sicht ist die Minimierung des Fehlers komplex, da meist viele lokale Minima
und Bereiche mit sehr flachen Gradienten existieren.
One-of-N Kodierung
Zur Erhöhung der Vorhersagequalität von Künstlichen Neuronalen Netzwerken ist
es gerade bei komplexen Zusammenhängen sinnvoll den Faktorraum in überlappen-
de Unterbereiche aufzuteilen. Dieses wird beispielsweise durch die One-Of-N Ko-
dierung erreicht, welche aus der Fuzzy-Technologie bekannt ist (Abbildung 8.15).
Eine Eingangsvariable (Faktor) x
j
wird dazu durch N Variablen x
j
0
,···,x
j
N−1
er-
setzt, wodurch das Neuron der Eingangsebene für die Variable x
j
durch N neue
Neuronen (Eingangsvariablen) substituiert wird. Die einzustellenden Werte für die
N Variablen x
j
0
,···,x
j
N−1
werden wie folgt in Abhängigkeit von der Originalvaria-
blen x
j
berechnet (Abbildung 8.15).
x
jl
= max
0,
d
x
j
−
min
(
x
j
)
+ld
x
j
−x
j
d
x
j
!
l = 0,···, N −1
mit d
x
j
=
max
(
x
j
)
−min
(
x
j
)
N−1
(8.50)
Durch die Aufteilung werden für unterschiedliche Bereiche des Faktors x
j
unter-
schiedliche Neuronen und somit unterschiedliche Bereiche des Künstlichen Neuro-
nalen Netzwerks aktiviert. Mit der zusätzlichen Erhöhung der Gewichteanzahl kann
meist ein besseres Netzwerk trainiert werden, als wenn die Erhöhung der Anzahl
lediglich durch mehr Neuronen in den versteckten Ebene erzielt wird.
Wahl der Schichten
In der Praxis tritt die Schwierigkeit auf, eine sinnvolle Wahl für die Anzahl der
Schichten und Neuronen sowie die Iterationsanzahl des Trainingsprozesses zu fin-
den. In nahezu allen Fällen ist eine versteckte Ebene zur Abbildung auch kom-