8.11 Zusammenfassung 223
punkteanzahl und somit der Informationsmenge zu einem genaueren Metamodell
führt.
Basierend auf den vorhandenen Datenpunkten wird ein Metamodell erzeugt, wel-
ches komplexe Zusammenhänge abbildet und dazu die vorhandenen Informationen
der Datenpunkte optimal ausnutzt. Dabei ist eine automatische Anpassung des Me-
tamodells an die gegebenen Datenpunkte ohne Vorgabe eines Zusammenhangs zwi-
schen Ein- und Ausgangsvariablen, wie es bei einer einfachen linearen Regression
notwendig ist. Wäre eine Vorgabe des Zusammenhangs bereits vor der eigentlichen
Analyse erforderlich und nicht korrekt vom Anwender definiert, so kann kein Me-
tamodell erzeugt werden, welches die wahren Zusammenhänge optimal abbildet.
Grundsätzlich wird bei Metamodellen zwischen lokalen und globalen Verfah-
ren unterschieden. Lokale Verfahren wie das Kriging approximieren den gesuchten
Funktionswert y an einer unbekannten Faktorkombination x
0
durch Datenpunkte in
einer vorher definierten Umgebung um x
0
. Globale Verfahren wie Künstliche Neu-
ronale Netzwerke bilden hingegen ein Metamodell, welches auf allen Datenpunkten
basiert.
Vor der Erzeugung eines Metamodells muss entschieden werden, ob die Appro-
ximation des Modells wie beim Kriging genau durch die bekannten Datenpunk-
te verlaufen soll oder ob die Approximation eines mittlerer Verlaufs sinnvoller ist.
Bei vorhandenen Streuungen in den Datenpunkten ist der mittlere Verlauf des Zu-
sammenhangs für eine Analyse vorzuziehen. Auch bei Verwendung von Computer-
Simulationen bei denen keine direkte zufällige Streuung auftritt, kann durch kleine
Änderungen der Faktoreinstellungen das Ergebnis deutlich schwanken, da das Si-
mulationsmodell zum Beispiel am Ende des Simulationslauf noch nicht vollständig
eingeschwungen ist. Auch in diesen Fällen ist die Vorhersage des mittleren Verlaufs
der Ausgangsvariablen oft sinnvoller.
Neben der Wahl der zu verwendenden Faktoren und der Wahl aussagekräftiger
Variablen zur Beurteilung des betrachteten Systems sowie die Wahl des Modelltyps
ist die Überprüfung der erzeugten Metamodelle einer der wichtigsten Schritte in der
Erzeugung von Metamodellen. Die Vernachlässigung der Qualitätsprüfung ist einer
der häufigsten Fehler für den missglückten Einsatz von Metamodellen in der Praxis.
Eine Prüfung der Metamodelle kann durch die Beurteilung der Approximations-
genauigkeit von zusätzlichen Datenpunkten erfolgen, die nicht zur Erzeugung des
Metamodells verwendet wurden oder durch Verfahren wie die Kreuzvalidierung,
welche zur Erzeugung des Metamodells Datenpunkte auslassen, um diese anschlie-
ßend zur Überprüfung zu verwenden.
Grundsätzlich sind bei allen Metamodellen Extrapolationen außerhalb der abge-
sicherten Datenpunkte, welche zur Erzeugung des Metamodells verwendet wurden,
zu vermeiden oder nur mit Vorsicht und weiteren Kontrollen zu verwenden.
SIMPSON et al. vergleicht verschiedene Metamodelle und gibt folgende grund-
sätzlichen Empfehlungen [170]. Metamodelle auf Basis von Polynomen wurden
ursprünglich für Daten mit zufälligen Fehlern (physikalische Experimente) entwi-
ckelt. Durch ihre einfache Implementierung finden sie jedoch auch bei Computer-
Experimenten häufig Anwendung. Sie sollten lediglich zur Analyse bei wenigen
Faktoren und einfachen Zusammenhängen eingesetzt werden. Zur Verbesserung der