84 4 Statistische Modellbildung
Alle diese Faktoren verursachen Variabilität — neben der schon eingangs erwähn-
ten Messungenauigkeit —, und an dieser Stelle kommen Wahrscheinlichkeitsrech-
nung und Statistik zum Einsatz, die mit den Konzepten von “zufälligen Veränder-
lichen” und “Wahrscheinlichkeitsverteilungen” eine universelle Sprache zur Be-
schreibung und Analyse von Variabilität anbieten. Wie groß muss ein Faktoreffekt
sein, um als “signifikant” zu gelten? Wie genau müssen wir messen können, um si-
cher zu sein, dass ein kleiner Effekt “real” ist? Wann sehen wir nur Messrauschen?
Wir benötigen Methoden die uns helfen, zufällige Unterschiede (Pseudo-
Effekte) von systematischen Unterschieden zu trennen.
Aufgrund der Bedeutung dieser Aussage und der vielen in der Praxis auftreten-
den Missverständnisse widmen wir den Grundgedanken statistischen Testens in der
Folge viel Raum. Da wir wie bisher davon ausgehen, dass die meisten Anwender
der statistischen Versuchsplanung Standard-Software zur Durchführung ihrer Be-
rechnungen einsetzen, wird der Fokus dabei allerdings nicht, wie sonst leider allzu
oft, auf der Darstellung der manuellen Rechenschritte liegen, sondern auf einer sorg-
fältigen Darstellung der Grundprinzipien. Anders gesagt: Es soll nicht darum gehen,
wie die Software rechnet, sondern was sie rechnet und wie der jeweilige Output zu
interpretieren ist.
Zuvor sollen jedoch die eng damit zusammenhängenden und seit den Kinder-
tagen der DoE in den zwanziger Jahren des vorigen Jahrhunderts klar definierten
drei Grundprinzipien R.A. Fishers als “Brücke in die Statistik” diskutiert werden
— Randomisierung, Replikation (Wiederholung) und Blockbildung (Kapitel
4.3).
Damit ist der Rahmen abgesteckt, zunächst den zentralen Grundgedanken aller sta-
tistischen Tests zu erläutern (Kapitel 4.4), um anschließend diesen Gedanken auf die
Varianzanalyse, eine ebenfalls bereits durch Fisher eingeführte Prozedur zur Aus-
wertung randomisierter statistischer Versuchspläne zu übertragen (Kapitel 4.5). Erst
mit diesem Instrumentarium wird der Rahmen geschaffen, endgültige, abgesicherte
Aussagen aus den Versuchsergebnissen abzuleiten:
“The statistical approach to experimental design is necessary if we want to draw meaningful
conclusions from data” — der statistische Zugang zur Versuchsplanung ist nötig, wenn wir
sinnvolle Schlussfolgerungen aus den Daten ziehen wollen ([119, S. 11]).
Wenn in diesem Kapitel wiederholt zwei Herren zu Wort kommen, so liegt dies
an deren fundamentaler Bedeutung für die Entwicklung sowohl der statistischen
Versuchsplanung als auch ihrer “Vermarktung” im industriellen Umfeld (diese Aus-
wahl ist, zugegebenermaßen, etwas subjektiv).
Bei Sir Ronald Aylmer Fisher (1890-1962) handelt es sich letztlich um den Er-
finder der DoE, deren Wurzeln mindestens bis ins Jahr 1926 zurückgehen. Fisher
hatte als junger Statistiker an der landwirtschaftlichen Versuchsanstalt Rothams-
ted in England einen äußerst folgenreichen Aufsatz über The Arrangement of Field
Experiments ([55]) — das Arrangieren von Feldexperimenten im wahrsten Sinne
des Wortes — veröffentlicht, in dem alle bis heute gültigen Grundprinzipien der
Versuchsplanung im wesentlichen entwickelt wurden. Fisher, der ab 1933 verschie-
dene Professuren in England innehatte und sich später in Australien niederließ, gilt
als Mitbegründer der gesamten modernen Statistik. Neben mehr als 300 Aufsätzen