Teil 1 - Zum Grundprinzip parametrischer Varianzanalysen
Als erstes wollen wir uns ganz kurz das Grundprinzip parametrischer Varianzanalysen und die damit verbundenen Voraussetzungen in Erinnerung rufen, welche die auszuwertenden Daten zu erfüllen haben. Vor diesem Hintergrund wird dann leicht einsehbar, in welchen Situationen nichtparametrische Varianzanalysen, sog. Rangvarianzanalysen, angezeigt sind.
Wie Sie sich erinnern mögen, wurde die Varianzanalyse von R. A. Fisher in der Absicht erfunden, mehrere Stichproben bezüglich des Mittelwertes eines intervall oder proportional skalierten Merkmals simultan zu vergleichen.
Dies ist, so konnte Fisher zeigen, anhand des Vergleichs von zwei unterschiedlichen Schätzungen der Varianz des interessierenden
Merkmals in der Population möglich (womit sich der etwas eigenartige Name "Varianzanalyse" erklärt). Die eine Schätzung
stützt sich ausschliesslich auf die Varianz der Daten innerhalb der Stichproben und abstrahiert damit vollständig von den
unterschiedlichen Stichprobenmittelwerten, die andere Schätzung
hingegen basiert nur auf der Unterschiedlichkeit der Stichprobenmittelwerte, konkret auf der Varianz der Stichprobenmittelwerte
bezüglich des Gesamtmittelwertes der Daten.
Anhand eines Vergleichs dieser beiden Schätzwerte für die Populationsvarianz sind dann die folgenden Schlüsse möglich:
-
Wenn sich
und
bei einer Irrtumswahrscheinlichkeit
p5% signifikant unterscheiden: Mit der ermittelten Irrtumswahrscheinlichkeit darf angenommen werden, dass sich mindestens 2 Stichprobenmittelwerte signifikant unterscheiden.
-
Wenn sich
und
nicht signifikant unterscheiden (p>5%): Kein Paarvergleich von Stichprobenmittelwerten wird einen signifikanten Unterschied aufdecken.