Teil 1 - Zum Grundprinzip parametrischer Varianzanalysen

Als erstes wollen wir uns ganz kurz das Grundprinzip parametrischer Varianzanalysen und die damit verbundenen Voraussetzungen in Erinnerung rufen, welche die auszuwertenden Daten zu erfüllen haben. Vor diesem Hintergrund wird dann leicht einsehbar, in welchen Situationen nichtparametrische Varianzanalysen, sog. Rangvarianzanalysen, angezeigt sind.

Wie Sie sich erinnern mögen, wurde die Varianzanalyse von R. A. Fisher in der Absicht erfunden, mehrere Stichproben bezüglich des Mittelwertes eines intervall oder proportional skalierten Merkmals simultan zu vergleichen.

Dies ist, so konnte Fisher zeigen, anhand des Vergleichs von zwei unterschiedlichen Schätzungen der Varianz des interessierenden Merkmals in der Population möglich (womit sich der etwas eigenartige Name "Varianzanalyse" erklärt). Die eine Schätzung stützt sich ausschliesslich auf die Varianz der Daten innerhalb der Stichproben und abstrahiert damit vollständig von den unterschiedlichen Stichprobenmittelwerten, die andere Schätzung hingegen basiert nur auf der Unterschiedlichkeit der Stichprobenmittelwerte, konkret auf der Varianz der Stichprobenmittelwerte bezüglich des Gesamtmittelwertes der Daten.

Anhand eines Vergleichs dieser beiden Schätzwerte für die Populationsvarianz sind dann die folgenden Schlüsse möglich:

  • Wenn sich und bei einer Irrtumswahrscheinlichkeit p5% signifikant unterscheiden: Mit der ermittelten Irrtumswahrscheinlichkeit darf angenommen werden, dass sich mindestens 2 Stichprobenmittelwerte signifikant unterscheiden.
  • Wenn sich und nicht signifikant unterscheiden (p>5%): Kein Paarvergleich von Stichprobenmittelwerten wird einen signifikanten Unterschied aufdecken.