Files
DissLiteratur/storage/L2Y6FC6V/.zotero-ft-cache
Johannes Paehr c4354c0441 init
2025-10-18 15:35:31 +02:00

4663 lines
144 KiB
Plaintext
Raw Permalink Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
Torben Kuhlenkasper Andreas Handl
Einführung in die statistische Auswertung von Experimenten
Theorie und Praxis mit R
Einführung in die statistische Auswertung von Experimenten
Torben Kuhlenkasper · Andreas Handl
Einführung in die statistische Auswertung von Experimenten
Theorie und Praxis mit R
Torben Kuhlenkasper Hochschule Pforzheim Pforzheim, Deutschland
Andreas Handl Bielefeld, Deutschland
ISBN 978-3-662-59053-9
ISBN 978-3-662-59054-6 (eBook)
https://doi.org/10.1007/978-3-662-59054-6
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Planung/Lektorat: Iris Ruhmann
Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort
„Versuchen Sie, einen Sinn in dem zu erkennen, was Sie sehen…. Bleiben Sie neugierig!“ Dieser Wunsch des weltbekannten Physikers Stephen Hawking wurde anlässlich seines Todes von der University of Cambridge in einer Videobotschaft im März 2018 veröffentlicht (s. University of Cambridge 2018). Im gleichen Monat entstand auch die Idee für das vorliegende Buch. Der Wunsch des Ausnahmephysikers war beim Schreiben in den letzten Monaten stets eine große Motivation für mich. Mit dieser Einführung in die statistischen Methoden zur Auswertung von Experimenten möchte ich auch beim Leser sowohl Neugierde entfachen als auch befriedigen: Neugierde, mit welchen Methoden wir einen Sinn in dem erkennen können, was wir sehen und was uns interessiert. Nicht nur in den vielen Disziplinen der Wissenschaft, sondern in nahezu allen Lebensbereichen versuchen wir, Zusammenhänge zu verstehen. Mithilfe von Experimenten ganz unterschiedlicher Art decken wir dabei immer wieder Phänomene auf und ziehen daraus unsere Schlüsse für Wissenschaft und Alltag.
Mit dem vorliegenden Buch möchte ich einen kleinen Beitrag dazu leisten, mit welchen Methoden der Statistik wir unsere Neugierde systematisch befriedigen können. Dazu werden wir eine Vielzahl von statistischen Methoden zur Auswertung von Experimenten kennenlernen und anwenden. Solche Experimente müssen nicht in großen Laboren durchgeführt werden. Die Beispiele in dem Buch sind leicht nachvollziehbar und kommen oft aus ganz alltäglichen Situationen. Genauso hat auch Andreas Handl an der Universität Bielefeld seinen Studierenden die Methoden zur Auswertung von Versuchen vorbildlich erklärt. Dabei hat er auch meine Neugierde geweckt. Auf diesen Aufzeichnungen von Andreas basiert dieses Lehrbuch. Ihm waren dabei sowohl die Beispiele von leicht nachvollziehbaren Experimenten im Vordergrund als auch die mathematischen Methoden zur Auswertung im Hintergrund gleichermaßen wichtig. Ich habe in den letzten Jahren versucht, genau diese Art der Lehre von Andreas aufzugreifen und seine Ideen und sein Ideal weiterzuentwickeln. Ich setze die Aufzeichnungen seit mehreren Jahren in meinen Vorlesungen ein und möchte mich bei allen Kollegen und vor allem bei den vielen Studenten der letzten Jahre für die wertvollen Kommentare bedanken. Für sie ist auch dieses Buch geschrieben!
V
VI
Vorwort
Das Buch stellt die gängigen Methoden der Varianzanalyse und der nichtparametrischen Alternativen für balancierte Experimente mit festen Faktoren vor. Wenn man jede Untersuchungsanordnung zur Überprüfung von Hypothesen als Experiment auffasst, kann das Buch auch als Einführung in die Analyse von unverbundenen Stichproben verwendet werden. Es ist als Einführungsbuch für Studierende und Wissenschaftler mit Grundkenntnissen der Statistik gedacht. Der Leser des Buches ist bei den kleinen Beispielen zunächst dazu aufgefordert, die Experimente und somit die Daten mit Stift und Papier zu analysieren und auszuwerten. Mit diesem Wissen ist es dann sehr einfach, die gleichen Ergebnisse mit der Software R zu erhalten und in Zukunft die eigenen Ideen in R umzusetzen.
Ohne die Lehre und die Aufzeichnungen von Andreas wäre das Buch nicht möglich gewesen. Ich möchte daher besonders Claudia und Fabian Handl ganz herzlich für das Vertrauen dafür danken, dass ich die Ideen von Andreas aufgreifen und weiterentwickeln kann. Wer mehr über den Bielefelder „Statistiker mit Herz und Verstand“ erfahren möchte, findet unter www.andreashandl.de viele persönliche Informationen über den Initiator dieses Buches.
Auch dem Springer Verlag danke ich für das Vertrauen, sowohl in dieses Einführungsbuch als auch in das für 2020 geplante Buch mit den fortgeschrittenen Methoden zur Auswertung von Experimenten.
Unter www.experimente.kuhlenkasper.de stehen die verwendeten Datensätze des Buches, der Quellcode für die R-Anweisungen sowie die Lösungen für die Übungsaufgaben und auch weitere Informationen für den Leser bereit.
Bad Essen im Februar 2019
Torben Kuhlenkasper
Inhaltsverzeichnis
1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 Einführung in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 R als mächtiger Taschenrechner. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.2 Datenstrukturen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3 Pakete. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4 Einlesen von Daten aus externen Dateien. . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5 Selektion unter Bedingungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3 Einfaktorielle Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.1 Grundlagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Balancierte Experimente mit zwei Faktorstufen. . . . . . . . . . . . . . . . . . . . . 37
3.2.1 Schätzer des Effekts von A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.2.2 t-Test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.2.3 Algorithmus von Yates. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.3 Einfaktorielle Experimente in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.4 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4 Annahmen der Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.1 Normalverteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Varianzhomogenität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.3 Überprüfung der Annahmen mit R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.4 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5 Zweifaktorielle Experimente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.1 Additives Modell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2 Nichtadditives Modell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.2.1 Der Algorithmus von Yates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.3 Sonderfall n=1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.4 Beispiel eines zweifaktoriellen Experiments. . . . . . . . . . . . . . . . . . . . . . . . 99 5.5 Zweifaktorielle Experimente in R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5.6 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
VII
VIII
Inhaltsverzeichnis
6 k-faktorielle Experimente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.1 Haupteffekte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.2 Interaktionseffekte zwischen zwei Faktoren. . . . . . . . . . . . . . . . . . . . . . . . 112 6.3 Interaktionseffekte zwischen mehr als zwei Faktoren. . . . . . . . . . . . . . . . . 113 6.4 Varianzanalyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 6.4.1 Algorithmus von Yates. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 6.5 Sonderfall n=1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 6.6 k-faktorielle Varianzanalyse in R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 6.7 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7 Fraktionelle faktorielle Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 7.1 Grundlagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 7.2 241-Experiment. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 7.3 Fraktionelle faktorielle Varianzanalyse in R . . . . . . . . . . . . . . . . . . . . . . . . 152 7.4 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8 Alternative Auswertungsmethoden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 8.1 Welch-Test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 8.1.1 Welch-Test mit R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 8.1.2 Übungsaufgabe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 8.2 Mann-Whitney-Test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 8.2.1 Bindungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 8.2.2 Mann-Whitney-Test mit R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 8.2.3 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 8.3 Kruskal-Wallis-Test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 8.3.1 Bindungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 8.3.2 Kruskal-Wallis-Test mit R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 8.3.3 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 8.4 Varianzanalyse mit Rängen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 8.4.1 Varianzanalyse mit Rängen in R . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 8.4.2 Übungsaufgaben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Anhang A: R-Funktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Anhang B: Beweise und Herleitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Anhang C: Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Einführung
1
In Wahrheit heißt etwas wollen ein Experiment machen, um zu erfahren, was wir können.
(Friedrich Wilhelm Nietzsche)
Als Galileo Galilei zu Beginn des 17. Jahrhunderts in Italien Versuche zum freien Fall und der Bewegung von Körpern auf schiefen Ebenen durchführte, ahnte noch niemand, welche Bedeutung diese Versuche haben würden. Neben den neuen physikalischen Erkenntnissen zur Erdbeschleunigung gilt Galilei mit seinen Versuchen und deren genaueren Beschreibungen als Begründer von neuzeitlichen Experimenten. Fast 400 Jahre nach den Arbeiten von Galilei sind Experimente heute in nahezu allen wissenschaftlichen Bereichen fester Bestandteil des Fortschritts und des empirischen Arbeitens. Aber auch in Unternehmen werden häufig Experimente durchgeführt, z. B. um zu überprüfen, ob Innovationen wirken oder neue Produkte von Kunden angenommen werden. Wir können die Produktion von Gütern oder auch die Bereitstellung von Dienstleistungen dabei als einen Prozess auffassen, der untersucht werden soll. Allgemein handelt es sich bei Prozessen und Experimenten in Wissenschaft und Gesellschaft um gerichtete Abläufe, die wir beobachten und auswerten können. So haben z. B. produzierende Unternehmen das Ziel, mit möglichst geringem Einsatz von Ressourcen ein qualitativ hochwertiges Produkt herzustellen und dann zu verkaufen.
Sowohl Galilei vor fast 400 Jahren als auch heutige Wissenschaftler und Unternehmensmitarbeiter führen unzählige geplante Untersuchungen durch, um Daten und Informationen über Prozesse und Zusammenhänge zu erhalten. So hat der deutsche Philosoph Immanuel Kant in seinem berühmten Werk Kritik der reinen Vernunft ein Experiment immer als eine
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019
1
T. Kuhlenkasper und A. Handl, Einführung in die statistische Auswertung
von Experimenten, https://doi.org/10.1007/978-3-662-59054-6_1
2
1 Einführung
Frage an die Natur oder als Frage an die Wirklichkeit aufgefasst. Ein Experiment soll dann eine Antwort geben über Einflussgrößen und dabei Zusammenhänge aufdecken. Oft hat man bereits vor der Planung und Durchführung eines Versuchs eine Vermutung über Wirkungen und Zusammenhänge, die mit einem Experiment überprüft werden soll.
In dem vorliegenden Buch wollen wir Methoden vorstellen, mit denen wir Antworten auf solche Fragen an die Wirklichkeit erhalten können. Damit können wir dann auch unsere Vermutungen über Zusammenhänge und Einflussgrößen überprüfen. Dazu müssen gewonnene Daten aus Experimenten statistisch ausgewertet werden. Hierzu greift man auf Verfahren der Versuchsplanung zurück. Bei der statistischen Versuchsplanung wird mit möglichst wenigen Versuchen der Wirkzusammenhang zwischen Einflussgrößen und Zielgrößen möglichst genau ermittelt.
Beispiel 1.1 Bei der Fahrt zu einem wichtigen Kunden kann ein Mitarbeiter des Außendienstes zwischen drei Strecken wählen. Er möchte herausfinden, bei welcher Strecke er am wenigsten Zeit für die Fahrt zum Kunden benötigt.
Die systematischen Einflussgrößen sind dabei unabhängige Variablen, die wir gezielt verändern können oder zumindest deren Ausprägungen wir alle kennen. Wir erhalten demnach mit Experimenten nicht nur Daten aus passiven Beobachtungen. Wir verändern gezielt die Rahmenbedingungen und untersuchen die Wirkung auf unsere Zielvariable. Man nennt diese Einflussgrößen, die wir verändern können, auch Faktoren. Das Ergebnis eines Prozesses hängt oft von einer Vielzahl von Faktoren ab. Die Zielgröße wird von den systematischen Faktoren und zufälligen Störgrößen beeinflusst und ist somit eine abhängige Variable. Prozesse sind demnach immer Experimente, die schwankende Messdaten und Beobachtungen in Form von Zahlenwerten hervorbringen.
Wir bezeichnen im Folgenden die systematischen Faktoren mit großen Buchstaben wie A oder B. Die Ausprägungsmöglichkeiten A1, A2, . . . , AI eines Faktors A nennt man auch Faktorstufen.
Beispiel 1.1 (fortgesetzt). Bei der Fahrt betrachtet der Mitarbeiter also den Faktor A als Strecke mit den Faktorstufen A1, A2 und A3. Dabei ist Ai die i-te Strecke. Er möchte herausfinden, welchen Zusammenhang es zwischen der Fahrzeit und der gewählten Strecke gibt.
Bevor ein Experiment startet, wissen wir nicht genau, welches Ergebnis wir erhalten. Der Mitarbeiter in dem Beispiel weiß vorher nicht genau, wie lange er für die Fahrt zum Kunden benötigt. Er besitzt jedoch eine vage Vorstellung von der benötigten Zeit. Das Ergebnis eines Prozesses ist also a priori unbestimmt. Wir beurteilen dieses Ergebnis demnach am Wert einer Zufallsvariablen Y , die wir auch Zielvariable des Experiments nennen. Wir gehen zunächst davon aus, dass die Zielvariable Y ein metrisches Skalenniveau aufweist.
1 Einführung
3
Die Zahlenwerte der Zielvariablen können dabei beobachtet oder gemessen werden. Die einzelnen Faktoren mit ihren Faktorstufen weisen hingegen ein nominales Skalenniveau auf und beschreiben unterschiedliche Zustände oder Rahmenbedingungen des Experiments.
Beispiel 1.1 (fortgesetzt). Der Mitarbeiter im Außendienst ist an der Fahrzeit Y zum Kunden interessiert. Die Fahrzeit wird in Minuten gemessen. Die drei unterschiedlichen Strecken sind die unterschiedlichen Zustände des Experiments.
Wie finden wir nun heraus, welcher Prozess der beste ist, und welche Wirkung die Faktoren auf die Zielvariable haben? Intuitive Vorgehensweisen bei Versuchen, wie z. B. das Ändern eines Faktors nach dem anderen (sog. one factor at a time), bringen nicht systematisch ein optimales Versuchsergebnis hervor. Auch mittels Versuch und Irrtum (sog. trial and error) werden die Einzelwirkungen und Wechselwirkungen von Einflussfaktoren oft nicht erkannt. Im Gegensatz dazu ist die statistische Versuchsplanung eine Möglichkeit zur systematischen Planung und Auswertung von Experimenten. Dieses Vorgehen wurde erstmals von dem britischen Statistiker Ronald Aylmer Fisher im Jahr 1935 beschrieben. Sein Buch The Design of Experiments ist die Grundlage für die hier vorgestellten Methoden (s. Fisher 1935).
Wir versuchen bei Experimenten, mit möglichst geringem Aufwand den funktionalen Zusammenhang von einflussnehmenden Faktoren und den Werten der Zielvariablen zu ermitteln und mathematisch zu beschreiben. Mit den Methoden untersuchen wir, ob sich die erwarteten Werte der Zielgröße auf den verschiedenen Faktorstufen unterscheiden. Durch die Einteilung in Faktorstufen bilden wir Gruppen von Beobachtungen unserer Zielvariablen. Diese Beobachtungen ordnen wir der jeweiligen Faktorstufe zu.
Beispiel 1.1 (fortgesetzt). Der Mitarbeiter notiert die benötigte Fahrzeit mit der jeweils dazugehörigen Strecke.
Mit den hier vorgestellten Methoden wollen wir untersuchen, ob sich die Beobachtungen auf den Faktorstufen signifikant voneinander unterscheiden. Wenn sie sich signifikant unterscheiden, können wir annehmen, dass auf den Faktorstufen unterschiedliche Gesetzmäßigkeiten wirken, die auf die einflussnehmenden Faktoren zurückzuführen sind.
Um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen, wenden wir zunächst die sog. Varianzanalyse an, die auch mit ANOVA (Analysis of Variance) abgekürzt wird. Als Varianzanalyse bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie mit Varianzen Prüfgrößen berechnen, um die Einflüsse von Faktoren aufzudecken. Diese Unterschiedlichkeit einer Zielgröße soll dabei durch den Einfluss einer oder mehrerer Faktoren erklärt werden.
4
1 Einführung
Wir betrachten zunächst nur einen Faktor mit insgesamt I Faktorstufen. Wir wollen herausfinden, ob sich der Erwartungswert der Zielvariablen Y auf den Faktorstufen unterscheidet. Bezeichnet man den Erwartungswert von Y auf der i-ten Faktorstufe mit µi , testen wir
H0 : µ1 = . . . = µI
gegen
H1 : µi = µ j
für mindestens ein Paar (i, j) mit i = j. H0 wird auch als Nullhypothese bezeichnet. Dieser Begriff geht ebenfalls auf R.A. Fisher zurück. Wir geben bei Handl und Kuhlenkasper (2018) in Kap. 14 eine detaillierte Einführung in die Begriffe des statistischen Testens.
Wir wollen die verwendeten Hypothesen genauer betrachten: Unter H0 steht die Aussage, dass alle Erwartungswerte für unsere Zielvariable auf jeder Faktorstufe gleich sind. Wenn H0 zutrifft, gibt es demnach keine systematische Wirkung der unterschiedlichen Faktorstufen auf die Zielvariable. Häufig wird hieraus eine falsche Gegenhypothese abgeleitet: Unter H1 steht nicht, dass alle Erwartungswerte von Y unterschiedlich sein müssen. Vielmehr reicht es aus, dass nicht alle Erwartungswerte gleich sind.
Beispiel 1.1 (fortgesetzt). Die Hypothese H0
H0 : µ1 = µ2 = µ3
sagt aus, dass der Mitarbeiter auf jeder der drei Strecken die gleiche Fahrzeit erwarten kann. Die Gegenhypothese H1
H1 : µi = µ j
für mindestens ein Paar (i, j) mit i = j bedeutet hier, dass mindestens eine Strecke sich von den anderen in Bezug auf die Fahrzeit unterscheidet. Es kann aber auch sein, dass alle drei Strecken sich voneinander unterscheiden.
Um die Hypothesen verlässlich mit Hilfe statistischer Tests überprüfen zu können, sollten wir zwei Grundregeln beachten, die auch Prinzipien der Versuchsplanung genannt werden. Für die Tests führen wir den Versuch auf jeder Faktorstufe durch. Damit wir die Hypothesen überprüfen können, sollten wir den Versuch auf jeder Faktorstufe wiederholen und so mehrmals beobachten. Wiederholung ist das erste Prinzip der Versuchsplanung.
Wir bezeichnen das Ergebnis der j-ten Wiederholung auf der i-ten Faktorstufe mit yi j . Dabei kann i die Werte 1, 2, . . . , I und j die Werte 1, 2, . . . , ni annehmen. Es werden also I Faktorstufen betrachtet. Außerdem kann die Anzahl der Beobachtungen auf den Faktorstufen unterschiedlich sein. In diesem Fall spricht man von unbalancierten Experimenten. Man spricht von balancierten Experimenten, wenn auf jeder Faktorstufe die gleiche Anzahl n Beobachtungen vorliegt.
1 Einführung
Tab. 1.1 Fahrzeiten in Minuten eines Mitarbeiters auf drei Strecken
Strecke
Fahrzeit
1
38
44
40
41
2
44
43
47
50
3
44
40
41
42
5
37 41 38
Beispiel 1.1 (fortgesetzt). Um zu entscheiden, bei welcher Strecke die erwartete Fahrzeit am kürzesten ist, fährt er auf jeder Strecke genau fünfmal zum Kunden. Tab. 1.1 zeigt die Beobachtungen für die Zielvariable Y . Es gilt also z. B. y23 = 47 und y32 = 40. Wir können auf den ersten Blick unterschiedliche Fahrzeiten erkennen, sowohl auf jeder einzelnen Strecke als auch beim Vergleich der drei Strecken.
Bevor wir mit Hilfe der Daten nun Rückschlüsse auf die Prozesse vollziehen, müssen wir noch ein weiteres Prinzip der Versuchsplanung beachten. Wir wollen herausfinden, ob sich der Erwartungswert der Zielgröße auf den Faktorstufen unterscheidet. Um sicherzustellen, dass wir einen Unterschied in den Erwartungswerten µi ausschließlich auf die unterschiedlichen Faktorstufen zurückführen können, müssen wir während des Experiments alle anderen Einflussgrößen konstant halten. Würde der Mitarbeiter nämlich alle Fahrten auf der ersten Strecke am Montag, alle Fahrten auf der zweiten Strecke am Dienstag und alle Fahrten auf der dritten Strecke am Mittwoch zurücklegen, so könnte er nicht entscheiden, ob ein Unterschied in den Erwartungswerten durch die Strecken oder durch die Wochentage bewirkt wird.
Eine Möglichkeit zur Vermeidung dieses Problems besteht darin, die Strecken zufällig auf die Tage zu verteilen. Hierdurch soll sichergestellt werden, dass sich alle Einflussgrößen gleichmäßig auf die Faktorstufen verteilen. Man spricht von Randomisierung. Das ist das zweite Prinzip der Versuchsplanung.
Eine andere Möglichkeit besteht darin, den Effekt des Wochentages dadurch konstant zu halten, dass jede der drei Strecken an jedem Wochentag gefahren wird. In diesem Fall spricht man von Blockbildung. Dies ist das dritte Prinzip der Versuchsplanung.
Wir werden im vorliegenden Einführungsbuch nur Experimente betrachten, bei denen die ersten beiden Prinzipien beachtet werden. Somit sind die Stichproben der beobachteten Werte der Zielvariablen auf den einzelnen Faktorstufen unverbunden.
Einführung in R
2
Inhaltsverzeichnis
2.1 R als mächtiger Taschenrechner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.2 Datenstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3 Pakete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4 Einlesen von Daten aus externen Dateien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5 Selektion unter Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Die Methoden zur Auswertung von Experimenten werden im vorliegenden Buch an kleinen Datensätzen veranschaulicht. So können wir alle Beispiele mit Papier, Bleistift und Taschenrechner in vertretbarer Zeit nachvollziehen. Bei größeren Experimenten mit vielen Beobachtungen auf den Faktorstufen sollte man auf die Hilfe von Computern zurückgreifen. Hier kann der Anwender statistischer Verfahren unter einer Vielzahl von Statistikpaketen wählen. Dabei werden z. B. SPSS und STATA bei einer Vielzahl von professionellen Datenanalysen verwendet. Die beiden genannten Pakete sind aber sehr teuer, und es ist nicht einfach, neue Verfahren zu implementieren. Das Statistikpaket R erfreut sich sowohl an Hochschulen als auch in beruflichen Anwendungen immer größerer Beliebtheit. In R sind sehr viele statistische Verfahren vorhanden, und es ist im Internet frei erhältlich. Es steht für die gängigen Betriebssysteme Microsoft Windows, Mac OS X und verschiedene LinuxDistributionen zur Verfügung, aktuell in der Version 3.5.2. Unter der Adresse https://cran. r-project.org kann R heruntergeladen werden.
2.1 R als mächtiger Taschenrechner
R bietet eine interaktive Umgebung, den Befehlsmodus, in dem man die Daten direkt eingeben und analysieren kann. Nach dem Start des Programms wird durch das
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019
7
T. Kuhlenkasper und A. Handl, Einführung in die statistische Auswertung
von Experimenten, https://doi.org/10.1007/978-3-662-59054-6_2
8
2 Einführung in R
Bereitschaftszeichen > angezeigt, dass eine Eingabe erwartet wird. Der Befehlsmodus ist ein mächtiger Taschenrechner. Wir können hier die Grundrechenarten Addition, Subtraktion, Multiplikation und Division mit den Operatoren +, -, * und / durchführen. Bei Dezimalzahlen verwendet man einen Dezimalpunkt und nicht das in Deutschland oft verwendete Dezimalkomma. Nachdem wir einen Befehl mit der Taste return abgeschickt haben, gibt R das Ergebnis in der nächsten Zeile aus. Hier sind einige einfache Beispiele:
> 2.1+2 [1] 4.1
> 2.1-2 [1] 0.1
> 2.1*2 [1] 4.2
> 2.1/2 [1] 1.05
Zum Potenzieren benutzen wir ∧:
> 2.1ˆ2 [1] 4.41
Die Quadratwurzel von 2 erhalten wir also durch
> 2ˆ0.5 [1] 1.414214
Man kann aber auch die Funktion sqrt verwenden. Dabei ist sqrt eine Abkürzung für square root, also Quadratwurzel. Namen von Funktionen sind in R unter mnemotechnischen Gesichtspunkten gewählt. Funktionen bieten die Möglichkeit, einen oder mehrere Befehle unter einem Namen abzuspeichern. Funktionen besitzen in der Regel Argumente. So muss man der Funktion sqrt mitteilen, von welcher Zahl sie die Quadratwurzel bestimmen soll. Diese Zahl ist ein Argument der Funktion sqrt. Die Argumente einer Funktion stehen in runden Klammern hinter dem Funktionsnamen und sind durch Kommata voneinander getrennt. Wir rufen die Funktion sqrt also mit dem Argument 2 auf:
> sqrt(2) [1] 1.414214
R führt die Berechnung auf 16 Stellen genau nach dem Dezimalpunkt aus, zeigt jedoch weniger Stellen an. Soll das ausgegebene Ergebnis noch übersichtlicher werden, sollten wir
2.1 R als mächtiger Taschenrechner
9
runden, und wir verwenden hierzu die Funktion round. Dabei können wir der Funktion round den Aufruf der Funktion sqrt als Argument übergeben, was bei allen Funktionen möglich ist:
> round(sqrt(2)) [1] 1
Jetzt ist das Ergebnis zwar übersichtlich, aber ungenau. Wir müssen der Funktion round also noch mitteilen, auf wie viele Stellen nach dem Dezimalpunkt wir runden wollen. Wie wir dies erreichen können, erfahren wir, indem wir die Funktion help mit dem Argument round aufrufen. Alternativ können wir die jeweilige Hilfeseite zu einer Funktion aufrufen, indem wir dem Namen der Funktion ein ? voranstellen. Eine Hilfeseite gibt es für jede mitgelieferte Funktion in R. ?round oder help(round) öffnet die Hilfeseite für die Funktion round. Wir sehen, dass die Funktion folgendermaßen aufgerufen wird:
round(x, digits = 0)
Neben dem ersten Argument, bei dem es sich um die zu rundende Zahl handelt, gibt es noch das Argument digits. Dieses gibt die Anzahl der Stellen nach dem Dezimalpunkt an, auf die gerundet werden soll, und nimmt standardmäßig den Wert 0 an.
Funktionen in R besitzen zwei Typen von Argumenten. Es gibt Argumente, die beim Aufruf der Funktion angegeben werden müssen. Bei der Funktion round ist dies das Argument x. Es gibt aber auch optionale Argumente, die nicht angegeben werden müssen. In diesem Fall wird ihnen der Wert zugewiesen, der in der Kopfzeile steht. Das Argument digits nimmt also standardmäßig den Wert 0 an.
Wie übergibt man dies einer Funktion, die mindestens zwei Argumente besitzt? Hierzu gibt es eine Reihe von Möglichkeiten, die wir anhand der Funktion round illustrieren wollen. Kennt man die Reihenfolge der Argumente im Kopf der Funktion, so kann man sie ohne zusätzliche Angaben eingeben:
> round(sqrt(2),2) [1] 1.41
Man kann aber auch die Namen der Argumente verwenden, wie sie im Kopf der Funktion stehen:
> round(x=sqrt(2),digits=2) [1] 1.41
Verwendet man die Namen, so kann man die Argumente in beliebiger Reihenfolge eingeben:
> round(digits=2,x=sqrt(2)) [1] 1.41
10
2 Einführung in R
Man kann die Namen der Argumente abkürzen, wenn sie dadurch eindeutig bleiben. Beginnen zwei Namen z. B. mit di, so darf man di nicht als Abkürzung verwenden:
> round(x=sqrt(2),d=2) [1] 1.41
2.2 Datenstrukturen
Bei Experimenten werden häufig verschiedene Daten für die Auswertung erhoben. In diesem Abschnitt werden wir lernen, wie man Daten eingibt und unter einem Namen abspeichert, mit dem man auf sie zurückgreifen kann.
Der Mitarbeiter im Außendienst ist in Beispiel 1.1 die erste Strecke fünfmal gefahren:
38 44 40 41 37
Wir geben die Daten als Vektor ein. Ein Vektor ist eine Zusammenfassung von Objekten zu einer endlichen Folge und besteht aus Komponenten. Einen Vektor erzeugt man in R mit der Funktion c. Diese erstellt aus einer Folge von Zahlen, die durch Kommata getrennt sind, einen Vektor, dessen Komponenten die einzelnen Zahlen sind. Die Zahlen sind die Argumente der Funktion c. Wir geben also ein:
> c(38,44,40,41,37)
Am Bildschirm erhalten wir folgendes Ergebnis:
[1] 38 44 40 41 37
Die Elemente des Vektors werden ausgegeben. Am Anfang steht [1]. Dies zeigt, dass die erste ausgegebene Zahl 38 gleich der ersten Komponente des Vektors ist.
Das Bereitschaftszeichen > wird manchmal von R durch ein Pluszeichen + ersetzt. Dann ist die R-Anweisung nicht vollständig. So führt der Aufruf von
> c(38,44,40,41,37 +
dazu, dass R eine weitere Eingabe benötigt. In diesem Fall fehlt die schließende Klammer beim Aufruf der Funktion c(). Durch Eingabe von
+) [1] 38 44 40 41 37 >
erhalten wir das gewünschte Ergebnis.
2.2 Datenstrukturen
11
Um mit den Werten des Vektors weiterhin arbeiten zu können, müssen wir sie in einer Variablen speichern. Dies geschieht mit dem Zuweisungsoperator <-, den man durch die Zeichen < und - erhält. Auf der linken Seite steht der Name der Variablen, der die Werte zugewiesen werden sollen, auf der rechten Seite steht der Aufruf der Funktion c.
Die Namen von Variablen können beliebig lang sein, dürfen aber nur aus Buchstaben, Ziffern, dem Punkt und dem Unterstrich bestehen. Das erste Zeichen muss ein Buchstabe oder der Punkt sein. Beginnt ein Name mit einem Punkt, so dürfen nicht alle folgenden Zeichen Ziffern sein. Hierdurch erzeugt man nämlich eine Zahl.
Wir nennen die Variable zeit und geben ein:
> zeit <- c(38,44,40,41,37)
Eine Variable bleibt während der gesamten Sitzung im Workspace erhalten, wenn sie nicht mit dem Befehl rm gelöscht wird. Beim Verlassen von R durch q() wird man gefragt, ob man den Workspace sichern will. Antwortet man mit Ja, so sind auch bei der nächsten Sitzung alle Variablen vorhanden. Mit der Funktion ls kann man durch den Aufruf ls() alle Objekte im Workspace auflisten:
> ls() [1] "zeit"
Wir können uns den Inhalt einer Variablen durch Eingabe des Namens anzeigen lassen. Der Aufruf
> zeit
liefert das Ergebnis
[1] 38 44 40 41 37
R unterscheidet Groß- und Kleinschreibung. Die Variablennamen zeit und Zeit beziehen sich also auf unterschiedliche Objekte:
> Zeit Fehler: objekt "Zeit" nicht gefunden
Die Fahrzeiten sind in dem Beispiel in Minuten angegeben. Um alle Zeiten in Sekunden umzurechnen, multiplizieren wir den Vektor zeit mit 60:
> zeit*60 [1] 2280 2640 2400 2460 2220
12
2 Einführung in R
Wenn wir davon ausgehen, dass der Mitarbeiter immer fünf Minuten benötigt, um die Fahrt zum Kunden vorzubereiten, können wir zu jeder Komponente von zeit die Zahl 5 addieren und erhalten
> zeit+5 [1] 43 49 45 46 42
Auf einzelne Komponenten eines Vektors greift man durch Indizierung zu. Hierzu gibt man den Namen des Vektors gefolgt von eckigen Klammern ein, zwischen denen die Nummer der Komponente oder der Vektor mit den Nummern der Komponenten steht, auf die man zugreifen will. Diese Nummern in den eckigen Klammern entsprechen also den jeweiligen Positionen der Komponenten innerhalb des Vektors. Um die Zeit der ersten Fahrt zu erfahren, gibt man ein:
> zeit[1] [1] 38
Um die Zeit für die Fahrzeit zu erhalten, die der Mitarbeiter zuletzt gefahren ist, benötigt man die Länge des Vektors zeit. Dies liefert die Funktion length:
> length(zeit) [1] 5 > zeit[length(zeit)] [1] 37
Wir können auch gleichzeitig auf mehrere Komponenten zugreifen:
> zeit[c(1,2,3)] [1] 38 44 40
Mit Hilfe des Minuszeichens innerhalb der eckigen Klammern kann man einzelne Komponenten des Vektors ausschließen. Wenn wir also alle Werte des Vektors zeit außer der zweiten Komponente angezeigt haben möchten, geben wir ein:
> zeit[-2] [1] 38 40 41 37
Einen Vektor mit aufeinanderfolgenden natürlichen Zahlen erhält man mit dem Operator :. Betrachten wir einige Beispiele:
> 1:3 [1] 1 2 3 > 4:10
2.2 Datenstrukturen
13
[1] 4 5 6 7 8 9 10 > 3:1 [1] 3 2 1
Wir können also auch
> zeit[1:3] [1] 38 44 40
eingeben, um die ersten drei Elemente des Vektors zu erhalten. Betrachten wir noch einige Funktionen, mit denen man Informationen aus einem Vektor
extrahieren kann. Die Summe aller Werte liefert die Funktion sum:
> sum(zeit) [1] 200
Das Minimum erhalten wir mit der Funktion min:
> min(zeit) [1] 37
und das Maximum mit der Funktion max:
> max(zeit) [1] 44
Die Funktion sort sortiert einen Vektor aufsteigend.
> sort(zeit) [1] 37 38 40 41 44
Setzt man das Argument decreasing auf den Wert TRUE, so wird absteigend sortiert:
> sort(zeit,decreasing = TRUE) [1] 44 41 40 38 37
Die bisherigen Beispiele haben reelle Zahlen, wie sie als Beobachtungen der Zielvariablen in Experimenten auftreten, verwendet. Experimente benötigen jedoch auch Werte für die Rahmenbedingungen und somit für die Faktoren. Wie gibt man solche Daten bei einem nominalen Merkmal ein? Beginnen wir auch hier mit einem Beispiel. Hier ist die Urliste des Geschlechts von allen Mitarbeitern und Mitarbeiterinnen im Außendienst einer Firma:
wmwmwmmmwm
14
2 Einführung in R
Wir geben die Urliste als Vektor ein, dessen Komponenten Zeichenketten sind. Eine Zeichenkette ist eine Folge von Zeichen, die in Hochkommata stehen. So sind "Berlin" und "Bielefeld" Zeichenketten. Wir können die Zeichenketten auch mit einfachen Hochkommata eingeben: Berlin und Bielefeld.
Wir nennen den Vektor Geschlecht:
> Geschlecht <- c("w","m","w","m","w","m","m","m","w","m") > Geschlecht [1] "w" "m" "w" "m" "w" "m" "m" "m" "w" "m"
Mit der Funktion factor transformieren wir den Vektor Geschlecht, dessen Komponenten Zeichenketten sind, in einen Vektor, dessen Komponenten die Ausprägungen eines nominalen Faktors sind:
> Geschlecht <- factor(Geschlecht) > Geschlecht [1] w m w m w m m m w m Levels: m w
Wir sehen, dass neben den zehn Beobachtungen auch die zwei Faktorstufen mit angezeigt werden, die in dem Faktor vorkommen. Sie werden mit Levels bezeichnet. Mit der Funktion levels können wir uns die Faktorstufen anzeigen lassen:
> levels(Geschlecht) [1] "m" "w"
Wie in Kap. 1 vorgestellt, können wir so die Faktoren und deren Faktorstufen von Experimenten definieren. Wir werden bald sehen, mit welchen Funktionen man Informationen aus Vektoren vom Typ factor extrahieren kann. Hier wollen wir nur zeigen, dass man diese wie auch Vektoren, deren Komponenten metrisch sind, indizieren kann:
> Geschlecht[2] [1] m Levels: m w > Geschlecht[5:length(Geschlecht)] [1] w m m m w m Levels: m w
Bisher haben wir nur ein Merkmal betrachtet. Wir wollen nun zeigen, wie man vorgeht, wenn mehrere Merkmale eingegeben werden sollen. Hierbei gehen wir zunächst davon aus, dass alle Merkmale den gleichen Typ besitzen, also entweder alle metrisch oder alle nominal sind. Wir illustrieren die Vorgehensweise an einem Beispiel.
Liegen die Daten wie in Tab. 1.1 vor, so kann man sie als Matrix eingeben. Eine Matrix ist ein rechteckiges Zahlenschema, das aus r Zeilen und s Spalten besteht.
2.2 Datenstrukturen
15
In R erzeugt man eine Matrix mit der Funktion matrix. Der Aufruf der Funktion matrix lautet
matrix(data,nrow=1,ncol=1,byrow=FALSE)
Dabei ist data der Vektor mit den Elementen der Matrix. Das Argument nrow gibt die Anzahl der Zeilen und das Argument ncol die Anzahl der Spalten der Matrix an. Standardmäßig wird eine Matrix spaltenweise eingegeben. Sollen die Zeilen aufgefüllt werden, so muss das Argument byrow auf den Wert TRUE gesetzt werden. Wir geben also ein:
> zeiten <- matrix(c(38,44,40,41,37,44,43,47,50,41,
+
44,40,41,42,38),
+
nrow=3,ncol=5,byrow=TRUE)
und erhalten
> zeiten [,1] [,2] [,3] [,4] [,5]
[1,] 38 44 40 41 37 [2,] 44 43 47 50 41 [3,] 44 40 41 42 38
Auf Elemente einer Matrix greifen wir wie auf Komponenten eines Vektors durch Indizierung zu, wobei wir die Informationen, die sich auf Zeilen beziehen, von den Informationen, die sich auf Spalten beziehen, durch ein Komma trennen. Um auf das Element in der ersten Zeile und zweiten Spalte zuzugreifen, geben wir also ein:
> zeiten[1,2] [1] 44
Alle Elemente der ersten Zeile erhalten wir durch
> zeiten[1,] [1] 38 44 40 41 37
und alle Elemente der zweiten Spalte durch
> zeiten[,2] [1] 44 43 40
Die Summe aller Werte erhält man mit der Funktion sum:
> sum(zeiten) [1] 630
16
2 Einführung in R
Oft ist man an der Summe der Werte innerhalb der Zeilen oder Spalten interessiert. Diese liefern die Funktionen rowSums und colSums:
> rowSums(zeiten) [1] 200 225 205
> colSums(zeiten) [1] 126 127 128 133 116
Man kann aber auch die Funktion apply anwenden. Diese wird durch
apply(x,margin,fun)
aufgerufen und wendet auf die Dimension margin der Matrix x die Funktion fun an. Dabei entspricht die erste Dimension den Zeilen und die zweite Dimension den Spalten. Die Summe der Werte in den Zeilen erhalten wir also durch
> apply(zeiten,1,sum) [1] 200 225 205
und die Summe der Werte in den Spalten durch
> apply(zeiten,2,sum) [1] 126 127 128 133 116
Wir können für fun natürlich auch andere Funktionen wie min oder max verwenden. Einen Vektor mit den Zeilenminima liefert der Aufruf
> apply(zeiten,1,min) [1] 37 41 38
und einen Vektor mit den Spaltenmaxima der Aufruf
> apply(zeiten,2,max) [1] 44 44 47 50 41
Nun betrachten wir anhand eines Beispiels, wie man Datensätze abspeichert, die sowohl metrische als auch nominale Merkmale enthalten.
Bei den Fahrzeiten des Außendienstmitarbeiters in Tab. 1.1 liegen zusätzlich auch Informationen über die Strecke vor. Betrachten wir zunächst nur die erste Spalte der Fahrzeiten und bezeichnen Strecke 1 mit A, Strecke 2 mit B und Strecke 3 mit C. Die Daten zeigt Tab. 2.1.
2.2 Datenstrukturen
17
Tab. 2.1 Drei Fahrzeiten
Strecke
Zeit
auf drei Strecken
A
38
B
44
C
44
In R bieten Datentabellen die Möglichkeit, die Werte von Merkmalen unterschiedlichen Typs in einer Variablen abzuspeichern. Dabei muss bei jedem Merkmal die gleiche Anzahl von Beobachtungen vorliegen. Eine Datentabelle wird mit dem Befehl data.frame erzeugt. Das Beispiel illustriert die Vorgehensweise:
> zeitstrecke <- data.frame(Strecke=c("A","B","C"),
+
Zeit=c(38,44,44))
> zeitstrecke
Strecke Zeit
1
A 38
2
B 44
3
C 44
Auf eine Datentabelle kann man wie auf eine Matrix zugreifen:
> zeitstrecke[2,2] [1] 44
> zeitstrecke[2,]
Strecke Zeit
2
B 44
> zeitstrecke[,1] [1] A B C Levels: A B C
Der letzte Aufruf zeigt, dass ein Vektor, der aus Zeichenketten besteht, bei der Erzeugung einer Datentabelle automatisch zu einem Faktor wird.
Datentabellen sind Listen, die wie Matrizen behandelt werden können. Wir wollen uns hier nicht detailliert mit Listen beschäftigen, sondern nur darauf hinweisen, dass Listen aus Komponenten bestehen, von denen jede einen anderen Typ aufweisen kann. So kann die erste Komponente einer Liste eine Zeichenkette, die zweite ein Vektor und die dritte eine Matrix sein. Auf die Komponenten einer Liste greift man entweder mit einer doppelten eckigen Klammer oder mit dem Namen des Listenelements zu. Dazu wird der Name des Elements nach dem $-Zeichen und dem Listennamen eingegeben:
18
2 Einführung in R
> zeitstrecke[[1]] [1] A B C Levels: A B C
> zeitstrecke$Strecke [1] A B C Levels: A B C
> zeitstrecke[[2]] [1] 38 44 44
> zeitstrecke$Zeit [1] 38 44 44
Mit der Funktion attach kann man auf die in einer Datentabelle enthaltenen Variablen unter ihrem Namen zugreifen, ohne den Namen der Datentabelle zu verwenden. Mit der Funktion detach hebt man diese Zugriffsmöglichkeit auf:
> attach(zeitstrecke) > Strecke [1] A B C Levels: A B C > Zeit [1] 38 44 44
> detach(zeitstrecke)
> Strecke Fehler: Objekt Strecke nicht gefunden > Zeit Fehler: objekt Zeit nicht gefunden
Es gibt auch die Möglichkeit, Daten aus externen Dateien in R einzulesen. Dazu benötigen wir bei manchen Dateiformaten aber Zusatzpakete.
2.3 Pakete
R ist ein offenes Programm, sodass es durch Funktionen, die von Benutzern erstellt wurden, erweitert werden kann. Diese Funktionen sind in Paketen (packages) enthalten. Um eine Funktion aus einem Paket benutzen zu können, muss man das Paket installieren und laden. Man installiert ein Paket, indem man auf den Schalter Pakete und danach auf den Schalter Installiere Paket(e)
2.4 Einlesen von Daten aus externen Dateien
19
klickt. Es öffnet sich ein Fenster mit einer Liste, in der man auf den Namen des Pakets klickt. Daraufhin wird das Paket installiert. Dazu muss natürlich eine Verbindung zum Internet vorhanden sein. Alternativ kann ein Paket auch über den Befehlsmodus heruntergeladen und installiert werden. Hierfür verwenden wir die Funktion install.packages. Der Befehl
install.packages(AlgDesign)
installiert in diesem Fall das Paket AlgDesign von Wheeler (2014), das wir bei der Varianzanalyse noch verwenden werden. Eine Liste aller inzwischen verfügbaren Pakete für R (es sind inzwischen mehr als 13 700) erhält man unter
https://cran.r-project.org/web/packages/
Nachdem man
> library(AlgDesign)
eingegeben hat, kann man die Funktionen des Pakets verwenden. Man muss ein Paket nur einmal herunterladen und installieren, muss es aber während jeder Sitzung einmal laden, wenn man es verwenden will.
2.4 Einlesen von Daten aus externen Dateien
Oft liegen die Daten außerhalb von R in einer Datei vor. In diesem Fall müssen sie nicht noch einmal per Hand eingegeben werden, sondern können eingelesen werden. Wir gehen im Folgenden zunächst davon aus, dass die Daten aus Tab. 1.1 in einer ASCII-Datei gespeichert wurden. So können die Informationen über die Fahrzeiten mit den entsprechenden Strecken wie folgt angeordnet sein:
strecke zeiten
A
38
A
44
A
40
A
41
A
37
B
44
B
43
B
47
B
50
B
41
C
44
C
40
C
41
20
2 Einführung in R
C
42
C
38
Die Daten mögen auf dem Laufwerk d: im Verzeichnis (Ordner) daten in der Datei Fahrzeiten.txt stehen. Wir lesen sie mit der Funktion read.table ein. Diese besitzt eine Vielzahl von Argumenten, von denen nur der Dateiname obligatorisch ist. Zu diesem gehört die vollständige Pfadangabe. Dabei müssen für jeden Backslash zwei Backslashs eingegeben werden, da in R der Backslash in einer Zeichenkette ein Steuerzeichen ist.
Stehen in der Kopfzeile der Datei die Namen der Variablen, so muss das Argument header auf den Wert TRUE gesetzt werden. Ansonsten wird unterstellt, dass keine Kopfzeile existiert.
Wird bei Dezimalzahlen das Dezimalkomma verwendet, so setzt man das Argument dec auf den Wert ",". Standardmäßig wird der Dezimalpunkt verwendet.
Mit dem Argument sep kann man festlegen, durch welches Zeichen die Spalten in der ursprünglichen Datei getrennt sind, wobei unterstellt wird, dass Leerzeichen verwendet werden.
Wir lesen die Daten ein und weisen sie der Variablen fahrzeiten zu:
> fahrzeiten <- read.table(d:\\daten\\Fahrzeiten.txt,
+
header=TRUE)
> fahrzeiten
strecke zeiten
1
A
38
2
A
44
3
A
40
4
A
41
5
A
37
6
B
44
7
B
43
8
B
47
9
B
50
10
B
41
11
C
44
12
C
40
13
C
41
14
C
42
15
C
38
Es wird eine Datentabelle erzeugt, auf die wir auf die in Abschn. 2.2 beschriebene Art und Weise zugreifen können:
> attach(fahrzeiten) The following object is masked _by_ .GlobalEnv:
zeiten
2.4 Einlesen von Daten aus externen Dateien
21
The following object is masked from zeitstrecke:
strecke
> zeiten [,1] [,2] [,3] [,4] [,5]
[1,] 38 44 40 41 37 [2,] 44 43 47 50 41 [3,] 44 40 41 42 38
Wir sehen, dass wir vorsichtig sein müssen, denn wir haben bereits zuvor eine Variable zeiten erzeugt. Die Datentabelle fahrzeiten enthält eine Variable mit dem gleichen Namen. Nach Eingabe des Befehls attach(fahrzeiten) stehen uns unter dem Variablennamen zeiten die Daten der zuerst erzeugten Variablen zur Verfügung. Wir erstellen eine Kopie dieser Variablen und nennen diese Zeiten. Wenn wir danach noch die Variable zeiten mit dem Befehl rm löschen, können wir auf die Variable zeiten aus der Datentabelle fahrzeiten zugreifen:
> Zeiten <- zeiten > rm(zeiten)
> zeiten [1] 38 44 40 41 37 44 43 47 50 41 44 40 41 42 38
> Zeiten [,1] [,2] [,3] [,4] [,5]
[1,] 38 44 40 41 37 [2,] 44 43 47 50 41 [3,] 44 40 41 42 38
Häufig liegen die Rohdaten in einer Excel-Tabelle vor. Abb. 2.1 zeigt einen Ausschnitt aus der Datei Fahrzeiten.xlsx.
Mit Hilfe eines Zusatzpakets können wir die Daten aus Excel direkt in R laden. Dazu benötigen wir das Paket readxl von Wickham und Bryan (2018).
> install.packages(readxl) > library(readxl)
Das Paket enthält die Funktion read_excel, die mit vielen Argumenten aufgerufen werden kann. Wir müssen neben dem Pfad mit dem Dateinamen auch angeben, in welchem Bereich der Excel-Tabelle sich die Daten befinden. Wenn wir in der Excel-Tabelle die Daten
22
2 Einführung in R
Abb. 2.1 Excel-Tabelle mit Daten
auswählen, würden wir einen Bereich von der Zelle A1 oben links bis zur Zelle B16 unten rechts markieren. Abb. 2.2 zeigt den markierten Bereich für das Beispiel. Diesen Bereich übergeben wir der Funktion read_excel mit dem Argument range=A1:B16.
Das zusätzliche Argument col_names steht standardmäßig in der Funktion auf TRUE und verwendet so die Einträge in der ersten Zeile der Excel-Tabelle als die Variablennamen. Um den Datensatz als eine Datentabelle in R einzulesen, verwenden wir zusätzlich die Funktion as.data.frame. Wir rufen also auf:
> fahrzeiten <- read_excel(path=d:\\daten\\Fahrzeiten.xlsx,
+
range=A1:B16,col_names = TRUE)
> fahrzeiten <- as.data.frame(fahrzeiten)
Wir erhalten eine Datentabelle mit zwei Spalten für die beiden eingelesenen Variablen:
2.4 Einlesen von Daten aus externen Dateien
23
Abb. 2.2 Excel-Tabelle mit markierten Daten
> fahrzeiten
strecke zeiten
1
A
38
2
A
44
3
A
40
4
A
41
5
A
37
6
B
44
7
B
43
8
B
47
9
B
50
10
B
41
11
C
44
12
C
40
13
C
41
14
C
42
15
C
38
24
2 Einführung in R
2.5 Selektion unter Bedingungen
Bei der Auswertung von Experimenten vergleichen wir Gruppen von Daten hinsichtlich eines Faktors oder mehrerer Faktoren. So ist bei den Daten aus der Tabelle fahrzeiten von Interesse, welche Fahrzeiten z. B. zur Strecke A gehören. Wir müssen also überprüfen, welche Komponenten eines Vektors eine Bedingung erfüllen.
Um Bedingungen zu überprüfen, kann man in R die Operatoren
== gleich, != ungleich, < kleiner, <= kleiner oder gleich, > größer, >= größer oder gleich
verwenden. Mit diesen Operatoren vergleicht man zwei Objekte. Betrachten wir die Wirkung der Operatoren beim Vergleich von zwei Zahlen:
> 3<4 [1] TRUE > 3>4 [1] FALSE
Wir sehen, dass der Vergleich den Wert TRUE liefert, wenn die Bedingung wahr ist, ansonsten liefert er den Wert FALSE. Man kann auch Vektoren mit Skalaren vergleichen. Das Ergebnis ist in diesem Fall ein Vektor, dessen Komponenten TRUE sind, bei denen die Bedingung erfüllt ist. Ansonsten sind die Komponenten FALSE.
Wir betrachten die Variable zeit:
> zeit [1] 38 44 40 41 37 > zeit >= 40 [1] FALSE TRUE TRUE
TRUE FALSE
Man spricht auch von einem logischen Vektor. Wenn wir einen gleichlangen Vektor x mit einem logischen Vektor l durch x[l] indizieren, so werden aus x alle Komponenten ausgewählt, die in l den Wert TRUE annehmen. Der Aufruf
> zeit[zeit >= 40] [1] 44 40 41
liefert also die Fahrzeiten, die mindestens 40 min gedauert haben. Wenn wir wissen wollen, welche dies sind, geben wir ein:
2.5 Selektion unter Bedingungen
25
> (1:length(zeit))[zeit >= 40] [1] 2 3 4
Dieses Ergebnis erhalten wir auch einfacher mit der Funktion which:
> which(zeit >= 40) [1] 2 3 4
Mit den Funktionen any und all können wir überprüfen, ob mindestens eine Komponente oder alle Komponenten eines Vektors eine Bedingung erfüllen:
> any(zeit > 50) [1] FALSE > all(zeit <= 50) [1] TRUE
Zur Überprüfung von mindestens zwei Bedingungen dienen die Operatoren & und |. Der Operator & liefert genau dann das Ergebnis TRUE, wenn alle Bedingungen wahr sind, während dies beim Operator | der Fall ist, wenn mindestens eine Bedingung wahr ist:
> zeit[zeit > 39 & zeit < 43] [1] 40 41 > zeit[zeit < 42 | zeit > 39] [1] 38 44 40 41 37
Wir wollen nun aus der Datentabelle fahrzeiten die benötigten Fahrzeiten für einzelne Strecken auswählen. Mit dem bisher Gelernten erreichen wir das folgendermaßen:
> attach(fahrzeiten) > zeiten.A <- zeiten[strecke==A] > zeiten.A [1] 38 44 40 41 37
Mit der Funktion split haben wir die Möglichkeit, den Datensatz aufzuteilen. Die Funktion wird folgendermaßen aufgerufen:
split(x, f, drop = FALSE, ...)
Das erste Argument x ist ein Vektor oder eine Datentabelle mit den aufzuteilenden Daten. Das Argument f ist ein Faktor, für dessen Faktorstufen der Datensatz entsprechend aufgeteilt werden soll. Wenn einzelne Faktorstufen keine Beobachtungen enthalten, können sie mit drop=TRUE beim Aufteilen entfernt werden.
26
2 Einführung in R
> split(zeiten,strecke) $A [1] 38 44 40 41 37
$B [1] 44 43 47 50 41
$C [1] 44 40 41 42 38
Die Funktion split erstellt eine Liste, deren erste Komponente die Fahrzeiten von Strecke A, deren zweite Komponente die Fahrzeiten von Strecke B und deren dritte Komponente die Fahrzeiten für Strecke C enthält:
> zeiten.strecke <- split(zeiten,strecke) > zeiten.strecke[[1]] [1] 38 44 40 41 37
Auf die Komponenten dieser Liste können wir mithilfe der Funktionen lapply und sapply andere Funktionen anwenden.
Beide Funktionen werden folgendermaßen aufgerufen:
lapply(X,FUN) sapply(X,FUN)
Dabei ist X eine Liste und FUN eine Funktion wie min, max oder sort. Das Ergebnis von lapply ist eine Liste, deren i-te Komponente das Ergebnis enthält,
das man erhält, wenn man die Funktion FUN auf die i-te Komponente der Liste X anwendet. Das Ergebnis von sapply ist ein Vektor, falls das Ergebnis der Funktion FUN ein Skalar
ist. Die i-te Komponente dieses Vektors enthält das Ergebnis, das man erhält, wenn man die Funktion FUN auf die i-te Komponente der Liste X anwendet.
Ist das Ergebnis der Funktion FUN ein Vektor mit einer festen Länge, so ist das Ergebnis von sapply eine Matrix, deren i-te Zeile das Ergebnis enthält, das man erhält, wenn man die Funktion FUN auf die i-te Komponente der Liste X anwendet.
Ansonsten sind die Ergebnisse der Funktionen lapply und sapply identisch. Wollen wir die kürzeste Zeit für die jeweils gefahrenen Strecken des Mitarbeiters bestimmen, so geben wir ein:
> lapply(zeiten.strecke,min) $A [1] 37
2.5 Selektion unter Bedingungen
27
$B [1] 41
$C [1] 38
> sapply(zeiten.strecke,min) ABC
37 41 38
Bei den geordneten Datensätzen der Fahrzeiten auf den drei Strecken liefert lapply eine Liste:
> lapply(zeiten.strecke,sort) $A [1] 37 38 40 41 44
$B [1] 41 43 44 47 50
$C [1] 38 40 41 42 44
und sapply eine Matrix:
> sapply(zeiten.strecke,sort) ABC
[1,] 37 41 38 [2,] 38 43 40 [3,] 40 44 41 [4,] 41 47 42 [5,] 44 50 44
Eine weitere Möglichkeit zur Auswahl von Daten aus einer Datentabelle bietet die Funktion subset. Die Funktion
subset(x,condition)
wählt aus der Datentabelle x die Zeilen aus, die die Bedingung condition erfüllen. Die Daten aller Fahrzeiten auf Strecke B aus der Tabelle fahrzeiten erhalten wir durch
> subset(fahrzeiten,strecke==B)
strecke zeiten
6
B
44
7
B
43
28
2 Einführung in R
8
B
47
9
B
50
10
B
41
Sind wir nur an bestimmten Elementen in der Datentabelle interessiert, können wir mit dem Argument select einzelne Elemente auswählen. Wir erhalten nur die Fahrzeiten durch Eingabe von
> subset(fahrzeiten,strecke==B,select=zeiten)
zeiten
6
44
7
43
8
47
9
50
10
41
Man kann natürlich auch mehr als eine Bedingung angeben. Alle Fahrzeiten auf den Strecken B oder C erhält man durch
> subset(fahrzeiten,strecke==B | strecke==C)
strecke zeiten
6
B
44
7
B
43
8
B
47
9
B
50
10
B
41
11
C
44
12
C
40
13
C
41
14
C
42
15
C
38
Einfaktorielle Experimente
3
Inhaltsverzeichnis
3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Balancierte Experimente mit zwei Faktorstufen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.3 Einfaktorielle Experimente in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1 Grundlagen
Wir beginnen die Auswertung von Experimenten für den Fall, dass die Wirkung genau eines
Faktors mit I Stufen auf die Zielvariable analysiert werden soll. Ausgangspunkt ist dabei
die Nullhypothese, dass wir für die Zielvariable auf jeder der I Faktorstufen den gleichen
Wert erwarten können. Unter H0 steht somit die Aussage, dass der Faktor mit seinen Stufen keinen Effekt auf die Zielvariable hat.
Um diese Hypothese
H0 : μ1 = . . . = μI
(3.1)
überprüfen zu können, müssen wir bestimmte Annahmen treffen. In Kap. 4 werden wir diese Annahmen genauer analysieren und Methoden kennenlernen, mit denen wir sie überprüfen können.
Wir gehen zunächst davon aus, dass die Beobachtungen yi j Realisationen von unabhängigen Zufallsvariablen Yi j sind, die mit Erwartungswert μi , i = 1, . . . , I und Varianz σ 2 normalverteilt sind. Die Erwartungswerte auf den Faktorstufen können sich also unterscheiden, während die Varianz identisch sein muss. Wir geben bei Handl und Kuhlenkasper (2018) in Abschnitt 10.2.3 eine detaillierte Einführung in die Normalverteilung.
Wenn wir mehrere Beobachtungen der Zielvariable auf den Faktorstufen haben, liegt es nahe, zur Überprüfung von Hypothese (3.1) die Mittelwerte
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019
29
T. Kuhlenkasper und A. Handl, Einführung in die statistische Auswertung
von Experimenten, https://doi.org/10.1007/978-3-662-59054-6_3
30
3 Einfaktorielle Experimente
y¯i
=
1 ni
ni
yi j
j =1
(3.2)
auf den einzelnen Faktorstufen zu bestimmen und miteinander zu vergleichen.
Beispiel 3.1 Wir greifen die Daten aus Beispiel 1.1 auf. Dabei gilt y¯1 = 40, y¯2 = 45 und y¯3 = 41. Wir sehen, dass sich die durchschnittlichen Fahrzeiten auf den drei Strecken unterscheiden.
Der Vergleich von zwei Mittelwerten y¯1 und y¯2 ist einfach. Wir bilden die Differenz y¯2 y¯1 der beiden Mittelwerte. Bei mehr als zwei Faktorstufen können wir alle Paare von Faktorstufen betrachten und y¯i mit y¯ j für i < j vergleichen. Hierdurch erhalten wir aber kein globales Maß für den Vergleich aller Faktorstufen. Dieses gewinnen wir dadurch, dass wir die Mittelwerte y¯i von den Faktorstufen i = 1, . . . , I als eine Stichprobe auffassen und bestimmen, wie stark sie um den Mittelwert
1 I ni
y¯ = N
yi j
i=1 j=1
(3.3)
aller Beobachtungen streuen. Dabei gilt
N = n1 + n2 + . . . + nI .
Beispiel 3.1 (fortgesetzt) Wir erhalten mit N = 15 den Gesamtmittelwert y¯ = 42.
Es liegt nun nahe, für die Unterschiedlichkeit der Faktorstufen die Streuung der Mittelwerte y¯i um das Gesamtmittel y¯ folgendermaßen zu bestimmen:
I
(y¯i y¯)2
i =1
Hierbei wird aber nicht berücksichtigt, dass die Anzahl ni der Beobachtungen auf den Faktorstufen unterschiedlich groß sein kann. Eine große Anzahl ni an Beobachtungen auf einer Faktorstufe sollte ein stärkeres Gewicht bei der Berechnung erhalten als eine kleine. Wir bilden also
I
S SA = ni (y¯i y¯)2.
i =1
(3.4)
3.1 Grundlagen
31
Man bezeichnet SSA als Streuung zwischen den Stufen des Faktors A. SSA steht dabei für Sum of Squares von A. Die Quadratsumme gibt an, wie stark die Mittelwerte von den Faktorstufen um das Gesamtmittel streuen, und ist somit ein Maß für die Unterschiedlichkeit der Faktorstufen.
Beispiel 3.1 (fortgesetzt) Es gilt
SSA = 5 · (40 42)2 + 5 · (45 42)2 + 5 · (41 42)2 = 70.
Wie das folgende Beispiel zeigt, ist die Größe SSA allein aber keine geeignete Teststatistik zur Überprüfung von Hypothese (3.1).
Beispiel 3.2 Tab. 3.1 zeigt die Werte eines anderen Mitarbeiters im Außendienst für die Fahrzeit zu einem anderen Kunden. Es liegen hier ebenfalls drei Faktorstufen mit jeweils fünf Beobachtungen vor.
Es gilt
y¯1 = 40, y¯2 = 45, y¯3 = 41, y¯ = 42.
Wir sehen, dass alle vier Mittelwerte identisch zu Beispiel 3.1 sind. Also ist auch in beiden Beispielen der Wert von SSA identisch.
Wie Abb. 3.1 zeigt, unterscheiden sich die beiden Situationen aber beträchtlich. Die Boxplots in Abb. 3.1a verdeutlichen, dass die Streuung auf den Faktorstufen für Beispiel 3.1 klein ist. In Abb. 3.1b ist die Streuung auf den Faktorstufen bei Beispiel 3.2 groß ist. Abb. 3.1a spricht für einen Lageunterschied zwischen den Faktorstufen, während die unterschiedlichen Mittelwerte in Abb. 3.1b eher durch die hohen Streuungen erklärt werden können. Wir können hier keine starken Unterschiede beim Vergleich der drei Strecken erkennen.
Wir müssen also neben der Streuung zwischen den Faktorstufen auch die Streuung innerhalb der Stufen berücksichtigen. Die Streuung innerhalb der i-ten Faktorstufe messen wir durch
ni
(yi j y¯i )2.
j =1
(3.5)
Tab. 3.1 Fahrzeiten eines Mitarbeiters auf drei Strecken
Strecke
Fahrzeit
1
41
33
44
36
46
2
37
46
54
48
40
3
47
49
38
36
35
32
a
60
Kleine Streuung
3 Einfaktorielle Experimente
b
60
Grosse Streuung
55
55
50
50
45
45
40
40
35
35
30
1
2
3
Abb. 3.1 Zwei Situationen
30
1
2
3
Summieren wir (3.5) über alle Gruppen, so erhalten wir
I ni
SSR =
(yi j y¯i )2.
i=1 j=1
(3.6)
Wir nennen SSR auch Streuung innerhalb der Faktorstufen oder unerklärte Reststreuung. SSR misst somit die Unterschiedlichkeit der einzelnen Beobachtungen innerhalb der gebildeten Gruppen von Beobachtungen auf den Faktorstufen. Wir wissen dabei nicht, warum die einzelnen Beobachtungen innerhalb der Gruppen unterschiedlich sind.
Beispiel 3.1 (fortgesetzt) Wir erhalten
SSR = (38 40)2 + (44 40)2 + (40 40)2 + (41 40)2 + (37 40)2 + (44 45)2 + (43 45)2 + (47 45)2 + (50 45)2 + (41 45)2 + (44 41)2 + (40 41)2 + (41 41)2 + (42 41)2 + (38 41)2
= 100.
3.1 Grundlagen
33
Mit Hilfe der Stichprobenvarianzen auf Faktorstufe i
si2
=
ni
1
1
ni
(yi j y¯i )2
j =1
(3.7)
können wir SSR auch folgendermaßen bestimmen:
I
S SR = (ni 1) · si2
i =1
Beispiel 3.1 (fortgesetzt) Es gilt
s12
=
1 4
(38 40)2 + (44 40)2 + (40 40)2 + (41 40)2 + (37 40)2
= 7.5.
Analog erhalten wir s22 = 12.5 und s32 = 5. Also gilt
SSR = 4 · 7.5 + 4 · 12.5 + 4 · 5 = 100.
Die Gesamtstreuung aller beobachteten Werte der Zielvariablen in dem Experiment messen wir durch
I ni
S ST =
(yi j y¯)2.
i=1 j=1
(3.8)
SST misst die Unterschiedlichkeit aller beobachteten Werte vom Gesamtmittelwert.
Beispiel 3.1 (fortgesetzt) Wir erhalten
SST = (38 42)2 + (44 42)2 + (40 42)2 + (41 42)2 + (37 42)2 + (44 42)2 + (43 42)2 + (47 42)2 + (50 42)2 + (41 42)2 + (44 42)2 + (40 42)2 + (41 42)2 + (42 42)2 + (38 42)2
= 170.
34
3 Einfaktorielle Experimente
Im Beispiel gilt
S ST = S SA + S SR.
(3.9)
Dies ist kein Zufall. Diese Beziehung aus Gl. (3.9) gilt allgemein. Dies wird in Anhang B gezeigt.
Gl. (3.9) zeigt das sog. Prinzip der Streuungszerlegung. Dabei setzt sich die gesamte Streuung aller beobachteten Werte aus der Streuung zwischen den Faktorstufen und der Streuung auf den Faktorstufen zusammen. Die Streuung zwischen den Stufen können wir auch als erklärte Streuung bezeichnen. Wir erklären diese Streuung durch die unterschiedlichen Rahmenbedingungen oder Faktorstufen des Experiments, die wir für die Analyse bestimmt haben. Die Streuung auf den Faktorstufen kann als nichterklärte Streuung interpretiert werden. Wir wissen nicht, was dazu geführt hat, dass die Werte der Zielvariablen auf den jeweiligen Faktorstufen sich voneinander unterscheiden. Es gilt allgemein
Gesamtstreuung = erkla¨rte Streuung + nichterkla¨rte Streuung.
(3.10)
Mit Hilfe der Streuungszerlegung erhalten wir eine geeignete Teststatistik. Dafür vergleichen wir die mittleren Streuungen, wobei die Mittelwerte unter der Nebenbedingung bestimmt werden, wie viele der Summanden frei gewählt werden können. Die Streuung zwischen den Faktorstufen setzt sich aus I Summanden zusammen, von denen aber nur I 1 frei gewählt werden können, da sich der Mittelwert auf der I -ten Faktorstufe aus allen anderen Mittelwerten
y¯, y¯1, . . . , y¯I 1
ergibt. Die Streuung auf den Faktorstufen setzt sich aus N Summanden zusammen. Auf der i-ten Faktorstufe ergibt sich aber yini aus der Kenntnis von
yi1, . . . , yini1 , y¯i .
Somit sind von den N Summanden nur N I frei wählbar. Wir erhalten also
M SSA
=
SSA I 1
(3.11)
als mittlere Streuung zwischen den Faktorstufen. Außerdem ist
M S SR
=
SSR NI
(3.12)
die mittlere Streuung auf den jeweiligen Faktorstufen.
3.1 Grundlagen
35
Beispiel 3.1 (fortgesetzt) Es gilt M SSA = 70/2 = 35 und M SSR = 100/12 = 8.33. Wir sehen, dass die mittlere Streuung, die wir erklären können, deutlich größer ist als der unerklärte Rest.
Wir überprüfen die Hypothese
H0 : μ1 = . . . = μI
mit der Teststatistik
F = MSSA =
I
1 1
I i =1
ni (Y¯i Y¯ )2
.
M S SR
1 NI
I
ni
(Yi j Y¯i )2
i=1 j=1
(3.13)
Ist die mittlere Streuung zwischen den Faktorstufen im Zähler von (3.13) groß im Verhältnis zur mittleren Streuung auf den Faktorstufen im Nenner von (3.13), so wird die Nullhypothese identischer Erwartungswerte abgelehnt. Unter der Nullhypothese ist die Teststatistik in Gl. (3.13) mit I 1 und N I Freiheitsgraden F-verteilt.
Wir lehnen die Hypothese
H0 : μ1 = . . . = μI
zum Niveau α ab, wenn gilt
F ≥ FI 1,N I ;1α.
Dabei ist FI 1,NI ;1α das 1 α-Quantil der F-Verteilung mit I 1 und N I Freiheitsgraden ist. Für α = 0.05 zeigt Tab. C.1 das 0.95-Quantil der F-Verteilung.
Beispiel 3.1 (fortgesetzt) Es gilt
F
=
35 8.33
=
4.2.
Tab. C.1 entnehmen wir F2,12;0.95 = 3.89. Wir lehnen die Hypothese identischer Erwartungswerte auf den Faktorstufen also ab. Somit hat hier Faktor A mit seinen drei Stufen einen signifikanten Einfluss auf die Zielvariable. Die Strecken unterscheiden sich somit signifikant in Bezug auf die Fahrzeit des Mitarbeiters zum Kunden. Wir wählen somit Strecke 1, bei der wir die kürzeste Fahrzeit von 40 min erwarten können.
36
3 Einfaktorielle Experimente
Man spricht auch vom F-Test und der Varianzanalyse, da die Teststatistik das Verhältnis von zwei Schätzern der Varianz von σ 2 ist.
Die Ergebnisse einer Varianzanalyse werden in einer ANOVA-Tabelle zusammengestellt. Tab. 3.2 zeigt den allgemeinen Aufbau einer ANOVA-Tabelle.
Beispiel 3.1 (fortgesetzt) Tab. 3.3 zeigt die ANOVA-Tabelle.
Beispiel 3.2 (fortgesetzt) Für das Experiment des zweiten Außendienstmitarbeiters gilt
SSR = (41 40)2 + (33 40)2 + (44 40)2 + (36 40)2 + (46 40)2 + (37 45)2 + (46 45)2 + (54 45)2 + (48 45)2 + (40 45)2 + (47 41)2 + (49 41)2 + (38 41)2 + (36 41)2 + (35 41)2
= 468.
Somit erhalten wir die ANOVA-Tabelle (Tab. 3.4). Wie zu erwarten war, lehnen wir wegen F2,12;0.95 = 3.89 die Hypothese identischer
Erwartungswerte auf den Faktorstufen also nicht ab. Bei dem anderen Mitarbeiter gibt es keinen signifikanten Unterschied bei der Fahrzeit auf den drei zur Verfügung stehenden Strecken.
Tab. 3.2 Allgemeiner Aufbau einer ANOVA-Tabelle
Quelle der Variation
Quadratsummen Freiheitsgrade
Zwischen den
SSA
Faktorstufen
Innerhalb der
SSR
Faktorstufen
Gesamt
S ST
I 1 NI N 1
Mittlere Quadratsummen M SSA
M S SR
F M SSA M S SR
Tab. 3.3 ANOVA-Tabelle für den Vergleich der Fahrzeit auf den drei Strecken bei kleiner Streuung
Quelle der Variation
Quadratsummen Freiheitsgrade
Mittlere
F
Quadratsummen
Zwischen den 70
2
Faktorstufen
Innerhalb der 100
12
Faktorstufen
35.00
4.2
8.33
Gesamt
170
14
3.2 Balancierte Experimente mit zwei Faktorstufen
37
Tab. 3.4 ANOVA-Tabelle für den Vergleich der Fahrzeit auf den drei Strecken bei großer Streuung
Quelle der Variation
Quadratsummen Freiheitsgrade
Mittlere
F
Quadratsummen
Zwischen den 70
2
Faktorstufen
35.00
0.8974
Innerhalb der 468
12
39
Faktorstufen
Gesamt
538
14
3.2 Balancierte Experimente mit zwei Faktorstufen
Bei vielen Experimenten betrachtet man Faktoren mit genau zwei Faktorstufen. Man bezeichnet die Faktorstufen mit - und +.
Beispiel 3.3 Der Mitarbeiter im Außendienst kann nun nur zwischen zwei Strecken wählen. Die Strecke ist somit ein Faktor A mit den Stufen Strecke 1 und Strecke 2. Wir bezeichnen die erste Strecke mit - und die zweite Strecke mit +. Er fährt jede Strecke fünfmal und erhält bei Strecke 1 die Werte
38 44 40 41 37
und bei Strecke 2 die Werte
44 43 47 50 41
Wir bezeichnen die Zielvariable auf der Faktorstufe - mit Y1 und auf der Faktorstufe + mit Y2. Bei zwei Faktorstufen interessiert uns der Effekt des Faktors A: Wie wirkt der Faktor auf die Zielvariable? Der Effekt E A des Faktors A gibt an, wie sich die Zielvariable Y im Mittel ändert, wenn man von der Faktorstufe - auf die Faktorstufe + übergeht. Es gilt also
E A = μ2 μ1.
(3.14)
Dabei interessieren uns zwei Fragen:
1. Wie groß ist der Effekt des Faktors A? 2. Ist E A signifikant von 0 verschieden?
38
3 Einfaktorielle Experimente
Zur Beantwortung beider Fragen führen wir den Versuch auf beiden Faktorstufen durch,
wobei wir die ersten beiden Prinzipien der Versuchsplanung beachten. Wir beobachten
also die Realisierungen yi j der Zufallsvariablen Yi j . Im Folgenden gehen wir erneut von der Annahme aus, dass die Zufallsvariablen Yi j mit i = 1, 2, und j = 1, 2, . . . , n normalverteilt mit den Parametern μi und σ 2 sind.
Wir gehen somit auch davon aus, dass die Anzahl der Beobachtungen auf jeder Faktorstufe
gleich ist. Somit gilt n1 = n2 = n und N = 2n für den gesamten Stichprobenumfang. Wir werten im Folgenden also balancierte Experimente aus.
3.2.1 Schätzer des Effekts von A
Wenden wir uns der Beantwortung von Frage 1 zu. Hierzu stellen wir für i = 1, 2 und j = 1, . . . , n folgendes Modell auf:
Yi j = μi + εi j
(3.15)
Dabei ist μ1 der Erwartungswert von Y auf der ersten und μ2 der Erwartungswert von Y auf der zweiten Faktorstufe. Die εi j sind die Störgrößen, die alle anderen Einflussgrößen umfassen, die wir aber nicht im Experiment berücksichtigen können. Wir unterstellen, dass
die εi j unabhängig und identisch normalverteilt mit E(εi j ) = 0 und V ar (εi j ) = σ 2 sind. Hieraus folgt, dass die Yi j mit E(Yi j ) = μi und V ar (Yi j ) = σ 2 normalverteilt sind. Im Modell (3.15) erfüllen unsere Zielvariablen Yi j somit die zuvor getroffene Annahme. Die Erwartungswerte μ1 und μ2 sind im Modell (3.15) unbekannt und müssen aus
den erhobenen Daten des Experiments geschätzt werden. Wir schätzen μ1 und μ2 im Modell (3.15) nach der Methode der Kleinsten Quadrate, die bei vielen Methoden der Sta-
tistik zur Anwendung kommt. Wir suchen also die Werte von μ1 und μ2, für die
n
n
(y1 j μ1)2 + (y2 j μ2)2
j =1
j =1
(3.16)
minimal wird. Es gilt für den Schätzer von μi
μˆi
=
y¯i
=
1 n
n
yi j .
j =1
(3.17)
Dies wird in Anhang B gezeigt. Wir sehen also, dass der bereits zu Beginn dieses Kapitels intuitiv verwendete Mittelwert der Beobachtungen auf den Faktorstufen als Schätzer für die Erwartungswerte verwendet werden sollte.
3.2 Balancierte Experimente mit zwei Faktorstufen
39
Beispiel 3.3 (fortgesetzt) Es gilt y¯1 = 40 und y¯2 = 45.
Wir schätzen den Effekt eines Faktors durch die Differenz der jeweiligen Mittelwerte auf den beiden Faktorstufen. Der geschätzte Effekt eA des Faktors A ergibt sich somit als
eA = y¯2 y¯1.
(3.18)
Beispiel 3.3 (fortgesetzt) Der geschätzte Effekt von A ist eA = y¯2 y¯1 = 45 40 = 5.
Für Strecke 2 benötigt der Mitarbeiter im Mittel fünf Minuten länger als für Strecke 1.
Wenden wir uns Frage 2 zu. Wir wollen nun die Hypothese
H0 : E A = 0
überprüfen. Wegen
E A = μ2 μ1
ist diese Hypothese äquivalent zu
H0 : μ1 = μ2.
Wir können also erneut den F-Test aus Abschn. 3.1 anwenden. Bei zwei Faktorstufen und identischer Anzahl n von Beobachtungen auf den beiden Faktorstufen vereinfacht sich die Formel von SSA. Es gilt dann
SSA
=
n (y¯2
2
y¯1)2 .
(3.19)
Der Beweis wird in Anhang B gezeigt.
Beispiel 3.3 (fortgesetzt) Wir bestimmen SSA auf zwei Arten. Wir beginnen mit Gl. (3.4). Es gilt y¯ = 42.5. Also folgt
SSA = 5 · (40 42.5)2 + 5 · (45 42.5)2 = 62.5.
Wir erhalten das gleiche Ergebnis mit Gl. (3.19):
SSA
=
5 · (45 40)2 2
=
62.5
40
3 Einfaktorielle Experimente
Tab. 3.5 ANOVA-Tabelle für den Vergleich der Fahrzeit auf zwei Strecken
Quelle der Variation
Quadratsummen Freiheitsgrade
Mittlere
F
Quadratsummen
Zwischen den 62.5
1
Faktorstufen
62.5
6.25
Innerhalb der 80
8
10
Faktorstufen
Gesamt
142.5
9
Wir können nun auch die ANOVA-Tabelle aufstellen. Hierzu benötigen wir noch die unerklärte Reststreuung SSR. Es gilt
SSR = (38 40)2 + (44 40)2 + (40 40)2 + (41 40)2 + (37 40)2 + (44 45)2 + (43 45)2 + (47 45)2 + (50 45)2 + (41 45)2
= 80.
Tab. 3.5 zeigt die ANOVA-Tabelle. Wegen F1,8;0.95 = 5.32 aus Tab. C.1 lehnen wir zum Signifikanzniveau α = 0.05 die
Hypothese ab, dass der Effekt von A gleich 0 ist. Somit benötigt der Mitarbeiter für Strecke 1 signifikant weniger Fahrzeit als für Strecke 2. Diesen Unterschied haben wir mit fünf Minuten geschätzt.
3.2.2 t-Test
Wir haben in Abschn. 3.2 für zwei Faktorstufen den F-Test verwendet, um die Hypothesen
zu überprüfen. Wir können das gleiche Ergebnis mit Hilfe eines t-Tests für unverbundene
Stichproben von Beobachtungen auf den Faktorstufen erhalten. Wir gehen dabei zunächst
erneut von der Normalverteilung der Daten sowie identischen Varianzen bei den beiden Stichproben bzw. den beiden Faktorstufen aus. Mit identischen Stichprobenumfängen n1 = n2 = n nehmen wir also an, dass die Zielvariablen Yi j für i = 1, 2 mit den Parametern μi und σ 2 normalverteilt sind. Der t-Test für zwei Faktorstufen verwendet als Teststatistik
t = y¯1 y¯2 .
σˆ
2 n
(3.20)
Die Varianzen von beiden Faktorstufen werden dabei zu einer geschätzten Varianz σˆ 2 für den Nenner der Teststatistik kombiniert. Man spricht auch von einer gepoolten Varianz.
3.2 Balancierte Experimente mit zwei Faktorstufen
Dabei verwenden wir
σˆ 2
=
1 2n
2
n
⎝ (y1 j
j =1
y¯1)2
+
n
(y2 j
j =1
y¯2)2⎠ .
41 (3.21)
Beispiel 3.3 (fortgesetzt) Wir verwenden y¯1 = 40, y¯2 = 45 sowie n = 5. Außerdem bestimmen wir
n
(y1 j y¯1) = (38 40)2 + (44 40)2 + (40 40)2 + (41 40)2 + (37 40)2
j =1
= 30
sowie
n
(y2 j y¯2) = (44 45)2 + (43 45)2 + (47 45)2 + (50 45)2 + (41 45)2
j =1
= 50.
Wir schätzen also die gemeinsame Varianz für die beiden Faktorstufen mit
σˆ 2 = 1 (30 + 50) = 10. 8 √
Für den Wert der Teststatistik verwenden wir 10 = 3.162 und erhalten
t = 40 45 = 2.5.
3.162
2 5
Wir lehnen die Nullhypothese gleicher Erwartungswerte ab, wenn sich die beiden Mittelwerte y¯1 und y¯2 als Schätzer der Erwartungswerte auf den beiden Faktorstufen stark voneinander unterscheiden. Dabei berücksichtigen wir die gemeinsame Streuung. Unter der Annahme gleicher Erwartungswerte ist t als Teststatistik t-verteilt mit 2n 2 Freiheitsgraden. Wir lehnen H0 somit ab, wenn gilt |t| > t2n2;1α/2. Dabei ist t2n2;1α/2 das 1 α/2-Quantil der t-Verteilung mit 2n 2 Freiheitsgraden. Die Tabelle in Abschn. C.2 zeigt die Quantile der t-Verteilung.
42
3 Einfaktorielle Experimente
Beispiel 3.3 (fortgesetzt) Tab. C.2 entnehmen wir den kritischen Wert von t8;0.975 = 2.3060. Da | 2.5| > 2.3060, lehnen wir H0 ab und gehen auch bei der Anwendung des t-Tests von einem signifikanten Unterschied zwischen den beiden Gruppen aus.
In dem Beispiel kommen der F- und der t-Test zum gleichen Ergebnis. Außerdem gilt in dem Beispiel, dass t2 = 2.52 = 6.25 = F ist. Das ist kein Zufall. Es gilt für Experimente mit zwei Faktorstufen und n1 = n2 allgemein
t2 = F.
(3.22)
Anhang B zeigt den Beweis. Wir können also den t-Test für zwei unverbundene Stichproben als Spezialfall des F-Tests der Varianzanalyse für I = 2 auffassen. Für den Fall, dass wir zwar bei zwei Faktorstufen Normalverteilung, aber keine identischen Varianzen annehmen können, zeigt Abschn. 8.1 eine Modifikation zum t-Test.
3.2.3 Algorithmus von Yates
Die Bestimmung der Effekte und Quadratsummen kann bei Varianzanalysen mit vielen Beobachtungen sehr zeitaufwendig sein. Frank Yates hat 1937 einen Algorithmus vorgeschlagen, mit dem man bei der Auswertung von balancierten Experimenten mit zwei Faktorstufen die Schätzer der Effekte und die Quadratsummen schnell bestimmen kann (s. Yates 1937). Betrachten wir hierzu erneut den Schätzer des Effekts von A und die Quadratsumme SSA.
Der Schätzer des Effekts von A ist
n
n
y2 j y1 j
eA = j=1
j =1
.
n
(3.23)
Den Beweis zeigt Anhang B. Für SSA gilt:
SSA =
2
n
n
y2 j y1 j
j =1
j =1
2n
(3.24)
Auch hier zeigt Anhang B den Beweis.
3.2 Balancierte Experimente mit zwei Faktorstufen
43
Wir sehen, dass beide Ausdrücke jeweils von
n
n
KA =
y2 j
y1 j
j =1
j =1
(3.25)
im Zähler abhängen. Man nennt K A auch den Kontrast des Faktors A. Dieser ist gleich der Differenz aus der Summe der Beobachtungen auf der Faktorstufe + und der Summe der Beobachtungen auf der Faktorstufe -.
Wir schreiben im Folgenden für die Summe
n
y2 j
j =1
der Beobachtungen auf der Faktorstufe + das Symbol a und für die Summe
n
y1 j
j =1
der Beobachtungen auf der Faktorstufe - das Symbol (1). Dabei symbolisiert der Buchstabe a, dass der Faktor A auf + steht.
Beispiel 3.3 (fortgesetzt) Es gilt
(1) = 38 + 44 + 40 + 41 + 37 = 200
und
a = 44 + 43 + 47 + 50 + 41 = 225.
Mit Hilfe von (1) und a können wir nun den Kontrast von A bestimmen, indem wir diese in Gl. (3.23) und (3.24) einsetzen. Wir erhalten
Es gilt
K A = a (1).
(3.26)
eA
=
KA n
44
Tab. 3.6 Ausgangstabelle beim Algorithmus von Yates bei einem 21-Experiment
3 Einfaktorielle Experimente
(1) a
und
SSA
=
K
2 A
.
2n
Mit dem Algorithmus von Yates können wir auch bei Experimenten mit mehr als einem Faktor die Kontraste der Faktoren schnell bestimmen. Ein Experiment mit k = 1 Faktor und I = 2 Faktorstufen wird auch als einfaktorieller Versuchsplan oder als 21-Experiment bezeichnet. Wir wählen für den Algorithmus deshalb eine Form der Darstellung, die auf mehr als einen Faktor erweitert werden kann. Hierzu stellen wir folgende Tab. 3.6 auf.
Nun erzeugen wir eine weitere Spalte. Die erste Zahl in dieser Spalte ist gleich der Summe der Zahlen in der ersten Spalte. Die zweite Zahl ist die Differenz aus der zweiten Zahl und der ersten Zahl. Wir erhalten Tab. 3.7.
Bei einem Versuchsplan mit einem Faktor sind wir nach diesem Schritt fertig. Wir sehen, dass neben a der Kontrast von A steht.
Beispiel 3.3 (fortgesetzt) Wir erhalten folgende Tab. 3.8.
Es gilt also K A = 25. Damit erhalten wir
eA
=
25 5
=
5
und
SSA
=
252 2·5
=
62.5.
Tab. 3.7 Erster Schritt beim Algorithmus von Yates bei einem 21-Experiment
Tab. 3.8 Erster Schritt beim Algorithmus von Yates bei einem 21-Experiment
(1) (1) + a a a (1)
(1) 200 425 a 225 25
3.3 Einfaktorielle Experimente in R
45
3.3 Einfaktorielle Experimente in R
Wir wollen die einfaktorielle Varianzanalyse für Beispiel 3.3 durchführen. Dazu weisen wir alle Werte einer Variablen in der Reihenfolge der Gruppen zu. Diese Variable nennen wir Zeit:
> Zeit <- c(38,44,40,41,37,44,43,47,50,41)
Die ersten fünf Komponenten von Zeit gehören zur ersten Strecke und somit zur Faktorstufe -. Die nächsten fünf Komponenten gehören zur zweiten Strecke und somit zur Faktorstufe +. Wir erzeugen einen Vektor Strecke, bei dem die ersten fünf Komponenten den Wert - und die letzten fünf Komponenten den Wert + erhalten. Hierzu benutzen wir die Funktion rep. Der Aufruf
rep(x,times)
erzeugt einen Vektor, in dem das Argument x times-mal wiederholt wird:
> rep(1,8) [1] 1 1 1 1 1 1 1 1
Dabei können x und times Vektoren sein. Sind x und times gleich lange Vektoren, so wird x[i] times[i]-mal wiederholt.
> Strecke <- rep(c(-,+),c(5,5)) > Strecke
[1] "-" "-" "-" "-" "-" "+" "+" "+" "+" "+"
Nun müssen wir aus dem Vektor noch einen Faktor machen. Dies leistet die bekannte Funktion factor:
> Strecke <- factor(Strecke) > Strecke
[1] - - - - - + + + + + Levels: - +
Die Varianzanalyse führen wir mit der Funktion aov durch. Die Funktion aov hat das Argument formula. Mit diesem können wir das Modell der Varianzanalyse durch eine Formel spezifizieren. Wie sieht diese Formel für eine einfaktorielle Varianzanalyse für das Beispiel aus? Wir wollen Unterschiede der Zielvariablen Zeit durch die Stufen des Faktors Strecke erklären. Hierfür schreiben wir die Formel durch Zeit ˜ Strecke. Auf der linken Seite der Formel steht die Zielvariable des Experiments als zu erklärende Variable.
46
3 Einfaktorielle Experimente
Das Zeichen ˜ liest man als „wird modelliert durch“ oder „wird erklärt durch“. Auf der rechten Seite steht der Faktor des Experiments als erklärende Variable. Wir geben also ein:
> e <- aov(Zeit˜Strecke)
Die Variable e enthält das Ergebnis der Varianzanalyse. Rufen wir die Funktion summary mit e auf, so erhalten wir die ANOVA-Tabelle.
> summary(e)
Df Sum Sq Mean Sq F value Pr(>F)
Strecke
1 62.5 62.5 6.25 0.0369 *
Residuals 8 80.0 10.0
---
Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
Die Tabelle fasst alle wichtigen Informationen der einfaktoriellen Varianzanalyse zusammen. Dabei steht Df für Freiheitsgrade, Sum Sq für die Quadratsummen und Mean Sq für mittlere Quadratsummen. Die Teststatistik des F-Tests finden wir unter F value. Außerdem gibt es noch eine Spalte, die mit Pr(>F) überschrieben ist. Hier findet man die Überschreitungswahrscheinlichkeit des F-Tests, die auch als p-Wert oder berechnete Signifikanz bezeichnet wird. Dies ist das kleinste Signifikanzniveau, zu dem man die Nullhypothese ablehnen würde. Wir geben bei Handl und Kuhlenkasper (2018) in Kapitel 14 weitere Informationen zum p-Wert. Führt man den Test also zum Niveau α = 0.05 durch, so lehnt man die Nullhypothese ab, wenn die Überschreitungswahrscheinlichkeit kleiner oder gleich 0.05 ist. Wir sehen, dass der Effekt des Faktors Strecke signifikant ist.
Als Alternative zur Varianzanalyse bei zwei Faktorstufen können wir den t-Test anwenden. Dafür verwenden wir die Funktion t.test. Wir rufen den Test mit den beiden Variablen auf. Wir gehen von identischen Varianzen auf beiden Faktorstufen aus und müssen das Argument var.equal auf den Wert TRUE setzen. Außerdem steuern wir mit dem Argument paired=FALSE, dass es sich um zwei unverbundene Stichproben bzw. Faktorstufen handelt.
> t.test(Zeit˜Strecke,var.equal=TRUE,paired=FALSE)
Two Sample t-test
data: Zeit by Strecke
t = -2.5, df = 8, p-value = 0.03694
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-9.6120083 -0.3879917
sample estimates:
mean in group - mean in group +
40
45
3.4 Übungsaufgaben
47
Der Wert der Teststatistik ist 2.5. Die Überschreitungswahrscheinlichkeit beträgt 0.0364. Sie ist gleich dem berechneten p-Wert der aov-Funktion. Also lehnen wir H0 zum Signifikanzniveau 0.05 nicht ab. Wir erkennen auch den Unterschied von fünf Minuten zwischen der Faktorstufe + und -.
3.4 Übungsaufgaben
Übung 3.1 Ein Hersteller von Tiefkühlpizza möchte in einem Experiment überprüfen, ob unterschiedliche Käsesorten (Faktor A) auf einer Pizza zu unterschiedlichen Beurteilungen des Geschmacks führen. In dem Experiment stehen drei Käsesorten zur Verfügung.
Insgesamt neun Testesser haben zufällig ein Stück Pizza mit einer der drei genannten Käsesorten erhalten. Sie sollten den Geschmack auf einer Skala von 1 (schmeckt mir gar nicht) bis 7 (schmeckt mir hervorragend gut) beurteilen. Die Bewertungen werden als metrisches Skalenniveau aufgefasst. Wir gehen zunächst von Normalverteilung und identischen Varianzen aus.
Werten Sie das Experiment mit folgenden Daten aus:
Mozzarella Parmesan Gorgonzola 456 23 4 1 2 3
Übung 3.2 Werten Sie das Experiment aus Übung 3.1 mit folgenden, geänderten Daten aus:
Gouda Emmentaler Feta 163 35 1 1 1 4
Übung 3.3 Überprüfen Sie die Ergebnisse aus Übung 3.1 und 3.2 mit Hilfe von R.
Annahmen der Varianzanalyse
4
Inhaltsverzeichnis
4.1 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Varianzhomogenität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.3 Überprüfung der Annahmen mit R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Wir wollen mit den Methoden in diesem Buch verlässliche Aussagen darüber treffen, ob Faktoren systematisch auf eine Zielvariable wirken. Oft haben wir über die Wirkung der Faktoren bereits Vermutungen. Diese Vermutungen werden als Hypothesen und Gegenhypothesen formuliert. Mit Hilfe statistischer Tests werden die Hypothesen überprüft. Wir geben bei Handl und Kuhlenkasper (2018) in Kapitel 14 eine detaillierte Einführung zu den Grundbegriffen des statistischen Testens.
Wir haben in Kap. 3 sowohl den F- als auch den t-Test für die Varianzanalyse kennengelernt und angewendet. Jeder statistische Test benötigt dabei eine Prüfgröße, die auch Teststatistik genannt wird. Die Teststatistik ist dabei eine Zufallsvariable, und für die Durchführung der Tests benötigen wir ein Verteilungsmodell für die jeweils verwendete Teststatistik. Die Verteilung der Teststatistik hängt dabei entscheidend von Annahmen ab, die wir über unsere Zielvariable und somit auch über unsere beobachteten Daten treffen. Für die F-Tests der Varianzanalyse in diesem Buch müssen drei Voraussetzungen oder Annahmen erfüllt sein:
1. Die Beobachtungen des Experiments müssen unabhängig voneinander sein. 2. Die zufälligen Störgrößen müssen normalverteilt sein. 3. Die Varianzen der beobachteten Werte auf den Faktorstufen müssen identisch sein.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019
49
T. Kuhlenkasper und A. Handl, Einführung in die statistische Auswertung
von Experimenten, https://doi.org/10.1007/978-3-662-59054-6_4
50
4 Annahmen der Varianzanalyse
Man spricht bei Voraussetzung Nr. 3 auch von Varianzhomogenität oder Homoskedastizität. Sind die Annahmen Nr. 2 und/oder Nr. 3 verletzt, können wir nicht von der F- oder t-Verteilung der Teststatistiken ausgehen. Somit können wir dann auch keine verlässlichen Aussagen über den Ausgang des Experiments treffen. Sind diese Annahmen verletzt, sollte man verteilungsfreie, nichtparametrische Verfahren alternativ anwenden. Diese Verfahren sind zwar robust gegenüber diesen Annahmen der Varianzanalyse, sie besitzen jedoch häufig eine geringere Teststärke. Die Teststärke bei der Auswertung von Experimenten gibt an, wie groß die Wahrscheinlichkeit ist, einen Unterschied zwischen den Faktorstufen mit den Tests zu finden, wenn ein solcher Unterschied auch tatsächlich vorliegt. Je größer diese Wahrscheinlichkeit ist, desto größer ist die Teststärke. In Kap. 8 werden wir einige alternative Methoden zur Auswertung von Experimenten kennenlernen.
Wir wollen uns zunächst damit beschäftigen, wie wir die Annahmen Nr. 2 und Nr. 3 überprüfen können. Die Voraussetzung Nr. 1 ist erfüllt, wenn wir das Prinzip der Randomisierung berücksichtigen. Wie können wir aber die Annahmen der Normalverteilung und der Varianzhomogenität überprüfen?
4.1 Normalverteilung
In der Statistik hat die Normalverteilung eine besondere Bedeutung. Dieses Verteilungsmodell wurde Anfang des 19. Jahrhunderts von Carl-Friedrich Gauß vorgeschlagen und hat seitdem eine herausragende Bedeutung in der Datenanalyse. Wir geben bei Handl und Kuhlenkasper (2018) in Abschnitt 10.2 eine detaillierte Einführung in die Normalverteilung und deren Anwendung. In Kap. 3 vergleichen wir für die ANOVA zwei Varianzen mit dem F-Test. Hier ist unter H0 die Teststatistik F-verteilt. Die F-Verteilung ist dabei aus der Normalverteilung abgeleitet. Wir wollen den Zusammenhang genauer betrachten: Wir gehen davon aus, dass eine Zufallsvariable Z = (X μ)/σ standardnormalverteilt ist, wenn eine Zufallsvariable X mit den Parametern μ und σ 2 normalverteilt ist.
Abb. 4.1 zeigt die Dichtefunktion der Standardnormalverteilung. Die Zufallsvariable Z 2 ist in diesem Fall χ 2 mit k = 1 Freiheitsgraden. Man nennt den Parameter der Chiquadratverteilung (χ 2-Verteilung) also Freiheitsgrad. Oft betrachtet man k unabhängige standardnormalverteilte Zufallsvariablen Z1, . . . , Zk. In diesem Fall ist
k
Z i2
i =1
χ 2-verteilt mit k Freiheitsgraden. Abb. 4.2 zeigt die Dichtefunktion der χ 2-Verteilung mit verschiedenen Freiheitsgraden. Ausgangspunkt der F-Verteilung sind die unabhängigen Zufallsvariablen V und W ,
wobei V χ 2-verteilt mit m und W χ 2-verteilt mit n Freiheitsgraden ist. In diesem Fall ist die Zufallsvariable
4.1 Normalverteilung
51
0.4
0.3
f(x)
0.2
0.1
0.0
4
2
0
2
4
x
Abb. 4.1 Dichtefunktion der Standardnormalverteilung
0.25 0.20
k=3 k=4 k=5 k=10
0.15
f(x)
0.10
0.05
0.00
0
5
10
15
20
25
x
Abb. 4.2 Dichtefunktion der χ 2-Verteilung mit k = 3, k = 4, k = 5 und k = 10 Freiheitsgraden
52
Abb. 4.3 Dichtefunktion der F-Verteilung mit m = 5, n = 5, m = 5, n = 10, m = 5, n = 50 und m = 50, n = 50 Freiheitsgraden
f(x)
4 Annahmen der Varianzanalyse
1.4
F(5,5)
F(5,10)
1.2
F(5,50)
F(50,50)
1.0
0.8
0.6
0.4
0.2
0.0
1
2
3
4
5
x
F
=
V /m W /n
F-verteilt mit m und n Freiheitsgraden. Wir sehen, dass die Annahme der Normalverteilung eine Voraussetzung für den F-Test ist.
Abb. 4.3 zeigt die Dichtefunktion der F-Verteilung mit m = 5, n = 5 und m = 5, n = 10 sowie m = 5, n = 50 und m = 50, n = 50 Freiheitsgraden.
Bei einfaktoriellen Experimenten mit zwei Faktorstufen können wir als Alternative zum F-Test auch den t-Test anwenden. Ausgangspunkt der t-Verteilung sind die Zufallsvariablen Z und V . Wir gehen davon aus, dass Z standardnormalverteilt und V χ 2-verteilt mit k Freiheitsgraden ist. Sind Z und V unabhängig, so ist die Zufallsvariable
T = √Z V /k
t-verteilt mit k Freiheitsgraden. Somit ist die Annahme der Normalverteilung auch Voraussetzung für die Anwendung des t-Tests. Abb. 4.4 zeigt die Dichtefunktion der t-Verteilung mit k = 1, k = 3 und k = 10 Freiheitsgraden. Außerdem ist noch die Dichtefunktion der Standardnormalverteilung eingezeichnet.
Wir sehen, dass die Dichtefunktion der t-Verteilung mit wachsender Zahl von Freiheitsgraden der Dichtefunktion der Standardnormalverteilung immer ähnlicher wird. Die t-Verteilung mit kleiner Anzahl von Freiheitsgraden streut mehr als die Standardnormalverteilung. Somit hat die t-Verteilung mehr Wahrscheinlichkeitsmasse an den Rändern als
4.1 Normalverteilung
Abb. 4.4 Dichtefunktion der
t-Verteilung mit k = 1, k = 3
0.4
und k = 10 Freiheitsgraden
0.3
53
N(0,1) k=1 k=3 k=10
f(x)
0.2
0.1
0.0
6
4
2
0
2
4
6
x
die Standardnormalverteilung. Dies erkennt man auch an der Varianz der t-Verteilung. Für k ≥ 3 gilt
V ar(T )
=
n
n
. 2
Die Varianz von T konvergiert gegen die Varianz der Standardnormalverteilung mit n → ∞. Sowohl die χ 2-Verteilung als auch die F-Verteilung und die t-Verteilung basieren auf
der Normalverteilung und werden auch als Prüfverteilungen bezeichnet. Die Annahme, dass unsere Störgrößen normalverteilt sind, sollte somit vor der Durch-
führung der Varianzanalyse und auch vor der Anwendung des F-Tests geprüft werden. Nur dann ist auch die Annahme der F-Verteilung für die verwendete Teststatistik gerechtfertigt. Dabei fassen wir die Störgrößen als Zufallsvariablen auf. Da diese zufälligen Fehler nicht beobachtet werden können, müssen wir sie mit Hilfe unserer Daten schätzen. Die geschätzten Störgrößen nennt man auch Residuen. Die Residuen berücksichtigen wir in der Varianzanalyse in der unerklärten Reststreuung SSR.
Zu jedem beobachteten Wert yi j in einem Experiment gibt es ein Residuum εˆi j , das den Unterschied zwischen dem geschätzten Erwartungswert unserer Zielvariablen Y und dem beobachteten Wert angibt. Wie wir bereits in Kap. 3 gesehen haben, wird der Erwartungswert von Y bei einfaktoriellen Experimenten mit dem Mittelwert der Beobachtungen auf jeder Faktorstufe geschätzt. Somit gilt für die Residuen
εˆi j = yi j yi .
(4.1)
Dabei ist yi der Mittelwert aller Beobachtungen von Faktorstufe i.
54
4 Annahmen der Varianzanalyse
Beispiel 4.1 Wir greifen erneut Beispiel 3.3 auf und erhalten y1 = 40 und y2 = 45. Somit gilt für die Residuen auf der ersten Strecke
εˆ11 = 2, εˆ12 = 4, εˆ13 = 0, εˆ14 = 1, εˆ15 = 3
und für die Residuen auf der zweiten Strecke
εˆ21 = 1, εˆ22 = 2, εˆ23 = 2, εˆ24 = 5, εˆ25 = 4.
Wir beginnen zunächst mit einer grafischen Analyse der Residuen, mit der man die Annahme
der Normalverteilung überprüfen kann. Dafür erstellen wir einen sog. Normal-QuantilPlot. In einer solchen Grafik werden die geordneten Residuen εˆ(1) ≤ εˆ(2) ≤ . . . εˆ(N) aus dem Experiment gegen die theoretischen Quantile der Standardnormalverteilung abgetragen.
Die Quantilsfunktion erhalten wir als Inverse der Verteilungsfunktion. Wir verwenden also z( p) = Φ1( p). Dabei ist Φ(z) die Verteilungsfunktion der Standardnormalverteilung mit
Φ(z) = z √1 e0.5u2 du. −∞ 2π
(4.2)
Die Quantile der Standardnormalverteilung zeigt Tab. C.1. Für die geordnete Residuen von 1 bis N benötigen wir die entsprechenden Quantile von
z(1)
1 0.5 N
, z(2)
2 0.5 N
, . . . z(N)
N 0.5 N
zur Gegenüberstellung.
Beispiel 4.1 (fortgesetzt) Wir erhalten als geordnete Residuen der insgesamt N = 10 Beobachtungen
4 3 2 2 1 0 1 2 4 5.
Es gilt also hier beispielhaft εˆ(1) = 4 und εˆ(10) = 5. Wir erhalten im nächsten Schritt aus Tab. C.1 für die Quantile der Standardnormalverteilung z(1)((1 0.5)/10)) = z(1)(0.05) = 1.645 und z(10)((10 0.5)/(10)) = z(10)(0.95) = 1.645.
Somit gilt für die insgesamt N = 10 Beobachtungen
z(1) = 1.645, z(2) = 1.036, z(3) = 0.674, z(4) = 0.385, z(5) = 0.126 z(6) = 0.126, z(7) = 0.385, z(8) = 0.674, z(9) = 1.036, z(10) = 1.645.
4.1 Normalverteilung
55
Liegt Normalverteilung der Residuen vor, so sollten die Punkte mit den Koordinaten (εˆ(1), z(1)), . . . (εˆ(N), z(N)) auf einer Geraden liegen. Die Gerade wird jedoch nicht mit der Methode der Kleinsten Quadrate aus der linearen Regression geschätzt. Diese ist nicht robust. Vielmehr legt man die Gerade durch das 1. und das 3. Quartil der Punktepaare.
Beispiel 4.1 (fortgesetzt) Das untere Quartil der Residuen hat den Wert 2, und das obere Quartil liegt bei 2. Entsprechend verwenden wir für das untere Quartil der theoretischen Quantile den Wert 0.674 und für das obere Quartil den Wert von 0.674.
Wir erhalten Abb. 4.5 und erkennen, dass es keine großen Abweichungen der Punkte von der Geraden gibt. Die Abbildung deutet somit auf Normalverteilung der Residuen hin.
Neben der grafischen Analyse durch einen Normal-Quantil-Plot, gibt es noch weitere Möglichkeiten, die Annahme der Normalverteilung zu überprüfen: Mithilfe von statistischen Tests kann für beobachtete Daten überprüft werden, ob wir von einer bestimmten Verteilung der Daten ausgehen können oder nicht. So können z. B. mit dem χ 2-Anpassungstest oder dem Kolmogorov-Smirnov-Test ganz unterschiedliche Verteilungsmodelle überprüft werden. Bei Handl und Kuhlenkasper (2018) geben wir in Abschnitt 15.2 eine Einführung in den
NormalQuantilPlot
4
2
empirische Quantile
0
2
4
1.5 1.0 0.5 0.0
0.5
1.0
1.5
theoretische Quantile
Abb. 4.5 Normal-Quantil-Plot
56
4 Annahmen der Varianzanalyse
allgemeinen χ 2-Anpassungstest. 1965 haben Samuel Shapiro und Martin Wilk einen Test vorgeschlagen, um speziell die Annahme der Normalverteilung überprüfen zu können, s. Shapiro und Wilk (1965). Der vorgeschlagene sog. Shapiro-Wilk-Test ist also kein allgemeiner Anpassungstest für beliebige Verteilungsmodelle. Er kann nur zur Überprüfung der Normalverteilungsannahme verwendet werden. Besonders für kleinere Stichproben (N < 50) zeigt der Test eine deutlich höhere Teststärke als der χ 2- oder KolmogorovSmirnov-Test. Der Shapiro-Wilk-Test überprüft bei faktoriellen Experimenten
H0 : Die Residuen sind normalverteilt
gegen
H1 : Die Residuen sind nicht normalverteilt.
Das Vorgehen bei diesem Test ist vergleichbar mit der grafischen Analyse des NormalQuantil-Plots. Es zielt darauf ab, die Informationen aus einer solchen Grafik der Residuen wie in Abb. 4.5 zu einer Maßzahl zusammenzufassen. Shapiro und Wilk haben vorgeschlagen, das Verhältnis von zwei Varianzschätzern als Teststatistik zu verwenden:
SW
=
b2 (N 1) · s2
(4.3)
Im Nenner der Teststatistik finden wir mit s2 die gemeinsame Stichprobenvarianz der Residuen. Sie ist folgendermaßen definiert:
s2
=
N
1
1
N
ˆi
i =1
εˆ )2
(4.4)
Es gilt allgemein
εˆ = 0.
(4.5)
Den Beweis zeigt Anhang B. Damit erhalten wir
s2
=
N
1
1
N
ˆi )2.
i =1
(4.6)
Beispiel 4.1 (fortgesetzt) Wir erhalten als Schätzer für die Varianz der Störgrößen s2 = 8.889.
4.1 Normalverteilung
57
Im Zähler von (4.3) bezeichnet b2 eine Varianz der Residuen, wenn Normalverteilung vorliegt. Wenn beide Schätzer im Zähler und Nenner den gleichen Wert annehmen, so können wir davon ausgehen, dass in der Stichprobe Normalverteilung vorliegt. Für die Teststatistik würde dann SW = 1 gelten. Der Wert b2 gibt dabei die erwartete Varianz für eine Stichprobe an, wenn H0 zutrifft. Diese wird mit der beobachteten Stichprobenvarianz s2 verglichen. Wie erhalten wir nun einen geeigneten Wert für b2? Die Berechnung von b orientiert sich an der Steigung der Geraden in einem Normal-Quantil-Plot. b wird mit Hilfe der Methode der Kleinsten Quadrate als Steigungsparameter der Geraden in einem Normal-Quantil-Plot geschätzt. Dafür verwenden wir erneut die geordneten Residuen
εˆ(1) ≤ εˆ(2) ≤ . . . ≤ εˆ(N).
Beispiel 4.1 (fortgesetzt) Wir verwenden
4, 3, 2, 2, 1, 0, 1, 2, 4, 5.
Im nächsten Schritt zur Bestimmung von b werden Differenzen aus Paaren der Residuen gebildet:
εˆ(N+1i) εˆ(i) mit i = 1, . . . , k
Wenn der
Stichprobenumfang gerade ist,
erhalten
wir k
=
N 2
Differenzen der Zahlenpaare.
Wenn der Stichprobenumfang ungerade ist, erhalten
wir k
=
N +1 2
Differenzen
der
Zahlen-
paare.
Beispiel 4.1 (fortgesetzt) Mit N = 10 erhalten wir folgende fünf Differenzen aus den Paaren der Residuen:
(5 (4)) = 9, (4 (3)) = 7, (2 (2)) = 4, (1 (2) = 3, (0 (1)) = 1
Diese Differenzen werden aufsummiert und dabei mit einem Koeffizienten g(i) gewichtet. Wir erhalten dann
k
b = g(i) · εˆ(N +1i) εˆ(i) .
i =1
(4.7)
Die Gewichte g(i) sind für Stichproben N ≤ 50 in den Tab. C.2 bis C.5 aufgelistet und basieren auf den geordneten Quantilen der erwarteten Normalverteilung und deren
58
4 Annahmen der Varianzanalyse
Kovarianzen. Dabei erhalten große Differenzen von Residuen, die in der geordneten Stichprobe weit voneinander entfernt liegen, größere Gewichte.
Beispiel 4.1 (fortgesetzt) Wir erhalten für N = 10 aus Tab. C.2 die Gewichte
g(1) = 0.5739, g(2) = 0.3291, g(3) = 0.2141 g(4) = 0.1224, g(5) = 0.0399
und somit für den Wert
b = 0.573 · 9 + 0.3291 · 7 + 0.2141 · 4 + 0.1224 · 3 + 0.0399 · 1 = 8.7242.
Für die Teststatistik verwenden wir b2 = 76.11167 und erhalten
SW
=
76.11167 (10 1) · 8.889
=
0.9514.
Der Wert der Teststatistik wird mit einem kritischen Wert SW verglichen, der für verschiedene Stichprobenumfänge und vorgegebene Werte von α mit Hilfe von Computern berechnet wird. Die kritischen Werte sind für N ≤ 50 in den Tab. C.6 und C.7 aufgelistet. Wir lehnen die Hypothese, dass Normalverteilung der Störgrößen vorliegt, ab, wenn SW ≤ SWN ,α.
Beispiel 4.1 (fortgesetzt) Wir entnehmen Tab. C.6 den kritischen Wert von SW10,0.05 = 0.842. Da 0.9514 ≤ 0.842, lehnen wir H0 nicht ab und gehen davon aus, dass Normalverteilung der Störgrößen in dem Beispiel vorliegt.
4.2 Varianzhomogenität
Auch die Annahme, dass die Zielvariable auf den Faktorstufen die gleiche Varianz aufweist, kann grafisch und mit Hilfe statistischer Tests überprüft werden. Für eine erste grafische Analyse betrachten wir Boxplots der beobachteten Werte der Zielvariablen auf den einzelnen Faktorstufen. Wir geben bei Handl und Kuhlenkasper (2018) in Abschnitt 3.2.6 eine Einführung in die Erstellung und Interpretation von Boxplots.
Beispiel 4.1 (fortgesetzt) Wir erhalten für die Fünf-Zahlen-Zusammenfassung der ersten Faktorstufe
y(1) = 37 , y0.25 = 38 , y0.5 = y˜ = 40 , y0.75 = 41 , y(5) = 44
4.2 Varianzhomogenität
59
Abb. 4.6 Zwei Boxplots
+
38
40
42
44
46
48
50
und für die zweite Faktorstufe
y(1) = 41 , y0.25 = 43 , y0.5 = y˜ = 44 , y0.75 = 47 , y(5) = 50.
Die Boxplots in Abb. 4.6 deuten darauf hin, dass die Streuung der beobachteten Werte der Zielvariable auf den beiden Faktorstufen gleich ist.
Howard Levene hat 1960 einen statistischen Test zur Überprüfung der sog. Varianzho-
mogenität vorgestellt (s. Levene 1960). Dieser sog. Levene-Test kann für mindestens drei
Beobachtungen je Faktorstufe durchgeführt werden. Er geht von der Nullhypothese aus, dass die Varianzen σi2 der Zielvariablen auf allen i = 1, . . . , I Faktorstufen gleich sind. Wir wollen also testen:
H0 : σ12 = σ22 = . . . , σI2
(4.8)
gegen
H1 : σm2 = σk2, fu¨r mindestens ein Paar mit m = k
(4.9)
Für die Teststatistik zentrieren wir zunächst die beobachteten Werte der Zielvariablen Y um den jeweiligen Mittelwert der Faktorstufe. Wir erhalten also erneut die Residuen und verwenden deren Absolutbeträge:
εij = yi j yi .
(4.10)
Dabei ist yi erneut der Mittelwert der beobachteten Werte auf Faktorstufe i.
60
4 Annahmen der Varianzanalyse
Beispiel 4.1 (fortgesetzt) Wir erhalten mit y1 = 40 und y2 = 45 die absoluten Residuen
εˆ11 = 2 εˆ12 = 4 εˆ13 = 0 εˆ14 = 1 εˆ15 = 3 εˆ21 = 1 εˆ22 = 2 εˆ23 = 2 εˆ24 = 5 εˆ25 = 4.
Ähnlich wie die Teststatistik für den F-Test hat Levene als Teststatistik ein Verhältnis von Varianzen dieser absoluten Residuen vorgeschlagen:
1 I 1
I
ni
εˆi εˆ∗ 2
L =
i =1
I 1 NI
ni
nj
εˆij εˆi 2
i=1 j=1
(4.11)
Dabei ist
εˆ
=
1 N
I i =1
ni
εˆij
j =1
der Mittelwert aller absoluten Residuen und
εˆi
=
1 ni
ni
εˆij
i =1
der Mittelwert der absoluten Residuen auf Faktorstufe i. Im Zähler der Teststatistik L verwendet Levene somit einen robusten Schätzer der Varianz zwischen den Faktorstufen. Im Nenner verwendet die Teststatistik einen robusten Schätzer der Streuung auf den jeweiligen Faktorstufen.
Beispiel 4.1 (fortgesetzt) Wir erhalten εˆ∗ = 2.4 und εˆ1 = 2 sowie εˆ2 = 2.8. Für den Zähler von L verwenden wir somit
1 5 · (2 2.4)2 + 5 · (2.8 2.4)2 = 1.6. 1 Wir schätzen die Varianz auf den jeweiligen Faktorstufen für den Nenner von L mit
1 · (2 2)2 + (4 2)2 + (0 2)2 + (1 2)2 + (3 2)2 8
+ (1 2.8)2 + (2 2.8)2 + (2 2.8)2 + (5 2.8)2 + (4 2.8)2 = 2.6.
4.2 Varianzhomogenität
61
Für den Wert der Teststatistik erhalten wir somit L = 1.6 = 0.6154. 2.6
Die Teststatistik ist unter H0 approximativ F-verteilt mit I 1 und N I Freiheitsgraden. Wir lehnen H0 ab, wenn L > FI 1,NI ,1α. Dabei ist FI 1,NI ,1α erneut das 1 αQuantil der F-Verteilung mit I 1 und N I Freiheitsgraden.
Beispiel 4.1 (fortgesetzt) Wir entnehmen Tab. C.1 für α = 0.05 den kritischen Wert F1,8,0.95 = 5.32. Da 0.6154 > 5.32, lehnen wir H0 nicht ab und gehen von Varianzhomogenität aus.
Von Morton Browne und Alan Forsythe wurde 1974 eine Änderung am Levene-Test vorgeschlagen: Anstelle des Mittelwerts yi in Gl. (4.10) kann auch der Median y˜i der beobachteten Werte auf Faktorstufe i zur Bestimmung von Residuen verwendet werden (s. Brown und Forsythe 1974). Somit verwenden wir für den Browne-Forsythe-Test
εˆij = yi j y˜i .
(4.12)
Dabei ist y˜i der Median der beobachteten Werte auf Faktorstufe i, und wir bezeichnen εˆij als Medianresiduum von Beobachtung j auf Faktorstufe i.
Beispiel 4.1 (fortgesetzt) Wir erhalten mit y˜1 = 40 und y˜2 = 44 die absoluten Medianresiduen:
εˆ11 = 2 εˆ12 = 4 εˆ13 = 0 εˆ14 = 1 εˆ15 = 3 εˆ21 = 0 εˆ22 = 1 εˆ23 = 3 εˆ24 = 6 εˆ25 = 3
Als Teststatistik verwenden wir erneut das Verhältnis der geschätzten Varianzen:
L =
1 I 1
I
ni
εˆi εˆ∗∗ 2
i =1
I 1 NI
ni
ni
εˆij εˆi 2
i=1 j=1
(4.13)
62
4 Annahmen der Varianzanalyse
Dabei ist
εˆ∗∗ = 1 I N
ni
εˆij
i=1 j=1
der Mittelwert aller absoluten Medianresiduen und
εˆi =
1 ni
ni
εˆij
j =1
der Mittelwert der absoluten Medianresiduen auf Faktorstufe i.
Beispiel 4.1 (fortgesetzt) Wir erhalten εˆ∗∗ = 2.3 sowie εˆ1 = 2 und εˆ2 = 2.6. Für den Zähler von L verwenden wir somit:
1 5 · (2 2.3)2 + 5 · (2.6 2.3)2 = 0.9. 1 Wir schätzen die Streuung auf den jeweiligen Faktorstufen für den Nenner von L mit
1 · (2 2)2 + (4 2)2 + (0 2)2 + (1 2)2 + (3 2)2 8
+ (0 2.6)2 + (1 2.6)2 + (3 2.6)2 + (6 2.6)2 + (3 2.6)2 = 3.9.
Für den Wert der Teststatistik verwenden wir
L
=
0.9 3.9
=
0.2308.
Die Teststatistik ist unter H0 ebenfalls approximativ F-verteilt mit I 1 und N I Freiheitsgraden. Wir lehnen H0 ab, wenn L > FI 1,NI ,1α. Dabei ist FI 1,NI ,1α erneut das 1 α-Quantil der F-Verteilung mit I 1 und N I Freiheitsgraden.
Beispiel 4.1 (fortgesetzt) Wir entnehmen Tab. C.1 für α = 0.05 den kritischen Wert F1,8,0.95 = 5.32. Da 0.2308 > 5.32, lehnen wir H0 erneut nicht ab und gehen auch mit dem vorgeschlagenen Vorgehen von Brown und Forsythe von Varianzhomogenität aus.
Morton Browne und Alan Forsythe haben in ihrer Arbeit den Levene-Test und ihren BrowneForsythe-Test miteinander verglichen. Der Levene-Test mit den Residuen εij hat dabei eine hohe Teststärke bei symmetrischen Verteilungen von Y und vergleichsweise wenig Wahrscheinlichkeitsmasse an den Rändern. Der Browne-Forsythe-Test mit den Medianresiduen
4.3 Überprüfung der Annahmen mit R
63
εˆij sollte dagegen bei schiefen beobachteten Verteilungen zur Überprüfung der Varianzhomogenität verwendet werden. Bei Verteilungen mit viel Wahrscheinlichkeitsmasse an den Rändern kann das arithmetische Mittel zur Bestimmung von εˆij durch getrimmte arithmetische Mittel ersetzt werden.
4.3 Überprüfung der Annahmen mit R
Die Annahme normalverteilter Störgrößen kann durch eine grafische Analyse des NormalQuantil-Plots oder mit Hilfe des Shapiro-Wilk-Tests erfolgen. Wir wollen die Annahmen für Beispiel 3.3 überprüfen. Die Daten haben wir bereits eingegeben:
> Zeit [1] 38 44 40 41 37 44 43 47 50 41
> Strecke [1] - - - - - + + + + +
Levels: - +
Die benötigten Residuen als Schätzer für die Störgrößen werden beim Aufruf der aovFunktion automatisch mitgeschätzt. Wir können mit
> e <- aov(Zeit˜Strecke)
> res <- e$residuals
> res
1
2
-2.000000e+00 4.000000e+00
6
7
-1.000000e+00 -2.000000e+00
3 2.220446e-15
8 2.000000e+00
4
5
1.000000e+00 -3.000000e+00
9
10
5.000000e+00 -4.000000e+00
auf die Werte zugreifen. Den Normal-Quantil-Plot erhalten wir durch Aufruf der Funktion qqnorm. Die zugehörige Gerade fügen wir der Grafik mit der Funktion qqline hinzu. Wir erhalten also Abb. 4.5 durch den Aufruf von
> par(las=1)
> qqnorm(res,main=Normal-Quantil-Plot,
+
xlab=theoretische Quantile,ylab=empirische Quantile,
+
pch=16)
> qqline(res,lwd=2)
Der Shapiro-Wilk-Test steht mit der Funktion shapiro.test zur Verfügung. Wir rufen die Funktion mit den bereits bestimmten Residuen auf:
64
4 Annahmen der Varianzanalyse
> shapiro.test(res)
Shapiro-Wilk normality test
data: res W = 0.95312, p-value = 0.7054
Wir erhalten mit W den Wert unserer Teststatistik SW und die zugehörige Überschreitungswahrscheinlichkeit. Mit einem vorgegebenen Wert von α = 0.05 lehnen wir H0 nicht ab.
Zur grafischen Überprüfung der angenommenen Varianzhomogenität verwenden wir die Funktion boxplot, die wir auch mit dem formula-Argument aufrufen können. Wir erhalten Abb. 4.6 durch Aufruf von
> par(las=1) > boxplot(Zeit˜Strecke,horizontal=TRUE)
Der Levene-Test und der Brown-Forsythe-Test zur Überprüfung der Varianzhomogenität sind im Paket car von Fox und Weisberg (2011) enthalten.
> install.packages(car) > library(car)
Im Paket car steht die Funktion leveneTest zur Verfügung. Als erstes Argument der Funktion können wir eine formula wie in der bekannten Funktion aov verwenden. Mit dem zusätzlichen Argument center können wir festlegen, ob die Residuen mit Hilfe des Mittelwerts oder des Medians bestimmt werden. Um die Residuen wie in Gl. (4.10) zu bestimmen, verwenden wir center=mean.
> leveneTest(Zeit˜Strecke,center=mean) Levenes Test for Homogeneity of Variance (center = "mean")
Df F value Pr(>F) group 1 0.6154 0.4554
8
Zu dem Wert der Teststatistik L = 0.6154 wird die Überschreitungswahrscheinlichkeit von 0.4554 ausgegeben. Wir lehnen also H0 nicht ab.
Mit dem Argument center=median kann der Brown-Forsythe-Test mit den Medianresiduen durchgeführt werden.
> leveneTest(Zeit˜Strecke,center=median) Levenes Test for Homogeneity of Variance (center = "median")
Df F value Pr(>F) group 1 0.2308 0.6438
8
4.4 Übungsaufgaben
65
Zu dem Wert der Teststatistik L = 0.2308 wird hier eine Überschreitungswahrscheinlichkeit von 0.6438 ausgegeben. Wir lehnen also H0 erneut nicht ab.
4.4 Übungsaufgaben
Übung 4.1 Überprüfen Sie für die Daten des Experiments aus den Übungen 3.1 und 3.1 die Annahmen der Varianzanalyse.
Übung 4.2 Überprüfen Sie die Ergebnisse von Übung 4.1 mit Hilfe von R.
Zweifaktorielle Experimente
5
Inhaltsverzeichnis
5.1 Additives Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2 Nichtadditives Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.3 Sonderfall n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.4 Beispiel eines zweifaktoriellen Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.5 Zweifaktorielle Experimente in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5.6 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Bisher sind wir davon ausgegangen, dass die Zielgröße nur von einem Faktor abhängt. In der Regel werden aber mehrere Faktoren einen Einfluss haben. Wir wollen nun zwei Faktoren mit einer Wirkung auf die Zielgröße analysieren. Dabei werden wir davon ausgehen, dass jeder der Faktoren zwei Faktorstufen besitzt. Im Folgenden sind A und B Faktoren mit den Faktorstufen A1 und A2 bzw. B1 und B2. Wir bezeichnen A1 und B1 jeweils mit - und A2 und B2 mit +.
Beispiel 5.1 Der Mitarbeiter im Außendienst will überprüfen, ob außer der Strecke als Faktor A auch der Zeitpunkt der Abfahrt als zweiter Faktor B einen Einfluss auf die Fahrzeit hat. Dabei zieht er die Zeitpunkte B1 und B2 in Betracht, wobei B1 die frühere und B2 eine späere Abfahrtzeit an einem Arbeitstag bedeutet.
Bei Experimenten mit mehr als einem Faktor spricht man auch von faktoriellen Versuchsplänen oder faktoriellen Experimenten. Bei diesen wird jede Kombination der Faktoren betrachtet. Hat der Faktor A also die Faktorstufen - und + und der Faktor B die Faktorstufen - und +, so gibt es die Faktorstufenkombinationen
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019
67
T. Kuhlenkasper und A. Handl, Einführung in die statistische Auswertung
von Experimenten, https://doi.org/10.1007/978-3-662-59054-6_5
68
5 Zweifaktorielle Experimente
Dabei steht das erste Symbol für den Faktor A und das zweite für den Faktor B. Es handelt sich also um ein 22-Experiment. Auf jeder Faktorstufenkombination werden n Versuche
durchgeführt. Wir gehen also weiterhin von balancierten Experimenten aus. Dabei bezeich-
nen wir die Realisation, die die Zielgröße Y auf der i-ten Faktorstufe von A und der j-ten
Faktorstufe von B bei der k-ten Wiederholung annimmt, mit yi jk. Der Index i nimmt also den Wert 1 an, wenn A auf - steht. Steht A auf +, gilt i = 2. Entsprechend bedeutet j = 1, dass B auf - steht, und j = 2, dass B auf + steht. Wir stellen die Daten in einer Tabelle zusammen, deren allgemeine Form Tab. 5.1 zeigt.
Beispiel 5.1 (fortgesetzt). Der Mitarbeiter fährt auf jeder Faktorstufenkombination genau fünfmal und erhält die Daten in Tab. 5.2. Es gilt also n = 5 und N = 20.
Wir beschäftigen uns mit zwei Modellen für Yi jk. Diese sind Erweiterungen des bereits bekannten einfaktoriellen Modells der Varianzanalyse:
Yi j = μi + εi j
(5.1)
Hier beschreibt der Index i die Stufen des Faktors A und der Index j die Wiederholungen auf den Faktorstufen.
Tab. 5.1 Tabelle für ein zweifaktorielles Experiment
A
B
Merkmal
-
-
y111
y112
...
y11n
+
-
y211
y212
...
y21n
-
+
y121
y122
...
y12n
+
+
y221
y222
...
y22n
Tab. 5.2 Ergebnis eines zweifaktoriellen Experiments
A
B
Fahrzeit
-
-
38
44
40
41
37
+
-
43
42
46
49
40
-
+
44
37
41
43
40
+
+
44
48
47
45
51
5 Zweifaktorielle Experimente
69
Es liegt nahe, das Modell der einfaktoriellen Varianzanalyse folgendermaßen auf zwei Faktoren zu erweitern:
Yi jk = μi j + εi jk
Gilt E(εi jk) = 0, so ist μi j der Erwartungswert von Y auf der Faktorstufenkombination (i, j). Wir wollen μi j in Abhängigkeit von den Faktoren A und B angeben. Hierzu stellen wir das Modell der einfaktoriellen Varianzanalyse in Gl. (5.1) um. Wir setzen
μi = μi + μ μ = μ + μi μ = μ + αi
(5.2)
mit
αi = μi μ.
αi beschreibt also die Abweichung durch den Faktor A auf Stufe i vom Gesamterwartungswert μ.
Setzen wir Gl. (5.2) für μi in Gl. (5.1) ein, so erhalten wir das Modell
Yi j = μ + αi + εi j .
(5.3)
Mit μ = μ1 + μ2 2
gilt
α1
+
α2
=
μ1
μ
+
μ2
μ
=
2
·
μ1
+ 2
μ2
2
·
μ
=
0.
Wir müssen im Modell (5.3) also folgende Nebenbedingung berücksichtigen:
α1 + α2 = 0
(5.4)
Diese Nebenbedingung ist leicht nachzuvollziehen: Wenn eine von zwei Faktorstufen eine positive Abweichung vom Gesamterwartungswert verursacht, muss die zweite Faktorstufe diese Abweichung ausgleichen, um den gemeinsamen Erwartungswert erhalten zu können.
Wir können im Modell (5.3) den Effekt E A in Abhängigkeit von α1 und α2 angeben. Es gilt
E A = α2 α1.
(5.5)
Dies sieht man folgendermaßen:
E A = μ2 μ1 5=.2 μ + α2 (μ + α1) = α2 α1
70
5 Zweifaktorielle Experimente
5.1 Additives Modell
Im Modell der einfaktoriellen Varianzanalyse können wir den Effekt von A durch αi ausdrücken. Wollen wir einen weiteren Faktor B betrachten, so ergänzen wir das Modell in Gl. (5.1) um einen Term β j :
Yi jk = μ + αi + β j + εi jk
(5.6)
Dabei gilt i = 1,2 und j = 1,2 sowie k = 1, . . . , n. In Analogie zum einfaktoriellen Modell müssen die Parameter α1, α2, β1 und β2 folgenden Nebenbedingungen genügen:
α1 + α2 = 0
(5.7)
und
β1 + β2 = 0.
(5.8)
Wir unterstellen E(εi jk) = 0 und Homoskedastizität: V ar (εi jk) = σ 2. Hieraus folgt
μi j = E Yi jk = μi j = μ + αi + β j
(5.9)
und
V ar Yi jk = σ 2.
(5.10)
Der Erwartungswert unserer Zielgröße für jede Faktorstufenkombination von A mit i = 1,2 und von B mit j = 1,2 setzt sich also aus dem Gesamterwartungswert μ und den Abweichungen aufgrund von Faktor A und Faktor B zusammen. Die beiden Faktoren wirken dabei additiv auf die Zielgröße.
Wir wollen nun im Modell (5.6) den Effekt von Faktor A beschreiben. Hierzu setzen wir zuerst Faktor B auf -. Dann haben wir es mit einem einfaktoriellen Modell zu tun und wissen, wie wir den Effekt von A bestimmen. Wir bilden
μ21 μ11.
(5.11)
Nun setzen wir den Wert des Faktors B auf + und bestimmen den Effekt von A:
μ22 μ12
(5.12)
5.1 Additives Modell
71
Den Effekt von A im zweifaktoriellen Modell definieren wir als Mittelwert des Effekts von A, wenn B auf - steht, und des Effekts von A, wenn B auf + steht:
EA
=
(μ21
μ11) + (μ22 2
μ12)
(5.13)
Ist diese Wahl sinnvoll? Wir setzen Gl. (5.9) in (5.11) ein und erhalten
μ21 μ11 = μ + α2 + β1 (μ + α1 + β1) = α2 α1.
Setzen wir Gl. (5.9) in (5.12) ein, so ergibt sich
μ22 μ12 = μ + α2 + β2 (μ + α1 + β2) = α2 α1.
Wir sehen, dass im additiven Modell der Effekt von A auf beiden Faktorstufen von B identisch ist. Somit ist es sinnvoll, den Effekt von A wie in Gl. (5.13) zu bestimmen.
Offensichtlich gilt
E A = α2 α1.
(5.14)
Betrachten wir den Effekt von B. Steht A auf -, so ist der Effekt von B gleich μ12 μ11.
Steht A auf +, so ist der Effekt von B gleich μ22 μ21.
Wir definieren den Effekt von B durch
EB
=
(μ12
μ11)
+ 2
(μ22
μ21) .
(5.15) (5.16) (5.17)
Auch der Effekt von B ist im additiven Modell auf beiden Stufen von A identisch. Es gilt nämlich
μ12 μ11 = μ + α1 + β2 (μ + α1 + β1) = β2 β1 und
μ22 μ21 = μ + α2 + β2 (μ + α2 + β1) = β2 β1.
72 Offensichtlich gilt dann für den Effekt von B
E B = β2 β1.
5 Zweifaktorielle Experimente (5.18)
Beispiel 5.1 Es gelte μ11 = 3, μ21 = 7, μ12 = 5 und μ22 = 9. Somit gilt μ22 μ12 = 9 5 = 4
und μ21 μ11 = 7 3 = 4.
Es liegt also ein additives Modell vor. Abb. 5.1 veranschaulicht dies.
Im Modell in Gl. (5.9) bestimmen wir Schätzer der Parameter μ, α1, α2, β1 und β2 so, dass
22n
(yi jk μ αi β j )2
i=1 j=1 k=1
(5.19)
unter den Nebenbedingungen
Abb. 5.1 Erwartungswerte der
Faktorstufenkombinationen bei
einem additiven Modell
9
A+
7
5
A 3
B
B+
5.1 Additives Modell
73
α1 + α2 = 0 β1 + β2 = 0
minimal wird. Der Schätzer von μ ist erneut der Mittelwert aller Beobachtungen im Experiment:
μˆ = y¯ = 1 2 4n
2
n
yi jk
i=1 j=1 k=1
(5.20)
Beispiel 5.1 (fortgesetzt). Es gilt y¯ = 43.
Wir schätzen αi durch
αˆ i = y¯i· y¯.
(5.21)
Dabei ist y¯i· für i = 1,2 der Mittelwert aller Beobachtungen, bei denen der Faktor A auf der i-ten Stufe steht. Es gilt also
y¯i ·
=
1 2n
2
n
yi jk .
j=1 k=1
(5.22)
Beispiel 5.1 (fortgesetzt). Wir erhalten
1
y¯1·
=
(38 10
+
44
+
40
+
41
+
37
+
44
+
37
+
41
+
43
+
40)
=
40.5
und
y¯2·
=
1 (43 10
+
42
+
46 +
49
+ 40
+
44
+
48
+
47 +
45
+
51)
=
45.5.
Also gilt
αˆ 1 = y¯1· y¯ = 40.5 43 = 2.5
und
αˆ 2 = y¯2· y¯ = 45.5 43 = 2.5.
74
5 Zweifaktorielle Experimente
Wir schätzen β j durch
βˆ j = y¯· j y¯.
(5.23)
Dabei ist y¯· j für j = 1,2 der Mittelwert aller Beobachtungen, bei denen der Faktor B auf der j-ten Stufe steht. Es gilt also
y¯· j
=
1 2n
2 i =1
n k=1
yi jk .
(5.24)
Beispiel 5.1 (fortgesetzt). Es gilt
y¯·1
=
1 (38 10
+
44
+
40
+
41
+
37
+
43
+
42
+
46
+
49
+
40)
=
42
und
y¯·2
=
1 (44 10
+
37
+ 41
+
43
+
40
+
44 +
48
+
47 +
45
+ 51)
=
44.
Also erhalten wir
βˆ1 = y¯·1 y¯ = 42 43 = 1
und
βˆ2 = y¯·2 y¯ = 44 43 = 1.
Betrachten wir nun die Schätzer von E A und EB . Wir schätzen E A, indem wir α1 durch αˆ 1 und α2 durch αˆ 2 aus Gl. (5.21) schätzen. Durch Einsetzen in Gl. (5.14) erhalten wir
eA = αˆ 2 αˆ 1 = y¯2· (y¯1· y¯) = y¯2· y¯1·.
Der geschätzte Effekt von A gibt also an, wie sich die Zielgröße Y im Mittel ändert, wenn man von der ersten zur zweiten Faktorstufe von A übergeht.
Beispiel 5.1 (fortgesetzt). Wir erhalten für den geschätzten Effekt von A eA = y¯2· y¯1· = 45.5 40.5 = 5.
5.1 Additives Modell
75
Auf der zweiten Strecke benötigt der Mitarbeiter im Mittel fünf Minuten länger als auf der ersten Strecke.
Wir schätzen EB , indem wir β1 durch βˆ1 und β2 durch βˆ2 aus Gl. (5.23) schätzen. Durch Einsetzen in Gl. (5.18) erhalten wir
eB = βˆ2 βˆ1 = y¯·2 (y¯·1 y¯) = y¯·2 y¯·1.
Der geschätzte Effekt von B gibt also an, wie sich die Zielgröße Y im Mittel ändert, wenn man von der ersten zur zweiten Faktorstufe von B übergeht.
Beispiel 5.1 (fortgesetzt). Der geschätzte Effekt von B ergibt sich als
eB = y¯·2 y¯·1 = 44 42 = 2.
Im Mittel benötigt er für die Fahrt zwei Minuten länger, wenn er später losfährt.
Bisher haben wir nur die Effekte aus den Beobachtungen geschätzt. Wir wollen nun auch testen, ob die Effekte signifikant von null verschieden sind. Der Test auf Signifikanz des Effekts von A überprüft die Hypothese
H0 : E A = 0 gegen H1 : E A = 0.
Zur Überprüfung der Signifikanz des Effekts von B testen wir
H0 : E B = 0 gegen H1 : E B = 0.
Die Teststatistiken sind wie bei der einfaktoriellen Varianzanalyse Quotienten aus der durch den jeweiligen Faktor erklärten mittleren Streuung zur mittleren Streuung, die nicht durch das Modell erklärt werden kann.
Die Streuung, die nicht durch das Modell in Gl. (5.3) erklärt wird, erhalten wir, indem wir in Gl. (5.19) für μ, α1, α2, β1 und β2 die Schätzer aus (5.20), (5.21) und (5.23) einsetzen. Wir erhalten
22n
SSR =
(yi jk y¯i· y¯· j + y¯)2.
i=1 j=1 k=1
(5.25)
Den Beweis zeigt Anhang B.
76
5 Zweifaktorielle Experimente
Beispiel 5.1 (fortgesetzt). Es gilt
SSR = (38 40.5 42 + 43)2 + (44 40.5 42 + 43)2 + (40 40.5 42 + 43)2 + (41 40.5 42 + 43)2 + (37 40.5 42 + 43)2 + (44 40.5 44 + 43)2 + (37 40.5 44 + 43)2 + (41 40.5 44 + 43)2 + (43 40.5 44 + 43)2 + (40 40.5 44 + 43)2 + (43 45.5 42 + 43)2 + (42 45.5 42 + 43)2 + (46 45.5 42 + 43)2 + (49 45.5 42 + 43)2 + (40 45.5 42 + 43)2 + (44 45.5 44 + 43)2 + (48 45.5 44 + 43)2 + (47 45.5 44 + 43)2 + (45 45.5 44 + 43)2 + (51 45.5 44 + 43)2
= 145.
Die Anzahl der Freiheitsgrade von SSR ist bei einem 22-Experiment gleich 4n 3. Wir erhalten also als mittlere Quadratsumme für den unerklärten Rest
M S SR
=
SSR . 4n 3
Um die Hypothese H0 : E A = 0 gegen H1 : E A = 0
zu überprüfen, bestimmen wir
(5.26)
2
S SA = 2n(y¯i· y¯)2.
i =1
(5.27)
SSA misst also erneut die Unterschiedlichkeit der Beobachtungen, die auf Faktor A zurück-
geht. Die Anzahl der Freiheitsgrade von SSA ist bei zwei Faktorstufen von A gleich 1. Somit gilt bei einem 22-Experiment SSR = M SSR.
5.1 Additives Modell
77
Beispiel 5.1 (fortgesetzt). Wir erhalten SSA = 2 · 5 · (40.5 43)2 + 2 · 5 · (45.5 43)2 = 125.
Die Teststatistik ist erneut das Verhältnis der durch Faktor A erklärten Streuung zur unerklärten Reststreuung:
FA
=
SSA M S SR
Beispiel 5.1 (fortgesetzt). Wir erhalten für die Teststatistik
FA
=
125 145/17
=
14.66.
Wir lehnen H0 ab, wenn gilt FA ≥ F1,4n3;1α. Dabei ist F1,4n3;1α das 1 α-Quantil der F-Verteilung mit 1 und 4n 3 Freiheitsgraden.
Beispiel 5.1 (fortgesetzt). Es gilt F1,17;0.95 = 4.45. Wir lehnen H0 also ab. Die Strecke hat einen signifikanten Einfluss auf die Fahrzeit des Mitarbeiters. Da wir an einer kurzen Fahrzeit interessiert sind, wählen wir die erste Strecke. Hier kann der Mitarbeiter eine Zeit von 40.5 min erwarten.
Um die Hypothese
H0 : E B = 0 gegen H1 : E B = 0
zu überprüfen, bestimmen wir
2
S SB = 2n(y¯· j y¯)2.
j =1
(5.28)
SSB misst also analog die Unterschiedlichkeit der Beobachtungen, die auf Faktor B zurück-
geht. Die Anzahl der Freiheitsgrade von SSB ist bei zwei Faktorstufen von B ebenfalls gleich 1, und somit gilt auch hier für 22-Experimente SSB = M SSB.
78
5 Zweifaktorielle Experimente
Beispiel 5.1 (fortgesetzt). Wir erhalten SSB = 2 · 5(42 43)2 + 2 · 5(44 43)2 = 20.
Die Teststatistik ist analog zu FA das Verhältnis der durch Faktor B erklärten Streuung zur unerklärten Reststreuung:
FB
=
SSB M S SR
Beispiel 5.1 (fortgesetzt). Es gilt 20
FB = 145/17 = 2.34.
Wir lehnen H0 ab, wenn gilt FB ≥ F1,4n3;1α. Dabei ist F1,4n3;1α erneut das 1 αQuantil der F-Verteilung mit 1 und 4n 3 Freiheitsgraden.
Beispiel 5.1 (fortgesetzt). Es gilt F1,17;0.95 = 4.45. Wir lehnen also H0 nicht ab. Die unterschiedlichen Abfahrtzeiten wirken sich nicht signifikant auf die Fahrzeit aus. Es ist also egal, wann der Mitarbeiter losfährt, jedoch nicht, welche Strecke er wählt.
Wir können die Informationen erneut in einer ANOVA-Tabelle zusammenstellen. Tab. 5.3 zeigt den allgemeinen Aufbau.
Beispiel 5.1 (fortgesetzt). Wir erhalten die ANOVA-Tabelle in Tab. 5.4.
Tab. 5.3 Allgemeiner Aufbau einer ANOVA-Tabelle im additiven Modell der zweifaktoriellen Varianzanalyse
Quelle der Variation A B Rest Gesamt
Quadratsummen Freiheitsgrade
SSA
1
SSB
1
SSR
4n 3
S ST
4n 1
Mittlere Quadratsummen
M SSA M S SB M S SR
F
M S SA/M S SR M S SB /M S SR
5.1 Additives Modell
79
Tab. 5.4 ANOVA-Tabelle der Daten
Quelle der Variation
Quadratsummen
A
125
B
20
Rest
145
Gesamt
290
Freiheitsgrade
1 1 17 19
Mittlere Quadratsummen 125.00
20.00 8.53
F
14.66 2.34
Es gilt dabei für die gesamte Streuung der Daten
S ST = S SA + S SB + S SR.
(5.29)
Wir erkennen auch hier das Prinzip der Streuungszerlegung. Die durch das Modell erklärte Streuung setzt sich aus der Streuung, die Faktor A erklärt, und aus der Streuung, die Faktor B erklärt, zusammen.
Wir haben gesehen, dass es sehr aufwendig ist, SSR zu berechnen. Die Bestimmung von SST ist hingegen einfacher. Es gilt für die Gesamtstreuung
22n
S ST =
(yi jk y¯)2.
i=1 j=1 k=1
(5.30)
Kennen wir also SSA, SSB und SST , so können wir SSR mit Gl. (5.29) durch S SR = S ST S SA S SB
bestimmen.
Beispiel 5.1 (fortgesetzt). Es gilt SST = (38 43)2 + (44 43)2 + (40 43)2 + (41 43)2 + (37 43)2 + (44 43)2 + (37 43)2 + (41 43)2 + (43 43)2 + (40 43)2 + (43 43)2 + (42 43)2 + (46 43)2 + (49 43)2 + (40 43)2 + (44 43)2 + (48 43)2 + (47 43)2 + (45 43)2 + (51 43)2 = 290.
Also erhalten wir
SSR = 290 125 20 = 145.
80
5 Zweifaktorielle Experimente
5.2 Nichtadditives Modell
Im additiven Modell wird unterstellt, dass der Effekt von Faktor A auf beiden Stufen von Faktor B gleich ist. Welche Konsequenzen hat es, wenn dies nicht der Fall ist?
Beispiel 5.1 Wir betrachten ein faktorielles Experiment mit den beiden Faktoren A und B. Dabei soll gelten
μ11 = 3 μ21 = 7 μ12 = 9 μ22 = 5. Somit ergibt sich für den Effekt von A, wenn B auf - steht,
μ21 μ11 = 7 3 = 4.
Für den Effekt von A, wenn B auf + steht, ergibt sich hingegen
μ22 μ12 = 5 9 = 4.
Die Wirkung von Faktor A unterscheidet sich also, je nachdem auf welcher Stufe der andere Faktor B steht. Also liegt kein additives Modell vor. Abb. 5.2 veranschaulicht dies.
Wir bestimmen den Effekt von A zunächst mit Gl. (5.13):
EA
=
μ21 μ11 + μ22 μ12 2
=
73+59 2
=0
10
A 8
A+
6
µ ij
4
2
0
B
B+
Abb. 5.2 Erwartungswerte der Faktorstufenkombinationen bei einem nichtadditiven Modell
5.2 Nichtadditives Modell
81
Der Effekt von A wäre gleich 0. Somit hätte A keine Wirkung. Durch die Aggregation erhalten wir eine Aussage, die den wahren Tatbestand aber verdeckt. Der Faktor A besitzt durchaus einen Effekt. Dieser hängt aber von der Faktorstufe ab, auf der Faktor B steht.
Man spricht von Interaktion zwischen zwei Faktoren, wenn der Effekt eines Faktors von den Faktorstufen des anderen Faktors abhängt. In diesem Fall sollte man nicht das additive Modell verwenden.
Beim additiven Modell bezieht sich der Term αi auf den Faktor A und der Term β j auf den Faktor B. Liegt Interaktion vor, so müssen wir diese im Modell durch einen zusätzlichen gemeinsamen Effekt berücksichtigen. Wir verwenden für i = 1,2 und j = 1,2 den Term (αβi j ) und erhalten das Modell
Yi jk = μ + αi + β j + (αβ)i j + εi jk .
(5.31)
(αβ)i j gibt also an, welche Wirkung die Faktoren A und B auf die Zielgröße Y haben, wenn sie gemeinsam auftreten und sich gegenseitig beeinflussen. Um eindeutige Schätzer der Parameter zu erhalten, benötigen wir folgende Nebenbedingungen:
α1 + α2 = 0 β1 + β2 = 0 (αβ)11 + (αβ)12 = 0 (αβ)12 + (αβ)22 = 0 (αβ)11 + (αβ)21 = 0 (αβ)21 + (αβ)22 = 0
Wir unterstellen dabei erneut E(εi jk) = 0 und V ar (εi jk) = σ 2. Hieraus folgt
(5.32) (5.33) (5.34) (5.35) (5.36) (5.37)
μi j = E Yi jk = μ + αi + β j + (αβ)i j
(5.38)
und
V ar Yi jk = σ 2.
(5.39)
Wir wollen nun im Modell (5.38) den Effekt E A von Faktor A beschreiben. Hierzu bestimmen wir, wie im additiven Modell, zuerst den Effekt E A von A, wenn B auf - steht. Es gilt
μ21 μ11 = μ + α2 + β1 + (αβ)21 μ α1 β1 (αβ)11 = α2 α1 + (αβ)21 (αβ)11.
82
5 Zweifaktorielle Experimente
Nun setzen wir den Wert des Faktors B auf + und bestimmen den Effekt von A:
μ22 μ12 = μ + α2 + β2 + (αβ)22 μ α1 β2 (αβ)12 = α2 α1 + (αβ)22 (αβ)12
Wir sehen, dass der Effekt von A auf den beiden Stufen von B unterschiedlich ist. Wie im additiven Modell bestimmen wir den Effekt von A als Mittelwert des Effekts von
A, wenn B auf - steht, und des Effekts von A, wenn B auf + steht:
EA
=
(μ21
μ11) + (μ22 2
μ12)
Wir erhalten
EA
=
(μ21
μ11)
+ 2
(μ22
μ12)
= (α2 α1 + (αβ)21 (αβ)11) + (α2 α1 + (αβ)22 (αβ)12) 2
=
α2
α1
+
(αβ )21
+ (αβ)22 2
(αβ )11
+ (αβ)12 2
(5.37=)(5.34) α2 α1.
Analog definieren wir, wie im additiven Modell, den Effekt von Faktor B:
EB
=
(μ12
μ11) + (μ22 2
μ21)
und erhalten
E B = β2 β1.
Neben E A und EB müssen wir im nichtadditiven Modell noch einen weiteren Effekt berücksichtigen. Dies ist der Interaktionseffekt E AB, der den Zusammenhang zwischen den Faktoren A und B beschreibt. Dieser gibt an, wie sich der Effekt von A, wenn B auf + steht, vom Effekt von A, wenn B auf - steht, unterscheidet. Wir bilden also die Differenz aus dem Effekt von A, wenn B auf + steht, und dem Effekt von A, wenn B auf - steht:
EAB
=
(μ22
μ12)
2
(μ21
μ11)
=
μ11
μ21
μ12 2
+
μ22
(5.40)
Ist der Effekt von A auf beiden Stufen von B gleich, so ist E AB gleich 0.
5.2 Nichtadditives Modell
83
Wir können E AB auch umformen zu
EAB
=
μ22
μ21
(μ12 2
μ11) .
In dieser Darstellung gibt E AB an, wie sich der Effekt von B, wenn A auf + steht, vom Effekt von B, wenn A auf - steht, unterscheidet.
Im Modell in Gl. (5.38) bestimmen wir die Schätzer der Parameter μ, αi , β j und (αβ)i j so, dass
22n
(yi jk μ αi β j (αβ)i j )2
i=1 j=1 k=1
(5.41)
unter den Nebenbedingungen in den Gl. (5.32)(5.37) minimiert wird. Die Schätzer von μ, αi und β j sind mit denen im additiven Modell identisch. Es gilt
also:
μˆ = y¯
αˆ i = y¯i· y¯ βˆ j = y¯· j
(5.42) (5.43) (5.44)
Also sind auch die Schätzer eA und eB im additiven und nichtadditiven Modell identisch. Wir verwenden entsprechend
eA = y¯2· y¯1·
(5.45)
und
eB = y¯·2 y¯·1.
(5.46)
Im nichtadditiven Modell bezeichnet man E A und EB als Haupteffekte der Faktoren A und B.
Beispiel 5.1 (fortgesetzt). Wir erhalten erneut eA = 5 und eB = 2.
Der Schätzer (αβ)i j von (αβ)i j ist (αβ)i j = y¯i j y¯i· y¯· j + y¯
(5.47)
84
5 Zweifaktorielle Experimente
mit
y¯i j
=
1 n
n k=1
yi jk .
(5.48)
Dabei ist y¯i j der Mittelwert der Beobachtungen auf jeder Faktorstufenkombination von A und B mit i = 1,2 und j = 1,2.
Wir schätzen den Interaktionseffekt E AB zwischen den Faktoren A und B, indem wir μi j durch y¯i j schätzen und diese Schätzer in Gl. (5.40) einsetzen. Wir erhalten dann als Schätzer für E AB bei einem 22-Experiment
eAB
=
y¯11
y¯21 y¯12 + y¯22 . 2
(5.49)
Beispiel 5.1 (fortgesetzt). Es gilt für die vier Faktorstufenkombinationen
y¯11
=
38
+
44
+
40 5
+
41 +
37
=
40
y¯12
=
44
+
37
+
41 5
+
43 +
40
=
41
y¯21
=
43
+
42
+
46 5
+
49 +
40
=
44
y¯22
=
44
+
48
+
47 5
+
45 +
51
=
47.
Also ist der geschätzte Interaktionseffekt zwischen den Faktoren A und B gegeben durch
eAB
=
y¯11
y¯21 y¯12 + y¯22 2
=
40 44 41 + 47 2
= 1.
Bei einer späten Abfahrtzeit unterscheidet sich somit der Effekt der Strecke um eine Minute im Vergleich zum Effekt der Strecke bei einer frühen Abfahrtzeit.
Der geschätzte Effekt von A, wenn B auf - steht, ist
y¯21 y¯11 = 44 40 = 4.
Der geschätzte Effekt von A, wenn B auf + steht, ist
y¯22 y¯12 = 47 41 = 6.
Zur Veranschaulichung erstellen wir ein Interaktionsdiagramm, wie in Abb. 5.3 gezeigt.
5.2 Nichtadditives Modell
85
48
46 A+
44
xij
42
A 40
B
B+
Abb. 5.3 Interaktionsdiagramm
Wir sehen, dass der geschätzte Effekt von A, wenn B auf + steht, größer ist als der geschätzte Effekt von A, wenn B auf - steht.
Die beiden geschätzten Effekte unterscheiden sich. Es stellt sich aber die Frage, ob dieser Unterschied signifikant von Null verschieden ist.
Für die statistischen Tests zur Überprüfung der Signifikanz benötigen wir SSA, SSB, SSAB und SSR. SSA und SSB sind im additiven und nichtadditiven Modell identisch. Es gilt also
2
S SA = 2n(y¯i· y¯)2
i =1
und
2
S SB = 2n(y¯· j y¯)2.
j =1
Beispiel 5.1 (fortgesetzt). Wir erhalten SSA = 125 und SSB = 20.
86
5 Zweifaktorielle Experimente
Die Streuung, die nicht durch das Modell in Gl. (5.38) erklärt wird, erhalten wir, indem wir in Gl. (5.41) für μ, αi , β j und (αβ)i j die Schätzer aus den Gl. (5.42), (5.43), (5.44) und (5.47) einsetzen. Es gilt dann
22n
SSR =
(yi jk y¯i j )2.
i=1 j=1 k=1
(5.50)
Wir zeigen den Beweis in Anhang B.
Beispiel 5.1 (fortgesetzt). Es gilt
SSR = (38 40)2 + (44 40)2 + (40 40)2 + (41 40)2 + (37 40)2 + (44 41)2 + (37 41)2 + (41 41)2 + (43 41)2 + (40 41)2 + (43 44)2 + (42 44)2 + (46 44)2 + (49 44)2 + (40 44)2 + (44 47)2 + (48 47)2 + (47 47)2 + (45 47)2 + (51 47)2
= 140.
Auf jeder der vier Faktorstufenkombinationen gibt es n Beobachtungen, von denen n 1 frei wählbar ist, wenn der Mittelwert der Faktorstufenkombination bekannt ist. Von den 4n Summanden in SSR können wir also bei einem 22-Experiment 4n 4 frei wählen. Wir erhalten somit
M S SR
=
SSR . 4n 4
(5.51)
Zum Test auf Interaktion benötigen wir noch SSAB . Dafür gilt
22
SSAB =
n(y¯i j y¯i· y¯· j + y¯)2.
i=1 j=1
(5.52)
Die Anzahl der Freiheitsgrade von SSAB ist bei einem 22-Experiment gleich 1, und somit gilt auch hier SSAB = M SSAB .
5.2 Nichtadditives Modell
87
Beispiel 5.1 (fortgesetzt). Wir erhalten
SSAB = 5(40 40.5 42 + 43)2 + 5(41 40.5 44 + 43)2 + 5(44 45.5 42 + 43)2 + 5(47 45.5 44 + 43)2
= 5.
Auch im nichtadditiven Modell gilt das Prinzip der Streuungszerlegung. Es gilt
S ST = S SA + S SB + S SAB + S SR.
(5.53)
Beispiel 5.1 (fortgesetzt). Wir haben bereits SST = 290 bestimmt. Mit SSA = 125, SSB = 20, SSAB = 5 und SSR = 140 gilt das Prinzip der Streuungszerlegung.
Für das nichtadditive Modell überprüfen wir zunächst, ob Interaktion vorliegt. Wir testen also
H0 : E AB = 0 gegen H1 : E AB = 0.
Die Teststatistik ist dabei das Verhältnis der durch die Interaktion von A und B erklärten Streuung zur unerklärten Reststreuung:
FAB
=
SSAB M S SR
(5.54)
Beispiel 5.1 (fortgesetzt). Es gilt
FAB
=
5 140/16
=
0.5714.
Wir lehnen H0 ab, wenn gilt FAB ≥ F1,4n4;1α. Dabei ist F1,4n4;1α das 1 α-Quantil der F-Verteilung mit 1 und 4n 4 Freiheitsgraden.
Beispiel 5.1 (fortgesetzt). Es gilt F1,16;0,95 = 4.49. Wir lehnen H0 nicht ab. Es liegt also keine Interaktion vor. Somit ist der Unterschied der beiden Effekte in Abb. 5.3 nicht signifikant.
88
5 Zweifaktorielle Experimente
Lehnen wir H0 ab, so spricht dies für Interaktion. Es ist in diesem Fall nicht sinnvoll, nach dem Haupteffekt von A oder dem Haupteffekt von B getrennt zu fragen, da diese von den Faktorstufen des jeweils anderen Faktors abhängen. Somit können die beiden Effekte bei signifikanter Interaktion nicht getrennt voneinander interpretiert werden.
Lehnen wir H0 hingegen nicht ab, so überprüfen wir, ob der Haupteffekt von A oder der Haupteffekt von B signifikant von null verschieden ist. Es können natürlich auch beide Haupteffekte oder keiner der beiden Effekte signifikant sein.
Beginnen wir mit
H0 : E A = 0 gegen H1 : E A = 0.
Die Teststatistik ist erneut
FA
=
SSA . M S SR
(5.55)
Wir lehnen H0 ab, wenn gilt FA ≥ F1,4n4;1α. Dabei ist F1,4n4;1α das 1 α-Quantil der F-Verteilung mit 1 und 4n 4 Freiheitsgraden.
Beispiel 5.1 (fortgesetzt). Es gilt
125 FA = 140/16 = 14.29. Wegen F1,16;0,95 = 4.49 lehnen wir H0 ab. Die Strecke besitzt also einen signifikanten Einfluss auf die Fahrzeit.
Zum Überprüfen der Hypothese H0 : E B = 0 gegen H1 : E B = 0
bestimmen wir die Teststatistik
FB
=
SSB . M S SR
(5.56)
Wir lehnen H0 ab, wenn gilt FB ≥ F1,4n4;1α. Dabei ist F1,4n4;1α das 1 α-Quantil der F-Verteilung mit 1 und 4n 4 Freiheitsgraden.
Beispiel 5.1 (fortgesetzt). Es gilt
FB
=
20 140/16
=
2.29.
5.2 Nichtadditives Modell
89
Wegen F1,16;0,95 = 4.49 lehnen wir H0 nicht ab. Die Abfahrtzeit besitzt also keinen signifikanten Einfluss auf die Fahrzeit.
Es liegt hier keine signifikante Interaktion vor. Zwischen den beiden Strecken gibt es einen signifikanten Unterschied, während es bei den Abfahrtzeiten keinen signifikanten Unterschied gibt.
Wir können die Informationen erneut in einer ANOVA-Tabelle zusammenstellen. Tab. 5.5 zeigt den allgemeinen Aufbau für das nichtadditive Modell.
Beispiel 5.1 (fortgesetzt). Wir erhalten die Zusammenfassung in Tab. 5.6.
Wir wollen auch bei der Auswertung von 22-Experimenten die Annahmen der Varianzanalyse überprüfen. Für die Annahme der Normalverteilung bestimmen wir zunächst die Residuen auf jeder Faktorstufenkombination im nichtadditiven Modell. Wir bestimmen also
εˆi jk = yi jk y¯i j .
(5.57)
Tab. 5.5 Allgemeiner Aufbau einer ANOVA-Tabelle der zweifaktoriellen Varianzanalyse im nichtadditiven Modell
Quelle der Variation A B AB Rest Gesamt
Quadratsummen Freiheitsgrade
SSA SSB SSAB SSR S ST
1 1 1 4n 4 4n 1
Mittlere Quadratsummen
M SSA M S SB M SSAB M S SR
F
M S SA/M S SR M S SB /M S SR M S SAB /M S SR
Tab. 5.6 ANOVA-Tabelle der Fahrzeit in Abhängigkeit von der Strecke und der Abfahrtzeit
Quelle der Variation A B AB Rest Gesamt
Quadratsummen Freiheitsgrade
125
1
20
1
5
1
140
16
290
19
Mittlere Quadratsummen 125 20 5 8,75
F
14,29 2,29 0,57
90
5 Zweifaktorielle Experimente
Mit diesen geschätzten Störgrößen erstellen wir dann einen Normal-Quantil-Plot und überprüfen die Annahme der Normalverteilung zusätzlich mit dem Shapiro-Wilk-Test.
Beispiel 5.1 (fortgesetzt). Wir erhalten mit y¯11 = 40, y¯21 = 44, y¯12 = 41 und y¯22 = 47
εˆ111 = 2 εˆ211 = 1 εˆ121 = 3 εˆ221 = 3
εˆ112 = 4 εˆ212 = 2 εˆ122 = 4 εˆ222 = 1
εˆ113 = 0 εˆ213 = 2 εˆ123 = 0 εˆ223 = 0
εˆ114 = 1 εˆ214 = 5 εˆ124 = 2 εˆ224 = 2
εˆ115 = 3 εˆ215 = 4 εˆ125 = 1 εˆ225 = 4.
Mit den geordneten Residuen und den Quantilen der Standardnormalverteilung erhalten wir
den Normal-Quantil-Plot in Abb. 5.4. Es sind auf den ersten Blick nur am unteren und oberen
Rand Abweichungen zu erkennen. Wir erhalten für den Shapiro-Wilk-Test als Wert der Teststatistik SW = 0.95649. Für
N = 20 und α = 0.05 entnehmen wir Tab. C.6 den kritischen Wert SW = 0.905. Da 0.95649 < 0.905, lehnen wir die Annahme der Normalverteilung nicht ab.
Zur Überprüfung der Homoskedastizität erstellen wir zunächst Boxplots der Beobachtungen auf den jeweiligen Faktorstufenkombinationen. Anschließend verwenden wir die Residuen
NormalQuantilPlot
4
empirische Quantile
2
0
2
4
2
1
0
1
2
theoretische Quantile
Abb. 5.4 Normal-Quantil-Plot
5.2 Nichtadditives Modell
91
Abb. 5.5 Vier Boxplots
.
+.
.+
+.+
38 40 42 44 46 48 50
aus Gl. (5.57) auch zur Überprüfung der Varianzhomogenität. Dazu bestimmen wir die absoluten Residuen und führen den Levene- und den Brown-Forsythe-Test durch.
Beispiel 5.1 (fortgesetzt). Wir erhalten vier Boxplots, die Abb. 5.5 zeigt. Auf den ersten Blick sind in Abb. 5.5 keine stark voneinander abweichenden Streuungen
auf den Faktorstufenkombinationen zu erkennen. Der Levene-Test liefert für den Wert der Teststatistik L = 0.3137. Mit drei und 16 Freiheitsgraden erhalten wir für α = 0.05 einen kritischen Wert von F3,16,0.95 = 3.24 aus Tab. C.1. Wir lehnen somit auch die Annahme der Varianzhomogenität nicht ab. Bei der Verwendung des Brown-Forsythe-Tests erhalten wir L = 0.1406. Mit erneut F3,16,0.95 = 3.24 lehnen wir auch hier nicht ab.
Wir können also davon ausgehen, dass die Annahmen der Varianzanalyse für dieses Beispiel erfüllt sind.
5.2.1 Der Algorithmus von Yates
Wir haben bei einfaktoriellen Experimenten die Notation (1) und a für den Algorithmus von Yates eingeführt. Wir können diese Notation jetzt auf zweifaktorielle balancierte Experimente erweitern. Wird in einer Symbolfolge der Kleinbuchstabe eines Faktors verwendet, so steht dieser Faktor auf +. Ansonsten steht er auf -. Stehen alle Faktoren auf -, so verwenden wir das Symbol (1). Die Symbolfolgen stehen dann wieder für die Summe der Werte auf der jeweiligen Faktorstufenkombination. Es gilt also
92
5 Zweifaktorielle Experimente
n
(1) = y11k
k=1 n
a = y21k
k=1 n
b = y12k
k=1 n
ab = y22k .
k=1
Beispiel 5.1 (fortgesetzt). Wir erhalten
(1) = 200 a = 220 b = 205 ab = 235.
(5.58) (5.59) (5.60) (5.61)
Wir können auch die geschätzten Effekte in dieser Notation darstellen. Betrachten wir zuerst die Mittelwerte auf den einzelnen Faktorstufen. Hier gilt
y¯i ·
=
1 2n
n
n
yi1k + yi2k
k=1
k=1
und
y¯· j
=
1 2n
n
n
y1 jk + y2 jk
k=1
k=1
.
Also gilt
y¯1·
=
(1) + 2n
b
y¯2·
=
a
+ ab 2n
y¯·1
=
(1) + 2n
a
y¯·2
=
b
+ ab. 2n
(5.62) (5.63)
Der geschätzte Effekt von A ist
eA
=
a
+
ab
(1) 2n
b.
(5.64)
Den Beweis zeigt Anhang B.
5.2 Nichtadditives Modell
Man nennt
K A = a + ab (1) b
im Zähler von eA auch den Kontrast K A von A.
Beispiel 5.1 (fortgesetzt). Es gilt K A = 50. Also erhalten wir
eA
=
50 10
=
5.
Der geschätzte Effekt von B ist
eB
=
b
+ ab
(1) 2n
a.
Den Beweis zeigt erneut Anhang B. Man nennt
K B = b + ab (1) a
im Zähler von eB entsprechend auch den Kontrast K B von B.
Beispiel 5.1 (fortgesetzt). Es gilt K B = 20. Wir erhalten
eB
=
20 10
=
2.
Der geschätzte Effekt von AB ist
eAB
=
(1)
ab 2n
+
ab .
Den Beweis zeigt Anhang B.
93 (5.65)
(5.66) (5.67)
(5.68)
94
5 Zweifaktorielle Experimente
Man nennt
K AB = (1) a b + ab
(5.69)
im Zähler von eAB analog zu den vorherigen Überlegungen auch den Kontrast K AB von AB.
Beispiel 5.1 (fortgesetzt). Es gilt K AB = 10, und wir erhalten
eAB
=
10 10
=
1.
Wir können auch die Quadratsummen in dieser Notation darstellen. Es gilt
SSA
=
(a
+
ab
(1) 4n
b)2 .
Den Beweis dieser Beziehung zeigen wir in Anhang B. Mit K A = a + ab (1) b gilt demnach
SSA
=
K
2 A
.
4n
(5.70)
Beispiel 5.1 (fortgesetzt). Mit K A = 50 erhalten wir SSA = (502)/20 = 125. Mit K B = b + ab (1) a gilt
SSB
=
K
2 B
.
4n
Beispiel 5.1 (fortgesetzt). Mit K B = 20 erhalten wir SSB = (202)/20 = 20. Mit K AB = (1) a b + ab gilt
SSAB
=
K
2 A
B
.
4n
5.2 Nichtadditives Modell
95
Beispiel 5.1 (fortgesetzt). Mit K AB = 10 erhalten wir SSAB = (102)/20 = 5.
Wir wollen nun veranschaulichen, wie wir mit dem Algorithmus von Yates bei einem 22Experiment die Kontraste der Effekte erhalten können. Hierzu stellen wir im ersten Schritt Tab. 5.7 auf.
Beispiel 5.1 (fortgesetzt). Wir erhalten Tab. 5.8.
Wir führen den Algorithmus von Yates durch. Wir beginnen mit der ersten Spalte.
1. Wir summieren die ersten beiden Zahlen dieser Spalte und schreiben sie in die erste Zeile der nächsten Spalte.
2. Wir summieren die nächsten beiden Zahlen und schreiben das Ergebnis in die zweite Zeile der nächsten Spalte.
3. Wir nehmen erneut die ersten beiden Zahlen, bilden die Differenz aus der unteren und der oberen und schreiben das Ergebnis in die dritte Zeile der nächsten Spalte.
4. Wir nehmen die nächsten beiden Zahlen, bilden die Differenz aus der unteren und der oberen und schreiben das Ergebnis in die vierte Zeile der nächsten Spalte.
Wir gehen mit der zweiten Spalte genau so vor wie mit der ersten. Nach diesem Schritt stehen in der letzten Spalte die Kontraste der Faktoren. Wir führen also bei einem zweifaktoriellen Experiment den Algorithmus mit den Schritten 1 bis 4 insgesamt zweimal durch. Wir erhalten die Schritte in Tab. 5.9.
Der Vergleich der Elemente in der zweiten, dritten und vierten Zeile der letzten Spalte von Tab. 5.9 mit den Gl. (5.65), (5.67) und (5.69) zeigt, dass hier die Kontraste stehen. Abb. 5.6 illustriert die Vorgehensweise für den Algorithmus von Yates. Dabei bedeutet eine durchgezogene Linie Addition und eine gestrichelte Linie Subtraktion.
Beispiel 5.1 (fortgesetzt). Tab. 5.10 zeigt die einzelnen Schritte.
Tab. 5.7 Faktorstufenkombinationen bei einem zweifaktoriellen Experiment
Tab. 5.8 Faktorstufenkombinationen bei einem zweifaktoriellen Experiment
(1) a b ab
(1) 200 a 220 b 205 ab 235