© Copyright StatSoft, Inc., 1984-2024
Przeszukaj Internetowy Podręcznik Statystyki
ANOVA/MANOVA


Ten rozdział zawiera ogólne wprowadzenie do ANOVA oraz omówienie tematów związanych z technikami analizy wariancji, włączając w to analizę układów z powtarzanymi pomiarami, analizę kowariancji, wielowymiarową analizę wariancji, analizę układów niezrównoważonych i układów niekompletnych, analizę kontrastów i testy post-hoc, założenia, itd. Tematy pokrewne znajdziemy również w rozdziałach: Komponenty wariancyjne i model mieszany ANOVA (tematy powiązane z estymacją komponentów wariancyjnych w modelu mieszanym), Planowanie doświadczeń (DOE) (zastosowanie ANOVA w przemyśle) oraz Analiza powtarzalności i odtwarzalności (opis specjalnych układów przeznaczonych do oceny rzetelności i dokładności systemów pomiarowych).

Patrz także Ogólne modele liniowe , Ogólne modele regresji , a do analizy modeli nieliniowych Uogólnione modele liniowe i nieliniowe .


Podstawowe idee

Cel analizy wariancji.

Celem analizy wariancji (ANOVA) jest zazwyczaj testowanie istotności różnic pomiędzy średnimi. Temat Podstawowe pojęcia zawiera krótkie wprowadzenie na temat podstaw testowania istotności statystycznej. W przypadku porównywania dwóch średnich ANOVA daje takie same rezultaty , jak test t dla prób niezależnych (jeśli porównujemy dwie różne grupy przypadków lub obserwacji) lub test t dla prób zależnych (jeśli porównujemy dwie zmienne dla tego samego zbioru przypadków lub obserwacji). W przypadku niewystarczającej wiedzy na temat stosowania tych testów, zalecamy " odświeżenie wiedzy" przez przeczytanie opisu Podstawowych statystyk i tabel .

Od czego pochodzi nazwa analiza wariancji? Może wydawać się dziwne, że procedura służąca do porównywania średnich jest określana nazwą analiza wariancji. Nazwa ta wywodzi się z faktu, że w celu testowania statystycznej istotności różnic pomiędzy średnimi w rzeczywistości przeprowadzamy porównanie (tzn. analizę) wariancji.

Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody służące do przeprowadzania analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Podział sum kwadratów

W metodzie ANOVA wykorzystuje się fakt, że wariancje mogą być rozdzielane na części. Pamiętamy, że wariancja jest obliczana jako suma kwadratów odchyleń od średniej ogólnej, dzielona przez n-1 (wielkość próby minus jeden). A zatem przy danym n, wariancja jest funkcją sum kwadratów (odchyleń od średniej, w skrócie SS). Podział wariancji przebiega w podany poniżej sposób. Weźmy pod uwagę następujący zbiór danych:

 Grupa 1Grupa 2
Obserwacja 1
Obserwacja 2
Obserwacja 3
2
3
1
6
7
5
Mean
Sumy kwadratów (SS)
2
2
6
2
Średnia ogólna
Całkowita suma kwadratów
 4
28

Średnie obydwu grup zupełnie się różnią (wynoszą odpowiednio 2 i 6). Sumy kwadratów w obrębie każdej grupy wynoszą 2. Dodając je do siebie otrzymujemy 4. Jeśli teraz powtórzymy te obliczenia, pomijając przynależność do grup, tzn. jeżeli obliczymy sumę SS odchyleń od średniej ogólnej, wówczas otrzymamy liczbę 28. Inaczej mówiąc, obliczenie wariancji (sum kwadratów odchyleń od średniej) w oparciu o zmienność wewnątrzgrupową daje znacznie mniejsze oszacowanie wariancji niż jej obliczenie w oparciu o całkowitą zmienność (średnią ogólną). W powyższym przykładzie powodem tego jest oczywiście fakt, że pomiędzy średnimi występuje duża różnica i odpowiada ona za różnice w SS . Gdybyśmy mieli w rzeczywistości przeprowadzić analizę wariancji na podstawie powyższych danych, otrzymalibyśmy następujące wyniki:

 EFEKT GŁÓWNY
SS df MSFp
Efekt
Błąd
24.0
4.0
1
4
24.0
1.0
24.0
 
.008
 

Jak widać w powyższej tabeli, całkowita suma kwadratów odchyleń od średniej SS wynosi 28. Została ona podzielona na SS odpowiadającą zmienności w obrębie grupy (2+2=4) oraz zmienność odpowiadającą różnicom pomiędzy średnimi (28-(2+2)=24).

SS błędu oraz SS efektu. Zmienność (SS) w obrębie grupy jest zwykle określana jako wariancja błędu. Termin ten oznacza, że nie możemy jej łatwo wyjaśnić lub obliczyć w bieżącym układzie. Możemy jednak wyjaśnić SS efektu. Jest on mianowicie spowodowany przez różnice średnich pomiędzy grupami. Inaczej mówiąc, przynależność do grupy wyjaśnia zmienność, ponieważ wiemy, że powoduje ona różnice pomiędzy średnimi.

Testowanie istotności. Podstawowe idee testowania istotności statystycznej zostały przedyskutowane w rozdziale Podstawowe pojęcia . Wyjaśniono tam również fakt wykorzystywania przez wiele testów statystycznych stosunku zmienności wyjaśnionej do zmienności niewyjaśnionej. ANOVA jest właśnie dobrym przykładem takiej sytuacji. W metodzie tej bazuje się na porównaniu wariancji odnoszącej się do zmienności pomiędzy grupami (nazywanej efektem średniokwadratowym lub MSefektu, termin ten został wprowadzony przez Edgewortha w 1885r.) ze zmiennością w obrębie grup (którą określa się jako błąd średniokwadratowy lub MSbłędu). Wobec hipotezy zerowej (zakładającej, że nie ma różnic wartości średnich pomiędzy grupami w populacji) moglibyśmy nadal oczekiwać pewnych nieznacznych losowych wahań średnich dla dwóch grup w przypadku małych prób (jak w naszym przykładzie). A zatem w świetle hipotezy zerowej, wariancja estymowana w oparciu o zmienność w obrębie grupy powinna być taka sama jak wariancja odnosząca się do zmienności pomiędzy grupami. Możemy porównać te dwa oszacowania wariancji za pomocą testu F (zobacz także dystrybucja F ), który służy do oceny, czy stosunek dwóch oszacowań wariacji jest istotnie większy od 1. W naszym przykładzie test ten świadczy o wysokiej istotności i rzeczywiście pozwala wnioskować, że średnie dwóch grup istotnie różnią się między sobą.

Podsumowanie logicznych podstaw analizy wariancji. Podsumowując dyskusję do tego momentu, możemy stwierdzić, że celem analizy wariancji jest testowanie statystycznej istotności różnic pomiędzy średnimi (dla grup lub zmiennych). Cel ten jest realizowany poprzez analizowanie wariancji, tzn. przez podział całkowitej wariancji na składową odpowiadającą prawdziwemu błędowi losowemu (tzn. SS w obrębie grup) oraz składowe, które odnoszą się do różnic pomiędzy średnimi. Te drugie składowe wariancji są następnie testowane pod kątem istotności statystycznej, a w przypadku jej stwierdzenia odrzucamy hipotezę zerową zakładającą, że nie ma różnic pomiędzy średnimi i akceptujemy hipotezę alternatywną, która mówi o tym, że średnie (w populacji) różnią się pomiędzy sobą.

Zmienne zależne i niezależne. Zmienne, które mierzymy (np. wynik testu) są nazywane zmiennymi zależnymi. Z kolei zmienne, które kontrolujemy (np. metoda nauczania lub pewne inne kryterium stosowane do podziału obserwacji na grupy, podlegające porównywaniu) są nazywane czynnikami lub zmiennymi niezależnymi. Więcej informacji na temat tego rozróżnienia możemy uzyskać zapoznając się z tematem Podstawowe pojęcia .

Wieloczynnikowa ANOVA

Przy omawianiu w temacie Podział sum kwadratów prostego przykładu mogło nam przyjść na myśl, że do takiego samego wniosku doszlibyśmy przeprowadzając test t dla prób niezależnych . I rzeczywiście, w przypadku porównania dwóch grup przy pomocy tego testu otrzymalibyśmy identyczne rezultaty. Jednak ANOVA jest metodą bardziej uniwersalną o znacznie większych możliwościach i może być wykorzystywana w przypadku znacznie bardziej złożonych zagadnień badawczych.

Większa liczba czynników. Otaczająca nas rzeczywistość jest ze swej natury złożona i wielowymiarowa, a sytuacje w których pojedyncza zmienna pozwala wyjaśnić dane zjawisko należą do rzadkości. Przykładowo, próbując dowiedzieć się jak wyhodować pomidory o większej wadze, powinniśmy wziąć pod uwagę czynniki, które wpływają na genetyczną postać sadzonki, warunki glebowe, nasłonecznienie, temperaturę itd. A zatem w typowym eksperymencie branych jest pod uwagę wiele czynników. Jedną z ważnych przyczyn, dla których powinno się stosować raczej metody ANOVA niż wielokrotne badanie dwóch grup przy pomocy testów t jest to, że ANOVA jest bardziej efektywna, dzięki czemu możemy uzyskać więcej informacji dysponując mniejszą liczbą obserwacji. Wyjaśnijmy szerzej tę kwestię.

Kontrola czynników. Przypuśćmy, że w przykładzie dwóch grup wprowadzimy kolejny czynnik grupujący, np. Płeć. Wyobraźmy sobie, że w każdej z grup mamy 3 mężczyzn i 3 kobiety. Układ ten moglibyśmy zestawić w tabeli 2x2:

 Grupa
eksperymentalna
1
Grupa
eksperymentalna
2
Mężczyźni
 
 
2
3
1
6
7
5
Średnia26
Kobiety
 
 
4
5
3
8
9
7
Średnia48

Jeszcze przed przeprowadzeniem jakichkolwiek obliczeń okazuje się, że całkowitą wariancję możemy rozdzielić na co najmniej trzy składniki: (1) zmienność spowodowaną błędem (wariancja wewnątrzgrupowa), (2) zmienność spowodowaną przynależnością do grupy eksperymentalnej oraz (3) zmienność spowodowaną czynnikiem płci. (Zauważmy, że jest jeszcze dodatkowe źródło zmienności -- interakcja -- które przedyskutujemy w skrócie). Co by się stało, gdybyśmy w analizie nie uwzględnili czynnika Płeć lecz przeprowadzili prosty test t? Jeśli obliczymy sumę kwadratów odchyleń od średniej (SS) pomijając czynnik Płeć (stosujemy średnie wewnątrzgrupowe łącząc grupy badanych o różnej płci), to otrzymamy SS=10+10=20. Ta wewnątrzgrupowa suma kwadratów jest większa niż w przypadku, gdy uwzględniamy płeć (przy obliczaniu tych sum kwadratów stosujemy średnie wewnątrzgrupowe w obrębie SS; wyniosą one po 2 w każdej z grup, tak więc połączone wewnętrzne sumy kwadratów odchyleń będą równe 2+2+2+2=8). Różnica ta jest spowodowana faktem, iż średnie dla mężczyzn są systematycznie niższe od średnich dla kobiet i różnica ta powoduje wzrost zmienności, w przypadku gdy pomijamy ten czynnik. Kontrola wariancji błędu zwiększa moc testu. Przykład ten ilustruje następną zasadę ANOVA, która czyni ją bardziej wskazaną niż zastosowanie testu t dla dwóch grup: w przypadku metody ANOVA możemy oceniać wpływ każdego z czynników, kontrolując wszystkie pozostałe; jest to prawdziwa przyczyna, dla której ANOVA charakteryzuje się wyższą mocą niż prosty test t (tzn. potrzebujemy mniej obserwacji, aby stwierdzić istotny wpływ).

Efekty interakcji

Jest jeszcze jedna przewaga analizy wariancji nad prostymi testami t: ANOVA umożliwia wykrywanie efektów interakcji pomiędzy zmiennymi i w związku z tym testowanie bardziej złożonych hipotez na temat otaczającej nas rzeczywistości. Dla zilustrowania tej kwestii weźmy pod uwagę inny przykład.(Termin interakcja został zaproponowany przez Fishera, 1926.)

Efekty główne, interakcja dwuczynnikowa. Wyobraźmy sobie, że mamy grupę studentów nastawionych na osiągnięcia oraz drugą grupę pozbawioną tych "dążeń". Utwórzmy następnie w sposób losowy dwie podgrupy o równej liczebności w każdej z prób i wśród studentów jednej podgrupy przeprowadźmy test o wysokim stopniu trudności, a wśród studentów drugiej podgrupy test o niskim poziomie trudności. Mierzymy wyniki uzyskane przez studentów w teście. Uzyskane w tym (fikcyjnym) badaniu średnie są następujące:

 Nastawieni
na osiągnięcia
Nie nastawieni
na osiągnięcia
Test wymagający
Test łatwy
10
5
5
10

W jaki sposób moglibyśmy podsumować te wyniki? Czy możemy wyciągnąć wniosek, że (1) testy bardziej wymagające powodują, że studenci pracują bardziej intensywnie, (2) studenci nastawieni na osiągnięcia pracują intensywniej od studentów nie nastawionych na osiągnięcia? Żadne z tych stwierdzeń nie odzwierciedla istoty tych wyraźnie regularnych relacji pomiędzy średnimi. Odpowiednim sposobem podsumowania wyników byłoby stwierdzenie, że testy wymagające powodują intensywniejszą pracę tylko wśród studentów nastawionych na osiągnięcia, podczas gdy łatwe testy wpływają mobilizująco na studentów nie nastawionych na osiągnięcia. Inaczej mówiąc, rodzaj nastawienia na osiągnięcia oraz stopień trudności testu współdziałają we wpływie na wysiłek studentów, w szczególności jest to przykład dwuczynnikowej interakcji pomiędzy nastawieniem na osiągnięcia a stopniem trudności testu. Zauważmy, że stwierdzenia 1 i 2 zamieszczone powyżej opisują tzw. efekty główne.

Interakcje wyższego rzędu. Podczas gdy interakcja dwuczynnikowa może być stosunkowo łatwo wyrażona werbalnie, interakcje wyższego rzędu są coraz trudniejsze do wyrażenia słowami. Wyobraźmy sobie, że w przedstawionym powyżej badaniu osiągnięć uwzględniliśmy czynnik Płeć i otrzymaliśmy następujący układ średnich:

Kobiety
 
Nastawieni
na osiągnięcia
Nie nastawieni
na osiągnięcia
Test wymagający
Test łatwy
10
5
5
10
Mężczyźni
 
Nastawieni
na osiągnięcia
Nie nastawieni
na osiągnięcia
Test wymagający
Test łatwy
1
6
6
1

W jaki sposób możemy teraz podsumować wyniki? Wykresy te bardzo ułatwiają interpretację złożonych wpływów. Układ pokazany w powyższej tabeli(i na powyższym wykresie) przedstawia trójczynnikową interakcję pomiędzy czynnikami.

Możemy zatem podsumować ten układ stwierdzając, że w przypadku kobiet występuje dwuczynnikowa interakcja pomiędzy rodzajem nastawienia na osiągnięcia oraz trudnością testu: Kobiety nastawione na osiągnięcia pracują intensywniej z testami bardziej wymagającymi niż z testami łatwymi, podczas gdy kobiety nie nastawione na osiągnięcia pracują intensywniej nad testami łatwymi niż nad trudnymi. W przypadku mężczyzn interakcja ta ma charakter przeciwny. Jak więc widać opis interakcji stał się bardziej złożony.

Ogólny sposób wyrażania interakcji. Ogólnym sposobem wyrażenia wszystkich interakcji jest stwierdzenie, że dany efekt jest modyfikowany (warunkowany) przez inny efekt. Spróbujmy to prześledzić na przykładzie zaprezentowanej powyżej interakcji pomiędzy dwoma czynnikami. Efekt główny w postaci trudności testu jest modyfikowany przez nastawienia na osiągnięcia. W przypadku rozpatrywanej w poprzednim akapicie trójczynnikowej interakcji możemy ją podsumować stwierdzeniem, że dwuczynnikowa interakcja pomiędzy trudnością testu i nastawieniem na osiągnięcia jest modyfikowana (warunkowana) przez czynnik Płeć. Mając do czynienia z czteroczynnikową interakcją, możemy powiedzieć, że trójczynnikowa interakcja jest modyfikowana poprzez wpływ czwartej zmiennej, to znaczy istnieją różne rodzaje interakcji na różnych poziomach oddziaływania czwartej zmiennej. Jak się okazuje, w wielu dziedzinach badań interakcje piątego lub wyższych stopni nie należą do rzadkości.

Indeks



Układy złożone

Zapoznajmy się z podstawowymi elementami składowymi tworzącymi układy złożone.

Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody służące do przeprowadzania analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Układy międzygrupowe i układy z powtarzanymi pomiarami

Chcąc porównać dwie grupy zastosowalibyśmy test t dla prób niezależnych ; chcąc natomiast porównać dwie zmienne dotyczące tych samych osobników (obserwacji), zastosowalibyśmy test t dla prób zależnych. To rozróżnienie dotyczące grup zależnych i niezależnych jest ważne również w przypadku metody ANOVA. Zasadniczo, jeśli mamy do czynienia z powtarzanymi pomiarami dla tej samej zmiennej (przy różnych warunkach pomiaru lub w różnych momentach czasowych) dla tych samych jednostek, wówczas czynnik jest czynnikiem powtarzanych pomiarów (nazywany także czynnikiem wewnątrzobiektowym, ponieważ w celu oszacowania jego istotności obliczamy czynniki wewnątrzobiektoweSS ). Jeśli porównujemy różne grupy badanych (np. kobiety i mężczyzn; trzy szczepy bakterii itd.), wówczas traktujemy kontrolowany czynnik jako czynnik międzygrupowy. Obliczenia przeprowadzane w testach istotności różnią się w zależności od rodzajów czynników, jednakże logika obliczeń oraz sposób interpretacji jest podobny.

Układy międzygrupowe z powtarzanymi pomiarami. W wielu przypadkach eksperymenty wymagają uwzględnienia czynników międzygrupowych oraz czynników powtarzanych pomiarów. Możemy na przykład mierzyć umiejętności matematyczne wśród studentów płci żeńskiej i męskiej (płeć jest tutaj czynnikiem międzygrupowym) na początku i na końcu semestru. Dwa pomiary przeprowadzane na tych samych studentach utworzą czynnik powtarzanych pomiarów. Sposób interpretacji efektów głównych i interakcji nie zależy od tego czy dany czynnik jest czynnikiem międzygrupowym czy też czynnikiem powtarzanych pomiarów a obydwa czynniki mogą oczywiście oddziaływać na siebie (np. kobiety poprawiają się pod koniec semestru podczas gdy mężczyźni pogarszają wyniki).

Układy niekompletne (hierarchiczne)

Zdarzają się przypadki, w których możemy zdecydować się na pominięcie efektów interakcji. Sytuacja taka może mieć miejsce wówczas gdy (1) wiemy, że w danej populacji efekt interakcji jest nieistotny lub (2) układ czynnikowy (termin wprowadzony przez Fishera, patrz Fisher, 1935a) kompletny nie może zostać zastosowany z przyczyn ekonomicznych. Wyobraźmy sobie badanie w którym chcemy ocenić wpływ czterech dodatków do paliwa na przebyty dystans. Dla potrzeb testu nasza firma dostarczyła nam cztery samochody oraz czterech kierowców. Pełne doświadczenie czynnikowe, tzn. takie, w którym każda kombinacja kierowcy, dodatku do benzyny oraz samochodu pojawia się przynajmniej jeden raz wymagałaby 4 x 4 x 4 = 64 prób (grup). Jednakże możemy nie mieć środków (czasu), aby przeprowadzić próby we wszystkich kombinacjach; ponadto, wydaje się rzeczą mało prawdopodobną, aby rodzaj kierowcy występował w interakcji z dodatkiem do benzyny w stopniu, który mógłby mieć jakieś praktyczne znaczenie. Biorąc to pod uwagę, moglibyśmy w rzeczywistości zrealizować tzw. układ kwadratu łacińskiego i "sprowadzić go" tylko do 16 osobnych grup (cztery dodatki zostały oznaczone literami A, B, C i D):

 Samochód
 1  2  3  4 
Kierowca 1
Kierowca 2
Kierowca 3
Kierowca 4
A
B
C
D
B
C
D
A
C
D
A
B
D
A
B
C

Układy kwadratu łacińskiego opisano w większości podręczników dotyczących metod doświadczalnych (np. Hays 1988; Lindman 1974; Miliken i Johnson 1984; Winer 1962) i nie mamy zamiaru omawiać szczegółów dotyczących ich konstruowania. Powiedzmy tylko, że układ ten jest niekompletny w tym sensie, że nie wszystkie kombinacje poziomów są uwzględnione w modelu. Na przykład, Kierowca 1 będzie prowadził samochód 1 z dodatkiem A, podczas gdy Kierowca 3 będzie prowadził ten samochód z dodatkiem C. W pewnym sensie poziomy czynnika Dodatki (A, B, C i D) są umieszczane w komórkach macierzy wyznaczonej przez czynniki samochód i kierowca podobnie jak "jajka w gnieździe". To skojarzenie jest czasami użyteczne dla przypomnienia istoty układów hierarchicznych.

Zauważmy, że możemy również poddawać analizie układy tego typu; szczegółowe informacje na ten temat znajdują się w rozdziale Metody służące do przeprowadzania analizy wariancji . W szczególności metody omówione w części Komponenty wariancyjne i model mieszany ANOVA/ANCOVA są bardzo efektywne przy analizowaniu układów o niezrównoważonym zagnieżdżeniu (w sytuacji, gdy zagnieżdżone czynniki posiadają różną liczbę poziomów w obrębie poziomów czynników, w których są zagnieżdżone), dużych układów zagnieżdżonych (np. z całkowitą liczbą poziomów przekraczającą 200) lub układów zagnieżdżonych hierarchicznie (które mogą zawierać czynniki losowe ).
Indeks



Analiza kowariancji (ANCOVA)

Ogólna idea

W części Podstawowe idee przedyskutowaliśmy krótko zagadnienie "kontroli" czynników oraz sposób redukcji SS błędu oraz zwiększenia statystycznej mocy (czułości) naszego układu poprzez włączenie dodatkowych czynników. Podejście to może zostać rozszerzone na zmienne ciągłe i w przypadku kiedy zostaną one włączone jako czynniki w układzie, są one nazywane zmiennymi towarzyszącymi.

Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Zmienne towarzyszące o charakterze stałym

Przypuśćmy, że chcemy porównać umiejętności matematyczne studentów, którzy zostali losowo przydzieleni do jednego z dwóch alternatywnych podręczników. Wyobraźmy sobie, że dysponujemy również danymi na temat ilorazu inteligencji (IQ) każdego ze studentów objętego badaniem. Podejrzewamy, że iloraz inteligencji jest powiązany z umiejętnościami matematycznymi i możemy wykorzystać tę informację do uczynienia naszego testu bardziej precyzyjnym. W szczególności wyobraźmy sobie, że w każdej z dwóch grup możemy obliczyć współczynnik korelacji (patrz Statystyki podstawowe i tabele ) pomiędzy IQ a umiejętnościami matematycznymi. Pamiętajmy, że gdy już obliczymy współczynnik korelacji możemy również oszacować wielkość wariancji zmiennej umiejętności matematyczne wyjaśnianej przez IQ oraz wielkość wariancji (resztowej), której nie możemy wyjaśnić poprzez IQ (możemy również sięgnąć do Podstawowych pojęć oraz Statystyk podstawowych i tabel ). W metodzie ANOVA wariancję resztową możemy wykorzystać jako oszacowanie prawdziwego SS błędu po uwzględnieniu wpływu IQ. Jeśli korelacja pomiędzy IQ a umiejętnościami matematycznymi jest znaczna, wówczas możemy oczekiwać dużej redukcji SS błędu.

Wpływ zmiennej towarzyszącej na test F. W przypadku testu F (patrz także rozkład F ) do oceny statystycznej istotności różnic pomiędzy średnimi obliczamy iloraz wariancji międzygrupowej (MSefektu) do wariancji błędu (MSbłędu). Jeśli MSbłędu maleje stosownie do mocy wyjaśniania IQ, wówczas globalna wartość F wzrasta.

Przypadek wielu zmiennych towarzyszących. Opisany powyżej przypadek pojedynczej zmiennej towarzyszącej (IQ) może zostać łatwo rozszerzony na przypadek wielu zmiennych towarzyszących. Na przykład oprócz IQ moglibyśmy uwzględnić pomiary motywacji, wyobraźni przestrzennej itp. i zamiast korelacji prostej obliczyć współczynnik korelacji wielorakiej (patrz Regresja wieloraka ).

Zmniejszanie się wartości F. W niektórych badaniach uwzględniających zmienne towarzyszące zdarza się, że wartość F po włączeniu zmiennych towarzyszących w układzie obniża się (staje się mniej istotna). Oznacza to zazwyczaj, że zmienne towarzyszące są skorelowane nie tylko ze zmienną zależną (np. z umiejętnościami matematycznymi), lecz także z czynnikiem międzygrupowym (np. dwoma różnymi podręcznikami). Na przykład, wyobraźmy sobie, że dokonaliśmy pomiaru IQ pod koniec semestru po tym jak studenci w innych grupach eksperymentalnych stosowali odpowiednie podręczniki prawie przez rok. Jest możliwe, że nawet mimo zastosowania na wstępie losowego przypisania studentów do jednego z podręczników, podręczniki tak mocno różnią się pomiędzy sobą, że zarówno umiejętności matematyczne jak i IQ kształtują się w odmienny sposób w obydwu grupach. W takim przypadku zmienna towarzysząca powoduje nie tylko podział wariancji dotyczącej błędu lecz również podział wariancji odpowiadającej czynnikowi międzygrupowemu. Ujmując rzecz nieco inaczej, po uwzględnieniu wpływu różnic w IQ, które powstały w wyniku zastosowania dwóch podręczników umiejętności matematyczne już się tak nie różnią. Mówiąc jeszcze inaczej, poprzez wyeliminowanie wpływów IQ mimowolnie usunęliśmy prawdziwy wpływ podręczników na poziom umiejętności studentów.

Średnie skorygowane. Kiedy zdarzy się ten ostatni przypadek, tzn. gdy czynnik międzygrupowy wpływa na zmienną towarzyszącą, wówczas stosownym okazuje się obliczenie tzw. średnich skorygowanych. Są to średnie, które otrzymujemy po usunięciu wszystkich różnic wyjaśnianych przez zmienną towarzyszącą.

Interakcje pomiędzy zmiennymi towarzyszącymi i czynnikami. Podobnie jak przy testowaniu występowania interakcji pomiędzy czynnikami możemy również testować występowanie interakcji pomiędzy zmiennymi towarzyszącymi i czynnikami międzygrupowymi. W szczególności wyobraźmy sobie, że jeden z podręczników jest wyjątkowo odpowiedni dla studentów o wyższym poziomie inteligencji podczas gdy inny faktycznie nudzi tych studentów ale z kolei jest interesujący dla studentów o niższym poziomie inteligencji. W rezultacie możemy stwierdzić dodatnią korelację w przypadku pierwszej grupy (wyższy poziom inteligencji wiąże się z lepszą sprawnością) oraz jej brak lub nieznaczny ujemny poziom korelacji w obrębie drugiej grupy (czym wyższy poziom inteligencji tym następuje mniej chętne przyswajanie umiejętności matematycznych na podstawie danego podręcznika). W niektórych starszych podręcznikach statystyki warunek ten jest traktowany jako przypadek w którym nie są spełnione założenia przyjmowane w analizie kowariancji (patrz Założenia i konsekwencje ich naruszenia ). Jednakże dzięki temu, że ANOVA/MANOVA wykorzystuje bardzo ogólne podejście do analizy kowariancji, możemy w szczególności ocenić statystyczną istotność interakcji pomiędzy czynnikami i zmiennymi towarzyszącymi.

Zmienne towarzyszące o charakterze zmiennym

Podczas gdy zmienne towarzyszące o charakterze stałym są zwykle omawiane w podręcznikach poświęconych metodzie ANOVA to w przypadku zmiennych towarzyszących o charakterze zmiennym sytuacja taka występuje o wiele rzadziej. Zazwyczaj kiedy mamy do czynienia z powtarzanymi pomiarami jesteśmy zainteresowani testowaniem różnic powtarzanych pomiarów u tego samego osobnika. A zatem w rzeczywistości chodzi nam o ocenę istotności zmian. Jeśli mamy zmienną towarzyszącą dla której dysponujemy pomiarami w tych samych punktach w których dokonaliśmy pomiaru zmiennej zależnej, wówczas możemy obliczyć współczynnik korelacji pomiędzy zmianami zachodzącymi w obrębie zmiennej towarzyszącej i zmianami w obrębie zmiennej zależnej. Na przykład moglibyśmy zbadać obawę przed matematyką i umiejętności w zakresie matematyki na początku i na końcu semestru. Interesującym byłoby zobaczenie czy zmiany obawy przed matematyką w ciągu semestru korelują ze zmianami w zakresie umiejętności matematycznych.
Indeks



Układy wielowymiarowe: MANOVA/MANCOVA Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody służące do przeprowadzania analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Układy międzygrupowe

Wszystkie omówione do tej pory przykłady dotyczyły tylko jednej zmiennej zależnej. Jeżeli mamy do czynienia jednocześnie z więcej niż jedną zmienną zależną, logika i istota obliczeń nie zmieniają się, chociaż obliczenia stają się bardziej złożone. Na przykład, możemy prowadzić badania, w których badamy wpływ dwu różnych podręczników na postępy studentów w zakresie matematyki i fizyki. W takim przypadku mamy dwie zmienne zależne i nasza hipoteza zakłada, że obydwie zmienne ulegają wpływowi różnicy pomiędzy podręcznikami. Do testowania tej hipotezy moglibyśmy teraz przeprowadzić wielowymiarową analizę wariancji (MANOVA). Zamiast wartości jednowymiarowego F otrzymamy wartość wielowymiarowego F (lambda Wilksa) opartą na porównaniu macierzy wariancji/kowariancji błędu i macierzy kowariancji efektu. Ponieważ najprawdopodobniej dwie brane pod uwagę zmienne są "skorelowane", musimy uwzględnić tę korelację w obliczeniach podczas przeprowadzania testu istotności. Oczywiście, gdybyśmy uwzględnili dwukrotnie tą samą zmienną, wówczas faktycznie nie dowiedzielibyśmy się niczego nowego. Jeśli bierzemy pod uwagę skorelowaną zmienną, zyskujemy pewną nową informację, ale nowa zmienna będzie również zawierać zbyteczną informację, wyrażoną poprzez kowariancję występującą pomiędzy zmiennymi.

Interpretacja wyników. Jeśli globalny test wielowymiarowy wykaże istotność, wówczas wnioskujemy, że odpowiedni efekt (np. podręcznik) jest istotny. Jednakże nasze następne pytanie dotyczyłoby oczywiście tego, czy postęp dotyczy tylko umiejętności matematycznych, tylko umiejętności z zakresu fizyki, czy też obydwu jednocześnie. W istocie rzeczy po stwierdzeniu statystycznej istotności testu wielowymiarowego dla danego efektu głównego lub interakcji, zazwyczaj przeprowadzamy jednowymiarowe testy F (zobacz także rozkład F )dla każdej ze zmiennych aby dokonać interpretacji odpowiedniego efektu. Inaczej mówiąc, próbujemy zidentyfikować zmienną zależną, która wnosi wkład w istotność ogólnego efektu.

Układy z powtarzanymi pomiarami

Jeśli przeprowadzamy ocenę umiejętności w zakresie matematyki i fizyki na początku i na końcu semestru, wówczas mamy do czynienia z wielowymiarowymi pomiarami powtarzanymi. Podobnie jak poprzednio logika testowania istotności w obrębie takiego układu jest po prostu rozszerzeniem przypadku jednowymiarowego. Zauważmy, że metody MANOVA są także stosowane powszechnie do testowania istotności jednowymiarowych pomiarów powtarzanych w przypadku czynników z więcej niż dwoma poziomami; zastosowanie to zostanie omówione w temacie Założenie sferyczności i symetrii połączonej.

Wyniki sumaryczne a MANOVA

Nawet doświadczeni użytkownicy technik ANOVA i MANOVA są często zakłopotani różnicami wyników, jakie czasami pojawiają się kiedy przeprowadzamy analizę przy pomocy metody MANOVA, przykładowo dla trzech zmiennych, w porównaniu do jednowymiarowej ANOVA przeprowadzonej dla sumy trzech zmiennych. Logika stanowiąca podstawę sumowania zmiennych polega na tym, że każda ze zmiennych zawiera pewną "prawdziwą" wartość badanej cechy, jak również pewien losowy błąd pomiaru. Zatem poprzez dodanie zmiennych błąd pomiaru sumuje się w przybliżeniu do 0 w obrębie wszystkich pomiarów, a suma wyników staje się coraz bardziej rzetelna (coraz bardziej zbliżona do sumy prawdziwych wyników). Rzeczywiście, w tych warunkach, ANOVA przeprowadzana na sumie zmiennych jest odpowiednia i stanowi bardzo precyzyjną metodę. Jeśli jednak zmienna zależna jest rzeczywiście z natury wielowymiarowa, wówczas sumowanie nie jest odpowiednie. Przypuśćmy na przykład, że nasza zmienna zależna składa się z czterech wskaźników powodzenia w życiu i każdy wskaźnik reprezentuje całkowicie niezależny sposób, w jaki dana osoba "może osiągnąć" powodzenie (np. sukcesy zawodowe, sukcesy firmy, sukcesy domowe itp.). Zsumowanie wyników tych zmiennych byłoby podobne do dodawania jabłek do pomarańczy, a otrzymany w rezultacie wynik sumaryczny nie będzie wiarygodnym wskaźnikiem nieznanego pojedynczego wymiaru. A zatem w metodzie MANOVA powinniśmy traktować takie dane jako wielowymiarowe wskaźniki powodzenia.

Indeks



Analiza kontrastów i testy post hoc Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody służące do przeprowadzania analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Dlaczego porównuje się oddzielne zbiory średnich?

Hipotezy eksperymentalne są zazwyczaj bardziej szczegółowe niż proste efekty główne lub interakcje . Moglibyśmy np. postawić szczegółową hipotezę, zakładającą że określony podręcznik rozwija umiejętności matematyczne u osobników płci męskiej a u osobników płci żeńskiej nie, podczas gdy inny podręcznik miałby charakteryzować się jednakową efektywnością u obu płci. Ogólnie, doszukujemy się następującej interakcji: efektywność podręcznika jest modyfikowana (uwarunkowana) przez płeć studentów. Jednakże mamy określone przypuszczenie dotyczące istoty interakcji: oczekujemy istotnej różnicy pomiędzy płciami w przypadku jednego podręcznika, ale nie w przypadku innego. Ten typ szczegółowych przypuszczeń jest zazwyczaj testowany przy pomocy analizy kontrastów.

Analiza kontrastów

Mówiąc w skrócie, analiza kontrastów umożliwia nam testowanie statystycznej istotności przewidywanych szczegółowych różnic w określonych fragmentach naszego złożonego układu. Jest to jeden z ważniejszych i niezastąpionych elementów składowych analizy każdego złożonego układu ANOVA.

Porównania Post hoc

Czasami zdarza się, że w przeprowadzonym eksperymencie natrafiamy na efekty, których się nie spodziewaliśmy. Nawet jeśli w większości przypadków twórczy eksperymentator będzie umiał wyjaśnić prawie każdy układ średnich, to niekoniecznie należy go analizować i oceniać tak, jak gdyby był to układ, którego należało oczekiwać. Pojawia się tu problem przypadkowych wyników podczas przeprowadzania wielokrotnych testów post hoc, tzn. bez hipotez a priori . Aby zobrazować tę sytuację, rozważmy następujący "eksperyment".Wyobraźmy sobie, że mamy zapisać liczbę zawierającą się pomiędzy 1 i 10 na 100 skrawkach papieru. Następnie wkładamy je wszystkie do kapelusza i pobieramy 20 prób (kawałków papieru), każda po 5 obserwacji oraz obliczamy średnią (spośród liczb zapisanych na skrawkach papieru) dla każdej z grup. Zastanówmy się, jakie jest prawdopodobieństwo, że natrafimy na dwie średnie z próby, których różnica jest statystycznie istotna? Okazuje się, że jest to bardzo prawdopodobne! Wybór skrajnych wartości średnich otrzymanych z 20 prób różni się bardzo od pobrania od razu tylko 2 prób, co zakłada test poprzez analizę kontrastów. Bez wchodzenia w dalsze szczegóły istnieje kilka tzw. testów post hoc, które są wprost oparte na pierwszym scenariuszu (pobranie skrajnych wartości spośród 20 prób), tzn. oparte są na założeniu, że dla naszego porównania wybraliśmy najbardziej skrajne (różne) średnie spośród całkowitej liczby kśrednich w układzie. Testy te wprowadzają poprawki "kompensujące" korzyść wynikającą z wyboru podejścia post hoc najbardziej skrajnych porównań.
Indeks



Założenia i konsekwencje ich naruszenia Więcej informacji wprowadzających znajdziemy w częściach:

Patrz także Metody służące do przeprowadzania analizy wariancji , Komponenty wariancyjne i model mieszany ANOVA/ANCOVA oraz Planowanie doświadczeń (DOE) .

Odchylenie od rozkładu normalnego

Założenia. Zakłada się, że zmienna zależna jest wyrażona przynajmniej na skali przedziałowej (patrz Podstawowe pojęcia ). Ponadto zmienna zależna powinna podlegać rozkładowi normalnemu w obrębie grup.

Konsekwencje naruszenia założeń. Test F (zobacz także rozkład F ) jest w znacznym stopniu odporny na odchylenia od normalności (patrz Lindman, 1974). Jeśli kurtoza (patrz Statystyki podstawowe i tabele ) jest większa od 0, wówczas wartość F zmierza do małych wartości i nie możemy odrzucić hipotezy zerowej, nawet jeśli nie jest prawdziwa. Przypadek przeciwny występuje w sytuacji gdy wartość kurtozy jest mniejsza od 0. Skośność rozkładu zazwyczaj nie ma znacznego wpływu na wartość statystyki F. Jeśli liczność n na komórkę jest wystarczająco duża, wówczas odchylenia od rozkładu normalnego nie mają w ogóle znaczenia ze względu na centralne twierdzenie graniczne, zgodnie z którym rozkład średnich z próby zmierza do rozkładu normalnego, niezależnie od rozkładu zmiennej w populacji. Szczegółowe omówienie elastyczności statystyki testu F można znaleźć u Boxa i Andersona (1955) lub u Lindmana (1974).

Jednorodność wariancji

Założenia. Zakłada się, że wariancje w obrębie różnych grup układu są sobie równe; założenie to jest określane jako założenie o jednorodności (równości, homogeniczności) wariancji. Przypomnijmy sobie, że wariancję błędu (SS błędu) obliczamy dodając sumy kwadratów w obrębie grup. W przypadku gdy wariancje w dwóch grupach różnią się pomiędzy sobą, wówczas ich dodawanie nie jest właściwe i nie daje oszacowania wspólnej wariancji wewnątrzgrupowej (ponieważ nie istnieje wspólna wariancja).

Konsekwencje naruszenia założeń. Lindman (1974) pokazał, że statystyka F jest całkowicie odporna na naruszenia tego założenia (problem niejednorodności wariancji; patrz także Box, 1954a, 1954b, Hsu, 1938).

Szczególny przypadek: skorelowanie średnich i wariancji. W pewnym przypadku statystyka F może być jednak bardzo myląca, mianowicie wtedy, gdy średnie i wariancje w obrębie komórek układu są ze sobą skorelowane. Wykres rozrzutu wariancji lub odchyleń standardowych w relacji do średnich pozwala wykryć takie korelacje. Wyjaśnijmy, dlaczego jest to "niebezpieczne" naruszenie założenia. Wyobraźmy sobie, że mamy 8 komórek w układzie przy czym 7 ma równe średnie natomiast jedna ma średnią znacznie wyższą. Statystyka F może nam sugerować istotny statystycznie wpływ. Jednakże przypuśćmy, że w komórce z najwyższą średnią występuje również dużo większa wariancja, tzn. że średnie i wariancje są skorelowane (im wyższa średnia, tym większa wariancja). W takim przypadku wysoka średnia w jednej komórce jest rzeczywiście niepewna, ponieważ oznacza występowanie dużej wariancji. Jednakże ze względu na to, że ogólna statystka F jest oparta na oszacowaniu połączonej wariancji w obrębie komórki wysoka średnia jest traktowana jako istotnie różna od innych, kiedy w rzeczywistości nie byłaby w ogóle istotnie różna, gdyby oprzeć test na wariancji wewnątrzkomórkowej jedynie w danej komórce.

Taki przypadek (tj. wysoka średnia oraz duża wariancja w jednej komórce) pojawia się często w sytuacji, gdy pojawiają się odstające obserwacje. Jeden lub dwa skrajne przypadki w komórce liczącej tylko 10 przypadków mogą znacznie obciążyć średnią, a także znacznie zwiększyć wariancję.

Jednorodność wariancji i kowariancji

Założenia. Założenie o jednorodności wariancji ma również zastosowanie w przypadku układów wielowymiarowych z wieloma pomiarami zależnymi. Jednak ze względu na występowanie wielu zmiennych zależnych wymaga się, aby ich wzajemne korelacje (kowariancje) były jednorodne w kolejnych komórkach tworzących układ.

Konsekwencje naruszenia założenia. Wielowymiarowym odpowiednikiem testu F jest test lambda Wilksa. Niewiele wiadomo na temat odporności (elastyczności) testu lambda Wilksa na odstępstwa od tego założenia. Jednak ponieważ interpretacja wyników MANOVA opiera się zazwyczaj na interpretacji istotności wpływów jednowymiarowych (gdy okaże się, że ogólny test jest istotny) przeprowadzona powyżej dyskusja dotycząca jednowymiarowej ANOVA zasadniczo ma zastosowanie a istotnie ważne efekty jednowymiarowe powinny zostać dokładnie zbadane.

Szczególny przypadek: ANCOVA. Szczególnie poważne naruszenie założenia o jednorodności wariancji/kowariancji może pojawić się w sytuacji gdy w danym układzie wchodzą w grę zmienne towarzyszące (ang. covariates). W szczególności jeśli korelacje zmiennych towarzyszących ze zmienną(ymi) zależną(ymi) różnią się pomiędzy komórkami, wówczas mogą pojawić się mylne interpretacje wyników. Pamiętajmy, że w przypadku metody ANCOVA przeprowadzamy w istocie analizę regresji wewnątrz każdej komórki aby wydzielić komponent wariancyjny odpowiadający zmiennym towarzyszącym. Założenie jednorodności wariancji/kowariancji oznacza, że przeprowadzamy tę analizę regresji pod warunkiem, że wszystkie równania regresji (współczynniki kierunkowe) w kolejnych komórkach układu są sobie równe. Jeśli przypadek ten nie zachodzi wówczas mogą pojawić się znaczne obciążenia. Istnieją szczegółowe testy do weryfikacji tego założenia i jest wskazane przeprowadzenie tych testów w celu upewnienia się, że równania regresji w różnych komórkach są w przybliżeniu takie same.

Założenie sferyczności i symetrii połączonej

Przyczyny stosowania podejścia wielowymiarowego w metodzie ANOVA z powtarzanymi pomiarami. W przypadku modelu ANOVA z powtarzanymi pomiarami, zawierającego czynniki powtarzanych pomiarów z więcej niż dwoma poziomami wchodzą w rachubę specjalne dodatkowe założenia: Założenie symetrii połączonej oraz założenie sferyczności. Ponieważ założenia te są rzadko spełnione (patrz poniżej) w ostatnich latach zyskało na popularności podejście MANOVA do układów ANOVA z powtarzanymi pomiarami (obydwa testy są automatycznie obliczane w ANOVA/MANOVA). Założenie symetrii połączonej wymaga aby wariancje (połączone w obrębie grupy) i kowariancje (pomiędzy osobnikami) różnych pomiarów powtarzanych były jednorodne (identyczne). Jest to wystarczający warunek poprawności dla jednowymiarowego testu F dla powtarzanych pomiarów (tzn. dla wartości F rzeczywiście podlegających rozkładowi F ). Jednakże nie jest to warunek konieczny. Założenie o sferyczności jest warunkiem koniecznym i wystarczającym dla poprawności testu F; mówi ono, że "model" powtarzanych pomiarów składa się z niezależnych (ortogonalnych) komponentów. Istota tych założeń oraz konsekwencje ich naruszenia są zazwyczaj niezbyt dobrze opisywane w podręcznikach dotyczących metody ANOVA. W kolejnych akapitach postaramy się wyjaśnić to zagadnienie oraz wytłumaczyć co oznacza sytuacja w której wyniki podejścia jednowymiarowego różnią się od podejścia wielowymiarowego w przypadku układu ANOVA z powtarzanymi pomiarami.

Konieczność stawiania niezależnych hipotez. Powszechnym sposobem patrzenia na metodę ANOVA jest traktowanie jej jako procedury dopasowania modelu. W pewnym sensie przyjmujemy dla naszych danych zbiór hipotez a priori, a następnie dokonujemy podziału wariancji (testujemy efekty główne i efekty interakcji ), aby zweryfikować te hipotezy. Obliczeniowo, podejście to sprowadza się do generowania zbioru kontrastów (porównań pomiędzy średnimi układu), które określają hipotezy dotyczące efektu głównego i efektu interakcji. Jednak w przypadku gdy kontrasty te nie są nawzajem niezależne, podział wariancji jest niewskazany. Na przykład jeśli dwa kontrasty A i B są identyczne i wydzielamy odpowiadające im składowe z całkowitej wariancji, wówczas dwukrotnie usuwamy ten sam element. Intuicyjnie czujemy, że postawienie dwóch (nie będących niezależnymi) hipotez postaci: "średnia komórki 1 jest wyższa od średniej komórki 2" oraz "średnia komórki 1 jest wyższa od średniej komórki 2" jest głupie i nie bardzo ma sens. A zatem hipotezy muszą być niezależne od siebie lub ortogonalne(termin ortogonalne po raz pierwszy był użyty przez Yates,w 1933).

Niezależne hipotezy w przypadku powtarzanych pomiarów. Ogólny algorytm będzie próbował tworzyć dla każdego efektu zbiór niezależnych (ortogonalnych) kontrastów . W przypadku metody ANOVA z powtarzanymi pomiarami kontrasty te określają zbiór hipotez dotyczących różnic między poziomami czynnika pomiarów powtarzanych. Jednak jeśli różnice te są skorelowane pomiędzy jednostkami doświadczalnymi, wówczas powstałe w ten sposób kontrasty nie są już niezależne. Na przykład w badaniu, w którym obserwujemy proces uczenia się w trzech momentach czasu w trakcie eksperymentu może zdarzyć się sytuacja, że zmiany zaobserwowane od momentu 1 do momentu 2 są ujemnie skorelowane ze zmianami zaobserwowanymi pomiędzy momentami 2 i 3; co oznacza, że badani uczący się większości materiału w okresie od momentu 1 do momentu 2 poprawiają się znacznie mniej w okresie między momentem 2 i 3. Rzeczywiście w większości przypadków, w których stosowana jest metoda ANOVA z powtarzanymi pomiarami możemy przypuszczać, że zmiany pomiędzy poziomami są skorelowane ze zmianami występującymi pomiędzy badanymi. Jednakże kiedy taka sytuacja się zdarzy, wówczas założenia symetrii połączonej i sferyczności nie są spełnione i w związku z tym niezależne kontrasty nie mogą zostać obliczone.

Konsekwencje naruszenia założeń i środki zaradcze. Kiedy nie zostają spełnione założenia połączonej symetrii lub sferyczności wtedy tabela dla jednowymiarowej ANOVA podaje błędne wyniki. Jeszcze przed tym jak procedury wielowymiarowe zostały dobrze zrozumiane wprowadzono pewne przybliżone rozwiązania, które miały na celu złagodzenie konsekwencji naruszenia założeń (np. Greenhouse i Geisser, 1959; Huynh i Feld, 1970) i techniki te są nadal szeroko stosowane.

Podejście MANOVA do powtarzanych pomiarów. Mówiąc w skrócie, zagadnienie symetrii połączonej i sferyczności odnosi się do faktu, iż wielokrotne kontrasty związane z testowaniem efektów powtarzanych pomiarów (z liczbą poziomów większą niż 2) nie są nawzajem niezależne. Jednakże warunek niezależności nie jest wymagany w przypadku stosowania wielowymiarowych kryteriów do jednoczesnego testowania statystycznej istotności dwóch lub większej liczby kontrastów powtarzanych pomiarów. Z tego powodu metody MANOVA są coraz częściej stosowane do testowania istotności jednowymiarowych czynników powtarzanych pomiarów w przypadku więcej niż dwóch poziomów. Całkowicie popieramy takie podejście ponieważ omija ono założenia symetrii połączonej i sferyczności.

Przypadki w których podejście MANOVA nie może być zastosowane. Zdarzają się przypadki (układy), w których nie może zostać zastosowane podejście MANOVA, w szczególności gdy w układzie występuje kilka jednostek doświadczalnych oraz wiele poziomów czynnika powtarzanych pomiarów możemy mieć za mało stopni swobody do przeprowadzenia analizy wielowymiarowej. Na przykład, jeśli mamy 12 badanych oraz p = 4 czynników powtarzanych pomiarów, z których każdy występuje na k = 3 poziomach, wówczas czteroczynnikowa interakcja "zużywa" (k-1)p = 24 = 16 stopni swobody. Jednakże mamy tylko 12 badanych, tak więc w tym przypadku test wielowymiarowy nie może zostać przeprowadzony.

Różnice wyników podejścia jednowymiarowego i wielowymiarowego. Każdy badacz, którego badanie wymaga obszernych planów doświadczenia z powtarzanymi pomiarami spotkał się z przypadkami w których podejście jednowymiarowe do metody ANOVA z powtarzanymi pomiarami dało wyniki wyraźnie różne od wyników uzyskanych w podejściu wielowymiarowym. Oznacza to, że różnice pomiędzy dwoma poziomami odpowiednich czynników powtarzanych pomiarów są w pewien sposób skorelowane pomiędzy badanymi osobnikami. Czasami samo wykrycie tego faktu może być interesujące.

Indeks



Metody służące do przeprowadzania analizy wariancji

Kilka rozdziałów w tym podręczniku omawia metody przeznaczone do przeprowadzania analizy wariancji. Chociaż wiele spośród dostępnych statystyk występuje w kilku rozdziałach, każda z nich jest najbardziej używana dla poszczególnych zastosowań.

Ogólna ANCOVA/MANCOVA : W tym rozdziale omówione są zastosowania w przypadku analizy układów czynnikowych kompletnych, układów z powtarzanymi pomiarami , układów wielowymiarowych (MANOVA) , układów o zrównoważonym zagnieżdżeniu (układy mogą być niezrównoważone, tzn. mogą mieć nierówne n), do oceny porównań zaplanowanych i porównań post-hoc itd.

Ogólne modele liniowe : Ten nadzwyczaj rozbudowany rozdział przedstawia kompletną implementację ogólnego modelu liniowego i umożliwia analizowanie zarówno modeli z sigma-ograniczeniami jak i modeli przeparametryzowanych . Zawiera procedury dla układów niekompletnych, złożone analizy układów kowariancji, układów zagnieżdżonych (zrównoważonych lub nie), układów mieszanych (z efektami losowymi) oraz efektywne procedury dla bardzo dużych zrównoważonych układów ANOVA. W rozdziale omówionych jest także sześć typów sum kwadratów .

Ogólne modele regresji : Rozdział ten omawia układy porównań międzygrupowych i układy wielowymiarowe stosowane w regresji krokowej oraz jak budować model techniką krokową i najlepszego podzbioru (zarówno dla predyktorów ciągłych jak i predyktorów jakościowych).

Komponenty wariancyjne i model mieszany ANOVA : W tym rozdziale przedstawione są metody, które mają zastosowanie w przypadku analizy układów z efektami losowymi (model mieszany ANOVA) oraz do oceny komponentów wariancyjnych dla efektów lub do analizy układów o dużej liczbie efektów głównych (np. gdy czynniki posiadają ponad 100 poziomów) z efektami losowymi lub bez efektów losowych lub też układów z wieloma czynnikami gdy nie zachodzi potrzeba estymacji wszystkich interakcji .

Planowanie doświadczeń (DOE) : W tym rozdziale omówione są standardowe układy doświadczalne dla zastosowań przemysłowych lub produkcyjnych, w tym układy 2(k-p) i układy 3(k-p) , układy dla planów centralnych kompozycyjnych , układy dla mieszanin , układy D i A optymalne oraz układy dla arbitralnie ograniczonych powierzchni .

Analiza powtarzalności i odtwarzalności (w rozdziale Analiza procesu): Ta część rozdziału Analiza procesu zawiera opis specjalnych układów przeznaczonych do oceny rzetelności i dokładności systemów pomiarowych; układy takie zawierają zazwyczaj dwa lub trzy czynniki losowe i umożliwiają obliczanie specjalnych statystyk służących do oceny jakości systemu pomiarowego (zwykle w zastosowaniach przemysłowych lub produkcyjnych).

Analiza przekrojowa (w rozdziale Statystyki podstawowe i tabele): Ta część rozdziału zawiera opis analizy doświadczeń zawierających tylko jeden czynnik (i wiele poziomów), lub z wieloma czynnikami gdy nie jest wymagana kompletna tablica.

Indeks






© Copyright StatSoft, Inc., 1984-2024
STATISTICA is a trademark of StatSoft, Inc.