© Copyright StatSoft, Inc., 1984-2011
Przeszukaj Internetowy Podręcznik Statystyki
Składowe główne i analiza czynnikowa


Ogólny cel

Główne zastosowania czynnikowych technik analitycznych to: (1) redukcja liczby zmiennych oraz (2) wykrywanie struktury w związkach między zmiennymi, to znaczy klasyfikacja zmiennych. Dlatego analiza czynnikowa jest stosowana jako metoda redukcji danych lub wykrywania struktury (termin analiza czynnikowa został po raz pierwszy wprowadzony przez Thurstonea, 1931). W punktach wymienionych poniżej są opisane zasady analizy czynnikowej i możliwości jej stosowania dla realizacji tych dwóch celów. Zakładamy, że Czytelnik jest zaznajomiony z podstawową logiką wnioskowania statystycznego opisaną w rozdziale Podstawowe pojęcia . Ponadto zakładamy, że Czytelnik jest zaznajomiony z pojęciami wariancji i korelacji; jeśli nie, warto by przeczytał w tym miejscu rozdział Podstawowe statystyki .

Na temat analizy czynnikowej napisano wiele znakomitych książek. Na przykład przystępne wprowadzenie można znaleźć u Stevensa (1986); bardziej szczegółowe opisy procedur podają: Cooley i Lohnes (1971); patrz także: Harman (1976), Kim i Mueller, (1978a, 1978b), Lawley i Maxwell (1971), Lindeman, Merenda i Gold (1980), Morrison (1967) lub Mulaik (1972). Interpretacja czynników drugiego rzędu w hierarchicznej analizie czynnikowej, alternatywnej do tradycyjnych strategii rotacji ukośnej, jest wyjaśniona szczegółowo w: Wherry (1984).

Konfirmacyjna analiza czynnikowa. Metody modelowania równań strukturalnych (SEPATH) umożliwiają testowanie hipotez na temat struktury czynnikowej dla zbioru zmiennych, w jednej lub w kilku próbach (np. możemy porównywać struktury czynnikowe między próbami).

Analiza korespondencji. Analiza korespondencji jest techniką opisową i eksploracyjną zaprojektowaną dla tabel dwu- i wielodzielczych zawierających pewne miary odpowiedniości między wierszami i kolumnami. Wyniki dostarczają informacji podobnych do tych, które dają techniki analizy czynnikowej i pozwalają one badać strukturę zmiennych jakościowych ujętych w tabeli. Więcej informacji na temat tych metod znajduje się w rozdziale Analiza korespondencji .

Indeks

Analiza czynnikowa jako metoda redukcji danych

Wyobraźmy sobie, że przeprowadziliśmy (raczej "niemądre") badanie, w którym mierzyliśmy wzrost 100 osób w calach i centymetrach. Zatem otrzymaliśmy dwie zmienne, które mierzą wzrost. Jeśli w przyszłych badaniach chcemy ocenić, na przykład, wpływ różnych składników odżywczych pokarmu na wzrost, to czy nadal będziemy stosować obie miary? Prawdopodobnie nie; wzrost jest pojedynczą cechą osoby, bez względu na to, jak jest mierzony.

Przejdźmy teraz od tego "niemądrego" badania do czegoś, z czym rzeczywiście możemy się spotkać w badaniach. Wyobraźmy sobie, że chcemy zmierzyć zadowolenie ludzi z ich życia. Projektujemy kwestionariusz z różnymi wskaźnikami; między innymi pytamy respondentów o to, czy są zadowoleni ze swojego hobby (wskaźnik 1) i jak intensywnie uprawiają hobby (wskaźnik 2). Najprawdopodobniej odpowiedzi na te dwa wskaźniki będą ze sobą wysoce skorelowane. (Jeśli Czytelnik nie jest zaznajomiony ze współczynnikiem korelacji, polecamy przeczytanie opisu w części Podstawowe statystyki - Korelacje ). Jeśli otrzymamy wysoką korelację między dwoma wskaźnikami, możemy wnioskować, że są one redundantne.

Połączenie dwóch zmiennych w jeden czynnik.Korelację między dwoma zmiennymi można przedstawić na wykresie rozrzutu . Następnie można dopasować linię, która "najlepiej" oddaje związek liniowy między tymi zmiennymi. Gdybyśmy mogli zdefiniować taką zmienną, która w przybliżeniu określałaby linię regresji na takim wykresie, wówczas zmienna ta obejmowałaby większość "treści" naszych dwóch wskaźników. Pojedyncze wartości osobników na takim nowym czynniku, reprezentowanym przez linię regresji, mogłyby w przyszłej analizie danych zostać wykorzystanie w zastępstwie tych dwóch wskaźników. W pewnym sensie zredukowaliśmy dwie zmienne do jednego czynnika. Zauważmy, że nowy czynnik jest w rzeczywistości kombinacją liniową tych dwóch zmiennych.

Analiza składowych głównych.Opisany powyżej przykład łączenia dwóch skorelowanych zmiennych w jeden czynnik pokazuje podstawową ideę analizy czynnikowej lub, mówiąc ściślej, analizy składowych głównych (wrócimy do tego później). Jeśli uogólnimy przykład dla dwóch zmiennych na wiele zmiennych, to obliczenia staną się bardziej złożone, ale podstawowa zasada wyrażania dwóch lub więcej zmiennych w postaci pojedynczego czynnika pozostaje taka sama.

Wyodrębnianie składowych głównych.Nie będziemy się tutaj zagłębiać w szczegóły obliczeniowe analizy składowych głównych, które można znaleźć gdzie indziej (odwołania znajdują się na początku tej części). Jednak wyodrębnianie składowych głównych jest równoznaczne z rotacją maksymalizującą wariancję (varimax) wyjściowej przestrzeni zmiennych. Na przykład, na wykresie rozrzutu możemy linię regresji potraktować tak, jak gdyby to była pierwotna oś X, która została obrócona w ten sposób, że aproksymuje linię regresji. Ten typ rotacji nazywa się maksymalizującym wariancję, ponieważ kryterium (celem) rotacji jest maksymalizacja wariancji (zmienności) "nowej" zmiennej (czynnika) przy jednoczesnej minimalizacji wariancji wokół tej nowej zmiennej (patrz Strategie rotacji).

Uogólnienie na przypadek wielu zmiennych.Kiedy mamy więcej niż dwie zmienne, możemy powiedzieć, że definiują one "przestrzeń", tak jak dwie zmienne definiują płaszczyznę. Zatem, jeśli mamy trzy zmienne, możemy wykreślić trójwymiarowy wykres rozrzutu, a także możemy do danych dopasować płaszczyznę.

Przy więcej niż trzech zmiennych niemożliwe staje się zilustrowanie punktów na wykresie rozrzutu, jednak logika rotacji osi, w celu maksymalizacji wariancji nowego czynnika, pozostaje taka sama.

Wiele czynników ortogonalnych. Po znalezieniu takiej linii, w przypadku której wariancja jest maksymalna, wokół tej linii pozostanie trochę zmienności. W analizie składowych głównych po wyodrębnieniu pierwszego czynnika, to znaczy po nałożeniu na dane pierwszej linii, możemy dalej definiować inną linię, która maksymalizuje pozostałą zmienność itd. W ten sposób wyodrębnia się kolejne czynniki. Ponieważ każdy następny czynnik jest definiowany tak, aby maksymalizować zmienność, która nie została objęta przez poprzedni czynnik, kolejne czynniki są od siebie niezależne. Innymi słowy kolejne czynniki są nieskorelowane lub wzajemnie ortogonalne.

Ile czynników wyodrębnić?Pamiętajmy, że nadal rozważamy analizę składowych głównych jako metodę redukcji danych, to znaczy jako metodę służącą do redukcji liczby zmiennych. A zatem pytanie brzmi, ile czynników chcemy wyodrębnić? Zauważmy, że kolejne wyodrębniane czynniki wyjaśniają coraz mniej zmienności. Decyzja o tym, kiedy przerwać wyodrębnianie czynników zależy zasadniczo od tego, czy pozostała tylko niewielka "losowa" zmienność. Jest to decyzja z natury arbitralna; rozwinięto jednak różne wskazówki i można je przejrzeć w części Wartości własne i problem liczby czynników (zob. Przegląd wyników analizy składowych głównych).

Przegląd wyników analizy składowych głównych. Bez wchodzenia w szczegóły, przyjrzyjmy się teraz kilku standardowym wynikom analizy składowych głównych. Powtórzmy, wyodrębniamy czynniki, które wyjaśniają coraz mniej wariancji. Mówiąc prościej, zazwyczaj zaczyna się od macierzy korelacji, w której wariancje wszystkich zmiennych są równe 1,0. Dlatego całkowita wariancja w takiej macierzy jest równa liczbie zmiennych. Na przykład, jeśli mamy 10 zmiennych, każda ma wariancję 1, to całkowita zmienność, która potencjalnie może być wyodrębniona, wynosi 10 razy 1. Wyobraźmy sobie, że w badaniu zadowolenia, o którym była mowa wcześniej, wprowadziliśmy 10 wskaźników do pomiaru różnych aspektów zadowolenia w domu i w pracy. Wariancja wyjaśniona przez kolejne czynniki może być zestawiona w następujący sposób:

STAT.
ANALIZA
CZYNNIK.
Wartości własne (factor.sta)
Wyodrębnianie: Składowe główne
 
 
Wartość
Wartość
własna
% całk.
wariancji
Skumul.
wart.wł.
Skumul.
%
1
2
3
4
5
6
7
8
9
10
6.118369
1.800682
.472888
.407996
.317222
.293300
.195808
.170431
.137970
.085334
61.18369
18.00682
4.72888
4.07996
3.17222
2.93300
1.95808
1.70431
1.37970
.85334
6.11837
7.91905
8.39194
8.79993
9.11716
9.41046
9.60626
9.77670
9.91467
10.00000
61.1837
79.1905
83.9194
87.9993
91.1716
94.1046
96.0626
97.7670
99.1467
100.0000

Wartości własne
W drugiej kolumnie (Wartość własna) powyższego arkusza wyników znajdujemy wariancję nowych kolejno wyodrębnionych czynników. W trzeciej kolumnie wartości te są wyrażone jako procent całkowitej wariancji (w tym przykładzie 10). Jak widać, czynnik 1 wyjaśnia 61 procent wariancji, czynnik 2 18 procent itd. Zgodnie z oczekiwaniem suma wartości własnych jest równa liczbie zmiennych. Trzecia kolumna zawiera wyodrębnioną wariancję skumulowaną. Wariancje wyodrębnione przez czynniki nazywają się wartościami własnymi. Nazwa ta wywodzi się z zastosowanego podejścia obliczeniowego.

Wartości własne i problem liczby czynników
Mając teraz miarę ilości wariancji, którą wyodrębnia każdy kolejny czynnik, możemy powrócić do pytania o to, ile czynników pozostawić. Jak wspomniano wcześniej, jest to decyzja z natury arbitralna. Jest jednak kilka wytycznych, które się powszechnie stosuje i które w praktyce wydają się prowadzić do dobrych rezultatów.

Kryterium Kaisera. Po pierwsze, możemy zostawić tylko czynniki, które mają wartości własne większe niż 1. W istocie chodzi o to, że jeśli czynnik nie wyodrębnia przynajmniej tyle, ile jedna zmienna oryginalna, to go odrzucamy. To kryterium zostało zaproponowane przez Kaisera (1960) i prawdopodobnie jest najczęściej stosowane. W naszym powyższym przykładzie, stosując to kryterium, pozostawilibyśmy 2 czynniki (składowe główne).

Test osypiska. Test osypiska zaproponowany przez Cattella (1966) jest metodą graficzną. Na prostym wykresie liniowym możemy przedstawić wartości własne z powyższego arkusza wyników.

Cattell sugeruje, by znaleźć miejsce, od którego na prawo występuje łagodny spadek wartości własnych. Na prawo od tego punktu przypuszczalnie znajduje się tylko "osypisko czynnikowe"; "osypisko" jest terminem geologicznym odnoszącym się do gruzu, który zbiera się w dolnej części urwiska skalnego. Zgodnie z tym kryterium pozostawilibyśmy w naszym przykładzie powyżej prawdopodobnie 2 lub 3 czynniki.

Które kryterium wykorzystać. Oba kryteria są opracowane w szczegółach (Browne, 1968; Cattell i Jaspers, 1967; Hakstian, Rogers i Cattell, 1982; Linn, 1968; Tucker, Koopman i Linn, 1969). Teoretycznie, kryteria te można ocenić generując dane losowe w oparciu o konkretną liczbę czynników. Następnie można sprawdzić, czy kryteria wskazują dokładnie tę liczbę czynników. Stosowanie pierwszej techniki (kryterium Kaisera) sprawia, że czasami zostaje zbyt wiele czynników, podczas gdy druga technika (test osypiska) czasami pozostawia ich zbyt mało; obie sprawują się jednak dobrze w normalnych warunkach, to znaczy, gdy mamy relatywnie mało czynników i wiele przypadków. W praktyce, dodatkowym ważnym aspektem jest to, na ile rozwiązanie poddaje się interpretacji. Dlatego zazwyczaj bada się kilka rozwiązań z większą lub mniejszą liczbą czynników, a następnie wybiera się to, które wydaje się najbardziej "sensowne". Rozważymy tę kwestię poniżej, w kontekście rotacji czynników.

Analiza czynników głównych
Zanim przejdziemy do omawiania różnych aspektów typowych wyników analizy składowych głównych, przedstawmy analizę czynników głównych. Wróćmy do przykładu kwestionariusza do badań zadowolenia, aby wyobrazić sobie inny "model poznawczy" dla analizy czynnikowej. Załóżmy, że odpowiedzi respondentów są zależne od dwóch elementów. Po pierwsze, istnieją pewne ukryte czynniki wspólne, takie jak czynnik "zadowolenia z hobby", o którym wspomnieliśmy wcześniej. Każdy wskaźnik mierzy pewną część tego wspólnego aspektu zadowolenia. Po drugie, każdy wskaźnik ujmuje pewien swoisty aspekt zadowolenia, który nie jest przedmiotem żadnego innego wskaźnika.

Zasoby zmienności wspólnej. Jeśli model jest poprawny, to nie powinniśmy oczekiwać, że czynniki wyodrębnią całkowitą wariancję z naszych wskaźników; wyodrębnią natomiast tę część, która wynika z czynników wspólnych i jest wspólna dla kilku wskaźników. W języku analizy czynnikowej, ta proporcja wariancji danego wskaźnika, która wynika z czynników wspólnych (tym samym dla innych wskaźników) nazywa się zasobem zmienności wspólnej. Dlatego następne zadanie, jakie nas czeka, gdy stosujemy ten model, polega na oszacowaniu zasobów zmienności wspólnej dla każdej zmiennej, to znaczy, proporcji wariancji, którą każdy wskaźnik dzieli z innymi wskaźnikami. Proporcja wariancji, która jest swoista dla każdego wskaźnika, jest zatem równa całkowitej wariancji danego wskaźnika minus zasób zmienności wspólnej. Zwykle punktem wyjścia oszacowania zasobu zmienności wspólnej jest wykorzystanie kwadratów korelacji wielokrotnej danego wskaźnika z wszystkimi innymi wskaźnikami (szczegóły dotyczące regresji wielokrotnej znajdują się w części Regresja wielokrotna). Niektórzy autorzy proponowali różne iteracyjne ulepszenia po fakcie wstępnego oszacowania zasobu zmienności wspólnej metodą regresji wielokrotnej; na przykład tak zwana metoda MINRES (metoda reszt minimalnych; Harman i Jones, 1966) wypróbowuje różne modyfikacje ładunków czynnikowych w celu zminimalizowania resztowych (niewyjaśnionych) sum kwadratów.

Czynniki główne a składowe główne. Cechą definicyjną rozróżniającą te dwa analityczne modele czynnikowe jest to, że w analizie składowych głównych zakładamy, że całkowita zmienność wskaźnika powinna zostać użyta w analizie, podczas gdy w analizie czynników głównych używamy tylko tej zmienności wskaźnika, którą dzieli on z innymi wskaźnikami. Szczegółowe rozważania przemawiające za i przeciw każdemu z tych podejść wykraczają poza zakres tego wprowadzenia (polecamy odwołanie się do części Analiza składowych głównych i analiza czynnikowa - Wprowadzenie ). W większości przypadków obie metody dają bardzo podobne wyniki. Jednak analiza składowych głównych jest często preferowana jako metoda redukcji danych, podczas gdy analiza czynników głównych jest chętniej stosowana, gdy celem jest wykrycie struktury (patrz Analiza czynnikowa jako metoda klasyfikacji).

Indeks

Analiza czynnikowa jako metoda klasyfikacji

Wróćmy teraz do interpretacji typowych wyników analizy czynnikowej. Będziemy odtąd stosować termin analiza czynnikowa, mając na uwadze zarówno analizę składowych głównych, jak i analizę czynników głównych. Załóżmy, że jesteśmy w takim miejscu analizy, kiedy wiemy ile czynników należy wyodrębnić. Teraz możemy zechcieć poznać znaczenie czynników, to znaczy przeprowadzić ich sensowną interpretację. Aby zilustrować, jak to osiągnąć, podejdźmy do problemu "od tyłu", to znaczy zacznijmy od sensownej struktury, a następnie zobaczmy, w jaki sposób odbija się ona w wynikach analizy czynnikowej. Wróćmy do naszego przykładu o zadowoleniu; poniżej widać macierz korelacji wskaźników odnoszących się do zadowolenia z pracy i wskaźników odnoszących się do zadowolenia w domu.

STAT.
ANALIZA
CZYNNIK.
Korelacje (factor.sta)
Usuwanie BD przypadkami
n=100
ZmiennaPRACA1PRACA2PRACA3DOM1DOM2DOM3
PRACA1
PRACA2
PRACA3
DOM1
DOM2
DOM3
1.00
.65
.65
.14
.15
.14
.65
1.00
.73
.14
.18
.24
.65
.73
1.00
.16
.24
.25
.14
.14
.16
1.00
.66
.59
.15
.18
.24
.66
1.00
.73
.14
.24
.25
.59
.73
1.00

Wskaźniki zadowolenia z pracy są ze sobą wysoce skorelowane, a także wskaźniki zadowolenia z domu są ze sobą wysoce wzajemnie skorelowane. Korelacje między tymi dwoma typami wskaźników (wskaźnikami zadowolenia z pracy i wskaźnikami zadowolenia z domu) są stosunkowo małe. Wydaje się więc, że w naszej macierzy korelacji znajdują odzwierciedlenie dwa względnie niezależne czynniki, jeden związany z zadowoleniem z pracy, a drugi związany z zadowoleniem z domu.

Ładunki czynnikowe.Wykonajmy teraz analizę składowych głównych i przyjrzyjmy się rozwiązaniu dwuczynnikowemu. W szczególności przyjrzyjmy się korelacjom między zmiennymi a tymi dwoma czynnikami (lub "nowymi" zmiennymi), które zostały wyodrębnione domyślnie; korelacje te są zwane ładunkami czynnikowymi.

STAT.
ANALIZA
CZYNNIK.
Ładunki czynnik.
(nierotow.)
Składowe główne
 
ZmiennaCzynnik 1Czynnik 2
PRACA1
PRACA2
PRACA3
DOM1
DOM2
DOM3
.654384
.715256
.741688
.634120
.706267
.707446
.564143
.541444
.508212
-.563123
-.572658
-.525602
War.wyj.
Udział
2.891313
.481885
1.791000
.298500

Widać, że pierwszy czynnik jest generalnie bardziej skorelowany ze zmiennymi niż drugi czynnik. Można było tego oczekiwać ponieważ, o czym była mowa wcześniej, czynniki te są wyodrębniane kolejno i wyjaśniają coraz to mniej całkowitej wariancji.

Rotacja struktury czynnikowej.Ładunki czynnikowe przedstawione powyżej moglibyśmy wykreślić na wykresie rozrzutu . Na wykresie tym każda zmienna jest reprezentowana przez punkt. Na wykresie takim możemy rotować osie w dowolnym kierunku nie zmieniając relatywnego położenia punktów względem siebie; jednocześnie rzeczywiste współrzędne punktów, to znaczy ładunki czynnikowe, uległyby oczywiście zmianie. W naszym przykładzie, jeśli utworzylibyśmy wykres, to stałoby się jasne, że gdybyśmy mieli rotować osie o około 45 stopni, to moglibyśmy uzyskać przejrzysty układ ładunków określających wskaźniki zadowolenia z pracy i wskaźniki zadowolenia z domu.

Strategie rotacji. Można zaproponować różne strategie rotacji. Celem wszystkich tych strategii jest uzyskanie przejrzystego układu ładunków, to znaczy czynników, które są w jakiś sposób jasno wyróżnione przez wysokie ładunki dla niektórych zmiennych i niskie ładunki dla innych. Ten ogólny układ bywa także określany jako prosta struktura (bardziej sformalizowana definicja znajduje się w większości standardowych podręczników). Typowe strategie rotacji to varimax, quartimax oraz equamax.

Omówiliśmy wcześniej ideę rotacji varimax (patrz Wyodrębnianie składowych głównych ), a opis ten stosuje się i tutaj. Tak jak wcześniej, chcemy znaleźć taką rotację, która maksymalizuje wariancję względem nowej osi; innymi słowy, chcemy otrzymać taki układ ładunków przy każdym czynniku, który obrazuje możliwie największe zróżnicowanie, pozwalając w ten sposób na łatwą interpretację. Poniżej znajduje się tabela ładunków czynnikowych po rotacji.

STAT.
ANALIZA
CZYNNIK.
Ładunki czynnik. (Varimax znormaliz.)
Wyodrębnianie:
Składowe główne
ZmiennaCzynnik 1Czynnik 2
PRACA1
PRACA2
PRACA3
DOM1
DOM2
DOM3
.862443
.890267
.886055
.062145
.107230
.140876
.051643
.110351
.152603
.845786
.902913
.869995
War.wyj.
Udział
2.356684
.392781
2.325629
.387605

Interpretacja struktury czynnikowej.Teraz model jest o wiele bardziej czytelny. Zgodnie z oczekiwaniami, pierwszy czynnik wyróżnia się wysokimi ładunkami przy wskaźnikach zadowolenia z pracy, drugi czynnik wyróżnia się wysokimi ładunkami przy wskaźnikach zadowolenia z domu. Moglibyśmy teraz wnioskować, że na zadowolenie mierzone przy pomocy naszego kwestionariusza składają się dwa aspekty; zatem doszliśmy do klasyfikacji zmiennych.

Na wykresie ładunków czynnikowych ukazanym powyżej, 10 zmiennych zostało zredukowanych do trzech czynników: czynnika pracy, domu oraz hobby. Zauważmy, iż ładunki czynnikowe każdego z czynników są różnej wielkości dla pozostałych dwóch czynników, ale mają wyraźną wysoką wartość dla siebie samych. Przykładowo, ładunki czynnikowe dla zmiennej hobby (kolor zielony) ma zarówno wysoką i niską wartość "pracy" i "domu", ale wszystkie cztery zmienne mają wysoką wartość ładunków czynnikowych dla czynnika "hobby".

Czynniki ukośne.Niektórzy autorzy (np. Catell i Khanna; Harman, 1976; Jennrich i Sampson, 1966; Clarkson i Jennrich, 1988) rozważali pojęcie czynników ukośnych (nieortogonalnych), które pozwoliłyby osiągnąć łatwiejszą w interpretacji prostą strukturę. W szczególności rozwinięto strategie obliczeniowe rotacji czynników, tak by reprezentowały one "skupienia" zmiennych, bez skrępowania założeniem o ortogonalności czynników. Jednak ukośne czynniki będące wynikiem takich rotacji często nie poddają się łatwej interpretacji. Wracając do przykładu omawianego powyżej, załóżmy, że dołączylibyśmy do kwestionariusza badań zadowolenia następne cztery wskaźniki, które mierzyłyby inne "rozmaite" rodzaje zadowolenia. Załóżmy, że na odpowiedzi ludzi na te pytania wpływały w przybliżeniu po równo zadowolenie z domu (Czynnik 1) oraz zadowolenie z pracy (Czynnik 2). Rotacja ukośna prawdopodobnie utworzy dwa skorelowane czynniki o mniej oczywistym znaczeniu, to znaczy z wieloma ładunkami krzyżowymi.

Hierarchiczna analiza czynnikowa.Zamiast obliczać ładunki dla często trudnych do interpretacji czynników ukośnych, możemy wykorzystać strategię zaproponowaną przez Thompsona (1951), Schmida i Leimana (1957), która została opracowana i spopularyzowana przez Wherry'ego (1959, 1975, 1984). Stosując tę strategię, najpierw wyróżnia się skupienia wskaźników i rotuje osie w tych skupieniach; następnie zostają obliczone korelacje między tymi (ukośnymi) czynnikami, a macierz korelacji czynników ukośnych jest dalej poddawana analizie czynnikowej w celu uzyskania zestawu czynników ortogonalnych, które dzielą zmienność wskaźników na tę wynikającą z wariancji wspólnej (czynniki wtórne) oraz wariancję swoistą wynikającą ze skupień podobnych zmiennych (wskaźników) w analizie (czynniki pierwotne). Wracając to powyższego przykładu, taka analiza hierarchiczna może doprowadzić do następujących ładunków czynnikowych:

STAT.
ANALIZA
CZYNNIK.
Wtórne i pierwotne
ładunki czynnik.
 
CzynnikWtórny 1Pierwot. 1Pierwot. 2
PRACA1
PRACA2
PRACA3
DOM1
DOM2
DOM3
MISCEL_1
MISCEL_2
MISCEL_3
MISCEL_4
.483178
.570953
.565624
.535812
.615403
.586405
.780488
.734854
.776013
.714183
.649499
.687056
.656790
.117278
.079910
.065512
.466823
.464779
.439010
.455157
.187074
.140627
.115461
.630076
.668880
.626730
.280141
.238512
.303672
.228351

Staranne zbadanie tych ładunków prowadzi do następujących wniosków:

  1. Istnieje ogólny (wtórny) czynnik zadowolenia, który prawdopodobnie wpływa na wszystkie typy zadowolenia mierzone przy pomocy naszych 10 wskaźników;

  2. Wyłaniają się dwa pierwotne swoiste obszary zadowolenia, które najlepiej dają się opisać jako zadowolenie z pracy i zadowolenie z życia rodzinnego.
Wherry (1984) rozważa w szczegółach przykłady podobnych analiz hierarchicznych oraz sposoby wyprowadzania sensownych i poddających się interpretacji czynników wtórnych.

Konfirmacyjna analiza czynnikowa. W ostatnich 15. latach zyskały popularność tzw. metody konfirmacyjne (np. patrz Jöreskog i Sörbom, 1979). Mówiąc ogólnie, można sprecyzować a priori układ ładunków czynnikowych dla określonej liczby czynników ortogonalnych lub ukośnych, a następnie testować, czy można odtworzyć obserwowaną macierz korelacji dla danej specyfikacji. Konfirmacyjne analizy czynnikowe można przeprowadzać przy pomocy Modelowanie równań strukturalnych (SEPATH) .

Indeks

Rozmaite inne kwestie i statystyki

Wartości czynnikowe.Dla danych czynników można oszacować rzeczywiste wartości poszczególnych przypadków (obserwacji). Te wartości czynnikowe są szczególnie przydatne wtedy, gdy chcemy wykonywać dalsze analizy wykorzystując czynniki wyróżnione w analizie czynnikowej.

Korelacje odtworzone i resztowe.Dodatkowym testem tego, czy wyodrębniono odpowiednią liczbę czynników, jest obliczenie macierzy korelacji, którą otrzymalibyśmy, gdyby wyodrębnione czynniki były faktycznie jedynymi. Nazywa się ona odtworzoną macierzą korelacji. Aby sprawdzić, na ile macierz ta różni się od obserwowanej macierzy korelacji, można obliczyć różnicę między nimi; ta macierz nazywa się macierzą korelacji resztowych. Macierz resztowa może wskazywać braki "dopasowania", to znaczy konkretne współczynniki korelacji, które nie mogą zostać właściwie odtworzone przez aktualną liczbę czynników.

Złe uwarunkowanie macierzy.Jeśli w macierzy korelacji znajdują się zmienne, które są w 100% redundantne, to nie można tej macierzy odwrócić. Na przykład, jeśli dana zmienna jest sumą dwóch innych zmiennych wybranych do analizy, to macierz korelacji tych zmiennych nie może być odwrócona i nie można wykonać analizy czynnikowej. W praktyce zdarza się to, gdy zmierzamy do wykonania analizy czynnikowej na zbiorze zmiennych, które są ze sobą wysoce skorelowane, co czasem występuje, na przykład w badaniach korelacyjnych przy pomocy kwestionariusza. Wtedy możemy sztucznie obniżyć wszystkie korelacje w macierzy korelacji poprzez dodanie niewielkiej stałej do przekątnej macierzy i ponowną jej standaryzację. Procedura ta zazwyczaj dostarcza macierzy, która może zostać odwrócona, a zatem poddana analizie czynnikowej; co więcej, procedura ta nie powinna wpłynąć na modele czynnikowe. Zauważmy jednak, że końcowe oszacowania nie są dokładne.

Indeks






© Copyright StatSoft, Inc., 1984-2011
STATISTICA is a trademark of StatSoft, Inc.