Przeszukaj Internetowy Podręcznik Statystyki



Tabele krzyżowe (wielodzielcze). Tabela krzyżowa to kombinacja dwóch (lub większej liczby) tabel liczności, taka, że każda komórka w tej tabeli odpowiada jednej kombinacji "krzyżowanych" zmiennych. Dzięki temu tabela krzyżowa umożliwia nam badanie częstości występowania obserwacji należących do określonych kombinacji wszystkich kategorii, w przypadku więcej niż jednej zmiennej. Na przykład poniższa prosta dwudzielcza tabela jest zestawieniem liczb osób dorosłych i dzieci, które wybierały "ciastko A" lub "ciastko B", w teście preferencji smakowych.

 CIASTKO: ACIASTKO: B 
WIEK: DOROSŁY50  050
WIEK: DZIECKO  05050
 5050100

Analizując te liczności można dostrzec związki między zmiennymi poddanymi klasyfikacji krzyżowej (np. widać wyraźnie, że dzieci preferują "ciastko B"). Klasyfikacji krzyżowej poddajemy tylko zmienne skategoryzowane (nominalne) lub zmienne mające stosunkowo małą liczbę różnych wartości. Gdybyśmy jednak chcieli uwzględnić zmienną ciągłą (np. dochód) możemy najpierw ją przekodować na określoną liczbę rozłącznych zakresów (np. niski, średni, wysoki).

Dodtakowe informacje można znaleźć w opisie analizy tabel wielodzielczych i tabel zbiorczych w rozdziale Statystyki podstawowe.

Tabele liczności (Tabele jednocechowe). Tabele liczności to najprostszy sposób analizowania danych jakościowych (nominalnych, zob. także omówienie w rozdziale Podstawowe pojęcia statystyki). Często są one wykorzystywane w charakterze procedury eksploracyjnej do przeglądania sposobu rozmieszczenia poszczególnych kategorii wartości w próbie. Na przykład w badaniu ankietowym kibiców sportowych zainteresowania ankietowanych piłką nożną podsumować można w następującej tabeli liczności:

STATISTICA
Statystyki
podstawowe
FUTBOL: "Oglądanie futbolu amerykańskiego"
Kategoria Liczność Skumulow.
Liczn.
Procent Skumulow.
Procent
ZAWSZE : Zawsze zainteresowany
ZWYKLE : Zazwyczaj zainteresowany
CZASEM: Czasami zainteresowany
NIGDY : Nigdy nie zainteresowany
Braki
39
16
26
19
0
39
55
81
100
100
39.00000
16.00000
26.00000
19.00000
0.00000
39.0000
55.0000
81.0000
100.0000
100.0000

Powyższa tabela pokazuje liczność, liczność skumulowaną, procent i procent skumulowany respondentów, którzy scharakteryzowali swoje zainteresowania piłką nożną jako (1) Zawsze zainteresowany, (2) Zazwyczaj zainteresowany, (3) Czasami zainteresowany, (4) Nigdy nie zainteresowany.

Szczegółowe omówienie można znaleźć także w opisie tabel liczności w rozdziale Statystyki Podstawowe.

Tabele wielokrotnych odpowiedzi. Tabela wielokrotnych odpowiedzi to rodzaj tabeli krzyżowej powstałej w wyniku przeprowadzenia tabelaryzacji, wykorzystywanej w sytuacji gdy interesujące nas kategorie nie są wzajemnie wykluczające się. Tabele takie mogą obejmować zarówno zmienne wielokrotnych odpowiedzi jak i wielokrotne dychotomie.

Informacje uzupełniające można znaleźć w części Wielokrotne odpowiedzi/dychotomie w sekcji Statystyki podstawowe.


Tabele zbiorcze. Tabele zbiorcze są zasadniczo tabelami dwudzielczymi z tą różnicą, że tabelaryzowane są dwie listy zmiennych kategorialnych (zamiast po prostu dwóch pojedynczych zmiennych). W tabeli zbiorczej jedna lista zmiennych będzie tabelaryzowana w kolumnach (poziomo) a druga lista w wierszach (pionowo) arkusza wyników.

Dodatkowe informacje znajdziemy w części Analiza tabel wielodzielczych i tabel zbiorczych w rozdziale Statystyki podstawowe.

Tablica trwania życia. Najprostszym sposobem opisu przeżycia w próbie jest obliczenie tablic trwania życia. Technika ta jest jedną z najstarszych metod służących do analizy danych dotyczących przeżycia (czasu uszkodzeń); patrz Berkson i Gage, 1950; Cutler i Ederer, 1958; Gehan, 1969, Lawless, 1982 oraz Lee, 1993. Tablicę taką można traktować jako rozwiniętą tablicę rozkładu liczebności. Zakres czasów przeżycia dzieli się na pewną liczbę przedziałów. Dla każdego przedziału można następnie obliczyć liczbę i proporcję przypadków lub obiektów, które weszły do danego przedziału "żywe", liczbę i proporcję przypadków, które uległy awarii w danym przedziale (tzn. liczbę analizowanych "zdarzeń", na przykład pacjentów którzy zmarli) oraz liczbę przypadków utraconych, czyli obserwacji uciętych, w danym przedziale.

W oparciu o te liczby i proporcje można obliczać kilka dalszych statystyk. Więcej informacji można znaleźć w sekcji Analiza przeżycia.

Tablice Burta. Obliczenia do wielowymiarowej analizy korespondencji prowadzone są na tzw. tablicy Burta (którą program oblicza przed analizą). Tablica Burta jest iloczynem wewnętrznego macierzy kodów. Jeśli oznaczymy dane (macierz kodów) jako macierz X, to iloczyn macierzy X'X jest tablicą Burta. Poniżej pokazano przykład tablicy Burta, którą otrzymano w ten sposób.

 PRZEŻYŁWIEKMIASTO
NIETAK<5050-6969+TOKYOBOSTONGLAMORGN
PRZEŻYŁ:NIE
PRZEŻYŁ:TAK
 
WIEK:<50
WIEK:50-69
WIEK:69+ 

MIASTO:TOKYO
MIASTO:BOSTON
MIASTO:GLAMORGN
210
0
 
68
93
49
 
60
82
68
0
554
 
212
258
84
 
230
171
153
68
212
 
280
0
0
 
151
58
71
93
258
 
0
351
0
 
120
122
109
49
84
 
0
0
133
 
19
73
41
  60
230
 
151
120
  19
 
290
    0
    0
  82
171
 
  58
122
  73
 
    0
253
    0
  68
153
 
  71
109
  41
 
    0
    0
221

Ogólnie, macierz danych jest symetryczna. W przypadku 3. zmiennych jakościowych (jak powyżej) macierz danych składa się z 3 x 3 = 9 części, utworzonych przez tabulację każdej zmiennej samej z sobą i z wszystkimi innymi zmiennymi. Zauważmy, że suma elementów na przekątnej w każdej części położonej diagonalnie w całej tablicy (tzn. części, w której dana zmienna jest stabulowana sama ze sobą) jest stała (w tym przypadku równa się 764). Elementy poza przekątną w każdej takiej części są wszystkie w tym przykładzie równe 0. Jeśli przypadki w macierzy planowania lub kodów są przypisane do kategorii w toku kodowania rozmytego, to elementy poza przekątną w częściach stanowiących przekątną całej tablicy niekoniecznie będą równe 0.

Tablice zewnętrzne. W metodologii wprowadzonej przez Taguchiego, w przypadku planów doświadczalnych, powtarzane pomiary zmiennej wynikowej są często pobierane w sposób systematyczny po to, aby móc kontrolować czynniki zakłócające. Następnie poziomy tych czynników są rozmieszczane w postaci tzw. tablicy zewnętrznej (ang. outer array), tzn. (ortogonalnego) planu doświadczalnego. Powtarzane pomiary są zazwyczaj umieszczane w arkuszu danych w oddzielnych kolumnach (tzn. każdy stanowi oddzielną zmienną). Tak więc indeks (w formułach im mniejsze - tym lepsze, im większe - tym lepsze oraz znakowany cel) przebiega wzdłuż kolumn lub zmiennych w arkuszu danych lub wzdłuż poziomów czynników w tablicy zewnętrznej.

Więcej informacji na temat trzech rodzajów współczynników stosunku sygnału do szumu można znaleźć w części Wprowadzenie do metod Taguchi w rozdziale Planowanie doświadczeń (DOE).

Tangens hiperboliczny (tanh). Funkcja o kształcie symetrycznego S (sigmoida) wykorzystywana czasem jako alternatywa do funkcji logistycznych.

Tau Kendalla. Tau Kendalla, co do swych założeń, odpowiada współczynnikowi R Spearmana. Dotyczy to również ich statystycznej mocy. Jednakże wielkości obu współczynników zwykle nie pokrywają się, gdyż ich podstawy logiczne oraz formuły obliczeniowe bardzo się różnią. Zależność pomiędzy tymi dwoma miarami Siegel i Castellan (1988) wyrażają w postaci nierówności:

-1 < = 3 * Kendall tau - 2 * Spearman R < = 1

Co ważniejsze, współczynniki te posiadają różną interpretację: Współczynnik R Spearmana można traktować podobnie jak współczynnik korelacji momentu iloczynowego Pearsona, tzn. w kategoriach procentu wyjaśnianej zmienności, przy czym R Spearmana jest wyliczany w oparciu o rangi. Z kolei współczynnik Tau Kendalla opiera się na prawdopodobieństwie, tzn. różnicy między prawdopodobieństwem tego, że dwie zmienne układają się w tym samym porządku w obrębie obserwowanych danych, a prawdopodobieństwem, że ich uporządkowanie się różni. Kendall (1948, 1975), Everitt (1977) oraz Siegel i Castellan (1988) dyskutują tau Kendalla bardziej szczegółowo. Obliczane są dwa warianty tau, oznaczane jako taub i tauc. Różnią się one jedynie co do tego, jak traktowane są rangi wiązane (tzn. obserwacje o takich samych wartościach). W większości przypadków obie wartości są podobne, a kiedy zdarzają się rozbieżności, to najbezpieczniej jest brać pod uwagę wartość mniejszą.


Technologia In-Place Database Processing (IDP). In-Place Database Processing (IDP) jest zaawansowaną technologią dostępu do baz danych rozwijaną przez StatSoft, wspierającą wysoko-wydajny, bezpośredni interfejs pomiędzy zewnętrznym zbiorem danych, ulokowanym na zewnętrznym serwerze, a narzędziami analitycznymi programów z rodziny STATISTICA. Technologia IDP została wprowadzona w celu ułatwienia dostępu do dużych zbiorów danych, w dużych bazach danych. Do tego celu wykorzystywany jest krokowy proces, który nie wymaga tworzenia lokalnej kopii danych. Technologia IDP znacznie poprawia osiągi wydajnościowe programu przetwarzającego dane; jest to szczególnie istotne w zadaniach dotyczących rozbudowanych projektów data mining i eksploracyjnej analizy danych.

Źródła korzyści ze stosowania technologii IDP. Wzrost wydajności obliczeń po zastosowaniu technologii IDP - w porównaniu z tradycyjną metodą dostępu do danych - wynika nie tylko z bezpośredniego dostępu pakietu statystycznego do dużych ilości danych, umieszczonych w bazach danych, bez konieczności tworzenia ich kopii na lokalnej stacji roboczej, ale również z "wielozadaniowości" systemu. Mówiąc dokładniej, IDP wykorzystuje możliwości przetwarzania danych serwerów baz danych (maszyny wieloprocesorowe) do wykonywania zapytań, wydobywa w ten sposób określone dane ze zbioru danych, a następnie wysyła je do komputera, na którym zainstalowany jest pakiet statystyczny, który przetwarza kolejno nadchodzące dane.

Temperowanie. Tak zwany proces temperowania podzielonego dzwonu cosinusoidy w szeregach czasowych jest polecaną transformacją szeregu przed analizą widmową. Zwykle prowadzi to do redukcji przeciekania periodogramu. Szczegółowe wyjaśnienie tej transformacji znajduje się w: Bloomfield (1976, str. 80-94). Proporcja p danych na początku i na końcu szeregu zostaje przekształcona przy pomocy wymnażania przez wagi:

wt = 0.5*{1-cos[*(t - 0.5)/m]}    (dla t=0,...,m-1)
wt = 0.5*{1-cos[*(N - t + 0.5)/m]}    (dla t=N-m,...,N-1)

gdzie m jest wybrane tak, że 2*m/N jest równe proporcji danych, które mają być temperowane (p).

Teoria wykrywania sygnałów (SDT). W teorii wykrywania sygnałów (SDT) wykorzystuje się statystyczną teorię decyzji do wykrywania sygnałów ukrytych w szumie. Teoria wykrywania sygnałów (SDT) jest wykorzystywana w badaniach psychofizycznych do wykrywania, rozpoznawania i dyskryminacji oraz w innych obszarach badawczych, np. w badaniach medycznych, prognozowaniu pogody, badaniach ankietowych i badaniach marketingowych.

Ogólne podejście do estymacji parametrów modelu wykrywania sygnałów opiera się na wykorzystaniu uogólnionego modelu liniowego. Przykładowo, DeCarlo (1998) pokazuje, w jaki sposób modele wykrywania sygnałów bazujące na różnych rozkładach mogą być stosunkowo łatwo analizowane za pomocą uogólnionego modelu liniowego z różnymi postaciami funkcji wiążących.

Omówienie zagadnienia uogólnionego modelu liniowego oraz postaci wykorzystywanych funkcji wiążących można znaleźć we wprowadzeniu do rozdziału GLZ.

Test Andersona-Darlinga. Test Andersona-Darlinga to ogólna metoda porównywania dopasowanej dystrybuanty z dystrybuantą obserwowaną (empiryczną). Można go stosować dla danych kompletnych (tzn. jeżeli nie występują obserwacje ucięte). Wartości krytyczne testu Andersona-Darlinga zostały stabelaryzowane (zob. np. Dodson, 1994, Tabela 4.4) dla prób o liczności od 10 do 40, test nie jest wykonywany dla prób o licznościach spoza tego przedziału.

Test Andersona-Darlinga jest używany w ramach analizy Weibulla niezawodności i czasu uszkodzeń. Dodatkowe informacje można znaleźć pod hasłami testy Manna-Scheuera-Fertiga i Hollandera-Proschana.

Test Bonferroniego. Ten test post-hoc może zostać użyty do określenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test Bonferroniego jest testem bardzo konserwatywnym w przypadku porównywania dużej liczby średnich grupowych (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winer, Michels i Brown (1991)). Aby uzyskać więcej szczegółów, patrz Ogólne modele liniowe. Patrz także porównania post hoc. Omówienie pojęcia istotności statystycznej można znaleźć w temacie Podstawowe pojęcia statystyki.

Test Duncana. Tego testu post-hoc (testu porównań wielokrotnych) używamy do stwierdzenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test Duncana, podobnie jak test Newmana-Keulsa bazuje na statystyce pozycyjnej (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, 1985, str. 140-197).

Więcej na ten temat, patrz Ogólne modele liniowe. Patrz także porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w temacie Podstawowe pojęcia statystyki.

Test Dunnetta. Tego testu post-hoc (testu porównań wielokrotnych) używamy do stwierdzenia istotności różnicy między pojedynczą średnią grupy kontrolnej a średnimi pozostałych grup, w układzie analizy wariancji. Test Dunnetta jest uważany za jeden z bardziej radykalnych testów post-hoc (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, 1985, str. 140-197). Więcej na ten temat, patrz Ogólne modele liniowe. Patrz także porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w temacie Podstawowe pojęcia statystyki.

Test Fishera (LSD). Ten test post-hoc (lub porównań wielokrotnych) pozwala określić istotność różnic między średnimi grupowymi w układzie analizy wariancji. Test Fishera jest uważany za jeden z ostrzejszych testów post-hoc (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, 1985, str. 140-197).

Szczegółowe omówienie znajduje się w sekcji Ogólne modele liniowe, a dodatkowe informacje można znaleźć także pod hasłem porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w rozdziale Podstawowe pojęcia statystyki.

Test Hollandera-Proschana. Test ten porównuje teoretyczną funkcję niezawodności z oceną Kaplana-Meiera. Faktyczne obliczenia występujące w przypadku tego testu są złożone. W celu zapoznania się z dokładnym opisem formuł obliczeniowych proponujemy sięgnięcie do pracy Dodsona (1994, rozdział 4).

Test Hollandera-Proschana ma zastosowanie w przypadku kompletnych zbiorów danych, danych z ucinaniem jednokrotnym i wielokrotnym. Dodson (1994) przestrzega, że test może czasami wskazywać na słabe dopasowanie w sytuacji, gdy dane zostały poddane mocnemu ucinaniu jednokrotnemu. Statystyka C Hollandera-Proschana może być testowana względem rozkładu normalnego.

Test Hollandera-Proschana jest używany w analizie Weibulla. Dodatkowe informacje można znaleźć pod hasłami test Manna-Scheuera-Fertiga oraz test Andersona-Darlinga.

Test HSD dla nierównych N. Tego testu post-hoc użyć możemy do określenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test HSD dla nierównych N jest modyfikacją testu T Tukeya (HSD) stanowiącą rozsądne rozwiązanie dla oceny różnic średnich grupowych w przypadku gdy liczebności grup są niezbyt zróżnicowane (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, 1985, str. 140-197). Aby uzyskać więcej szczegółów, patrz rozdział Ogólne modele liniowe. Patrz także porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w rozdziale Podstawowe pojęcia statystyki.

Test Kołmogorowa-Smirnowa. Test Kołmogorowa-Smirnowa, dla jednej próby, do oceny zgodności rozkładu z rozkładem normalnym wykorzystuje maksymalną wartość różnicy między dystrybuantą z próby, a założoną dystrybuantą. Jeżeli wartość prawdopodobieństwa testowego jest mniejsza od przyjętego poziomu istotności, to hipotezę, że badany rozkład jest zgodny z normalnym należy odrzucić. Wiele programów oblicza wartości prawdopodobieństwa na podstawie tabeli przygotowanej przez Masseya (1951), należy jednak zwrócić uwagę, że wartości te są poprawne przy założeniu, że znamy średnią w populacji generalnej i odchylenie standardowe rozkładu normalnego, a nie oceniamy je na podstawie próby. W praktyce parametry rozkładu najczęściej wyznaczamy z danych, co oznacza konieczność testowania złożonej hipotezy warunkowej ("jak jest prawdopodobieństwo uzyskania wartości statystyki D większej lub równej od pewnej wartości, przy założeniu wartości parametrów rozkładu wyznaczonych z danych") i powinniśmy stosować prawdopodobieństwo Lillieforsa (Lilliefors, 1967). Zwróćmy uwagę, że w ostatnich latach najczęściej zaleca się test W Shapiro-Wilka ze względu na jego dużą moc w porównaniu do innych testów.

Test Kruskala-Wallisa. Test ten jest nieparametryczną alternatywą jednoczynnikowej analizy wariancji w układzie międzygrupowym. Test Kruskala-Wallisa służy do porównywania trzech lub więcej prób, a hipotezą zerową jest, że wszystkie próby pochodzą z populacji o tej samej medianie. Tak więc sposób interpretacji tego testu jest identyczny jak w parametrycznej jednoczynnikowej ANOVA, z tą różnicą, że jest oparty na rangach, a nie na średnich. Więcej szczegółów można znaleźć w podręczniku Siegel i Castellan, 1988. Uzupełniające informacje znajdują się w sekcji Statystyki nieparametryczne.

Test Lillieforsa. Przy teście normalności Kołmogorowa-Smirnowa, jeżeli nie znamy a priori średniej ani odchylenia standardowego testowanego rozkładu normalnego i ocenialiśmy te wielkości z próby, to prawdopodobieństwa testowe stabelaryzowane przez Massey'a (1951) są niepoprawne. Do oceny istotności wartości statystyki Kołmogorowa-Smirnowa używać w takim przypadku powinniśmy tzw. prawdopodobieństw Lillieforsa (Lilliefors, 1967).

Test Manna-Scheuera-Fertiga. Test ten, zaproponowany przez Manna, Scheuera i Fertiga (1973) opisany jest szczegółowo np. u Dodsona (1994) i Lawlessa (1982). Hipotezą zerową jest tu założenie, że populacja podlega rozkładowi Weibulla z wartościami parametrów wynikłymi z estymacji. Nelson (1982) potwierdza wysoką moc tego testu, a ponadto test ten może być stosowany do danych uciętych typu II. Po szczegóły obliczeniowe odsyłamy do Dodsona (1994) i Lawlessa (1982). Wartości krytyczne statystyki testowej obliczone zostały metodą Monte Carlo i są stabelaryzowane dla próbek o liczności od 3 do 25. Dla n>25 testu tego się nie przeprowadza.

Test Manna-Scheuera-Fertiga jest używany w analiza Weibulla niezawodności/czasu uszkodzeń). Dodatkowe informacje można znaleźć także pod hasłami: test Hollandera-Proschana oraz test Andersona-Darlinga.

Test Newmana-Keulsa. Ten test post-hoc może zostać użyty do określenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test Newmana-Keulsa, podobnie jak test Duncana, opiera się na statystyce pozycyjnej (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winer, Michels i Brown (1991)).

Więcej informacji można znaleźć w części Ogólne modele liniowe, a także Podstawowe pojęcia statystyki oraz pod hasłem porównania post hoc.

Test Scheffego. Ten test post-hoc może zostać użyty do określenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test Scheffego jest uważany za jeden z najbardziej konserwatywnych ("ostrożnych") testów post-hoc (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, 1985, str. 140-197). Więcej szczegółów można znaleźć w rozdziale Ogólne modele liniowe. Patrz także porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w temacie Podstawowe pojęcia statystyki.

Test t (dla prób niezależnych i zależnych). Test t jest powszechnie stosowaną metodą oceny różnic między średnimi w dwóch grupach. Mogą to być próby niezależne (np. sprawdzenie różnicy ciśnienia krwi w grupie pacjentów poddanych działaniu jakiegoś leku w stosunku do grupy otrzymujących placebo) lub zależne (np. sprawdzenie różnicy ciśnienia krwi u pacjentów "przed" i "po" podaniu leku, zob. poniżej). Teoretycznie test t może być stosowany także w przypadku bardzo małych prób (np. o liczności 10, zaś niektórzy badacze twierdzą, że nawet w mniej licznych); jedynym warunkiem jest normalność rozkładu zmiennych oraz brak istotnych różnic między wariancjami (zob. także Podstawowe pojęcia statystyki).

Test dla prób zależnych. Test t dla prób zależnych pozwala na analizę doświadczeń, w których źródło zmienności wewnątrzgrupowej (lub tzw. błędu) może zostać łatwo zidentyfikowane i wykluczone z analizy. W szczególności, jeśli dwie grupy obserwacji (które mają zostać porównane) zostały oparte na tej samej grupie obiektów zmierzonych dwukrotnie (np. przed i po zabiegu), to wówczas znaczna część zmienności wewnątrzgrupowej w obydwu grupach wyników może zostać przypisana początkowej indywidualnej różnicy pomiędzy obiektami (w ten sposób pomniejszy się błąd). Powoduje to zwiększenie czułości układu.

Test dla pojedynczej próby.W przypadku tzw. testów t dla pojedynczych średnich, średnia obserwowana (pochodząca z pojedynczej próby) jest porównywana z oczekiwaną (lub stanowiącą punkt odniesienia) średnią populacyjną (np. pewną średnią teoretyczną) a wariancja w populacji jest szacowana w oparciu o wariancję w obserwowanej próbie.

Zob. Hays, 1988, a także: Statystyki podstawowe: test t dla prób niezależnych, test t dla prób zależnych.

Test t dla pojedynczej próby. Zob. test t (dla prób niezależnych i zależnych).

Test T Tukeya (HSD). Ten test post-hoc (lub porównań wielokrotnych) może zostać użyty do określenia istotności różnic pomiędzy średnimi grupowymi w układzie analizy wariancji. Test Tukeya HSD jest generalnie bardziej konserwatywny od testu Fishera (LSD) ale mniej konserwatywny w porównaniu do testu Scheffego (szczegółowe omówienie różnych testów post-hoc można znaleźć w książce Winera, Michelsa i Browna, 1991).

Dodatkowe informacje można znaleźć w rozdziale Ogólne modele liniowe, a także pod hasłem porównania post-hoc. Omówienie pojęcia istotności statystycznej można znaleźć w części Podstawowe pojęcia statystyki.

Test W Shapiro-Wilka. Test W Shapiro-Wilka służy do badania normalności rozkładu. Jeżeli wartość statystyki W jest istotna, to hipotezę o zgodności z rozkładem normalnym należy odrzucić. Test Shapiro-Wilka jest preferowanym testem normalności ze względu na jego dużą moc w porównaniu z innymi testami (zobacz Shapiro, Wilk, i Chen, 1968). Algorytm implementowany w niektórych programach jest rozszerzeniem testu opisanego poprzez Roystona (1992). Patrz także: test Kolmogorova-Smirnova i test Lillieforsa.

Test Wilcoxona. Test Wilcoxona jest nieparametryczną alternatywą testu t dla próbek zależnych. Pozwala on testować hipotezy o położeniu rozkładu (medianie). Często uwzględnia się tu pary wartości; "przed" i "po" i testuje się hipotezę o zerowej wartości mediany różnic.

Zakłada się przy tym, że testowana zmienna mierzona jest na skali porządkowej, pozwalającej na rangowanie różnic. Więcej na ten temat, patrz Siegel i Castellan, 1988. Patrz też, Statystyki nieparametryczne.

Testowanie ukierunkowane na przyjęcie hipotezy sprawdzanej. W testach statystycznych tego typu hipotezą zerową jest hipoteza, która w przypadku prawdziwości powoduje utrzymanie teoretycznej hipotezy wysuniętej przez badacza. W związku z tym, w tego typu strategii testowania hipotez badacz nie jest zainteresowany otrzymaniem "statystycznej istotności".

Tak więc, akceptacja hipotezy zerowej potwierdza hipotezę teoretyczną badacza.

Zob. Analiza mocy testu.

Testy jednorodności wariancji Levene'a i Browna-Forsythe'a. Ważnym założeniem analizy wariancji (ANOVA i testów t różnic średnich) jest równość (jednorodność) wariancji w grupach. Dwoma mocnymi i powszechnie używanymi testami tego założenia są test Levene'a i jego modyfikacja Browna-Forsythe'a. Jednak warto zauważyć, że (1) jednorodność wariancji nie jest krytycznym założeniem ANOVA, zwłaszcza w przypadku układów zrównoważonych (grupy o równych licznościach), (więcej informacji można znaleźć w sekcji ANOVA: Jednorodność wariancji i kowariancji), (2) omawiane testy są niezbyt odporne (patrz np. Glass i Hopkins, 1996, p. 436 i opis testów poniżej). Jeżeli przykładamy dużą wagę do założenia o jednorodności wariancji, możemy powtórzyć kluczowe analizy korzystając z metod nieparametrycznych.

Test Levene'a (jednorodności wariancji): Dla każdej zmiennej zależnej wykonywana jest analiza wariancji wartości bezwzględnych odchyleń od średniej w odpowiedniej grupie. Jeżeli test Levene'a daje wynik statystycznie istotny, to należy odrzucić hipotezę o jednorodności wariancji.

Test Browna i Forsythe'a (jednorodności wariancji): Zwróćmy uwagę na moc testu Levene'a dla nierównych wariancji odchyleń. Można oczekiwać, że wartości bezwzględne odchyleń (od średnich grup) będą miały dużą skośność, a zatem założenie normalności rozkładu bezwzględnych odchyleń, wymagane przez ANOVA zwykle nie będzie spełnione. Staje się to problemem, jeżeli dwie (lub więcej) grupy mają różną liczność. Bardziej odporny test, bardzo podobny do testu Levene'a, został zaproponowany przez Browna i Forsythe'a (1974). Zamiast wykonywać ANOVA na odchyleniach od średniej, można wykonać ANOVA odchyleń od mediany grupy. Olejnik i Algina (1987) pokazali, że ten test daje odpowiedni stosunek błędów, nawet jeżeli rozkłady odchyleń znacząco odbiegają od rozkładu normalnego. Jednak Glass i Hopkins (1996, p. 436) wykazali, że zarówno test Levene'a, jak i jego modyfikacja Browna-Forsythe'a mają słaba stronę, tzn. oba opierają się na założeniu jednorodności wariancji (bezwzględnych odchyleń od średnich lub median).Dlatego też nie jest jasne jak odporne są te testy, szczególnie w sytuacji, gdy mamy do czynienia z niejednorodną wariancją lub gdy grupy mają różną liczność.

Testy konfiguracji (w sterowaniu jakością). Testy te są przeznaczone do wykrywania układów pomiarów (np. średnich próbek), które mogą wskazywać na rozregulowanie procesu. Kiedy przy wykreślaniu kart kontrolnych punkt kontrolny (np. średnia na karcie X-średnie) wychodzi poza linie kontrolne można sądzić, że proces nie przebiega prawidłowo. Ponadto, można szukać charakterystycznej konfiguracji kolejnych punktów przy analizie wszystkich próbek, ponieważ taki układ także może wskazywać na rozregulowanie procesu. Większość programów do kontroli jakości wykonuje (na żądanie użytkownika) standardowe testy dla takich konfiguracji. Testy te są zgodne z testami wzorca przebiegu AT&T (zob. AT&T, 1959) lub testami specjalnych przypadków (zob. Nelson, 1984,1985; Grant oraz Leavenworth, 1980; Shirland, 1993). Shewhart wprowadził terminy specjalna lub znacząca (systematyczna, wyznaczalna) przyczyna jako przeciwieństwo do przypadkowej lub zwykłej przyczyny, w celu odróżnienia uregulowanego procesu o zmienności spowodowanej czynnikami losowymi (przypadkowymi) od procesu rozregulowanego, którego zmienność jest spowodowana istotnymi, znaczącymi, systematycznymi przyczynami (Montgomery, 1991, str. 102).

Tak samo jak w przypadku ustalania granic kontrolnych, testy konfiguracji też są oparte na wnioskowaniu statystycznym. Na przykład prawdopodobieństwo, że pojedyncza średnia z badanej próbki dla karty kontrolnej X-średnie będzie leżała powyżej linii centralnej wynosi 0,5. Jest to prawda, pod następującymi warunkami: (1) proces jest uregulowany (wartość linii centralnej jest zgodna ze średnią z populacji), (2) kolejne średnie z badanych próbek są niezależne (nie ma autokorelacji) i (3) rozkład średniej jest rozkładem symetrycznym (np. normalnym). Krótko mówiąc, jeśli są spełnione powyższe warunki, to prawdopodobieństwo wystąpienia średniej z próbki powyżej lub poniżej linii centralnej wynosi 50 procent. Prawdopodobieństwo pojawienia się dwóch kolejnych średnich z próbki powyżej linii centralnej wynosi więc 0,5 razy 0,5 = 0,25, i tak dalej.

Dodatkowe informacje można znaleźć w sekcji Proces rozregulowany: Seryjne sygnały o rozregulowaniu (testy konfiguracji) oraz w opisie przypisywalnych przyczyn i działań.

Testy normalności. Testy zgodności rozkładu stosuje się zazwyczaj przed zastosowaniem któregoś z testów parametrycznych (patrz Statystyki podstawowe i tabele oraz Statystyki nieparametryczne) w celu sprawdzenia założenia o normalności. Dostępnych jest wiele różnych statystyk testujących normalność, np. test Kołmogorowa-Smirnowa, test W Shapiro-Wilka oraz test Lillieforsa. Oprócz tego możemy przeglądać wykresy prawdopodobieństwo-prawdopodobieństwo oraz wykresy normalności i na ich podstawie oceniać, czy dane są zgodne z rozkładem normalnym.

Text Mining. W analizach data mining zazwyczaj poszukuje się ukrytych struktur w danych typu liczbowego. Często jednak ważne informacje (kluczowe dla biznesowej działalności organizacji) przechowywane są w postaci tekstowej. W przeciwieństwie do danych liczbowych, tekst jest zwykle amorficzny i trudniej go analizować (np. wiadomości e-mail, odpowiedzi na pytania ankietowe typu otwartego, komentarze, sugestie, opisy dolegliwości podawane przez pacjentów, frazy podawane przy przeszukiwaniu zapisów historycznych, itp.). Text mining polega na analizie (wielu) dokumentów tekstowych za pomocą ekstrakcji fraz, pojęć itp. oraz przygotowaniu przetworzonego tekstu tak, aby mógł być poddany dalszej analizie technikami numerycznymi (np. w celu odnalezienia pojęć, nazw, adresów, produktów, które się pojawiają razem).

Zazwyczaj pierwszym etapem text mining jest wyznaczenie istotnych cech, tzn. identyfikacja wyrażeń i pojęć, które najczęściej pojawiają się w dokumentach wejściowych. Drugi etap to zwykle odkrycie asocjacji pomiędzy cechami (np. pomiędzy symptomami opisywanymi przez pacjentów). Pierwszy krok text mining polega więc na "kodowaniu" informacji zawartych w tekście, drugi na zastosowaniu różnych metod algorytmicznych, takich jak analiza koszykowa (reguły asocjacji) w celu wykrycia relacji pomiędzy cechami.

THAID. THAID to przygotowany przez Morgana i Messengera (1973) program do tworzenia drzew klasyfikacyjnych wykonujący podziały wielopoziomowe przy tworzeniu drzew. Omówienie różnic między algorytmem THAID i innymi algorytmami wykorzystywanymi do tworzenia drzew klasyfikacyjnych można znaleźć w części Porównanie z innymi programami klasyfikacji danych przeznaczonymi do tworzenia drzew klasyfikacyjnych w rozdziale Drzewa klasyfikacyjne.

Tolerancja (w regresji wielorakiej). Tolerancja zmiennej jest zdefiniowana jako 1 minus kwadrat współczynnika korelacji wielorakiej tej zmiennej ze wszystkimi innymi zmiennymi niezależnymi w równaniu regresji. Oznacza to, że im mniejsza tolerancja zmiennej, tym bardziej nadmiarowy jest jej wkład w równanie regresji (tzn. jest ona zbędna w świetle wkładu pozostałych zmiennych). Jeżeli tolerancja jakiejś zmiennej w równaniu jest równa zeru (lub bardzo bliska zeru), to równania regresji nie można obliczyć (macierz jest źle uwarunkowana i nie można jej odwrócić).

Typ modelu (w sieciach neuronowych). Typ modelu to skrótowy zapis architektury sieci lub zespołu sieci. Jest tam kod typu, liczba zmiennych wejściowych i wyjściowych, liczba warstw i neuronów (dla sieci) lub sieci składowych (dla zespołu). Dla szeregów czasowych podawany też jest horyzont prognozy i liczba wartości opóźnionych. Na typ modelu składają się więc:

Typ modelu. Kody są następujące:

MLP

Perceptron wielowarstwowy

RBF

Sieć o radialnych funkcjach bazowych

SOFM

Samoorganizująca się mapa cech (sieć Kohonena)

Liniowa

Sieć liniowa

PNN

Probabilistyczna sieć neuronowa

GRNN

Sieć realizująca regresję uogólnioną

PCA

Główne składowe

Grupująca

Sieci grupujące

Wyj.

Zespół typu Wyjście

Aktyw.

Zespół typu Aktywacja

Architektura sieci. Ten zapis ma następującą postać I:N-N-N:O, gdzie I to liczba zmiennych wejściowych, O to liczba zmiennych wyjściowych, a N to liczby neuronów w warstwach.

Przykład. 2:4-6-3:1 wskazuje na sieć o 2 zmiennych wejściowych, 1 zmiennej wyjściowej, 4 neuronach wejściowych, 6 neuronach ukrytych i 3 neuronach wyjściowych.

Dla sieci realizujących predykcję szeregów czasowych przed typem, oznaczona literą "s" podawana jest liczba wartości opóźnionych.

Przykład. s10 1:10-2-1:1 to sieć do szeregów czasowych z liczba kroków (wartości opóźnionych) równą 10.

Architektura zespołu. Ten zapis ma następującą postać I:[N]:O, gdzie I to liczba zmiennych wejściowych, O to liczba zmiennych wyjściowych, a N to liczba sieci wchodzących w skład zespołu.

Typy neuronów (w sieciach neuronowych). Neurony wchodzące w skład warstwy wejściowej są bardzo proste: ich wartości wyjściowe są po prostu przekazywane do neuronów drugiej warstwy bez żadnych form przetwarzania. Neurony wejściowe nie dokonują więc żadnych obliczeń na danych dostarczanych do sieci. Domyślnie neurony te posiadają liniową funkcję PSP (post synaptic potential) oraz liniową funkcję aktywacji: w rzeczywistości w neuronach wejściowych funkcje te nie są brane pod uwagę.

Każdy neuron ukryty lub wyjściowy posiada pewną liczbę połączeń dochodzących do niego od neuronów warstwy poprzedniej. Ponieważ zazwyczaj kolejne warstwy są łączone ze sobą na zasadzie "każdy z każdym", w związku z czym każdy neuron wymienionych warstw ma połączenia od każdego z neuronów znajdujących się w warstwie poprzedniej. Każde z tych połączeń związane jest z własnym współczynnikiem wagowym, ponadto każdy neuron posiada również swoją wartość progową.

Wartości wyjściowe neuronów warstwy poprzedniej, wagi skojarzone z połączeniami oraz wartość progowa wprowadzane są do funkcji PSP neuronu. Funkcja te generuje pojedynczą wartość (wartość wypadkowego wejściowego pobudzenia neuronu).

Wypadkowa wartość wejściowa neuronu przekształcana jest przez funkcję aktywacji neuronu; w ten sposób wyznaczana jest pojedyncza wartość wyjściowa zwana poziomem aktywacji neuronu.






© Copyright StatSoft, Inc., 1984-2024
STATISTICA is a trademark of StatSoft, Inc.