Przystępny kurs statystyki z zastosowaniem STATISTICA PL na przykładach z medycyny

Tom 3. Analizy wielowymiarowe


Analizy wielowymiarowe

Cena: 68 zł



Zamów

Autor: Andrzej Stanisz
Wydawca: StatSoft Polska
Wydanie: Kraków, 2007
ISBN: 978-83-88724-19-0
Liczba stron: 500


Komplet podręczników (tom 1-3) dostępny w specjalnej cenie 209 zł

„Przystępny kurs statystyki z zastosowaniem STATISTICA PL na przykładach z medycyny” obejmuje::


Statystyki podstawowe

Modele liniowe i nieliniowe

Analizy wielowymiarowe

Tom 1. Statystyki podstawowe

Tom 2. Modele liniowe i nieliniowe

Tom 3. Analizy wielowymiarowe

Ogólne informacje o książce:

Książka jest kontynuacją tomu 1: Statystyki podstawowe i tomu 2: Modele liniowe i nieliniowe, lecz może być również czytana niezależnie od nich.

Autor postawił sobie za cel przedstawienie wybranych metod wielowymiarowej statystycznej analizy danych, które według jego opinii są najczęściej wykorzystywane przy opracowywaniu wyników badań biomedycznych.
Metody te pozwalają analizować zjawiska, które są opisywane za pomocą wielu cech. Jako pierwsza została omówiona analiza korelacji kanonicznych.
Służy ona do badania powiązań między dwoma zespołami cech i może być traktowana jako rozszerzenie analizy regresji wielorakiej. W drugiej kolejności Autor opisuje analizę dyskryminacyjną,
która umożliwia znajdywanie reguł przynależności obiektów opisywanych przez wiele zmiennych do znanych z góry grup w oparciu o liniową funkcję dyskryminacyjną.
Przykładem zastosowania tej metody może być próba klasyfikacji nowej rośliny do jednego ze znanych gatunków kwiatów. Następnie zostały zaprezentowane techniki analizy skupień,
służące również do klasyfikacji obiektów wielowymiarowych do pewnych nieznanych wcześniej grup lub klas, przy czym liczba wyodrębnionych klas jest na ogół umowna. Kolejne dwie zaprezentowane metody:
analiza składowych głównych i analiza czynnikowa służą do redukcji struktury obserwacji wielowymiarowych. Celem tych metod jest wykrywanie pewnych wspólnych, nieznanych czynników odpowiedzialnych za istnienie zależności pomiędzy zmiennymi.
W wielu przypadkach obserwowalne zmienne można przedstawić w postaci funkcji mniejszej liczby „ukrytych” zmiennych zwanych czynnikami lub składowymi.
Jeśli postać tych funkcji jest prosta i liczba czynników stosunkowo niewielka to można uzyskać w ten sposób oszczędniejszy opis struktury badanych zależności.
Następną przedstawioną metodą jest analiza log-liniowa, która pozwala badaczowi na lepsze zrozumienie powiązań zachodzących w obrębie zbioru wielu zmiennych jakościowych.
Analiza jest przeprowadzana w oparciu o dane zestawione w tabeli wielodzielczej. Kolejną techniką, również służącą do analizy tablic wielodzielczych jest analiza korespondencji.
Jej celem jest odtworzenie odległości pomiędzy punktami reprezentującmi wiersze i kolumny tabeli wielodzielczej w przestrzeni o mniejszej liczbie wymiarów, przy jednoczesnym zachowaniu jak największej ilości pierwotnej informacji.
Jako ostatnie zostały omówione techniki występujące pod łączną nazwą: analiza przeżycia. Przedstawiono tablice trwania życia, analizę rozkładów przeżycia, metody estymacji funkcji przeżycia metodą Kaplana-Meiera oraz techniki porównywania krzywych przeżycia w dwóch lub większej liczbie grup.
Omówiono także regresję Coxa, umożliwiającą modelowanie wpływu zmiennych ilościowych i jakościowych na czasy przeżycia. Dodatkowo książka zawiera omówienie zagadnienia pomiaru w medycynie oraz opis wybranych technik eksploracji danych i edytora graficznego.

W książce zaprezentowano wiele ciekawych przykładów oraz podano dużą ilość praktycznych wskazówek. Przykładowe zagadnienia merytoryczne oraz przytaczane dane empiryczne czynią ją szczególnie atrakcyjną dla przedstawicieli nauk biomedycznych, ale książka jest adresowana nie tylko do nich.
Korzystać z niej mogą wszyscy pragnący poznać metody analizy regresji i analizy wariancji oraz praktycznie wykorzystywać pakiet STATISTICA, który pojawia się w książce jako narzędzie do przeprowadzania obliczeń statystycznych oraz tworzenia wykresów ułatwiających interpretacje wyników przeprowadzanych analiz.
Książka jest ilustrowana wieloma wykresami oraz zrzutami ekranowymi z programu STATISTICA. Należy jednak podkreślić, że książka nie jest dokumentacją do programu STATISTICA – zostały w niej przedstawione tylko wybrane opcje analiz statystycznych.

Dodatkowo Czytelnicy mogą skorzystać z danych wykorzystanych w prezentowanych w książce przykładach.

Zachęcamy do lektury niezwykle interesującego wstępu do książki, którego autorem jest prof. dr hab. inż. Ryszard Tadeusiewicz.


Wstęp do książki, napisany przez prof. dr. hab. inż. Ryszarda Tadeusiewicza

O jakości dzieła często decyduje jego wykończenie: ostatnie pociągnięcie pędzlem na obrazie, wypolerowanie fragmentu rzeźby, trafny bon mot na końcu noweli. Książka, którą tą przedmową chcę Państwu zarekomendować, jest właśnie takim mistrzowskim wykończeniem dzieła, jakim jest obszerny podręcznik Pana Andrzeja Stanisza, zatytułowanego Przystępny kurs statystyki.

W każdym dziele wykończenie stanowi element nadający smak całości, ale bez tej całości samo wykończenie nie ma istotnej wartości, jest bowiem deserem, a nie zasadniczym daniem. Podobnie w książce Andrzeja Stanisza – Czytelnik, który nie czytał dwóch wcześniejszych tomów, nie nasyci swego głodu wiedzy studiowaniem tylko tej książki, brak mu bowiem będzie zasobu wiadomości na temat podstawowych technik analizy statystycznej (co bardzo dobrze opisano w pierwszym tomie tej serii) oraz nie będzie miał wiedzy na temat zaawansowanych technik statystycznych, będących przedmiotem tomu drugiego. Dlatego zachęcam gorąco do studiowania Przystępnego kursu w całości, ze szczególnym uwzględnieniem tomów wcześniejszych. Jeśli jednak Czytelnik podstawowe wiadomości już ma, jeśli umie się posługiwać statystyką jako narzędziem wnioskowania w typowych, prostych zadaniach, a także zaliczył już kilka bardziej zaawansowanych analiz i poznał smak docierania do prawdy bardzo głęboko uwikłanej w gąszczu empirycznych obserwacji – to teraz przyszła pora na coś specjalnego, wyjątkowego, nie-rutynowego. Właśnie dla takich doświadczonych koneserów statystyki przeznaczona jest ta książka. Jej treść pokaże, jak wnioskowaniu statystycznemu można dodać poloru i polotu, jak użyć mniej znanych, ale jakże wygodnych edytorskich właściwości pakietu STATISTICA, wreszcie jak wytwornie dopracować formę wyników uzyskiwanych z komputera przed ich oddaniem do druku w kolejnym wartościowym opracowaniu praktycznym lub doniesieniu naukowym.

Książka ta składa się z ośmiu rozdziałów oraz trzech dodatków, które można czytać w dowolnej kolejności, gdyż każdy z nich dotyczy odrębnego zagadnienia, dobrze zdefiniowanego w jego tytule i stanowiącego dobrze wyodrębnioną i domkniętą całość. Nie zmienia to faktu, że kolejność rozdziałów nie jest przypadkowa – na przykład zapoznanie z metodami analizy kanonicznej (w pierwszym rozdziale) znacząco ułatwia zrozumienie zasad analizy dyskryminacyjnej (w rozdziale drugim). Niemniej Czytelnik może traktować ten tom serii podręcznikowej Przystępnego kursu statystyki raczej jako przewodnik problemowy, a nie jako jednolity, wymagający sekwencyjnego czytania tutorial, więc zachęcam Czytelników raczej do szukania w książce odpowiedzi na interesujące pytania poprzez analizę zawartości spisu treści, względnie poprzez korzystanie z obszernego i wyczerpującego indeksu rzeczowego, nie zachęcam natomiast do systematycznego czytania „od deski do deski”, bo to się może okazać wysiłkiem ponad siły.

Ja w każdym razie zacząłem studiowanie książki od dodatku C. Dodatek ten znajduje się na samym końcu książki (bo tak nakazuje logika), ale zawiera takie treści, z których z przyjemnością skorzysta każdy użytkownik pakietu STATISTICA. W dodatku tym jest bowiem mowa o edytorze graficznym, wygodnym i użytecznym narzędziu, pozwalającym „doprawiać” produkowane przez pakiet STATISTICA wykresy i wyniki w taki sposób, żeby mogły lepiej spełniać rolę ilustracji w publikacjach naukowych albo w opracowaniach praktycznych opartych na wynikach obliczeń statystycznych. Oczywiście cel ten można także osiągnąć innymi metodami, na przykład importując wykresy wyprodukowane przez pakiet STATISTICA do jakiegoś programu graficznego albo edytora, ale o ileż wygodniej i bardziej elegancko jest wbudować wszystkie niezbędne narzędzia wprost do generatora prezentacji graficznych pakietu STATISTICA. Postępując tak, użytkownik gwarantuje sobie prawidłowy opis wszystkich rysunków i zestawień, których w typowych badaniach statystycznych produkuje się z reguły całe mnóstwo, wybierając dopiero na końcu te, które włączy się do finalnego opracowania. Miło jest wtedy mieć wszystkie materiały od razu prawidłowo opisane, co powoduje, że decyzja o ich włączeniu (lub pominięciu) może być swobodnie podjęta nawet w ostatniej chwili (zwykle wtedy jest bardzo mało czasu!) – a wynik będzie zawsze schludny i czytelny. Mała rzecz – a cieszy!

Innym „smakowitym” dodatkiem do wszystkich wcześniej opisywanych właściwości i możliwości pakietu STATISTICA jest także zawarty w dodatku do tego tomu opis zagadnień związanych z pomiarem wielkości, będących potem przedmiotem statystycznego opracowania. Autor książki deklaruje w tytule tego dodatku, że chodzi mu o pomiary medyczne, ale zastanowienie się nad tym, co w istocie oznacza rzetelność i trafność pomiaru, a także jak należy prowadzić rachunek błędów, przyda się każdej osobie zainteresowanej wykonywaniem obliczeń statystycznych, niezależnie od tego, co jest ich przedmiotem. Gorąco zachęcam do przestudiowania tego dodatku wszystkich użytkowników statystyki. Niby każdy to wie, ale porządnie (i przystępnie!) przedstawiony opis tych zagadnień, zawarty w dodatku do prezentowanej tu książki, będzie dla wielu Czytelników okazją do przypomnienia sobie i ponownego umieszczenia w centrum uwagi tych pożytecznych i godnych uwagi informacji.

Odchodząc od atrakcyjnych dodatków do głównej zawartości opiniowanej książki, pragnę Państwu polecić w gruncie rzeczy wszystkie jej rozdziały, gdyż każdy z nich wnosi informacje, które mogą wzbogacić dowolne studium statystyczne o dodatkowe analizy, których wykonanie może rzucić nowe światło na badane zjawisko lub pomóc rozwiązać problem, którego nie da się rozwiązać innymi metodami. Przechodząc kolejno zamieszczone w książce rozdziały, na początku spotykamy doskonałe studium dotyczące metod analizy kanonicznej. Praktycy wykorzystujący statystyczne metody przetwarzania danych empirycznych w gruncie rzeczy rzadko sięgają do tego typu analiz, ponieważ koncepcje Hotellinga, na których ten typ analizy jest oparty, wydają się w pierwszej chwili trochę skomplikowane i trudne. Tymczasem w pierwszym rozdziale tej książki można się łatwo przekonać, że „nie taki diabeł straszny”, a wykorzystanie możliwości tkwiących w pakiecie STATISTICA powoduje, że także praktyczne zastosowanie technik analizy kanonicznej, nieco uciążliwych obliczeniowo w przypadku wykonywania odpowiednich obliczeń „ręcznie”, daje się zrealizować w sposób wygodny i niekłopotliwy. Dzięki wygodnym sposobom nawigacji wśród licznych opcji analizy kanonicznej (dokładnie opisanym w książce), a także dzięki dostępnym w pakiecie STATISTICA bardzo poglądowym i łatwym do interpretacji graficznym postaciom prezentacji wyników analizy (z których dla mnie zawsze najwięcej informacji niesie niezwykle poglądowy Macierzowy wykres korelacji) – skomplikowane zadania analizy kanonicznej może wykonać nawet nowicjusz, uzyskując przy okazji niezwykle dokładny obraz właściwości i osobliwości swoich zgromadzonych doświadczalnie danych.

W następnym rozdziale Czytelnik ma możliwość poznania techniki statystycznej nazywanej analizą dyskryminacyjną. Jest to jedno z lepszych narzędzi do klasyfikacji danych, jakkolwiek ostatnio trochę „zdetronizowane” przez popularność alternatywnych technik rozwiązywania podobnego typu zadań, takich jak metody rozpoznawania obrazów (Pattern Recognition) oraz sieci neuronowe. Analiza dyskryminacyjna pozwala na zbudowanie kryteriów, dzięki którym możliwe będzie podzielenie dostępnych danych na grupy zgodnie z dostępnymi w tych danych identyfikatorami klas, zaś po dokonaniu takiego podziału – technika ta pozwoli na zaliczanie do wybranych klas nowych danych, pojawiających się na późniejszych etapach analizy. W treści drugiego rozdziału metoda ta została omówiona bardzo dokładnie, najpierw w sposób teoretyczny (ale wraz z inspirującymi przykładami), a potem przez pryzmat sposobu wykonywania odpowiednich obliczeń w programie STATISTICA. Znam wiele opracowań na temat analizy dyskryminacyjnej, gdyż jest to ta technika statystyczna, której używałem częściej niż innych metod analizy danych – i z uznaniem odnotowuję fakt, że wykład przedstawiony w tej książce jest zdecydowanie jednym z najlepszych, jakie zdarzyło mi się widzieć.

Sądzę, że zwłaszcza Ci Czytelnicy, którzy jeszcze do tej pory nie decydowali się w swojej pracy na korzystanie z możliwości analizy dyskryminacyjnej, powinni koniecznie przestudiować drugi rozdział tej książki. Być może po poznaniu możliwości i zasad działania analizy dyskryminacyjnej przekonają się oni, że jest to technika bardzo dobrze nadająca się do rozwiązywania zadań, które do tej pory rozwiązywali przy użyciu innych techniki i innych metod. W szczególności warto rozważyć następujący fakt. Otóż w wielu wypadkach prowadzi się skomplikowane obliczenia statystyczne, gromadząc i przetwarzając mnóstwo liczb, otrzymując i zapisując w tabelach mnóstwo liczb, tworząc i rysując mnóstwo wykresów – po to tylko, żeby na końcu tego procesu jakiś decydent (na przykład lekarz stawiający diagnozę i sugerujący optymalną terapię) mógł we właściwy sposób rozstrzygnąć jakiś dylemat. Powstaje wtedy taki podział pracy, że komputer wylicza bardzo precyzyjne wartości, a człowiek podejmuje na ich podstawie decyzje – często arbitralne i w gruncie rzeczy słabo uzasadnione. Analiza dyskryminacyjna jest o tyle odmienną techniką statystycznej analizy danych, że wyniki pracy komputera mają w tej metodzie bezpośrednio postać określonych gotowych decyzji (lub przynajmniej ich wyraźnych sugestii). Warto więc czasem zastanowić się, czy właśnie takie narzędzie wprost wspomagające decyzje nie jest bardziej właściwe w rozwiązywanym zadaniu, niż inne narzędzia, mające charakter czysto numeryczny?

Następny (trzeci) rozdział dotyczy metod, które pod pewnymi względami są bardzo podobne do metod analizy dyskryminacyjnej, ale różnią się od nich jednym bardzo istotnym szczegółem: brakiem apriorycznej informacji na temat podziału analizowanej zbiorowości danych na poszczególne klasy. Analiza skupień omawiana w tym rozdziale służy do wykrywania faktu, że wśród danych statystycznych, rozważanych w określonym zadaniu, mogą występować dane w naturalny sposób wykazujące wzajemne powinowactwo lub tylko podobieństwo, przy czym fakt ten nie musi być podawany przez osobę prowadzącą badania jako jedno z założeń (jak to ma miejsce w analizie dyskryminacyjnej), lecz jest wykrywany automatycznie w następstwie przeprowadzonych analiz i obliczeń. Oczywiście wykryte skupienia danych wejściowych mogą zostać potem przez badacza zinterpretowane, jednak zastosowana technika statystyczna sama wykrywa i lokalizuje te skupienia, co jest jej bardzo silną stroną. W rozdziale trzecim książki można znaleźć zarówno opis metodyki analizy skupień, jak i sposoby prezentacji jej wyników – co samo w sobie jest też zagadnieniem interesującym i niekiedy trudnym. Rozdział ten można czytać w dużej mierze niezależnie od wszystkich pozostałych, dlatego jest on godny polecenia Czytelnikom, którzy wybiórczo pragną się zapoznać wyłącznie z metodami automatycznego grupowania (nazywanego też niekiedy klasteringiem) bez związku z innymi metodami i technikami statystycznymi.

Takiej niezależności od kontekstu statystycznego nie wykazuje natomiast kolejny, czwarty rozdział książki, w którym zebrano i przedstawiono zagadnienia analizy składowych głównych, znanej również w literaturze pod skrótową nazwą PCA. Tutaj, żeby „kontaktować” z tekstem, trzeba dobrze znać wiele pojęć statystycznych (wyjaśnianych we wcześniejszych tomach podręcznika) związanych głownie z analizą wariancji i kowariancji. Niemniej rozdział ten warto dokładnie przestudiować, a jego zawartość warto zastosować w praktyce. Zasada redukcji ilości danych poprzez znajdowanie optymalnej projekcji sygnału wielowymiarowego do przestrzeni o mniejszej wymiarowości jest znana i stosowana w statystyce od lat. Jednak we wskazanym rozdziale pokazano o wiele więcej, niż się zwykle można dowiedzieć z podręczników analizy statystycznej. W szczególności obok samej zasady funkcjonowania wspomnianego mechanizmu generacji zdekorelowanych składowych głównych (oraz sposobu realizacji tego mechanizmu przy użyciu pakietu STATISTICA) dodatkowo pokazano także zasady podejmowania decyzji odnośnie stosowalności (lub braku stosowalności) techniki PCA w odniesieniu do konkretnych danych, przy czym opisany w tym rozdziale sposób użycia miary adekwatność macierzy korelacji za pomocą współczynnika Kaisera-Mayera-Olkina (KMO) jest zdecydowanie godny polecenia. Co więcej, we wskazanym rozdziale zawarto także pomijane zwykle zagadnienia techniki interpretowania składowych głównych (będących kombinacjami liniowymi oryginalnych zmiennych) w kontekście wartości tych właśnie oryginalnych zmiennych opisujących charakterystyki rozważanego problemu za pomocą wykresu współrzędnych czynnikowych zmiennych oraz za pomocą tak zwanego biplotu, co jest bardzo użyteczne w kontekście praktycznych zastosowań.

Analiza składowych głównych ma swoją naturalną kontynuację i rozwinięcie w analizie czynnikowej, omówionej w kolejnym, piątym rozdziale rekomendowanej książki. Tego rozdziału nie powinno się w zasadzie czytać w oderwaniu od poprzedniego (czwartego) rozdziału, przeto w tym wypadku zdecydowanie rekomenduję studiowanie obydwu wskazanych dokumentów w sposób sekwencyjny. Dodatkowo trzeba uprzedzić Czytelnika, że wysiłek konieczny do przestudiowania piątego rozdziału jest znacząco większy, niż wysiłek potrzebny do studiowania wcześniej omawianych rozdziałów, a to z powodu obiektywnie większej złożoności formalnej i obliczeniowej zagadnień związanych z problematyką analizy czynnikowej w stosunku do – przykładowo – analizy składowych głównych. Z tego względu rozdział piąty powinny studiować osoby mające odpowiednie przygotowanie teoretyczne, a co więcej – Czytelnicy „zabierający się” do tego rozdziału nie powinni się spieszyć, bo w analizie czynnikowej nie da się uzyskiwać wartościowych wyników praktycznych przy powierzchownym czy skrótowym jedynie poznaniu nieodzownej teorii. Godnym polecenia elementem wspomnianego rozdziału jest zawarte w jego końcowej części pięciopunktowe obszerne podsumowanie, pokazujące, kiedy i do czego można stosować analizę czynnikową, a także sugerujące, jak wykorzystywać wyniki tej metody w prowadzonym wnioskowaniu statystycznym. Doradzam Czytelnikom, którzy nie są całkiem pewni, czy chcą i czy potrafią zastosować analizę czynnikową, aby zaczęli czytanie właśnie od tego podsumowania i dopiero po upewnieniu się, że mają oto przed sobą to właśnie narzędzie, którego pragną użyć – żeby studiowali dalsze elementy opisu.

Stosunkowo łatwiej jest upewnić się, że się chce (lub nie chce) stosować modele log-liniowe opisywane w kolejnym, szóstym rozdziale książki. Jest to wygodne i efektywne narzędzie statystycznego wnioskowania odnoszącego się do zmiennych jakościowych (opisowych), bogatsze w możliwości w stosunku do bardziej znanego (prostszego) modelu opartego na zestawianiu tablic kontyngencji. Podobnie fakultatywny charakter ma korzystanie z analizy korespondencji oraz z analizy przeżyć, opisanych odpowiednio w siódmym i ósmym rozdziale książki. Każda z tych form analizy statystycznej ma swoje wyraźnie określone zakresy zastosowań, zatem jeśli ktoś z Czytelników tej książki akurat tym się zajmuje lub zamierza się zajmować – to bezwzględnie powinien te rozdziały przeczytać. Jeśli jednak ktoś akurat takich potrzeb nie ma, to może ten fragment książki pominąć, przechodząc od razu do bardzo ciekawych (jak to wykazałem na wstępie) dodatków uzupełniających jej treść.

Kończąc ten wstęp pragnę zapewnić wszystkich adeptów statystyki, ale także „starych wyjadaczy”, że w tej książce można naprawdę znaleźć rzeczy, których na próżno by się szukało w innych książkach. Ta część wielotomowego dzieła Pana Stanisza zapewne w nieco mniejszym stopniu, niż wcześniejsze tomy, zasługuje na tytułowe określenie Przystępny kurs statystyki. Jednak biorąc pod uwagę to, jak bardzo skomplikowane zagadnienia są tu omawiane oraz porównując w tym obszarze przedstawianą tu książkę z dostępnymi także dziełami innych autorów – wypada się zgodzić z twierdzeniem, że w tej książce przedstawiono to wszystko najprościej, jak się tylko dało. Wyrażam nadzieję, że wielu Czytelników skorzysta z możliwości maksymalnie prostego „wprowadzenia się” w zagadnienia obiektywnie dość złożone i dlatego sądzę, że ten tom trzytomowej serii będzie się cieszył taką samą sympatią Czytelników, jak wszystkie poprzednie tomy (oraz ich wcześniejsze wydania).

prof. dr hab. inż. Ryszard Tadeusiewicz


Spis treści:

PRZEDMOWA

ANALIZA KANONICZNA

  I. Wprowadzenie

  II. A jak to się liczy w programie STATISTICA

  III. Analizy pokrewne i dopełniające w programie STATISTICA

ANALIZA DYSKRYMINACYJNA

  I. Wprowadzenie

  II. A jak to się liczy w programie STATISTICA

  III. Założenia analizy dyskryminacyjnej

ANALIZA SKUPIEŃ

  I. Wprowadzenie

  II. Metody hierarchiczne analizy skupień

  III. Grupowanie metodą k-średnich

  III. Grupowanie obiektów i zmiennych

  IV. A jak to się liczy w programie STATISTICA

  V. Założenia analizy skupień

ANALIZA SKŁADOWYCH GŁÓWNYCH

  I. Wprowadzenie

  II. Interpretacja geometryczna

  III. A jak to się liczy w programie STATISTICA

ANALIZA CZYNNIKOWA

  I. Wprowadzenie

  II. A jak to się liczy w programie STATISTICA

ANALIZA LOG-LINIOWA

  I. Wprowadzenie

  II. A jak to się liczy w programie STATISTICA

ANALIZA KORESPONDENCJI

  I. Wprowadzenie

  II. Procedury analizy korespondencji

  III. A jak to się liczy w programie STATISTICA

  IV. Wielowymiarowa analiza korespondencji

ANALIZA PRZEŻYCIA

  I. Wprowadzenie

  II. Podstawowe pojęcia i zagadnienia analizy przeżycia

  III A jak to się liczy w programie STATISTICA.

POMIAR w MEDYCYNIE

  I. Rzetelność i trafność pomiaru

  II. Rachunek błędów

EKSPLORACJA DANYCH

EDYTOR GRAFICZNY

BIBLIOGRAFIA

SKOROWIDZ