Statystyka w badaniach biomedycznych
Warszawa, 14 maja 2014


 

Statystyka w badaniach biomedycznych

Problematyce wykorzystania podejścia statystycznego do planowania badań w medycynie oraz zastosowaniu klasycznych i nieklasycznych (data mining) metod analizy danych przy opracowywaniu wyników badań medycznych było poświęcone seminarium, które zorganizowaliśmy 14 maja w Warszawie. W roli wykładowców wystąpili pracownicy uczelni medycznych, posiadający zarówno bogate doświadczenie w projektowaniu i prowadzeniu badań empirycznych w medycynie jak i publikacje w liczących się czasopismach naukowych. Ponadto swoją wiedzą i doświadczeniem w statystycznej analizie danych podzielili się wykładowcy i konsultanci StatSoft Polska.

Na wstępie została krótko zaprezentowana niezwykle bogata oferta, którą StatSoft Polska proponuje uczelniom i instytucjom naukowo-badawczym działającym w obszarze biomedycyny. W wykładzie wprowadzającym autor przedstawił szerokie uzasadnienie wykorzystania podejścia statystycznego z punktu widzenia potrzeb badacza. Uczestnicy seminarium podkreślali, że wystąpienie zawierało wiele cennych uwag z zakresu projektowania badań i stanowiło wartościową inspirację dla początkujących i bardziej zaawansowanych badaczy. Drugie wystąpienie dotyczyło źródeł niepożądanej przez badacza zmienności wyników badania oraz statystycznym metodom jej kontroli. W kolejnym referacie przedstawiono tematykę oceny jakości programu transplantacji na przykładzie jednoczesnego przeszczepienia trzustki i nerki. Następne wystąpienie dotyczyło wykorzystania bazy wypisów lekarskich dotyczących przypadków pacjentów z cukrzycą typu 1 do porównania dwóch stosowanych terapii. Omówiono praktyczne aspekty zastosowania metod: propensty score matching oraz covariate matching. W kolejnym wystąpieniu przedstawiono przykłady zastosowania metod klasycznych i metod data mining do oceny kryteriów wyboru miejsca leczenia na przykładzie pacjentek ginekologicznych. W osobnym wystąpieniu zaprezentowano nowości, które zostały dodane w najnowszej wersji Zestawu Medycznego STATISTICA. Jako przedostatni zaprezentowano referat dotyczący zagadnienia publication bias oraz implementacji metody jego oceny w module Metaanaliza i metaregresja programu STATISTICA. Ostatnie wystąpienie zostało poświęcone ocenie skuteczności i bezpieczeństwa probiotyków przy użyciu metaanalizy.
Zgodnie z wcześniejszą zapowiedzią w trakcie seminarium oraz po jego zakończeniu uczestnicy mieli okazję do rozmowy z zaproszonymi wykładowcami oraz konsultantami StatSoft Polska.


Patronat nad seminarium objęły:

Polskie Towarzystwo StatystyczneOgólnopolski przegląd medycznyMedycyna praktyczna

 

 

 

Statystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminarium
Statystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminarium
Statystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminarium
Statystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminariumStatystyka w badaniach biomedycznych - seminarium

Scientia est experientia … czyli bez statystyki ani rusz
Wykorzystanie metod statystycznych na różnych etapach planowania i realizacji eksperymentu naukowego w biomedycynie

Prof. zw. dr hab. med. Cezary Watała, Uniwersytet Medyczny w Łodzi

Właściwy plan eksperymentu naukowego decyduje w dużej mierze tym, czy możemy odnieść sukces w pracy doświadczalnej. Plan taki obejmuje zarówno etap obmyślenia scenariusza, według którego nasz eksperyment miałby się potoczyć, jak i odpowiednie przygotowanie merytoryczne, ułatwiające nam podejmowanie decyzji i dokonywanie wyborów w najbardziej krytycznych momentach przeprowadzania doświadczenia. Odnosi się on zarówno do etapów przedanalitycznych (sprecyzowanie idei badań, wykreowanie teorii badacza, wyartykułowanie hipotez statystycznych, dobór grupy badanej, estymacja jej liczebności, opracowanie schematów randomizacji próby badanej), jak i do etapu zbierania danych, a także samego przygotowania technicznego do przeprowadzenia doświadczenia (znajomość technik i metod laboratoryjnych, obsługa instrumentarium pomiarowego). Nawet poprawny plan eksperymentalny nie gwarantuje, że eksperyment na pewno pozwoli odpowiedzieć na stawiane przez nas pytania w sposób rozstrzygający. Być może konieczne będzie wykonanie uzupełniających lub potwierdzających doświadczeń. Z drugiej strony, brak planu lub niedobry plan zwiększają ryzyko niepowodzenia. Badacz powinien mieć także świadomość, iż niewłaściwie dobrane lub zastosowane metody analizy statystycznej wyników badania naukowego mogą prowadzić do budowania nieprawdziwych wniosków płynących z takiej analizy. Zły dobór metod statystycznych może dotyczyć zarówno postępowania analitycznego a priori, jak i a posteriori. Z jednej strony, błędy popełniane na już na wstępnym etapie planowania eksperymentu naukowego (w praktyce jest to najczęściej po prostu niezaplanowanie lub niewłaściwe zaplanowanie doświadczeń od strony statystycznej) urąga dobrym obyczajom w pracy naukowej oraz prowadzi do trudności lub nawet niemożności poprawnego opracowania wyników badania, a często także do zwielokrotnienia jego kosztów. Z drugiej, gdy zebrane już wyniki analizujemy przy zastosowaniu niewłaściwie dobranych metod statystycznych – wnioski naszych badań mogą być wypaczeniem lub przekłamaniem rzeczywistości (np. stwierdzając występowanie zależności nie istniejących w rzeczywistości).
Dla mało doświadczonego badacza sformułowanie konkretnej idei badania oraz postawienie wiodącego dla badania pytania naukowego jest niejednokrotnie najtrudniejszym etapem w planowaniu badań naukowych. Może się zatem wydawać, iż prawdziwym szczęśliwym „zbiegiem okoliczności” jest to, że większość badań generuje więcej pytań niż potencjalnych odpowiedzi, których można byłoby udzielić realizując określony plan badawczy. Bardzo często lista pytań, na które przeprowadzone doświadczenie jest w stanie odpowiedzieć, stopniowo wzrasta w miarę gromadzenia coraz większego doświadczenia naukowego u badacza. Ale to jedynie jedna strona medalu. Należy zauważyć, że olbrzymia większość dokonań w nauce to drobne i z pozoru mało znaczące przyczynki do poznania, natomiast rewolucjonizujące odkrycia naukowe to najczęściej rzadkość. Dzięki temu badacz może często obserwować, jak na drodze amalgamacji niewielkich odkryć, uwzględniając jego własne drobne dokonania, przyczynia się on z upływem czasu do zasadniczych zmian stanu wiedzy i ogólnego obrazu czy wizji nauki. Mając to na uwadze, racjonalne jest planować badania według schematu „krok po kroku” (step by step). Nie ma potrzeby rozwiązywania całej dużej „zagadki naukowej” w jednym eksperymencie. Często jest raczej zasadne, aby dzięki dobrze zorganizowanej współpracy z innymi ośrodkami badawczymi w danej dziedzinie stopniowo generować drobne, ale wiarygodne i wysokiej jakości przyczynki do wiedzy w danej tematyce badawczej.

 

Jak poradzić sobie z niepożądaną zmiennością typu systematycznego w badaniach medycznych?

Janusz Wątroba StatSoft Polska

Charakterystyczną cechą badań empirycznych jest zmienność, którą badacz obserwuje w wynikach obserwacji lub pomiarów dokonywanych na poszczególnych jednostkach. Dobre zaplanowanie badań i poprawna analiza ich wyników pozwala ocenić jaką część zmienności można przypisać czynnikom, które badacz kontroluje mimo wpływu czynników pozostających poza kontrolą. W związku z tym przy projektowaniu badania warto zwrócić uwagę na źródła potencjalnej zmienności oraz ich rodzaje. Najbardziej niepożądaną z punktu widzenia badacza jest nieplanowana zmienność typu systematycznego. Dobrym sposobem radzenia sobie z taką sytuacją jest zastosowanie wprowadzonej jeszcze w latach 20-tych ubiegłego wieku przez Fishera metody zestawiania jednostek eksperymentalnych w blokach. Pierwotnie metoda była stosowana w doświadczalnictwie rolniczym do eliminacji zmienności wynikającej z różnej żyzności gleby na polu doświadczalnym. Później metodę te zaczęto z powodzeniem stosować przy projektowaniu badan w innych dziedzinach.
W trakcie wystąpienia zostanie przedstawiony przykład zastosowania tej metody w badaniach medycznych. Szczególna uwaga zostanie zwrócona na korzyści jakie uzyskuje badacz dzięki zwiększeniu precyzji doświadczenia, która ułatwia wykazanie różnicującego efektu czynników, kontrolowanych w doświadczeniu.

 

Ocena jakości programu jednoczasowej transplantacji trzustki i nerki za pomocą ważonej ryzykiem metody CUSUM

Dr hab. n. med. Tadeusz Grochowiecki, Warszawski Uniwersytet Medyczny
Michał Iwaniec, StatSoft Polska
Grzegorz Migut, StatSoft Polska

Jednoczasowe przeszczepienie trzustki i nerki jest najczęściej wykonywaną transplantacją wielonarządową. Wskazaniem do tego typu transplantacji jest cukrzyca typ 1 powikłana schyłkową niewydolnością nerek. Po tej operacji chory nie musi brać insuliny i być podłączany do sztucznej nerki, jednakże, jak z każdą operacją i z tą wiążą się powikłania. Określenie czynników wpływających na powstanie powikłań pooperacyjnych za pomocą regresji logistycznej pozwala nie tylko na ocenę ryzyka ich wystąpienia, ale także na stworzenie obiektywnej możliwości oceny jakości programu transplantacji. Do oceny jakości programu jednoczasowej transplantacji trzustki i nerki użyto ważonej ryzykiem metody CUSUM.
Technika CUSUM umożliwia ocenę jakości prowadzonych programów medycznych oraz poprawę ich wydajności. CUSUM jest przeznaczona do wewnętrznego monitorowania jakości umożliwiając śledzenie przebiegu badanego procesu w czasie zbliżonym do rzeczywistego. Umożliwia szybkie wychwycenie niepokojących objawów zachodzących w procesie i adekwatną reakcję na zaistniałą sytuację co jest kluczowe szczególnie dla programów związanych z medycyną, w których występuje duże prawdopodobieństwo wystąpienia powikłań. Dlatego technika CUSUM jest coraz szerzej wprowadzana na świecie celem monitorowania programów transplantacji narządów.

 

Analiza efektywności terapii pompą insulinową – statystyczne i kliniczne aspekty doboru pacjentów i wyboru punktów końcowych

Dr hab. n. med. Wojciech Fendler, Uniwersytet Medyczny w Łodzi

Cukrzyca typu 1 to choroba, w której w wyniku reakcji autoimmunologicznej, zniszczeniu ulegają komórki beta wysp trzustkowych, odpowiedzialne za produkcję insuliny. Terapia cukrzycy typu 1 opiera się na podaży egzogennej insuliny, która zapobiega hiperglikemii oraz kwasicy ketonowej. Współcześnie pacjenci otrzymują insulinę ludzką (identyczną lub nieznacznie zmodyfikowaną), podawaną za pomocą wielokrotnych wstrzyknięć (technika MDI) lub ciągłego podskórnego wlewu z wykorzystaniem pompy insulinowej (CSII). Przeprowadzono badania, których celem było porównanie terapii CSII oraz MDI pod względem wpływu na przewlekłe wyrównanie metaboliczne cukrzycy oraz ryzyko powikłań. Dobór pacjentów do grup CSII i MDI był nielosowy i uzależniony od umiejętności i preferencji pacjenta, dostępności sprzętu oraz decyzji lekarza. Dane gromadzone były w postaci półstrukturyzowanych wypisów lekarskich. Informacje dotyczące rodzaju terapii, daty rozpoczęcia CSII, zaprzestania CSII lub zmiany rodzaju terapii oraz wyrównania metabolicznego (odsetek HbA1c) wyekstrahowano ze zbioru danych technikami text mining. Aby zniwelować wpływ czynników zakłócających, przeprowadzono dwie procedury dopasowania – propensity score matching oraz covariate matching, co pozwoliło wyselekcjonować grupy leczonych MDI (N=223) lub CSII (N=231) nieróżniące się parametrami początkowymi.
Średni czas obserwacji pacjentów od chwili włączenia terapii do zakończenia obserwacji wynosił 3.05+/-1.74 lata. Kontrola metaboliczna uległa nieistotnemu statystycznie pogorszeniu w grupie MDI (0.21% (95%CI -0.2 do 0.60)), co skutkowało istotną statystycznie różnicą ostatnich pomiarów HbA1c pomiędzy grupami MDI i CSII (7.98+/-1.38% vs 7.56+/-0.97%; p=0.002). Odchylenie standardowe HbA1c pacjentów leczonych MDI (0.84+/-0.54%) było istotnie statystycznie wyższe niż w grupie leczonej CSII (0.73+/0.45%; p=0.049) wskazując na większe ryzyko powikłań. Pacjenci leczeni MDI spędzali również średnio więcej czasu w szpitalu niż leczeni CSII (4.8 vs 3.5 dni na rok; p=0.0004). Terapia CSII nie wpływała istotnie natomiast na ryzyko wystąpienia ostrych powikłań w czasie (HR=1.16; 95%CI 0.68-1.63). Czynnikiem zwiększającym ryzyko ostrych hospitalizacji była początkowa HbA1c (HR 1.25 95%CI 1.14-1.37).
Wyniki przeprowadzonych badań pozwalają na stwierdzeni, że terapia CSII pozwala pacjentom z cukrzycą typu 1 zachować dobre wyrównanie metaboliczne, zmniejsza fluktuacje odsetka HbA1c co oznacza stabilizację choroby oraz potencjalnie zmniejsza koszty opieki zdrowotnej poprzez skrócenie czasu spędzanego przez pacjentów w szpitalu.

 

Analiza miejsca zamieszkania pacjentek kliniki ginekologii z wykorzystaniem analizy korespondencji, analizy koszykowej oraz metod klasycznych

Dr Anna Justyna Milewska, Uniwersytet Medyczny w Białymstoku
Dr Robert Milewski, Uniwersytet Medyczny w Białymstoku

W roku 1999 rozpoczęto w Polsce wdrażanie reform sektora zdrowotnego. Jedną z wprowadzonych zmian było zniesienie rejonizacji. Od tego momentu pacjenci mogli wybierać miejsce leczenia i coraz popularniejsze stało się migrowanie pacjentów do preferowanych ośrodków. Spowodowane to było poszukiwaniem pomocy medycznej na jak najwyższym poziomie lub chęcią rozpoczęcia leczenia po jak najkrótszym czasie oczekiwania.
Celem prezentacji będzie analiza miejsca zamieszkania pacjentek wybranej kliniki ginekologicznej ze szczególnym uwzględnieniem przyczyn migracji pacjentek z innych województw.
Zostaną przedstawione przykłady zastosowania analizy statystycznej z wykorzystaniem programu STATISTICA Data Miner. W podejściu klasycznym użyte zostaną testy nieparametryczne do oceny różnic pomiędzy analizowanymi grupami. Do wyszukania asocjacji między zmiennymi zastosowana zostanie analiza koszykowa, natomiast do prezentacji graficznej uzyskanych zależności – analiza korespondencji.

 

Publication bias – jaki jest efekt chowania wyników badań w szufladzie?

Michał Kusy, StatSoft Polska

Wyniki istotne statystycznie mają większą szansę zamieszczenia w publikacji naukowej od wyników umiarkowanych lub nieistotnych, szczególnie jeśli badania przeprowadzano na stosunkowo małych próbach. Różnice między wynikami badań publikowanych i tych, które trafiają do szuflady badacza powodują występowanie tzw. błędu publikacji (publication bias). Błąd ten wpływa między innymi na wnioski wyciągane w przeglądach systematycznych, ponieważ opierają się one w dużej mierze na danych publikowanych.
Ocena błędu publikacji i oszacowanie jego wpływu na wynik metaanalizy nie są łatwym zadaniem. Główny problem stanowi brak informacji o liczbie i wynikach badań, które w przeglądzie nie zostały uwzględnione. Istnieją jednak metody pozwalające, przy pewnych uproszczonych założeniach, ocenić czy błąd publikacji występuje i jak silnie może wpływać na uzyskany w analizie efekt łączny.

 

Ocena skuteczności i bezpieczeństwa probiotyków (metaanaliza)

Marta Kasińska, Uniwersytet Medyczny w Łodzi

Stosowanie probiotyków budzi wiele kontrowersji. Badania dają sprzeczne informacje o ich efektywności, w zależności od użytego szczepu czy też jednostki chorobowej w której prewencji lub leczeniu miałyby być wykorzystywane. Ponadto nie stwierdzono jednoznacznie ich bezpieczeństwa. W jaki sposób można zatem ocenić w sposób wiarygodny skuteczność i bezpieczeństwo bakterii probiotycznych? Możliwość odpowiedzi na to pytanie daje zastosowanie zaawansowanych narzędzi statystycznych. Metaanaliza jest szczególnym rodzajem badania, mającym na celu ilościową syntezę wyników pojedynczych, wcześniej przeprowadzonych eksperymentów. Wynik metaanalizy daje wiarygodną odpowiedź na precyzyjnie postawione pytanie badawcze.
W badaniu skoncentrowano się na ocenie skuteczności i bezpieczeństwa probiotyków w trzech jednostkach chorobowych: ostrej biegunce, biegunce związanej z antybiotykoterapią i atopowym zapaleniu skóry. Metaanaliza wykazała umiarkowaną skuteczność probiotyków w leczeniu ostrej biegunki. Łączny efekt okazał się istotny w analizie średniego czasu trwania biegunki (SMD = -0,47, PU -0,73 do -0,22, p=0,0002), średniego czasu biegunki rotawirusowej (SMD = -0,61, PU -0,83 do -0,39, p<0,0001) i średniego czasu hospitalizacji (SMD = -0,97, PU -1,57 do -0,36, p=0,0018). Stosowanie probiotyków istotnie zmniejszało częstość wystepowania biegunki związanej z antybiotykoterapią (SMD = -0,49, PU -0,65 do -0,33, p<0,0001), częstość występowania biegunki związanej z zakażeniem Clostridium difficile (SMD = -0,8, PU -1,17 do -0,43, p<0,0001) oraz czas trwania biegunki związanej z antybiotykoterapią (SMD = -0,24, PU -0,37 do -0,10, p=0,0005). Metaanaliza wykazała wątpliwą skuteczność probiotyków w zapobieganiu i leczeniu atopowego zapalenia skóry. Stosowanie probiotyków nie było związane ze zwiększonym ryzykiem wystąpienia efektów ubocznych.
W prezentacji przedstawiony zostanie sposób oraz etapy przeprowadzenia metaanalizy, na przykładzie oceny skuteczności i bezpieczeństwa probiotyków.

 

Nowości w Zestawie Medycznym STATISTICA

Grzegorz Migut, StatSoft Polska

Zestaw Medyczny STATISTICA specjalistycznym pakietem analitycznym, który stanowi uzupełnienie funkcjonalności programów z rodziny STATISTICA o analizy szczególnie przydatne w obszarze medycznym. Podczas wystąpienia zaprezentowane zostaną nowości i udoskonalenia zawarte opracowane w trzeciej wersji tego popularnego programu. Przedstawiony zostanie między innymi kreator regresji liniowej umożliwiający przeprowadzeni tej analizy krok po kroku od diagnostyki i transformacji zmiennych aż po ocenę założeń modelu i jego jakości. W drugiej części wystąpienia zaprezentowany zostanie moduł Propensity score matching umożliwiający korektę obciążenia oceny efektu spowodowanego nielosowym doborem do grupy interwencji i kontroli. Wystąpienie zakończy omówienie udoskonaleń wprowadzonych do dotychczasowych modułów programu.

 

Narzędzia analizy danych w medycynie

Arkadiusz Miziołek, StatSoft Polska

Analiza danych odgrywa ogromną rolę w medycynie. We wszystkich publikacjach i raportach prezentujących wyniki badań medycznych stosowane są metody statystycznej analizy danych: od etapu planowania badań (np. doboru liczności próby) po budowę modeli opisujących złożone zależności. Coraz większy jest też nacisk, aby podejmować decyzje w oparciu o wyniki analiz statystycznych. Zmiana standardów leczenia, stosowanie nowej terapii czy leku muszą być w odpowiedni sposób uzasadnione badaniami empirycznymi i potwierdzone wynikami analiz. W trakcie wystąpienia omówione zostaną najważniejsze składniki oferty StatSoft Polska w medycynie i ochronie zdrowia.

 

Scientia est experientia … czyli bez statystyki ani rusz
Wykorzystanie metod statystycznych na różnych etapach planowania i realizacji eksperymentu naukowego w biomedycynie

Prof. zw. dr hab. med. Cezary Watała, Uniwersytet Medyczny w Łodzi

Właściwy plan eksperymentu naukowego decyduje w dużej mierze tym, czy możemy odnieść sukces w pracy doświadczalnej. Plan taki obejmuje zarówno etap obmyślenia scenariusza, według którego nasz eksperyment miałby się potoczyć, jak i odpowiednie przygotowanie merytoryczne, ułatwiające nam podejmowanie decyzji i dokonywanie wyborów w najbardziej krytycznych momentach przeprowadzania doświadczenia. Odnosi się on zarówno do etapów przedanalitycznych (sprecyzowanie idei badań, wykreowanie teorii badacza, wyartykułowanie hipotez statystycznych, dobór grupy badanej, estymacja jej liczebności, opracowanie schematów randomizacji próby badanej), jak i do etapu zbierania danych, a także samego przygotowania technicznego do przeprowadzenia doświadczenia (znajomość technik i metod laboratoryjnych, obsługa instrumentarium pomiarowego). Nawet poprawny plan eksperymentalny nie gwarantuje, że eksperyment na pewno pozwoli odpowiedzieć na stawiane przez nas pytania w sposób rozstrzygający. Być może konieczne będzie wykonanie uzupełniających lub potwierdzających doświadczeń. Z drugiej strony, brak planu lub niedobry plan zwiększają ryzyko niepowodzenia. Badacz powinien mieć także świadomość, iż niewłaściwie dobrane lub zastosowane metody analizy statystycznej wyników badania naukowego mogą prowadzić do budowania nieprawdziwych wniosków płynących z takiej analizy. Zły dobór metod statystycznych może dotyczyć zarówno postępowania analitycznego a priori, jak i a posteriori. Z jednej strony, błędy popełniane na już na wstępnym etapie planowania eksperymentu naukowego (w praktyce jest to najczęściej po prostu niezaplanowanie lub niewłaściwe zaplanowanie doświadczeń od strony statystycznej) urąga dobrym obyczajom w pracy naukowej oraz prowadzi do trudności lub nawet niemożności poprawnego opracowania wyników badania, a często także do zwielokrotnienia jego kosztów. Z drugiej, gdy zebrane już wyniki analizujemy przy zastosowaniu niewłaściwie dobranych metod statystycznych – wnioski naszych badań mogą być wypaczeniem lub przekłamaniem rzeczywistości (np. stwierdzając występowanie zależności nie istniejących w rzeczywistości).
Dla mało doświadczonego badacza sformułowanie konkretnej idei badania oraz postawienie wiodącego dla badania pytania naukowego jest niejednokrotnie najtrudniejszym etapem w planowaniu badań naukowych. Może się zatem wydawać, iż prawdziwym szczęśliwym „zbiegiem okoliczności” jest to, że większość badań generuje więcej pytań niż potencjalnych odpowiedzi, których można byłoby udzielić realizując określony plan badawczy. Bardzo często lista pytań, na które przeprowadzone doświadczenie jest w stanie odpowiedzieć, stopniowo wzrasta w miarę gromadzenia coraz większego doświadczenia naukowego u badacza. Ale to jedynie jedna strona medalu. Należy zauważyć, że olbrzymia większość dokonań w nauce to drobne i z pozoru mało znaczące przyczynki do poznania, natomiast rewolucjonizujące odkrycia naukowe to najczęściej rzadkość. Dzięki temu badacz może często obserwować, jak na drodze amalgamacji niewielkich odkryć, uwzględniając jego własne drobne dokonania, przyczynia się on z upływem czasu do zasadniczych zmian stanu wiedzy i ogólnego obrazu czy wizji nauki. Mając to na uwadze, racjonalne jest planować badania według schematu „krok po kroku” (step by step). Nie ma potrzeby rozwiązywania całej dużej „zagadki naukowej” w jednym eksperymencie. Często jest raczej zasadne, aby dzięki dobrze zorganizowanej współpracy z innymi ośrodkami badawczymi w danej dziedzinie stopniowo generować drobne, ale wiarygodne i wysokiej jakości przyczynki do wiedzy w danej tematyce badawczej.

 

 

Jak poradzić sobie z niepożądaną zmiennością typu systematycznego w badaniach medycznych?

Dr Janusz Wątroba StatSoft Polska

Charakterystyczną cechą badań empirycznych jest zmienność, którą badacz obserwuje w wynikach obserwacji lub pomiarów dokonywanych na poszczególnych jednostkach. Dobre zaplanowanie badań i poprawna analiza ich wyników pozwala ocenić jaką część zmienności można przypisać czynnikom, które badacz kontroluje mimo wpływu czynników pozostających poza kontrolą. W związku z tym przy projektowaniu badania warto zwrócić uwagę na źródła potencjalnej zmienności oraz ich rodzaje. Najbardziej niepożądaną z punktu widzenia badacza jest nieplanowana zmienność typu systematycznego. Dobrym sposobem radzenia sobie z taką sytuacją jest zastosowanie wprowadzonej jeszcze w latach 20-tych ubiegłego wieku przez Fishera metody zestawiania jednostek eksperymentalnych w blokach. Pierwotnie metoda była stosowana w doświadczalnictwie rolniczym do eliminacji zmienności wynikającej z różnej żyzności gleby na polu doświadczalnym. Później metodę te zaczęto z powodzeniem stosować przy projektowaniu badan w innych dziedzinach.
W trakcie wystąpienia zostanie przedstawiony przykład zastosowania tej metody w badaniach medycznych. Szczególna uwaga zostanie zwrócona na korzyści jakie uzyskuje badacz dzięki zwiększeniu precyzji doświadczenia, która ułatwia wykazanie różnicującego efektu czynników, kontrolowanych w doświadczeniu.

 

 

Ocena jakości programu jednoczasowej transplantacji trzustki i nerki za pomocą ważonej ryzykiem metody CUSUM

Dr hab. n. med. Tadeusz Grochowiecki, Warszawski Uniwersytet Medyczny
Michał Iwaniec, StatSoft Polska
Grzegorz Migut, StatSoft Polska

Jednoczasowe przeszczepienie trzustki i nerki jest najczęściej wykonywaną transplantacją wielonarządową. Wskazaniem do tego typu transplantacji jest cukrzyca typ 1 powikłana schyłkową niewydolnością nerek. Po tej operacji chory nie musi brać insuliny i być podłączany do sztucznej nerki, jednakże, jak z każdą operacją i z tą wiążą się powikłania. Określenie czynników wpływających na powstanie powikłań pooperacyjnych za pomocą regresji logistycznej pozwala nie tylko na ocenę ryzyka ich wystąpienia, ale także na stworzenie obiektywnej możliwości oceny jakości programu transplantacji. Do oceny jakości programu jednoczasowej transplantacji trzustki i nerki użyto ważonej ryzykiem metody CUSUM.
Technika CUSUM umożliwia ocenę jakości prowadzonych programów medycznych oraz poprawę ich wydajności. CUSUM jest przeznaczona do wewnętrznego monitorowania jakości umożliwiając śledzenie przebiegu badanego procesu w czasie zbliżonym do rzeczywistego. Umożliwia szybkie wychwycenie niepokojących objawów zachodzących w procesie i adekwatną reakcję na zaistniałą sytuację co jest kluczowe szczególnie dla programów związanych z medycyną, w których występuje duże prawdopodobieństwo wystąpienia powikłań. Dlatego technika CUSUM jest coraz szerzej wprowadzana na świecie celem monitorowania programów transplantacji narządów.

 

 

Analiza efektywności terapii pompą insulinową – statystyczne i kliniczne aspekty doboru pacjentów i wyboru punktów końcowych

Dr hab. n. med. Wojciech Fendler, Uniwersytet Medyczny w Łodzi

Cukrzyca typu 1 to choroba, w której w wyniku reakcji autoimmunologicznej, zniszczeniu ulegają komórki beta wysp trzustkowych, odpowiedzialne za produkcję insuliny. Terapia cukrzycy typu 1 opiera się na podaży egzogennej insuliny, która zapobiega hiperglikemii oraz kwasicy ketonowej. Współcześnie pacjenci otrzymują insulinę ludzką (identyczną lub nieznacznie zmodyfikowaną), podawaną za pomocą wielokrotnych wstrzyknięć (technika MDI) lub ciągłego podskórnego wlewu z wykorzystaniem pompy insulinowej (CSII). Przeprowadzono badania, których celem było porównanie terapii CSII oraz MDI pod względem wpływu na przewlekłe wyrównanie metaboliczne cukrzycy oraz ryzyko powikłań. Dobór pacjentów do grup CSII i MDI był nielosowy i uzależniony od umiejętności i preferencji pacjenta, dostępności sprzętu oraz decyzji lekarza. Dane gromadzone były w postaci półstrukturyzowanych wypisów lekarskich. Informacje dotyczące rodzaju terapii, daty rozpoczęcia CSII, zaprzestania CSII lub zmiany rodzaju terapii oraz wyrównania metabolicznego (odsetek HbA1c) wyekstrahowano ze zbioru danych technikami text mining. Aby zniwelować wpływ czynników zakłócających, przeprowadzono dwie procedury dopasowania – propensity score matching oraz covariate matching, co pozwoliło wyselekcjonować grupy leczonych MDI (N=223) lub CSII (N=231) nieróżniące się parametrami początkowymi.
Średni czas obserwacji pacjentów od chwili włączenia terapii do zakończenia obserwacji wynosił 3.05+/-1.74 lata. Kontrola metaboliczna uległa nieistotnemu statystycznie pogorszeniu w grupie MDI (0.21% (95%CI -0.2 do 0.60)), co skutkowało istotną statystycznie różnicą ostatnich pomiarów HbA1c pomiędzy grupami MDI i CSII (7.98+/-1.38% vs 7.56+/-0.97%; p=0.002). Odchylenie standardowe HbA1c pacjentów leczonych MDI (0.84+/-0.54%) było istotnie statystycznie wyższe niż w grupie leczonej CSII (0.73+/0.45%; p=0.049) wskazując na większe ryzyko powikłań. Pacjenci leczeni MDI spędzali również średnio więcej czasu w szpitalu niż leczeni CSII (4.8 vs 3.5 dni na rok; p=0.0004). Terapia CSII nie wpływała istotnie natomiast na ryzyko wystąpienia ostrych powikłań w czasie (HR=1.16; 95%CI 0.68-1.63). Czynnikiem zwiększającym ryzyko ostrych hospitalizacji była początkowa HbA1c (HR 1.25 95%CI 1.14-1.37).
Wyniki przeprowadzonych badań pozwalają na stwierdzeni, że terapia CSII pozwala pacjentom z cukrzycą typu 1 zachować dobre wyrównanie metaboliczne, zmniejsza fluktuacje odsetka HbA1c co oznacza stabilizację choroby oraz potencjalnie zmniejsza koszty opieki zdrowotnej poprzez skrócenie czasu spędzanego przez pacjentów w szpitalu.

 

 

Analiza miejsca zamieszkania pacjentek kliniki ginekologii z wykorzystaniem analizy korespondencji, analizy koszykowej oraz metod klasycznych

Dr Anna Justyna Milewska, Uniwersytet Medyczny w Białymstoku
Dr Robert Milewski, Uniwersytet Medyczny w Białymstoku

W roku 1999 rozpoczęto w Polsce wdrażanie reform sektora zdrowotnego. Jedną z wprowadzonych zmian było zniesienie rejonizacji. Od tego momentu pacjenci mogli wybierać miejsce leczenia i coraz popularniejsze stało się migrowanie pacjentów do preferowanych ośrodków. Spowodowane to było poszukiwaniem pomocy medycznej na jak najwyższym poziomie lub chęcią rozpoczęcia leczenia po jak najkrótszym czasie oczekiwania.
Celem prezentacji będzie analiza miejsca zamieszkania pacjentek wybranej kliniki ginekologicznej ze szczególnym uwzględnieniem przyczyn migracji pacjentek z innych województw.
Zostaną przedstawione przykłady zastosowania analizy statystycznej z wykorzystaniem programu STATISTICA Data Miner. W podejściu klasycznym użyte zostaną testy nieparametryczne do oceny różnic pomiędzy analizowanymi grupami. Do wyszukania asocjacji między zmiennymi zastosowana zostanie analiza koszykowa, natomiast do prezentacji graficznej uzyskanych zależności – analiza korespondencji.

 

 

Publication bias – jaki jest efekt chowania wyników badań w szufladzie?

Michał Kusy, StatSoft Polska

Wyniki istotne statystycznie mają większą szansę zamieszczenia w publikacji naukowej od wyników umiarkowanych lub nieistotnych, szczególnie jeśli badania przeprowadzano na stosunkowo małych próbach. Różnice między wynikami badań publikowanych i tych, które trafiają do szuflady badacza powodują występowanie tzw. błędu publikacji (publication bias). Błąd ten wpływa między innymi na wnioski wyciągane w przeglądach systematycznych, ponieważ opierają się one w dużej mierze na danych publikowanych.
Ocena błędu publikacji i oszacowanie jego wpływu na wynik metaanalizy nie są łatwym zadaniem. Główny problem stanowi brak informacji o liczbie i wynikach badań, które w przeglądzie nie zostały uwzględnione. Istnieją jednak metody pozwalające, przy pewnych uproszczonych założeniach, ocenić czy błąd publikacji występuje i jak silnie może wpływać na uzyskany w analizie efekt łączny.

 

 

Ocena skuteczności i bezpieczeństwa probiotyków (metaanaliza)

Marta Kasińska, Uniwersytet Medyczny w Łodzi

Stosowanie probiotyków budzi wiele kontrowersji. Badania dają sprzeczne informacje o ich efektywności, w zależności od użytego szczepu czy też jednostki chorobowej w której prewencji lub leczeniu miałyby być wykorzystywane. Ponadto nie stwierdzono jednoznacznie ich bezpieczeństwa. W jaki sposób można zatem ocenić w sposób wiarygodny skuteczność i bezpieczeństwo bakterii probiotycznych? Możliwość odpowiedzi na to pytanie daje zastosowanie zaawansowanych narzędzi statystycznych. Metaanaliza jest szczególnym rodzajem badania, mającym na celu ilościową syntezę wyników pojedynczych, wcześniej przeprowadzonych eksperymentów. Wynik metaanalizy daje wiarygodną odpowiedź na precyzyjnie postawione pytanie badawcze.
W badaniu skoncentrowano się na ocenie skuteczności i bezpieczeństwa probiotyków w trzech jednostkach chorobowych: ostrej biegunce, biegunce związanej z antybiotykoterapią i atopowym zapaleniu skóry. Metaanaliza wykazała umiarkowaną skuteczność probiotyków w leczeniu ostrej biegunki. Łączny efekt okazał się istotny w analizie średniego czasu trwania biegunki (SMD = -0,47, PU -0,73 do -0,22, p=0,0002), średniego czasu biegunki rotawirusowej (SMD = -0,61, PU -0,83 do -0,39, p<0,0001) i średniego czasu hospitalizacji (SMD = -0,97, PU -1,57 do -0,36, p=0,0018). Stosowanie probiotyków istotnie zmniejszało częstość wystepowania biegunki związanej z antybiotykoterapią (SMD = -0,49, PU -0,65 do -0,33, p<0,0001), częstość występowania biegunki związanej z zakażeniem Clostridium difficile (SMD = -0,8, PU -1,17 do -0,43, p<0,0001) oraz czas trwania biegunki związanej z antybiotykoterapią (SMD = -0,24, PU -0,37 do -0,10, p=0,0005). Metaanaliza wykazała wątpliwą skuteczność probiotyków w zapobieganiu i leczeniu atopowego zapalenia skóry. Stosowanie probiotyków nie było związane ze zwiększonym ryzykiem wystąpienia efektów ubocznych.
W prezentacji przedstawiony zostanie sposób oraz etapy przeprowadzenia metaanalizy, na przykładzie oceny skuteczności i bezpieczeństwa probiotyków.

 

 

Nowości w Zestawie Medycznym STATISTICA

Grzegorz Migut, StatSoft Polska

Zestaw Medyczny STATISTICA specjalistycznym pakietem analitycznym, który stanowi uzupełnienie funkcjonalności programów z rodziny STATISTICA o analizy szczególnie przydatne w obszarze medycznym. Podczas wystąpienia zaprezentowane zostaną nowości i udoskonalenia zawarte opracowane w trzeciej wersji tego popularnego programu. Przedstawiony zostanie między innymi kreator regresji liniowej umożliwiający przeprowadzeni tej analizy krok po kroku od diagnostyki i transformacji zmiennych aż po ocenę założeń modelu i jego jakości. W drugiej części wystąpienia zaprezentowany zostanie moduł Propensity score matching umożliwiający korektę obciążenia oceny efektu spowodowanego nielosowym doborem do grupy interwencji i kontroli. Wystąpienie zakończy omówienie udoskonaleń wprowadzonych do dotychczasowych modułów programu.

 

 

Narzędzia analizy danych w medycynie
Arkadiusz Miziołek, StatSoft Polska

Analiza danych odgrywa ogromną rolę w medycynie. We wszystkich publikacjach i raportach prezentujących wyniki badań medycznych stosowane są metody statystycznej analizy danych: od etapu planowania badań (np. doboru liczności próby) po budowę modeli opisujących złożone zależności. Coraz większy jest też nacisk, aby podejmować decyzje w oparciu o wyniki analiz statystycznych. Zmiana standardów leczenia, stosowanie nowej terapii czy leku muszą być w odpowiedni sposób uzasadnione badaniami empirycznymi i potwierdzone wynikami analiz. W trakcie wystąpienia omówione zostaną najważniejsze składniki oferty StatSoft Polska w medycynie i ochronie zdrowia.

 

 

Zapraszamy do zapoznania się z 3-minutową relacją z seminarium.

If you are using a browser with JavaScript disabled please enable it now. Otherwise, please update your version of the free Flash Player by downloading here.

Zapraszamy do zapoznania się z 10-minutową relacją z seminarium.