Statistica
Dane Wiedza Sukces
Solutions Banner

Seminaria StatSoft 

Informacje szczegółowe

Zastosowania statystyki i data mining w badaniach naukowych
Warszawa, 12 października 2016

W tegorocznym seminarium udział wzięło ponad 250 osób, reprezentujących uczelnie, instytuty naukowe i badawcze oraz instytucje nieakademickie z całego kraju. Zgodnie ze sprawdzoną od wielu lat formułą tematyka wystąpień dotyczyła szerokiego zakresu zastosować analizy danych w różnych dziedzinach badań naukowych od nauk społecznych, poprzez nauki przyrodnicze a na naukach technicznych kończąc. Wielu uczestników podkreślało, że taki niespotykany na innych tego typu spotkaniach wachlarz zastosowań może być dla naukowca niezwykle cennym źródłem inspiracji w jego specyficznym obszarze badawczym.

 

Patronat nad seminarium objęło:

Polskie towarzystwo statystyczne


Patronat medialny:

Wiedza i życie
Świat nauki
Forum akademickie

StatSoft Polska

Temat

Text Text Text Text Text

 

 

dr hab. Oleg Gorbaniuk, prof. nadzw. (Katedra Psychologii Ogólnej, Instytut Psychologii, Wydział Nauk Społecznych, Katolicki Uniwersytet Lubelski)

Wykorzystywanie procedury sędziów kompetentnych w naukach społecznych i możliwości jej oceny psychometrycznej za pomocą narzędzi dostępnych w Statistica

W trakcie wystąpienia zostaną omówione następujące zagadnienia: 

  • Skala zastosowania procedury sędziów kompetentnych w naukach społecznych 
  • Najczęstsze uchybienia wykorzystywania sędziów „kompetentnych” w badaniach naukowych 
  • Etapy poprawnie zastosowanej procedury sędziów kompetentnych 
  • Kryteria oceny wiarygodności naukowej decyzji sędziów kompetentnych 
  • Możliwości oceny psychometrycznej tych decyzji za pomocą specjalistycznych narzędzi dostępnych w Statistica

 

 

dr hab. inż. Emilia Wołowiec-Korecka (Zakład Metod Numerycznych w Nauce o Materiałach, Instytut Inżynierii Materiałowej, Wydział Mechaniczny, Politechnika Łódzka)

Zastosowanie sztucznych sieci neuronowych do modelowania procesów azotowania próżniowego stali narzędziowych

Istotną częścią detali obrabianych cieplnie i cieplno-chemicznie w hartowniach usługowych są narzędzia skrawające oraz formy i matryce. Elementy te są poddawane intensywnym obciążeniom zarówno mechanicznym jak i cieplnym. Wysoką trwałość takich narzędzi częściowo zapewnia się przez stosowanie odpowiednich materiałów, jednakże optymalne właściwości można uzyskać tylko poprzez odpowiednią obróbkę cieplną lub cieplno-chemiczną. Jedną z metod podnoszenia trwałości tych narzędzi jest połączenie objętościowej obróbki cieplnej z precyzyjnym azotowaniem realizowanym obecnie w odrębnych urządzeniach. Istnieje jednak możliwość azotowania niskociśnieniowego stali narzędziowych oraz szybkotnących w uniwersalnym piecu próżniowym, pod warunkiem opracowania modelu procesu wielosegmentowego, popartego doświadczalną bazą uczącą, ponieważ parametry obróbki oraz każdy dodatkowy pierwiastek wprowadzony do materiału mają istotne znaczenie dla własności końcowych materiału. Powyższe okoliczności były bezpośrednią przyczyną rozpoczęcia badań nad opracowaniem modelu wielosegmentowego azotowania niskociśnieniowego o strukturze procesu „boost – diffusion”. Na podstawie wyników uzyskanych podczas badań ilościowych i jakościowych próbek wykonanych ze stali narzędziowych opracowano zespół wielowarstwowych jednokierunkowych sztucznych sieci neuronowych, którego zadaniem było odwzorowanie zależności zachodzących między parametrami wejściowymi procesu azotowania próżniowego a własnościami końcowymi obrabianej stali, ze szczególnym uwzględnieniem twardości i charakterystyki wytworzonej warstwy: grubości, własności, struktury.

 

 

dr Anna Nowak-Czarnocka

Wskaźnik kondycji finansowej kredytobiorcy. Aspekty metodologiczne

Podczas wystąpienia zostaną przedstawione wnioski z badań przeprowadzonych w ramach pracy doktorskiej poświęconej poszukiwaniu najbardziej efektywnej metody szacowania zdolności kredytowej kredytobiorców zaciągających kredyty konsumpcyjne. Prezentacja będzie zawierała autorski wskaźnik kondycji finansowej kredytobiorcy zbudowany za pomocą metod statystycznych takich jak: analiza dyskryminacyjna, regresja logistyczna i analiza głównych składowych oraz metody epsilon, która nie była dotąd stosowana do szacowania kondycji kredytobiorcy. Implementacja metody epsilon umożliwiła uniezależnienie się od problemu korelacji oraz wyznaczenie tzw. wag względnych wyrażających zarówno bezpośredni poziom wpływu poszczególnych zmiennych objaśniających na zmienną objaśnianą jak i ich pośrednie działanie w powiązaniu z pozostałymi regresorami.

Ponadto w trakcie prezentacji zostanie poruszony temat weryfikacji statystycznej predyktorów oraz dyskretyzacji i kategoryzacji zmiennych przed implementacją do modelu skoringowego. Przedstawione zostanie również porównanie efektywności 24 modeli zbudowanych za pomocą wymienionych metod statystycznych, na podstawie danych kredytobiorców, którym przyznano kredyt konsumpcyjny oraz korzystających z kart kredytowych.

Praca została nagrodzona w III edycji Konkursu o Nagrodę Przewodniczącego KNF za najlepszą pracę doktorską z zakresu rynku finansowego oraz w Konkursie na najlepszą pracę doktorską i magisterską przygotowaną z zastosowaniem narzędzi statystyki i analizy danych zawartych w programach z rodziny Statistica (edycja 2014).

 

 

dr Joanna Ronowicz (Katedra i Zakład Chemii Nieorganicznej i Analitycznej, Wydział Farmaceutyczny, Collegium Medicum w Bydgoszczy, UMK w Toruniu)

Chemometria w technologii oraz analizie farmaceutycznej – potrzeba czy konieczność?

Podczas wystąpienia zaprezentowane zostaną przykłady wykorzystania metod chemometrycznych w analizie produktów leczniczych oraz technologii farmaceutycznej, w nawiązaniu do aktualnych zaleceń organów regulacyjnych, tj. Europejskiej Agencji ds. Produktów Leczniczych (EMA, ang. European Medicines Agency) oraz Amerykańskiej Agencji ds. Żywności i Leków (FDA, ang. Food and Drug Administration). Przedyskutowana zostanie możliwość wykorzystania oraz przydatność wybranych metod chemometrycznych zarówno na etapie projektowania składu recepturowego formulacji farmaceutycznej, jak i optymalizacji procesu wytwarzania produktu leczniczego, zgodnie z zalecaną przez organy regulacyjne koncepcją Quality by Design. Omówione zostaną również przykłady wykorzystania wielowymiarowych technik eksploracji danych jako wartościowego narzędzia w analizie produktów pochodzenia roślinnego, w weryfikacji autentyczności produktu i wychwytywaniu produktów sfałszowanych (tj. zawierających niewłaściwe substancje bądź znaczną ilość zanieczyszczeń).

 

 

płk dr inż. Piotr Murawski (Oddział Teleinformatyki, Wojskowy Instytut Medyczny w Warszawie)

Dane … czy w medycynie zawsze oznacza to problem?

Nie jest odkrywczym twierdzenie, że do analizy danych potrzebne są dane. Jednak sposób w jaki są one pozyskiwane jest tak różny jak wielu naukowców ten proces realizuje. Praktyka pokazuje, że zwykle, dane gromadzone są w różnego rodzajach arkuszach kalkulacyjnych czy doraźnie tworzonych bazach danych ze wszystkimi ograniczeniami z tego wynikającymi. Techniki te, choć skuteczne, mają swoje ograniczenia. Angażują one, zwykle niepotrzebnie, badacza w działania, które merytorycznie nie są związane z samym badaniem oraz są mało podatne na zmiany. Czynności te są też zwykle postrzegane jako te, które powstrzymują badaczy od podejmowania nowych wyzwań. Rozwiązaniem tego problemu mogą być narzędzia typu „Środowisko Analiz Medycznych”, które będąc zintegrowane z systemami źródłowymi tworzą przyjazny ekosystem prowadzenia analiz statystycznych w medycynie. W ramach prezentacji zostanie przedstawiona realizacja takiego narzędzia wskazując na jego możliwości w kontekście metodologii prowadzenia badań w medycynie.

 

 

dr Dariusz Danel (Instytut Immunologii i Terapii Doświadczalnej Polskiej Akademii Nauk, Zakład Antropologii, Wrocław)

Poziom istotności i granica rozsądku - problem porównań wielokrotnych w badaniach naukowych na przykładach z zakresu biologii behawioralnej człowieka

Przekroczenie granicznego poziomu istotności statystycznej α (zwykle wynoszącego α = 0,05) a w konsekwencji odrzucenie hipotezy zerowej z prawdopodobieństwem p < α, jest upragnionym celem większości badaczy. Jednak w badaniach biologicznych często występuje problem testowania wielokrotnego, kiedy to z użyciem jednego zestawu danych przeprowadza się serię testów statystycznych. Taka praktyka prowadzi do zwiększenia ryzyka popełniania błędu I rodzaju, czyli odrzucenia prawdziwej hipotezy zerowej i nieuzasadnionego przyjęcia hipotezy alternatywnej. Powszechnie proponowanym remedium na powyższy problem jest obniżenie wartości α poprzez stosowanie odpowiednich poprawek na porównania wielokrotne. Poprawki te zastosowane nierozsądnie mogą jednak prowadzić do popełnienia błędu II rodzaju, a więc przeoczenia istotnych statystycznie związków czy różnic. W naukach biomedycznych taki błąd może być nie mniej groźny niż błąd I rodzaju. Problem porównań wielokrotnych zostanie przedstawiony w perspektywie badań z zakresu biologii behawioralnej człowieka.

 

 

Paweł Januszewski, Mateusz Żołneczko, StatSoft Polska

Kreator testów statystycznych i inne nowości w Zestawie Plus

W trakcie wystąpienia zostaną przedstawione nowe dodatki w programie Statistica: kreator testów, AMMI, wykres Youdena, badanie ciągów pomiarów, przedziały odniesienia, test nieparametryczny dla układu naprzemiennego prostego, układy niestandardowe ANOVA, CFA oraz regresję Passinga-Babloka i Deminga. 

AMMI to metoda wykorzystywana w doświadczeniach rolniczych do badania wpływu interakcji genotyp x środowisko na wielkość plonu. Wynikom liczbowym towarzyszą wykresy podwójne, zwane biplotami. Z kolei Wykres Youdena jest niezbędny do obrazowania zgodności wyników dwukrotnych pomiarów tych samych próbek w laboratoriach. Ciągi pomiarów oznaczają moduł, za pomocą którego możemy zbadać istotność różnic między grupami pacjentów dla wielkości obliczanych na podstawie wyników rozciągniętych w czasie pomiarów u każdego pacjenta, np. pola pod krzywą stężenia substancji we krwi w zależności od czasu. W module Przedziały odniesienia wyznaczamy wieloma sposobami przedziały, w których znajduje się większość obserwacji, wraz z przedziałami ufności końców tych przedziałów. Test dla układu naprzemiennego prostego stwierdza bez żadnych założeń o rozkładzie czy istnieją różnice między skutecznością dwóch leków podawanych w układzie naprzemiennym prostym. Do oszacowania niepewności posłużono się estymatorem Hodgesa-Lehmanna. Regresja Passinga-Babloka i Deminga to dwie metody regresji mające na celu porównanie dwóch metod pomiarowych. Różnią się one istotnie od zwykłej regresji liniowej i służą odpowiednio do sprawdzania równoważności lub oceny zależności liniowej wyników obu metod pomiaru. Układy niestandardowe ANOVA pozwalają nam na analizę bloków randomizowanych, split-plot oraz split-blok, które są pewnymi szczególnymi układami doświadczalnymi, przydatnymi zwłaszcza w doświadczalnictwie rolniczym. Natomiast CFA jest angielskim skrótem konfiguracyjnej analizy częstości, służącej do odnajdywania wzorców w tabelach liczności. I wreszcie, Kreator testów - praktyczne narzędzie wspomagające poprawny wybór i przeprowadzenie najczęściej wykorzystywanych testów istotności służących do oceny różnic.

 

 

Zapraszamy do zapoznania się z 3-minutową relacją z seminarium.

Zapraszamy do zapoznania się z 10-minutową relacją z seminarium.

Zdjecie z konferencji Zdjecie z konferencji Zdjecie z konferencji Zdjecie z konferencji
 
ContentKontakt

StatSoft Polska Sp. z o.o.
ul. Kraszewskiego 36,
30-110 Kraków,
Telefon: +48 12 428 43 00
Telefon: +48 (601) 41 41 51
Faks: +48 12 428 43 01
e-mail: info@statsoft.pl