Seminaria
Warszawa, 13, 15 października 2015


W 2015 odbyły seminaria poświęcone analizie danych, które tradycyjnie już przygotowaliśmy dla Państwa w październiku. Celem seminariów była popularyzacja zastosowań nowoczesnych technik analizy danych oraz zaprezentowanie przykładów ciekawych wdrożeń u naszych klientów. Te spotkania to także forum wymiany doświadczeń pomiędzy użytkownikami rozwiązań Statistica. Podczas seminariów można było zapoznać się z przykładami prezentowanymi przez przedstawicieli: Arcelormittal, Collegium Medicum Uniwersytetu Jagiellońskiego, CORRECT, Dendro, Franke Foodservice Systems, IKEA, Instytutu Hodowli i Aklimatyzacji Roślin, Michelin, Politechniki Rzeszowskiej, SWPS Uniwersyetetu Humanistycznospołecznego w Warszawie, Uniwersytetu Ekonomicznego we Wrocławiu oraz oczywiście StatSoft Polska.

W październiku w Warszawie odbyły się dwa seminaria:

#sem2„Doskonalenie procesów produkcyjnych z wykorzystaniem analizy danych” (13.10.2015).

#sem1„Zastosowania statystyki i data mining w badaniach naukowych” (15.10.2015).

 

Patronat nad seminarium objęło:

Polskie towarzystwo statystyczne

Patronat medialny:

 

Wiedza i życie

 

 

Świat nauki

 

 

Forum akademickie

 

 

  Zastosowania statystyki i data mining w badaniach naukowych

Seminarium poświęcone interesującym zastosowaniom statystyki i data mining w badaniach naukowych. Szeroki zakres tematyczny zaplanowanych wystąpień (badania społeczne, ekonomiczne, przyrodnicze, medyczne i techniczne) przedstawiał korzyści jakie daje zastosowanie analizy danych w różnych dziedzinach badań empirycznych.

Zachęcamy do zapoznania się z krótkimi informacjami o wystąpieniach.

 Tematy wystąpień:

 

 

 Doskonalenie procesów produkcyjnych z wykorzystaniem analizy danych 
    

 

Odbyła się już 10 konferencja StatSoft Polska poświęcona zastosowaniom statystyki w przemyśle. Na konferencji poruszone zostały następujące zagadnienia: poznawanie procesów za pomocą SPC i wizualizacji, analiza systemu pomiarowego (MSA), poszukiwanie przyczyn powstawania wad produktu, analiza niezawodności oraz przewidywanie awarii. Wystąpienia były nastawione na praktyczne zastosowania i korzyści, a przedstawione zostały  przez praktyków z czołowych firm, na co dzień stosujących analizę danych oraz przez specjalistów StatSoft Polska.
 Tematy wystąpień:

 

 

13 X 2015

Zdjecie z seminarium Zdjecie z seminarium Zdjecie z seminarium
Zdjecie z seminarium Zdjecie z seminarium Zdjecie z seminarium

15 X 2015

Zdjecie z seminarium Zdjecie z seminarium Zdjecie z seminarium
Zdjecie z seminarium Zdjecie z seminarium Zdjecie z seminarium

13 X 2015


15 X 2015


dr hab. Wojciech Cwalina, prof. SWPS, Katedra Psychologii Marketingu, Wydział Psychologii, SWPS Uniwersytet Humanistycznospołeczny w Warszawie

Brak programu wyborczego jako strategia kampanii i jej skuteczność w zależności od segmentu elektoratu

Celem przeprowadzonego eksperymentu, była próba odpowiedzi na pytanie: Czy program wyborczy jest elementem niezbędnym do odniesienia przez polityka sukcesu? Starano się również określić, w jakich warunkach brak programu może wywierać pozytywny wpływ na ocenę kandydata, a w jakich – negatywny.

W badaniu wzięły udział 153 osoby, losowo podzielone na cztery grupy. W każdej z nich prezentowano jeden z czterech wariantów informacji o fikcyjnym, bezpartyjnym kandydacie w wyborach uzupełniających do Senatu. Informacje dotyczące jego osoby były takie same we wszystkich warunkach, natomiast manipulowano jego programem wyborczym: program liberalny vs. program konserwatywny vs. brak informacji o programie vs. brak programu z adnotacją, że kandydat go nie ma. Przed zapoznaniem się z sylwetką polityka, badani określali swoje poglądy wobec tych kwestii politycznych, których dotyczył program. Na tej podstawie, w wyniku analizy skupień metodą k-średnich, wyróżniono trzy grupy badanych o odmiennej strukturze przekonań politycznych.

W odniesieniu do zmiennych zależnych (ocena polityka, ustosunkowanie emocjonalne wobec niego, szansa na dobre reprezentowanie wyborców i deklarowane poparcie wyborcze) wykonano analizy wariancji w układzie: 4 (informacje o programie kandydata) x 3 (grupy wyborców), przy czym we wszystkich analizach kowariantem był poziom zainteresowania badanych polityką. Uzyskane wyniki w większości potwierdziły przewidywania. Kandydat bez programu wyborczego, gdy nie wspominano o tym fakcie, był oceniany istotnie wyżej i zyskiwał wyższe poparcie wyborcze niż gdy miał program (tak o wydźwięku liberalnym, jak i konserwatywnym) lub gdy go nie miał, lecz fakt ten był podkreślony. W odniesieniu do poglądów badanych uzyskane wyniki nie ułożyły się w spójny wzorzec.

 

 

dr Joanna Szaleniec, Katedra i Klinika Otolaryngologii Collegium Medicum Uniwersytetu Jagiellońskiego

Jak uniknąć pułapek przy budowaniu sztucznych sieci neuronowych? Przewidywanie wyników operacji zatok przynosowych

 

Przewlekłe zapalenie zatok przynosowych (PZZP) jest schorzeniem bardzo powszechnym. Pacjenci, u których leczenie zachowawcze nie daje zadowalających rezultatów, są kwalifikowani do operacji endoskopowej zatok. Leczenie operacyjne pozwala uzyskać poprawę u zdecydowanej większości chorych, jednak u niektórych pacjentów zabieg nie przynosi pozytywnych efektów. Wartościowym narzędziem byłby w związku z tym model pozwalający przewidywać z wyprzedzeniem, u których pacjentów leczenie operacyjne może zakończyć się niepowodzeniem.

Sztuczne sieci neuronowe bardzo dobrze nadają się do budowy modeli prognostycznych w sytuacjach podobnych do opisanej powyżej, gdy przewidywany efekt (zmienna wyjściowa) zależy od wielu czynników (zmiennych wejściowych), a algorytm, według którego należy wyznaczyć wartość zmiennej wyjściowej, nie jest znany. Sieci neuronowe mają zdolność uczenia się na podstawie przykładów. W związku z tym mogą nabyć umiejętności prognozowania wyników leczenia na podstawie danych dotyczących efektów zabiegu uzyskanych u chorych operowanych w przeszłości.

Budując modele prognostyczne, w szczególności sieci neuronowe, warto pamiętać o kilku potencjalnych problemach, które mogą prowadzić do uzyskania błędnych wyników.

Podział zbioru danych na podzbiory uczący, walidacyjny i testowy powinien być tak przeprowadzony, żeby zapobiec wyodrębnieniu niereprezentatywnych podzbiorów. Proponowaną metodą jest przeprowadzenie wstępnego podziału na skupienia, a następnie rozlosowanie przypadków z każdego ze skupień do poszczególnych podzbiorów.

W przypadku sieci neuronowych klasyfikacyjnych wskazane jest, żeby liczność przypadków w poszczególnych klasach była w przybliżeniu jednakowa. Sposób podziału na klasy musi jednak przede wszystkim być zgodny z logiką (w przypadku zagadnień medycznych – mieć sens kliniczny). W przypadku znacznych różnic liczebności klas konieczna jest kontrola, czy model nie ma tendencji do przyporządkowania wszystkich przypadków do liczniejszej klasy.

Optymalizację modeli można przeprowadzić w sposób uporządkowany, poszukując najpierw najbardziej obiecującego wektora wejściowego, a następnie najwłaściwszej dla danego zadania liczby neuronów ukrytych. Porównywanie efektywności pojedynczych modeli może być mylące ze względu na efekty losowe. Warto w związku z tym prześledzić zachowanie większej grupy modeli o jednakowej architekturze i porównać je z działaniem grupy modeli o innej architekturze, aby wybrać potencjalnie skuteczniejszą sieć.

Ponadto należy krytycznie ocenić wielkość uzyskanych modeli, sprawdzając, czy są dostatecznie złożone, aby modelować badane zjawisko, lecz jednocześnie nie na tyle rozbudowane, by nadmiernie dopasować się do danych uczących.

Unikanie klasycznych błędów i umiejętność krytycznej oceny uzyskiwanych modeli zdecydowanie zwiększa prawdopodobieństwo opracowania użytecznego w praktyce narzędzia prognostycznego. W odniesieniu do wyników operacji endoskopowych zatok przynosowych prawidłowe predykcje udało się uzyskać u 94% pacjentów.

 

 

 

dr Karolina Borowiec-Mihilewicz, Uniwersytet Ekonomiczny we Wrocławiu

Jak długo żyją spółki na polskiej giełdzie? Zastosowanie statystycznej analizy przeżycia do modelowania upadłości przedsiębiorstw

Podczas wystąpienia zostaną zaprezentowane wnioski z badań, których celem było modelowanie upadłości przedsiębiorstw. Do opracowania zebranych danych zastosowano grupę metod statystycznych zwanych analizą przeżycia. Próbę badawczą stanowiły przedsiębiorstwa notowane na Giełdzie Papierów Wartościowych w Warszawie. Badaną zmienną był czas funkcjonowania (czas „życia”) spółek określany zgodnie z trzema przyjętymi definicjami „śmierci”: wykluczenie z giełdy, ogłoszenie upadłości, złożenie wniosku o ogłoszenie upadłości. W badaniach uwzględniono również dodatkowe informacje na temat wewnętrznej sytuacji przedsiębiorstw oraz ich otoczenia gospodarczego. Do analizy czasu życia spółek wykorzystano metody statystyki opisowej oraz nieparametryczne i semiparametryczne metody analizy przeżycia. W prelekcji zostanie omówiony sposób budowy oraz charakterystyka autorskich modeli przeżycia przedsiębiorstw. Prezentacja będzie także zawierała podsumowanie badań empirycznych w zakresie własności rozkładu czasu życia przedsiębiorstw oraz skutecznej prognozy upadłości.

Prezentowany sposób prowadzenia badań można odnieść do innych zjawisk społeczno-gospodarczych oraz wszelkich zagadnień, w których możliwe jest mierzenie czasu trwania. Warto podkreślić, że analiza przeżycia ze względów obliczeniowych nie jest prostą metodą modelowania, ale wyniki uzyskane za jej pomocą interpretuje się w sposób wręcz intuicyjny. Poza tym charakteryzuje się własnościami, które pozwalają sprostać wymaganiom modelowania i prognozowania.

 

 

 

Wojciech Krysicki IKEA, Łukasz Parusiński „CORRECT” – K.BŁASZCZYK i WSPÓLNICY Sp. K, Jakub Wawrzyniak „CORRECT” – K.BŁASZCZYK i WSPÓLNICY Sp. K

Wdrożenie, funkcjonowanie i korzyści z SPC i MSA w firmie produkcyjnej

Prezentacja będzie dotyczyć wdrożenia SPC i MSA w jednym z największych na świecie zakładów produkujących materace.

Zostało ono przeprowadzone zgodnie z wymaganiami i przy współpracy z głównym klientem – IKEA.

Dzięki SPC i MSA poznaliśmy i nadal poznajemy nasze procesy, usprawniamy je i redukujemy kontrole.

Pokażemy w tej prezentacji przykłady funkcjonowania MSA i SPC, zarówno liczbowego jak i atrybutowego, oraz korzyści z tego płynące: od lepszego poznania procesu do rezygnacji z kontroli końcowej dla jednej z linii produkcyjnych.

 

 

 

Bartosz Niemczyk, Maciej Szelążek, Arcelormittal Poland S.A.

Analiza wad powierzchni

Podczas wystąpienia przedstawiona zostanie akwizycja, przekształcenia i prezentacja danych na potrzeby analizy przyczyn powstawania wady powierzchni taśmy stalowej.

Z urządzenia inspekcji powierzchni zebrano ok. 2 500 000 pomiarów dla ok. 50 000 kręgów.

Stworzono wskaźnik opisujący skalę wadliwości materiału, który następnie został wieloaspektowo porównany w celu wyszukania zależności z parametrami procesu, takimi jak: gatunek, czas wygrzewania, skład chemiczny, temperatury procesu, liczba przepustów na walcarce wstępnej, czy stosunek zależności wybranych pierwiastków.

Dzięki analizie odrzucono kilka wcześniejszych hipotez oraz zauważono korelacje z parametrami procesu. Wyniki analizy zostały wykorzystane w celu ograniczenia powstawania wad powierzchni.

 

 

Andrzej Tusk, Franke Foodservice Systems Poland Sp. z o. o.

Analiza niezawodności dla rozwiązań konstrukcyjnych mających wpływ na bezpieczeństwo

Podczas projektowania urządzeń zawierających palny czynnik chłodniczy (propan R290), największym ryzykiem jest wyciek i wytworzenie się niebezpiecznej mieszaniny wybuchowej. Prezentowane rozwiązanie konstrukcyjne ingeruje bezpośrednio w układ chłodniczy urządzenia i przyczynia się do generacji naprężeń mechanicznych w tym układzie. Ryzyko związane z utratą szczelności układu zostało ocenione przy pomocy eksperymentu, którego wyniki zostały przeanalizowane poprzez moduł Analizy Weibulla niezawodności/czasu uszkodzeń STATISTICA.

 

 

Jan Marcin Piesik, Michelin Polska S.A.

Zastosowanie narzędzi statystycznych do poprawy niezawodności i bezpieczeństwa maszyn poprzez predykcję awarii oraz poprawę pokrycia diagnostycznego maszyn

W następstwie rosnących wymagań w zakresie produktywności, redukcji kosztów i wymagań bezpieczeństwa zadeklarowanych między innymi przez międzynarodowe normy IEC 61508, IEC 62061 i ISO 13849 przemysł został zmuszony do znalezienia optimum pomiędzy wymaganiami ekonomicznymi  i akceptowalnym poziomem ryzyka w zakresie bezpieczeństwa. Nowoczesne fabryki wyposażone w skomputeryzowane procesy i rozbudowane narzędzia diagnostyczne często nie wykorzystują wszystkich informacji, które są zbierane z poziomu sprzętowego. Również niektóre z relacji pomiędzy zdarzeniami są często pomijane lub zaniedbywane. Wystąpienie prezentuje nowe podejście do zwiększenia niezawodności maszyn poprzez predykcyjną analizę danych oraz zwiększenie poziomu akceptowalnego bezpieczeństwa poprzez zwiększenie pokrycia diagnostycznego maszyn (Diagnostic Coverage).

 

 

Tomasz Demski StatSoft Polska

Wizualne odkrywanie wiedzy w Statistica Interactive Visualisation & Dashboards

Wizualizacja danych jest świetnym narzędziem do poznawania złożonych procesów mających wiele właściwości, a także odkrywania i prezentowania reguł, w łatwy do percepcji i zrozumienia sposób. Wystąpienie poświęcone jest nowemu programowi z rodziny Statistica: Statistica Interactive Visualisation & Dashboards umożliwiającemu wykonywanie interakcyjnych, dynamicznych wizualizacji w postaci pulpitów. Narzędzie przeznaczone jest dla praktyków poszukujących wzorców, reguł i zależności w skomplikowanych danych.

 

 

Marcin Sprawski Dendro Poland Ltd Sp. z o.o., Radosław Lemański Dendro Poland Ltd Sp. z o.o.

Analiza danych produkcyjnych w doskonaleniu procesu pakowania

W automatycznym procesie press&roll pakowania materacy niezmiernie ważne są ustawienia parametrów tego procesu. Od jego prawidłowego i płynnego przebiegu zależy, czy otrzymamy wytrzymałe opakowanie o oczekiwanych wymiarach i właściwościach. W artykule będzie zaprezentowana analiza danych produkcyjnych pochodzących z procesu pakowania w tym parametrów mających wpływ na siłę zgrzewu zamykającego opakowanie. Projekt został wykonany zgodnie z cyklem DMAIC, z wykorzystaniem analizy ANOVA, planowania eksperymentów DOE, analizy Pareto oraz badania zdolności procesu Cp i Cpk przed i po doskonaleniu.

 

 

 

dr inż. Dariusz Mańkowski, Instytut Hodowli i Aklimatyzacji Roślin – Państwowy Instytut Badawczy w Radzikowie

Planowanie doświadczeń i statystyczna analiza danych eksperymentalnych na przykładzie doświadczenia rolniczego

Nauki przyrodnicze są naukami empirycznymi. Opisanie zachodzących w przyrodzie zjawisk i procesów prawie zawsze wymaga przeprowadzenia doświadczenia. Eksperymenty takie mogą mieć różną formę i przebieg. Jedną z bardziej sformalizowanych grup doświadczeń są doświadczenia rolnicze. Proces planowania tego typu doświadczeń oraz statystyczna analiza danych pochodzących z tych eksperymentów jest przedmiotem zainteresowania działu nauk rolniczych zwanego doświadczalnictwem rolniczym.

W trakcie wystąpienia zostanie przedstawiony, na przykładzie dość złożonego eksperymentu, proces planowania doświadczenia rolniczego, a następnie kompleksowa analiza danych uzyskanych z tego doświadczenia.

 

 

 

 

dr inż. Janusz Konkol, Katedra Inżynierii Materiałowej i Technologii Budownictwa, Politechnika Rzeszowska

Wykorzystanie programu Statistica do rozwiązywania złożonych zagadnień w obszarze inżynierii materiałów budowlanych

Zastosowanie narzędzi i metod statystycznych w inżynierii materiałów budowlanych jest coraz powszechniejsze. Specyfika badań materiałów budowlanych różni się jednak od szeroko opisywanych w literaturze i popartych licznymi przykładami wyników badań medycznych. Zachodzi zatem konieczność prezentowania i publikowania badań własnych z obszaru inżynierii materiałów budowlanych, co wówczas nie tylko pozwala na osiągnięcie założonego przez badacza celu utylitarnego i aplikacyjnego, ale również pokazuje możliwości i korzyści wynikające z zastosowania narzędzi i metod statystycznych oraz wzorce postępowania w tego rodzaju badaniach.

W odpowiedzi na tak zdefiniowaną potrzebę w wystąpieniu przedstawione zostaną między innymi przykłady wykorzystania podejścia statystycznego przy użyciu programu Statistica do opracowania procedur projektowania betonów modyfikowanych dodatkami o właściwościach pucolanowych, jak również przykłady podejścia do istotnego z punktu widzenia inżynierii materiałowej zagadnienia budowania relacji między technologią, strukturą i właściwościami tych betonów.