Predykcja w biznesie
17 październik 2012


Business Intelligence i STATISTICA w praktyce – model geomarketingowy w Orange Polska

w każdym przedsiębiorstwie prawidłowo skonstruowany system informacyjny oraz odpowiednia organizacja pracy analitycznej umożliwiają budowanie wiedzy przekładającej się na wzrost efektywności i wartość rynkową przedsiębiorstwa. Kluczem jest efektywne używanie narzędzi analitycznych w powiązaniu z szybką wymianą wiarygodnych informacji między ludźmi zajmującymi się prowadzeniem biznesu, wsparciem biznesu oraz profesjonalnie działająca jednostką analityczną.

Powyższe – jak w szkle powiększającym – widać na przykładzie największych przedsiębiorstw telekomunikacyjnych w Polsce. Dlatego prezentacja będzie oparta na praktycznych doświadczeniach m.in. W Orange Polska.


Jak nie oferować grzebieni łysym czyli modele predykcyjne w optymalizacji kampanii sprzedażowych

Znajomość wzorców zachowania klientów oraz czynników, jakie na nie wpływają, jest jednym z krytycznych warunków sukcesu każdej kampanii sprzedażowej. Bardzo pomocne w poznawaniu klientów są narzędzia służące do zgłębiania danych (data mining). Jednym z najczęstszych podejść do optymalizacji kampanii marketingowych jest stworzenie modelu wskazującego klientów, do których warto skierować ofertę. Modele te określamy mianem modeli skoringowych, ponieważ rezultatem ich działania jest ocena (scoring) szansy zakupu przez danego klienta określonego produktu. Podczas wystąpienia zaprezentowany zostanie przykład budowy i oceny modelu skoringowego oceniającego skłonność klientów do zakupu lokaty terminowej.


Co z czym i w jakiej kolejności, czyli analiza asocjacji i sekwencji

Prezentacja poświęcona będzie metodom wyszukiwaniu w zbiorach danych wzorców, charakteryzujących się współwystępowaniem badanych elementów. Dobrym przykładem ilustrującym potencjalne zastosowanie tych metod jest badanie współwystępowania produktów w koszykach zakupów (stąd często ta technika nazywana jest również jako analiza koszykowa). Reguły te mogą dotyczyć np. zwyczajów zakupowych klientów lub prawidłowości w korzystaniu z usług wybranego typu. Rozwinięciem analizy koszykowej jest analiza sekwencji, która pozwala na uwzględnienie powiązań zdarzeń w czasie (tj. poszukiwanie wzorców w sekwencji koszyków). Omawiane techniki zostaną zilustrowane przykładami w programie STATISTICA.


Dlaczego „gorsza” metoda jest czasem lepsza czyli regresja logistyczna w wykrywaniu wyłudzeń odszkodowań

Obecnie większość Towarzystw zdaje sobie sprawę z problemu i konsekwencji, jakie dla biznesu ubezpieczeniowego mogą nieść nienależnie wypłacane odszkodowania. Skala zjawiska w obszarze ubezpieczeń komunikacyjnych jest na tyle alarmująca, że prawie wszystkie nowo powstające systemy służące do likwidacji szkód zawierają w sobie moduły anty-fraudowe. Istnieje wiele zaawansowanych algorytmów data mining, które mogą być wykorzystane do przewidywania wyłudzeń. Niestety oprócz imponujących zdolności predykcyjnych najczęściej mają one jedną zasadniczą wadę – działają na zasadzie „czarnej skrzynki”, uniemożliwiając zrozumienie relacji ukrytych w danych.
Jak zbudować model anty-fraudowy, łącząc wiedzę biznesową z wiedzą statystyczną?
Jak zapewnić sobie zbudowanie modelu zrozumiałego biznesowo?
Celem wystąpienia jest przedstawienie modelu regresji logistycznej jako skutecznej metody wychodzącej naprzeciw potrzebom biznesowym w obszarze wykrywania nadużyć w ubezpieczeniach komunikacyjnych. Zaprezentowane zostaną najważniejsze zagadnienia związane z procesem budowy modeli, ich skutecznością oraz opłacalnością takiego podejścia.


Statystyczny detektyw, czyli wykrywanie wyłudzeń za pomocą analizy danych

Wykrywanie nadużyć (ang. fraud detection) dotyczy bardzo wielu, bardzo różnych instytucji, począwszy od banków i instytucji ubezpieczeniowych, przez sklepy internetowe, portale aukcyjne, a skończywszy na administracji publicznej. Można powiedzieć, że wszędzie tam gdzie mamy do czynienia z pieniędzmi, informacją, władzą, sławą i pozycją mogą pojawić się oszustwa, nadużycia itp. – a jeśli mogą, to zapewne się pojawią. Trzeba więc im w jakiś sposób przeciwdziałać. Statystyka i data mining pomagają w wykrywaniu nadużyć, należy jednak pamiętać, że muszą być one ujęte w ramy ogólnych zasad prowadzenia działalności w danej dziedzinie. Musimy więc połączyć dwa światy: modelowanie predykcyjne i reguły decyzyjne w jednym systemie, który na bieżąco, z możliwie jak najmniejszym opóźnieniem będzie wskazywał podejrzane działania, transakcje itp. Podczas wystąpienia przedstawiony zostanie przykład tworzenia modelu predykcyjnego wskazującego podejrzane transakcje, a także stosowanie modelu wraz z regułami biznesowymi w systemie STATISTICA Decisioning Platform®.


Prognozowanie z wykorzystaniem metod data mining

Jednym z ważnych obszarów analizy danych jest prognozowanie szeregów czasowych. Któż nie chciałby znać przyszłości i móc wykorzystywać tej wiedzy w podejmowaniu decyzji i planowaniu własnych działań. Jest wiele metod prognozowania. Podczas prezentacji przedstawimy zastosowanie technik data mining w tym obszarze. Omawiane techniki zostaną zilustrowane przykładami analiz w programie STATISTICA Data Miner.


Tworzenie i zarządzanie modelami prognostycznymi w STATISTICA Enterprise

W bardzo wielu dziedzinach stajemy przed wyzwaniem przewidzenia przyszłości, innymi słowy prognozowania. Stosuje się wiele sposobów przewidywania, my zajmiemy się prognozowania na podstawie danych o przebiegu zjawiska w przeszłości z wykorzystaniem modelu statystycznego. Istnieje wiele metod tworzenia modeli: od klasycznych technik takich jak wyrównywanie wykładnicze, po metody sztucznej inteligencji i data mining, takie jak sieci neuronowe. My zajmiemy się innym, bardzo ważnym z praktycznego punktu widzenia, aspektem prognozowania: zarządzaniem dużą ilością modeli dla dużej liczby wielkości, które chcemy (lub musimy) przewidywać.