Dokładne instrukcje dotyczące obliczania i interpretacji wskaźników zdolności są również omówione w książce Fundamental Process Control Reference Manual wydanej przez ASQC (American Society for Quality Control) i AIAG (Automotive Industry Action Group, 1991). Metody badania powtarzalności i odtwarzalności są omawiane w: Grant i Leavenworth (1980), Pyzdek (1989), jak również Montgomery (1991); bardziej szczegółowa dyskusja na ten temat (estymacja wariancji) jest również przedstawiona w książce Duncana (1974).
Szczegółowe instrukcje na temat sposobu prowadzenia i analizy powtarzalności i odtwarzalności pomiarów są prezentowane w książce Measurement System Analysis Reference Manual, wydanej przez ASQC/AIAC (1990). Poniżej zostaną pokrótce przedstawione cele i logika poszczególnych procedur. Bardziej szczegółowe informacje na temat analizy modeli efektów losowych oraz estymacji składników wariancji można znaleźć we Wprowadzeniu do komponentów wariancyjnych i modelu mieszanego .
Założenia ogólne
Podstawowym problemem, przed którym stoją inżynierowie kontroli jakości, jest ustalenie, ile elementów z każdej partii towaru (np. od dostawcy) należy sprawdzić, aby upewnić się, że elementy (produkty) w tej partii odpowiadają wymaganiom jakościowym. Przypuśćmy, na przykład, że mamy dostawcę pierścieni tłokowych do małych silników samochodowych, które produkuje nasza firma. A naszym celem jest ustalenie procedury pobierania próbek (z partii dostarczonych pierścieni tłokowych), która pozwoli nam sprawdzić wymagania jakościowe. W zasadzie problem jest podobny, jak w przypadku kontroli jakości w toku produkcji, omawianym w rozdziale Sterowanie jakością . Można odwołać się też do wprowadzenia, gdzie omawiane są zagadnienia statystycznej kontroli jakości.
Odbiorcze badanie jakości. Opisane tu procedury są użyteczne zawsze, gdy zachodzi potrzeba podjęcia decyzji (bez kontroli wyczerpującej, stuprocentowej), czy dostawa lub partia produktu spełnia warunki specyfikacji. Ze względu na charakter problemu (przyjąć partię lub ją odrzucić) metody te są niekiedy nazywane badaniami odbiorczymi.
Przewaga nad kontrolą wyczerpującą (stuprocentową). Oczywistą korzyścią wynikającą ze stosowania badań niewyczerpujących (wyrywkowych) jest oszczędność czasu, wysiłku i pieniędzy niezbędnych do zbadania próbki. W niektórych przypadkach mamy do czynienia z badaniami niszczącymi (w przypadku badania wytrzymałości stali) i wówczas stuprocentowe badanie zniszczyłoby dostarczoną partię. Ostatecznie, z menedżerskiego punktu widzenia, lepszą zachętą do dotrzymywania przez dostawcę standardów jakościowych jest odrzucenie partii produktu (oparte na kontroli wyrywkowej), niż odrzucenie tylko części jednostek wadliwych, oparte na kontroli wyczerpującej (stuprocentowej).
Podejście obliczeniowe
Zasadniczo, podejście obliczeniowe do odpowiedzi na pytanie, jakiej wielkości ma być próbka nie jest skomplikowane. Rozdział podstawowe pojęcia omawia koncepcje rozkładu z próbki. Pokrótce, biorąc wielokrotnie próbki o pewnej liczności, np. pierścieni tłokowych i obliczając średnie w próbkach, stwierdzamy, że średnie te podlegają rozkładowi normalnemu, o pewnej wartości średniej i odchyleniu standardowym (lub raczej z pewnym błędem standardowym - dla podkreślenia, że chodzi o sigmę średniej, a nie pojedynczych obserwacji). Jednak nie jest konieczne pobieranie powtarzanych próbek z populacji, aby oszacować położenie (średnią) i zmienność (błąd standardowy) rozkładu. Jeżeli zmienność w populacji jest dobrze oszacowana (odchylenie standardowe lub sigma), wówczas można wyciągnąć wnioski o średniej rozkładu. Ogólnie, informacja ta jest wystarczająca do oszacowania liczności próbki, która jest potrzebna do wykrycia pewnej zmiany w jakości (w stosunku do wyznaczonej specyfikacji). Bez wgłębiania się w szczegóły obliczeniowe, sprawdźmy jakie informacje musi posiadać inżynier w celu wyznaczenia żądanej wielkości próbki.
Pojęcia H0 i H1
Aby sformalizować proces kontroli (na przykład dostawy pierścieni tłokowych), należy sformułować dwie hipotezy: Pierwsza głosi, że przeciętna średnica pierścieni odpowiada specyfikacji. Ta hipoteza jest zwana hipotezą zerową (H0). Druga, hipoteza alternatywna (H1) głosi, że średnica dostarczonych pierścieni odchyla się od specyfikacji bardziej niż o dozwoloną wartość. Tego typu hipotezy mogą być formułowane nie tylko w przypadku liczbowej oceny właściwości, ale również wówczas, gdy ocena właściwości ma charakter alternatywny. Na przykład, hipoteza alternatywna (H1), zakłada, że rzeczywista frakcja wadliwych części w partii przewyższa pewien procent. Intuicyjnie powinno być oczywiste, że im większa różnica pomiędzy H0 i H1, tym mniejsza próbka jest potrzebna do wykrycia tej różnicy (zob. Podstawowe pojęcia ).
Prawdopodobieństwa błędów I i II rodzaju (alfa i beta)
Wróćmy do przykładu pierścieni tłokowych - są dwa typy błędów, które można popełnić przy kontroli partii pierścieni tłokowych dostarczonej właśnie do fabryki. Po pierwsze, można błędnie odrzucić hipotezę H0, tj. odrzucić partię na podstawie błędnego wniosku, że średnica pierścieni tłokowych jest niezgodna ze specyfikacją. Prawdopodobieństwo tego błędu, zwanego błędem I rodzaju, oznaczane jest przez alfa. Drugi błąd, który można popełnić, to błędne przyjęcie hipotezy H0 czyli zaakceptowanie dostawy pierścieni tłokowych pomimo faktycznej niezgodności ze specyfikacją. Prawdopodobieństwo popełnienia tego błędu, zwanego błędem II rodzaju oznaczane jest przez beta. Lepiej oczywiście mieć mniejsze prawdopodobieństwo błędów I i II rodzaju (alfa i beta), co w efekcie wiąże się z koniecznością badania większej próbki. Aby mieć 100% pewności, należałoby mierzyć każdy pojedynczy, dostarczony element.
Jednostopniowe plany badania
Budowa planu badania polega na wyborze liczności próbki, którego dokonuje się na podstawie średnich według H0/H1 i zadanych prawdopodobieństw błędu I i II rodzaju; alfa i beta. Następnie należy wziąć pojedynczą próbkę o ustalonej liczności i w oparciu o średnią w tej próbce, zdecydować, czy partię można przyjąć, czy odrzucić. Ta procedura jest nazywana jednostopniowym planem badania.
Funkcja mocy. Moc jednostopniowego planu badania odczytać można z wykresu funkcji mocy. Na wykresie takim, prawdopodobieństwo odrzucenia hipotezy zerowej H0 (i przyjęcia hipotezy H1), jest wykreślane na osi Y jako funkcja przesunięcia rzeczywistej wartości oczekiwanej względem wartości przyjętej w specyfikacji (nominalnej) wykreślanego na osi X wykresu. To prawdopodobieństwo wynosi jeden minus prawdopodobieństwo błędu II rodzaju beta, czyli błędnego odrzucenia hipotezy H1 i przyjęcia hipotezy H0; wartość ta jest określana jako moc jednostopniowego planu badania w celu wykrycia konkretnych odchyleń. Wykres zawiera również funkcje mocy dla mniejszych liczebnie próbek.
Sekwencyjne plany badania
Alternatywą w stosunku do jednostopniowych planów badania jest sekwencyjne, losowe wybieranie pojedynczych pierścieni tłokowych i zapisywanie ich odchylenia od specyfikacji. Podczas trwania pomiarów można obliczać ogólną sumę odchyleń od specyfikacji. Tak więc, jeśli hipoteza H1 jest prawdziwa, czyli przeciętna średnica pierścieni tłokowych w partii nie odpowiada założonej wartości, można oczekiwać powolnego wzrostu lub spadku skumulowanej sumy odchyleń, zależnie od tego, czy przeciętna średnica w partii jest większa czy mniejsza od wartości podanej w specyfikacji. W efekcie, sekwencyjne próbkowanie pojedynczych elementów z partii jest procedurą bardziej czułą niż jednostopniowe próbkowanie. Próbkowanie należy kontynuować aż do przyjęcia lub odrzucenia partii.
Wykorzystanie sekwencyjnego planu badania. W typowej sytuacji tworzy się wykres, na którym skumulowane odchylenia od specyfikacji (wykreślone na osi Y) są nanoszone dla kolejno losowanych elementów (tj. pierścieni tłokowych, oś X). Następnie, na wykresie rysowane są dwa zestawy linii, aby zaznaczyć "korytarz", wzdłuż którego należy kontynuować wykreślanie charakterystyki z próbek. Losowanie należy kontynuować do momentu, w którym skumulowana suma odchyleń od specyfikacji wyjdzie poza ten korytarz.

Jeśli skumulowana suma odchyleń od specyfikacji wychodzi na zewnątrz korytarza, losowanie należy zakończyć. Jeśli skumulowana suma przesuwa się ponad górną linię kontrolną lub poniżej dolnej linii kontrolnej, partię należy odrzucić. Jeśli skumulowana suma przesuwa się ku środkowi, czyli ku linii centralnej, partię można zaakceptować. Należy zauważyć, że obszar wewnętrzny zaczyna się dopiero od pewnej liczby próbek. Jest to minimalna liczba próbek konieczna do zaakceptowania partii (przy ustalonym prawdopodobieństwie błędu).
Podsumowanie
Podsumowując, ideą badań odbiorczych jest wykorzystanie wnioskowania statystycznego do przyjmowania lub odrzucania całej partii towaru, w oparciu o kontrolę stosunkowo niewielu elementów z partii. Korzyścią z zastosowania wnioskowania statystycznego do podjęcia decyzji jest jasne sprecyzowanie prawdopodobieństwia podjęcia błędnej decyzji.
Ze względu na swoją moc preferowane są raczej sekwencyjne plany badania niż plany jednostopniowe. W większości przypadków, w stosunku do jednostopniowych planów badania, sekwencyjne plany badania wymagają mniejszej liczby elementów do kontroli przed podjęciem decyzji o takim samym stopniu pewności jak przy planie jednostopniowym.
| Indeks |
Wprowadzenie
Zobacz także Rozkład różny od normalnego .
Rozdział Sterowanie jakością opisuje wiele metod monitorowania jakości procesu produkcji. Jednakże, jeśli proces jest uregulowany, pojawia się pytanie "czy monitorowany proces jest zgodny z wymaganiami? Na przykład, wracając do problemu pierścieni tłokowych, jaka frakcja pierścieni tłokowych mieści się w założonych granicach specyfikacji?" Ogólnie - stawia się pytanie "jak zdolny jest proces (lub dostawca), jaka część produkowanych elementów zawiera się w granicach specyfikacji?" Większość procedur i wskaźników opisanych tutaj została wprowadzona w Stanach Zjednoczonych przez koncern samochodowy Forda (Kane, 1986). Procedury te pozwalają na podsumowanie zdolności procesu za pomocą procentów i wskaźników liczbowych.
W tej części będą najpierw omówione obliczenia i interpretacja wskaźników zdolności procesu dla przypadków o rozkładzie normalnym. Jeśli rozkład danej charakterystyki jakościowej odbiega od rozkładu normalnego, zmodyfikowane wskaźniki zdolności zostaną obliczone w oparciu o percentyle dopasowanego rozkładu innego niż normalny.
Uwaga dla menedżerów. Należy zwrócić uwagę, że sprawdzanie zdolności procesu, jeśli jest on rozregulowany, nie ma sensu. Jeśli średnie kolejno pobieranych próbek mają duży i niestabilny rozrzut lub wyraźnie odbiegają od założonych specyfikacji to proces powinien zostać najpierw uregulowany. Dlatego pierwszym krokiem w kierunku osiągnięcia procesu zapewniającego wysoką jakość jest doprowadzenie go do stanu uregulowania (stabilności), poprzez zastosowaniu kart kontrolnych, dostępnych w rozdziale Sterowanie jakością .
Podejście obliczeniowe
Jeśli proces jest uregulowany (stabilny), można zadać pytanie dotyczące jego zdolności do spełnienia wymagań. Odpowiedź na to pytanie oparta jest na wnioskowaniu statystycznym i jest podobna do prezentowanych wcześniej planów badania. Wracając do przykładu pierścieni tłokowych - mając próbkę o danej liczności, można szacować odchylenie standardowe procesu, czyli rozrzut otrzymywanych średnic pierścieni. Potem można wykreślić histogram rozkładu średnic pierścieni tłokowych. Jak wcześniej zaznaczono, jeśli rozkład jest normalny, wówczas można wyciągnąć wnioski dotyczące frakcji pierścieni tłokowych mieszczących się pomiędzy wyspecyfikowanymi granicami.

(W kwestii rozkładów innych niż normalny zobacz tak zwaną metodę percentyli ). Przejrzyjmy teraz główne wskaźniki, które zazwyczaj wykorzystuje się do opisu zdolności procesu.
Wskaźniki zdolności procesu
Granice zmienności procesu. Zazwyczaj najpierw ustala się granice ±3 sigma wokół wartości nominalnej specyfikacji. Przy czym, granice sigma powinny być takie same jak te, które utrzymują proces w stanie uregulowanym za pomocą kart kontrolnych Shewharta (zob. Sterowanie jakością ). Te granice wyznaczają zmienność procesu. Jeśli zostaną użyte granice ±3 sigma, wówczas opierając się na rozkładzie normalnym, można oceniać, że w przybliżeniu 99% wszystkich pierścieni tłokowych będzie mieściło się w tych granicach.
Granice specyfikacji LSL, USL. Zazwyczaj inżynierowie wymagają określenia przedziału dopuszczalnych (akceptowanych) wartości. W rozważanym przykładzie można określić dopuszczalne granice średnicy pierścieni tłokowych na poziomie 74,0 ± 0,02 mm. Dolna granica przedziału tolerancji (LSL) dla tego procesu wynosi 74,0 - 0,02 = 73,98. Górna granica przedziału tolerancji (USL) wynosi 74,0 + 0,02 = 74,02. Te dwie wartości wyznaczają przedział tolerancji, a różnica USL i LSL jest długością tego przedziału.
Potencjalna zdolność (Cp). Jest to najprostszy i najbardziej bezpośredni wskaźnik zdolności procesu. Jest on definiowany jako stosunek przedziału tolerancji do długości przedziału zmienności procesu. Akceptując granice ±3 sigma, wskaźnik ten można wyrazić jako:
Cp = (USL-LSL)/(6*Sigma)
Iloraz ten mówi jaka część zakresu krzywej normalnej mieści się w zadanych granicach specyfikacji (o ile średnia jest zgodna z wartością nominalną, czyli proces jest wycentrowany, zob. poniżej).
Bhote (1988) zauważa, że w czasach przed powszechnym wykorzystywaniem statystycznych technik kontroli jakości (przed 1980 rokiem), w przeciętnych przedsiębiorstwach amerykańskich, w przybliżeniu wskaźnik ten wynosił Cp=0,67. Co oznacza 5% frakcji braków. W późniejszych latach 80. tylko około 30% procesów znajdowało się poniżej tego poziomu jakości (zob. Bhote 1988, str. 51). Dobrze oczywiście byłoby, gdyby wskaźnik ten był większy niż 1. A więc, gdyby uzyskać taką zdolność procesu, aby nie było (lub prawie nie było) punktów wypadających poza granice specyfikacji. Interesujący jest fakt, że Japończycy we wczesnych latach 80. przyjęli w swoich przedsiębiorstwach jako standard Cp=1,33! Zdolność procesu wymagana w produkcji towarów wysokiej technologii jest nawet wyższa; fabryka Minolty ustaliła wskaźnik Cp na 2,0 jako swoje minimum (Bhote, str. 53) i jako standard dla dostawców. Należy zwrócić uwagę, że wysoka zdolność procesów powoduje raczej zmniejszenie niż zwiększenie kosztów, uwzględniając koszty związane z niską jakością produktów. Problem ten zostanie omówiony później.
Frakcja zdolności (Cr). Ten wskaźnik jest równoważny wskaźnikowi zdolności procesu (Cp); konkretnie, jest on jego odwrotnością (Cr=1/Cp).
Dolna/górna potencjalna zdolność: Cpl, Cpu. Główną wadą wskaźników Cp i Cr jest możliwość dezinformacji, jeśli proces nie jest ustawiony na wartości nominalnej, czyli jeśli nie jest wycentrowany. Niewycentrowanie może być ujawnione i wyrażone przez niżej podane wzory. Po pierwsze, wskaźniki dolnej i górnej zdolności mogą zostać obliczone dla wykazania odchylenia średniej obserwowanego procesu od LSL i USL. Przyjmując ±3 sigma jako zakres zmienności procesu, oblicza się następujące wskaźniki:
Cpl = (Średnia - LSL)/3*Sigma
i
Cpu = (USL - Średnia)/3*Sigma
Jeśli te wartości nie są sobie równe to proces nie jest wycentrowany.
Niewycentrowanie (K). Można skorygować Cp ze względu na efekt niewycentrowania. W szczególności można obliczyć:
K = abs(Wartość nominalna - Średnia)/(1/2*(USL - LSL))
gdzie abs oznacza wartość bezwzględną. Ten czynnik korekcyjny wyraża niewycentrowanie (nominalna minus średnia) w stosunku do przedziału tolerancji (specyfikacji).
Przedstawiona doskonałość (Cpk). Ostatecznie Cp może zostać skorygowany ze względu na efekt niewycentrowania poprzez obliczenie:
Cpk = (1-k)*Cp
Jeśli proces jest doskonale wycentrowany, wówczas wartość K jest równa zero i Cpk jest równe Cp. Jeśli proces odbiega od wartości nominalnej, wówczas K wzrasta i Cpk staje się mniejsze niż Cp.Potencjalna zdolność II: Cpm. Ostatnia modyfikacja (Chan, Cheng i Spiring, 1988) dotycząca wskaźnika Cp jest ukierunkowana na poprawę estymacji wartości sigma ze względu na efekt niewycentrowania (przypadkowego). W szczególności można obliczyć alternatywną wartość sigma (Sigma2) jako:
Sigma2 = {
(xi - TS)2/(n-1)}½
gdzie:
Sigma2 oszacowana wartość sigma
xi wartość i-tej obserwacji
TS wartość nominalna
n liczba obserwacji.
Następnie można wykorzystać alternatywną wartość sigma do obliczenia wskaźnika Cp tak jak poprzednio. Jednakże tak powstały wskaźnik będzie nazywany Cpm.
Możliwości procesu a jego zdolność
Kiedy proces jest monitorowany poprzez karty kontrolne (np. karta X-średniego i R, zob. Sterowanie jakością ), często wskazane jest obliczenie wskaźników zdolności procesu. Kiedy zbiór danych składa się z wielu próbek, takich jak dane zebrane do kart kontrolnych, można obliczyć dwa różne wskaźniki zmienności danych. Jeden, to zwykłe odchylenie standardowe wszystkich obserwacji (pomija się wtedy fakt, że dane składają się z wielu próbek). Drugi jest estymatorem wewnętrznej zmienności procesu, na podstawie wewnętrznej zmienności próbki. Można wtedy, o ile jest wykreślana karta X-średniego i R wykorzystać zwykły estymator Rśr/d2 sigmy procesu (zob. Duncan, 1974; Montgomery, 1985). Należy jednak zauważyć, że ten estymator jest dopuszczalny, jeśli proces jest stabilny statystycznie. Szczegółowa dyskusja na temat różnicy pomiędzy ogólną a wewnętrzną wariancją procesu jest przedstawiona w podręczniku ASQC/AIAG (ASQC/AIAG, 1991, str. 80).
Kiedy w obliczeniach standardowej zdolności użyta jest ogólna zmienność procesu, wynikowe wskaźniki są zazwyczaj określane jako wskaźniki wykonania procesu (jako że opisują rzeczywiste wykonanie procesu), podczas gdy wskaźniki obliczone na podstawie wewnętrznej zmienności (sigma wewnątrz próbki) są określane jako wskaźniki zdolności.
Wykorzystanie doświadczeń do poprawy zdolności procesu
Jak wcześniej zauważono, im wyższy wskaźnik Cp, tym lepszy proces - i nie ma właściwie górnych ograniczeń tej zależności. Zagadnienie kosztów jakości, to jest strat związanych ze złą jakością, jest omawiane szczegółowo w kontekście metod planowania Taguchiego (zob. Planowanie doświadczeń ). Ogólnie, wyższa jakość jest opłacalna; nawet jeśli koszty produkcji mogą wzrosnąć, straty związane ze złą jakością, na przykład z reklamacjami klientów, utratą rynku itd. są zazwyczaj znacznie wyższe. W praktyce, dwa lub trzy dobrze zaplanowane doświadczenia przeprowadzone w ciągu kilku tygodni, mogą często prowadzić do osiągnięcia wskaźnika Cp większego niż 5. Czytelnika niezorientowanego w problematyce tych metod, a zainteresowanego poprawą jakości odsyłamy do rozdziału Planowanie doświadczeń .
Sprawdzanie założenia o normalności rozkładu
Omówione dotychczas wskaźniki mogą być zastosowane, jeśli badana charakterystyka jakości ma rozkład normalny. Stosowane są specjalne testy do sprawdzania zgodności z rozkładem normalnym (testy normalności Kołmogorowa-Smirnowa i Chi-kwadrat ). Testy te są opisane w większości podręczników statystyki, zostały także omówione szczegółowo w rozdziale Statystyki nieparametryczne i rozkłady .
Wizualnym sposobem sprawdzenia normalności rozkładu jest wykres P-P (prawdopodobieństwo - prawdopodobieństwo ) i K-K (kwantyl - kwantyl ) dla rozkładu normalnego. Więcej informacji można znaleźć w podrozdziale Rozkład różny od normalnego .
Granice tolerancji
Zanim, we wczesnych latach osiemdziesiątych zostały wprowadzone wskaźniki zdolności procesu, powszechną metodą charakteryzowania procesu produkcji była estymacja granic tolerancji procesu (zob. na przykład, Hald, 1952). Logika tej metody jest następująca. Najpierw zakłada się, że dana charakterystyka jakości ma rozkład normalny; następnie można estymować dolną i górną granicę przedziału, który zapewnia, z określonym poziomem ufności (prawdopodobieństwem), że określony procent populacji zawarty jest w tych granicach. Innymi słowy, mając dane:
Zobacz także, Rozkład różny od normalnego .
| Indeks |
Wprowadzenie
Analiza powtarzalności i odtwarzalności pomiarów stosowana jest w celu osiągnięcia właściwej precyzji pomiarów. Celem badania powtarzalności i odtwarzalności jest podzielenie zmienności wyników pomiarów na: (1) zmienność mierzonych elementów lub części (wariancja międzygrupowa), (2) zmienność pomiarów operatora (odtwarzalność) i (3) błędy pomiarów na przestrzeni kilkunastu pomiarów prowadzonych przez tego samego operatora, dla tych samych części (powtarzalność). W idealnym przypadku cała zmienność pomiarów będzie odpowiadać wariancji międzygrupowej i tylko nieistotna część zmienności będzie pochodziła od niepełnej odtwarzalności operatora i niepełnej powtarzalności pomiarów.
Wracając do przykładu pierścieni tłokowych, jeśli chcemy wykryć odchylenie od wartości nominalnej wynoszące 0,01 mm, wówczas oczywiste staje się użycie w pomiarach urządzeń o dostatecznej precyzji. Procedury tutaj opisywane pozwalają inżynierom szacować precyzję pomiarów i różnych operatorów (użytkowników) tych urządzeń pomiarowych, odpowiednio do naturalnej zmienności elementów.
Można obliczać standardowe wskaźniki powtarzalności, odtwarzalności i wariancję międzygrupową, w oparciu albo o rozstęp (ciągle stosowany w tego rodzaju eksperymentach), albo o tablicę analizy wariancji ANOVA (jeden z przykładów jest opisany w ASQC/AIAG, 1990, str. 65). Tablica ANOVA będzie również zawierała test F (test istotności statystycznej) dotyczący wzajemnego oddziaływania operatora i części, oszacowane wariancje, odchylenia standardowe i przedziały ufności dla składników modelu ANOVA.
Można również obliczać poszczególne procenty ogólnej wariancji i wyznaczyć tak zwane statystyki procentu tolerancji. Ich krótkie omówienie znajduje się w kolejnych częściach wprowadzenia. Dodatkowe informacje można znaleźć w książkach Duncan (1974), Montgomery (1991) lub DataMyte Handbook (1992); kolejne instrukcje i przykłady są również prezentowane w książce ASQC/AIAG Measurement systems analysis reference manual (1990) i ASQC/AIAG Fundamental statistical process control reference manual (1991).
Możemy przeprowadzać analizę wariancji w układach czynnikowych lub bardziej specjalistycznych. Omówienie tych modułów oraz rodzajów układów dla których one się najlepiej nadają znajduje się w rozdziale Metody przeznaczone do przeprowadzania analizy wariancji . W szczególności metody opisane w rozdziale Komponenty wariancyjne i model mieszany ANOVA/ANCOVA doskonale nadają się do analizy układów z dużą liczbą efektów głównych (np. dla układów, które zawierają ponad 200 poziomów w obrębie czynnika) lub układów z wieloma czynnikami.
Podejście obliczeniowe
Przyjmuje się, że każdy wynik pomiaru jest sumą następujących składników:
Metoda mierzenia (system pomiarowy) jest odtwarzalna, jeśli różne osoby prowadzące pomiar dochodzą do takich samych wyników. Metoda pomiaru jest powtarzalna, jeśli powtórzone pomiary tej samej części są identyczne. Obie te charakterystyki - odtwarzalność i powtarzalność - będą oddziaływać na precyzję systemu pomiarowego.
Można projektować doświadczenia szacujące wielkość każdego składnika, czyli odtwarzalności, powtarzalności i zmienności pomiędzy częściami i w ten sposób oceniać precyzję systemu pomiarowego. W istocie, ta procedura wnosi do analizy wariancji (ANOVA ) planowanie doświadczeń, które zawiera jako czynniki różne części, operatorów i powtarzalne pomiary. Można wówczas szacować odpowiednie składniki wariancji służące do oceny powtarzalności (wariancja odpowiadająca zróżnicowaniu pomiędzy pomiarami), odtwarzalności (wariancja odpowiadająca różnicom pomiędzy operatorami) i zmienność pomiędzy częściami (wariancja wynikająca z różnic pomiędzy częściami). Ogólne idee dotyczące koncepcji ANOVA można znaleźć w rozdziale ANOVA/MANOVA . To potężne narzędzie może być również wykorzystane w badaniu powtarzalności i odtwarzalności.
Wykresy powtarzalności i odtwarzalności
Istnieje kilkanaście sposobów prezentacji wyników badania powtarzalności i odtwarzalności za pomocą wykresów. Rozpatrzmy następujący przykład: powiedzmy, że produkuje się małe piece przemysłowe, które są wykorzystywane do suszenia materiałów dla innych procesów produkcyjnych. Piece te powinny działać docelowo w temperaturze około 100 stopni Celsjusza. W badaniu, 5 operatorów bada tę samą próbkę 8 pieców (części), każdy 3 razy (3 pomiary). Mając wyniki pomiarów, możemy na przykład wykreślić średnie dla 8 części, dla każdego operatora. Jeśli system pomiarowy jest odtwarzalny, wówczas układ średnich poszczególnych części dla 5 inżynierów, którzy uczestniczyli w badaniach, powinien być podobny.
Karty R i S. W rozdziale Sterowanie jakością szczegółowo omawiane są idee wykresów R (rozstępu) i S (sigmy) do kontrolowania zmienności procesu. Te idee mogą zostać tutaj wykorzystane i można utworzyć wykres rozstępu (lub wartości sigm) operatorów lub części. Wykresy te pozwalają na identyfikację punktów leżących poza liniami kontrolnymi wśród operatorów lub części. Jeśli jeden z operatorów wygenerował szczególnie duży rozstęp pomiarów, to można próbować wykryć, dlaczego ta osoba miała kłopoty przy dokonywaniu pomiarów (np. może nie zrozumiała instrukcji korzystania z urządzenia pomiarowego).

Analogicznie, tworząc kartę R dla części, można identyfikować te, które sprawiały trudności w pomiarach. Badając daną część, której pomiary charakteryzują się dużą zmiennością, można dowiedzieć się czegoś o słabości systemu pomiarowego.
Wykres podsumowujący powtarzalność i odtwarzalność. Wykres podsumowujący pokazuje indywidualne pomiary każdego operatora. Mówiąc dokładniej, pomiary są pokazane w postaci odchyleń od poszczególnych przeciętnych wartości dla kolejnych części. Punkty przedstawiające pomiary przeprowadzone przez każdego operatora, są umieszczone w ramce, wskazującej na ogólny rozstęp pomiarów wykonywanych przez kolejne osoby. Linia centralna w każdej ramce przedstawia przeciętne odchylenie od przeciętnej pomiarów tej samej części dla wszystkich operatorów (zob. wykres poniżej).

Składniki wariancji (zob. także rozdział Wprowadzenie do komponentów wariancyjnych i modelu mieszanego ANOVA/ANCOVA )
Procent zmienności procesu a tolerancja. Procent tolerancji pozwala na ocenę funkcjonowania systemu pomiarowego z uwzględnieniem wszystkich zmian procesu i odpowiednich przedziałów tolerancji. Zdefiniujmy przedział akceptowalnej tolerancji dla części oraz wielokrotność przedziałów sigma. Ta druga wartość jest wykorzystywana w obliczeniach do definiowania zakresu (przedziału) odpowiedniej zmienności (powtarzalność, odtwarzalność, międzygrupowa itd.). W szczególności, domyślna wartość (5,15) definiuje 5,15 razy pojedynczą wartość sigma jako estymowany przedział wartości. Przypuśćmy - na przykład - że przedział akceptowalnej tolerancji dla danych wynosi 3 jednostki pomiarowe. Po kliknięciu tej opcji zostanie zasugerowana specyfikacja przedziału tolerancji (Ogólna tolerancja dla części; wprowadź 3) i Liczba przedziałów sigma (domyślna wynosi 5,15). Ta druga wartość jest wykorzystywana w obliczeniach do definiowania rozstępu (rozrzutu) konkretnej (powtarzalność, odtwarzalność, międzygrupowa itd.) zmienności. W szczególności, domyślna wartość (5,15) definiuje 5,15 razy estymowany wartość sigma jako przedział wartości. Jeśli dane mają rozkład normalny, wówczas ten rozstęp odpowiada 99% obszaru pod krzywą normalną, czyli przedział będzie zawierał 99% wszystkich wartości (lub błędów odtwarzalności/powtarzalności) dotyczących danego źródła zmienności.
Procent zmienności procesu. Ta wartość przedstawia zmienność pochodzącą z różnych źródeł w stosunku do ogólnej zmienności (rozstępu) pomiarów.
Analiza wariancji. Metoda obliczeń składników wariancji oparta na rozstępach jest najszerzej opisaną metodą estymacji składników powtarzalności i odtwarzalności. Dokładniejsza metoda obliczania tych ocen jest oparta na kwadratach średnich ANOVA (patrz Duncan, 1974, ASQC/AIAG, 1990).
Uściślając, te trzy czynniki (operatorzy, części, próby) badań R&R można traktować jako trzy losowe czynniki w modelu ANOVA (zob. również Ogólna ANOVA/MANOVA). Szczegóły dotyczące różnych modeli, które są zazwyczaj brane pod uwagę, można zaleźć w ASQC/AIAG (1990, str. 92-95) lub w książce Duncana (1974, str. 716-734). Zazwyczaj przyjmuje się, że wszystkie efekty interakcji czynników próby są nieistotne. To założenie wydaje się zasadne, ponieważ, na przykład, trudno wyobrazić sobie, jak pomiary części mogą się systematycznie różnić w kolejnych próbach, w szczególności, kiedy części i próby są pobierane losowo.
Jednakże interakcja Operatora względem części może być ważna. Na przykład, można sobie wyobrazić, że pewna grupa mniej doświadczonych operatorów może generować pomiary obciążone i stąd mogą się pojawić systematyczne różnice pomiarów dla danych części. Jeśli tak, to można oczekiwać interakcji dwuczynnikowej (w części Ogólna ANOVA/MANOVA można znaleźć terminologię dotyczącą ANOVA).
Jeśli interakcja dwuczynnikowa okazuje się istotna statystycznie, to można oddzielnie oszacować składniki wariancji.
W przypadku istotności interakcji , połączona zmienność powtarzalności i odtwarzalności jest definiowana jako suma trzech składników: powtarzalności (błąd urządzenia pomiarowego), zmienności generowanej przez operatora i zmienności generowanej przez układ operator-część.
Jeśli interakcja Operator-część jest statystycznie nieistotna, można zastosować prostszy model addytywny bez uwzględnienia tych interakcji .
Summary
Podsumowując: celem procedur badania powtarzalności i odtwarzalności jest ustalenie precyzji systemu pomiarowego (urządzeń pomiarowych), używanego w procesie kontroli jakości. Oczywiście, jeśli system pomiarowy nie zapewnia powtarzalności (duża zmienność wśród prób), lub nie jest odtwarzalny (duża zmienność wśród operatorów) w stosunku do zmienności pomiędzy częściami, wówczas system pomiarowy nie jest wystarczająco precyzyjny, aby móc sprostać wymogom kontroli jakości. I tak na przykład, nie powinien być używany w kartach kontrolnych opisanych w rozdziale Sterowanie jakością lub w analizie zdolności procesu i planach badań wyrywkowych znajdujących się w części Analiza procesu.
| Indeks |
Wprowadzenie
Ogólny cel. Idea zdolności procesu opisana jest w szczegółach w rozdziale Analiza zdolności procesu . Podczas ustalania jakości procesu produkcyjnego użyteczna jest ocena frakcji wyprodukowanych elementów, które nie mieszczą się w przedziale tolerancji, w stosunku do liczby wszystkich wyprodukowanych elementów. Na przykład, tak zwany wskaźnik Cp jest obliczany jako:
Cp - (USL-LSL)/(6*sigma)
gdzie sigma jest oszacowanym odchyleniem standardowym procesu, a USL i LSL to górna i dolna granica specyfikacji. Jeśli rozkład badanej właściwości (np. średnica pierścieni tłokowych) jest normalny oraz proces jest doskonale wycentrowany (tj. średnia jest równa wartości nominalnej), wówczas wskaźnik ten może być interpretowany jako stopień, w jakim zakres zmienności rozkładu normalnego mieści się w granicach specyfikacji. Jeśli proces nie jest wycentrowany, zamiast Cp używany jest skorygowany wskaźnik Cpk.
Rozkłady, które nie są normalne. Do obserwowanego rozkładu danych możemy dopasować rozkłady inne niż normalny i obliczyć wskaźniki zdolności w oparciu o te, odpowiednio dopasowane rozkłady (przy pomocy tzw. metody percentyli). Dodatkowo, zamiast obliczania wskaźników zdolności poprzez dopasowanie konkretnego rozkładu, możemy obliczyć wskaźniki zdolności oparte na dwóch różnych ogólnych rodzinach rozkładów - rozkładach Johnsona (Johnson, 1965; również Hahn i Shapiro, 1967) i rozkładach Pearsona (Johnson, Nixon, Amos i Pearson, 1963; Gruska, Mirkhani i Lamberson, 1989; Pearson i Hartley, 1972) - które pozwalają na aproksymację szerokiej gamy rozkładów ciągłych. Dla wszystkich rozkładów możemy również obliczyć tabelę częstości, oczekiwaną liczbę obserwacji poza specyfikacjami, wykresy K-K (kwantyl-kwantyl ) i P-P (prawdopodobieństwo-prawdopodobieństwo ). Tę metodę obliczania wskaźników zdolności procesu, na podstawie takich rozkładów, opisuje Clements (1989).
Wykresy kwantyl - kwantyl (K-K) i wykresy prawdopodobieństwo - prawdopodobieństwo (P-P). Jest wiele różnorodnych metod szacowania jakości dopasowania do obserwowanych danych. Dodatkowo, obok tablicy obserwowanych i oczekiwanych częstości dla różnych przedziałów, testów dobroci dopasowania Kołmogorowa - Smirnowa i Chi-kwadrat , możemy obliczyć kwantyle i utworzyć wykresy dla wszystkich rozkładów. Wykresy te są tak skonstruowane, że jeśli obserwowane dane są zgodne z rozkładem, to punkty empiryczne na wykresie układają się wzdłuż prostej.
Dopasowanie rozkładów za pomocą momentów
Do danych, oprócz konkretnych rozkładów ciągłych, możemy dopasować ogólne rodziny rozkładów - tak zwanych krzywych Johnsona i Pearsona - których celem jest dopasowanie czterech pierwszych momentów obserwowanych rozkładów.
Założenia ogólne. Kształt większości rozkładów ciągłych może być dostatecznie określony poprzez pierwsze cztery momenty. Innymi słowy, jeśli można dopasować do histogramu taki rozkład, który ma taką samą średnią (pierwszy moment), wariancję (drugi moment), skośność (trzeci moment) oraz kurtozę (czwarty moment) jak obserwowane dane, to wówczas zazwyczaj można bardzo dobrze aproksymować cały kształt rozkładu. Jeśli rozkład jest dopasowany, można obliczyć wartości percentyli pod (standaryzowaną) dopasowaną krzywą i oszacować frakcje elementów wytworzonych w procesie, mieszczących się w granicach specyfikacji.
Krzywa Johnsona. Johnson (1949) opisał system krzywych liczności, które reprezentują transformacje standaryzowanych krzywych normalnych (szczegóły w książce Hahn i Shapiro, 1967). Poprzez zastosowanie tych transformacji do standaryzowanych zmiennych normalnych, aproksymowanych może być wiele rozkładów, które nie są normalne, łącznie z ograniczonymi jednostronnie lub dwustronnie (np. rozkłady w kształcie litery U). Zaletą dopasowania krzywej Johnsona jest możliwość wykorzystania całki rozkładu normalnego do obliczeń percentyli. Metody dopasowania krzywych Johnsona, jak również aproksymowania pierwszych czterech momentów rozkładów empirycznych, są opisane szczegółowo w pracach Hahn i Shapiro, 1967, str. 1992-20; oraz Hill, Hill i Holder, 1976.
Krzywe Pearsona. Inny system rozkładów został zaproponowany przez Karla Pearsona (zob. Hahn i Shapiro, 1967, str. 220-224). System ten składa się z siedmiu rozwiązań (spośród 12 podanych przez Pearsona) równania różniczkowego, które również aproksymuje szeroki zakres rozkładów o różnych kształtach. Gruska, Mirkhani i Lamberson (1989) opisują szczegółowo, jak różne krzywe Pearsona mogą być dopasowane do empirycznych rozkładów. Metoda obliczenia percentyli Pearsona jest opisana przez Davisa i Stephensa (1983).
Ocena dopasowania: wykresy kwantyli i prawdopodobieństwa
Dla każdego rozkładu możemy obliczyć tabelę oczekiwanych i zaobserwowanych częstotliwości, a także testy dobroci dopasowania Chi-kwadrat i d Kołmogorowa-Smirnowa. Jednakże najlepszym sposobem oszacowania jakości dopasowania rozkładu teoretycznego do zaobserwowanego jest porównanie wykresów zaobserwowanych rozkładów z dopasowanymi rozkładami teoretycznymi. Istnieją dwa standardowe typy wykresów wykorzystywane w tym celu: wykresy kwantyl-kwantyl (K-K) i wykresy prawdopodobieństwo-prawdopodobieństwo (P-P).
Wykresy kwantyl-kwantyl (K-K). Na wykresach kwantyl-kwantyl (w skrócie K-K), obserwowane wartości zmiennej wykreślane są względem teoretycznych kwantyli. Aby utworzyć wykres K-K, najpierw sortujemy n zaobserwowanych punktów danych w porządku niemalejącym, to jest:
x1
x2
...
xn
Obserwowane wartości wykreślane są na jednej osi wykresu; na drugiej umieszcza się wielkość:
F-1 ((i-rpop)/(n+npop))
gdzie: i jest rangą obserwacji, rpop i npop są poprawkami (
0,5) a F-1oznacza odwrotność dystrybuanty standaryzowanego rozkładu. Wykresem wynikowym (zob. poniżej)jest wykres rozrzutu
obserwowanych wartości względem (standaryzowanych) oczekiwanych wartości wynikających z testowanego rozkładu. Należy zauważyć, że dodatkowo, dla odwrotności dystrybuanty, możemy także pokazać, na przeciwległej osi, skumulowane wartości prawdopodobieństwa całkowitego, czyli wykres będzie pokazywał nie tylko teoretyczny rozkład, ale także wartości p.

Dobre dopasowanie teoretycznego rozkładu do danych mamy wtedy, gdy otrzymane punkty układają się wzdłuż linii prostej. Należy zauważyć, że poprawki rpop i npop zapewniają, że wartości p będą się mieściły w przedziale (0,1), bez wartości 0 i 1 (zob. Chambers, Cleveland, Kleiner i Tukey, 1983).
Wykres prawdopodobieństwo-prawdopodobieństwo (P-P). Na wykresach prawdopodobieństwo-prawdopodobieństwo (lub w skrócie P-P) dystrybuanta empiryczna kreślona jest względem dystrybuanty teoretycznej. Tak jak na wykresach K-K, obserwacje są najpierw sortowane w porządku niemalejącym. Następnie i-ta obserwacja rysowana jest na jednej osi jako i/n (tj. wartość obserwowanego rozkładu skumulowanego), a na drugiej osi jako F(x(i)), gdzie F(x(i)) stanowi wartość teoretycznej dystrybuanty dla odpowiedniej obserwacji x(i). Jeśli teoretyczny rozkład skumulowany dobrze przybliża rozkład obserwowany, wówczas punkty na wykresie powinny leżeć blisko przekątnej (jak na poniższym wykresie).

Wskaźniki zdolności procesów o rozkładach innych niż normalny (metoda percentyli)
Wskaźniki zdolności procesu są obliczane w celu oceny jakości procesu, czyli względnego zakresu zmienności produkowanych elementów w stosunku do przedziału tolerancji. Standardowo, wskaźniki zdolności bazują na rozkładzie normalnym, gdzie przedział zmienności procesu jest definiowany jako 6 razy sigma, czyli ±3 razy odchylenie standardowe procesu. Dla standaryzowanej krzywej normalnej, te granice (zl = -3 i zu = +3) stanowią odpowiednio 0,135 percentyl i 99,865 percentyl. W przypadkach rozkładów, które nie są normalne, granice 3 sigma podobnie jak średnia (zM = 0,0) mogą być zastąpione przez odpowiednie wartości standardowe, dające takie same percentyle, pod krzywą, która nie jest krzywą rozkładu normalnego. Ta procedura opisana jest przez Clementsa (1989).
Wskaźniki zdolności procesu. Poniżej pokazano wzory do obliczenia wskaźników zdolności procesów o rozkładzie innym niż normalny:
Cp = (USL-LSL)/(Up-Lp)
CpL = (M-LSL)/(M-Lp)
CpU = (USL-M)/(Up-M)
Cpk = Min(CpU, CpL)
W tych równaniach, M jest percentylem 50% (medianą) dla odpowiedniego, dopasowanego rozkładu, a Up i Lp to, odpowiednio percentyle 99,865 i 0,135, jeśli obliczenia są oparte na przedziale zmienności procesu wynoszącym ±3 sigma. Należy zwrócić uwagę, że wartości Up i Lp mogą być inne, jeśli przedział zmienności procesu jest inaczej zdefiniowany (np. ±2 sigma).
| Indeks |
Niezawodność produktu lub składnika stanowi istotny element decydujący o jego jakości. Szczególnie ważne jest ilościowe ujęcie niezawodności wyrobu pozwalające na ocenę czasu trwania jego przydatności. Dla przykładu, załóżmy, że latamy małym jednosilnikowym samolotem. Jest niewątpliwie sprawą istotną (a nawet można powiedzieć zasadniczą dla bezpieczeństwa i życia) posiadanie informacji o tym jakie jest prawdopodobieństwo awarii silnika w różnych stadiach jego eksploatacji (np. po 500 godzinach pracy, po 1000 godzinach pracy, itp.). Dysponując wiarygodną oceną niezawodności silnika i przedziałem ufności dla tej oceny można podjąć racjonalną decyzję o tym, kiedy należy wymienić silnik lub oddać go do kapitalnego remontu.
Rozkład Weibulla jest użytecznym, ogólnym rozkładem prawdopodobieństwa, mającym zastosowanie w badaniu niezawodności (zobacz też: Dystrybuanta rozkładu Weibulla, funkcja niezawodności i intensywności uszkodzeń ). Rozkład ten wziął nazwę od nazwiska szwedzkiego profesora Waloddiego Weibulla, który pokazał jego przydatność do modelowania różnych danych (zob. np. Hahn i Shapiro, 1967). Rozkład Weibulla znalazł między innymi zastosowanie w modelowaniu czasu eksploatacji elementów elektronicznych, przekaźników, łożysk kulkowych a nawet czasu istnienia przedsiębiorstw).
Funkcja intensywności uszkodzeń (funkcja ryzyka) i krzywa wanny (rampy). Często wygodne jest posługiwanie się funkcją wyrażającą prawdopodobieństwo uszkodzenia w krótkim przedziale czasu (przy założeniu, że do tej chwili urządzenie pracowało bezawaryjnie). Funkcja ta nazywana jest funkcją intensywności uszkodzeń (czasami również funkcją hazardu, funkcją ryzyka, warunkową funkcją uszkodzeń lub funkcją siły wymierania). Jest ona zdefiniowana jako
h(t) = f(t)/(1-F(t))
gdzie h(t) oznacza funkcję intensywności uszkodzeń zaś f(t) i F(t) są odpowiednio gęstością i dystrybuantą rozkładu Weibulla. Funkcja ryzyka dla większości wyrobów (składników i kompletnych urządzeń) podobna jest kształtem do "wanny". We wczesnym stadium eksploatacji maszyny (okres docierania) intensywność występowania uszkodzeń jest stosunkowo duża ("efekt nowości" lub "umieralność noworodków"). Następnie, po okresie docierania, intensywność uszkodzeń spada i utrzymuje się na jednakowym, niskim poziomie. Pod koniec okresu eksploatacji intensywność awarii znowu rośnie (okres zużycia wyrobu) aż wszystkie urządzenia ulegną awarii.
Na przykład, nowe auta często na początku ulegają drobnym awariom, w okresie bezpośrednio po zakupie. Po okresie "docierania" następuje najczęściej długi okres bezawaryinej eksploatacji a następnie, po pewnym okresie użytkowania intensywność awarii rośnie by wreszcie, po 20 latach i 500 000 kilometrach przebiegu praktycznie wszystkie auta przestały być zdatne do użytku. Typowy kształt krzywej wanny pokazano niżej.

Rozkład Weibulla ma tę zaletę, że jest dostatecznie elastyczny by odtworzyć kluczowe fazy przebiegu funkcji ryzyka o postaci typowej krzywej wanny. Poniżej pokazano funkcje ryzyka dla parametrów kształtu c=0,5, c=1, c=2, c=5.

Wyraźnie widać, że wczesną "fazę" krzywej rampy można dobrze modelować funkcją intensywności uszkodzeń Weibulla z parametrem kształtu c<1, stałą fazę krzywej dobrze opisuje funkcja z parametrem kształtu c=1 a ostatnią "fazę zużycia" funkcja z parametrem kształtu c>1.
Dystrybuanta i funkcje niezawodności. Kiedy już dopasujemy do danych rozkład Weibulla (z określonymi wartościami parametrów), wtedy możemy obliczyć szereg wskaźników niezawodności. Na przykład, możemy obliczyć dystrybuantę dobranego rozkładu F(t) wraz z błędami dopasowania tej dystrybuanty. Zatem możemy określić percentyle rozkładu zdatności (i uszkodzeń) i na przykład przewidzieć okresy czasu, w których określony odsetek elementów prawdopodobnie ulegnie uszkodzeniu.
Funkcja niezawodności (oznaczana przez R(t); R-reliability) jest dopełnieniem dystrybuanty do jedynki (tzn. R(t)=1-F(t)). Funkcja niezawodności nazywana bywa czasami funkcją przeżycia lub przetrwania (ponieważ wyraża prawdopodobieństwo bezawaryjnej pracy w przedziale czasu t, zob. np. Lee 1992). Poniżej pokazano funkcję niezawodności w przypadku rozkładu Weibulla dla różnych wartości parametrów kształtu.

Dla wartości parametru kształtu mniejszych od 1 niezawodność gwałtownie maleje w początkowym okresie a następnie szybkość spadku zmniejsza się. Dla parametrów kształtu większych od 1 początkowy spadek niezawodności jest mały by następnie zwiększyć się znacznie. Punkt, w którym wszystkie krzywe się przecinają nazywa się zdatnością charakterystyczną
. Niezależnie od wartości parametru kształtu, 63,2% populacji ulegnie awarii do tego momentu (tzn. R(t)=1-0,632=0,368). Punkt ten jest jest równy parametrowi skali dla dwuparametrowego rozkładu Weibulla
(gdy
= 0; w przeciwnym wypadku jest równy b+
).
Wzory na dystrybuantę rozkładu Weibulla, funkcję niezawodności i funkcję intensywności uszkodzeń można znaleźć w podrozdziale Dystrybuanta rozkładu Weibulla, funkcja niezawodności i intensywności uszkodzeń .
W większości badań niezawodności produktów nie wszystkie badane jednostki z próby ulegają uszkodzeniom w czasie trwania badania. Innymi słowy badacz po zakończeniu badań wie jedynie tyle, że pewna liczba obiektów nie uległa uszkodzeniu w określonym przedziale czasu lecz nie zna czasów awarii tych obiektów (tzn. odpowiedzi na pytanie "kiedy te obiekty uległyby awarii?"). Tego typu dane nazywamy danymi uciętymi . Zagadnienie ucinania oraz różne metody analizy danych uciętych są szczegółowo opisane w części Analiza przeżycia . Ucinanie może przejawiać się w kilku postaciach.
Ucinanie typu I i typu II. Tzw. ucinanie typu I dotyczy sytuacji kiedy kończymy test w określonej chwili czasu i tym samym o pozostałych obiektach wiemy tylko tyle, że nie uległy awarii do tej chwili (np. zaczynamy ze 100 żarówkami i kończymy eksperyment po upływie określonego czasu). W takim wypadku czas ucięcia jest ustalony, a liczba wyrobów uszkodzonych jest zmienną losową. W przypadku ucinania typu II eksperyment jest prowadzony aż do chwili kiedy określona frakcja wyrobów ulegnie uszkodzeniu (np. kończymy doświadczenie kiedy przepaleniu ulegnie 50 żarówek). W takim przypadku liczba uszkodzeń jest ustalona, a czas jest zmienną losową.
Ucinanie lewo i prawostronne. Innego rodzaju rozróżnienia można dokonać rozpatrując "stronę przedziału czasowego", z której dokonujemy odcięcia . W przykładach przytaczanych wyżej obcięcie dokonywane było zawsze z prawej strony (ucięcie prawostronne) ponieważ badacz wie kiedy eksperyment się rozpoczął a obcięcia dokonuje po zakończeniu (po prawej stronie) przedziału czasu. Jest wszakże do pomyślenia, że ucięcie dokonywane jest po lewej stronie tego przedziału (ucięcie lewostronne). Na przykład w badaniach medycznych może być wiadome, że pacjent przybył do szpitala w określonym czasie i że przeżył następnie jakiś okres czasu, ale nie można się dowiedzieć kiedy choroba się zaczęła lub kiedy została zdiagnozowana.
Ucinanie jednokrotne i wielokrotne. Wreszcie należy uwzględnić sytuacje kiedy ucinanie danych może się zdarzyć wielokrotnie w różnych chwilach czasu (ucinanie wielokrotne) lub też w jednej określonej chwili czasu (ucinanie jednokrotne). Wracając do przykładu z żarówkami, jeśli eksperyment przerywany jest w określonej chwili czasu wtedy mamy do czynienia z ucięciem jednokrotnym a zbiór danych nazywamy jednokrotnie uciętym. W badaniach medycznych zdarzają się jednak sytuacje wielokrotnego ucinania, na przykład wtedy, kiedy pacjenci są wypisywani ze szpitala po wielu różnych zabiegach a badacz dysponuje wiedzą, że pacjent przeżył za każdym razem do tej określonej (i za każdym razem innej) chwili, w której nastąpiło ucięcie (utrata kontaktu z pacjentem).
Metody opisane w tej części dotyczą przede wszystkim ucinania prawostronnego i danych zarówno jednokrotnie jak i wielokrotnie uciętych .
Rozkład Weilbulla dwu i trójparametrowy.
Rozkład Weibulla
jest ograniczony z lewej strony. Jeśli przyjrzeć się funkcji gęstości rozkładu to łatwo zauważyć, że wielkość x-
musi być większa od zera. W większości przypadków parametr
(teta)jest znany (zazwyczaj wynosi 0). Parametr ten określa najmniejszy możliwy czas uszkodzenia (czas do pierwszego uszkodzenia). Bywa jednak tak, że prawdopodobieństwo awarii elementu wynosi zero jeszcze w przeciągu pewnego czasu od chwili rozpoczęcia badania. Wówczas może być niezbędne estymowanie parametru położenia, który będzie większy od zera. Jest szereg metod oceny parametru położenia w przypadku trójparametrowego rozkładu Weibulla. Dodson (1994) zaleca aby w praktyce przyjrzeć się wznoszącej i opadającej części ogonów wykresu prawdopodobieństwa (zobacz niżej) oraz występowaniu dużych wartości parametru kształtu (>6) po dopasowaniu dwuparametrowego rozkładu Weibulla, bo to może wskazywać na fakt, że w istocie mamy do czynienia z rozkładem trójparametrowym z niezerowym parametrem położenia.
Estymacja metodą największej wiarygodności. Do obliczania parametrów dwu- i trójparametrowego rozkładu Weibulla zarówno dla danych zawierających obserwacje ucięte, jak i bez obserwacji uciętych możemy wykorzystać metodę największej wiarygodności . Konkretne metody oceny tych parametrów opisane są u Dodsona (1994), zaś szczegółowy opis metody iteracyjnej Newtona-Rapsona oceny parametrów rozkładu dwuparametrowego metodą największej wiarygodności opisany jest w pracy Keatsa i Lawrencea (1997).
Ocena parametru położenia w trójparametrowym rozkładzie Weibulla stwarza pewne problemy, których dyskusję znaleźć można u Lawlessa (1982). W szczególności, jeśli parametr kształtu jest mniejszy od 1, to nie istnieje rozwiązanie metodą największej wiarygodności. W innych przypadkach natomiast może się okazać, że funkcja wiarygodności posiada więcej niż jedno maksimum (tzn. wiele maksimów lokalnych). W tym ostatnim przypadku Lawless zaleca użycie najmniejszego czasu awarii (lub wielkości odrobinę mniejszej) jako wartości parametru położenia.
Nieparametryczne wykresy prawdopodobieństwa (oparte na rangach). Ocenę dystrybuanty rozkładu (niezależnie od typu rozkładu) można otrzymać w ten sposób, że najpierw obliczymy rangi obserwacji a potem którekolwiek z następujących wyrażeń:
Ranga medialna:
F(t) = (j-0.3)/(n+0.4)
Ranga średnia:
F(t) = j/(n+1)
Punkt kreślenia Whitea:
F(t) = (j-3/8)/(n+1/4)
gdzie j oznacza rangę uszkodzenia (dla danych wielokrotnie uciętych oblicza się rangę średnią ważoną , zobacz Dodson, str. 21) zaś n jest liczbą obserwacji. Można wtedy utworzyć następujący wykres.

Zwróćmy uwagę, że pozioma oś czasu jest wyskalowana logarytmicznie, zaś na osi pionowej odkładana jest wartość log(log(100/(100-F(t)))) (lewa oś y opisana jest w skali prawdopodobieństwa). Z takiego wykresu można odczytać parametry dwuparametrowego rozkładu Weibulla . Parametr kształtu jest równy współczynnikowi nachylenia dopasowanej linii prostej a parametr skali można obliczyć jako exp(-wyraz wolny/nachylenie).
Wyznaczanie parametru położenia z wykresu prawdopodobieństwa. Przyglądając się wykresowi powyżej wyraźnie widać, że linia regresji jest dobrze dopasowana do danych. Gdyby parametr położenia był źle wyznaczony (na przykład nie byłby równy zero) wtedy jakość dopasowania liniowego staje się znacznie gorsza w porównaniu do wykresu z dobrze dobranym parametrem położenia. Wynika z tego, że można spróbować narysować wykres prawdopodobieństwa kilka razy dla różnych wartości parametru położenia i oceniając jakość dopasowania liniowego dobrać odpowiednią wartość tego parametru. Takie postępowanie podsumowane jest na poniższym wykresie.

Do oceny jakości dopasowania na wykresie prawdopodobieństwa dla różnych wartości parametru położenia użyto tu zwykłej miary w postaci współczynnika R-kwadrat (kwadrat współczynnika korelacji). Stosowanie takiego wykresu jest zazwyczaj użyteczne gdy dopasowanie trójparametrowego rozkładu Weibull Weibulla metodą największej wiarygodności zawodzi. Pokazuje on bowiem czy istnieje jedna wartość optymalna czy też nie.
Wykres ryzyka. Inną metodą oceny parametrów dwuparametrowego rozkładu Weibulla jest skorzystanie z wykresu funkcji intensywności uszkodzeń (funkcji ryzyka jak opisano to już wcześniej funkcja ta określa prawdopodobieństwo warunkowe uszkodzenia w krótkim przedziale czasu pod warunkiem, że do tej chwili nie nastąpiło żadne uszkodzenie). Metoda jest podobna do metody wykorzystującej wykres prawdopodobieństwa. Najpierw rysujemy wykres skumulowanej funkcji ryzyka względem logarytmu czasu bezawaryjnej pracy, a następnie dopasowujemy do punktów linię prostą i obliczamy jej nachylenie i wyraz wolny. Parametr kształtu równy jest nachyleniu tej linii, a parametr skali oblicza się jako exp(- wyraz wolny/nachylenie). Zob. Dodson (1994) oraz podrozdział Dystrybuanta rozkładu Weibulla, funkcja niezawodności i intensywności uszkodzeń .
Metoda momentów. Metoda ta, polegająca na odtworzeniu momentów rozkładu empirycznego poprzez dobranie stosownych wartości parametrów rozkładu Weibulla , jest szeroko opisywana w literaturze. Stosowana jest głównie do dopasowywania ogólnych rozkładów różnych od normalnego w postaci krzywych Johnsona , w celu obliczania wskaźników wydolności procesów przy odstępstwie od normalności (zobacz Dopasowywanie rozkładów metodą momentów ). Metoda ta jednak nie nadaje się dla danych uciętych i w analizach niezawodności jest mało przydatna.
Porównanie metod estymacji parametrów. Dodson (1994) opisuje wyniki badań metodą symulacji Monte Carlo porównania różnych metod oceny parametrów. Wyniki można podsumować następująco: dla próbek o dużych licznościach (n>15) najlepsze wyniki daje metoda największej wiarygodności , zaś przy małych próbach lepiej oceniać parametry metodą wykresów prawdopodobieństwa i ryzyka .
Uwaga o konieczności ostrożnego traktowania granic przedziałów ufności w metodzie największej wiarygodności. Wiele programów komputerowych oblicza przedziały ufności dla ocen parametrów oraz dla oceny funkcji niezawodności w oparciu o szacunek błędów standardowych w metodzie największej wiarygodności . Dodson (1994) przestrzega przed nadmiarem zaufania w interpretowaniu takich przedziałów ufności, a dokładniej rzecz biorąc nadmiarem zaufania do ocen wynikających z macierzy korelacji parametrów w metodzie największej wiarygodności. W przypadkach kiedy parametr kształtu jest mniejszy niż 2 oceny te mogą mieć małą dokładność. Wskazane jest wtedy także korzystanie z wykresów bazujących na ocenach nieparametrycznych.
Zaproponowano wiele różnych testów do oceny jakości dopasowania rozkładu Weibulla do danych. Szczegółowa dyskusja tych testów znajduje się u Lawlessa (1982).
Test Hollandera-Proschana. Test ten porównuje teoretyczną funkcję niezawodności z oceną Kaplana-Meiera . Metoda obliczeń jest stosunkowo złożona (po szczegółowy opis procedur obliczeniowych odsyłamy do Dodsona, 1994, rozdział 4). Test Hollandera-Proschana może być stosowany do danych kompletnych, uciętych i wielokrotnie uciętych . Dodson (1994) przestrzega jednak, że wyniki testu mogą być niewiarygodne w przypadku danych silnie jednokrotnie uciętych. Statystyka C Proshana-Hollandera może być testowana względem rozkładu normalnego (z).
Test Manna-Scheuera-Fertiga. Test ten, zaproponowany przez Manna, Scheuera i Fertiga (1973) opisany jest szczegółowo u Dodsona (1994) i Lawlessa (1982). Hipotezą zerową jest tu założenie, że populacja podlega rozkładowi Weibulla z wartościami parametrów wynikłymi z estymacji. Nelson (1982) potwierdza wysoką moc tego testu a ponadto test ten może być stosowany do danych uciętych typu II . Po szczegóły obliczeniowe odsyłamy do Dodsona (1994) i Lawlessa (1982). Wartości krytyczne statystyki testowej obliczone zostały metodą Monte Carlo i są stabelaryzowane dla próbek o liczności n od 3 do 25. Dla n>25 testu tego się nie przeprowadza.
Test Andersona-Darlinga. Procedura Andersona-Darlinga przeprowadza ogólny test zgodności dystrybuanty rozkładu empirycznego z dystrybuantą teoretyczną. Test ten jednak ma zastosowanie jedynie do danych kompletnych (bez obserwacji uciętych ). Wartości krytyczne zostały stablicowane (zobacz Dodson (1994), Tabela 4.4) dla próbek o wielkościach pomiędzy 10 a 40. Dla próbek spoza tego przedziału (n<10 lub n>40) testu tego się nie przeprowadza.
Kiedy już osiągnęliśmy wystarczająco dobre dopasowanie rozkładu Weibulla do zbioru danych pomiarowych czasów uszkodzeń, to mamy do dyspozycji zestaw różnorakich wykresów i tabel ułatwiających analizę niezawodności badanego produktu. Ponadto nawet jeśli dostatecznie dobre dopasowanie rozkładu Weibulla nie jest możliwe, możemy skorzystać z ocen niezawodności niezależnych od rozkładu w celu określenia kształtu funkcji niezawodności.
Wykresy niezawodności. Wykres ten pokazuje funkcję niezawodności wraz z przedziałami ufności tej funkcji.

Przypomnijmy, że można także obliczać i rysować nieparametryczne (niezależne od rozkładu) estymatory niezawodności i ich błędy standardowe.
Wykresy funkcji ryzyka. Jak wspomniano wcześniej funkcja ryzyka (intensywności uszkodzeń) opisuje prawdopodobieństwo uszkodzenia w przeciągu krótkiego okresu czasu pod warunkiem, że do tego czasu nie wystąpiło żadne uszkodzenie. Wykres funkcji ryzyka jako funkcji czasu zawiera cenną informację o takim warunkowym prawdopodobieństwie.
Percentyle funkcji niezawodności. W oparciu o dopasowany rozkład Weibulla można obliczać percentyle funkcji niezawodności , jak i odpowiednie przedziały ufności (metodą największej wiarygodności ). Są to informacje szczególnie istotne przy obliczaniu oczekiwanej frakcji wyrobów ulegających uszkodzeniu po upływie określonego czasu.
Niekiedy dane o czasach uszkodzeń są dostarczane w postaci danych zagregowanych. Na przykład zamiast dysponować dokładnym czasem awarii dla każdego przypadku posiadamy jedynie informację o tym ile obiektów uległo uszkodzeniu lub podległo ucięciu w określonym przedziale czasu. Podobne dane o czasach przeżycia opisywane są w rozdziale Analiza przeżycia . Są dwa różne podejścia do dopasowania rozkładu Weibulla do danych zagregowanych.
Pierwsze podejście polega na traktowaniu danych stabelaryzowanych tak jakby były one danymi ciągłymi. Tak więc zakładamy, że: (1) każda obserwacja w danym przedziale czasowym opisuje uszkodzenie dokładnie w środku tego przedziału (z interpolacją w "pół kroku" dla ostatniego przedziału) i (2) ucięcie zdarza się po uszkodzeniu w danym przedziale (innymi słowy obserwacje ucięte są sortowane po momentach uszkodzenia). Lawless (1982) twierdzi, że taka metoda jest zadowalająca jeśli przedziały klasowe są stosunkowo wąskie.
Alternatywą jest traktowanie takich danych jako tabeli przeżycia i użycie algorytmu ważonych najmniejszych kwadratów (Gehan i Siddiqui, 1973; zobacz również Lee, 1992) dla dopasowania rozkładu Weibulla (Lawless, 1982, opisuje również metody obliczania parametrów największej wiarygodności , otrzymywanych z danych zagregowanych).
Zmodyfikowana ranga uszkodzenia dla danych wielokrotnie uciętych
Dla danych wielokrotnie uciętych obliczana jest średnia ważona ranga dla każdego uszkodzenia po pierwszym obciętym punkcie danych. Tak obliczone rangi są następnie użyte w celu obliczenia rangi medialnej do oceny dystrybuanty.
Zmodyfikowana ranga j jest obliczana jako (zobacz Dodson (1994):
Ij = ((n+1)-Op)/(1+c)
gdzie:
Ij przyrost dla j-tego uszkodzenia
n liczność próbki
Op ranga poprzedniej obserwacji (Oj = Op + Ij)
c liczba pozostałych punktów danych w próbie włączając punkt bieżący.
Ranga medialna obliczana jest jako:
F(t) = (Ij -0.3)/(n+0.4)
gdzie Ij oznacza zmodyfikowaną rangę uszkodzenia a n jest licznością próby.
Dystrybuanta rozkładu Weibulla, funkcja niezawodności i intensywności uszkodzeń
Funkcja gęstości prawdopodobieństwa. Rozkład Weibulla (Weibull, 1939, 1951; zobacz też Lieblein, 1955) charakteryzuje się następującą funkcją gęstości prawdopodobieństwa (z dodatnimi parametrami b, c, i
):
f(x) = c/b*[(x-
)/b]c-1 * e^{-[(x-
)/b]c}
< x, b > 0, c > 0
gdzie
x czas
b parametr skali
c parametr kształtu
parametr położenia
e stała e (=2.71828...)
Dystrybuanta. Rozkład Weibulla ma dystrybuantę (z dodatnimi parametrami b, c, i
):
F(x) = 1 - exp{-[(x-
)/b]c}
gdzie użyte są te same oznaczenia co powyżej w funkcji gęstości.
Funkcja niezawodności. Funkcja niezawodności rozkładu Weibulla jest dopełnieniem dystrybuanty do jedności:
R(x) = 1 - F(x)
Funkcja ryzyka. Funkcja ryzyka
wyraża prawdopodobieństwo uszkodzenia w krótkim przedziale czasu pod warunkiem, że do tej chwili (x) uszkodzenie nie wystąpiło. Funkcja ryzyka dla rozkładu Weibulla wyraża się wzorem (z dodatnimi parametrami b, c, i
):
h(t) = f(t)/R(t) = [c*(x-
)(c-1)] / bc
gdzie użyte są te same oznaczenia co powyżej w funkcji gęstości i funkcji niezawodności .
Skumulowana funkcja ryzyka. Rozkład Weibulla ma skumulowaną funkcję ryzyka
(z dodatnimi parametrami b, c, i
):
H(t) = (x-
) / bc
gdzie użyte są te same oznaczenia co powyżej w funkcji gęstości i funkcjach niezawodności.
| Indeks |
