© Copyright StatSoft, Inc., 1984-2024
Przeszukaj Internetowy Podręcznik Statystyki
Planowanie doświadczeń (DOE)


Wprowadzenie

Badania doświadczalne w nauce i przemyśle

Metody doświadczalne są szeroko używane tak w badaniach poznawczych, jak i w zastosowaniach przemysłowych, choć czasem dla osiągnięcia odmiennych celów. Podstawowym celem badań naukowych jest wykazanie, że wpływ wybranego czynnika na interesującą badacza wielkość jest statystycznie istotny (szczegóły dotyczące podstaw istotności statystycznej wyjaśnione są w części Pojęcia podstawowe ).

W przemyśle podstawowym celem jest zazwyczaj uzyskanie maksymalnej ilości nieobciążonych wyników opisujących czynniki wpływające na proces produkcji, dodatkowo przy tak małej liczbie pomiarów (koszty), jak to tylko możliwe. Podczas gdy we wcześniejszych zastosowaniach (w nauce) metody analizy wariancji (ANOVA ) były i są stosowane do odkrywania wzajemnych powiązań natury wyrażających się w złożonych współdziałaniach (interakcjach ) czynników, o tyle w zastosowaniach przemysłowych efekty wynikające ze współdziałania są uważane za "uciążliwość" (często w ogóle pozostają poza zainteresowaniami; komplikują jedynie proces identyfikacji czynników istotnych).

Różnice metodyczne

Powyższe różnice celów znajdują głębokie odzwierciedlenie w metodach, które są stosowane w tych dwóch obszarach. Jeżeliby przejrzeć typowe opisy ANOVA dla naukowców, np. klasyczne publikacje Winera (1962) lub Keppela (1982), zauważa się, iż rozważali oni przede wszystkim plany doświadczeń uwzględniające co najwyżej, powiedzmy, pięć wielkości wejściowych (plany z liczbą wielkości wejściowych większą niż 6 są zazwyczaj niepraktyczne; zob. rozdział ANOVA/MANOVA ). Wspomniane wyżej publikacje koncentrują się na zagadnieniu, jak zbudować poprawne i mocne statystyczne testy istotności. Z kolei, jeżeliby spojrzeć na typowe publikacje dotyczące badań doświadczalnych w przemyśle (Box, Hunter i Hunter, 1978; Box i Draper, 1987; Mason, Gunst i Hess, 1989; Taguchi, 1987) można zauważyć, że rozpatrywane są przede wszystkim plany z dużą liczbą wielkości wejściowych (np. 16 lub 32), w przypadku których nie można dokonać oceny wpływu współdziałania wielkości wejściowych, natomiast podstawowym zagadnieniem jest konstrukcja nieobciążonych estymatorów opisujących wpływ pojedynczych wielkości wejściowych (oraz ewentualnie interakcji pomiędzy dwoma wielkościami) przy minimalnej liczbie pomiarów.

Takie porównanie można rozwijać szerzej. Dalej zamieszczony jest bardziej szczegółowy opis planowania doświadczeń w przemyśle i pojawiają się tam inne jeszcze różnice metodyczne. Zauważmy, że rozdziały Ogólne modele liniowe oraz ANOVA/MANOVA zawierają dokładne omówienia wyników typowego planu doświadczenia zastosowanego w badaniach naukowych oraz, że procedura Ogólnych modeli liniowych jest bardzo obszerną implementacją ogólnego modelu liniowego w stosunku do ANOVA/MANOVA. Oczywiście, są takie zastosowania przemysłowe, gdzie ogólne plany ANOVA mogą być używane z równym powodzeniem, jak w badaniach naukowych. Obszerniejszą ocenę metod określanych mianem Planowanie doświadczeń można uzyskać po przeczytaniu rozdziałów Ogólne modele liniowe oraz ANOVA/MANOVA .

Wprowadzenie

Poniżej omówione są ogólne idee i zasady leżące u podstaw badań doświadczalnych w przemyśle oraz typy używanych planów doświadczeń. Tekst ten został pomyślany jako wprowadzenie. Niemniej zakłada się, że Czytelnik jest zaznajomiony z podstawowymi pojęciami analizy wariancji i sposobami interpretacji efektów głównych i interakcji . W przeciwnym przypadku zaleca się wcześniejsze zapoznanie się z treścią Wprowadzenia do rozdziału ANOVA/MANOVA oraz rozdziałem Ogólne modele liniowe ).

Ogólne koncepcje

Każde urządzenie używane w procesie produkcyjnym umożliwia obsłudze regulację ustawień wartości, tzw. nastaw wielu czynników (wielkości wejściowych) wpływających na końcową jakość produktu (wielkość wyjściową) wykonywanego przy pomocy tego urządzenia. Eksperyment pozwala inżynierowi na regulację tych nastaw w sposób systematyczny i rozpoznanie, które czynniki mają największy wpływ na końcową jakość. Dzięki uzyskanej w ten sposób wiedzy nastawy mogą być nieprzerwanie poprawiane, aż do uzyskania optymalnej jakości. Dla zilustrowania powyższych zdań przytoczymy kilka przykładów zastosowań:

Przykład 1: Produkcja barwnika. Box i Draper (1987, str. 115) opisują eksperyment dotyczący produkcji pewnego barwnika. W przyjętym kontekście jakość może być opisana przy pomocy pojęć pożądanego (wyspecyfikowanego) odcienia i jaskrawości oraz maksymalnej trwałości końcowego produktu. Ponadto ważne jest, aby wiedzieć, co należy zmienić w celu wyprodukowania innych odcieni i jaskrawości, gdy zmienią się gusta klientów. Mówiąc innymi słowy, eksperymentator chciałby zidentyfikować czynniki, które wpływają na jaskrawość, odcień i trwałość końcowego produktu. W przykładzie opisanym przez Boxa i Drapera przyjęto 6 różnych wielkości wejściowych rozpisanych w planie doświadczenia 2(6-0) (notacja typu 2(k-p) jest objaśniona poniżej). Rezultaty przeprowadzonych badań pokazały, że trzy najważniejsze czynniki określające trwałość produktu to: ilość wielosiarczków, czas i temperatura (zob. Box i Draper, 1987, str. 116). Oczekiwany efekt (przewidywane średnie) dla interesującej wielkości (tu np. trwałość produktu) można przedstawić na tzw. wykresie sześciennym (cubic plot). Wykres ten pokazuje oczekiwaną (przewidywaną) średnią trwałość produktu, odpowiednio przy dolnych i górnych ustawieniach każdej z trzech wielkości (czynników).

Przykład 1.1: Plany eliminacyjne (screening designs). W omawianym uprzednio przykładzie brano jednocześnie pod uwagę 6 różnych wielkości wejściowych. Nie są rzadkością sytuacje, gdy należy uwzględnić bardzo dużą liczbę (np. 100) różnych wielkości wejściowych, które mogą być potencjalnie ważne. Dla takich przypadków, wymagających efektywnego (tj. z najmniejszą możliwą liczbą pomiarów) uwzględnienia dużej liczby wielkości wejściowych opracowano specjalne eliminacyjne plany doświadczeń (np. plany Placketta-Burmana, zob. Plackett i Burman, 1946). Dla przykładu można rozważyć doświadczenie wymagające uwzględnienia 127 wielkości wejściowych i tylko 128 pomiarów; w dalszym ciągu będzie można określić efekt główny dla każdej wielkości i dzięki temu szybko zidentyfikować wielkości istotne eliminując inne nieistotne oraz wprowadzić poprawki do badanego procesu.

Przykład 2: Plan 33. Montgomery (1976, str. 204) opisuje eksperyment przeprowadzony dla zidentyfikowania czynników, które wpływają na powstawanie strat syropu do napojów wskutek zjawiska pienienia się w trakcie napełniania pięciogalonowych metalowych zbiorników. Rozważano trzy wielkości wejściowe: (a) konfigurację końcówki, (b) operatora maszyny i (c) ciśnienie. Każda wielkość przyjmowała trzy różne wartości, w efekcie czego otrzymano plan kompletny 3(3-0) (notacja 3(k-p) jest wyjaśniona poniżej).

Dodatkowo dla każdej kombinacji ustawień wielkości wejściowych przeprowadzono po dwa pomiary, tak więc plan 3(3-0) został całkowicie powtórzony.

Przykład 3: Maksymalizacja wydajności reakcji chemicznej. Wydajność wielu reakcji chemicznych jest funkcją czasu i temperatury. Niestety, powyższe dwa czynniki często wpływają na końcową wydajność w sposób nieliniowy. Innymi słowy, nie jest tak, że "im dłuższy czas, tym wyższa wydajność", ani też "im wyższa temperatura, tym wyższa wydajność". Oba czynniki wiąże z końcową wydajnością zależność nieliniowa.

Dlatego też w niniejszym przykładzie celem eksperymentatora jest optymalizacja powierzchni wydajności, która powstaje na wykresie przestrzennym wykonanym względem tych dwóch czynników: czasu i temperatury.

Przykład 4: Pomiar skuteczności czterech dodatków paliwowych. W przypadkach, gdy wielkości wyjściowe są mierzone przy więcej niż dwóch wartościach wielkości wejściowych oraz specyfika zagadnienia sugeruje podział na bloki, używa się planów kwadratów łacińskich (ang. latin square designs). Można, dla przykładu, rozważyć badanie 4 dodatków paliwowych mających zmniejszyć wydzielanie tlenków azotu (zob. Box, Hunter i Hunter, 1978, str. 263). Do dyspozycji jest 4 kierowców i 4 samochody. Badający nie jest zainteresowany uzyskaniem informacji o wpływie poszczególnych kierowców i samochodów na wydzielanie tlenków azotu; wyniki nie powinny być jednak obciążone błędem systematycznym powodowanym przez poszczególnych kierowców lub samochody. Plany kwadratów łacińskich umożliwiają oszacowanie głównych efektów wszystkich zmiennych wejściowych planu w postaci nieobciążonej. Odnosząc się do powyższego przykładu, ustalenie wartości wielkości wejściowych w układach planu kwadratu łacińskiego daje pewność, że różnice pomiędzy kierowcami i samochodami nie wpływają na oszacowanie wpływu różnych dodatków paliwowych.

Przykład 5: Poprawianie jednorodności warstw podłoży krzemowych. Wytwarzanie niezawodnych mikroprocesorów wymaga bardzo dużej stabilności procesu produkcyjnego. Należy tu zwrócić uwagę na to, że w omawianym przykładzie równie ważne, jeśli nie ważniejsze, jest sterowanie zmiennością pewnych cech produktu jak uzyskanie średniej wartości tej cechy. Dla przykładu, proces produkcyjny nakładania warstw krzemowych może być idealnie sterowany w zakresie utrzymywania średniej grubości warstwy; jeżeli jednak zmienność grubości warstwy będzie zbyt duża, to uzyskiwane mikroprocesory mogą być zawodne. Phadke (1989) opisuje, jak rozmaite elementy procesu produkcyjnego (takie jak temperatura fazy gazowej, ciśnienie fazy gazowej, przepływ azotu itp.) wpływają na zmienność grubości warstwy krzemowej nakładanej na podłoże. Jednak nie istnieje żaden model teoretyczny, który pozwoliłby inżynierowi przewidzieć, jak wspomniane czynniki wpływają na jednorodność warstw. Dlatego też do optymalizacji procesu produkcyjnego wymagane jest przeprowadzenie systematycznych badań. Jest to typowy przykład, w którym można zastosować metodę Taguchi (ang. Taguchi robust design).

Przykład 6: Plany dla mieszanin. Cornell (1990, str. 9) przytoczył przykład typowego (prostego) zagadnienia mieszanin. W konkretnym przykładzie badania były przeprowadzone w celu określenia, przy jakich proporcjach różnych gatunków ryb (Mullet, Sheepshead i Croaker) uzyskuje się optymalną strukturę pasztecików rybnych, które z tych ryb są produkowane. W przeciwieństwie do planów nie odnoszących się do mieszanin, tutaj suma udziałów musi być stała, na przykład 100%. Wyniki uzyskiwane w takim eksperymencie są zazwyczaj przedstawiane graficznie w postaci tzw. przestrzennego wykresu o podstawie trójkątnej (triangular graphs).

Mówiąc ogólnie, podstawowy warunek mówiący o tym, że trzy składniki muszą być sumowalne do stałej wartości jest odzwierciedlony w trójkątnym kształcie dziedziny wykresu (patrz powyżej).

Przykład 6.1: Plany dla mieszanin z ograniczeniami. Wspólną cechą planów dla mieszanin jest nakładanie dodatkowych ograniczeń na względne zawartości składników (oprócz podstawowego ograniczenia polegającego na sumowaniu względnych udziałów np. do 100%). Dla przykładu można rozważyć projekt przygotowania najlepiej smakującego koktajlu owocowego, przygotowywanego z soków pięciu różnych owoców. Biorąc pod uwagę, iż ma to być koktajl, należy wykluczyć przypadki zastosowania soku wyłącznie z jednego owocu. Na przestrzeń mieszaniny można nałożyć dodatkowe ograniczenia, związane z ograniczeniami kosztów (funkcja kary) lub innymi ograniczeniami, tak aby pojedynczy sok owocowy nie mógł przekroczyć np. 30% objętości mieszaniny (inaczej np. koktajl będzie zbyt drogi, trwałość będzie zbyt krótka, nie będzie mógł być produkowany w dostatecznych ilościach itp.). Tak więc tzw. ograniczone obszary doświadczalne (constrained experimental regions) pozwala sformułować zagadnienie numeryczne, do którego można zastosować metody Planowania doświadczeń.

Podsumowując, należy planować takie doświadczenie, które może potencjalnie wydobyć największą ilość informacji o powierzchni odpowiedzi (np. smaku koktajlu owocowego) w rozpatrywanym obszarze zmian wartości wielkości wejściowych.

Problemy obliczeniowe

Planowanie doświadczeń zasadniczo pozwala odpowiedzieć na dwa podstawowe pytania:

  1. Jak zaplanować optymalne doświadczenie, oraz
  2. Jak przeprowadzić analizę uzyskanych wyników badań.
Odnosząc się do pierwszego pytania, należy stwierdzić, że istnieje wiele uwarunkowań, które prowadzą do różnych typów planów doświadczeń; zostaną one pokrótce omówione. Używając pojęć bardziej potocznych, celem jest zawsze uzyskanie nieobciążonych błędami systematycznymi (lub obciążonych w jak najmniejszym stopniu) wartości zmian poszczególnych czynników, niezależnie od wartości innych zmiennych. Opisując to pojęciami fachowymi, należy tworzyć plan doświadczenia, w którym efekty główne nie są skorelowane pomiędzy sobą oraz, w niektórych przypadkach, nie są skorelowane z interakcjami wielkości wejściowych.

Składowe wariancji, tworzenie mianownika

Jest wiele metod, które mogą posłużyć do analizy planów z efektami losowymi (zob. metody analizy wariancji ). Rozdział Komponenty wariancyjne i model mieszany ANOVA/ANCOVA zawiera opis licznych opcji umożliwiających estymację komponentów wariancyjnych dla efektów losowych i wykonanie testów F na podstawie utworzonych składników błędu.

Podsumowanie

Metody doświadczalne znajdują coraz większe zastosowanie w przemyśle do optymalizacji procesów produkcyjnych. Jednym z celów stosowania tych metod jest znalezienie optymalnych wartości dla różnych wielkości, które wpływają na proces produkcyjny. W dalszej części rozdziału wprowadzane są główne rodzaje planów doświadczeń, które są zazwyczaj używane w zastosowaniach przemysłowych: plany 2(k-p) (dwuwartościowe, dla wielu zmiennych), plany eliminacyjne dla dużej liczby wielkości wejściowych, plany 3(k-p) (trójwartościowe, dla wielu zmiennych; są także omówione plany mieszane z wielkościami dwu- i trójwartościowymi), centralne plany kompozycyjne (lub wyznaczanie powierzchni odpowiedzi), plany kwadratów łacińskich, metoda Taguchi, plany dla mieszanin oraz specjalne procedury służące do budowania planów doświadczeń w ograniczonych obszarach eksperymentu. Ciekawostką jest, iż wiele z tych metod doświadczalnych mających rodowód w zakładach przemysłowych okazało się użytecznych w obszarze zarządzania, gdzie opisano wiele skutecznych zastosowań w planowaniu dochodów w biznesie, optymalizacji przepływów finansowych w bankowości itd. (np. zob. Yokyama i Taguchi, 1975).

Wspomniane metody są bardziej szczegółowo opisane w następujących podrozdziałach:

  1. Plany frakcyjne dwuwartościowe 2(k-p)
  2. Plany frakcyjne 2(k-p) maksymalnie nieuwikłane i o najmniejszej aberracji
  3. Plany frakcyjne trójwartościowe 3(k-p), Boxa-Behnkena oraz dwu- i trójwartościowe
  4. Plany centralne kompozycyjne i wyznaczanie powierzchni odpowiedzi
  5. Plany kwadratów łacińskich
  6. Metody Taguchi
  7. Plany dla mieszanin i powierzchnie o podstawie trójkątnej
  8. Plany dla ograniczonych obszarów i mieszanin
  9. Plany D i A-optymalne

Plany frakcyjne 2(k-p)

Podstawowe koncepcje

W wielu przypadkach można przyjąć, że czynniki wpływające na proces produkcyjny przyjmują jedynie po dwie wartości. Dla przykładu: temperatura, w której przebiega proces chemiczny może być nieco wyższa lub nieco niższa; ilość rozpuszczalnika w procesie farbowania może być lekko zwiększona lub zmniejszona itp. Eksperymentator chciałby stwierdzić, czy zmiany te wpływają na wynik procesu produkcyjnego. Najbardziej intuicyjnym podejściem do tego problemu będzie zmienianie wartości wielkości wejściowych według planu kompletnego, to jest wypróbowanie wszystkich możliwych kombinacji wartości wielkości wejściowych tworzących układy planu doświadczenia. Jest to właściwy sposób postępowania; niestety, liczba niezbędnych pomiarów (układów planu) rośnie w postępie geometrycznym. Dla przykładu, aby zbadać wpływ 7 wielkości wejściowych niezbędna liczba pomiarów wynosi 27 = 128. Zbadanie wpływu 10 wielkości wejściowych pociągnie za sobą wykonanie 210 = 1024 pomiarów. Często nie jest możliwe zrealizowanie tylu różnych przebiegów produkcyjnych, ponieważ każdy przebieg wymaga czasochłonnej i kosztownej regulacji maszyn. W takich przypadkach użycie planów frakcyjnych "poświęca" efekty interakcji, lecz efekty główne w dalszym ciągu mogą być poprawnie obliczone.

Generowanie planu

Szczegółowy opis sposobu generowania (tworzenia) frakcyjnego planu doświadczenia wykracza poza zakres niniejszego wprowadzenia. Opisy sposobów tworzenia planu doświadczenia 2(k-p) można znaleźć np. u Baynea i Rubina (1986), Boxa i Drapera (1987), Boxa i Huntera oraz Huntera (1978), Daniela (1976), Deminga i Morgana (1993), Masona i Gunsta oraz Hessa (1989), Ryana (1989), wreszcie u Montgomeryego (1991), aby wymienić tylko kilka pozycji dotyczących tego tematu. Mówiąc ogólnie, do generowania układów wartości wielkości wejściowych stosuje się kolejno interakcje najwyższego rzędu (relację generującą). Dla przykładu można rozważyć plan doświadczenia, który zawiera 11 wielkości wejściowych, lecz wymaga jedynie 16 układów (pomiarów).

Plan: 2(11-7), Rozdzielczość III
Ukł.ABCDEFGHIJK
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1
1
1
1
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1
1
1
1
1
-1
-1
-1
-1
1
1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
1
1
-1
-1
1
-1
-1
1
-1
1
1
-1
1
-1
-1
1
-1
1
1
-1
1
-1
-1
1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
1
-1
-1
1
-1
1
-1
1
-1
1
1
-1
1
-1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
-1
1
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1
1
1
1
1
1
1
-1
-1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1

Interpretacja planu. Plan pokazany na powyższym arkuszu należy interpretować w następujący sposób. Każda kolumna arkusza zawiera wartości +1 lub -1 (wartości unormowane) symbolizujące poszczególne wielkości wejściowe (odpowiednio wartości większe oraz mniejsze). Tak więc w powyższym przykładzie, w pierwszym układzie planu doświadczenia wszystkie wielkości wejściowe od A do K powinny przybrać wartości większe; w układzie drugim wielkości wejściowe A, B i C powinny przybrać wartości większe, natomiast wielkość D wartość mniejszą i tak dalej. Należy pamiętać, że udostępnionych jest wiele sposobów wyświetlania (oraz zapisywania) planu doświadczenia przy pomocy notacji odmiennej niż 1. Można, dla przykładu, stosować prawdziwe wartości wielkości wejściowych (wartości rzeczywiste) (np. 90°C i 100° C) lub etykiety tekstowe (temperatura niska i wysoka).

Randomizacja układów planu. Z uwagi na to, że wiele różnych rzeczy może ulec zmianie pomiędzy cyklami produkcyjnymi poddanymi badaniom, dobrze jest w praktyce randomizować kolejność uporządkowania układów planu.

Pojęcie rozdzielczości planu

W przytoczonym uprzednio planie doświadczenia jest on określony jako plan 2(11-7) o rozdzielczości III (trzy). Oznacza to, że poddano badaniom k = 11 wielkości wejściowych (pierwsza liczba w nawiasie), jednakże p = 7 z nich (druga liczba w nawiasie) zostało wygenerowanych z interakcji planu kompletnego 2[(11-7)=4]. W wyniku tego plan nie udostępnia pełnej rozdzielczości; oznacza to, że występują pewne efekty interakcyjne, które są uwikłane (identyczne) z innymi. W ogólności, plan doświadczenia ma rozdzielczość R wówczas, gdy żadna l-czynnikowa interakcja nie jest uwikłana z jakąkolwiek inną interakcją rzędu niższego niż R - l. W rozważanym tu przykładzie R jest równe 3. Tym samym żadna interakcja rzędu l = 1 (to jest efekty główne) nie jest uwikłana z jakąkolwiek inną interakcją rzędu niższego niż R - l = 3 - 1 = 2. Tak więc efekty główne w powyższym planie doświadczenia są uwikłane z interakcjami dwuczynnikowymi; i konsekwentnie: wszystkie interakcje wyższych rzędów są równie uwikłane. W przypadku uwzględnienia 64 układów planu i wygenerowania planu doświadczenia 2(11-5) uzyskana rozdzielczość mogłaby wynosić R = IV (cztery). Stąd można wywnioskować, że żadna interakcja rzędu l = 1 (jednoczynnikowa, czyli efekt główny) nie jest uwikłana z jakąkolwiek interakcją rzędu niższego niż R - l = 4 - 1 = 3. W przypadku tego planu efekty główne nie są uwikłane z interakcjami dwuczynnikowymi, lecz tylko z trójczynnikowymi. A co z interakcjami dwuczynnikowymi? Żadna interakcja dwuczynnikowa l = 2 nie jest uwikłana z jakąkolwiek inną interakcją rzędu niższego niż R - l = 4 - 2 = 2. Oznacza to jednak, że interakcje dwuczynnikowe są uwikłane wzajemnie.

Plany Placketta-Burmana (macierze Hadamarda), plany eliminacyjne

W przypadku zaistnienia potrzeby uwzględnienia dużej liczby zmiennych w celu identyfikacji tych, które mogą być ważne (tzn. wpływają na wielkość wyjściową), można użyć planu doświadczenia, który pozwala na zbadanie największej liczby głównych efektów wielkości wejściowych przy najmniejszej możliwej liczbie układów planu. Jest to budowanie planu doświadczenia o rozdzielczości III z tak małą liczbą układów, jak to tylko możliwe. Jednym z możliwych sposobów budowania takiego planu jest złączenie wszystkich interakcji z "nowymi" efektami głównymi. Plany te często noszą nazwę planów nasyconych, gdyż wszystkie informacje dostarczane przez taki plan są używane do wyznaczenia parametrów, a tym samym nie pozostają żadne stopnie swobody służące do estymacji niedokładności w analizie wariancji ANOVA. Z uwagi na to, że "nowe" zmienne są tworzone przez przyrównanie (utożsamienie, zob. niżej) do interakcji planu kompletnego, plany powyższe mają zawsze 2k układów (tj. 4, 8, 16, 32 itd.). Plackett i Burman (1946) pokazali różne sposoby selekcjonowania planu kompletnego w celu uzyskania planu nasyconego, w którym liczba układów jest wielokrotnością 4, a nie potęgą 2. Ta grupa planów nosi niekiedy nazwę planów macierzy Hadamarda. Oczywiście, nie jest konieczne użycie wszystkich wielkości wejściowych, które występują w takim planie; czasem jednak zachodzi potrzeba wygenerowania planu nasyconego z większą od przewidywanej liczbą zmiennych. Pozwala to na statystyczne oszacowanie niedokładności oraz testowanie statystycznej istotności ocen parametrów.

Poprawa rozdzielczości przez składanie planu

Jednym ze sposobów umożliwiających poprawę rozdzielczości III planu doświadczenia i uzyskanie planu o rozdzielczości IV jest tzw. składanie (ang. foldover) (zob. np. Box i Draper, 1987, Deming i Morgan, 1993). Przykładowo, można rozważyć plan doświadczenia dla 7 wielkości wejściowych i 8 układów:

Plan: 2(7-4)
Ukł.ABCDEFG
1
2
3
4
5
6
7
8
1
1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
-1
1
-1
1
-1
1
-1
1
1
-1
-1
-1
-1
1
1
1
-1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
-1
1
1
-1

Jest to plan o rozdzielczości III, co oznacza, że interakcje dwuczynnikowe zostały uwikłane z efektami głównymi. Plan ten można rozbudować do planu o rozdzielczości IV, stosując opcję Składanie (poprawa rozdzielczości). Metoda ta dodaje na końcu planu jego kopię, ale z odwróconymi wszystkimi znakami.

Plan: 2(7-4)
 
Ukł.
 
A
 
B
 
C
 
D
 
E
 
F
 
G
Nowy:
H
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1
1
1
1
1
1
1
-1
-1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
1
-1
1
-1
1
-1
1
-1
-1
1
-1
1
-1
1
-1
1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
1
1
-1
-1
1
-1
1
-1
-1
1
-1
1
-1
1
-1
1
1
-1
1
-1
1
-1
-1
1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
-1
1
1
1
1
1
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1

W ten sposób standardowy układ 1 ma wartości -1, -1, -1, 1, 1, 1, -1; nowy układ 9 (pierwszy z uzupełnionej części) ma wszystkie znaki odwrócone: 1, 1, 1, -1, -1, -1, 1. Jako dodatek do poprawy rozdzielczości planu otrzymano ósmą wielkość wejściową (zmienna H), która ma wartość +1 dla pierwszych 8 układów i -1 dla układów z części uzupełnionej. Należy zwrócić uwagę, że uzyskany plan jest tak naprawdę planem 2(8-4) o rozdzielczości IV (zob. Box i Draper, 1987, str. 160).

Zamienniki interakcji: Relacje generujące

Nawiązując do przykładu z planem doświadczenia o rozdzielczości R = III, wiedząc, że efekty główne są uwikłane z interakcjami dwuczynnikowymi, można zadać pytanie: "Które interakcje są uwikłane z którymi efektami głównymi?".

 
 
 
Wielk.
Generatory planu frakcyjnego
2(11-7)
(Wielkości są oznaczone liczbami)
Zamiennik
  5
  6
  7
  8
  9
10
11
   123
  234
  134
  124
1234
    12
    13

Relacje generujące. Relacje generujące pokazane w powyższym arkuszu są "kluczem" do zrozumienia, w jaki sposób wartości wielkości od 5 do 11 zostały wygenerowane poprzez przypisanie ich do poszczególnych interakcji pierwszych 4 wielkości planu kompletnego 24. Konkretnie: wielkość 5 jest identyczna z interakcją 123 (wielkość 1 mnożona przez wielkość 2 mnożona przez wielkość 3). Wielkość 6 jest z kolei identyczna z interakcją 234 itd. Należy pamiętać, że plan doświadczenia ma rozdzielczość III (trzy) i należy oczekiwać, że niektóre efekty główne są uwikłane z niektórymi interakcjami dwuczynnikowymi; rzeczywiście, wielkość 10 (dziesięć) jest identyczna z interakcją 12 (wielkość 1 mnożona przez wielkość 2), a wielkość 11 (jedenaście) jest identyczna z interakcją 13 (wielkość 1 mnożona przez wielkość 3). Innym przykładem wyrażającym powyższe równoważności jest stwierdzenie, iż efekt główny dla wielkości 10 (dziesięć) stanowi zamiennik (równoważnik, odpowiednik) dla interakcji 12 (wielkość 1 mnożona przez wielkość 2). (Termin ten został po raz pierwszy użyty przez Finney'a, 1945).

Podsumowując, kiedykolwiek zachodzi potrzeba wykonania doświadczenia z mniejszą liczbą układów niż jest to wymagane przez plan kompletny 2k, "poświęca się" efekty interakcyjne i przypisuje się je do wartości wielkości wejściowych. Uzyskiwany plan nie jest już planem kompletnym, lecz frakcyjnym.

Równanie charakterystyczne (kontrast). Jeszcze jednym sposobem opisania relacji generujących jest pewne proste wyrażenie matematyczne. Zakładając, że wielkość 5 w planie frakcyjnym jest identyczna z interakcją 123 (wielkość 1 mnożona przez wielkość 2 mnożona przez wielkość 3), można pomnożyć unormowane wartości interakcji 123 przez unormowane wartości wielkości 5 uzyskując wynik +1 (w przypadku, gdy wszystkie wielkości planu miały unormowane wartości ±1). Można to zapisać jako:

I = 1235

gdzie I zastępuje wartość +1 (notacja standardowa, jak np. u Boxa i Drapera, 1987). Stąd wiadomo, że wielkość 1 jest uwikłana z interakcją 235, wielkość 2 jest uwikłana z interakcją 135, a wielkość 3 z interakcją 125, gdyż w każdym z wymienionych przypadków ich iloczyn musi być równy 1. Uwikłanie interakcji dwuczynnikowych jest także określone powyższą zależnością, ponieważ interakcja 12 mnożona przez interakcję 35 musi wynosić 1, więc są one identyczne i uwikłane. Wszystkie uwikłania występujące w planie doświadczenia można więc wyrazić powyższym równaniem charakterystycznym (kontrastem, ang. fundamental identity).

Łączenie w bloki

W przypadku niektórych procesów produkcyjnych wyroby wytwarzane są w naturalnych "zestawach" lub inaczej blokach. Należy uzyskać pewność, że podział ten nie obciąża wartości ocen efektów głównych. Przykładem może być piec przemysłowy do produkcji specjalnych wyrobów ceramicznych, którego rozmiar uniemożliwia wykonanie za jednym razem wszystkich układów planu doświadczenia. W takiej sytuacji należy podzielić plan doświadczenia na bloki. Jednakże nie należy umieszczać wszystkich dodatnich (+1) wartości zmiennych w jednym bloku, a wszystkich ujemnych (-1) w drugim, gdyż jakiekolwiek przypadkowe różnice pomiędzy blokami mogłyby w sposób systematyczny wpływać na wartości wszystkich ocen efektów głównych wielkości wejściowych. Należy tak rozdzielić układy planu pomiędzy blokami, aby jakiekolwiek różnice pomiędzy blokami stanowiące tzw. czynnik blokowości (ang. blocking factor) nie obciążały wpływu poszczególnych wielkości wejściowych. Uzyskuje się to poprzez traktowanie czynnika blokowości jako dodatkowej wielkości wejściowej planu doświadczenia. W efekcie traci się jeszcze jeden efekt interakcyjny z uwagi na czynnik blokowości i otrzymany plan ma niższą rozdzielczość. Pomimo to, plany takie bywają korzystniejsze, gdyż pozwalają na estymację i kontrolę zmienności procesu produkcyjnego powodowaną przez różnicę pomiędzy blokami.

Powtórzenia planu

W pewnych przypadkach jest pożądane, aby zastosować powtórzenia układów planu doświadczenia, to znaczy wykonać pomiary dla każdego układu planu więcej niż jeden raz. Pozwala to na późniejszą estymację tak zwanego czystego błędu (ang. pure error) doświadczenia. Analiza wyników doświadczenia będzie obszerniej omówiona w dalszej części; niezależnie od tego, należy jasno powiedzieć, że powtórzenia planu umożliwiają obliczenie zmienności wyników pomiarów wewnątrz każdego jego układu stanowiącego szczególną kombinację wartości wielkości wejściowych. Zmienność ta wskazuje na wielkość błędu losowego w pomiarach (np. z powodu niekontrolowanych czynników, niepewności przyrządów pomiarowych itp.), gdyż powtórzone pomiary wykonywane są w identycznych warunkach (tj. ustalonych wartościach wielkości wejściowych). W ten sposób ocena czystego błędu może być wykorzystana do oszacowania wpływu wielkości wejściowych, łącznie z oceną jego statystycznej istotności.

Częściowe powtórzenia. W sytuacji, gdy nie jest możliwe lub celowe powtarzanie pomiarów dla wszystkich układów planu (tj. powtórzenie całego planu doświadczenia), nadal można wyznaczyć ocenę czystego błędu przez powtórzenie jedynie niektórych układów planu. Jednakże należy uważnie rozpatrzyć możliwe obciążenia estymatorów, które mogą zostać wprowadzone poprzez selektywne powtarzanie jedynie niektórych układów planu. Jeżeli powtarzane są jedynie układy, które najłatwiej powtórzyć (np. wykonanie pomiaru jest w ich przypadku najtańsze), można pechowo wybrać takie układy, dla których losowa zmienność wielkości wyjściowej jest bardzo mała (lub bardzo duża) w efekcie prawdziwa wartość czystego błędu zostanie niedoszacowana (lub przeszacowana). W takiej sytuacji należy rozważyć, najczęściej ufając własnemu doświadczeniu i wiedzy o badanym procesie, które układy planu powinny być powtórzone, to znaczy, które układy dostarczą dobrą (nieobciążoną) ocenę czystego błędu.

Dodawanie układów centrum planu

Plany, w przypadku których wielkości wejściowe przyjmują tylko dwie wartości, zawierają niejawne założenie, iż wpływ wielkości wejściowych na wielkość wyjściową (np. trwałość produktu) jest liniowy. Nie jest rzeczą możliwą stwierdzenie, czy w relacji pomiędzy wielkością A i wielkością wyjściową występuje składnik nieliniowy (np. kwadratowy), w przypadku, gdy wielkość wejściowa A przyjmuje jedynie dwie wartości (tzw. poziom niski oraz wysoki). Jeżeli zachodzi podejrzenie, że związek pomiędzy wielkościami wejściowymi planu doświadczenia, a wielkością wyjściową może być nieliniowy, należy do planu dołączyć jeden lub kilka układów, w których wszystkie (ciągłe) wielkości wejściowe przyjmują wartości średnie. Układy takie są nazywane układami centrum planu (lub krótko: centrum), gdyż stanowią one, w pewnym sensie, centrum planu doświadczenia (patrz wykres).

W trakcie późniejszej analizy (zob. niżej) można porównać pomiary wielkości wyjściowej wykonane w centrum ze średnią z pozostałych układów planu doświadczenia. Pozwala to na proste sprawdzenie nieliniowości (zob. Box i Draper, 1987): jeżeli średnia z pomiarów wielkości wyjściowej w centrum planu doświadczenia znacząco różni się od ogólnej średniej ze wszystkich pozostałych układów planu, stanowi to dobre uzasadnienie do odrzucenia założenia o liniowym związku pomiędzy wielkościami wejściowymi a wielkością wyjściową.

Analiza wyników planu 2(k-p)

Analiza wariancji. Przyjmujemy, że niezbędne jest dokładne określenie, które wielkości wejściowe wpływają znacząco na wielkość wyjściową. W przykładzie przytoczonym przez Boxa i Drapera (1987, str. 115) pożądane jest wykrycie, które z wielkości uwzględnianych w produkcji barwników wpływają na trwałość wyrobu. W przykładzie tym, wielkość 1 (wielosiarczek), 4 (czas) i 6 (temperatura) znacząco wpływają na trwałość produktu. Należy zwrócić uwagę, że dla prostoty rozważań, tylko efekty główne są pokazane na poniższym arkuszu.

ANOVA; Zmn.:TRWAŁOŚĆ; R^2 = .60614; Popr.:.56469 (fabric.sta)
 Plan 2(6-0); MS Resztowy = 3.62509
DV: TRWAŁOŚĆ
 SSdfMSFp
(1)WIELSIAR
(2)POWRÓT
(3)MOLE
(4)CZAS
(5)ROZPUSZ
(6)TEMPERAT
Błąd
Całk. SS
48.8252
7.9102
.1702
142.5039
2.7639
115.8314
206.6302
524.6348
1
1
1
1
1
1
57
63
48.8252
7.9102
.1702
142.5039
2.7639
115.8314
3.6251
 
13.46867
2.18206
.04694
39.31044
.76244
31.95269
 
 
.000536
.145132
.829252
.000000
.386230
.000001
 
 

Czysty błąd i brak dopasowania. Jeżeli plan doświadczenia jest co najmniej częściowo powtórzony, można ocenić zmienność błędu doświadczenia korzystając z oszacowania zmienności w powtarzanych układach planu. Dzięki temu, że pomiary w takich układach są wykonywane w tych samych warunkach, to jest przy identycznych wartościach wielkości wejściowych, ocena zmienności błędu uzyskana z tych układów jest niezależna od tego, czy "prawdziwy" model jest liniowy lub nieliniowy, czy też zawierający interakcje wyższego rzędu. Tak oszacowana zmienność błędu reprezentuje czysty błąd (ang. pure error), czyli błąd pochodzący całkowicie od niepewności pomiaru wielkości wyjściowej. Jeżeli to możliwe, można użyć estymatora czystego błędu w celu oceny istotności wariancji resztowej, czyli tej części zmienności wielkości wyjściowej, która nie może być przypisana wielkościom wejściowym występującym w modelu, ani też ich interakcjom. Jeżeli zmienność resztowa jest znacząco większa od zmienności czystego błędu, to można uznać, że w dalszym ciągu występuje pewna statystycznie istotna zmienność, którą można przypisać różnicom pomiędzy grupami, a więc występuje ogólny brak dopasowania (nieadekwatność, ang. lack of fit) aktualnego modelu.

ANOVA; Zmn.:TRWAŁOŚĆ; R^2 = .58547; Pop:.56475 (fabric.sta)
 Plan 2(3-0); MS Czysty błąd = 3.594844
DV: TRWAŁOŚĆ
 SSdfMSFp
(1)WIELSIAR
(2)CZAS
(3)TEMPERAT
Brak dopasow
Czysty błąd
Całk. SS
48.8252
142.5039
115.8314
16.1631
201.3113
524.6348
1
1
1
4
56
63
48.8252
142.5039
115.8314
4.0408
3.5948
 
13.58200
39.64120
32.22154
1.12405
 
 
.000517
.000000
.000001
.354464
 
 

Przykładowo powyższy arkusz prezentuje wyniki dla trzech zmiennych, które wcześniej zostały zidentyfikowane jako najbardziej znaczące w zakresie wpływu na trwałość produktu; wszystkie pozostałe czynniki zostały zignorowane. Jak to można zobaczyć w wierszu zatytułowanym Brak dopasowania, w przypadku porównania zmienności resztowej tego modelu (to jest po usunięciu trzech efektów głównych) z estymatorem czystego błędu uzyskanym ze zmienności wewnątrz grup, wynikowa statystyka F nie jest statystycznie znacząca. Dlatego też powyższy wynik stanowi uzasadnienie wniosku, że rzeczywiście wielkości wielosiarczek, czas i temperatura znacząco wpływają na trwałość materiału w sposób addytywny (czyli bez interakcji ). Innymi słowy, wszystkie różnice pomiędzy średnimi uzyskanymi w różnych układach planu są wystarczająco wyjaśnione poprzez prosty model addytywny dla powyższych trzech wielkości.

Oceny parametrów lub efektów. Należy zastanowić się, jak wspomniane wielkości wpływają na trwałość materiału.

 EfektOdch.std.t (57)p
Śred/Stała
(1)WIELSIAR
(2)POWRÓT
(3)MOLE
(4)CZAS
(5)ROZPUSZ
(6)TEMPERAT
11.12344
1.74688
.70313
.10313
2.98438
-.41562
2.69062
.237996
.475992
.475992
.475992
.475992
.475992
.475992
46.73794
3.66997
1.47718
.21665
6.26980
-.87318
5.65267
.000000
.000536
.145132
.829252
.000000
.386230
.000001

Liczby znajdujące się w powyższym arkuszu są ocenami efektów lub parametrów. Za wyjątkiem znajdującej się u góry oceny średnia/stała, powyższe oceny są odchyleniami średniej z układów dodatnich (+1) od średniej z układów ujemnych (-1) dla odpowiednich wielkości wejściowych. Przykładowo, jeżeli zostanie zmieniona wartość czynnika czas z niski na wysoki, można oczekiwać poprawy trwałości o 2,98; jeżeli wartość czynnika wielosiarczek zostanie zmieniona na wysoki można oczekiwać dalszej poprawy o 1,75 itd.

Można zauważyć, że dokładnie te same wielkości wejściowe, które były statystycznie istotne, mają równocześnie największe oceny parametrów; tak więc wartości tych trzech czynników są najważniejsze dla uzyskania pożądanej wartości trwałości produktu.

W przypadku analizy obejmującej interakcje , interpretacja wspomnianych parametrów jest nieco bardziej złożona. Parametry interakcji dwuczynnikowych są zdefiniowane jako połowa różnicy pomiędzy efektami głównymi jednego czynnika uzyskanymi dla dwóch wartości drugiego czynnika (zob. Mason, Gunst i Hess, 1989, str. 127); podobnie parametry interakcji trójczynnikowych są zdefiniowane jako połowa różnicy pomiędzy efektami interakcji dwuczynnikowej uzyskanymi dla dwóch wartości trzeciego czynnika itd.

Współczynniki regresji. Można zbadać wartości współczynników w modelu regresji wielokrotnej (zob. Regresja wielokrotna). Kontynuując poprzedni przykład można rozważyć następującą funkcję:

Trwałość = stała + b1 *x1 +... + b6 *x6

W powyższym wyrażeniu oznaczenia od x1 do x6 symbolizują 6 wielkości wejściowych uwzględnianych w analizie. Pokazane wcześniej oceny efektów zawierają także estymatory współczynników regresji:

  
Współcz.
Odch.std.
Współcz.
-95.%
Prz.Ufn
+95.%
Prz.Ufn
Śred/Stała
(1)WIELSIAR
(2)POWRÓT
(3)MOLE
(4)CZAS
(5)ROZPUSZ
(6)TEMPERAT
11.12344
.87344
.35156
.05156
1.49219
-.20781
1.34531
.237996
.237996
.237996
.237996
.237996
.237996
.237996
10.64686
.39686
-.12502
-.42502
1.01561
-.68439
.86873
11.60002
1.35002
.82814
.52814
1.96877
.26877
1.82189

Tak naprawdę, współczynniki te nie zawierają już "nowej" informacji, gdyż stanowią one połowę wartości wcześniej zaprezentowanych parametrów (z wyjątkiem wartości średnia/stała). Jest to sensowne, gdyż współczynnik regresji może być interpretowany jako wynik odchylenia wysokiej wartości wielkości wejściowej od centrum. Jednakże należy pamiętać, że jest tak tylko w przypadku, gdy wielkości wejściowe są unormowane w przedziale <-1,1> (to znaczy przybierają wartości bezwymiarowe -1 i odpowiednio +1). W przeciwnym razie skalowanie wielkości wejściowej wpływa na wartość ocen parametrów i współczynników. W przykładzie przytoczonym przez Boxa i Drapera (1987, str.115) wartości różnych wielkości wejściowych były podawane na różnych skalach:

Plik danych: FABRIC.STA [ 64 układy dla 9 wielkości ]
Plan 2(6-0), Box & Draper, p. 117
 WIELSIARPOWRÓTMOLECZASROZPUSZTEMPERATTRWAŁOŚĆODCIEŃJASKRAW
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
. . .
6
7
6
7
6
7
6
7
6
7
6
7
6
7
6
. . .
150
150
170
170
150
150
170
170
150
150
170
170
150
150
170
. . .
1.8
1.8
1.8
1.8
2.4
2.4
2.4
2.4
1.8
1.8
1.8
1.8
2.4
2.4
2.4
. . .
24
24
24
24
24
24
24
24
36
36
36
36
36
36
36
. . .
30
30
30
30
30
30
30
30
30
30
30
30
30
30
30
. . .
120
120
120
120
120
120
120
120
120
120
120
120
120
120
120
. . .
  3.4
  9.7
  7.4
10.6
  6.5
  7.9
10.3
  9.5
14.3
10.5
  7.8
17.2
  9.4
12.1
  9.5
. . .
15.0
  5.0
23.0
  8.0
20.0
  9.0
13.0
  5.0
23.0
  1.0
11.0
  5.0
15.0
  8.0
15.0
. . .
36.0
35.0
37.0
34.0
30.0
32.0
28.0
38.0
40.0
32.0
32.0
28.0
34.0
26.0
30.0
. . .

Poniżej można odczytać współczynniki regresji dla rzeczywistych wartości wielkości wejściowych:

 Współczyn.
Regresji
 
Odch.Std.
 
t (57)
 
p
Śred/Stała
(1)WIELSIAR
(2)POWRÓT
(3)MOLE
(4)CZAS
(5)ROZPUSZ
(6)TEMPERAT
-46.0641
1.7469
.0352
.1719
.2487
-.0346
.2691
8.109341
.475992
.023800
.793320
.039666
.039666
.047599
-5.68037
3.66997
1.47718
.21665
6.26980
-.87318
5.65267
.000000
.000536
.145132
.829252
.000000
.386230
.000001

Z uwagi na brak zgodności pomiędzy skalami poszczególnych wielkości wejściowych nie ma także zgodności pomiędzy wartościami współczynników regresji. Tłumaczy to, dlaczego oceny parametrów obliczone przez procedurę ANOVA (dla unormowanych wartości wielkości wejściowych) dostarczają zazwyczaj więcej informacji, tak jak zostało to wcześniej pokazane. Jednakże współczynniki regresji (obliczone dla wartości rzeczywistych) mogą być użyteczne wówczas, gdy potrzebne jest obliczenie przewidywanych wartości wielkości wyjściowej na podstawie rzeczywistych wartości wielkości wejściowych.

Opcje wykresów

Diagnostyczny wykres resztowy. Przed zaakceptowaniem konkretnego "modelu", który zawiera pewną liczbę efektów (np. w rozpatrywanym przykładzie efekty główne wielosiarczku, czasu i temperatury) należy zawsze zbadać rozkład wartości resztowych (ang. residual values). Są one obliczane jako różnice pomiędzy wartościami przewidywanymi (w tym przypadku przez konkretny model) a wartościami zmierzonymi. Dostępne są opcje umożliwiające narysowanie zarówno histogramu, jak i wykresu prawdopodobieństwa wartości resztowych (jak pokazano poniżej).

Tak oceny parametrów, jak i tabela ANOVA są obliczane przy założeniu, że wartości resztowe mają rozkład normalny (zob. Podstawowe pojęcia ). Histogram dostarcza sposobu na sprawdzenie (wizualnie), czy założenie to jest spełnione. Tak zwany wykres prawdopodobieństwa normalnego jest jeszcze jednym typowym narzędziem służącym do szacowania, jak bardzo wartości zmierzone (w tym przypadku reszty) są zbliżone do rozkładu teoretycznego. Na wykresie tym wartości resztowe są mierzone wzdłuż poziomej osi X; natomiast pionowa oś Y pokazuje oczekiwane wartości normalne dla odpowiednich wartości resztowych, po ich uszeregowaniu. Jeżeli wszystkie wartości układają się w linię prostą można przyjąć, że wartości resztowe mają rozkład normalny.

Wykres Pareto efektów. Wykres Pareto efektów jest często efektywnym narzędziem do przedstawienia wyników doświadczenia, szczególnie laikom.

Na wykresie tym oceny efektów uzyskane przy pomocy procedury ANOVA są uporządkowane od największej wartości bezwzględnej do najmniejszej. Wielkość każdego efektu jest reprezentowana przez słupek oraz często linię, która wskazuje, jak duży powinien być efekt, aby być statystycznie istotny.

Wykres prawdopodobieństwa normalnego efektów. Jeszcze jednym, aczkolwiek bardziej technicznym wykresem, jest wykres prawdopodobieństwa normalnego ocen efektów. Tak jak na wykresie prawdopodobieństwa wartości resztowych, najpierw oceny efektów są szeregowane według wartości, a następnie obliczana jest znormalizowana wartość z (przy założeniu, że oceny mają rozkład normalny). Wartość z jest odkładana na osi Y, natomiast wartości ocen na osi X (jak pokazano poniżej).

Wykresy kwadratowe i sześcienne. Wykresy te są często stosowane do przedstawienia przewidywanych, aproksymowanych wartości wielkości wyjściowej przy odpowiednio wysokich i niskich wartościach wielkości wejściowych. Wykres kwadratowy (ang. square plot) (patrz poniżej) tworzony jest w formie prostokąta (kwadratu) wyznaczonego przez dwie wartości dwóch wielkości wejściowych i pokazuje w narożach przewidywane (aproksymowane) wartości wielkości wyjściowej i ewentualnie przedziały ufności. Natomiast wykres sześcienny (ang. cube plot) pokazuje odpowiednie wartości wielkości wyjściowej dla trzech dwuwartościowych wielkości wejściowych; również z ewentualnym przedziałem ufności.

Wykresy interakcji. Ogólnym wykresem pokazującym wartości średnie jest standardowy wykres interakcji, w przypadku którego wartości średnie są reprezentowane przez punkty połączone prostymi. Wykres ten jest szczególnie użyteczny w przypadku, gdy w modelu występują znaczące efekty interakcji.

Wykresy przestrzenne i warstwicowe. W przypadku, gdy wielkości wejściowe występujące w planie mają charakter ciągły, użyteczne może być zapoznanie się z wykresem przestrzennym powierzchni (ang. surface plot) oraz jego odpowiednikiem płaskim wykresem warstwicowym powierzchni, czyli krótko: wykresem warstwicowym (ang. contour plot).

Te typy wykresów są omawiane w dalszej części tego podrozdziału, przy okazji planów 3(k-p), centralnych planów kompozycyjnych oraz planów wyznaczających powierzchnię odpowiedzi.

Podsumowanie

Plany doświadczenia typu 2(k-p) są "siłą napędową" doświadczeń w przemyśle. Duża liczba czynników procesu produkcyjnego może być przebadana względnie efektywnie (to jest przy małej liczbie pomiarów). Idea tych planów jest prosta (każda wielkość wejściowa przybiera tylko dwie wartości).

Wady. Prostota tych planów doświadczenia jest jednocześnie ich wielką wadą. Tak, jak to omówiono wcześniej, podstawą użycia dwóch wartości wielkości wejściowych jest wiara, że wynikowe zmiany wielkości wyjściowej (np. trwałości produktu) są w swojej naturze liniowe. Postulat ten często nie jest spełniony i wiele zmiennych w opisie jakościowym jest ujmowanych nieliniowo. W rozważanym przykładzie, gdyby kontynuować zwiększanie wartości temperatury (która była w sposób istotny powiązana z trwałością produktu) można osiągnąć "szczyt", następnie jednak trwałość może zmaleć pomimo dalszego zwiększania temperatury. Ten rodzaj nieliniowości związku pomiędzy wielkościami wejściowymi planu a wielkością wyjściową może być wykryty, jeżeli plan doświadczenia zawiera centrum (układy w centrum), jednakże nie można stosować jawnych modeli nieliniowych (np. kwadratowych) w przypadku planów 2(k-p) (aczkolwiek centralne plany kompozycyjne to umożliwiają).

Dodatkowym problemem, w przypadku planów frakcyjnych jest niejawne założenie, iż interakcje wyższego rzędu nie występują. Nie zawsze tak jest, gdyż czasami jednak interakcje występują i przy pewnych wartościach pozostałych wielkości wejściowych temperatura może mieć ujemny wpływ na trwałość produktu. Znów, w przypadku planów frakcyjnych, interakcje wyższego rzędu (wyższe niż dwuczynnikowe) mogą być szczególnie trudne do wykrycia.

Indeks


Plany 2(k-p) maksymalnie nieuwikłane i o najmniejszej aberracji

Podstawowa koncepcja

Plany frakcyjne 2(k-p) są często stosowane w doświadczalnictwie przemysłowym z uwagi na ekonomiczność zbierania danych, którą plany te zapewniają. Przykładowo, można wyobrazić sobie inżyniera, który potrzebuje zbadać wpływ zmian wartości 11 czynników na proces wytwórczy, przy czym każdy może przyjmować dwie wartości. Niech liczba wielkości wejściowych nosi oznaczenie k, w rozważanym przypadku k = 11. Doświadczenie, do którego zastosowano by plan kompletny, gdzie badane są efekty każdej kombinacji wartości każdego czynnika, wymagałoby 2k układów, a w rozważanym przypadku byłoby ich 2048. W celu zminimalizowania wysiłku związanego z gromadzeniem danych inżynier może zdecydować się na pominięcie efektów interakcyjnych wyższego rzędu i zamiast tego skoncentrować się na identyfikacji efektów głównych i efektów interakcyjnych niższego rzędu, które mogą być wyznaczone w doświadczeniu używającym mniejszej, bardziej uzasadnionej liczby układów. Istnieje jeszcze jedna, bardziej teoretyczna, przyczyna uzasadniająca rezygnację ze stosowania dużych planów kompletnych dwuwartościowych. Mówiąc ogólnie, nie jest logiczne zajmowanie się identyfikacją efektów interakcyjnych wyższego rzędu, przy jednoczesnym pomijaniu efektów nieliniowych niższego rzędu, takich jak efekty kwadratowe i sześcienne, które nie mogą być estymowane w sytuacji, gdy każda wielkość wejściowa przybiera tylko dwie wartości. Tak oto rozważania praktyczne często prowadzą do powstania potrzeby zaplanowania doświadczenia z sensowną, małą liczbą układów.

Alternatywą dla planu kompletnego 2k jest plan frakcyjny 2(k-p), który wymaga tylko "frakcji" (ułamka) wysiłku niezbędnego do zgromadzenia danych dla planu kompletnego. W rozważanym przypadku dla k=11 wielkości wejściowych, w efekcie należy wykonać tylko 64 pomiary, aby zaplanować doświadczenie 2(11-5), które ma właśnie 26=64 układy. W szczególności doświadczenie k-p=6 - czynnikowe kompletne posiada wartości p wielkości wejściowych wygenerowane przez wartości wybranych interakcji wyższego rzędu 6 innych wielkości wejściowych. Plany frakcyjne "poświęcają" efekty interakcyjne wyższego rzędu tak, aby w dalszym ciągu było możliwe prawidłowe obliczenie efektów niższego rzędu. Jednakże rozmaitość kryteriów, które mogą być użyte do wybrania interakcji wyższego rzędu jako generatorów, prowadzi do różnych "najlepszych" planów doświadczeń.

Plany frakcyjne 2(k-p) mogą zawierać także tzw. zmienne (czynniki) blokowe. W niektórych procesach produkcyjnych wyroby produkowane są w naturalnych blokach lub partiach wyrobów. Zmienne blokowe mogą być dodane jako osobne wielkości wejściowe planu, aby uzyskać pewność, że bloki te nie obciążają ocen efektów dla k wielkości wejściowych. Idąc konsekwentnie dalej, można by "poświęcić" dodatkowe efekty interakcyjne w celu wygenerowania zmiennych blokowych, ale powyższe plany często mają taką zaletę, że są bardziej użyteczne. Jest to związane z faktem, iż pozwalają one na estymację i sterowanie zmiennością w procesie produkcyjnym pochodzącą od różnic pomiędzy partiami wyrobów.

Kryteria wyboru planu

Wiele koncepcji omawianych tutaj jest także wspomnianych w rozdziale Wprowadzenie do planów frakcyjnych 2(k-p) . Dokładne omówienie sposobu tworzenia planów frakcyjnych jest poza zakresem obu wspomnianych wprowadzeń. Szczegóły dotyczące tworzenia planu doświadczenia 2(k-p) można znaleźć m.in. u Baynea i Rubina (1986), Boxa i Drapera (1987), Boxa, Huntera i Huntera (1978), Montgomeryego (1991), Daniela (1976), Deminga i Morgana (1993), Masona, Gunsta i Hessa (1989) lub Ryana (1989), aby wymienić tylko kilka spośród wielu książek dotyczących wspomnianej tematyki.

W ogólności, metoda planów 2(k-p) maksymalnie nieuwikłanych i z najmniejszą aberracją polega na sukcesywnym wybieraniu, posługując się wybranymi kryteriami, interakcji wyższego rzędu, których należy użyć jako generatorów dla p wielkości wejściowych. Przykładowo, można rozważyć poniższy plan, który zawiera 11 wielkości wejściowych, ale wymaga tylko 16 układów (obserwacji).

Plan: 2(11-7), Rozdzielczość III
UkładABCDEFGHIJK
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1
1
1
1
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1
1
1
1
1
-1
-1
-1
-1
1
1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
-1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1
1
1
-1
-1
1
-1
-1
1
-1
1
1
-1
1
-1
-1
1
-1
1
1
-1
1
-1
-1
1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
1
-1
-1
1
-1
1
-1
1
-1
1
1
-1
1
-1
1
-1
-1
1
-1
1
1
-1
-1
1
1
-1
1
-1
-1
1
1
1
1
1
-1
-1
-1
-1
-1
-1
-1
-1
1
1
1
1
1
1
-1
-1
1
1
-1
-1
-1
-1
1
1
-1
-1
1
1

Interpretacja planu. Plan pokazany na powyższym arkuszu powinien być interpretowany w następujący sposób. Każda kolumna zawiera +1 lub -1, aby pokazać wartości odpowiednich wielkości wejściowych (odpowiednio górne lub dolne). Dlatego też np. w pierwszym układzie wszystkie wielkości od A do K mają wartości górne, a w układzie drugim wielkości A, B i C mają wartości górne, natomiast wielkość D ma wartość dolną itd. Należy uwzględnić, że wartości wielkości E w każdym układzie mogą być obliczone jako iloczyn odpowiednich wartości wielkości A, B i C. Z tego też powodu efekt interakcyjny A x B x C nie może być w tym planie estymowany niezależnie od efektu wielkości E, gdyż oba te efekty są uwikłane. Podobnie wartości wielkości F mogą być obliczone przez pomnożenie odpowiednich wartości wielkości B, C i D. Używa się określenia, że ABC i BCD są generatorami wielkości odpowiednio E i F.

Kryterium największej rozdzielczości planu. W powyższym arkuszu plan doświadczenia jest opisany jako plan 2(11-7) o rozdzielczości III (trzy). Oznacza to, że badane są wszystkie wielkości wejściowe w liczbie k = 11, ale p = 7 z nich zostało wygenerowanych z interakcji planu kompletnego 2[(11-7) = 4]. W wyniku tego plan nie ma pełnej rozdzielczości; to znaczy występują pewne efekty interakcyjne, które są uwikłane (są identyczne) z innymi efektami. W ogólności, plan o rozdzielczości R to taki plan, w którym żadna l-czynnikowa interakcja nie jest uwikłana z żadną inną interakcją rzędu niższego niż R - l. W rozpatrywanym przykładzie R jest równe 3. Stąd żadna z l = 1-czynnikowych interakcji (np. efekty główne) nie jest uwikłana z żadnymi interakcjami rzędu niższego niż R - l = 3 - 1 = 2. Tak więc, efekty główne w tym planie nie są uwikłane wzajemnie, ale są uwikłane z interakcjami dwuczynnikowymi i konsekwentnie z innymi interakcjami wyższych rzędów. Oczywistym, ale bardzo ważnym kryterium tworzenia planu jest to, aby jako generatorów używać interakcji wyższych rzędów, gdyż wówczas rozdzielczość planu jest tak wysoka, jak tylko to możliwe.

Kryterium maksymalnego nieuwikłania. Maksymalizacja rozdzielczości planu sama w sobie nie gwarantuje, że podane generatory dostarczą "najlepszego" planu. Można, dla przykładu, rozważyć dwa różne plany o rozdzielczości IV. W obu planach efekty główne są wzajemnie nieuwikłane i interakcje dwuczynnikowe są nieuwikłane z efektami głównymi, tj. żadne l = 2-czynnikowe interakcje nie są uwikłane z jakąkolwiek inną interakcją rzędu niższego niż R - l = 4 - 2 = 2. Jednakże, te dwa plany mogą się różnić w odniesieniu do stopnia uwikłania interakcji dwuczynnikowych. Dla planów o rozdzielczości IV "rzędem krytycznym", dla którego pojawia się po raz pierwszy uwikłanie efektów są interakcje dwuczynnikowe. W przypadku jednego planu żadna z interakcji dwuczynnikowych nie jest nieuwikłana z innymi interakcjami dwuczynnikowymi, podczas gdy w przypadku drugiego planu nieomal wszystkie interakcje dwuczynnikowe mogą być nieuwikłane z innymi interakcjami dwuczynnikowymi. Ten drugi plan, "nieomal o rozdzielczości V", powinien być preferowany w stosunku do pierwszego planu, "zaledwie o rozdzielczości IV". Sugeruje to, że chociaż kryterium największej rozdzielczości planu powinno być kryterium podstawowym, to dodatkowym kryterium powinno być to, aby dobór generatorów zapewnił, iż maksymalna liczba interakcji rzędu niższego lub równego rzędowi krytycznemu, przy danej rozdzielczości, będzie nieuwikłana z innymi interakcjami rzędu krytycznego. Jest to tzw. kryterium maksymalnego nieuwikłania i jest jednym z opcjonalnych, dodatkowych kryteriów możliwych do zastosowania w trakcie poszukiwania planu 2(k-p).

Kryterium najmniejszej aberracji. Kryterium najmniejszej aberracji jest jeszcze jednym opcjonalnym, dodatkowym kryterium możliwym do zastosowania w trakcie poszukiwania planu 2(k-p). Pod pewnymi względami kryterium to jest podobne do kryterium maksymalnego nieuwikłania. Ujmując rzecz technicznie, plan o najmniejszej aberracji jest definiowany jako plan o największej rozdzielczości, "który minimalizuje liczbę słów w relacji definiującej, które mają najmniejszą długość" (Fries i Hunter, 1984). Mniej technicznie, kryterium działa poprzez dobór takich generatorów, które tworzą najmniejszą liczbę par uwikłanych interakcji rzędu krytycznego. Przykładowo, plan o rozdzielczości IV i najmniejszej aberracji mógłby mieć najmniejszą liczbę par uwikłanych interakcji drugiego rzędu.

Aby zilustrować różnicę pomiędzy kryteriami maksymalnego nieuwikłania i najmniejszej aberracji, można rozważyć plan 2(9-4) maksymalnie nieuwikłany i plan 2(9-4) o najmniejszej aberracji, jak to opisano np. u Boxa, Huntera i Huntera (1978). Jeżeli porówna się te dwa plany, można zobaczyć, że w planie maksymalnie nieuwikłanym 15 z 36 interakcji dwuczynnikowych jest nieuwikłanych z innymi interakcjami dwuczynnikowymi, podczas gdy w planie o najmniejszej aberracji tylko 8 z 36 interakcji dwuczynnikowych jest nieuwikłanych z innymi interakcjami dwuczynnikowymi. Jednakże plan o najmniejszej aberracji dostarcza 18 par uwikłanych interakcji, podczas gdy plan maksymalnie nieuwikłany ma takich par 21. Tak więc te dwa kryteria prowadzą do selekcji generatorów tworzących różne "najlepsze" plany.

Szczęśliwie, wybór kryterium maksymalnego nieuwikłania lub najmniejszej aberracji nie czyni żadnej różnicy w planie, który jest wyselekcjonowany (poza być może zmianą etykiet wielkości wejściowych), w przypadku 11 lub mniejszej liczby wielkości wejściowych, z wyjątkiem pojedynczego planu 2(9-4) opisanego powyżej (zob. Chen, Sun i Wu, 1993). W przypadku planów z liczbą wielkości wejściowych 11 lub więcej, te dwa kryteria prowadzą do wyselekcjonowania bardzo różnych planów i z powodu braku lepszej rady, sugeruje się użycie obu kryteriów, porównanie otrzymanych planów, a następnie wybranie tego planu, który bardziej odpowiada naszym potrzebom. Można dodać, że maksymalizacja liczby zupełnie nieuwikłanych efektów często może mieć więcej sensu niż minimalizacja liczby par minimalnie uwikłanych efektów.

Podsumowanie

Plany frakcyjne 2(k-p) są prawdopodobnie najczęściej stosowanym rodzajem planów w doświadczalnictwie przemysłowym. W trakcie planowania doświadczenia na podstawie planu frakcyjnego 2(k-p) należy uwzględnić takie rzeczy, jak liczbę wielkości wejściowych podlegających badaniom, liczbę układów planu oraz to, czy występuje podział na bloki. Prócz tych podstawowych spraw, należy też rozważyć, czy liczba układów pozwoli na uzyskanie wymaganej rozdzielczości planu i stopnia uwikłania dla interakcji rzędu krytycznego przy danej rozdzielczości.

Indeks


Plany frakcyjne trójwartościowe 3(k-p), Boxa-Behnkena oraz dwu- i trójwartościowe

Wprowadzenie

W niektórych przypadkach niezbędne jest badanie czynników, które mogą przybierać więcej niż dwie wartości. Przykładowo, jeżeli wpływ wielkości wejściowych na wielkość wyjściową nie jest liniowy, wówczas, tak jak to omówiono wcześniej (zobacz Plany frakcyjne 2(k-p) ), niezbędne są co najmniej trzy wartości, aby móc obliczyć efekty liniowe i kwadratowe (oraz interakcje ) dla wielkości wejściowych. Prócz tego, czasem niektóre wielkości wejściowe mogą mieć, ze swojej natury, więcej aniżeli dwie wartości lub klasy jakościowe. Przykładowo: do dyspozycji mogą być trzy różne maszyny produkujące konkretną część.

Plany frakcyjne trójwartościowe 3(k-p)

Ogólny mechanizm generowania planów frakcyjnych trójwartościowych 3(k-p), jest bardzo podobny do opisanego przy okazji planów 2(k-p) . Punktem wyjścia jest plan kompletny, przy czym interakcje służą do skonstruowania "nowych" zmiennych (lub bloków) poprzez uczynienie ich wartości identycznymi z odpowiednimi interakcjami (to jest przez uczynienie nowych zmiennych zamiennikami odpowiednich interakcji).

Przykładowo weźmy pod uwagę następujący prosty układ frakcyjny 3(3-1):

3(3-1) plan frakcyjny
1 blok, 9 układów
Układ
Standardowy
 
A
 
B
 
C
1
2
3
4
5
6
7
8
9
0
0
0
1
1
1
2
2
2
0
1
2
0
1
2
0
1
2
0
2
1
2
1
0
1
0
2

Tak jak w przypadku planów 2(k-p), plan powyższy jest budowany wychodząc od 3-1=2 czynnikowego planu kompletnego; obie zmienne są wypisane w pierwszych dwóch kolumnach na powyższym arkuszu (zmienne A i B). Zmienna C jest konstruowana na podstawie interakcji AB pierwszych dwóch zmiennych. Konkretnie wartości zmiennej C są obliczane według wzoru:

C = 3 - mod3 (A+B)

W powyższym wzorze wyrażenie mod3(x) oznacza tak zwane dzielenie modulo-3, czyli znalezienie reszty z dzielenia całkowitego liczby x przez liczbę 3. Przykładowo mod3(0) jest równe 0, mod3(1) jest równe 1, mod3(3) jest równe 0, mod3(5) jest równe 2 (2 jest resztą z dzielenia całkowitego 5 przez 3).

Równanie charakterystyczne (kontrast). Jeżeli powyższy wzór zostanie zastosowany do sumy kolumn A i B znajdujących się w pokazanym wyżej arkuszu uzyska się w wyniku trzecią kolumnę C. Podobnie jak w przypadku planów 2(k-p) (zobacz Plany frakcyjne 2(k-p) , omówienie równania charakterystycznego w przypadku planów 2(k-p)), uwikłanie interakcji i "nowych" efektów głównych może być zapisane następującym wyrażeniem:

0 = mod3 (A+B+C)

Patrząc na pokazany wcześniej arkusz zawierający plan 3(3-1) można dostrzec, że istotnie, jeżeli doda się liczby stojące w trzech kolumnach to uzyska się 0, 3 lub 6, czyli liczby podzielne przez 3 (a więc spełnione jest równanie mod3(A+B+C)=0). Wyrażenie to może być skrótowo zapisane jako ABC=0 dla wyrażenia uwikłania zmiennych w planie frakcyjnym 3(k-p).

Niektóre plany posiadają równanie charakterystyczne z liczbą 2 jako mnożnikiem, np.

0 = mod3 (B+C*2+D+E*2+F)

Notacja ta powinna być interpretowana dokładnie tak, jak poprzednia, to jest suma B+2*C+D+2*E+F musi być równa 0 modulo3. Następny przykład pokaże taką zależność.

Przykład planu 3(4-1) z 9 blokami

Poniżej zamieszczono zestawienie dla frakcyjnego trójwartościowego planu doświadczenia z 4 wielkościami wejściowymi zebranymi w 9 blokach, który wymaga tylko 27 pomiarów.

ZESTAWIENIE: 3(4-1) frakcyjny trójwartościowy
Generator planu: ABCD
Generator bloku: AB,AC2
Liczba czynników (wielkości wejściowych): 4
Liczba pomiarów (układów): 27
Liczba bloków: 9

Plan ten pozwala na zbadanie liniowych i kwadratowych efektów głównych dla 4 wielkości wejściowych przy 27 układach planu, które mogą być zebrane w 9 blokach po 3 układy w każdym. Równanie charakterystyczne albo generator planu ma postać ABCD, dlatego też suma wartości wielkości wejściowych jest w każdym układzie równa 0 modulo3. Równanie charakterystyczne pozwala ponadto na rozpoznanie uwikłania zmiennych i interakcji w planie (szczegóły zob. McLean i Anderson, 1984).

Efekty nieuwikłane (experi3.sta)
PLANOWAN
EKSPERYM
Lista wielkości i interakcji nieskorelowanych
3(4-1) plan frakcyjny, 9 bloków, 27 układów
Efekty nieuwikł.
(wyłącz. bloki)
Nieuwikłane jeżeli
dołączyć bloki?
1
2
3
4
5
6
7
8
(1)A     (L)
     A    (Q)
(2)B     (L)
     B    (Q)
(3)C     (L)
     C    (Q)
(4)D     (L)
     D    (Q)
Tak
Tak
Tak
Tak
Tak
Tak
Tak
Tak

Jak można powyżej zauważyć, w planie doświadczenia 3(4-1) efekty główne nie są wzajemnie uwikłane nawet mimo to, że plan składa się tylko z 9 bloków.

Plany Boxa-Behnkena

W przypadku planów 2(k-p), Plackett i Burman (1946) opracowali grupę planów w celu oceny największej liczby efektów (głównych) przy możliwie najmniejszej liczbie układów. Odpowiednikiem tej grupy w przypadku planów 3(k-p) są tak zwane plany Boxa-Behnkena (Box i Behnken, 1960; zob. także Box i Draper, 1984). Plany te nie mają prostych generatorów (są one konstruowane poprzez łączenie planów frakcyjnych dwuwartościowych z selekcyjnymi planami blokowymi), natomiast mają bardzo złożone uwikłania interakcji. Jednakże plany te są bardzo ekonomiczne i dlatego szczególnie użyteczne wtedy, gdy wykonanie pomiarów jest kosztowne i ich liczba powinna być ograniczona do naprawdę niezbędnej.

Analiza wyników planu 3(k-p)

Analiza planów 3(k-p) przebiega zasadniczo w taki sam sposób, jak było to opisane w przypadku planów 2(k-p) . Jednakże dla każdej wielkości wejściowej można poszukiwać efektu liniowego oraz kwadratowego (nieliniowego). Przykładowo, w trakcie badania wydajności procesu chemicznego temperatura może oddziaływać w sposób nieliniowy, to znaczy największa wydajność może być osiągana, gdy temperatura ma wartość pośrednią. Nieliniowość często pojawia się, gdy proces znajduje się blisko swojego optimum.

Oceny parametrów ANOVA

W celu estymacji (oszacowania) parametrów ANOVA wartości wielkości wejściowych są przed poddaniem analizie wewnętrznie normowane, co powoduje, że można badać składniki liniowe i kwadratowe w relacji wiążącej wielkości wejściowe i wielkość wyjściową. W ten sposób, niezależnie od pierwotnego skalowania wielkości wejściowych (np. 100°C, 110°C, 120°C) możemy zawsze normować te wartości jako -1, 0, +1 zanim przystąpimy do obliczeń. Uzyskane oceny parametrów ANOVA mogą być interpretowane analogicznie jak oceny parametrów dla planów 2(k-p).

Przykładowo można rozważyć następujące wyniki ANOVA:

WielkośćEfektBłąd std.t (69)p
Śred/Stała
BLOKI(1)
BLOKI(2)
(1)TEMPERAT (L)
TEMPERAT     (Q)
(2)CZAS (L)
CZAS     (Q)
(3)PRĘDKOŚĆ (L)
PRĘDKOŚĆ     (Q)
     1L razy 2L
     1L razy 2Q
     1Q razy 2L
     1Q razy 2Q
103.6942
.8028
-1.2307
-.3245
-.5111
.0017
.0045
-10.3073
-3.7915
3.9256
.4384
.4747
-2.7499
.390591
1.360542
1.291511
.977778
.809946
.977778
.809946
.977778
.809946
1.540235
1.371941
1.371941
.995575
265.4805
.5901
-.9529
-.3319
-.6311
.0018
.0056
-10.5415
-4.6812
2.5487
.3195
.3460
-2.7621
0.000000
.557055
.343952
.740991
.530091
.998589
.995541
.000000
.000014
.013041
.750297
.730403
.007353

Oceny efektów głównych. Domyślnie, znajdujące się w kolumnie Efekt oceny dla efektów liniowych (oznaczone literą L po nazwie wielkości wejściowej) mogą być interpretowane jako różnica średniej wartości wielkości wyjściowej przy niskich i wysokich ustawieniach odpowiedniej wielkości wejściowej. Ocena dla efektu kwadratowego, nieliniowego (oznaczona literą Q po nazwie wielkości wejściowej) może być interpretowana jako różnica pomiędzy średnimi wartościami wielkości wyjściowej przy średniej wartości odpowiedniej wielkości wejściowej oraz kombinacji typu wysoka i niska.

Oceny efektów interakcji. Tak jak w przypadku planów 2(k-p), efekt interakcji dwuczynnikowej drugiego rzędu może być interpretowany jako połowa różnicy liniowego efektu głównego jednej wielkości przy odpowiednio wysokich i niskich wartościach drugiej wielkości. Analogicznie, interakcja pomiędzy składnikami kwadratowymi może być interpretowana jako połowa różnicy wartości kwadratowego efektu głównego jednej wielkości przy odpowiednio wysokich i niskich wartościach drugiej wielkości.

W praktyce, z punktu widzenia "możliwości interpretacyjnych wyników", należy starać się unikać interakcji kwadratowych. Przykładowo, istnienie interakcji kwadratowo-kwadratowej wielkości A i B wskazuje, że nieliniowy efekt czynnika A jest modyfikowany w sposób nieliniowy przez wartości czynnika B. Oznacza to, że wielkości obecne w planie doświadczenia powiązane są bardzo złożoną zależnością, w wyniku czego zrozumienie i optymalizacja rozpatrywanego procesu będzie trudna. Czasem przeprowadzenie nieliniowej transformacji wielkości wyjściowej (np. przekształcenie logarytmiczne) może zaradzić trudnościom.

Wielomiany centrowane i niecentrowane. Jak wspomniano powyżej, interpretację ocen efektów stosuje się tylko w przypadku użycia domyślnej (unormowanej) parametryzacji modelu. W takiej sytuacji, interakcje kwadratowe są maksymalnie "nieuwikłane" z liniowymi efektami głównymi.

Graficzna prezentacja wyników

Dla planów 3(k-p) są dostępne takie same typy wykresów (np. resztowe), jakie były opisane w przypadku planów 2(k-p) . Tak więc, zanim dokona się ostatecznej interpretacji uzyskanych wyników powinno się spojrzeć na rozkład błędów (ang. residuals) wybranego modelu. Reasumując: model ANOVA zakłada, że reszty (błędy) mają rozkład normalny.

Wykres wartości średnich. W przypadku, gdy interakcja dotyczy wielkości nieciągłych (np. typ maszyny, operator maszyny oraz niektóre rodzaje ustawień sprzętu), najlepszym sposobem zrozumienia interakcji jest zapoznanie się z wykresem wartości średnich.

Wykres powierzchniowy. W przypadku, gdy wielkości wchodzące do interakcji są z natury ciągłe, można zapoznać się z wykresem powierzchniowym, który pokazuje powierzchnię odpowiedzi tworzoną przez odpowiednio dopasowany model. Należy zauważyć, że na wykresie pokazane jest także wyrażenie matematyczne (używające pierwotnego skalowania wielkości wejściowych), które posłużyło do wygenerowania powierzchni odpowiedzi.

Plany dla wielkości dwu- i trójwartościowych

Możemy również tworzyć plany z różnymi liczbami wartości wielkości wejściowych dwu- i trójwartościowych. W szczególności jest możliwe wygenerowanie planów sklasyfikowanych przez Connora i Younga dla Narodowego Biura Standardów USA (zob. McLean i Anderson, 1984). Techniczne szczegóły metody użytej do wygenerowania tych planów wykraczają poza zakres niniejszego wprowadzenia. Jednakże, w ogólności, metoda ta jest kombinacją procedur opisanych poprzednio przy okazji planów 2(k-p) i 3(k-p). Należy wszakże zauważyć, że jakkolwiek wszystkie te plany są bardzo efektywne, to niekoniecznie są ortogonalne względem wszystkich efektów głównych. Nie stwarza to jednak problemu, jeśli użyjemy dla obliczania parametrów ANOVA i sum kwadratów ogólnego algorytmu , który nie wymaga ortogonalności planu.

Planowanie i analiza tych doświadczeń przebiega według tych samych zasad, jak już zostało to omówione przy okazji planów 2(k-p) i 3(k-p).
Indeks


Plany centralne kompozycyjne i wyznaczanie powierzchni odpowiedzi

Wprowadzenie

Zarówno plany 2(k-p) jak i 3(k-p) wymagają, by liczba wartości wielkości wejściowych wynosiła np. 2 lub 3. W wielu przypadkach takie plany nie są możliwe do zrealizowania, ponieważ przykładowo niektóre wielkości mogą być w pewien sposób ograniczone (np. wielkości A i B nie mogą mieć jednocześnie wartości wysokich). Również, z powodów związanych ze skutecznością, co będzie pokrótce omówione, pożądane jest często, aby badać obszar doświadczalny w pewnych szczególnych punktach, co nie może być ujęte przy pomocy planu frakcyjnego.

Wszystkie plany (i sposoby ich analizy) omówione w niniejszej części odnoszą się do wyznaczenia powierzchni odpowiedzi zbudowanej na ogólnym równaniu:

y = b0 +b1 *x1 +...+bk *xk + b12 *x1 *x2 +b13 *x1 *x3 +...+bk-1,k *xk-1 *xk + b11 *x12 +...+bkk *xk2

Innymi słowy, do doświadczalnych wartości wielkości wyjściowej dopasowuje się model, który zawiera (1) efekty główne dla wielkości wejściowych (x1 , ..., xk), (2) ich interakcje (x1*x2, x1*x3, ... ,xk-1*xk), oraz (3) wyrazy kwadratowe (x12, ..., xk2). Nie czyni się natomiast żadnych założeń odnośnie "poziomów" wartości wielkości wejściowych; można analizować dowolny zbiór ciągłych wartości tych wielkości.

Kilka prac (np. zob. Box, Hunter i Hunter, 1978; Box i Draper, 1987; Khuri i Cornell, 1987; Mason, Gunst i Hess, 1989; Montgomery, 1991), dotyczących efektywności i obciążenia planów, doprowadziło do powstania planów standardowych stosowanych zwykle przy podejmowaniu próby wyznaczenia, określonej powyżej, powierzchni odpowiedzi. Czasem, jak to jest opisane w przypadku planów z nałożonymi ograniczeniami oraz planów D i A-optymalnych , z powodów praktycznych nie można zastosować planów standardowych. Jednakże, reasumując, opcje analizy centralnego planu kompozycyjnego nie wymuszają żadnych założeń odnośnie struktury pliku danych, to jest liczby różnych wartości wielkości wejściowych, ich kombinacji w układach planu i dzięki temu opcje te mogą być użyte do analizy dowolnego planu, w celu dopasowania do danych opisanego powyżej ogólnego modelu.

Przegląd planów

Plany ortogonalne. Jedną z pożądanych cech jakiegokolwiek planu jest wzajemna niezależność estymatorów efektów głównych i interakcji. Przykładowo, można rozważyć plan dwuczynnikowy dwuwartościowy. Plan ten składa się z czterech układów:

 AB
Układ 1
Układ 2
Układ 3
Układ 4
1
1
-1
-1
1
1
-1
-1

Dla pierwszych dwóch układów obie wielkości A i B mają wartości na wysokim poziomie (+1). W pozostałych dwóch układach, obie wartości są na poziomie niskim (-1). Należy oszacować niezależny wpływ wielkości A i B na wartości wielkości wyjściowej. Najwyraźniej nie jest to rozsądny plan, gdyż nie ma żadnego sposobu na obliczenie efektu głównego wielkości A, ani efektu głównego wielkości B. Można obliczyć tylko jeden efekt: różnicę pomiędzy układami 1+2 oraz 3+4 które reprezentują połączone efekty wielkości A i B.

Najważniejszą sprawą jest oszacowanie niezależnego wpływu dwóch wielkości wejściowych, a to oznacza, że wartości wielkości w tych czterech układach muszą być tak dobrane, aby "kolumny" w planie (pod oznaczeniami A i B na powyższej ilustracji) były wzajemnie niezależne. Innym sposobem wyrażenia tego warunku jest stwierdzenie, że kolumny macierzy planu (z taką liczbą kolumn, ile jest efektów głównych i interakcji, które mają zostać obliczone) powinny być ortogonalne. Przykładowo, jeżeli cztery układy planu są określone w następujący sposób:

 AB
Układ 1
Układ 2
Układ 3
Układ 4
1
1
-1
-1
1
-1
1
-1

to kolumny A i B są ortogonalne. W tym momencie można już obliczyć efekt główny A poprzez porównanie wysokich wartości dla A przy każdej wartości B z niskimi wartościami dla A przy każdej wartości B; efekt główny B może być obliczone w taki sam sposób.

Od strony obliczeniowej, dwie kolumny w macierzy planu są ortogonalne, jeżeli suma iloczynów odpowiadających sobie elementów tych kolumn jest równa zeru. W praktyce często można zetknąć się z sytuacją, gdy z powodu utraty wyników w niektórych układach lub też innych ograniczeń kolumny macierzy planu nie są całkowicie ortogonalne. W ogólności obowiązuje zasada, że im mniejsze jest odchylenie od ortogonalności kolumn (im bardziej ortogonalne są kolumny) macierzy planu, tym lepszy jest plan, to znaczy więcej niezależnych informacji można wydobyć przy pomocy planu ze względu na odpowiednie efekty wielkości wejściowych. Dlatego też jednym z powodów uzasadniających wybór standardowego centralnego planu kompozycyjnego jest jego ortogonalność lub prawie ortogonalność.

Plany rotalne. Następny powód jest związany z postulatem, aby z planu uzyskać maksymalną ilość (nieobciążonej) informacji. Bez wnikania w szczegóły (zob. Box, Hunter i Hunter, 1978; Box i Draper, 1987 rozdział 14; zob. także Deming i Morgan, 1993, rozdział 13), można pokazać, że odchylenie standardowe przewidywanej wartości wielkości wyjściowej jest proporcjonalne do:

(1 + f(x)' * (X'X)-1 * f(x))1/2

gdzie f(x) oznacza (unormowane) efekty wielkości przyjętego modelu (f(x) jest wektorem, f(x)' jest transpozycją tego wektora), natomiast X jest macierzą planu doświadczenia, czyli macierzą unormowanych efektów dla wszystkich układów; (X'X)-1 jest odwróceniem iloczynu macierzowego. Deming i Morgan (1993) określili to wyrażenie jako unormowaną niepewność; funkcja ta jest także nazywana funkcją wariancji, jak to zostało zdefiniowane przez Boxa i Drapera (1987). Całkowita niepewność w przewidywaniu wartości wielkości wyjściowej zależy od jej zmienności w układach planu i ich kowariancji pomiędzy układami planu. (Należy zwrócić uwagę, że występuje odwrotna proporcjonalność do wyznacznika X'X; własność ta jest szerzej omawiana w części dotyczącej planów D i A-optymalnych ).

Najważniejsze jest, aby wybrać plan, który dostarcza najwięcej informacji o wielkości wyjściowej i pozostawia najmniejszą możliwą niepewność w przewidywaniu jej przyszłych wartości. Ilość informacji (lub za Demingiem i Morganem, 1993 informacji unormowanej) jest odwrotnością znormalizowanej niepewności.

W przypadku prostego 4-układowego doświadczenia, pokazanego wcześniej, funkcja informacji ma postać:

Ix = 4/(1 + x12 + x22)

gdzie x1 i x2 oznaczają odpowiednio wartości wielkości A i B (zob. Box i Draper, 1987).

Powyżej pokazany jest wykres funkcji informacji dla 4-układowego planu ortogonalnego. Przyjrzenie się tej funkcji pozwala zauważyć, że jest ona stała na koncentrycznych okręgach. Tak więc dowolny obrót pierwotnych punktów (układów) planu daje taką samą ilość informacji, to znaczy generuje taką samą funkcję informacji. Dlatego też pokazany wcześniej 4-układowy plan ortogonalny nazywany jest rotalnym (ang. rotatable).

Jak zauważono wcześniej, aby oszacować składnik drugiego rzędu (kwadratowy) lub ogólnie mówiąc nieliniowy występujący w wyrażeniu wiążącym wielkości wejściowe i wielkość wyjściową, potrzebne są przynajmniej 3 wartości dla poszczególnych zmiennych. Jak wygląda funkcja informacji dla prostego planu 3x3, dla modelu drugiego rzędu (kwadratowego) zaprezentowanego na początku tego podrozdziału?

Jak wykazano (zob. Box i Draper, 1987 oraz Montgomery, 1991), funkcja ta wydaje się być bardziej złożona, zawiera "kawałki" o wysokiej gęstości informacji na brzegach (które prawdopodobnie specjalnie nie interesują eksperymentatora) i najwyraźniej nie jest stała na współśrodkowych okręgach. Zatem nie jest rotalna, co oznacza, że różne obroty punktów planu będą dostarczać różnych ilości informacji z obszaru badawczego.

Punkty gwiezdne i plany rotalne drugiego rzędu. Można wykazać, że przez dodanie do prostego (kwadratowego lub sześciennego) dwuwartościowego planu tak zwanych punktów gwiezdnych można uzyskać plan, który jest rotalny oraz często ortogonalny lub niemal ortogonalny. Przykładowo, poprzez dodanie tych punktów do prostego ortogonalnego planu 2x2, który był wcześniej pokazany, można uzyskać następujący plan rotalny:

 AB
Układ 1
Układ 2
Układ 3
Układ 4
Układ 5
Układ 6
Układ 7
Układ 8
Układ 9
Układ 10
 1
 1
-1
-1
-1.414
 1.414
 0
 0
 0
 0
 1
-1
 1
-1
 0
 0
-1.414
 1.414
 0
 0

Pierwsze cztery układy w tym planie stanowią tzw. jądro planu (ang. square points, cube points) i odpowiadają układom wcześniejszego planu kompletnego 2x2; układy od 5 do 8 są tzw. punktami gwiezdnymi (ang. star points, axial points), natomiast układy 9 i 10 tworzą centrum.

Funkcja informacji tego planu dla modelu drugiego rzędu (kwadratowego) jest rotalna, to znaczy jest stała na współśrodkowych okręgach.

Współczynnik alfa rotalność i ortogonalność

Dwie cechy planów omówione dotychczas ortogonalność i rotalność zależą od liczby układów w centrum planu oraz od tak zwanego ramienia gwiezdnego (alfa), które oznacza odległość punktów gwiezdnych od centrum planu (np. 1.414 w planie pokazanym powyżej). Można pokazać (np. zob. Box, Hunter i Hunter, 1978; Box i Draper, 1987; Khuri i Cornell, 1987; Montgomery, 1991), że plan jest rotalny jeżeli:

= ( nc )1/4

gdzie: nc - liczba układów jądra planu.

Centralny plan kompozycyjny jest ortogonalny, jeżeli ramię gwiezdne spełnia zależność:

= {[( nc + ns + n0 )1/2 - nc1/2]2 * nc/4}1/4

gdzie:
nc  liczba układów jądra planu,
ns  liczba punktów gwiezdnych planu,
n0  liczba układów centrum planu.

W celu przygotowania planu jednocześnie (w przybliżeniu) ortogonalnego i rotalnego należy najpierw obrać wartość ramienia gwiezdnego (dla rotalności), a następnie dodać układy w centrum (zob. Khuri i Cornell, 1987), tak więc:

n0 4*nc1/2 + 4 - 2k

gdzie: k - liczba wielkości wejściowych planu.

Na koniec, jeżeli jest wymagany podział na bloki, Box i Draper (1987) podają poniższy wzór na obliczenie ramienia gwiezdnego, co zapewnia ortogonalność, a w większości przypadków także sensowne warstwice funkcji informacji, to jest warstwice, które są zbliżone kształtem do powierzchni kuli:

= [k*(l+ns0/ns)/(1+nc0/nc)]1/2

gdzie:
ns0   liczba układów centrum w gwiezdnej części planu,
ns   liczba układów w gwiezdnej części planu, które nie są układami centrum,
nc0  liczba układów centrum w jądrze planu,
nc   liczba układów jądra, które nie są układami centrum.

Dostępne plany standardowe

Standardowe centralne plany kompozycyjne są zazwyczaj tworzone z planu 2(k-p) jako jądra, które są wzbogacone o układy centrum oraz punkty gwiezdne. Box i Draper (1987) zestawili listę takich planów.

Małe plany kompozycyjne. W przypadku planów standardowych jądro planu ma zazwyczaj rozdzielczość V (lub wyższą). To jednakże nie jest konieczne i w przypadkach, gdy realizacja doświadczeń jest kosztowna lub w przypadkach, gdy nie jest konieczne wykonanie statystycznie mocnego testu adekwatności modelu, można wybrać jako jądro plan o rozdzielczości III. Przykładowo można użyć planów Placketta-Burmana . Takie plany opisał Hartley (1959).

Analiza wyników planów centralnych kompozycyjnych

Analiza wyników pomiarów uzyskanych przy użyciu planów centralnych kompozycyjnych przebiega w dużej mierze podobnie jak analiza planów 3(k-p) . Dopasowujemy ogólny model do dostarczonych danych; przykładowo dla dwóch wielkości wejściowych dobrany model ma postać:

y = b0 + b1*x1 + b2*x2 + b12*x1*x2 + b11*x12 + b22*x22

Wyznaczanie powierzchni odpowiedzi

Dopasowanie (adekwatność, zgodność) modelu z powierzchnią odpowiedzi może być najlepiej uwidocznione na wykresie. Możemy wykonać zarówno wykresy warstwicowych, jak i przestrzennych (trójwymiarowych) powierzchni odpowiedzi dla wyznaczonego modelu.

Analiza skategoryzowanych powierzchni odpowiedzi

Istnieje możliwość dopasowania powierzchni trójwymiarowej do danych klasyfikowanych według innych zmiennych. Dla przykładu, jeżeli zastosowano centralny plan kompozycyjny z 4 powtórzeniami może okazać się cenne uzyskanie informacji, jak bardzo zbliżone do siebie są powierzchnie dopasowane do poszczególnych powtórzeń.

Może to posłużyć do graficznej oceny wiarygodności wyników oraz określenia miejsc (np. fragmentów powierzchni), w których występują odchylenia.

Widać wyraźnie, iż trzecie powtórzenie wygenerowało zupełnie inną powierzchnię. W powtórzeniach 1, 2 oraz 4, dopasowane powierzchnie są do siebie bardzo podobne. Dlatego należy sprawdzić co wpłynęło na różnicę, którą możemy zaobserwować w trzecim powtórzeniu układu.
Indeks


Plany kwadratów łacińskich

Wprowadzenie

Plany kwadratów łacińskich (termin kwadraty łacińskie został użyty po raz pierwszy przez Eulera, 1782) są stosowane wówczas, gdy liczba wartości wielkości wejściowych jest większa od 2 oraz z góry wiadomo, że nie ma żadnych (lub są pomijalne) interakcji pomiędzy wielkościami wejściowymi. Przykładowo, aby zbadać wpływ 4 dodatków paliwowych na redukcję tlenków azotu, dysponując 4 samochodami oraz 4 kierowcami, można, oczywiście, przeprowadzić badania według kompletnego planu czynnikowego 4x4x4, co daje w wyniku 64 pomiary eksperymentalne. Jednakże, żadne (małe) interakcje pomiędzy dodatkami paliwowymi a kierowcami, dodatkami paliwowymi a samochodami i wreszcie pomiędzy samochodami a kierowcami, nie są interesujące. Jednocześnie ważne jest uzyskanie pewności, że efekty główne związane z kierowcami oraz samochodami nie wpływają (nie obciążają) oszacowania efektu głównego dla dodatku paliwowego.

Jeżeli dodatki paliwowe zostały oznaczone literami A, B, C i D, to plan kwadratu łacińskiego, który umożliwia uzyskanie nieuwikłanych estymatorów efektów głównych ma postać (zob. także Box, Hunter i Hunter, 1978, str. 263):

 Samochód
Kierowca1234
1
2
3
4
A
D
B
C
B
C
D
A
D
A
C
B
C
B
A
D

Opis planów kwadratów łacińskich

Przykład pokazany powyżej jest tylko jednym z trzech możliwych sposobów takiego doboru wartości wielkości wejściowych, że możliwe jest uzyskanie nieobciążonych estymatorów efektów głównych. Te "sposoby" są nazywane kwadratem łacińskim. Powyższy przykład jest kwadratem łacińskim 4 x 4; i zamiast przeprowadzać 64 pomiary, w zupełności wystarczy 16.

Kwadraty grecko-łacińskie. Użyteczną cechą kwadratów łacińskich jest możliwość przekształcenia ich do formy nazywanej kwadratami grecko-łacińskimi. Przykładowo, poniższe dwa kwadraty łacińskie 3 x 3 mogą być złączone do postaci kwadratu grecko-łacińskiego:

Przy pomocy otrzymanego planu kwadratu grecko-łacińskiego można obliczyć efekty główne dla czterech trójwartościowych wielkości wejściowych (wiersz, kolumna, litera łacińska, litera grecka), realizując jedynie 9 układów.

Kwadraty hiper-grecko-łacińskie. Przy niektórych liczbach wartości wielkości wejściowych istnieją więcej niż 2 sposoby ułożenia kwadratu łacińskiego. Przykładowo, dla czterowartościowego kwadratu łacińskiego są trzy możliwe ułożenia. Jeżeli wszystkie trzy zostaną połączone, uzyskuje się plan kwadratu hiper-grecko-łacińskiego. Plan taki pozwala na obliczenie efektów głównych dla pięciu czterowartościowych wielkości wejściowych poprzez realizację zaledwie 16 układów.

Analiza wyników

Analiza wyników pomiarów wykonanych według planu kwadratu łacińskiego jest prosta. Dla ułatwienia interpretacji wyników można wykonać wykresy wartości średnich.

Plany bardzo duże, efekty losowe, zagnieżdżanie niezrównoważone.

Należy zwrócić uwagę, że jest wiele metod statystycznych, które mogą posłużyć do analizy tego rodzaju planów; szczegóły zob. podrozdział Metody analizy wariancji . W szczególności rozdział Komponenty wariancyjne i model mieszany ANOVA/ANCOVA są bardzo skuteczne w analizie planów z niezrównoważonymi zagnieżdżeniami (gdy zagnieżdżone wielkości wejściowe mają różne liczby wartości wewnątrz układów wielkości w których są zagnieżdżone), bardzo dużych planów zagnieżdżonych (to znaczy w przypadku 200 układów i więcej) albo planów hierarchicznie zagnieżdżonych.

Indeks


Metody Taguchi

Wprowadzenie

Zastosowania. W ostatnich latach odnotowano wzrastającą popularność metod Taguchi. Udokumentowane przykłady znaczącej poprawy jakości (zob. np. Phadke, 1989; Noori, 1989), które wyniknęły z zastosowania tych metod, należą do powszechnie znanych wśród amerykańskich wytwórców. W istocie, niektórzy z wiodących producentów w USA zastosowali te metody, osiągając zazwyczaj duży sukces. Przykładowo AT&T używa tych metod w produkcji układów scalonych bardzo dużej skali integracji (VLSI); ponadto dzięki tym metodom Ford Motor Company osiągnął znaczącą poprawę jakości (American Supplier Institute, od 1984 do 1989). Jednakże w miarę, jak szczegóły tych metod stają się coraz szerzej znane, pojawiają się także opracowania krytyczne (np. Bhote, 1988; Tribus i Szonyi, 1989).

Wprowadzenie. Metody Taguchi w rozmaitych aspektach odbiegają od tradycyjnych procedur sterowania jakością (zob. Kontrola jakości i Analiza procesów ) i doświadczalnictwa przemysłowego. Szczególne znaczenie mają:

  1. koncepcja funkcji straty jakości,
  2. użycie współczynników stosunku sygnału do szumu (S/N),
  3. użycie tablic ortogonalnych.
Powyższe podstawy metod Taguchi (robust design) są omówione szerzej w następnych podrozdziałach. Na temat tych metod opublikowano w ostatnim czasie kilkanaście książek, przykładowo Peace (1993), Phadke (1989), Ross (1988) i Roy (1990), aby wymienić tylko kilka tytułów. W przypadku zainteresowania się głębszymi podstawami tych metod należy zapoznać się z wymienionymi pozycjami. Wprowadzenie na poziomie podstawowym do idei Taguchiego odnośnie jakości i poprawy jakości można też znaleźć u Barkera (1986), Garvina (1987), Kackara (1986) i Nooriego (1989).

Jakość i funkcja straty

Czym jest jakość. Analiza Taguchiego rozpoczyna się pytaniem, jak zdefiniować jakość. Nie jest łatwo zdefiniować, co tworzy jakość; jednakże, gdy nowy samochód staje nagle na środku ruchliwego skrzyżowania narażając kierujących na ryzyko wypadku można powiedzieć, że samochód nie ma wysokiej jakości. Mówiąc inaczej, definicja przeciwieństwa jakości jest raczej prosta: jest to całkowita strata poniesiona przez użytkownika i społeczność z powodu odchyleń funkcjonalnych i szkodliwych efektów ubocznych danego produktu. Tak więc, jako definicję operacyjną można przyjąć pomiar jakości poprzez tę stratę, im większa strata jakości tym niższa jakość.

Nieciągła (skokowa) funkcja straty. Można sformułować hipotezę na temat ogólnej natury i kształtu funkcji straty (loss function). Można rozważyć szczególny idealny punkt najwyższej jakości; przykładowo perfekcyjny samochód bez żadnych problemów jakościowych. W procesie statystycznego sterowania jakością (SPC; zob. także Analiza Procesów) zwyczajowo definiuje się przedział tolerancji wokół nominalnego idealnego punktu procesu produkcyjnego. Odnosząc się do tradycyjnego punktu widzenia narzucanego przez ogólne metody SPC, dopóki proces produkcyjny znajduje się w przedziale tolerancji, to nie ma żadnego problemu. Mówiąc innymi słowami, w przedziale tolerancji utrata jakości wynosi zero; natomiast poza przedziałem tolerancji deklarowana jest jako poziom nieakceptowalny. Według tradycyjnego spojrzenia funkcja utraty jakości jest funkcją nieciągłą: w przedziale tolerancji utrata jakości jest pomijalna; po wyjściu poza przedział tolerancji utrata jakości jest nieakceptowalna.

Kwadratowa funkcja straty. Czy funkcja skokowa, wynikająca z ogólnie przyjętych metod SPC, jest dobrym modelem utraty jakości? Można wrócić do przykładu "perfekcyjnego samochodu". Czy istnieje różnica pomiędzy samochodem, w którym nic się nie popsuło w trakcie roku po zakupie, a samochodem, w którym objawiły się stukania, kilka zaczepów odpadło i popsuł się zegar na desce rozdzielczej (oczywiście, wszystko w ramach gwarancji...)? Każdy, komu zdarzyło się kupić samochód podobny do drugiego z wymienionych, wie, jak dokuczliwe mogą być te pozornie drobne i może nawet dopuszczalne problemy jakościowe. Celem jest pokazanie, jak nierealistyczne jest zakładanie, że odchylenie procesu produkcyjnego od nominalnej specyfikacji nie powoduje utraty jakości, o ile tylko znajduje się wewnątrz przedziału tolerancji. Wręcz odwrotnie, jeżeli proces nie jest idealnie "w celu", to pojawia się utrata jakości, wyrażalna na przykład w terminach satysfakcji użytkownika. Więcej, funkcja utraty jakości nie jest liniową funkcją odchylenia od nominalnej specyfikacji, lecz raczej kwadratową (odwrócone U). Jeżeli pojawi się stukanie w jakimś miejscu samochodu, użytkownik nie jest jeszcze rozsierdzony, ale gdy pojawią się stukania w dalszych dwóch miejscach, może określić samochód jako "śmieć". Stopniowe odchylanie procesu od specyfikacji nominalnej nie skutkuje proporcjonalną, ale raczej podniesioną do kwadratu utratą jakości.

Wniosek: kontrola zmienności. Jeżeli faktycznie utrata jakości jest kwadratową funkcją odchylenia od wartości nominalnej, to celem wysiłków na rzecz poprawy jakości powinno być minimalizowanie kwadratów odchyleń albo wariancji produktu wokół nominalnej (idealnej) specyfikacji, a nie liczba produktów mieszczących się w zadanych przedziałach (tak, jak jest to robione w tradycyjnych procedurach sterowania jakością).

Współczynniki stosunku sygnału do szumu (S/N)

Pomiar utraty jakości. Choć pokazaliśmy już, że funkcja utraty jakości ma prawdopodobnie przebieg kwadratowy, to w dalszym ciągu nie jest wiadome, jak precyzyjnie zmierzyć utratę jakości. Jednakże wiadomo, że cokolwiek będzie mierzone, powinno to odzwierciedlać kwadratowy przebieg funkcji.

Sygnał, szum i czynniki sterujące. Produkt o idealnej jakości powinien zawsze dokładnie w taki sam sposób odpowiadać na sygnały kierowane do niego przez użytkownika. Jeżeli kierowca przekręca kluczyk w stacyjce swojego samochodu, to oczekuje, że rozrusznik uruchomi silnik samochodu. W samochodzie o idealnej jakości proces uruchomienia powinien zawsze przebiegać w taki sam sposób na przykład po trzech obrotach rozrusznika silnik powinien zacząć normalną pracę. Jeżeli, w odpowiedzi na taki sam sygnał (przekręcenie kluczyka) występuje losowa zmienność procesu, to oznacza, że jakość jest mniejsza od idealnej. Przykładowo, z powodu takich niekontrolowanych czynników jak nadzwyczajne zimno, wilgotność, opory silnika itp. silnik może czasami uruchamiać się po 20 obrotach a na koniec może w ogóle nie dać się uruchomić. Ten przykład pokazuje kluczową zasadę mierzenia jakości przyjętą przez Taguchiego: Celem jest minimalizacja zmienności działania produktu w odpowiedzi na czynniki zakłócające, szumowe (N - ang. noise factors), przy jednoczesnej maksymalizacji zmienności w odpowiedzi na czynniki sygnału (S - ang. signal factors).

Szumem są te czynniki, które pozostają poza kontrolą użytkownika produktu. W przypadku samochodu są to zmiany temperatury, różne jakości benzyn, obciążenie silnika itp. Sygnałami są te czynniki, które są ustawiane lub kontrolowane przez użytkownika produktu w celu spełnienia pożądanych funkcji (przekręcenie kluczyka w celu uruchomienia samochodu).

Ostatecznie, celem wysiłków na rzecz poprawy jakości jest znalezienie najlepszych wartości czynników znajdujących się pod kontrolą, które występują w procesie produkcyjnym, aby zmaksymalizować współczynnik określony przez stosunek (iloraz) S/N. Jednocześnie zauważyć można, że wielkości wejściowe doświadczenia reprezentują w tym przypadku czynniki sterujące.

Współczynniki S/N. Wnioskiem wypływającym z poprzedniego akapitu jest stwierdzenie, że jakość może być wyrażona ilościowo w terminach odpowiedzi odpowiedniego produktu na czynniki stanowiące odpowiednio sygnały i szum. Idealny produkt odpowiada tylko na sygnały użytkownika i nie reaguje na losowe czynniki zakłócające (pogodę, temperaturę, wilgotność itp.). Dlatego też cel wysiłków na rzecz poprawy jakości może być wyrażony jako dążenie do uzyskania maksymalnego stosunku sygnału do szumu (S/N) dla odpowiedniego produktu. Wymienione poniżej współczynniki S/N zostały zaproponowane przez Taguchiego (1987).

Im mniejsze - tym lepsze. W przypadku, gdy jest celowe zminimalizowanie wystąpienia pewnych niepożądanych cech produktu, należy stosować następujący współczynnik S/N:

Eta = -10 * log10 [(1/n) * (yi2)]     dla i = 1 do n (liczba zmiennych)     patrz także tablice zewnętrzne

Eta jest tutaj współczynnikiem S/N; n jest liczbą pomiarów dla konkretnego produktu, a y jest odpowiednią cechą. Na przykład, liczba skaz na lakierze samochodu może być zmierzona jako zmienna y i analizowana poprzez współczynnik S/N. Efektem czynników sygnałowych jest zero, gdyż brak skaz na lakierze samochodu jest jedynym pożądanym stanem powłoki lakierniczej samochodu. Warto zwrócić uwagę, w jaki sposób powyższy współczynnik S/N wyraża kwadratową naturę funkcji utraty jakości. Czynnik -10 gwarantuje, że współczynnik mierzy odwrotność "złej jakości"; im więcej skaz na lakierze, tym większa suma kwadratów liczby skaz, a więc mniejszy (to jest gorszy) współczynnik S/N. Tak więc maksymalizacja tego współczynnika przyniesie poprawę jakości.

Najlepsze-nominalne. Poniżej pokazana jest stała wartość sygnału (wartość nominalna), a zmienność wokół tej wartości może być traktowana jako wynik działania szumu:

Eta = 10 * log10 (Średnia2/Wariancja)

Powyższy współczynnik sygnału do szumu może być użyty wszędzie tam, gdzie idealna jakość jest tożsama z utrzymywaniem szczególnej wartości nominalnej. Przykładem mogą być pierścienie tłokowe do silników samochodowych, których rozmiar aby uzyskać wysoką jakość musi być tak blisko specyfikacji, jak to tylko możliwe.

Im większe - tym lepsze. Przykładem tak wyrażonego problemu inżynierskiego może być efektywność zużycia paliwa przez samochód (w kilometrach na litr), wytrzymałość betonu, oporność materiałów izolacyjnych itp. Powinno się wówczas użyć poniższego współczynnika S/N:

Eta = -10 * log10 [(1/n) * (1/yi2)]     for i = 1 do n (liczba zmiennych)     patrz także tablice zewnętrzne

Znakowany cel. Ten typ współczynnika S/N jest właściwy do zastosowania wówczas, gdy interesująca cecha jakościowa ma idealną wartość 0 (zero) i mogą pojawić się zarówno dodatnie, jak i ujemne wartości tej cechy. Przykładem może być przesunięcie stałonapięciowe różnicowego wzmacniacza operacyjnego, które może być dodatnie lub ujemne (zob. Phadke, 1989). Dla problemów takiego rodzaju należy użyć następującego współczynnika S/N:

Eta = -10 * log10(s2)     dla i = 1 do n (liczba zmiennych)    patrz także tablice zewnętrzne

gdzie: s2 wariancja cechy opisującej jakość w zbiorze pomiarów.

Częściowo-niesprawne. Przytoczony tu współczynnik S/N jest użyteczny do minimalizacji defektów, zmniejszania procentu pacjentów wykazujących skutki uboczne działania leku itp. Taguchi nazywa otrzymane wartości Eta jako Omega; warto zwrócić uwagę, że ten współczynnik S/N jest identyczny z ogólnie znaną transformacją logitową (zob. także Estymacja nieliniowa ):

Eta = -10 * log10[p/(1-p)]

gdzie
p procent defektów.

Uporządkowane kategorie (analiza kumulacyjna). W niektórych przypadkach pomiar jakości może odbywać się tylko z przyjęciem pewnych uporządkowanych kategorii (ordered categories) tworzących określone klasy jakości. Przykładowo, konsument może podzielić produkty na wspaniałe, dobre, średnie lub poniżej średniej. W tym przypadku należy dążyć do zwiększenia liczby ocen wspaniały lub dobry. Typowe wyniki analizy kumulacyjnej są prezentowane graficznie jako wykres słupkowy nakładany.

Tablice ortogonalne

Trzeci element metody Taguchi jest bardzo zbliżony do tradycyjnych technik. Taguchi opracował system stablicowanych planów doświadczenia (tablic), które umożliwiają obliczenie maksymalnej liczby nieobciążonych (ortogonalnych) efektów głównych przy minimalnej liczbie układów planu. W osiągnięciu tego celu mogą być pomocne także plany kwadratów łacińskich , plany frakcyjne dwuwartościowe (w szczególności plany Placketta-Burmana ) oraz plany Boxa-Behnkena . Tak naprawdę, wiele ze standardowych tablic ortogonalnych opracowanych przez Taguchiego jest identycznych z planami frakcyjnymi dwuwartościowymi, planami Placketta-Burmana, planami Boxa-Behnkena, planami kwadratów łacińskich itd.

Analiza wyników

Większość analiz wariancji współczynników S/N uzyskanych w doświadczeniach przeprowadzonych na podstawie metod Taguchi ignoruje interakcje dwuczynnikowe i wyższego rzędu. Jednakże w trakcie estymacji wariancji błędów zwyczajowo łączy się razem pomijalnie małe efekty główne.

Analiza współczynników S/N w planach standardowych. W tym miejscu należy zwrócić uwagę, że wszystkie plany doświadczeń omawiane do tej pory (np. 2(k-p), 3(k-p) , mieszane dwu- i trójwartościowe, plany kwadratów łacińskich , centralne plany kompozycyjne ) mogą być użyte do analizy współczynników S/N, które obliczymy. W samej rzeczy, wiele wykresów i innych opcji udostępnianych dla tych planów (np. estymacja składników kwadratowych itd.) może okazać się bardzo użytecznych podczas analizy zmienności współczynników S/N w procesie produkcyjnym.

Wykres wartości średnich. Wizualnym podsumowaniem doświadczeń jest wykres średnich wartości Eta (współczynnika S/N) względem wartości czynników. Na tym wykresie optymalna wartość (największa wartość współczynnika S/N) dla każdego czynnika stanowiącego wielkość wejściową może być łatwo zidentyfikowana.

Doświadczenia weryfikujące. Istnieje możliwość obliczenia oczekiwanych wartości współczynnika S/N dla zadanych wartości czynników (przy ignorowaniu czynników, które zostały włączone do składnika błędu). Takie przewidziane wartości współczynników S/N mogą być później użyte w doświadczeniu weryfikującym, kiedy inżynier ustawia maszynę według odpowiednich wartości czynników i porównuje współczynnik S/N dla wartości zmierzonych, z wartościami przewidywanymi z wcześniejszego doświadczenia. Jeżeli pojawią się większe odchylenia, należy wówczas stwierdzić, że prosty model wyłącznie z efektami głównymi nie jest właściwy.

W takich przypadkach Taguchi (1987) sugeruje przeprowadzenie odpowiedniej transformacji wielkości wyjściowej, aby uzyskać addytywność czynników, czyli "zmusić" model efektów głównych do właściwego dopasowania. Phadke (1989, Rozdział 6) także omawia szczegółowo metody uzyskiwania addytywności czynników.

Analiza kumulacyjna

W sytuacji przeprowadzania analizy danych uporządkowanych w klasach analiza wariancji ANOVA nie jest odpowiednią metodą. W takiej sytuacji wykorzystujemy wykres kumulacyjny liczności pomiarów w poszczególnych klasach. Dla każdej wartości każdego czynnika, rysujemy skumulowane udziały liczby defektów. Taki wykres dostarcza wartościowej informacji dotyczącej liczności w poszczególnych klasach z uwzględnieniem wpływu różnych czynników.

Podsumowanie

Podsumowując krótko, należy stwierdzić, że korzystając z metod Taguchi należy przede wszystkim określić czynniki sterujące, których wartości mogą być ustawiane przez projektanta lub inżyniera. Czynniki te będą następnie wielkościami wejściowymi planu doświadczenia, w którym będą miały przypisywane różne wartości. Następnie należy wybrać odpowiednią dla doświadczenia tablicę ortogonalną. Następnie należy zdecydować, w jaki sposób będą mierzone cechy określające jakość. Warto pamiętać, że większość współczynników S/N wymaga przeprowadzenia wielokrotnych pomiarów w każdym układzie planu; w przeciwnym razie nie byłoby możliwe określenie np. zmienności wokół wartości nominalnej. Ostatecznie pozostaje przeprowadzenie badań i zidentyfikowanie wielkości, które najsilniej oddziałują na wybrany współczynnik S/N. Wówczas pozostaje tylko przestawić maszynę lub proces produkcyjny na odpowiednie wartości.

Indeks


Plany dla mieszanin i powierzchnie o podstawie trójkątnej

Wprowadzenie

Specyficzne trudności powstają przy analizie mieszanin składników, które muszą się sumować do wartości stałej. Na przykład, w przypadku optymalizacji smaku koktajlu składającego się z soku 5 owoców, suma udziałów wszystkich soków musi wynosić 100%. Zadania optymalizacji mieszanin najczęściej pojawiają się przy przetwarzaniu żywności, rafinacji lub produkcji chemikaliów. Pewna liczba planów została opracowana specjalnie dla specyficznej analizy i modelowania mieszanin (zob. np. Cornell, 1990a, 1990b; Cornell i Khuri, 1987; Deming i Morgan, 1993; Montgomery, 1991).

Współrzędne trójkątne

Powszechnie stosowanym sposobem przedstawienia udziałów mieszanin najczęściej złożonych z nie więcej jak trzech składników są wykresy we współrzędnych trójkątnych (potrójnych; ang. triangular, ternary). Przykładowo można rozważyć mieszaninę złożoną z trzech składników A, B i C. Jakakolwiek mieszanina trzech składników może być jednoznacznie określona poprzez podanie punktu w układzie współrzędnych trójkątnych zdefiniowanych przez trzy zmienne.

Na przykład można wziąć następujących 6 mieszanin złożonych z 3 składników.

ABC
1
0
0
0.5
0.5
0
0
1
0
0.5
0
0.5
0
0
1
0
0.5
0.5

Suma dla każdej mieszaniny wynosi 1, tak więc wartości poszczególnych składników mogą być interpretowane jako udziały składnika. Jeżeli powyższe dane przedstawi się jako punkty na wykresie trójwymiarowym, to okaże się, że punkty te sformowały trójkąt w przestrzeni trójwymiarowej. Prawidłowymi mieszaninami są tylko punkty z wnętrza trójkąta, w którym suma wartości składników jest równa 1. Dlatego też można ograniczyć się do narysowania trójkąta, aby określić jednoznacznie wartości (udziały) poszczególnych składników dla każdej mieszaniny.

W celu odczytania współrzędnych punktu z wykresu trójkątnego, należy z każdego wierzchołka trójkąta po prostu "opuścić" linię przechodzącą przez rozpatrywany punkt aż do przecięcia się z przeciwległym bokiem trójkąta.

W wierzchołkach poszczególnych składników ma się do czynienia z mieszaniną jednoskładnikową, to jest zawierającą tylko jeden składnik. Tak więc współrzędne wierzchołka mają wartość 1 dla danego składnika i 0 (zero) dla pozostałych dwóch składników. Na przeciwległym końcu odcinka współrzędne mają wartość 0 (zero) dla danego składnika i 0.5 (lub 50%) dla pozostałych dwóch składników.

Wykresy przestrzenne i warstwicowe o podstawie trójkątnej

Do dotychczasowych wymiarów układu trójkątnego można dodać wymiar czwarty, prostopadły do pierwszych trzech. Używając tego wymiaru można zaznaczyć wartości zmiennej zależnej stanowiącej funkcję, której argumentami są odpowiednie zmienne niezależne. Warto zwrócić uwagę, że powierzchnia odpowiedzi może być pokazana albo na wykresie przestrzennym, gdzie przewidywana odpowiedź (np. ocena smaku) jest wskazywana przez odległość powierzchni od płaszczyzny trójkąta, albo na wykresie płaskim, gdzie warstwice smaku są narysowane wprost na tzw. trójkącie.

Należy pamiętać, że możemy wykonać tzw. skategoryzowane wykresy trójkątne (ang. categorized ternary graphs). Jest to bardzo użyteczne, gdyż pozwala na dopasowanie do zmiennej zależnej (np. Smaku) powierzchni odpowiedzi dla różnych wartości czterech składników.

Postać kanoniczna wielomianów dla mieszanin

Dopasowywanie powierzchni odpowiedzi do wyników dla mieszanin jest, w swoich podstawach, wykonywane w taki sam sposób, jak dopasowanie powierzchni do danych np. z centralnego planu kompozycyjnego . Jednakże pojawia się problem polegający na tym, iż dane dla mieszanin są poddane ograniczeniom, to znaczy suma wszystkich składników musi być stała.

Można rozważyć prosty przypadek dwóch czynników A i B, a następnie spróbować dopasować prosty model liniowy:

y = b0 + bA*xA + bB*xB

gdzie:
y          wielkość wyjściowa zależna,
bA i bB współczynniki funkcji regresji stanowiącej model liniowy,
xA i xB wielkości wejściowe niezależne, czyli tzw. czynniki.

W przypadku, gdy xA i xB muszą sumować się do 1, można pomnożyć b0 przez 1=(xA + xB):

y = (b0*xA + b0*xB) + bA*xA + bB*xB

albo:

y = b'A*xA + b'B*xB

gdzie: b'A = b0 + bA oraz b'B = b0 + bB. Tak więc estymacja parametrów tego modelu została uproszczona do regresji wielokrotnej bez składnika stałego. (zob. Regresja wielokrotna ).

Powszechnie stosowane modele dla mieszanin

Modele kwadratowy i trzeciego stopnia mogą być w analogiczny sposób uproszczone (jak zostało to powyżej pokazane dla prostego modelu liniowego), dając w efekcie cztery standardowe modele, które są zwyczajowo stosowane dla mieszanin. Poniżej są zebrane wzory dla tych modeli w przypadku trzech zmiennych (dodatkowe szczegóły zob. Cornell, 1990).

Model liniowy:

y = b1*x1 + b2*x2 + b3*x3

Model kwadratowy:

y = b1*x1 + b2*x2 + b3*x3 + b12*x1*x2 + b13*x1*x3 + b23*x2*x3

Specjalny model kubiczny (trzeciego stopnia):

y = b1*x1 + b2*x2 + b3*x3 + b12*x1*x2 + b13*x1*x3 + b23*x2*x3 + b123*x1*x2*x3

Pełny model kubiczny (trzeciego stopnia):

y = b1*x1 + b2*x2 + b3*x3 + b12*x1*x2 + b13*x1*x3 + b23*x2*x3 + d12*x1*x2*(x1 - x2) + d13*x1*x3*(x1 - x3) + d23*x2*x3*(x2 - x3) +b123*x1*x2*x3

(Należy zwrócić uwagę, że dij są także parametrami modelu).

Standardowe plany doświadczeń dla mieszanin

Dwa rodzaje standardowych planów doświadczeń są powszechnie używane w przypadku mieszanin. Oba rodzaje wymagają wykonania pomiarów w wierzchołkach (tj. w narożach trójkąta) oraz w środkach ciężkości (boków trójkąta). Czasem plany te są uzupełniane dodatkowymi punktami wewnętrznymi.

Plan sympleksowo-kratowy. W tym przypadku każdy czynnik lub składnik modelu jest badany przy m+1 równo oddalonych wartościach jego udziałów:

xi = 0, 1/m, 2/m, ..., 1     i = 1,2,...,q

i użyte są wszystkie kombinacje wartości czynników. Otrzymany plan doświadczenia nosi nazwę planu sympleksowego typu {q,m}. Przykładowo, plan sympleksowy typu {q=3,m=2} zawiera następujące mieszaniny:

ABC
1
0
0
.5
.5
0
0
1
0
.5
0
.5
0
0
1
0
.5
.5

Natomiast plan sympleksowy typu {q=3,m=3} zawiera takie układy:

ABC
1
0
0
1/3
1/3
0
2/3
2/3
0
1/3
0
1
0
2/3
0
1/3
1/3
0
2/3
1/3
0
0
1
0
2/3
2/3
0
1/3
1/3
1/3

Plan sympleksowo-centroidowy. Odmiennym sposobem ułożenia wartości zaproponowanym przez Scheffégo (1963) jest tzw. plan sympleksowo-centroidowy. Układy planu tworzone są poprzez pełną permutację czystych składników (np. 1 0 0; 0 1 0; 0 0 1), permutację mieszanin dwuskładnikowych (1 1 0; 1 0 1; 0 1 1); permutację mieszanin zawierających trzy składniki itd. Na przykład, dla 3 czynników plan sympleksowo-centroidowy składa się z następujących układów:

ABC
1
0
0
1/2
1/2
0
1/3
0
1
0
1/2
0
1/2
1/3
0
0
1
0
1/2
1/2
1/3

Dodawanie układów wewnętrznych. Powyższe plany są czasem wzbogacane o układy wewnętrzne (zob. Khuri i Cornell, 1987, str. 343; Mason, Gunst i Hess, 1989, str. 230). Przykładowo, dla 3 czynników można dodać następujące układy wewnętrzne:

ABC
2/3
1/6
1/6
1/6
2/3
1/6
1/6
1/6
2/3

Jeżeli naniesie się powyższe układy planu na wykres w trójkątnym układzie współrzędnych to można zobaczyć, jak równomiernie pokrywają one obszar badań ograniczony trójkątem.

Ograniczenia dolne

Wszystkie plany doświadczeń opisane powyżej wymagają punktów wierzchołkowych, to jest mieszanin składających się tylko z jednego składnika. W praktyce układy te mogą nie być możliwe do zrealizowania z powodu kosztów lub innych ograniczeń. Przykładowo, można rozważyć badanie wpływu dodatków żywnościowych na smak koktajlu owocowego. Zawartość takiego dodatku może być zmienna w wąskich granicach, gdyż np. nie może przekroczyć określonego procentu całości. Mówiąc jaśniej, koktajl owocowy, który składałby się tylko z takiego dodatku żywnościowego mógłby nie być w ogóle koktajlem lub, co gorsza, mógłby być trujący. Takie rodzaje ograniczeń są powszechnie spotykane w badaniach nad mieszaninami.

Można rozważyć przykład mieszaniny trójskładnikowej, przy czym składnik A ma nałożone ograniczenie takie, iż xA0,3. Suma udziałów dla całej mieszaniny musi wynosić 1. Powyższe ograniczenie może być pokazane na wykresie potrójnym przy pomocy linii o współrzędnej trójkątnej xA=0,3, to jest linii, która jest równoległa do boku trójkąta przeciwległego do wierzchołka A.

W tym momencie można utworzyć plan doświadczenia taki, jak poprzednio, z tym jednak wyjątkiem, że jeden z boków trójkąta jest obecnie definiowany poprzez ograniczenie. Później, w trakcie analizy, możliwe będzie uzyskanie estymatorów parametrów dla tzw. pseudoskładników, traktując przy tym trójkąt z ograniczeniami tak, jakby był kompletnym trójkątem.

Wielokrotne ograniczenia. Wielokrotne dolne ograniczenia mogą być traktowane analogicznie jak poprzednio, to znaczy program utworzy mniejszy trójkąt wewnątrz trójkąta pełnego, a następnie rozmieści układy wybranego planu doświadczenia w tym mniejszym trójkącie.

Ograniczenia górne i dolne

W przypadku, gdy nałożone są jednocześnie ograniczenia górne i dolne (jak to często się zdarza w doświadczeniach z mieszaninami) nie można użyć standardowych planów sympleksowo-kratowych, ani też sympleksowo-centroidowych, ponieważ obszar zdefiniowany przez ograniczenia nie jest trójkątem. Istnieje ogólny algorytm dla odnajdywania wierzchołków i środków ciężkości (centroids) dla planów z takimi ograniczeniami .

Warto zwrócić uwagę, że w dalszym ciągu można analizować takie plany poprzez odpowiedni dobór standardowych modeli do uzyskanych wyników.

Analiza wyników doświadczeń z mieszaninami

Analiza doświadczeń z mieszaninami to w praktyce regresja wielokrotna (wielowymiarowa) ze składnikiem stałym (ang. intercept) sprowadzonym do zera. Jak pokazano wcześniej, warunek integralności dla mieszaniny (suma składników jest wielkością stałą) może być spełniony poprzez użycie modeli regresji wielokrotnej, które nie zawierają składnika stałego. Jeżeli pojęcia użyte tutaj wydają się mało zrozumiałe, proponujemy zapoznanie się z rozdziałem zatytułowanym Regresja wielokrotna .

Modele, które są zazwyczaj używane, zostały już wcześniej omówione. Podsumowując, można powiedzieć, że dopasowanie modelu do powierzchni odpowiedzi rozpoczyna się od modelu liniowego, poprzez kwadratowy, specjalny trzeciego stopnia dochodząc do pełnego modelu trzeciego stopnia. W zamieszczonej poniżej tablicy zestawiono liczbę parametrów każdego modelu w zależności od liczby składników mieszaniny (zob. także Tablica 4, Cornell, 1990):

 Model (stopień wielomianu)
 
Liczba
Składników
 
 
Liniowy
 
 
Kwadratowy
Specjalny
trzeciego
stopnia
Pełny
trzeciego
stopnia
2
3
4
5
6
7
8
2
3
4
5
6
7
8
  3
  6
10
15
21
28
36
  --
  7
14
25
41
63
92
  --
  10
  20
  35
  56
  84
120

Analiza wariancji

Przed podjęciem decyzji, który z modeli o rosnącej złożoności umożliwia przeprowadzenie wystarczającego dopasowania do wyników pomiarów, można porównać modele w hierarchiczny, zstępujący sposób. Przykładowo, można rozważyć mieszaninę o 3 składnikach, dla której dopasowano pełny model trzeciego stopnia.

ANOVA; Zm.:DV (mixt4.sta)
 3 wielkości; plan dla mieszaniny; Suma mieszaniny=1., 14 Układów
Kolejne dopasowanie modeli o wzrastającej złożoności
 
Model
SS
Efekt
df
Efekt
MS
Efekt
SS
Błąd
df
Błąd
MS
Błąd
 
F
 
p
 
R-kwd
R-kwd
Pop.
Liniowy
Kwadratowy
Specjalny kub.
Kubiczny
Całkowite popr
44.755
30.558
.719
8.229
91.627
2
3
1
3
13
22.378
10.186
.719
2.743
7.048
46.872
16.314
15.596
7.367
 
11
8
7
4
 
4.2611
2.0393
2.2279
1.8417
 
5.2516
4.9949
.3225
1.4893
 
.0251
.0307
.5878
.3452
 
.4884
.8220
.8298
.9196
 
.3954
.7107
.6839
.7387
 

Na początek, do wyników pomiarów dopasowano model liniowy. Choć model ten ma 3 parametry, po jednym dla każdego składnika mieszaniny, posiada on tylko 2 stopnie swobody. Jest to spowodowane nadrzędnym warunkiem integralności mieszaniny, to znaczy, że suma wartości wszystkich składników musi być wartością stałą. Test statystyczny wykazał statystyczną istotność wszystkich parametrów modelu (F(2,11) = 5.25; p<0.05). Dołączenie trzech parametrów modelu kwadratowego (b12*x1*x2, b13*x1*x3, b23*x2*x3) w dalszym ciągu w sposób istotny poprawiło dopasowanie modelu (F(3,8) = 4.99; p<0.05). Jednakże dołączenie parametrów dla specjalnego modelu trzeciego stopnia oraz dla pełnego modelu trzeciego stopnia nie poprawiło znacząco dopasowania powierzchni. Można więc wywnioskować, że model kwadratowy umożliwia adekwatne dopasowanie do wyników pomiarów (oczywiście wymagając późniejszego sprawdzenia reszt dla odstających obserwacji, itd.).

R-kwadrat. Wartość R-kwadrat może być interpretowana jako stopień zmienności wokół wartości średniej zmiennej zależnej, która to zmienność jest powodowana przez wybrany model. (Należy tu wspomnieć, że w przypadku modeli bez składnika stałego niektóre programy dotyczące regresji wielokrotnej obliczają wartość R-kwadrat odnoszącą się tylko do zmienności wokół 0 (zera) powodowanej przez zmienne niezależne; więcej szczegółów w Kvalseth, 1985; Okunade, Chang i Evans, 1993).

Czysty błąd i brak dopasowania. Użyteczność oceny czystego błędu w zastosowaniu do oceny ogólnego braku dopasowania była już omówiona przy okazji centralnych planów kompozycyjnych . Reasumując, jeżeli niektóre układy zawierają powtórzenia, to można wówczas obliczyć ocenę błędu bazującą tylko na zmienności wyników powtarzanych pomiarów. Zmienność ta dostarcza dobrego wskaźnika niepewności (niedokładności) pomiarów, który jest niezależny od rozpatrywanego modelu, gdyż określany jest na podstawie pomiarów przy identycznych wartościach czynników (lub w tym przypadku składników). Można wtedy, po dopasowaniu rozpatrywanego modelu, porównać zmienność resztową z oceną czystego błędu. Jeżeli test okaże się statystycznie istotny, to znaczy, jeżeli zmienność resztowa będzie znacząco większa od czystego błędu, można wywnioskować, że pomiędzy mieszaninami występują znaczące różnice, które nie są wyjaśnione przez przyjęty model. Tak więc może wystąpić ogólny brak dopasowania przyjętego modelu. W takim przypadku niezbędne jest użycie bardziej złożonego modelu, być może przez dołączenie pojedynczych składników z modelu wyższego stopnia (np. dołączenie do modelu liniowego składnika b13*x1*x3).

Estymacja parametrów

Po przeprowadzeniu dopasowania wybranego modelu można zapoznać się z wartościami ocen parametrów modelu. Należy pamiętać, że składniki liniowe w modelach dla mieszanin są poddane ograniczeniom, to znaczy suma składników musi być stała. Stąd przeprowadzenie niezależnych testów istotności statystycznej nie jest możliwe.

Pseudoskładniki

W celu umożliwienia przeprowadzenia niezależnych od skalowania porównań pomiędzy estymatorami parametrów stosuje się normowanie wartości składników do postaci tzw. pseudoskładników (zob. także Cornell, 1993, Rozdział 3):

x'i = (xi-Li)/(Total-L)

gdzie:
x'i       pseudoskładnik,
xi       pierwotna wartość składnika,
Li       dolne ograniczenie (granica) i-tego składnika,
L        suma wszystkich dolnych granic nałożonych na składniki występujące w planie,
Total  stała, występująca w warunku integralności mieszaniny.

Zagadnienia związane z nałożeniem ograniczeń dolnych były już omówione wcześniej w tej części. Jeżeli plan doświadczenia jest standardowym planem typu sympleksowo-kratowego lub sympleksowo-centroidowego, to powyższe przekształcenie sprowadza się do przeskalowania czynników, aby pasowały do mniejszego trójkąta zdefiniowanego przez nałożone ograniczenia. Niemniej, możemy też obliczyć oceny parametrów na podstawie ich rzeczywistej skali. Jeżeli planuje się użyć obliczone parametry do przewidywania wartości zmiennej zależnej, to oceny parametrów odniesione do rzeczywistej skali są często wygodniejsze do zastosowania. Okno dialogowe, prezentujące wyniki otrzymane dla doświadczenia z mieszaninami zawiera opcje, które umożliwiają obliczenie przewidywanej wartości zmiennej wyjściowej dla zadanych przez użytkownika, odniesionych do rzeczywistej skali zmiennych wejściowych.

Opcje wykresów

Wykresy przestrzenne i warstwicowe. Rozpatrywane modele mogą być, po dopasowaniu, prezentowane graficznie w postaci wykresu przestrzennego lub warstwicowego w trójkątnym układzie współrzędnych. Wykres taki może opcjonalnie zawierać także treść wzoru funkcji opisującej model.

Należy zwrócić uwagę, że wzór funkcji wyświetlony na wykresie zawsze zawiera parametry obliczone dla pseudoskładników.

Skategoryzowane wykresy przestrzenne. W przypadku, gdy plan przewiduje realizację powtórzeń (i są one zamieszczone w pliku danych) można użyć wykresów o podstawie trójkątnej 3W, aby zapoznać się z poszczególnymi dopasowaniami, powtórzenie po powtórzeniu.

Oczywiście, w sytuacji, gdy ma się do czynienia także z innymi zmiennymi jakościowymi podzielonymi na odpowiednie klasy (np. operator, badacz, urządzenie itp.), można wykonać wykres przestrzenny względem tych zmiennych.

Wykresy przekrojowe. Użyteczne w interpretacji powierzchni odpowiedzi w trójkątnym układzie współrzędnych są tzw. wykresy przekrojowe (ang. trace plots). Przykładowo można rozważyć wykres warstwicowy powierzchni odpowiedzi dla trzech składników mieszaniny. Następnie określa się mieszaninę odniesienia (ang. reference blend) dla dwóch składników np. taką, że wartości dla A i B wynoszą 1/3. Na koniec, utrzymując cały czas stałe proporcje względne pomiędzy A i B (np. w tym przypadku równe), wykonuje się wykres przewidywanej odpowiedzi dla różnych wartości C.

Jeżeli mieszanina odniesienia dla A i B ma proporcje 1:1, to linia przekroju albo ślad odpowiedzi (ang. response trace) jest osią czynnika C; czyli dwusieczną kąta opuszczoną z wierzchołka C na przeciwległy bok trójkąta. Jednak wykresy przekrojowe mogą być wykonywane także dla innych mieszanin odniesienia. Zazwyczaj wykres przekrojowy zawiera przebiegi dla wszystkich składników przy danej mieszaninie odniesienia.

Wykresy resztowe. Na koniec ważne jest, po wybraniu modelu, aby zapoznać się z błędami resztowymi w celu zidentyfikowania ewentualnych obszarów niedopasowania. Dodatkowo należy zapoznać się ze standardowymi wykresami prawdopodobieństwa normalnego oraz wykresem rozrzutu wartości zmierzonych względem wartości obliczonych. Należy pamiętać, że analiza regresji wielokrotnej zakłada, iż błędy resztowe moją rozkład normalny; stąd też wynika potrzeba skrupulatnego sprawdzenia, czy nie występują przypadki odbiegające od tych założeń.

Indeks


Plany dla ograniczonych obszarów i mieszanin

Wprowadzenie

Jak było wspomniane przy okazji planów dla mieszanin , w rzeczywistych badaniach często zdarza się, że obszar badawczy jest poddany ograniczeniom; to znaczy nie wszystkie wartości wielkości wejściowych mogą występować w połączeniu z wartościami pozostałych wielkości. Stosujemy wtedy algorytm sugerowany przez Piepela (1988) i Snee (1985) dla znajdywania wierzchołków i środków ciężkości ograniczonego obszaru badanego.

Plany dla obszarów z nałożonymi ograniczeniami

W sytuacji, gdy doświadczenie z wieloma czynnikami, stanowiącymi wielkości wejściowe, jest poddane ograniczeniom dotyczącym możliwych wartości tych czynników i ich dopuszczalnych kombinacji, nie jest jasne, jak należy postąpić. Sensownym podejściem jest włączenie do doświadczenia układów w skrajnych punktach wierzchołkowych i środkach ciężkości ograniczonego obszaru badań (np. zob. Piepel, 1988; Snee, 1975). Plany dla mieszanin pokazane w poprzedniej części, są w istocie dobrym przykładem planu poddanego ograniczeniom, gdyż są one skonstruowane tak, aby zawierały wierzchołki i środki ciężkości obszaru ograniczonego, który w tym przypadku jest akurat trójkątem (sympleksem).

Ograniczenia liniowe

Ogólnym sposobem, określenia większości ograniczeń pojawiających się w rzeczywistym doświadczalnictwie jest następująca liniowa nierówność (zob. Piepel, 1988):

A1x1 + A2x2 + ... + Aqxq + A0 0

gdzie A0, .., Aq są parametrami liniowego warunku nałożonego na q czynników, zaś x1,.., xqsą wartościami q czynników. Ten ogólny warunek pozwala opisać nawet bardzo złożone ograniczenia. Przykładowo, w doświadczeniu dwuczynnikowym czynnik pierwszy musi zawsze przyjmować np. wartości co najmniej dwa razy większe od drugiego, to jest x1 2*x2. Ten prosty warunek może być zapisany jako x1-2*x2 0. Ograniczenie ilorazowe 2*x1 /x2 1 może być zapisane jako 2*x1 - x2 0 itd.

Zagadnienie wielokrotnych górnych i dolnych ograniczeń nałożonych na wartości składników mieszaniny było już omówione wcześniej, przy okazji planów dla mieszanin . Przykładowo można rozważyć trójskładnikową mieszaninę soków owocowych, na którą nałożono ograniczenia górne i dolne (zob. przykład 3.2, Cornell 1993):

40% Arbuz (x1) 80%
10% Ananas (x2) 50%
10% Pomarańcza (x3) 30%

Powyższe ograniczenia mogą być przedstawione w formie liniowej jako:

Arbuz:
 
x1-400
-x1+800
Ananas:
 
x2-100
-x2+500
Pomarańcza:
 
x3-100
-x3+300

Tak więc problem znalezienia układów (punktów) planu dla mieszaniny z nałożonymi na składniki górnymi i dolnymi ograniczeniami jest tylko szczególnym przypadkiem ogólnych ograniczeń liniowych.

Algorytm Piepela i Snee

W przypadku mieszanin z nałożonymi ograniczeniami często stosuje się do znalezienia wierzchołków i środków ciężkości ograniczonego obszaru badań (trójkąt dla trzech składników, czworościan dla czterech itd.) odpowiednie algorytmy jak np. XVERT (zob. np. Cornell, 1990). Ogólny algorytm zaproponowany przez Piepela (1988) i Snee (1979) do znajdowania wierzchołków i środków ciężkości, który może być stosowany równie dobrze dla mieszanin, jak i dla pozostałych przypadków. Ogólne podejście zastosowane w algorytmie jest szczegółowo opisane przez Snee (1979).

Konkretnie uwzględnia się, jedno po drugim, ograniczenia zapisane w formie liniowej zaprezentowanej powyżej. Każde ograniczenie przedstawia linię (lub płaszczyznę) przechodzącą przez obszar badawczy. Dla każdego kolejnego ograniczenia sprawdzane jest, czy nowe ograniczenie przecina bieżący obszar dopuszczalny. Jeżeli tak, to obliczone zostaną nowe wierzchołki, co definiuje nowy dopuszczalny obszar ograniczony, aktualny dla już rozpatrzonych warunków. Następnie sprawdza się, czy wcześniejsze ograniczenia nie są redundantne, w tym sensie, że linie lub płaszczyzny pozostają w całości poza obszarem dopuszczalnym. Po przetworzeniu wszystkich ograniczeń, przystępuje się do obliczania środków ciężkości dla brzegów rozpatrywanego obszaru (rząd jest definiowany przez daną osobę). Dla przypadku dwuwymiarowego (dwa czynniki) proces ten może być wykonany przez narysowanie linii odpowiadających ograniczeniom.

Więcej informacji na ten temat można znaleźć u Piepela (1988) lub Snee (1979).

Wybór układów planu doświadczenia

W chwili, gdy wierzchołki i środki ciężkości zostały obliczone, stajemy w obliczu konieczności dokonania wyboru określonego podzbioru stanowiącego układy planu doświadczenia. Jeżeli każdy pomiar jest kosztowny, to realizacja wszystkich wierzchołków i środków ciężkości może nie być wykonalna. W szczególności, gdy ma się do czynienia z dużą liczbą czynników i nałożonych ograniczeń, liczba środków ciężkości może być bardzo duża.

Jeżeli dokonuje się jedynie przeglądu dużej liczby czynników i nie jest się zainteresowanym efektami nieliniowymi, to wyłącznie wierzchołków daje zazwyczaj dobre pokrycie badanego obszaru. W celu zwiększenia statystycznej mocy (tj. zwiększenia liczby stopni swobody składnika błędu ANOVA) można dołączyć powtórzony kilkukrotnie układ zlokalizowany w głównym środku ciężkości badanego obszaru.

Jeżeli bierze się pod uwagę pewną liczbę różnych modeli, które mogą być dopasowywane po uzyskaniu wyników pomiarów, wtedy można rozważyć użycie opcji planów D i A-optymalnych . Opcje te pomagają wybrać takie punkty, które umożliwią uzyskanie maksymalnej ilości informacji z badanego ograniczonego obszaru przy danym modelu.

Analiza wyników

Jak już wspomniano w części dotyczącej centralnych planów kompozycyjnych i planów dla mieszanin , po tym, jak wybrano układy planu z ograniczeniami i uzyskano wyniki pomiarów wielkości wyjściowej, dalsza analiza może być prowadzona w sposób standardowy.

Przykładowo Cornell (1990, str. 68) opisuje badanie trzech plastyfikatorów i ich wpływ na uzyskiwaną grubość winylu (na pokrycia foteli samochodowych). Ograniczenia nałożone na zawartość plastyfikatorów x1, x2 i x3 są następujące:

.409 x1 .849
.000 x2 .252
.151 x3 .274

(Powyższe wartości są już przeskalowane, tak że suma zawartości wszystkich składników musi wynosić 1). Wygenerowane wierzchołki i środki ciężkości są następujące:

x1x2x3
.8490
.7260
.4740
.5970
.6615
.7875
.6000
.5355
.7230
.0000
.0000
.2520
.2520
.1260
.0000
.1260
.2520
.1260
.1510
.2740
.2740
.1510
.2125
.2125
.2740
.2125
.1510

Indeks


Plany D i A-optymalne

Wprowadzenie

W częściach dotyczących standardowych planów doświadczeń (zob. 2(k-p) , 3(k-p), mieszane dwu- i trójwartościowe ) i centralnych planów kompozycyjnych omówiona była właściwość ortogonalności efektów poszczególnych czynników (zmiennych) stanowiących wielkości wejściowe. W skrócie: wartości dwóch czynników są nazywane ortogonalnymi względem siebie wtedy, gdy są nieskorelowane, to jest gdy zmieniają się niezależnie od siebie. (Jeżeli Czytelnik jest zaznajomiony z algebrą wektorów i macierzy, to łatwiej zrozumie: dwa wektory kolumnowe X1 i X2 w macierzy planu są ortogonalne, gdy X1'*X2=0). Intuicyjnie powinno być jasne, że możliwość uzyskania maksymalnej informacji dotyczącej zmiennej zależnej istnieje wtedy, gdy wszystkie efekty czynników są ortogonalne względem siebie. Odwrotnie, można rozważyć doświadczenie dla dwóch zmiennych i czterech układów:

 x1x2
Układ 1
Układ 2
Układ 3
Układ 4
 1
 1
-1
-1
 1
 1
-1
-1

W tym momencie kolumny wartości dla X1 i X2 są wzajemnie identyczne (ich korelacja wynosi 1) i nie ma żadnej możliwości, aby rozróżnić efekty główne zmiennej X1 i X2.

Procedury planów D i A-optymalnych dostarczają rozmaitych opcji umożliwiających wybranie z listy dopuszczalnych punktów tj. układów planu tych, które przy wybranym modelu dostarczą maksimum informacji wydobytej z obszaru badanego. Niezbędne jest stworzenie listy proponowanych punktów, przykładowo wierzchołków i środków ciężkości obliczonych przy pomocy opcji Plany dla powierzchni z ograniczeniami i mieszanin , wskazanie modelu, który będzie dopasowywany do wyników pomiarów, oraz podanie wymaganej liczby układów planu. Następnie tworzy się plan składający się z wymaganej liczby układów, przy czym kolumny macierzy planu będą tak bardzo ortogonalne względem siebie, jak to tylko możliwe.

Racje uzasadniające D- i A-optymalność są omówione na przykład u Boxa i Drapera (1987, Rozdział 14). Różne algorytmy wyszukiwania punktów optymalnych są opisane u Dykstry (1971), Galila i Kiefera (1980), a także u Mitchella (1974a, 1974b). Szczegółowa analiza porównawcza różnych algorytmów jest zamieszczona u Cooka i Nachtsheima (1980).

Podstawowe koncepcje

Dyskusja omawiająca szczegółowe racje przemawiające za stosowaniem planów D i A-optymalnych (a także ich ograniczenia) wykracza poza zakres niniejszego wprowadzenia. Jednakże ogólna koncepcja jest prosta i jasna. Można ponownie rozważyć proste doświadczenie z dwiema zmiennymi i czterema układami.

 x1x2
Układ 1
Układ 2
Układ 3
Układ 4
 1
 1
-1
-1
 1
 1
-1
-1

Jak już wspomniano wcześniej, plan ten nie pozwala na niezależne określenie wpływu poszczególnych zmiennych na wartość wyjściową stanowiącą zmienną zależną. Po obliczeniu macierzy korelacji dla powyższych dwóch zmiennych uzyskuje się odpowiedź, iż ich korelacja wynosi 1:

 x1x2
x1
x2
1.0
1.0
1.0
1.0

Zazwyczaj powyższy plan jest używany w takiej postaci, że wartości obu czynników zmieniają się w sposób niezależny od siebie:

 x1x2
Układ 1
Układ 2
Układ 3
Układ 4
 1
 1
-1
-1
 1
-1
 1
-1

W tym przypadku oba czynniki są nieskorelowane, to znaczy, że macierz korelacji dla tych dwóch czynników ma postać:

 x1x2
x1
x2
1.0
0.0
0.0
1.0

Ponadto powszechnie przyjmowane jest stwierdzenie, że oba czynniki są ortogonalne, co oznacza, że jeżeli suma iloczynów odpowiadających sobie elementów dwóch kolumn (wektorów) w planie (macierzy planu) jest równa 0 (zero), to te dwie kolumny są ortogonalne.

Wyznacznik macierzy planu. Wyznacznik D macierzy kwadratowej (takiej jak macierz korelacji 2x2 pokazana powyżej) jest specyficzną wartością, która odzwierciedla całość niezależności lub redundancji pomiędzy kolumnami i wierszami macierzy. Dla macierzy 2x2 jest to różnica iloczynu elementów na przekątnej głównej i iloczynu elementów pozaprzekątniowych (dla większych macierzy obliczenia są bardziej złożone). Przykładowo, dla dwóch macierzy pokazanych powyżej wyznacznik D wynosi:

D1 =
 
|1.0 1.0|
|1.0 1.0|
= 1*1 - 1*1 = 0
 
D2 =
 
|1.0 0.0|
|0.0 1.0|
= 1*1 - 0*0 = 1
 

Tak więc, wyznacznik obliczony dla pierwszej macierzy odpowiadającej całkowicie powtórzonym wartościom czynników jest równy 0. Wyznacznik dla drugiej macierzy, w przypadku której czynniki są ortogonalne, równy jest 1.

Plany D-optymalne. Powyższa prosta relacja rozciąga się na większe macierze planów to znaczy, im bardziej zbliżone (redundantne) są wektory (kolumny) macierzy planu, tym bliższa zeru jest wartość wyznacznika macierzy korelacji dla tych wektorów; im bardziej niezależne są kolumny, tym większa jest wartość wyznacznika. Stąd znalezienie macierzy planu, która maksymalizuje wyznacznik D tej macierzy oznacza znalezienie planu, w którym czynniki są maksymalnie wzajemnie niezależne. Warunek, który umożliwia dokonanie wyboru nosi nazwę kryterium D-optymalności.

Notacja macierzowa. Tak naprawdę, obliczenia nie są wykonywane na macierzy korelacji, ale na prostej macierzy będącej wynikiem przemnożenia dwóch macierzy. W zapisie macierzowym, jeżeli macierz planu jest oznaczona jako X, to poszukiwaną wielkością jest wyznacznik iloczynu X'X (X transponowane razy X). Ostatecznie poszukiwanie planów D-optymalnych sprowadza się do maksymalizacji wyrażenia |X'X|, gdzie pionowe linie (|...|) oznaczają wyznacznik.

Plany A-optymalne. Spoglądając wstecz na wzory dotyczące wyznacznika, można zauważyć, że nieco odmienną drogą osiągnięcia niezależności kolumn jest maksymalizacja elementów diagonalnych macierzy X'X, przy jednoczesnej minimalizacji elementów pozaprzekątniowych. Pomysł ten wyraża kryterium śladu albo A-optymalności. Rachunkowo kryterium A-optymalności jest zdefiniowane wzorem:

A = trace(X'X)-1

gdzie trace jest oznaczeniem sumy elementów diagonalnych macierzy (X'X)-1 (ślad macierzy).

Funkcja informacji. Należy wspomnieć w tym miejscu, że plany D-optymalne minimalizują oczekiwaną wartość błędu zmiennej zależnej, to znaczy plany te maksymalizują dokładność możliwej do wyznaczenia wartości zmiennej zależnej a tym samym informacji (zdefiniowanej jako odwrotność błędu), która jest uzyskiwana z badanego obszaru.

Kryteria optymalności planu

W celu ilościowego określenia właściwości planu zaproponowano pewne standardowe kryteria:

Kryterium D. Kryterium to stanowi podstawę do określenia tzw. D-optymalności:

D-optymalność = 100 * (|X'X|1/p/N)

W powyższym wzorze p oznacza liczbę efektów czynnikowych w planie (czyli kolumn w macierzy X), a N jest liczbą wymaganych układów. Kryterium to może być interpretowane jako względna liczba układów (w procentach), która byłaby wymagana w przypadku planu ortogonalnego dla osiągnięcia tej samej wartości wyznacznika |X'X|. Jednakże należy pamiętać, że w wielu przypadkach plan ortogonalny może być w ogóle niemożliwy do zastosowania, a tym samym odniesienie powyższej interpretacji do niego ma charakter teoretycznego skrótu myślowego. Dlatego też powyższe kryterium powinno być stosowane raczej jako względny wskaźnik, dla porównania innych planów o tej samej liczbie układów określonych na podstawie punktów z jednej listy propozycji. Należy także pamiętać, że ma ono sens tylko wtedy, gdy wcześniej przeprowadzi się normalizację wartości wielkości wejściowych w planie (tj. współrzędnych punktów na liście propozycji), tak aby minimum wynosiło -1 a maksimum +1.

Kryterium A. Kryterium to stanowi podstawę do określenia tzw. A-optymalności:

A-optymalność = 100 * p/trace(N*(X'X)-1)

W powyższym wzorze p oznacza liczbę efektów czynnikowych w planie (czyli kolumn w macierzy X), N jest liczbą wymaganych układów, natomiast trace oznacza sumę elementów na przekątnej głównej macierzy (N*(X'X)-1) (tzw. ślad macierzy). Kryterium to może być interpretowane jako względna liczba układów (w procentach), która byłaby wymagana w przypadku planu ortogonalnego dla osiągnięcia tej samej wartości śladu macierzy (X'X)-1. Jednakże znów powinno być stosowane raczej jako względny wskaźnik, dla porównania innych planów o tej samej liczbie układów określonych na podstawie punktów z jednej listy propozycji; miara ta ma sens tylko wtedy, gdy wcześniej przeprowadzi się normalizację wartości wielkości wejściowych w planie do zakresu od -1 do +1.

Kryterium G. Kryterium to obliczane jest następująco:

G-optymalność = 100 * pierwiastek kwadratowy /N)/M

I znów p oznacza liczbę efektów czynnikowych w planie, a N jest liczbą wymaganych układów; M (sigmaM) oznacza maksymalne odchylenie standardowe przewidywanej wartości zmiennej zależnej z uwzględnieniem wszystkich proponowanych punktów. Kryterium to stanowi podstawę do określenia tzw. G-optymalności; plan G-optymalny jest definiowany jako taki, który minimalizuje największą wartość odchylenia standardowego możliwej do wyznaczenia powierzchni odpowiedzi.

Tworzenie planów optymalnych

Występujące udogodnienia związane z planami optymalnymi same "prowadzą poszukiwania" planów optymalnych, gdy dostarczy im się listę "kandydujących punktów". Mówiąc innymi słowy, mając listę dopuszczalnych punktów oraz zadaną liczbę układów, program dokona takiego wyboru punktów, aby zoptymalizować odpowiednie kryterium. Takie poszukiwanie najlepszego planu nie jest metodą dokładną, lecz raczej procedurą algorytmiczną, która używa pewnych strategii przeszukiwania w celu znalezienia najlepszego planu (w sensie odpowiedniego kryterium optymalizacji).

Poniżej opisano proponowane procedury przeszukiwania (szczegóły u Cooka i Nachtsheima, 1980). Są one uporządkowane według szybkości działania, to znaczy metoda sekwencyjna-Dykstry jest najszybsza, ale często zawodzi, czyli dostarcza planu, który nie jest optymalny (tzn. tylko lokalnie optymalny; ta kwestia będzie pokrótce omówiona).

Metoda sekwencyjna-Dykstry. Algorytm metody został podany przez Dykstrę (1971). Rozpoczynając od pustego planu, przeszukuje on listę proponowanych punktów i w każdym kroku wybiera ten punkt, który maksymalizuje odpowiednie kryterium. Nie są stosowane żadne nawroty, algorytm po prostu przeszukuje listę sekwencyjnie. Tak więc metoda ta jest najszybszą z omawianych. Metoda ta jest używana dla zbudowania planu początkowego dla pozostałych metod.

Metoda wymiany prostej (Wynna-Mitchella). Algorytm metody jest zazwyczaj przypisywany Mitchellowi i Millerowi (1970) oraz Wynnowi (1972). Rozpoczyna się od początkowego planu o wymaganym rozmiarze (domyślnie konstruowanym przy pomocy metody sekwencyjnej opisanej powyżej). W każdej iteracji jeden punkt (układ) jest usuwany z planu i zastępowany innym z listy punktów proponowanych. Wybór usuwanych lub wstawianych punktów jest sekwencyjny, to znaczy w każdym kroku punkt, który w najmniejszym stopniu spełnia dane kryterium (D lub A) jest usuwany z planu; następnie algorytm tak wybiera punkt z proponowanej listy, aby zoptymalizować to kryterium. Algorytm kończy działanie, gdy nie jest możliwe uzyskanie dalszych poprawek poprzez wymianę punktów.

Algorytm DETMAX (wymiana z wycieczką). Algorytm ten, zaproponowany przez Mitchella (1974b), jest prawdopodobnie najlepszym znanym i szeroko stosowanym algorytmem wyszukiwania planów optymalnych. Rozpoczyna się podobnie jak algorytm wymiany prostej od skonstruowania planu początkowego (domyślnie przy pomocy metody sekwencyjnej opisanej powyżej). Poszukiwania rozpoczynają się od wymiany prostej opisanej powyżej. Jednakże w momencie, gdy odpowiednie kryterium (D lub A) nie może być dalej poprawione, algorytm dokonuje wycieczki (ang. excursion). Konkretnie algorytm dodaje lub usuwa więcej niż jeden punkt naraz, tak więc w trakcie wycieczek liczba układów w planie może ulegać zmianom pomiędzy ND+ Nwycieczkowe i ND- Nwycieczkowe, gdzie ND jest wymaganym rozmiarem planu natomiast Nwycieczkowe odpowiada maksymalnej dopuszczalnej liczbie wycieczek podanej przez użytkownika. Algorytm kończy działanie, gdy nie jest możliwe uzyskanie dalszych poprawek nawet przy maksymalnej liczbie wycieczek.

Zmodyfikowana metoda Fedorowa (równoczesna wymiana). Algorytm ten jest modyfikacją (Cook i Nachtsheim, 1980) podstawowego algorytmu Fedorowa opisanego poniżej. Rozpoczyna się od początkowego planu o zadanym rozmiarze (domyślnie przy pomocy metody sekwencyjnej opisanej powyżej). W każdej iteracji jeden z punktów jest usuwany z planu i zastępowany innym z listy proponowanych punktów w taki sposób, aby zoptymalizować wybrane kryterium (D lub A). Przeciwnie jednak do opisanej powyżej metody wymiany prostej, wymiana nie jest sekwencyjna, ale równoczesna. Tak więc, w pojedynczym kroku każdy układ planu jest porównywany z każdym punktem z listy propozycji i wymiana jest dokonywana dla tych par, które optymalizują kryterium. Algorytm kończy działanie, gdy nie jest możliwe dokonanie dalszych poprawek wybranego kryterium.

Metoda Fedorowa (równoczesna wymiana). Jest to oryginalna metoda równoczesnej wymiany zaproponowanej przez Fedorowa (zob. Cook i Nachtsheim, 1980). Różnica pomiędzy tą procedurą a opisaną powyżej (zmodyfikowaną metodą Fedorowa) jest taka, że w każdej iteracji ma miejsce tylko pojedyncza wymiana, to znaczy w każdej iteracji porównywane są wszystkie możliwe pary układów planu i punktów z listy propozycji, następnie wymieniane są punkty, które optymalizują plan w sensie wybranego kryterium. Jak łatwo zauważyć, algorytm ten może być dość powolny, gdyż w każdej iteracji dokonywane jest ND*NC porównań w celu wykonania tylko jednej wymiany.

Ogólne zalecenia

Rozważając strategie zastosowane w algorytmach, przedstawionych powyżej, należy pamiętać, że zazwyczaj nie ma dokładnych metod rozwiązania zagadnienia znalezienia planu optymalnego. Wyznacznik macierzy X'X (i śladu jej odwrotności) jest złożoną funkcją proponowanych punktów (układów planu). W szczególności zazwyczaj występują "lokalne minima" zależne od rodzaju wybranego kryterium. Przykładowo, w każdym momencie poszukiwań plan może wydawać się optymalny, aż do chwili, gdy jednocześnie usunie się połowę układów planu i zastąpi pewnymi innymi punktami z listy propozycji; jeżeli jednak wymienia się tylko pojedyncze układy lub małą ich liczbę (np. DETMAX) to nie pojawiają się żadne poprawki.

Dlatego istotne jest, aby wypróbować różne plany początkowe i różne algorytmy. Jeżeli po kilkunastokrotnym powtórzeniu optymalizacji z losowo wybranym planem początkowym dochodzi się do tego samego lub zbliżonego końcowego planu optymalnego, można uznać, że nie zostało się "złapanym" w lokalne minimum lub maksimum.

Metody opisane powyżej różnią się znacznie odpornością na "wpadanie" w lokalne minima lub maksima. Jako ogólną zasadę należy przyjąć, że im wolniejszy algorytm (to znaczy dalszy na wspomnianej liście algorytmów), tym bardziej wiarygodne jest uzyskanie naprawdę optymalnego planu. Jednakże warto zapamiętać, że zmodyfikowany algorytm Fedorowa w praktyce zachowuje się równie dobrze jak jego wersja pierwotna (zob. Cook i Nachtsheim, 1980). Dlatego też, o ile czas obliczeń nie jest czynnikiem decydującym, zalecane jest stosowanie zmodyfikowanego algorytmu Fedorowa.

D-optymalność i A-optymalność. Z przyczyn obliczeniowych (zob. Galil i Kiefer, 1980) aktualizacja śladu macierzy (dla kryterium A-optymalności) jest znacznie wolniejsza niż aktualizacja wyznacznika (dla kryterium D-optymalności). Dlatego też przy wybraniu kryterium A-optymalności należy się liczyć ze znacznie większym czasem obliczeń niż w przypadku kryterium D-optymalności. Z uwagi na to, że w praktyce jest jeszcze wiele innych czynników, które wpływają na ostateczny rezultat badań doświadczalnych (np. niedokładność pomiarów zmiennej zależnej) zaleca się ogólnie używanie kryterium D-optymalności. Jednakże w przypadku trudnych do uzyskania planów, przykładowo gdy dla kryterium D-optymalności występują liczne maksima lokalne i powtarzanie poszukiwań daje bardzo różniące się wyniki, można zastosować kilkanaście prób poszukiwań dla kryterium A-optymalności, aby zapoznać się z innymi możliwymi do utworzenia planami optymalnymi.

Unikanie osobliwości macierzy

W trakcie procesu poszukiwania planu optymalnego może się zdarzyć, że program nie będzie mógł obliczyć odwrotności macierzy X'X (dla kryterium A-optymalności), albo też wyznacznik macierzy będzie bliski zeru. W takiej sytuacji poszukiwania nie mogą być zazwyczaj kontynuowane. Aby uniknąć takich przypadków program wykonuje optymalizację przy pomocy rozszerzonej macierzy X'X:

X'Xrozszerzona = X'X + *(X0'X0/N0)

w powyższym wzorze X0 oznacza macierz planu zbudowaną na podstawie listy wszystkich N0 punktów proponowanych, a (alfa) jest zdefiniowaną przez użytkownika niewielką liczbą. Rozszerzenie to można wyłączyć poprzez nadanie wartości 0 (zero).

"Naprawianie" planów doświadczeń

Plany optymalne mogą być użyte do "naprawiania" innych, nawet częściowo zrealizowanych planów doświadczenia. Przykładowo może zdarzyć się, że doświadczenie przeprowadzano na podstawie planu ortogonalnego, jednak na skutek braku niektórych pomiarów (np. z powodu awarii wyposażenia) niektóre interesujące badacza elementy statystycznej analizy wyników pomiarów mogą okazać się niemożliwe do wyznaczenia. Oczywiście można wykonać brakujące pomiary, ale w praktyce może to być utrudnione lub wręcz niemożliwe do wykonania na skutek różnych ograniczeń technicznych. W takim przypadku można stworzyć listę punktów dopuszczalnych dla rozważanego obszaru badań, następnie uzupełnić listę o punkty tj. układy planu, w których już wykonano pomiary i stosować dyrektywę bezwzględnego włączenia tych punktów (z już wykonanymi pomiarami) do planu przy jednoczesnym zakazie ich usuwania. Wówczas ewentualnie będą usuwane tylko te punkty, dla których jeszcze nie wykonano pomiarów. W ten sposób można znaleźć np. pojedynczy punkt tj. dodatkowy układ, który dodany do dotychczasowego planu spowoduje osiągnięcie optimum dla danego kryterium.

Ograniczenia i plany optymalne

Plany optymalne znajdują szczególne zastosowanie w przypadkach, gdy obszar badań doświadczalnych jest ograniczony. Jak opisano wcześniej w niniejszej części, są pewne udogodnienia wyszukiwania wierzchołków i środków ciężkości obszaru, na który nałożono ograniczenia liniowe oraz dla mieszanin. Punkty te mogą być udostępnione w formie listy punktów proponowanych dla planu optymalnego o danych rozmiarach. Obie te możliwości połączone razem tworzą potężne narzędzie dla radzenia sobie z trudnymi sytuacjami, gdy na obszar badań doświadczalnych wyznaczony przez wielkości wejściowe (zakresy i ich wartości) nałożone zostały złożone ograniczenia, a jednocześnie pragnie się zastosować jak najmniejszą liczbę układów.

Indeks


Zagadnienia specjalne

Poniższe podrozdziały zawierają omówienie kilku technik analizy. Omówione są profile odpowiedzi/użyteczności , analiza resztowa i przekształcenia Boxa-Coxa wielkości wyjściowej.

Patrz też ANOVA/MANOVA , Metody analizy wariancji oraz Komponenty wariancyjne i model mieszany ANOVA/ANCOVA .

Profil aproksymowanej odpowiedzi i użyteczność odpowiedzi

Podstawowa koncepcja. Typowym zagadnieniem w procesie rozwoju produktu jest znalezienie zbioru warunków albo wartości wielkości wejściowych, które umożliwiają uzyskanie wyrobu najbardziej pożądanego w sensie jego charakterystyk albo odpowiedzi wielkości wyjściowych. Procedury używane do rozwiązywania tego problemu w ogólności składają się z dwóch kroków: (1) aproksymacji (przewidywania) odpowiedzi wielkości wyjściowych (zmiennych zależnych) Y poprzez dopasowanie równania używającego wielkości wejściowych (zmiennych niezależnych) X do wartości zmierzonych; (2) znalezienia wartości wielkości X, które zapewnią uzyskanie jednocześnie najbardziej użytecznych (pożądanych) aproksymowanych wartości wielkości wyjściowych Y. Derringer i Suich (1980) opisali, jako przykład powyższych procedur, zagadnienie znalezienia najbardziej pożądanych składników opony. Wielkości wyjściowych Y jest kilka: indeks ścieralności PICO, moduł 200 procent, wydłużenie przy pęknięciu i twardość. Charakterystyka produktu wyrażona poprzez wielkości wyjściowe zależy od składników, wielkości wejściowych X, takich jak: ilość uwodnionej krzemionki, ilość czynnika połączeń silanowych i ilość siarki. Zagadnienie polega na wybraniu wartości wielkości X', które maksymalizują użyteczność odpowiedzi wielkości Y'. W rozwiązaniu należy uwzględnić fakt, iż wartości X', które maksymalizują jedną z odpowiedzi mogą nie zapewniać maksimum innej odpowiedzi.

W trakcie analizy planów frakcyjnych 2(k-p) , planów eliminacyjnych dwuwartościowych , planów 2(k-p) maksymalnie nieuwikłanych i o najmniejszej aberracji , planów 3(k-p) i Boxa Behnkena , planów dwu- i trójwartościowych , planów centralnych kompozycyjnych oraz planów dla mieszanin profil odpowiedzi/użyteczności umożliwia sprawdzenie powierzchni odpowiedzi uzyskanej poprzez dopasowanie równania używającego wielkości wejściowych do zmierzonych wartości wielkości wyjściowej.

Profil aproksymacji. W trakcie analizy wyników któregokolwiek z planów wymienionych powyżej, dla każdej wielkości wyjściowej osobne równanie (zawierające inne współczynniki, ale te same zmienne) dopasowywane jest do zmierzonych wartości odpowiedzi (danej wielkości wyjściowej). Z chwilą uzyskania tych równań można obliczyć aproksymowane wartości wielkości wyjściowych dla dowolnej kombinacji wartości wielkości wejściowych. Profil aproksymacji wielkości wyjściowej składa się z serii wykresów aproksymowanych wartości wielkości wyjściowej względem kolejnych wielkości wejściowych, po jednym wykresie dla każdej wielkości wejściowej. Wartości pozostałych wielkości wejściowych pozostają ustalone i noszą nazwę wartości bieżących. Po wybraniu odpowiednich wartości bieżących wielkości wejściowych można, sprawdzając profil aproksymacji odczytać, które wartości wielkości wejściowych dają w efekcie najbardziej pożądaną aproksymowaną odpowiedź wielkości wyjściowej.

Niekiedy może zaistnieć potrzeba sprawdzenia wartości aproksymowanych wielkości wyjściowych tylko dla tych wartości wielkości wejściowych, które były użyte w trakcie doświadczenia. Alternatywnie można obliczyć wartości aproksymowane wielkości wyjściowych dla takich wartości wielkości wejściowych, które są różne od wartości użytych w doświadczeniu, aby sprawdzić, czy wartości pośrednie nie dadzą bardziej użytecznych odpowiedzi. Wracając do przykładu Derrinegra i Suicha (1980), dla niektórych wielkości wyjściowych najbardziej pożądanymi wartościami mogą nie być wartości ekstremalne. Przykładowo najbardziej pożądana wartość wydłużenia może się mieścić w bardzo wąskim przedziale wartości dopuszczalnych.

Użyteczność odpowiedzi. Różne wielkości wyjściowe mają odmienne powiązania pomiędzy oceną wielkości wyjściowej a użytecznością wartości tej oceny. Mniej pieniące się piwo może być bardziej pożądane, z kolei piwo lepiej smakujące też może być bardziej pożądane. Niższa punktacja pianowa i wyższa punktacja smakowa są obie bardziej pożądane. Związek pomiędzy aproksymowanymi (przewidywanymi) odpowiedziami wielkości wyjściowej a użytecznością odpowiedzi jest nazywany funkcją użyteczności (ang. desirability function). Derringer i Suich (1980) rozwinęli procedurę służącą do określenia związku pomiędzy aproksymowanymi odpowiedziami wielkości wyjściowej i użytecznością odpowiedzi; procedurę, która wprowadza do trzech punktów "załamania" funkcji. Powracając do przykładu składników bieżnika opony opisanego powyżej, ich procedura wprowadziła przekształcenie wartości każdej z czterech wielkości wyjściowych w wartości użyteczności, które mogą się zmieniać od 0,0 dla niepożądanych do 1,0 dla bardzo pożądanych. Przykładowo, funkcja użyteczności została wprowadzona dla twardości bieżnika poprzez zdefiniowanie wartości 0,0 dla twardości poniżej 60 lub powyżej 75, wartości 1.0 dla wartości średniej 67,5, wartości rosnących liniowo od 0,0 do 1,0 pomiędzy twardością 60 i 67,5, wartości malejących liniowo od 1,0 do 0,0 pomiędzy 67,5 i 75,0. W przypadkach bardziej ogólnych sugerowali, że procedura definiowania funkcji użyteczności powinna uwzględniać krzywiznę w obszarach pomiędzy punktami załamania funkcji.

Aproksymowane wartości wielkości wyjściowych dla poszczególnych kombinacji wartości wielkości wejściowych przelicza się na skalę użyteczności, po czym można obliczyć całkowitą (łączną) użyteczność dla różnych kombinacji wartości wielkości wejściowych. Derringer i Suich (1980) sugerują, aby całkowitą użyteczność obliczać jako średnią geometryczną użyteczności poszczególnych wielkości wyjściowych (jest to intuicyjnie sensowne, gdyż jeżeli którakolwiek użyteczność ma wartość 0, czyli nieakceptowalną, to całkowita użyteczność też będzie miała wartość 0, niezależnie od tego, jakie wartości mają pozostałe użyteczności (średnia geometryczna to pierwiastek n-tego stopnia z iloczynu wszystkich n wartości). Procedura Derringera i Suicha to prosty sposób na przekształcenie aproksymowanych wartości wielu wielkości wyjściowych na pojedynczą wartość całkowitej użyteczności. Zagadnienie jednoczesnej optymalizacji wielu wielkości wyjściowych upraszcza się wtedy do znalezienia wartości wielkości wejściowych, które maksymalizują całkowitą użyteczność odpowiedzi wielkości wyjściowych.

Podsumowanie. Jeżeli ulepszamy produkt, o którym wiemy, że jego cechy zależą od jego składników, to musimy poznać wpływ tych "składników" na każdą charakterystykę produktu, a następnie znaleźć takie proporcje pomiędzy składnikami, która optymalizują całkowitą użyteczność produktu. Procedura maksymalizacji użyteczności produktu składa się z: (1) znalezienia adekwatnego modelu (tj. równań aproksymacyjnych) w celu aproksymacji charakterystyki wyrobu jako funkcji wielkości wejściowych (zmiennych niezależnych); (2) określenia optymalnych wartości wielkości wejściowych względem całkowitej jakości produktu. Powyższe dwa etapy, jeżeli przeprowadzone są wiarygodnie, prowadzą do większego sukcesu przy doskonaleniu wyrobu niż niepewny sposób liczenia na przypadkowe odkrycia, które radykalnie poprawią jakość produktu.

Analiza resztowa

Podstawowa koncepcja. Poszerzona analiza resztowa jest zbiorem metod pozwalających na użycie wielu narzędzi diagnostycznych dla różnych wartości resztowych i aproksymowanych, a tym samym na sprawdzenie adekwatności modelu aproksymacyjnego, wykrycie ewentualnej potrzeby przekształcenia zmiennych, oraz wychwycenie danych znacząco odbiegających od pozostałych wartości.

Reszty to odchylenia wartości zmierzonych od wartości aproksymowanych, dostarczonych przez aktualny model. Modele ANOVA zastosowane do analizy odpowiedzi wielkości wyjściowej zasadzają się na pewnych założeniach odnośnie rozkładu wartości resztowych (ale nie aproksymowanych) wielkości wyjściowej (zmiennej zależnej). Model ANOVA zakłada normalność, liniowość, homoscedastyczność i niezależność wartości resztowych. Wszystkie te własności wartości resztowych wielkości wyjściowej mogą być sprawdzone przy pomocy analizy resztowej.

Przekształcenie Boxa-Coxa wielkości wyjściowych

Podstawowa koncepcja. W analizie wariancji zakłada się, że wariancje w poszczególnych grupach (warunkach doświadczenia; układach doświadczenia) są jednorodne i nie są skorelowane z wartościami średnimi. Jeżeli rozkład wartości wewnątrz każdego układu jest skośny, a wartości średnie są skorelowane z odchyleniami standardowymi, można często zastosować odpowiednie przekształcenie potęgowe wielkości wyjściowej, w celu stabilizacji wariancji i zredukowania lub eliminacji korelacji pomiędzy wartościami średnimi a odchyleniami standardowymi. Przekształcenie Boxa-Coxa jest pomocne w wyborze odpowiedniego przekształcenia (potęgowego) wielkości wyjściowej.

Wybór opcji przekształcenie Boxa-Coxa powoduje wyświetlenie wykresu Resztowej sumy kwadratów, dla danego modelu jako funkcji lambda, gdzie lambda to wielkość używana do zdefiniowania przekształcenia wielkości wyjściowej,

y' = ( y(lambda) - 1 ) / ( g(lambda-1) * lambda)jeżeli lambda 0
y' = g * ln(y)jeżeli lambda = 0

w którym g oznacza średnią geometryczną wielkości wyjściowej (wszystkie wartości wielkości wyjściowej musza być większe od zera). Wartość lambda dla której Resztowa suma kwadratów osiąga minimum, jest estymatorem o największej wiarygodności. Wartość ta definiuje przekształcenie stabilizujące wariancję wielkości wyjściowej, które to przekształcenie redukuje lub eliminuje korelację pomiędzy średnimi grup i odchyleniami standardowymi.

W praktyce nie jest konieczne użycie dokładnej, otrzymanej wartości lambda dla przekształcenia wielkości wyjściowej. Można użyć następujących przekształceń:

Przybliżona
lambda
Sugerowane
przekształcenie y
-1   
-0.5
 0   
 0.5
 1   
odwrotność
odwrotność pierwiastka kwadratowego
logarytm naturalny
pierwiastek kwadratowy
identyczność (brak przekształcenia)

Dodatkowe informacje odnoszące się do tej rodziny przekształceń zob. Box i Cox (1964), Box i Draper (1987), Maddala (1977).

Indeks






© Copyright StatSoft, Inc., 1984-2024
STATISTICA is a trademark of StatSoft, Inc.