statystyka nie gryzie · statystykanie’gryzie’jerzy’Łukomski’ ’ ’ 1’/25’ ’...
TRANSCRIPT
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 1 / 25
Statystyka
nie gryzie Jerzy Łukomski
Histogramy
Pracując nad liczbami w projekcie Six Sigma możecie natknąć się na problem jak na te dane
spojrzeć. Z doświadczenia wiem, że generalnie można wyróżnić dwa podejścia do takiej
analizy: płytkie i głębokie. Poniżej postaram się opisać oba przypadki.
Wyobraźmy sobie, że otrzymaliśmy na etapie DEFINE dane z procesu (z jednego miesiąca).
Wcześniej w wywiadzie z właścicielem procesu/sponsorem uzyskaliśmy informacje, że
proces ten powinien być realizowany w ciągu 5 dni (w 5 dniu powinna być zrobiona ostatnia
sprawa) roboczych od otrzymania sprawy i że obecnie jest problem bo mamy dużo spraw po
terminie. Jako kierownicy projektu musimy przekształcić to „dużo” w liczby, dane i fakty.
Zacznijmy od analizy płytkiej. Postanowiliśmy przygotować wykres kołowy, który pokaże
terminowość:
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 2 / 25
I co z tego można wyczytać? Dokładnie tyle ile właściciel procesu/sponsor powiedział czyli, że
„mamy duży problem”. Żadna głębsza analiza na tej podstawie nie jest możliwa, a na tym
etapie często nie ma możliwości dłuższych obserwacji w GEMBIE (z jap. miejsc wykonywania
pracy).
Z ratunkiem (o ile posiadamy odpowiednio przygotowane dane źródłowe) przychodzi nam w
tym przypadku histogram. Histogram to graficzny sposób prezentacji rozkładu ustalonej
cechy. Korzystając z takich samych danych jak do budowy wykresu kołowego
przygotowujemy właśnie histogram:
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 3 / 25
W pionie (Frequency) widzimy ilość spraw, a w linii poziomej mamy kolejne dni w których
sprawy są rozpatrywane (np. w dniu przyjścia sprawy czyli 0 rozpatrywanych jest ich 10).
Przede wszystkich w oczy może się rzucać to, że większość spraw robiona jest w 10 dniu,
czyli dwukrotnie przekroczony jest termin. Dodatkowo z histogramu wynika, że proces jest
ułożony w taki sposób, że sprawy rozpatrywane są w 1,3 dniu, a później ilość
rozpatrywanych spraw spada, aż do 10 dnia. Najmniej spraw realizowanych jest w 0 i 7 dniu.
Zdarza się również, że sprawy są realizowane prawie po 3 miesiącach od ich przyjścia, a
kilkanaście przypadków było obsłużonych powyżej miesiąca. Po zebraniu pierwszych
ogólnych informacji z procesu na podstawie:
• rozmowy ze sponsorem,
• pogłębionej analizy danych,
• rozmowy z zespołem projektowym,
• budowy ogólnego obrazu procesu.
Kierownik projektu może przeprowadzać dalszą analizę, zadając dużo bardziej konkretne
pytanie o system pracy, przebieg procesu, organizację stanowisk, przyczyny specjalne itp. Jak
widać korzystając z tych samych danych, ale patrząc na nie w różny sposób, można osiągnąć
diametralnie różne efekty. Dlatego też polecam proste narzędzia graficzne analizy danych na
etapie DEFINE, gdyż budowanie wiedzy przy ich pomocy może pozwolić dużo szybciej
osiągnąć zamierzony efekt.
PS. Dane pochodzą z rzeczywistego projektu i jestem bardzo ciekaw Waszych teorii na temat
„Dlaczego sprawy rozpatrywane są w większości w 10-‐tym dniu skoro deadline w procesie
to 5-‐ty dzień ?”. Swoje pomysły zostawcie we wpisach, a ja za kilka dni udzielę prawidłowej
odpowiedzi (o ile taka nie padnie wcześniej).
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 4 / 25
Reguła Pareto
W XIX wieku włoski socjolog i ekonomista Vilfredo Pareto na podstawie analizy danych
statystycznych ludności włoskiej stwierdził, że 20% mieszkańców Włoch jest w posiadaniu
80% majątku włoskiego (co ciekawe obecnie mówi się, że 99% majątku jest w posiadaniu 1%
ludności świata). Prawie 50 lat później Joseph Juran użył nazwy Reguła Pareto dla opisu
większej ilości zjawisk w swoich badaniach nad jakością w procesach. Zauważył on, że 80%
problemów jest powodowanych przez 20% przyczyn.
Tyle wprowadzenia historycznego, natomiast, jeżeli dobrze się zastanowić nad naszą
codziennością to, rzeczywiście jest tak, że:
• 20% ubrań nosimy przez 80% czasu,
• 20% pracowników wnosi 80% wartości intelektualnej firmy,
• 20% rodzajów reklamacji dotyczy 80% klientów składających je,
• 20% czasu wkładanego w pracę przynosi 80% efektów.
Oczywiście liczb 20 i 80 nie należy traktować jako jedynych akceptowalnych wartości, są one
tylko najczęściej pojawiającymi się w obserwacjach. W tej zasadzie istotne jest to, że nakłady
do efektów nigdy nie są równomierne. Kierując się Regułą Pareto należy wyszukiwać te
czynności, które przynoszą największe efekt, pomijając inne mniej wartościowe i
optymalizując w ten sposób nasze działania. A jak to się ma do Six Sigma i projektu DMAIC?
Otóż na etapie DEFINE zdarzyć się może i pewnie zdarzy, że obszar którym mamy się zająć
jest zbyt duży na jeden projekt, a sponsor/właściciel procesu przy okazji takiego projektu
chciałby posprzątać cały istniejący bałagan w danym obszarze. Można temu zaradzić,
stosując właśnie Regułę Pareto. Wyobraźmy sobie, że uruchamiamy projekt związany z
nieterminową realizacją zadań w dużym procesie, który obejmuje cała firmę. Udało nam się
zebrać wiarygodne dane z istniejących systemów pomiarowych i okazało się, że w 6
departamentach firmy dochodzi do opóźnień tak, jak w poniższej tabeli:
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 5 / 25
Aby przygotować diagram Pareto-‐Lorenza, który jest graficzną prezentację Reguły Pareto
powinniśmy w kolejnych krokach:
1. Zebrać całkowite dane o badanym zjawisku (charakterystyki, miary) – np. tak jak
wyżej;
2. Uszeregować przyczyny od najbardziej do najmniej znaczącej – skoro chcemy
ograniczyć obszar prowadzenia projektu, to szukamy departamentu który opóźnia
najwięcej spraw;
3. Wyznaczyć skumulowane wartości przyczyn tj. udziały procentowe w stosunku do
całości zjawiska – w tabeli poniżej;
4. Oznaczyć na osi pionowej (Y) wartości przyczyn oraz udziały %;
5. Oznaczyć na osi poziomej (X) przyczyny od największej do najmniejszej wartości idąc
od lewej do prawej (porządek malejący);
6. Narysować wykresy słupkowe dla każdej przyczyny;
7. Oznaczyć punkty odpowiadające wartościom skumulowanym i połączyć je linią tzw.
krzywa Lorenza.
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 6 / 25
Biorąc pod uwagę powyższe dane, projekt na pewno przyniesie największe efekty, jeżeli
będzie prowadzony w departamencie A i B (33% departamentów może dać nam powyżej
60% efektów), a jeżeli dodatkowo uda się w ramach zakresu projektu zrealizować
optymalizację w departamencie C, to jest szansa na magiczne 80% poprawy przy
ograniczonym obszarze (oczywiście trzeba wziąć pod uwagę wiele dodatkowych czynników
poza tymi liczbowym, jak odległość pomiędzy departamentami, specyfikę pracy, zasoby
realizujące proces itp.).
Polecam osobiście to narzędzie jako podstawowe w pracy kierownika projektu DMAIC.
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 7 / 25
Jednak rozmawiając ze sponsorem o ograniczeniu zakresu, trzeba pamiętać, że: „Nie chodzi
o to, by oddzielić kilka istotnych elementów od wielu nie mających znaczenia, ale o to, by
oddzielić kilka istotnych elementów od wielu przydatnych” (cyt. Joseph Juran).
Testowanie hipotez na przykładzie kości do
gry Zacznijmy od tego czym jest testowanie hipotez w statystyce i w projektach Six Sigma.
Wyobraźmy sobie, że w fazie Measure projektu wytypowaliśmy najbardziej prawdopodobne
zmienne wpływające na nasz proces, a następnie zmierzyliśmy je w wybrany sposób. Na
podstawie zebranych danych w fazie Analizy chcielibyśmy potwierdzić, czy wytypowane
zmienne maja istotnie statystyczny wpływ na nasz proces, czy nie. W tym momencie właśnie
z pomocą śpieszy nam testowanie hipotez.
Wg definicji jest to zestaw narzędzi, które powiedzą nam jak bardzo pewni możemy być
podejmowanych decyzjii jaka jest możliwość popełnienia błędu. W świecie biznesu zawsze
istnieje szansa popełnienia błędu, ale ponieważ nie wszystko jesteśmy w stanie przewiedzieć
ryzyko to bywa ignorowane. Ponieważ Six Sigma opiera się na liczbach, danych ifaktach nie
możemy dłużej udawać, że nie widzimy tego ryzyka. W celu omówienia samego mechanizmu
testowania nie można obejść się bez podstawowych pojęć z tym związanych. Zacznijmy od
przedziału ufności, który jest zakresem w którym mieści się średnia wartość badanej cechy
określana na podstawie próby pobranej z populacji. Dzięki przedziałowi ufności możemy
zdefiniować wielkość błędu, o ile uzyskany wynik może odbiegać od wartości rzeczywistej. Im
większa i bardziej reprezentatywna próba tym węższy jest przedział ufności i mniejszy zakres
odchylenia wartości zbadanej w próbie w stosunku do wartości rzeczywistej np. producent
płyt CD chce sprawdzić średnią wagę swoich płyt w procesie produkcji w zakresie zgodności z
docelową wartością (niech będzie 10 gramów). Po pobraniu 50 elementów z procesu okazało
się, że średnia wynosi więcej, czyli 15 gramów. Czy to oznacza, że proces produkcji jest zły?
Okazuje się, że niekoniecznie ponieważ może okazać się, że zbudowany dla zebranych
danych przedział ufności jest w zakresie 8 – 17 gramów co oznacza, że pobrana próbka miała
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 8 / 25
akurat średnią 15 gramów, ale nie ma żadnych statystycznych przesłanek, że kolejna
pobrana próbka nie będzie miała średniej 10 gramów (przedział od 8 do 17) (rysunek
poniżej). Kolejnym ważnym pojęciem jest poziom istotności określany jako poziom wartości
p (p-‐value) poniżej którego odrzucamy hipotezę zerową i przyjmujemy hipotezę
alternatywną. Poziom istotności zazwyczaj waha się pomiędzy 90%, a 99% w zależności od
tego w jakim środowisku prowadzony jest projekt i ile to może kosztować biznes (im większe
ryzyko tym poziom istotności powinien być wyższy).. Rysunek ilustrujący działanie
przedziałów ufności poniżej.
Czytaj: Wynik, który uzyskamy w pomiarach może znajdować się statystycznie w dowolnym
punkcie uzyskanego przedziału ufności. Im niższy poziom istotności tym węższy przedział
ufności, a to dlatego, że dopuszczamy sobie większą możliwość popełnienia błędu. Czyli jest
ryzyko odrzucenia hipotezy poprawnej.
Wspomniałem wcześniej o hipotezie zerowej. Mechanika działania testowania hipotez
opiera się właśnie na odrzuceniu lub braku podstaw do odrzucenia hipotezy
zerowej. Hipoteza zerowa zawsze brzmi „w danych, które badamy nie ma różnicy
statystycznej”. Hipotezę zerową traktujemy jako prawdziwą, dopóki nie uzyskamy informacji
statystycznych dostatecznych do zmiany stanowiska, czyli przyjęcia hipotezy alternatywnej
brzmiącej „w danych, które badamy występuje różnica”. Przykład stawiania hipotez na
kolejnym diagramie:
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 9 / 25
Podczas testowania hipotez z idealna sytuacją mamy do czynienia w momencie, gdy
przyczyny, które były „winne” zaistniałym wynikom procesu „skazaliśmy” (przyjęta hipoteza
alternatywna), a przyczyny, które były „niewinne” zaistniałym wynikom procesu
„uwolniliśmy” (brak podstaw do odrzucenia hipotezy zerowej
Jak to w życiu bywa możemy popełnić błąd i w testowaniu hipotez wyróżniamy ich dwa
rodzaje. Po pierwsze (błąd I rodzaju) uznajemy za winną przyczynę, która w rzeczywistości
nie ma wpływu na proces. Jest to błąd o gorszych biznesowych skutkach dlatego, że możemy
zacząć poprawiać nie tam gdzie trzeba i to docelowo może nam jeszcze bardziej pogorszyć
proces i utrudnić ostatecznie znalezienie rzeczywistych przyczyn. Błąd II rodzaju występuje
wtedy „wypuścimy” przyczynę, która w rzeczywistości miała istotny statystycznie wpływ na
proces. Jest to błąd, który biznesowo ma mniej odczuwalne skutki dlatego, że w najgorszym
razie wyniki procesu się po prostu nie poprawią. W testowaniu hipotez w zależności od
rodzaju danych, ilości zmiennych i celu analizy wykorzystujemy różne testy:
Podstawowe terminy mamy za sobą, więc wróćmy do tytułowej kości do gry. Wyobraźmy
sobie, że mamy 5 kości do gry i chcemy sprawdzić, czy te kości są w porządku (tzn. czy
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 10 / 25
wszystkie zachowują się tak samo podczas gry). Jak wiemy prawdopodobieństwo wyrzutu
każdej z liczb na kości sześciościennej jest jednakowe. W związku z tym, aby sprawdzić, czy
kości się od siebie statystycznie nie różnią możemy wybrać na każdej kości dowolną cyfrę i
testować, jaka jest proporcja wyrzutu wybranej liczby do pozostałych. Ponieważ chcemy
testować proporcje, a próbek (w tym przypadku kości) jest więcej niż 2, musimy zastosować
Chi-‐Square Test. Jako narzędzie do przeprowadzenia testu polecam Minitab, gdyż w sposób
czytelny prezentuje wyniki przeprowadzonych analiz wraz ze wsparcie graficznym. Ciekawe
w teście Chi-‐Square jest to, że ilość rzutów dla każdej kości nie musi być taka sama, aby
można było porównać proporcje w sposób istotny statystycznie. Po przeprowadzeniu rzutów
dla kości wyszły nam następujące wyniki:
• 1 kość 30 rzutów, proporcja wynosi 4:26,
• 2 kość 40 rzutów, proporcja wynosi 10:30,
• 3 kość 50 rzutów, proporcja wynosi 7:43,
• 4 kość 35 rzutów, proporcja wynosi 6:29,
• 5 kość 45 rzutów, proporcja wynosi 13:32.
Pierwszy rzut oka na proporcje wskazuje, że kość numer 2 i 5 ma inny stosunek wybranej
liczby do pozostałych. Po wpisaniu danych do Minitab naszym oczom ukażą się następujące
wyniki:
Przede wszystkim patrzymy na P-‐Value wynoszące 0,289, co oznacza, że hipotezę
zerową możemy odrzucić jedynie z 71% prawdopodobieństwem. Przy założonym poziomie
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 11 / 25
istotności wynoszącym 95% jest to zbyt mało, aby przyjąć hipotezę alternatywna mówiącą o
tym, że co najmniej jedna kość do gry jest różna od pozostałych. Aby odrzucić hipotezę
zerową, p-‐value musiałoby wynosić mniej niż 0,05. W kolumnach mamy wyniki
poszczególnych kości w układzie:
1. obserwowany rezultat,
2. oczekiwany statystycznie rezultat,
3. relatywna różnica pomiędzy obserwowanym i oczekiwanym rezultatem.
Wartość Chi-‐Sq jest sumą poszczególnych różnic pomiędzy obserwowanym i oczekiwanym
rezultatem, tak więc im wyższa wartość Chi-‐Sq tym P-‐Value będzie niższe.
Tłumacząc wyniki na język biznesowy, nie ma podstaw statystycznych, aby na podstawie
zaobserwowanych danych odrzucić hipotezę zerową co oznacza, że kości które badaliśmy są
statystycznie bez różnicy tak więc nie mają wpływu na wynik rzutu.
Gage R&R czyli testowanie układu
zbierającego dane (pomiarowego) Czym się kończy faza MEASURE w projekcie Six Sigma? Jak pewnie pamiętacie na końcu fazy
MEASURE powinniśmy posiadać zebrane dane do wytypowanych zmiennych. Jako zebrane
dane powinniśmy rozumieć informacje o tym jaką wartość miał nasz x (zmienna) przy
osiągniętym wyniku procesu (Y). Sama budowa systemu pomiarowego (instrukcje, rodzaj
danych, itp.) to temat na inny wpis, natomiast dzisiaj chciałbym się skupić na testowaniu
zbudowanego wcześniej systemu.
Celem takiej walidacji jest ocena, czy zmienność naszego systemu pomiarowego nie jest
większa niż zmienność samego procesu. Jednym słowem, czy dane pobrane z procesu
poprzez przygotowany układ pomiarowy nie wskażą nam wybranej zmiennej jako
statystycznie istotnej przyczyny tylko dlatego, że były one nieprawidłowe. Przykładem może
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 12 / 25
być tutaj sytuacja, gdy chcemy mierzyć dokładną długość dla stu metrowych desek (takie są
oczekiwania klienta) w centymetrach za pomocą 10-‐cm linijki. Można podejrzewać, że w
zależności od tego jak operator będzie przykładał się do pomiarów wyniki będą mniej lub
bardziej dokładne i wskażemy np. że długość deski waha się od 85 do 120 cm (czyli z punktu
widzenia klienta proces jest rozregulowany), a w rzeczywistości wartości pomiarów wahają
się w granicach 98 do 101 cm.
Samo badanie Gage R&R skupia się na dwóch elementach:
Repeatability (Powtarzalność), w ramach którego badamy fluktuację w odpowiedziach lub
rezultatach uzyskanych przez jednego operatora badającego ten sam przedmiot kilka razy.
Schemat 1
Jak widać na Schemacie 1 operator miał na celu zbadać sprawność dysku z danymi
(Działa/Nie działa). W kolejnych badaniach ten sam dysk był oceniany w różny sposób co nie
świadczy dobrze o układzie pomiarowym.
Reproducibility (Odtwarzalność), w ramach którego badamy fluktuację w odpowiedziach lub
rezultatach uzyskanych przez różnych operatorów badających ten sam przedmiot.
Schemat 2
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 13 / 25
Jak widać na Schemacie 2 operatorzy badają niezależnie od siebie sprawność dysku z danymi
(Działa/Nie działa). Kolejni operatorzy oceniają dysk w sposób powtarzalny oprócz
ostatniego. Może to świadczyć o problemie w układzie pomiarowym.
Podstawowe pytanie jakie powinniśmy sobie zadać po wykonaniu badania Gage R&R
brzmi: Czy zmienność mojego układu pomiarowego nie jest zbyt duża, by dobrze mierzyć
poziom zmienności procesu?
W procesie badania systemu pomiarowego można wyróżnić dwie podstawowe ścieżki jego
realizacji w zależności od danych jakie posiadamy. Dokładniejsza dane dzięki zwiększonej
rozdzielczości układu dają nam dane ciągłe, natomiast nic nie stoi na przeszkodzie aby badać
również system dla danych atrybutowych (tak/nie, dobrze/źle). Do analizy zebranych danych
zalecam Minitab, dla którego w dalszej części opiszę sposób wprowadzenia danych oraz
interpretację uzyskanych wyników.
Ścieżka 1 – Dane ciągłe
Przede wszystkim dla danych ciągłych powszechny standard mówi o tym, aby mierzyć co
najmniej 10 różnych części przez 3 różnych operatorów w 3 niezależnych próbach. Daje to
nam wynik 90 zmiennych do analizy. Dane powinniśmy przygotować w kolumnach:
• jedna kolumna do identyfikacji numeru części (tak, aby Minitab mógł rozróżnić części
pomiędzy sobą),
• druga kolumna do identyfikacji mierzącego,
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 14 / 25
• w trzeciej kolumnie wpisujemy wyniki pomiarów.
Stosując powyższe reguły (uzyskaliśmy 90 wyników), chcemy sprawdzić system kontrolujący
wagę składników produkowanego leku (Tablica 1)
Tablica 1
Aby przeanalizować tak zebrane dane musimy wczytać je do Minitaba i używając funkcji
‘Stat-‐>Quality Tools-‐>Gage Study-‐>Gage R&R Study (Crossed)’ przygotować okno analizy
danych (Schemat 3).
Schemat 3
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 15 / 25
Dla pola ‘Part numbers’ wybieramy kolumnę dla której oznaczone są numery próbek, części,
elementów testowanych. Dla pola ‘Operators’ zaznaczamy kolumnę ze informacją o tym, jaki
mierzący, operator badał daną część. ‘Measurement data’ służy do wybrania wyników
naszych pomiarów. Resztę opcji, których zmianę umożliwia Minitab zostawiamy na
domyślnych ustawieniach i potwierdzamy wybór poprzez ‘OK’.
O ile wszystko wykonaliśmy poprawnie naszym oczom powinno się ukazać okno
podsumowania (Schemat 4), które postaram się objaśnić dla najważniejszych wykresów.
Schemat 4
Wykres 1
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 16 / 25
Wykres R Chart by Operator sprawdza czy występują wyniki, które mogą być spowodowane
przyczynami specjalnymi (nie wynikającymi z naturalnej zmienności procesu) podczas
pomiaru. Jeżeli jakikolwiek punkty są poza liniami czerwonymi trzeba sprawdzić czy dla
badanej części nie ma jakiś specjalnych problemów lub czy nie nastąpił błąd przy wpisywaniu
danych. Poszczególne punkty w granicach niebieskich linii są to średnie wyniki pomiaru dla
danej próbki badanej przez wskazanego operatora z 3 pomiarów.
Wykres 2
Wykres ‘Wynik pomiaru (mg) by Operator’ obrazuje odtwarzalność pomiaru poprzez
pokazanie wyników poszczególnych mierzących. Punkty pokazują wyniki konkretnych
pomiarów dla wszystkich części w podziale na operatorów. Linia to różnice w średniej
pomiędzy operatorami. Jak widać na tym przykładzie średnia dla operatora C jest niższa w
stosunku do dwóch pozostałych operatorów. Dla dobrego systemu pomiarowego odcinek
łączący wszystkich operatorów powinien być prostą równoległą do osi X.
Wykres 3
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 17 / 25
Kolejny wykres to interakcja pomiędzy próbką (częścią), a operatorem, która ma na celu
zaobserwowanie czy w przypadku którejś z próbek nie wystąpiły trudności w pomiarze.
Dodatkowo wykres jest rozdzielony na poszczególnych mierzących. Analizując powyższe
dane można powiedzieć, że największe problemy wystąpiły dla próbek: 1, 2,10. A operator C
ważąc próbki niedoważał je w stosunku do pozostałych operatorów (mniejsza średnia z
pomiaru każdej próbki).
Wykres 4
Dzięki wykresowi ‘Components of Variation’ możemy zobaczyć podsumowanie całego
badania Gage R&R. Zielone słupki obrazują ‘% Study Var’ parametr, który pozwala stwierdzić,
czy system pomiarowy jest akceptowalny w danej kategorii. Dzięki pomarańczowym
słupkom ‘%Contribution’ możemy porównać kategorie pomiędzy sobą. Dane z ‘Contribution’
sumują się do 100%. Idąc od lewej kolejne kategorie to ‘Gage R&R’, który sumuje badanie
odtwarzalności i powtarzalności z rozbiciem na podkategorie (Repeat and Reprod). Ostatnia
kategoria to ‘Part to Part’ i jest istotna w sytuacji gdy wymiary wszystkich części miały być
identyczne. Nie samą grafiką Minitab stoi tak więc warto również spojrzeć w okno sesji dzięki
któremu można doprecyzować wyniki badania (Schemat 5).
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 18 / 25
Schemat 5
Podsumowując, badanie Gage R&R w celu podjęcia decyzji warto zawsze to robić biznesowo
używając opisanych dalej przedziałów akceptowalności. R&R mniejsze niż 10% oznacza, że
system pomiarowy jest akceptowalny i jak najbardziej może służyć do zbierania danych.
Jeżeli R&R waha się pomiędzy 10% i 30% system pomiarowy może być zaakceptowany,
natomiast trzeba podjąć decyzję związaną z rodzajem badanych danych, narzędziami i
kosztem. Dla R&R większego niż 30% system pomiarowy jest nie do zaakceptowania. Trzeba
odnaleźć problem i usunąć główne przyczyny zmienności. Dla Repetability to może związane
np. z przeszkoleniem pomiarowego, zmianą pomiarowego, poprawą warunków
pomiarowych. Dla Reproducibility warto skupić się na poprawie instrukcji pomiarowych,
doszczegółowieniu standardów pomiarowych, poprawie definicji operacyjnych.
Ścieżka 2 – Dane atrybutowe
Omawiając badanie systemu pomiarowego dla danych atrybutowych, trzeba pamiętać o
tym, że dane atrybutowe mają dużo niższą rozdzielczość co skutkuje tym, że trzeba ich
zebrać więcej w trakcie badania. Powszechny standard mówi o tym, że badane powinno być
minimum 20 elementów w 3 niezależnych pomiarach przez 3 operatorów. Dodatkowo w
badanej próbce trzeba zapewnić zarówno elementy dobre jak i złe, tak aby ocena systemu
pomiarowego była rzeczywiście możliwa. W celu pokazania jak funkcjonuje badanie
wyobraźmy sobie, że testujemy cukierki M&Ms na podstawie poprawności logo na każdym z
nich. Operator po badaniu stwierdza czy cukierek jest Dobry (OK) albo Niedobry (Wrong) .
Poniżej (Tablica 2) zebrane podczas badania dane:
Tablica 2
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 19 / 25
Aby przeanalizować tak zebrane dane musimy wczytać je do Minitaba i używając funkcji
‘Stat-‐>Quality Tools-‐>Attribute Agreement Analysis’ przygotować okno analizy danych
(Schemat 5).
Schemat 5
Po sekundzie od potwierdzenia naszym oczom powinno ukazać się okno podsumowania.
Podobnie jak w przypadku danych ciągłych mamy podsumowanie graficzne (Schemat 6) oraz
szczegółowe dla danych w oknie sesji.
Schemat 6
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 20 / 25
Interpretacja wyników skupia się na dwóch elementach:
1. Powtarzalność decyzji operatorów (Within Appraisers) pokazywana jako wynik
procentowy. Kropka na linii oznacza rzeczywisty wynik w ramach powtarzalności
natomiast czerwona linia biegnąca w obu kierunkach wskazuje przedział ufności (CI
95%). Przedział ufności zależy m.in. od ilości sprawdzanych elementów i odczytywać
go można jako zakres w którym z 95% pewnością znajdzie się każdy wynik kolejnego
badania przeprowadzonego w takich samych warunkach (procedury, operatorzy, ich
doświadczenie itp.).
2. Gdy zbierzemy dane dla oceny eksperckiej otrzymamy wykres ‘Appraiser vs
Standard’, który obrazuje zgodność decyzji operatorów z przyjętym standardem.
Jak widać najlepsze wyniki uzyskał Wojtek zarówno dla powtarzalności swoich decyzji jak i
zgodności z oceną ekspercką (95%). Najgorzej wypada Marek, który dla powtarzalności
swoich decyzji uzyskał 70%, a dla zgodności z oceną ekspercką 60%. Cały system pomiarowy
przy uzyskanych wynikach nie powinien być uznany jako prawidłowy, gdyż wykazuje dość
dużą zmienność. Im wyniki % byłyby wyższe, a przedziały ufności węższe tym zebrane w
ramach pomiarów dane będą wiarygodniejsze. Niskie wyniki w ramach ‘Within Appraisers”
wskazują na to, że operatorzy potrzebują pomocy w zgodności swoich decyzji – np. poprzez
poprawienie warunków pomiaru. Niskie wyniki w ramach ‘Appraiser vs Standard’ wskazują
na potrzebę poprawy definicji operacyjnych (instrukcji pomiarowych) w zakresie kryteriów
akceptowalności wspieranych chociażby przez standardy wizualizacyjne.
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 21 / 25
Dla okna sesji warto spojrzeć na pole ‘Between Appraisers’ (Schemat 7), które pokazuje, że
jedynie dla 9 elementów z 20 sprawdzanych nastąpiła całkowita zgodność wyników
pomiędzy operatorami oraz na pole ‘All appraisers vs Standard’ (Schemat 8) dla którego
wynik jest podobny i oznacza, że jedynie dla 9 elementów nastąpiła zgodność wszystkich
wyników operatorów z przyjętym standardem.
Schemat 7
Schemat 8
Liczę na to, że udało mi się w miarę przystępny sposób wyjaśnić sposób wprowadzania
danych oraz ich interpretacji dla badania Gage R&R. Na sam koniec kilka haseł, o których
warto pamiętać:
• wybieraj próbkę do badania w sposób losowy, tak samo przeprowadzaj kolejne
przebiegi badania;
• upewnij się, że wybrane próbki reprezentują cały zakres procesu (zmienność
długoterminowa). Można to na przykład osiągnąć pobierając próbki przez dłuższy
okres czasu;
• w miarę możliwości wykonaj badanie w standardowych warunkach co rzeczywisty
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 22 / 25
docelowy pomiar (ci sami pracownicy, brak treningu, ta sama lokalizacja);
• operatorzy nie mogą być świadomi w trakcie badania którą próbkę mierzą w danym
momencie (nie zapisuj numerów próbek na badanych elementach).
O autorze Jerzy Łukomski
Z branżą usług finansowych jest związany od 2003 roku, od
2009 aktywny udział w optymalizacji oraz wdrażaniu
architektury procesów dla dużego banku (współautor
programu szkoleniowego na poziomie Green Belt).
Zrealizował kilkadziesiąt projektów Six Sigma w różnych
rolach: od członka zespołu projektowego poprzez project
managera, aż do opiekuna projektu (Black Belt). Twórca
artykułów dotyczących optymalizacji i Six Sigma.
O firmie Octigo Firma Octigo sp. z o.o. zajmuje się tworzeniem i prowadzeniem
gier szkoleniowych z zakresu zarządzania projektami oraz
optymalizacji procesów. Nasze gry były wielokrotnie nagradzane
przez Project Management Institute w USA oraz w Polsce.
Wśród naszych produktów edukacyjnych znajdują się między innymi takie, jak:
Studia podyplomowe Lean Six Sigma
Satysfakcja klienta i efektywność operacyjna organizacji są jednymi z najważniejszych
czynników budowania przewagi konkurencyjnej. Analityk procesów staje się profesją, która
pozwala organizacjom dostarczać klientom produkty tej samej, wysokiej wartości przy
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 23 / 25
optymalnym poziomie kosztów. Studia dają gruntowną i praktyczną wiedzę na temat
nowoczesnych metod poprawy jakości i efektywności przedsiębiorstw.
Program został tak skonstruowany, aby dać uczestnikowi wiele praktycznych umiejętności,
takich jak m.in. metodyka optymalizacji procesów i zarządzania jakością według filozofii Six
Sigma, stosowanie wiedzy o funkcjonowaniu zespołu projektowego w symulowanych
sytuacjach oraz kwalifikacje analityka procesów biznesowych.
Studia umożliwiają słuchaczom:
• nieodpłatne uzyskanie dodatkowego certyfikatu na poziomie Lean Six Sigma Green
Belt wydawanego przez Octigo,
• udział w grach symulacyjnych: Whisky – symulacja procesów, Massawa –
komunikacja i współpraca w projekcie, Podróż dookoła świata – zarządzanie
integralnością projektu, Warsztat z katapultą – projektowanie eksperymentów
• praktyczną naukę z wykorzystaniem programu Minitab.
Program studiów zgodny jest z programem Lean Six Sigma Green Belt, zawiera ponadto
wiele godzin dodatkowych gier symulacyjnych i bloków wykładowych dotyczących wdrażania
programu optymalizacji procesów oraz funkcjonowania w firmie jako członek zespołu
projektowego. Występują w nim wykłady, warsztaty oraz gry symulacyjne, w tym
nagrodzone prestiżową nagrodą PMI Award, które umożliwiają praktyczne poznanie
funkcjonowania zespołu projektowego. Studia zostały przygotowane przez wieloletnich
praktyków biznesu z firmy Octigo, posiadających wieloletnie doświadczenie w prowadzeniu
szkoleń, zarządzaniu projektami i programami, w tym optymalizacyjnymi.
Massawa
“Najlepszy warsztat w jakim uczestniczyłem, pozwala się rozwinąć, uczy jak
radzić sobie w trudnych i niespodziewanych sytuacjach. Niesamowicie
poprawia komunikację w zespole. Mógłbym tak dalej wymieniać, ale nie
oddam tej atmosfery zaangażowania i radości z wykonanego zadania. Po
prostu trzeba to przeżyć:) naprawdę warte polecenia nawet jak pracownik
ma być na 2 dni oderwany od swoich obowiązków to poniesiony koszt
zwróci się szybciej niż można się spodziewać.”
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 24 / 25
“Cała gra była genialna.”
W 2007 roku Project Management Institute uznał Massawę za najlepsze na świecie szkolenie
z zarządzania projektami (PMI Award 2007).
Gra szkoleniowa Massawa symuluje realizację złożonego projektu budowlanego (uczestnicy
układają kilka tysięcy klocków Lego). Ów projekt jest jednak tłem dla zasymulowania
procesów komunikacji i współpracy w grupie projektowej. Uczestnicy szybko zapominają o
tym, że znajdują się na sali szkoleniowej i wchodzą w role i postawy, które reprezentują na
codzień w projektach. Dzięki temu, że jest to jedynie zabawa,
łatwiej jest im nabrać dystansu do popełnianych błędów i
zreflektować się.
To narzędzie dla każdej firmy, która swój rozwój opiera na
działaniach projektowych. Potrzeba skutecznego zarządzania
projektami jest podłożem do wykorzystania warsztatu do zmiany postaw i kompetencji
uczestników gry. Głównym aspektem jest zapoznanie uczestników z zasadami i
możliwościami metodycznej pracy z projektami w praktyczny sposób. Jest to przede
wszystkim zmiana nastawienia pracowników wobec procedur i metodyki zarządzania
projektami. Komunikacja w projekcie i aspekty pracy interpersonalnej stają się kluczowe w
każdej grupie projektowej. Rozwój tych kompetencji to klucz do sukcesu projektów.
Whisky
Japońska korporacja przejęła upadającą gorzelnię whisky. Niewielka
fabryczka zlokalizowana w urokliwych górach Szkocji ma świetną markę
podpartą tradycjami, jednak ze względu na brak elastyczności i rosnące
koszty znalazła się na skraju bankructwa. Uczestnicy szkolenia wchodzą w
role nowo zrekrutowanego kierownictwa tego zakładu z misją przywrócenia
jej świetności.
W trakcie dwóch dni szkolenia uczestnicy doświadczają zarządzania produkcją butelek
whisky, a przy okazji uczą się takich technik jak: SMED, Kanban, 5s, analiza procesów, pomiar
cyklu, taktu, przejścia, definiowanie jakości, pomiar poziomu sigma, analiza zmienności
procesów i wiele innych.
Statystyka nie gryzie Jerzy Łukomski
www.octigo.pl 25 / 25
Kanwą symulacji jest tworzenie butelek z kolorowym piaskiem przez sekwencję procesów
produkcyjnych. Dzięki tak skonstruowanej mechanice gry uczestnicy mogą zaobserwować
zmienności jakości, czasów procesów, strat w sposób ciągły – po prostu piasek rozsypuje się
na stole.
Szkolenie Whisky jest doskonałym uzupełnieniem i demonstracją zarządzania procesami za
pomocą metodyki Six Sigma oraz Lean.
Skontaktować się ze mną można pod adresem: [email protected].
Ta publikacja chroniona jest prawem autorskim na zasadach Creative Commons: Uznanie autorstwa-‐Użycie niekomercyjne-‐
Na tych samych warunkach 3.0 Polska opisanych : http://creativecommons.org/licenses/by-‐nc-‐sa/3.0/pl/legalcode. Skrót
licencji: dozwolone jest kopiowanie i dystrybucja pod warunkiem podania źródła (www.octigo.pl) i autorstwa (Marcin
Żmigrodzki). Dopuszczalne jest użycie wyłącznie dla celów niekomercyjnych. Dopuszczalne jest tworzenie utworów pochodnych, jednak koniecznie z podaniem
źródła i zachowaniem tej samej licencji.