analiza populacja próbka pomiary obliczenia wyniki

Podobne dokumenty
POLITECHNIKA OPOLSKA

POLITECHNIKA OPOLSKA

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski

Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej)

Wydział Inżynierii Produkcji. I Logistyki. Statystyka opisowa. Wykład 3. Dr inż. Adam Deptuła

Rozkłady zmiennych losowych

Statystyczne sterowanie procesem

W kolejnym kroku należy ustalić liczbę przedziałów k. W tym celu należy wykorzystać jeden ze wzorów:

STATYSTYKA OPISOWA. LICZBOWE CHARAKTERYSTYKI(MIARY)

POLITECHNIKA OPOLSKA

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

Zarządzanie procesami

-> Średnia arytmetyczna (5) (4) ->Kwartyl dolny, mediana, kwartyl górny, moda - analogicznie jak

Statystyka. Wykład 4. Magdalena Alama-Bućko. 19 marca Magdalena Alama-Bućko Statystyka 19 marca / 33

1 n. s x x x x. Podstawowe miary rozproszenia: Wariancja z populacji: Czasem stosuje się też inny wzór na wariancję z próby, tak policzy Excel:

Porównywanie populacji

Analiza statystyczna w naukach przyrodniczych

1 Podstawy rachunku prawdopodobieństwa

Próba własności i parametry

Metody statystyczne kontroli jakości i niezawodności Lekcja II: Karty kontrolne.

STATYSTYKA OPISOWA Przykłady problemów statystycznych: - badanie opinii publicznej na temat preferencji wyborczych;

MIARY KLASYCZNE Miary opisujące rozkład badanej cechy w zbiorowości, które obliczamy na podstawie wszystkich zaobserwowanych wartości cechy

Wykład 4: Statystyki opisowe (część 1)

Statystyka. Wykład 4. Magdalena Alama-Bućko. 13 marca Magdalena Alama-Bućko Statystyka 13 marca / 41

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

W1. Wprowadzenie. Statystyka opisowa

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Statystyka hydrologiczna i prawdopodobieństwo zjawisk hydrologicznych.

Katedra Technik Wytwarzania i Automatyzacji STATYSTYCZNA KONTROLA PROCESU

Statystyka opisowa PROWADZĄCY: DR LUDMIŁA ZA JĄC -LAMPARSKA

STATYSTYKA OPISOWA. LICZBOWE CHARAKTERYSTYKI(MIARY)

Statystyka opisowa. Wykład I. Elementy statystyki opisowej

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

Wykład 2. Statystyka opisowa - Miary rozkładu: Miary położenia

Wykład 3. Opis struktury zbiorowości. 1. Parametry opisu rozkładu badanej cechy. 3. Średnia arytmetyczna. 4. Dominanta. 5. Kwantyle.

Parametry statystyczne

Wykład 1. Podstawowe pojęcia Metody opisowe w analizie rozkładu cechy

Wykład 5: Statystyki opisowe (część 2)

Statystyka. Wykład 2. Magdalena Alama-Bućko. 5 marca Magdalena Alama-Bućko Statystyka 5 marca / 34

Podstawowe pojęcia. Własności próby. Cechy statystyczne dzielimy na

Zadania ze statystyki, cz.6

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Podstawowe definicje statystyczne

Plan wykładu. Statystyka opisowa. Statystyka matematyczna. Dane statystyczne miary położenia miary rozproszenia miary asymetrii

Statystyczne metody analizy danych

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Definicje PN ISO Definicje PN ISO 3951 interpretacja Zastosowanie normy PN-ISO 3951:1997

Statystyka i analiza danych pomiarowych Podstawowe pojęcia statystyki cz. 2. Tadeusz M. Molenda Instytut Fizyki, Uniwersytet Szczeciński

Statystyka opisowa. Literatura STATYSTYKA OPISOWA. Wprowadzenie. Wprowadzenie. Wprowadzenie. Plan. Tomasz Łukaszewski

Zarządzanie jakością ćwiczenia

Typy zmiennych. Zmienne i rekordy. Rodzaje zmiennych. Graficzne reprezentacje danych Statystyki opisowe

Statystyka. Wykład 2. Magdalena Alama-Bućko. 27 lutego Magdalena Alama-Bućko Statystyka 27 lutego / 39

1. Opis tabelaryczny. 2. Graficzna prezentacja wyników. Do technik statystyki opisowej można zaliczyć:

Miary położenia wskazują miejsce wartości najlepiej reprezentującej wszystkie wielkości danej zmiennej. Mówią o przeciętnym poziomie analizowanej

Statystyka w pracy badawczej nauczyciela Wykład 3: Analiza struktury zbiorowości statystycznej. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.

I jest narzędziem służącym do porównywania rozproszenia dwóch zmiennych. Używamy go tylko, gdy pomiędzy zmiennymi istnieje logiczny związek

Testy nieparametryczne

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Karta kontrolna budowa i zastosowanie

Statystyka. Wykład 3. Magdalena Alama-Bućko. 6 marca Magdalena Alama-Bućko Statystyka 6 marca / 28

Analiza struktury i przeciętnego poziomu cechy

Statystyka. Opisowa analiza zjawisk masowych

Statystyka Matematyczna Anna Janicka

Ćwiczenia 1-2 Analiza rozkładu empirycznego

Rozkład Gaussa i test χ2

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Rozkłady statystyk z próby

Estymacja punktowa i przedziałowa

TRADYCYJNE NARZĘDZIA ZARZĄDZANIA JAKOŚCIĄ

Wstęp do teorii niepewności pomiaru. Danuta J. Michczyńska Adam Michczyński

Teoria błędów. Wszystkie wartości wielkości fizycznych obarczone są pewnym błędem.

Statystyka. Podstawowe pojęcia: populacja (zbiorowość statystyczna), jednostka statystyczna, próba. Cechy: ilościowe (mierzalne),

METODY BADAŃ NA ZWIERZĘTACH ze STATYSTYKĄ wykład 3-4. Parametry i wybrane rozkłady zmiennych losowych

Wprowadzenie do analizy korelacji i regresji

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

STATYSTYCZNE STEROWANIE PROCESAMI

Po co nam charakterystyki liczbowe? Katarzyna Lubnauer 34

POLITECHNIKA OPOLSKA

Z poprzedniego wykładu

LABORATORIUM Z FIZYKI

Niepewność pomiaru. Wynik pomiaru X jest znany z możliwa do określenia niepewnością. jest bledem bezwzględnym pomiaru

Sposoby prezentacji problemów w statystyce

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Statystyka opisowa- cd.

You created this PDF from an application that is not licensed to print to novapdf printer (

Statystyka opisowa w wycenie nieruchomości Część I - wyznaczanie miar zbioru danych

Ćwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Miary zmienności STATYSTYKA OPISOWA. Dr Alina Gleska. Instytut Matematyki WE PP. 6 marca 2018

Analiza i monitoring środowiska

Rozstęp Pozycyjne Odchylenie ćwiartkowe Współczynnik zmienności

Pobieranie prób i rozkład z próby

CZEŚĆ PIERWSZA. Wymagania na poszczególne oceny,,matematyka wokół nas Klasa III I. POTĘGI

Rodzaje Kontroli. SPC Statystyczna kontrola procesu. Rodzaje kontroli Uproszczony cykl życia wyrobu. Kontrola odbiorcza - stuprocentowa

Rozkłady prawdopodobieństwa zmiennych losowych

Statystyka matematyczna dla leśników

Rachunek Prawdopodobieństwa i Statystyka

Statystyka w pracy badawczej nauczyciela

Transkrypt:

Analizę statystyczną można podzielić na cztery podstawowe etapy: - pobieranie próbki, - dokonanie pomiarów, - przeprowadzenie obliczeń, - analizę otrzymanych wyników i wnioskowanie. Dobrze dobrana próbka powinna charakteryzować się: - losowością, - reprezentatywnością. analiza populacja próbka pomiary obliczenia wyniki

Można wyróżnić pięć podstawowych metod (procedur) pomagających zapewnić losowość próbki: - pobieranie próbki z wykorzystaniem tablicy liczb losowych, - losowanie na ślepo (przy zachowaniu pewnych zasad), - pobieranie systematyczne, - pobieranie wielostopniowe, - pobieranie wielowarstwowe.

Tablica liczb losowych to zestaw liczb, które zostały wygenerowane całkowicie losowo i którymi można się posłużyć przy np. wybieraniu elementów do badania. Podstawowym warunkiem zastosowania tego typu losowania jest ponumerowanie (może być tylko umowne) wszystkich kontrolowanych jednostek produktu (lub opakowań). Wybieranie wyrobów do próbki przy użyciu tablicy liczb losowych przebiega przypadkowe miejsce (wiersz i kolumnę), od którego rozpocznie odczytywanie cyfr, a następnie do próbki wybiera się wyroby oznaczone numerami odczytywanymi, np. kolejno w wierszu, z tablicy.

Losowanie na ślepo to najprostszy sposób zapewnienia dobrej próbki. Polega ona na z założenia przypadkowym pobieraniu wyrobów od próbki przez kontrolera. Muszą tu być oczywiście spełnione pewne podstawowe zasady umożliwiające prawidłowe prowadzenie takiego badania, m.in. wszystkie elementy z badanej np. partii wyrobów muszą być w takim samym stopniu dostępne dla kontrolera, musi on pobierać wyroby z różnych miejsc (a nie tylko te najbliższe sobie) itd. Metodę tę stosuje się w przypadku, gdy posługiwanie się liczbami losowymi jest utrudnione lub nieuzasadnione ekonomicznie.

Pobieranie systematyczne jednostek do próbki stosuje się w przypadku, gdy wyroby są dostarczane w sposób ciągły (potokowy). W metodzie tej przyjmuje się, że do kontroli będą pobierane wyroby wyprodukowane w pewnych określonych odstępach czasu (np. co godzinę) lub co określoną liczbę wyprodukowanych jednostek (np. co setny). Częstość pobierania wyrobów do kontroli powinna być uwarunkowana przede wszystkim względami ekonomicznymi oraz charakterem procesu (np. występującymi cyklicznymi zmianami przebiegu).

Pobieranie wielostopniowe i warstwowe stosowane jest głownie w przypadku dostarczenia wyrobów do kontroli w postaci partii (również tych złożonych z podpartii).

Próbka jest reprezentatywna, gdy w dobry sposób odzwierciedla populację, z której została pobrana. Przykład: Załóżmy, że prowadzimy badania ankietowe wśród Polaków, pytając ich, czy dobrze żyje się w Polsce w ostatnich latach. W zależności od tego jaką ilość (próbkę) Polaków przebadamy możemy stwierdzić, że: a) w Polsce jest coraz gorzej, wręcz tragicznie jest bieda, b) w Polsce jest świetnie, można żyć bardzo dostatnio, c) zdania są podzielone, część Polaków jest zadowolona, a część niezadowolona z sytuacji w kraju. Bardzo wiele zależy od tego komu będziemy zadawali pytania przeprowadzając ankiety. Na przykład odpowiedź a uzyskamy jeżeli nasze wnioski oprzemy jedynie na odpowiedziach pewnego pesymistycznego małżeństwa mieszkającego w sąsiedztwie. Odpowiedź b będzie najbardziej odpowiednia po przebadaniu np. pierwszej dwudziestki z listy stu najbogatszych Polaków. Odpowiedź c uznamy za najwłaściwszą po przebadaniu dużej liczby osób pochodzących z różnych środowisk

Mianem danej określa się każdą informację opisującą proces, wyrób, usługę maszynę itd. Dane można podzielić na dwa podstawowe typy: a) dane kategorialne (uzyskiwane przy ocenie metodą alternatywną) uzyskiwane w przypadkach: - dzielenia (klasyfikowania) przedmiotów na kategorie, - zliczania liczby przedmiotów w danych kategoriach, - zliczania proporcji przedmiotów, - zliczania liczby braków lub niezgodności. b) dane liczbowe (pochodzące z pomiarów) otrzymywane w przypadkach: - pomiarów cechy produktu, usługi, procesu, - przeliczania numerycznych wartości z dwóch lub więcej pomiarów liczbowych.

Najprostszym sposobem gromadzenia uzyskiwanych danych jest ich proste spisywanie w rzędzie, np.: 1, 4, 8, 15, 5, 2, 9, 11, 15, 23, 12, 1, 2, 5. Taki zapis nie jest jednak czytelny i bez chociażby wstępnego opracowania mało użyteczny. Z tego powodu warto zapisywać zbierane dane w taki sposób, aby napływające informacje można było od razu szybko i prawidłowo analizować, np. poprzez tworzenie: - tabeli częstości wystąpień, - histogramu, - wykresu punktowego.

Tabela częstości wystąpień jest łatwa do narysowania, a daje dużo informacji na temat zebranych danych. Osoba dokonująca pomiaru zamiast zapisywać zmierzoną wartość, stawia kreskę w odpowiednim wierszu. Z tabeli takiej łatwo odczytać: - ile pomiarów o danej wartości zarejestrowano, - która wartość powtarza się najczęściej, - w jakim zakresie pojawiają się dane (wartość minimalna i maksymalna). Takie informacje mogą już posłużyć do wyciągania wniosków o tym, co dzieje się na stanowisku pracy, w jaki sposób przebiega analizowany proces.

Wartość danej Wystąpienia danej Liczba wystąpień 3 0 4 III 3 5 IIII I 5 6 IIII II 6 7 IIII III 7 8 IIII II 6 9 IIII 4 10 II 2 11 I 1 12 0

Histogram można uznać za pewne rozwinięcie tabeli liczności. Jest to bardzo dobre narzędzie szczególnie do prezentowania dużej ilości danych liczbowych lub kategorialnych. Procedura rysowania histogramu: 1. Posortowanie danych w porządku od najmniejszej do największej. 2. Wyznaczenie wartości najmniejszej i największej. 3. Obliczenie szerokości zakresu, w jakim pojawiają się dane (tzw. rozstępu): R = xmax - xmin 4. Wyznaczenie liczby przedziałów, - obliczenie pierwiastka kwadratowego z liczby zebranych pomiarów, Zasadniczo liczba przedziałów powinna się zawierać w przedziale <6, 12> 5. Ustalenie granic przedziałów. Na początku należy ustalić szerokość każdego przedziału: Szerokość przedziału=rozstęp/liczba przedziałów 6. Rozpisanie przedziałów i obliczenie ile w każdym z nich znajduje się wyników. 7. Narysowanie wykresu.

Wykres punktowy jest bardzo prosty do narysowania, a co najważniejsze umożliwia czytelne przedstawienie danych. Pozwalają one przede wszystkim na pokazanie zależności pomiędzy dwoma obserwowanymi zmiennymi.

Nie tylko dane liczbowe można przedstawić w sposób czytelny i jasny. Także dane kategorialne doskonale się do tego nadają. Można do tego wykorzystywać wykresy (słupkowe, kołowe itp.) lub zapisywać dane w tabelach i przeliczać je w taki sposób, aby oczywiste stawały się pewne trendy czy prawidłowości. Najprostszym sposobem przeliczania tego typu danych jest obliczenie proporcji: W tabeli przedstawiono podróży. Ilość gwiazdek hotelu dane opisujące standard hoteli oferowanych przez pewne biuro Ilość hoteli o danym standardzie Proporcja ** 2 0,08 *** 14 0,50 **** 9 0,32 ***** 3 0,10 Z udziału (proporcji) hoteli o określonym standardzie w całkowitej liczbie hoteli można wnioskować np. o klasie tego biura podróży i porównać je z innymi, oferującymi hotele innych kategorii.

Rozkład normalny, inaczej zwany rozkładem Gaussa jest najważniejszym rozkładem teoretycznym prawdopodobieństwa w statystyce. Rozkład normalny jest też najbardziej intuicyjnym rozkładem statystycznym. W wielkim skrócie opisuje on sytuacje w świecie, gdzie większość przypadków jest bliska średniemu wynikowi, a im dany wynik bardziej odchyla się od średniej tym jest mniej reprezentowany. Najwięcej jest przypadków blisko przeciętnej. Im dalej oddalamy się od średniego wyniku, tym przypadków jest mniej. Można to z łatwością odnieść do rzeczywistych sytuacji.

Dla zrozumienia wykresu, potrzebne jest wyjaśnienie dwóch symboli, μ - oznacza wartość średnią, przeciętną; σ - oznacza odchylenie standardowe. Jak można zauważyć, około 68% obserwacji znajduje się blisko średniej, w odległości jednego odchylenia standardowego od średniej (miary odległości w języku statystyki). Wraz z odsuwaniem się od średniej krzywa Gaussa opada. W odległości dwóch odchyleń standardowych znajduje się aż 95% obserwacji. Wartości skrajne (na krańcach krzywej Gaussa) reprezentowane są przez znikomy procent obserwacji. W praktyce, te dwie miary: średnia i odchylenie standardowe są wystarczającymi wartościami do określenia rozkładu normalnego. Wynika to ze wzoru na funkcję gęstości rozkładu normalnego, tzw. krzywej Gaussa.

Średnia arytmetyczna należy do klasycznych miar średnich. Miary średnie (nazywane też miarami przeciętnymi bądź położenia) charakteryzują średni lub typowy poziom wartości cechy. Wokół nich skupiają się pozostałe wartości analizowanej cechy. Średnia arytmetyczna to suma wszystkich wartości cechy podzielona przez liczbę wszystkich jednostek badanej zbiorowości. Średnia arytmetyczna wyraża przeciętny poziom obserwowanej cechy statystycznej w zbiorowości. W zależności od rodzaju badanego szeregu (czyli od materiału statystycznego) może być ona nieważona(prosta, zwykła) lub ważona.

Mediana (zwana też wartością środkową, wartością przeciętną lub drugim kwartylem) w statystyce wartość cechy w szeregu uporządkowanym, powyżej i poniżej której znajduje się jednakowa liczba obserwacji. Mediana jest kwantylem rzędu 1/2, czyli drugim kwartylem. Jest również trzecim kwartylem szóstego rzędu, piątym decylem itd. Mediana spełnia następujący warunek: jeśli szukamy liczby takiej, że średnia modułów odchyleń wartości dla wszystkich obserwacji od niej byłaby najmniejsza, to liczbą tą jest właśnie mediana. Dzięki temu mediana ma interpretację jako optymalne przewidywanie wartości za pomocą jednej liczby, jeśli przyjętą funkcją błędu przewidywania jest moduł odchylenia (różnicy). Aby obliczyć medianę ze zbioru n obserwacji, sortujemy je w kolejności od najmniejszej do największej i numerujemy od 1 do n. Następnie, jeśli n jest nieparzyste, medianą jest wartość obserwacji w środku (czyli obserwacji numer (n+1)/2. Jeśli natomiast n jest parzyste, wynikiem jest średnia arytmetyczna między dwiema środkowymi obserwacjami, czyli obserwacją numer n/2 i obserwacją numer (n/2)+1.

Moda jest nazywana również modalną lub dominantą. Jest to wartość występująca najczęściej w zebranym łańcuchu danych. Jest ona oznaczona symbolem Mo. Przykład: Dana jest zmienna losowa, która przyjmuje pięć wartości z pewnymi prawdopodobieństwami: Wartość Prawdopodobieństwo 1 0,2 2 0,3 3 0,1 4 0,11 5 0,29 Moda dla tego rozkładu wynosi 2, ponieważ jest tam największe prawdopodobieństwo. Moda może być szczególnie użyteczna, gdy wartości zmiennej obserwowanej nie są liczbowe - co uniemożliwia (bez przypisania wartości liczbowych) zastosowania m.in. mediany czy średniej arytmetycznej. Np. dla realizacji (ciągu zaobserwowanych wartości) {jabłko, gruszka, jabłko, pomarańcza, gruszka, banan, jabłko} dominantą jest jabłko.

Modę można łatwo wyznaczyć metodą graficzną z histogramu. Graficzna metoda wyznaczania mody polega na połączeniu odcinkami wierzchołków najwyższego słupka z wierzchołkami przylegających do niego słupków. Po zrzutowaniu punktu przecięcia tych odcinków na oś poziomą odczytać można wartość mody. Mo

Miary zmienności pokazują rozproszenie, dyspersję analizowanych wyników. Można ich wymienić co najmniej kilka, ale z punktu widzenia statystycznego sterowania procesami ważne będą:

Wariancją nazywamy średnią arytmetyczną kwadratów odchyleń od średniej arytmetycznej.

Odchylenie standardowe jest miarą, która określa jak bardzo wartości danych są rozproszone wokół średniej. Im większa wartość odchylenia standardowego, tym dane są bardziej oddalone od wartości średniej.

Rozstęp to różnica między największą i najmniejszą wartością cechy statystycznej w zbiorze (lub różnica między najwyższą i najniższą zaobserwowaną wartością zmiennej). Rozstęp jest najprostszą z miar rozrzutu, mało precyzyjną, gdyż opiera się tylko na dwu zaobserwowanych wartościach zmiennej, a pozostałe wartości nie mają wpływu na jej wielkość. Wzór: R = xmax - xmin

Reguła trzech sigm (odchyleń standardowych) mówi, że dla rozkładu normalnego 68,3% wartości cechy leży w odległości jednego odchylenia standardowego od średniej arytmetycznej; 95,5% wartości cechy leży w odległości dwóch odchyleń od średniej; a 99,7% wartości cechy leży w odległości trzech odchyleń standardowych od średniej arytmetycznej.

Zakłócenia losowe (przyczyny losowe) to zgodnie z PN-ISO 3534-2: Czynniki, występujące zwykle w dużej liczbie, przy czym każda z nich ma względnie małe znaczenie, prowadzące do zmienności, które muszą być koniecznie zidentyfikowane. Mówiąc prościej, są to te wszystkie zakłócenia z którymi musimy się zawsze liczyć w danym rodzaju procesu. Przy wspomnianym już pisaniu rzędu liter A zakłóceniem tym jest m.in. naturalne drganie mięśni ręki człowieka, którego w żaden sposób nie da się wyeliminować. Z zakłóceniami losowymi musimy się więc zawsze liczyć i pogodzić z ich występowaniem. W praktyce przedsiębiorstw zakłócenia takie to np. drganie wrzeciona tokarki (zawsze są jakieś minimalne luzy na łożyskach), zdolności percepcyjne człowieka przy odczytywaniu pomiaru ze skali itp.

Zakłócenia specjalne to zgodnie z PN-ISO 3534-2: Czynnik (zwykle systematyczny), który może być wykryty i zidentyfikowany jako powodujący zmiany właściwości jakościowej lub zmiany poziomu procesu. Są to wiec zakłócenia (w normie nazywane przyczynami wyznaczalnymi), które działają z zewnątrz i z którymi powinniśmy walczyć chcąc udoskonalić realizowane procesy. Zakłócenia tego typu to np. przyśnięcie operatora obrabiarki (co raczej na pewno nie jest wbudowane przez nas w proces), uszkodzenie noża przy toczeniu itp.

Karty kontrolne są jednym z podstawowych narzędzi statystycznego sterowania procesami oraz doskonalenia jakości. Karty stworzył w 1924 roku W. A. Shewart, który zastosował je do monitorowania procesu produkcji masowej w firmie Western Electric. Karty kontrolne to graficzna metoda wykrywania nieprawidłowości które pojawiają się podczas procesu.

Karty kontrolna w swojej najprostszej postaci to arkusz papieru z tabelą na wpisywanie wyników i miejscem na narysowanie wykresu.

Jest to ważny element karty ze względu na konieczność zapewnienia pełnej identyfikacji pobieranych wyników. Musimy umieć wskazać dokładnie, jaki proces i w jakim okresie czasowym opisuje dana karta. Podstawowe informacje, które powinna zawierać metka, to: numer karty kontrolnej, rodzaj karty kontrolnej, nazwa procesu którym sterujemy, czas którego dotyczy karta, wyniki które podsumowują kartę.

Wykres pokazuje zachowanie się nadzorowanego procesu. Na jego podstawie oceniamy, czy przebiega on prawidłowo, czy też pojawiły się zakłócenia które wymagają naszej ingerencji. Na wykresie widnieją cztery podstawowe linie: 1) Granice kontrolne: - górna granica kontrolna (UCL Upper Control Limit), - dolna granica kontrolna (LCL Lower Control Limit). 2) Linia centralna 3) Wykres

Linia centralna wyznacza wartość średnią ze wszystkich pomiarów które zostały przez nas zebrane.. Pokazuje wartość, którą średnio przyjmuje mierzona właściwość wyrobów. Sposób obliczania linii centralnej zależy od tego jaką kartę stosujemy.

Granice kontrolne umieszczane są po obydwu stronach linii centralnej, Najczęściej oddalone są od niej o wartość 3σ. Granice kontrolne wyznaczają przedział, jakim powinno mieścić się 3σ 99,73% wszystkich pomiarów. Jeżeli któryś z zaznaczonych punktów będzie znajdował się poza wyznaczonymi granicami, będzie to oznaczało, że prawdopodobnie na proces zadziałało zakłócenie specjalnie, które trzeba odnaleźć i wyeliminować. Granice kontrolne obliczane są ze specjalnie przygotowanych wzorów, w zależności od tego jakiego typu kartą kontrolną się posługujemy. Wzory te uwzględniają m.in. odchylenie standardowe oraz rozstęp.

Karty kontrolne można podzielić na dwie grupy: karty kontrolne przy ocenie liczbowej, karty kontrolne przy ocenie alternatywnej, Karty kontrolne Ocena alternatywna Ocena liczbowa p X-R np X-S c IX-MR u CUSUM k. specjalne

Samo prowadzenie, to znaczy stosowanie, wykorzystywanie kart kontrolnych jest proste. Podstawą oceny monitorowanych procesów są pobierane co pewien czas i mierzone próbki wyrobów. Pobieranie próbki Próbka czyli dwa lub więcej wyrobów, jest podstawą do oceny procesu. Wielkość próbki należy dobrać, zwracając uwagę na: koszty kontroli wyrobów, charakter procesu, możliwości techniczno-organizacyjne oraz rodzaj stosowanej karty kontrolnej. Częstość pobierania próbek W początkowym etapie stosowania kart kontrolnych próbki powinno się pobierać stosunkowo często. Jest to okres, w którym uczymy się zachowania procesu. Z czasem pobieranie próbki może być coraz rzadsze im lepiej będziemy w stanie panować nad procesem, tym rzadziej będziemy musieli go kontrolować. Obliczanie granic kontrolnych W praktyce przyjmuje się, że do obliczenia granic kontrolnych wystarczające jest 25-30 kilkuelementowych próbek

Analiza kart kontrolnych sprowadza się do tego, aby na podstawie otrzymanych wyników (kształtu sporządzonych wykresów) stwierdzić, czy mamy podstawy do uznania monitorowanego procesu za rozregulowany. Cała procedura kontrolna polega na tym, że sprawdza się czy na karcie kontrolnej nie występuje któryś z ośmiu przebiegów (wzorów wykresu), opisanych m.in. w Polskiej Normie PN-ISO 8258.

Najczęściej stosowaną kartą kontrolną jest karta nazywana X z kreską R. W tablicy znajdują się wzory umożliwiające wyznaczenie: górnej i dolnej granicy kontrolnej, a także linii środkowej

W firmie produkującej herbatę ekspresową zdecydowano się na nadzorowanie procesu napełniania torebek herbatą za pomocą karty kontrolnej. Mierzonym parametrem jest waga tych torebek, która powinna wynosić 2 gramy z pewną tolerancją. Na rys. poniżej przedstawiono kartę wartości średnich wykreśloną dla ośmiu czteroelementowych próbek: Na karcie nie widać żadnych nieprawidłowości w przebiegu procesu. Wszystkie wartości średnie próbek mieszczą się w granicach kontrolnych i są bliskie wartości średniej procesu, która co jest b. istotne jest prawie równa wartości nominalnej. Czyż więc wszystko jest w porządku? Niestety nie. Na kolejnym slajdzie pokazano torebki z trzech ostatnich próbek.

Na rys. widać, że od próbki nr 7 proces zaczyna przebiegać nieprawidłowo. Torebki nie mają już wymaganej wagi, pomimo tego, że wartości średnie w poszczególnych próbkach są nadal zadowalające. Dlatego właśnie konieczne jest kontrolowanie oprócz wartości średniej, także jednej z miar zmienności. Można to robić np. prowadząc kartę rozstępów.

Karta ta jest bardzo podobna do karty. Składa się ona z dwóch wykresów. Na pierwszym monitoruje się wartości średnie w poszczególnych próbkach. Drugi wykres uwzględnia miarę zmienności, poprzez przedstawienie wartości odchylenia standardowego w pobieranych do kontroli próbkach.

Przy stosowaniu karty należy pamiętać o spełnieniu określonych warunków: dane muszą mieć rozkład normalny, za pomocą jednej karty może być nadzorowany tylko jeden parametr, chcąc mierzyć i monitorować kilka właściwości wyrobu, należy prowadzić kilka kart kontrolnych, należy zmierzyć co najmniej 20-25 próbek, zanim obliczy się i wykreśli granice kontrolne i linię środkową, próbki muszą mieć stałą i duża liczność.

Większość kart kontrolnych zakłada, że do badania pobierana jest pewna kilkuelementowa próbka. Niestety nie zawsze jest to technicznie lub ekonomicznie uzasadnione. Czasami, z uwagi na to, że badanie jest czasochłonne lub kosztowne (np. przy badaniach niszczących), nie można sobie pozwolić na skontrolowanie więcej niż jednego wyrobu. Na karcie IX MR monitoruje się (jak na większości kart) miarę położenia oraz miarę zmienności. Miarą położenia są pojedyncze pomiary wybranej właściwości wyrobów (karta IX). Miarą zmienności są tzw. ruchome rozstępy (karta MR ang. Moving Range). Ponieważ w każdej próbce mamy tylko 1 pomiar, nie możemy wykorzystać tradycyjnego rozstępu. Oblicza się tzw. ruchomy rozstęp, który jest wartością bezwzględną z różnicy pomiędzy dwoma kolejnymi wartościami (pomiarami w sąsiednich próbkach).

Karta kontrolna CUSUM jest bardzo specyficznym rodzajem karty kontrolnej. Jej wygląd jest inny niż w przypadku kart standardowych, a granice kontrolne nie mają postaci dwóch równoległych, poziomych linii. Omawiana karta jest nazywana kartą sum skumulowanych. Wynika to z tego, że wykreślany wykres pokazuje sumę odchyleń wartości mierzonej właściwości od założonej wartości nominalnej (przy stosowaniu oceny wg wartości liczbowej).

Karta kontrolna CUSUM jest wyskalowana następująco: oś pozioma nr próbki, oś pionowa wartość skumulowanej sumy odchyleń od wartości zadanej (nominalnej). Linia centralna jest ustawiona na wartości 0 skumulowanego odchylenia. Jeżeli więc wykres pokrywałby się na całej długości z tą linią, oznaczałoby to, że wszystkie wyniki są identyczne z nominałem (co jest oczywiście niedościgłym ideałem). Zaletą kart CUSUM jest to, że są one czułe na drobne przesunięcia wartości średniej procesu, których nie można by było wykryć, stosując jedynie klasyczną kartę lub

Karta ruchomej średniej MA (ang. Moving Average) służy głównie, podobnie jak karta CUSUM, do wykrywania małych przesunięć wartości średniej procesu oraz pojawiających się trendów. Istota prowadzenia karty ruchomej średniej polega na tym, że wartość wykreślanych punktów nie jest bezpośrednio wartością zmierzoną lub średnią w danej próbce, ale wartością średnią z kilku ostatnich próbek. Jako jeden z parametrów ustawia się tu bowiem tzw. szerokość okna, tzn. podaje z jakiej liczby ostatnich próbek będzie liczona średnia do wyznaczenia położenia wykreślanego punktu.

Karty kontrolne przy ocenie alternatywnej stosuje się w przypadku, gdy sterowanie procesem odbywa się dzięki analizie tzw. alternatywnych danych. Dane te to po prostu informacje o postaci: wyrób dobry / wyrób zły, dana cecha występuje / nie występuje, usterka występuje / nie występuje itp. Mamy więc do czynienia z tzw. zmienną zerojedynkową, którą w ujęciu matematycznym można przedstawić następująco: 0 gdy wyrób spełnia wymagania jakościowe X = 1 gdy wyrób jest niezgodny z wymaganiami

Kartę tę stosuje się w przypadku, gdy steruje się procesem, obliczając i analizując tzw. frakcję wyrobów niezgodnych p. Karta ta opiera się na rozkładzie dwumianowym Bernoulliego i z tego wynika postać używanych przy jej prowadzeniu wzorów. Jest ona przeznaczona do sterowania procesami, w których oczekiwana frakcja wyrobów niezgodnych wynosić będzie co najmniej około 5%.

Przykładowe wykorzystania karty kontrolnej p to: kontrolowanie ilości nie działających żarówek w opakowaniu zbiorczym zawierającym pewną ilość wyrobów gotowych, monitorowanie ilości wybrakowanych odlewów w ciągu kolejnych dni produkcji, analizowanie ilości wałków nie mieszczących się w założonej tolerancji wyprodukowanych w ciągu zmiany itp.

Karta ta jest odpowiednikiem karty p, tym, że stosować ją można tylko przy równej liczności kontrolowanych próbek. Z uwagi na to założenie wartością wykreślaną na karcie jest liczba wyrobów niezgodnych (a nie ich frakcja). Bardzo ułatwia to prowadzenie karty i poprawia jej czytelność.

Karta ta jest odpowiednikiem karty p, tym, że stosować ją można tylko przy równej liczności kontrolowanych próbek. Z uwagi na to założenie wartością wykreślaną na karcie jest liczba wyrobów niezgodnych (a nie ich frakcja). Bardzo ułatwia to prowadzenie karty i poprawia jej czytelność.

Karty kontrolne p i np. stosuje się, gdy zliczana jest liczba wyrobów niezgodnych. W niektórych przypadkach lepsze jest jednak zliczanie liczby niezgodności (usterek) pojawiających się w produkowanych wyrobach. Wtedy parametrem, przy użyciu którego steruje się procesem, jest liczba niezgodności występująca w kontrolowanych jednostkach. Przy stosowaniu karty u oblicza się i wykreśla liczbę niezgodności na jednostkę wyrobu. Wzory stosowane do obliczenia położenia granic kontrolnych i linii centralnej oparte są na rozkładzie Poissona, czyli rozkładzie zdarzeń rzadkich. Zakłada się więc, że niezgodności nie występują często.

Przykładowe wykorzystania karty kontrolnej p to: kontrolowanie prowadzonego procesu przez zliczanie liczby skaz na arkuszach produkowanej blachy, Ocena procesu produkcji tafli szkła poprzez analizę liczby pęcherzy w jednostkach wyrobu gotowego itp.

Karta c jest odpowiednikiem karty u stosowanym w przypadku, gdy liczność kontrolowanych próbek jest zawsze stała. Wykreśla się w niej liczbę niezgodności wykrytych w danej próbce.

Karta c jest odpowiednikiem karty u stosowanym w przypadku, gdy liczność kontrolowanych próbek jest zawsze stała. Wykreśla się w niej liczbę niezgodności wykrytych w danej próbce.

Pozwala określić stopień spełnienia przez proces wymogów jakościowych. W tym celu wykorzystuje wskaźniki zdolności. Uwzględniając tolerancję badanej właściwości, możemy określić potencjalne i rzeczywiste zdolności procesu do spełnienia wymagań jakościowych dzięki czemu możemy stwierdzić ile wyrobów mieści się w założonych granicach.

T = B - A A - (DLT) dolna linia tolerancji (dolny wymiar graniczny) /oznaczenia angielskie LSL/ B - (GLT) górna linia tolerancji (górny wymiar graniczny) /oznaczenia angielskie USL/

Miarą zdolności procesu do spełnienia wymagań dokładności są wskaźniki c p i c pk Wartości współczynników c p i c pk wyznacza się z zależności: A, B - dolny i górny wymiar graniczny DLT, GLT - dolna i górna linia tolerancji T - pole tolerancji σ - odchylenie standardowe badanej cechy s - wartość średnia badanej cechy uzyskana podczas próby zdolności k wskaźnik przesunięcia N wartość docelowa (wartość nominalna)

Wskaźnik c p określa potencjalne możliwości procesu do produkcji wyrobu w określonej tolerancji. Wskaźnik c pk jest miarą wycentrowania procesu, inaczej zwaną korygowanym wskaźnikiem zdolności ponieważ uwzględnia także położenie wartości średniej w stosunku do granic tolerancji. Proces jest zdolny czyli spełnia założone wymagania jakościowe gdy:

Wartość wskaźnika Cp LSL USL [mm]

ppm (parts per million) informujący o liczbie błędów przypadających na milion wyników wydajność procesu oznacza procentowy stosunek liczby wyników poprawnych do liczby wszystkich wyników