WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Podobne dokumenty
BADANIE WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Zastosowania sieci neuronowych

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO OKREŚLANIA GRUBOŚCI POWŁOKI POŚLIZGOWEJ OBUDOWY WIELOWARSTWOWEJ SZYBU.

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Temat: Sieci neuronowe oraz technologia CUDA

Projekt Sieci neuronowe

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Uczenie sieci typu MLP

ĆWICZENIE 5: Sztuczne sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Podstawy Sztucznej Inteligencji (PSZT)

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sieci neuronowe w Statistica

Uczenie sieci neuronowych i bayesowskich

Zastosowania sieci neuronowych

ANALIZA WYPADKÓW ZWIĄZANYCH Z ZAGROŻENIEM METANOWYM W KOPALNIACH WĘGLA KAMIENNEGO W LATACH

8. Neuron z ciągłą funkcją aktywacji.

Algorytmy sztucznej inteligencji

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Metody oceny stanu zagrożenia tąpaniami wyrobisk górniczych w kopalniach węgla kamiennego. Praca zbiorowa pod redakcją Józefa Kabiesza

I EKSPLORACJA DANYCH

Lekcja 5: Sieć Kohonena i sieć ART

Metody Sztucznej Inteligencji II

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Uczenie sieci radialnych (RBF)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

WYKORZYSTANIE SIECI NEURONOWYCH DO ODWZOROWANIA DEFORMACJI POWIERZCHNI NA TERENACH GÓRNICZYCH

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Podstawy sztucznej inteligencji

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Dobór funkcji aktywacji sieci neuronowej realizującej odtwarzanie wielkości wejściowej przetwornika pomiarowego

Widzenie komputerowe

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Inteligentne systemy przeciw atakom sieciowym

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

Testowanie modeli predykcyjnych

Politechnika Lubelska

Politechnika Warszawska

Zastosowanie sieci neuronowej do oceny klienta banku pod względem ryzyka kredytowego Streszczenie

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Laboratorium nr 2. Identyfikacja systemu i detekcja uszkodzeń na podstawie modelu

1. Logika, funkcje logiczne, preceptron.

wiedzy Sieci neuronowe

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Elementy inteligencji obliczeniowej

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Emergentne właściwości. sztucznych sieci neuronowych

Katedra Zarządzania i Informatyki Politechnika Śląska

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Elementy kognitywistyki III: Modele i architektury poznawcze

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sztuczne siei neuronowe - wprowadzenie

Wykład 1: Wprowadzenie do sieci neuronowych

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Wstęp do sztucznych sieci neuronowych

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

Definicja perceptronu wielowarstwowego

Matlab podstawy + testowanie dokładności modeli inteligencji obliczeniowej

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

KARTA PRZEDMIOTU. 1) Nazwa przedmiotu: Projekt inżynierski. 2) Kod przedmiotu: SIG-EZiZO/47

2. Ocena jakości konstrukcji budowli podziemnych w poszczególnych okresach jej istnienia

Elementy kognitywistyki III: Modele i architektury poznawcze

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

1 Podstawy programowania sieci neuronowych w programie Matlab 7.0

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Sztuczna inteligencja

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

MODELOWANIE PROCESÓW PRZETWÓRCZYCH Z UŻYCIEM SZTUCZNYCH SIECI NEURONOWYCH

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

PROGNOZA JEDNODNIOWA STĘŻENIA METANU NA WYLOCIE Z REJONU ŚCIANY N-6 W POKŁADZIE 330 W KWK K3

PRZEWODNIK PO PRZEDMIOCIE

SIECI REKURENCYJNE SIECI HOPFIELDA

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

PROGNOZOWANIE PORÓWNAWCZE ENERGII PROCESOWEJ ZESTAWÓW MASZYN DO ROBÓT ZIEMNYCH JAKO CZYNNIKA RYZYKA EMISYJNOŚCI CO2

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Optymalizacja optymalizacji

Systemy uczące się Lab 4

Transkrypt:

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO Stanisław Kowalik (Poland, Gliwice) 1. Wprowadzenie Wstrząsy podziemne i tąpania występujące w kopalniach węgla kamiennego stanowią przyczynę bardzo wielu wypadków. Związane one są z eksploatacją węgla, a szczególnie ze stosowanym obecnie sposobem eksploatacji - z kierowaniem stropu na zawał. Dokładniejsze rozpoznanie sejsmiczności związanej z eksploatacją węgla jest zagadnieniem bardzo ważnym z punktu widzenia bezpieczeństwa pracy górników. Wstrząsy i tąpnięcia są niebezpieczne dla ludzi pracujących w kopalni. Stale występują wypadki w kopalniach, nie tylko lekkie (urazy) ale także śmiertelne. Ogólna tendencja sejsmiczności jest taka, że ze wzrostem wydobycia wzrasta także liczba wstrząsów górotworu. W prezentowanej pracy wykorzystano nauczenie sieci neuronowej w celu określenia zależności pomiędzy wydobyciem węgla w Górnośląskim Zagłębiu Węglowym i rokiem wydobycia na przestrzeni lat 1980-1999, a liczbą wstrząsów górotworu o energii 10 5 J, 10 6 J, 10 7 J, 10 8 J, 10 9 J i liczbą tąpnięć. 2. Uczenie sieci neuronowej Przeprowadzimy eksperyment z uczeniem sieci neuronowej. Działanie sieci neuronowych opisane jest między innymi w pracach [2], [3]. Dane do obliczeń zawarte są w tablicy 1. Tablica 1 Charakterystyka sejsmiczności w Górnośląskim Zagłębiu Węglowym Wydobycie Liczba wstrząsów górotworu o energii rzędu Liczba mln ton 10 5 J 10 6 J 10 7 J 10 8 J 10 9 J tąpnięć 1080 193.1 2855 531 40 5 1 22 1081 163.0 2004 296 31 4 1 28 1082 189.2 2262 251 28 4 0 19 1083 181.1 2400 319 25 4 1 14 1084 191.6 2657 293 16 2 2 13 1085 191.6 2256 202 18 2 2 15 37

1086 192.1 1740 228 26 3 1 27 1087 193.0 2015 204 36 5 0 13 1088 193.0 1471 113 15 0 0 14 1089 177.6 973 91 10 2 0 15 1090 147.7 960 71 5 2 0 16 1091 140.1 823 37 3 1 0 8 1092 131.5 722 53 7 0 1 10 1093 130.2 838 83 6 3 2 18 1094 132.2 671 74 6 1 0 12 1095 135.3 385 70 8 2 0 7 1096 136.3 499 54 11 0 0 2 1097 137.1 464 78 5 0 0 2 1098 116.0 572 86 5 0 0 5 1099 109.2 941 183 10 1 0 2 Źródło: literatura [1] Parametry do obliczeń zawarte w tablicy 1 miały bardzo róże wartości np. liczba wstrząsów górotworu o energii rzędu 10 5 J była rzędu tysięcy, a liczba wstrząsów górotworu o energii rzędu 10 8 J i 10 9 J była rzędu jednostek. Ponieważ liczby wstrząsów o energii 10 8 J i 10 9 J w porównaniu z liczbami wstrząsów o energii 10 5 J i 10 6 były mało znaczące, to korekcja wag w procesie uczenia spowodowana parametrami o dużych wartościach mogła przewyższyć wartości samych parametrów o małych wartościach. Dlatego zdecydowano się więc na przeskalowanie wszystkich sygnałów do przedziału [0,1]. Skalowanie dla każdej kolumny tablicy 1 było dokonywane oddzielnie. Zdecydowano się na nauczanie sieci na podstawie losowo wybranych 14 zestawów pomiarowych spośród 20, a na pozostałych 6 zestawach pomiarowych przeprowadzono testowanie sieci. Wylosowano następujące zestawy danych do uczenia sieci odpowiadające latom: 1980, 1981, 1983, 1984, 1986, 1987 1988, 1990, 1991, 1993, 1995, 1996, 1997, 1999. Pozostałe zestawy danych użyto do testowania sieci. Były to dane z lat: 1982, 1985, 1989, 1992, 1994, 1998. Dane zakodowane (po przeskalowaniu) do nauczania sieci przedstawia tablica 2, natomiast dane zakodowane do testowania sieci przedstawia tablica 3. Tablica 2 Dane zakodowane do nauczania sieci Kod Wydobycie Liczba wstrząsów górotworu o energii rzędu Liczba roku mln ton 10 5 J 10 6 J 10 7 J 10 8 J 10 9 J tąpnięć 1980 0 1 1 1 1 1 0.5 0.7692 1981 0.0526 0.6412 0.6555 0.5243 0.7568 0.8 0.5 1 1983 0.1579 0.8570 0.8158 0.5709 0.5946 0.8 0.5 0.4615 1984 0.2105 0.9821 0.9198 0.5182 0.3514 0.4 1 0.4231 38

1986 0.3158 0.9881 0.5486 0.3866 0.6216 0.6 0.5 0.9615 1987 0.3684 0.9988 0.6599 0.3381 0.8919 1 0 0.4231 1988 0.4211 0.9988 0.4397 0.1538 0.3243 0 0 0.4615 1990 0.5263 0.4589 0.2328 0.0688 0.0541 0.4 0 0.5385 1991 0.5789 0.3683 0.1773 0 0 0.2 0 0.2308 1993 0.6842 0.2503 0.1834 0.0931 0.0811 0.6 1 0.6154 1995 0.7895 0.3111 0 0.0668 0.1351 0.4 0 0.1923 1996 0.8421 0.3230 0.0462 0.0344 0.2162 0 0 0 1997 0.8947 0.3325 0.0320 0.0830 0.0541 0 0 0 1999 1.0000 0 0.2251 0.2955 0.1892 0.2 0 0 Dane zakodowane do testowania sieci Tablica 3 Kod Wydobycie Liczba wstrząsów górotworu o energii rzędu Liczba roku mln ton 10 5 J 10 6 J 10 7 J 10 8 J 10 9 J tąpnięć 1982 0.1053 0.9535 0.7599 0.4332 0.6757 0.8 0 0.6538 1985 0.2632 0.9821 0.7575 0.3340 0.4054 0.4 1 0.5 1989 0.4737 0.8153 0.2381 0.1093 0.1892 0.4 0 0.5 1992 0.6316 0.2658 0.1364 0.0324 0.1081 0 0.5 0.3077 1994 0.7368 0.2741 0.1158 0.0749 0.0811 0.2 0 0.3846 1998 0.9474 0.0810 0.0757 0.0992 0.0541 0 0 0.1154 Sieć neuronowa zainstalowana na komputerze wymaga, aby pierwszą warstwą wejściową były neurony o jednym wejściu i jednym wyjściu. Te neurony stanowią tzw. warstwę buforową. Nie zmieniają one sygnałów wejściowych. Ponieważ sygnałów wejściowych było dwa (rok i wydobycie), to tę warstwę zbudowano z dwóch neuronów. Przeprowadzono dziesięć eksperymentów z uczeniem sieci neuronowej zmieniając liczbę neuronów w drugiej ukrytej warstwie. Drugą warstwę stanowiły neurony w liczbie od jeden do dziesięć. Każdy z nich posiadał dwa wejścia i jedno wyjście. W ostatniej wyjściowej warstwie było sześć neuronów o liczbie wejść równej liczbie neuronów w warstwie ukrytej i jednym wyjściu. Sieć była nieliniowa. Program komputerowy został napisany w Matlabie. W celu utworzenia funkcji aproksymacyjnej wykorzystano algorytm wstecznej propagacji (backpropagation) [4]. Dla uczenia sieci wykonano 10 tysięcy iteracji. W drugiej warstwie ukrytej przyjmowano kolejno od 1 do 10 neuronów. Dla każdego takiego wariantu uczenia sieci rejestrowano błąd średniokwadratowy SSE1 (dla 14 zestawów danych wejściowych) oraz błąd średniokwadratowy SSE2 (dla 6 zestawów danych testowych). Dodatkowo liczono też sumę tych błędów. Te wyniki przedstawione są w tablicy 4 39

Błąd średniokwadratowy przy treningu i testowaniu sieci Tablica 4 Neurony 1 2 3 4 5 6 7 8 9 10 SSE1 3.6069 3.0120 1.9621 1.9612 2.0786 1.6253 1.4882 1.4290 1.4717 0.8689 SSE2 1.2980 1.3149 2.2207 3.0826 2.2204 2.6689 3.1259 1.9712 2.4309 2.7076 Suma 4.9049 4.3269 4.1828 5.0738 4.2990 4.2942 4.6141 3.4002 3.9026 3.5765 Najmniejszy błąd średniokwadratowy dla 14 danych uczących (SSE1=0.8689) wystąpił przy dziesięciu neuronach w warstwie ukrytej, jednak błąd SSE2 był duży w tym przypadku (SSE2=2.7076). Najmniejszy błąd średniokwadratowy dla 6 danych testowych (SSE2=1.2980) wystąpił przy jednym neuronie w warstwie ukrytej, jednak błąd SSE1 był duży w tym przypadku (SSE1=3.6069). Biorąc pod uwagę sumę błędów w trakcie uczenia i testowania sieci (SSE1+SSE2), najlepszą siecią dla tych obliczeń okazała się sieć o ośmiu neuronach w warstwie ukrytej (Suma=3.4002). Wielkość błędu SSE1 w trakcie uczenia sieci dla tego przypadku pokazana jest na rysunku 1. Rys. 1. Błąd średniokwadratowy (dla 8 neuronów w warstwie ukrytej) Na rysunku 2 pokazano dodatkowo wielkość błędu w początkowych pięćdziesięciu cyklach obliczeniowych. Rys. 2. Błąd średniokwadratowy (dla 50 cykli obliczeniowych) 40

Następnie dokonano porównania wartości liczbowych dla czternastu zestawów uczących (z tablicy 2) z odpowiedzią sieci po nauczaniu i odkodowaniu. Wyniki otrzymane z sieci neuronowej przedstawia tablica 5. Tablica 5 Wyniki z sieci dla danych uczących po odkodowaniu Wydobycie Liczba wstrząsów górotworu o energii rzędu Liczba mln ton 10 5 J 10 6 J 10 7 J 10 8 J 10 9 J tąpnięć 1980 193.1 3029 502 37 5 1 19 1981 163.0 1982 302 32 4 1 28 1983 181.1 2327 331 25 4 1 18 1984 191.6 2389 313 26 4 2 19 1986 192.1 2009 223 24 3 1 18 1987 193.0 1807 184 23 2 1 16 1988 193.0 1565 141 23 2 0 14 1990 147.7 848 40 4 2 0 12 1991 140.1 890 69 5 2 0 12 1993 130.2 869 70 5 3 2 17 1995 135.3 627 77 7 1 0 6 1996 136.3 507 66 8 1 0 3 1997 137.1 388 46 9 0 0 3 1999 109.2 817 199 11 1 0 2 Wyniki otrzymane z sieci neuronowej po odkodowaniu dla sześciu zestawów danych testujących przedstawia tablica 6. Wyniki z sieci dla danych testowych po odkodowaniu Tablica 6 Wydobycie Liczba wstrząsów górotworu o energii rzędu Liczba mln ton 10 5 J 10 6 J 10 7 J 10 8 J 10 9 J tąpnięć 1982 189.2 2690 308 31 4 1 18 1985 191.6 2202 266 25 4 2 19 1989 177.6 866 208 10 1 0 15 1992 131.5 911 62 5 3 2 18 1994 132.2 771 80 5 2 1 11 1998 116.0 775 166 10 1 1 4 41

Na podstawie porównania wyników (tablica 1 oraz tablica 5 i 6) można uznać, że sieć została prawie dobrze nauczona. Liczby w tablicach 1 oraz 5 i 6 są podobne. LITERATURA [1] Konopko W., Makówka J.: Prawdopodobieństwo tąpnięcia w kopalniach węgla kamiennego. Zeszyty Naukowe Politechniki Śląskiej, Górnictwo Nr 246, Gliwice 2000. [2] Rumelhart D.E., Mc Clelland J.L. (eds.): Parallel distributed processing. The Mit Press, Cambridge, Massachusetts 1986. [3] Tadeusiewicz R.: Sieci neuronowe. Akademicka Oficyna Wydawnicza, Warszawa 1993. [4] Zalewski A., Cegieła R.: Matlab obliczenia numeryczne i ich zastosowanie. Wyd. Nakom, Poznań 1997. Streszczenie. W pracy przedstawiono rozważania dotyczące określenia zależności pomiędzy wydobyciem węgla w Górnośląskim Zagłębiu Węglowym a liczbą wstrząsów górotworu o energii 10 5 J, 10 6 J, 10 7 J, 10 8 J, 10 9 J oraz liczbą tąpań. W celu określenia tej zależności przeprowadzono trening sieci neuronowej. Wykorzystano do tego rzeczywiste dane z kopalń z lat 1980 1999. Rozważania te można wykorzystać do prognozowania liczby wstrząsów związanych z eksploatacją górniczą. 42