Stanisław KOWALIK Department of Management an Restructuring of Mining, Faculty of Mining an Geology, Silesian Tecnical University, Akaemicka 2, 44-100 Gliwice, Polan Phone: +048-32-2371842, sekr. phone: +048-32-2372179, fax: +048-32-2371296 email: stan@boss.gorn.polsl.gliwice.pl WYKORZYSTANIE SIECI NEURONOWEJ DO OKREŚLANIA GRUBOŚCI POWŁOKI POŚLIZGOWEJ OBUDOWY WIELOWARSTWOWEJ SZYBU. UTILISATION A NEURAL NETWORK TO DETERMINATION OF THE THICKNESS OF THE SLIDE LAYER OF THE MULTILAYER SHAFT LINING Summary In the work use following parameters escribing of the slie layer of the multilayer shaft lining: angle of turn of the main shaft founation occurs in a verticaical plane α [r]; specific weight of asphalt γ a [KN/m 3 ]; Depth of the main shaft founation H S [m]; iameter of shaft in light D [m]; moule elasticities of internal ring E 1 [Gpa]; moule elasticities of concrete - core E 2 [Gpa]; moule elasticities of external ring E 3 [Gpa]; thickness of internal ring G 1 [m]; thickness of concrete - core G 2 [m]; thickness of external ring G 3 [m]. In the work gave example of utilisation of neural network to qualifying thicknesses such slie layer. Passe learnely neural network for tens of measuring sets - parameters escribing slie layer. 1. Wprowazenie W prezentowanej pracy wykorzystamy nauczenie sieci neuronowej w celu wyznaczania grubości powłoki poślizgowej obuowy wielowarstwowej szybu. Tematyka związana z obuowy wielowarstwowej szybu okłanie omówiona jest w pracy [1]. Taka warstwa szybu spełnia następujące funkcje: - zapewnienie równomierności obciążenia trzonu nośnego obuowy, skłaającego się na ogół ze szczelnej, zewnętrznej ścianki stalowej, rzenia betonowego oraz ewentualnie - wewnętrznego płaszcza stalowego lub kolumny tubingów; pomimo pewnego wzrostu obciążenia obuowy w wyniku parcia warstwy poślizgowej, uzyskuje się w ten sposób zwiększenie komfortu pracy konstrukcji; - wytworzenie strefy amortyzującej eformacje ociosów, bęące rezultatem wybierania złoża w najbliższym sąsieztwie szybu, a także eformacje samego trzonu nośnego obuowy, spowoowane ruchami stopy lub głowicy szybu po wpływem eksploatacji [1]. Grubość warstwy poślizgowej wyznacza się na postawie ziesięciu parametrów wejściowych. Parametry te przestawione są w tablicy 1.
Tablica 1 Wartości parametrów wejściowych Lp. Rozaj parametru Przyjęte wartości 1 Kąt obrotu stopy szybowej α, r 0.001, 0.002, 0.003 2 Ciężar właściwy asfaltu γa, KN/m3 11, 12, 13 3 Głębokość posaowienia stopy H S, m 400, 600, 800 4 Śrenica szybu w świetle D, m 4, 6, 8 5 Mouł sprężystości pierścienia wewnętrznego E 1, GPa 107, 210 6 Mouł sprężystości rzenia betonowego E 2, GPa 32.4, 34.4, 36.0 7 Mouł sprężystości pierścienia zewnętrznego E 3, GPa 210 8 Grubość pierścienia wewnętrznego G 1, m 0.005, 0.01, 0.02, 0.04,0.06,0.08 9 Grubość rzenia betonowego G 2, m 0.4, 0.6, 0.8 10 Grubość pierścienia zewnętrznego G 3, m 0.005, 0.01, 0.02 Źróło: pozycja literatury [1]. W pracy [1] okonano przykłaowych obliczeń grubości warstwy poślizgowej la 72 wariantów anych wejściowych spośró 15 tysięcy kombinacji - jak piszą autorzy. Czas trwania obliczeń jenego cyklu wyniósł około 5 minut na mikrokomputerze IBM PC XT TURBO [1]. Nasuwa się poglą, że można by nauczyć sieć neuronową zależności mięzy parametrami wejściowymi a grubością warstwy poślizgowej na postawie tych przeliczonych 72 wariantów. Innych wariantów spośró 15 tysięcy nie trzeba by już przeliczać, a sieć neuronowa awałaby opowieź, jaka powinna być grubość warstwy poślizgowej la innego wariantu. 2. Wykorzystanie sieci neuronowej o określania grubości powłoki poślizgowej Przeprowazimy eksperyment z uczeniem sieci neuronowej. Działanie sieci neuronowych opisane jest mięzy innymi w pracach [2], [3]. Baane warianty anych wejściowych przestawione są w tablicy 2. W tablicy tej pokazano jeynie pierwszych ziesięć i ostatnich ziesięć takich wariantów. Tablica 2 Baanie wartości parametrów Nr. α γa H S D E 1 E 2 E 3 G 1 G 2 G 3 1 0.001 11 400 4 210 32.4 210 0.01 0.4 0.01 6.9 2 0.003 11 400 4 210 32.4 210 0.01 0.4 0.01 20.70 3 0.001 12 400 4 210 32.4 210 0.01 0.4 0.01 6.7 4 0.003 12 400 4 210 32.4 210 0.01 0.4 0.01 20.1 5 0.001 13 400 4 210 32.4 210 0.01 0.4 0.01 6.5 6 0.003 13 400 4 210 32.4 210 0.01 0.4 0.01 19.60 7 0.001 11 800 4 210 32.4 210 0.01 0.4 0.01 8.8 8 0.003 11 800 4 210 32.4 210 0.005 0.4 0.005 26.4 9 0.001 12 800 4 210 32.4 210 0.005 0.4 0.005 7.9 10 0.003 12 800 4 210 32.4 210 0.005 0.4 0.005 23.6 : : : : : : : : : : : :
63 0.002 13 800 8 107 32.4 210 0.04 0.4 0.02 19.4 64 0.002 13 800 8 107 32.4 210 0.06 0.4 0.02 20.5 65 0.002 13 800 8 107 32.4 210 0.08 0.4 0.02 21.6 66 0.002 13 800 8 107 32.4 210 0.04 0.8 0.02 24.8 67 0.002 13 800 8 107 32.4 210 0.06 0.8 0.02 25.5 68 0.002 13 800 8 107 32.4 210 0.08 0.8 0.02 26.3 69 0.002 13 800 8 107 32.4 210 0.04 0.4 0.01 17.8 70 0.002 13 800 8 107 32.4 210 0.08 0.4 0.01 20.2 71 0.002 13 800 8 107 32.4 210 0.04 0.8 0.01 23.7 72 0.002 13 800 8 107 32.4 210 0.08 0.8 0.01 25.6 Źróło: pozycja literatury [1]. Sieć neuronowa zainstalowana na komputerze wymaga, aby pierwszą warstwą wejściową były neurony o jenym wejściu i jenym wyjściu. Te neurony stanowią tzw. warstwę buforową. Nie zmieniają one sygnałów wejściowych. Ponieważ sygnałów wejściowych jest ziesięć, to tę warstwę zbuowano z ziesięciu takich neuronów. Drugą kolejną warstwę, a weług wcześniejszych oznaczeń pierwszą ukrytą, stanowiło ziesięć neuronów o ziesięciu wejściach i jenym wyjściu. W ostatniej wyjściowej warstwie był tylko jeen neuron o ziesięciu wejściach i jenym wyjściu. Sieć była nieliniowa. Nieliniowość w neuronach była wyrażona poprzez funkcję tangens hiperboliczny. Dane z tablicy 2 zreukowano o cztery warianty o numerach 53, 54, 55, 56, ponieważ te warianty zawierały niekompletne ane wejściowe. Brak było parametrów E 1 i G 1. Parametry miały barzo róże wartości np. α=0.001, 0.002, 0.003; H S =400, 600, 800. Ponieważ parametry α i G 3 w porównaniu z parametrami H S i E 1 były mało znaczące, to korekcja wag w procesie uczenia spowoowana parametrami H S i E 1 mogła przewyższyć wartości samych parametrów α i G 3. Dlatego zecyowano się więc na przeskalowanie wszystkich sygnałów o przeziału [0,1]. W eksperymencie zrezygnowano z parametru wejściowego E 3, jako że w każym wariancie miał on wartość stałą 210. Skalowanie la każego parametru było inne. Był to więc pewien rozaj koowania wielkości wejściowych i wyjściowych sieci. Sygnały zostały zakoowane w następujący sposób: - parametr α: 0.001 0, 0.002 0.5, 0.003 1; - parametr γ a : 11 0, 12 0.5, 13 1; - parametr H S : 400 0, 600 0.5, 800 1; - parametr D: 4 0, 6 0.5, 8 1; - parametr E 1 : 107 0, 210 1; - parametr E 2 : 32.4 0.1 34.4 0.6 36.0 1; - parametr G 1 : 0.005 0.05, 0.01 0.1, 0.02 0.2, 0.04 0.4, 0.06 0.6, 0.08 0.8; - parametr G 2 : 0.04 0, 0.6 0.5 0.8 1; - parametr G 3 : 0.005 0.25, 0.01 0.5, 0.02 1. Wartości parametru na postawie tablicy 2, były w zakresie o 6.5 o 26.5. Przy skalowaniu przyjęto, że [5,30] i temu zakresowi opowiaa przeział [0,1]. Wszystkie wartości parametru opowienio proporcjonalnie w ten sposób przeskalowano. Zecyowano się na nauczanie sieci na postawie 46 zestawów pomiarowych sposro 68, a na pozostałych 22 zestawów pomiarowych przeprowazono testowanie sieci. Z tablicy 2 brano o obliczeń kolejno 2 wiersze, a trzeci pomijano it. Nowe wartości anych o uczenia sieci neuronowej zawarto w tablicy 3.
Tablica 3 Zakoowane wartości parametrów Nr. α γ a H S D E 1 E 2 G 1 G 2 G 3 1 0 0 0 0 1 0.1 0.05 0 0.25 0.076 2 1 0 0 0 1 0.1 0.05 0 0.25 0.628 4 1 0.5 0 0 1 0.1 0.05 0 0.25 0.604 5 0 1 0 0 1 0.1 0.05 0 0.25 0.060 7 0 0 1 0 1 0.1 0.05 0 0.25 0.152 8 1 0 1 0 1 0.1 0.05 0 0.25 0.856 10 1 0.5 1 0 1 0.1 0.05 0 0.25 0.744 11 0 1 1 0 1 0.1 0.05 0 0.25 0.092 13 0.5 0 1 0.5 1 0.1 0.05 0 0.25 0.480 14 0.5 0.5 1 0 1 0.1 0.05 0 0.25 0.436 : : : : : : : : : : : 59 0.5 1 1 1 1 0.6 0.1 1 0.5 0.732 60 0.5 1 1 1 1 1 0.1 0 0,5 0.496 62 0.5 1 1 1 1 1 0.1 1 0.5 0.740 63 0.5 1 1 1 0 0.1 0.4 0 1 0.576 65 0.5 1 1 1 0 0.1 0.8 0 1 0.664 66 0.5 1 1 1 0 0.1 0.4 1 1 0.792 68 0.5 1 1 1 0 0.1 0.8 1 1 0.852 69 0.5 1 1 1 0 0.1 0.4 0 0.25 0.512 71 0.5 1 1 1 0 0.1 0.4 1 0.25 0.748 72 Źróło: pozycja literatury [1]. Struktura sieci neuronowej przestawiona jest na rysunku 1.
Rys.1. Obraz z monitora komputera w trakcie uczenia sieci neuronowej Element Bias o numerze 1 oznacza sygnał stały równy 1 (x 0 1). Warstwę wejściową (buforową) stanowiły neurony o numerach o 2 o 10. Następna warstwa zbuowana była z ziewięciu neuronów o ziewięciu wejściach i jenym wyjściu (numery neuronów o 11 o 19). Ostatnią wyjściową warstwą był jeen neuron o ziewięciu wejściach i jenym wyjściu. Nieliniowość w neuronach była reprezentowana przez funkcję tangens hiperboliczny. Ilość iteracji zaano 200 tysięcy. Następnie porównano wartości (parametr wyjściowy zakoowany - grubość warstwy poślizgowej - na postawie tablicy 3) z opowiezią sieci po nauczaniu. Wyniki przestawia tablica 4. Tablica 4 Porównanie wyników (zakoowanych) przy uczeniu sieci Nr. Lp. Lp. 1 0.076 0.073 25 0.412 0.410 49 0.456 0.460 2 0.628 0.625 26 0.484 0.481 50 0.504 0.502 4 0.604 0.601 28 0.436 0.436 52 0.740 0.741 5 0.060 0.059 29 0.788 0.792 57 0.488 0.490 7 0.152 0.157 31 0.596 0.597 59 0.732 0.732 8 0.856 0.856 32 0.552 0.553 10 0.744 0.741 34 0.528 0.530 62 0.740 0.739 11 0.092 0.096 35 0.504 0.499 63 0.576 0.575 13 0.480 0.480 37 0.536 0.540 65 0.664 0.663 14 0.436 0.432 38 0.516 0.520 66 0.792 0.791 16 0.500 0.502 40 0.648 0.649 68 0.852 0.853 17 0.464 0.467 41 0.624 0.628 69 0.512 0.510 19 0.756 0.755 43 0.452 0.453 71 0.748 0.748 20 0.716 0.716 44 0.492 0.491 72 0.812 0.809 22 0.604 0.606 23 47 0.704 0.704 Po wykonaniu tych obliczeń przeprowazono testowanie sieci la pozostałych 22 zestawów anych. Następnie porównano wartości z opowiezią sieci po nauczaniu, la 22 pozostałych wariantów anych wejściowych. Wyniki porównania przestawiono w tablicy 5. Wyniki porównania la wszystkich 68 wariantów po okoowaniu tych wartości przestawia tablica 6. Można uznać, że sieć została prawie obrze nauczona. Liczby w tablicy 6 są prawie takie same.
Tablica 5 Porównanie wyników (zakoowanych) przy testowaniu sieci Nr. Lp. Lp. 3 0.068 0.072 27 0.460 0.464 51 0.712 0.711 6 0.584 0.583 30 0.616 0.618 58 0.624 0.626 9 0.116 0.120 33 61 0.632 0.631 12 0.676 0.677 36 0.556 0.554 64 0.620 0.623 15 0.400 0.400 39 0.860 0.862 67 0.820 0.823 18 0.436 0.438 42 0.600 0.597 70 0.608 0.606 21 0.676 0.676 45 0.592 0.590 24 0.440 0.442 48 0.724 0.722 Tablica 6 Porównanie wyników (okoowanych) Nr. Lp. Lp. 1 6.900 6.835 24 16.000 16.061 47 22.600 22.600 2 20.700 20.633 25 15.300 15.260 48 23.100 23.043 3 6.700 6.792 26 17.100 17.030 49 16.400 16.496 4 20.100 20.033 27 16.500 16.602 50 17.600 17.546 5 6.500 6.480 28 15.900 15.891 51 22.800 22.785 6 19.600 19.576 29 24.700 24.802 52 23.500 23.528 7 8.800 8.920 30 20.400 20.450 57 17.200 17.251 8 26.400 26.393 31 19.900 19.920 58 20.600 20.650 9 7.900 8.006 32 18.800 18.837 59 23.300 23.298 10 23.600 23.522 33 19.000 18.966 60 17.400 17.357 11 7.300 7.400 34 18.200 18.260 61 20.800 20.782 12 21.900 21.917 35 17.600 17.482 62 23.500 23.471 13 17.000 17.007 36 18.900 18.839 63 19.400 19.367 14 15.900 15.809 37 18.400 18.497 64 20.500 20.566 15 15.000 15.009 38 17.900 17.993 65 21.600 21.580 16 17.500 17.542 39 26.500 26.560 66 24.800 24.786 17 16.600 16.671 40 21.200 21.220 67 25.500 25.586 18 15.900 15.949 41 20.600 20.711 68 26.300 26.332 19 23.900 23.876 42 20.000 19.914 69 17.800 17.738 20 22.900 22.896 43 16.300 16.317 70 20.200 20.144 21 21.900 21.892 44 17.300 17.266 71 23.700 23.690 22 20.100 20.150 45 19.800 19.750 72 25.300 25.229 23 16.700 16.576 46 20.500 20.514 LITERATURA 1. Dua Z., Kohutek Z., Kuśmierz J., Mikołajek M., Szefer G.: Wyznaczanie grubości
powłoki poślizgowej obuowy wielowarstwowej szybu ze wzglęu na obrót stopy po wybraniu złoża w obrębie filara ochronnego. Zesz. Nauk. Pol. Śl. Górnictwo Nr 202, Gliwice 1993. 2. Rumelhart D.E., Mc Clellan J.L. (es.): Parallel istribute processing. The Mit Press, Cambrige, Massachusetts 1986. 3. Taeusiewicz R.: Sieci neuronowe. Akaemicka Oficyna Wyawnicza, Warszawa 1993.