WYKORZYSTANIE SIECI NEURONOWEJ DO OKREŚLANIA GRUBOŚCI POWŁOKI POŚLIZGOWEJ OBUDOWY WIELOWARSTWOWEJ SZYBU.

Podobne dokumenty
WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Algorytmy sztucznej inteligencji

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

5.2. OCHROPOWATOŚĆ BEZWZGLĘDNA k RUR (PN-76/M )

Politechnika Warszawska

T150. objaśnienia do tabel. blacha trapezowa T-150 POZYTYW NEGATYW

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Sztuczne siei neuronowe - wprowadzenie

Metody klasyfikacji i rozpoznawania wzorców. Najważniejsze rodzaje klasyfikatorów

Zastosowania sieci neuronowych

ĆWICZENIE 5: Sztuczne sieci neuronowe

Sieci neuronowe w Statistica

T14. objaśnienia do tabel. blacha trapezowa T-14 POZYTYW NEGATYW

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

objaśnienia do tabel blacha trapezowa T-7 POZYTYW NEGATYW

PF 25. blacha falista PF 25

Podstawy Sztucznej Inteligencji

T18DR. objaśnienia do tabel. blacha trapezowa T-18DR POZYTYW NEGATYW

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Elementy inteligencji obliczeniowej

Uczenie sieci typu MLP

Lekcja 5: Sieć Kohonena i sieć ART

System Zarządzania Jakością PN-EN ISO 9001:2009. Tabele obciążeń

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Projekt głębokości wbicia ścianki szczelnej stalowej i doboru profilu stalowego typu U dla uzyskanego maksymalnego momentu zginającego

Wykład 1: Wprowadzenie do sieci neuronowych

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Metrologia Techniczna

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Projekt Sieci neuronowe

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Politechnika Lubelska

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

U L T R A ZAKŁAD BADAŃ MATERIAŁÓW

Ćwiczenie 3 Badanie własności podstawowych liniowych członów automatyki opartych na biernych elementach elektrycznych

SZTUCZNA INTELIGENCJA

System uszczelnień przejść instalacyjnych WARIANT II

Instrukcja do laboratorium Materiały budowlane Ćwiczenie 12 IIBZ ĆWICZENIE 12 METALE POMIAR TWARDOŚCI METALI SPOSOBEM BRINELLA

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

Przykłady obliczeń złączy na łączniki trzpieniowe obciążone poprzecznie wg PN-B-03150

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

MODELOWANIE PROCESÓW PRZETWÓRCZYCH Z UŻYCIEM SZTUCZNYCH SIECI NEURONOWYCH

Q BIS Zabezpieczenia pożarowe

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

PRZEZNACZENIE I OPIS PROGRAMU

Podstawy sztucznej inteligencji

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Metody Sztucznej Inteligencji II

Zadanie 2.: Perceptron wielowarstwowy

Inteligentne systemy przeciw atakom sieciowym

TABELARYCZNE ZESTAWIENIA DOPUSZCZALNYCH OBCIĄŻEŃ DLA ELEWACYJNYCH PROFILI FALISTYCH

Wykorzystanie wzoru na osiadanie płyty statycznej do określenia naprężenia pod podstawą kolumny betonowej

Zastosowania sieci neuronowych

Deep Learning na przykładzie Deep Belief Networks

Temat: Sieci neuronowe oraz technologia CUDA

Elektroniczne materiały dydaktyczne do przedmiotu Wstęp do Sieci Neuronowych

Zrealizować sieć neuronową (learnbpm) uczącą się odwzorowania z = x 2 + y 2 dla x i y zmieniających się od -1 do 1.

INSTYTUT INŻYNIERII ŚRODOWISKA ZAKŁAD GEOINŻYNIERII I REKULTYWACJI ĆWICZENIE NR 5

ZASTOSOWANIE SIECI NEURONOWEJ DO OKREŚLANIA EFEKTYWNOŚCI PRACY ROZDRABNIACZA LEŚNEGO

Sztuczne sieci neuronowe

Materiały pomocnicze

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Uczenie sieci radialnych (RBF)

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

ZŁOŻONE KONSTRUKCJE BETONOWE I DŹWIGAR KABLOBETONOWY

Obliczenia inteligentne Zadanie 4

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytmy wstecznej propagacji sieci neuronowych

Wpływ opisu danych na efektywność uczenia oraz pracy sztucznej sieci neuronowej na przykładzie identyfikacji białek

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

8. Neuron z ciągłą funkcją aktywacji.

1. Wprowadzenie: dt q = - λ dx. q = lim F

SIECI RBF (RADIAL BASIS FUNCTIONS)

Zadanie 1 Przygotuj algorytm programu - sortowanie przez wstawianie.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

H+H Płaskie belki nadprożowe. i kształtki U. i kształtki U

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

Sztuczna inteligencja

SIEĆ NEURONOWA JAKO NARZĘDZIE APROKSYMACJI I KLASYFIKACJI DANYCH. Jakub Karbowski Gimnazjum nr 17 w Krakowie

SYSTEM DO POMIARU STRUMIENIA OBJĘTOŚCI WODY ZA POMOCĄ ZWĘŻKI

EGZAMIN POTWIERDZAJĄCY KWALIFIKACJE W ZAWODZIE Rok 2018 CZĘŚĆ PRAKTYCZNA

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Wstęp do sztucznych sieci neuronowych

POLSKA NORMA. Numer: PN-80/B Tytuł: Obciążenia w obliczeniach statycznych - Obciążenie śniegiem

Analiza wpływu przypadków obciążenia śniegiem na nośność dachów płaskich z attykami

Systemy uczące się Lab 4

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Transkrypt:

Stanisław KOWALIK Department of Management an Restructuring of Mining, Faculty of Mining an Geology, Silesian Tecnical University, Akaemicka 2, 44-100 Gliwice, Polan Phone: +048-32-2371842, sekr. phone: +048-32-2372179, fax: +048-32-2371296 email: stan@boss.gorn.polsl.gliwice.pl WYKORZYSTANIE SIECI NEURONOWEJ DO OKREŚLANIA GRUBOŚCI POWŁOKI POŚLIZGOWEJ OBUDOWY WIELOWARSTWOWEJ SZYBU. UTILISATION A NEURAL NETWORK TO DETERMINATION OF THE THICKNESS OF THE SLIDE LAYER OF THE MULTILAYER SHAFT LINING Summary In the work use following parameters escribing of the slie layer of the multilayer shaft lining: angle of turn of the main shaft founation occurs in a verticaical plane α [r]; specific weight of asphalt γ a [KN/m 3 ]; Depth of the main shaft founation H S [m]; iameter of shaft in light D [m]; moule elasticities of internal ring E 1 [Gpa]; moule elasticities of concrete - core E 2 [Gpa]; moule elasticities of external ring E 3 [Gpa]; thickness of internal ring G 1 [m]; thickness of concrete - core G 2 [m]; thickness of external ring G 3 [m]. In the work gave example of utilisation of neural network to qualifying thicknesses such slie layer. Passe learnely neural network for tens of measuring sets - parameters escribing slie layer. 1. Wprowazenie W prezentowanej pracy wykorzystamy nauczenie sieci neuronowej w celu wyznaczania grubości powłoki poślizgowej obuowy wielowarstwowej szybu. Tematyka związana z obuowy wielowarstwowej szybu okłanie omówiona jest w pracy [1]. Taka warstwa szybu spełnia następujące funkcje: - zapewnienie równomierności obciążenia trzonu nośnego obuowy, skłaającego się na ogół ze szczelnej, zewnętrznej ścianki stalowej, rzenia betonowego oraz ewentualnie - wewnętrznego płaszcza stalowego lub kolumny tubingów; pomimo pewnego wzrostu obciążenia obuowy w wyniku parcia warstwy poślizgowej, uzyskuje się w ten sposób zwiększenie komfortu pracy konstrukcji; - wytworzenie strefy amortyzującej eformacje ociosów, bęące rezultatem wybierania złoża w najbliższym sąsieztwie szybu, a także eformacje samego trzonu nośnego obuowy, spowoowane ruchami stopy lub głowicy szybu po wpływem eksploatacji [1]. Grubość warstwy poślizgowej wyznacza się na postawie ziesięciu parametrów wejściowych. Parametry te przestawione są w tablicy 1.

Tablica 1 Wartości parametrów wejściowych Lp. Rozaj parametru Przyjęte wartości 1 Kąt obrotu stopy szybowej α, r 0.001, 0.002, 0.003 2 Ciężar właściwy asfaltu γa, KN/m3 11, 12, 13 3 Głębokość posaowienia stopy H S, m 400, 600, 800 4 Śrenica szybu w świetle D, m 4, 6, 8 5 Mouł sprężystości pierścienia wewnętrznego E 1, GPa 107, 210 6 Mouł sprężystości rzenia betonowego E 2, GPa 32.4, 34.4, 36.0 7 Mouł sprężystości pierścienia zewnętrznego E 3, GPa 210 8 Grubość pierścienia wewnętrznego G 1, m 0.005, 0.01, 0.02, 0.04,0.06,0.08 9 Grubość rzenia betonowego G 2, m 0.4, 0.6, 0.8 10 Grubość pierścienia zewnętrznego G 3, m 0.005, 0.01, 0.02 Źróło: pozycja literatury [1]. W pracy [1] okonano przykłaowych obliczeń grubości warstwy poślizgowej la 72 wariantów anych wejściowych spośró 15 tysięcy kombinacji - jak piszą autorzy. Czas trwania obliczeń jenego cyklu wyniósł około 5 minut na mikrokomputerze IBM PC XT TURBO [1]. Nasuwa się poglą, że można by nauczyć sieć neuronową zależności mięzy parametrami wejściowymi a grubością warstwy poślizgowej na postawie tych przeliczonych 72 wariantów. Innych wariantów spośró 15 tysięcy nie trzeba by już przeliczać, a sieć neuronowa awałaby opowieź, jaka powinna być grubość warstwy poślizgowej la innego wariantu. 2. Wykorzystanie sieci neuronowej o określania grubości powłoki poślizgowej Przeprowazimy eksperyment z uczeniem sieci neuronowej. Działanie sieci neuronowych opisane jest mięzy innymi w pracach [2], [3]. Baane warianty anych wejściowych przestawione są w tablicy 2. W tablicy tej pokazano jeynie pierwszych ziesięć i ostatnich ziesięć takich wariantów. Tablica 2 Baanie wartości parametrów Nr. α γa H S D E 1 E 2 E 3 G 1 G 2 G 3 1 0.001 11 400 4 210 32.4 210 0.01 0.4 0.01 6.9 2 0.003 11 400 4 210 32.4 210 0.01 0.4 0.01 20.70 3 0.001 12 400 4 210 32.4 210 0.01 0.4 0.01 6.7 4 0.003 12 400 4 210 32.4 210 0.01 0.4 0.01 20.1 5 0.001 13 400 4 210 32.4 210 0.01 0.4 0.01 6.5 6 0.003 13 400 4 210 32.4 210 0.01 0.4 0.01 19.60 7 0.001 11 800 4 210 32.4 210 0.01 0.4 0.01 8.8 8 0.003 11 800 4 210 32.4 210 0.005 0.4 0.005 26.4 9 0.001 12 800 4 210 32.4 210 0.005 0.4 0.005 7.9 10 0.003 12 800 4 210 32.4 210 0.005 0.4 0.005 23.6 : : : : : : : : : : : :

63 0.002 13 800 8 107 32.4 210 0.04 0.4 0.02 19.4 64 0.002 13 800 8 107 32.4 210 0.06 0.4 0.02 20.5 65 0.002 13 800 8 107 32.4 210 0.08 0.4 0.02 21.6 66 0.002 13 800 8 107 32.4 210 0.04 0.8 0.02 24.8 67 0.002 13 800 8 107 32.4 210 0.06 0.8 0.02 25.5 68 0.002 13 800 8 107 32.4 210 0.08 0.8 0.02 26.3 69 0.002 13 800 8 107 32.4 210 0.04 0.4 0.01 17.8 70 0.002 13 800 8 107 32.4 210 0.08 0.4 0.01 20.2 71 0.002 13 800 8 107 32.4 210 0.04 0.8 0.01 23.7 72 0.002 13 800 8 107 32.4 210 0.08 0.8 0.01 25.6 Źróło: pozycja literatury [1]. Sieć neuronowa zainstalowana na komputerze wymaga, aby pierwszą warstwą wejściową były neurony o jenym wejściu i jenym wyjściu. Te neurony stanowią tzw. warstwę buforową. Nie zmieniają one sygnałów wejściowych. Ponieważ sygnałów wejściowych jest ziesięć, to tę warstwę zbuowano z ziesięciu takich neuronów. Drugą kolejną warstwę, a weług wcześniejszych oznaczeń pierwszą ukrytą, stanowiło ziesięć neuronów o ziesięciu wejściach i jenym wyjściu. W ostatniej wyjściowej warstwie był tylko jeen neuron o ziesięciu wejściach i jenym wyjściu. Sieć była nieliniowa. Nieliniowość w neuronach była wyrażona poprzez funkcję tangens hiperboliczny. Dane z tablicy 2 zreukowano o cztery warianty o numerach 53, 54, 55, 56, ponieważ te warianty zawierały niekompletne ane wejściowe. Brak było parametrów E 1 i G 1. Parametry miały barzo róże wartości np. α=0.001, 0.002, 0.003; H S =400, 600, 800. Ponieważ parametry α i G 3 w porównaniu z parametrami H S i E 1 były mało znaczące, to korekcja wag w procesie uczenia spowoowana parametrami H S i E 1 mogła przewyższyć wartości samych parametrów α i G 3. Dlatego zecyowano się więc na przeskalowanie wszystkich sygnałów o przeziału [0,1]. W eksperymencie zrezygnowano z parametru wejściowego E 3, jako że w każym wariancie miał on wartość stałą 210. Skalowanie la każego parametru było inne. Był to więc pewien rozaj koowania wielkości wejściowych i wyjściowych sieci. Sygnały zostały zakoowane w następujący sposób: - parametr α: 0.001 0, 0.002 0.5, 0.003 1; - parametr γ a : 11 0, 12 0.5, 13 1; - parametr H S : 400 0, 600 0.5, 800 1; - parametr D: 4 0, 6 0.5, 8 1; - parametr E 1 : 107 0, 210 1; - parametr E 2 : 32.4 0.1 34.4 0.6 36.0 1; - parametr G 1 : 0.005 0.05, 0.01 0.1, 0.02 0.2, 0.04 0.4, 0.06 0.6, 0.08 0.8; - parametr G 2 : 0.04 0, 0.6 0.5 0.8 1; - parametr G 3 : 0.005 0.25, 0.01 0.5, 0.02 1. Wartości parametru na postawie tablicy 2, były w zakresie o 6.5 o 26.5. Przy skalowaniu przyjęto, że [5,30] i temu zakresowi opowiaa przeział [0,1]. Wszystkie wartości parametru opowienio proporcjonalnie w ten sposób przeskalowano. Zecyowano się na nauczanie sieci na postawie 46 zestawów pomiarowych sposro 68, a na pozostałych 22 zestawów pomiarowych przeprowazono testowanie sieci. Z tablicy 2 brano o obliczeń kolejno 2 wiersze, a trzeci pomijano it. Nowe wartości anych o uczenia sieci neuronowej zawarto w tablicy 3.

Tablica 3 Zakoowane wartości parametrów Nr. α γ a H S D E 1 E 2 G 1 G 2 G 3 1 0 0 0 0 1 0.1 0.05 0 0.25 0.076 2 1 0 0 0 1 0.1 0.05 0 0.25 0.628 4 1 0.5 0 0 1 0.1 0.05 0 0.25 0.604 5 0 1 0 0 1 0.1 0.05 0 0.25 0.060 7 0 0 1 0 1 0.1 0.05 0 0.25 0.152 8 1 0 1 0 1 0.1 0.05 0 0.25 0.856 10 1 0.5 1 0 1 0.1 0.05 0 0.25 0.744 11 0 1 1 0 1 0.1 0.05 0 0.25 0.092 13 0.5 0 1 0.5 1 0.1 0.05 0 0.25 0.480 14 0.5 0.5 1 0 1 0.1 0.05 0 0.25 0.436 : : : : : : : : : : : 59 0.5 1 1 1 1 0.6 0.1 1 0.5 0.732 60 0.5 1 1 1 1 1 0.1 0 0,5 0.496 62 0.5 1 1 1 1 1 0.1 1 0.5 0.740 63 0.5 1 1 1 0 0.1 0.4 0 1 0.576 65 0.5 1 1 1 0 0.1 0.8 0 1 0.664 66 0.5 1 1 1 0 0.1 0.4 1 1 0.792 68 0.5 1 1 1 0 0.1 0.8 1 1 0.852 69 0.5 1 1 1 0 0.1 0.4 0 0.25 0.512 71 0.5 1 1 1 0 0.1 0.4 1 0.25 0.748 72 Źróło: pozycja literatury [1]. Struktura sieci neuronowej przestawiona jest na rysunku 1.

Rys.1. Obraz z monitora komputera w trakcie uczenia sieci neuronowej Element Bias o numerze 1 oznacza sygnał stały równy 1 (x 0 1). Warstwę wejściową (buforową) stanowiły neurony o numerach o 2 o 10. Następna warstwa zbuowana była z ziewięciu neuronów o ziewięciu wejściach i jenym wyjściu (numery neuronów o 11 o 19). Ostatnią wyjściową warstwą był jeen neuron o ziewięciu wejściach i jenym wyjściu. Nieliniowość w neuronach była reprezentowana przez funkcję tangens hiperboliczny. Ilość iteracji zaano 200 tysięcy. Następnie porównano wartości (parametr wyjściowy zakoowany - grubość warstwy poślizgowej - na postawie tablicy 3) z opowiezią sieci po nauczaniu. Wyniki przestawia tablica 4. Tablica 4 Porównanie wyników (zakoowanych) przy uczeniu sieci Nr. Lp. Lp. 1 0.076 0.073 25 0.412 0.410 49 0.456 0.460 2 0.628 0.625 26 0.484 0.481 50 0.504 0.502 4 0.604 0.601 28 0.436 0.436 52 0.740 0.741 5 0.060 0.059 29 0.788 0.792 57 0.488 0.490 7 0.152 0.157 31 0.596 0.597 59 0.732 0.732 8 0.856 0.856 32 0.552 0.553 10 0.744 0.741 34 0.528 0.530 62 0.740 0.739 11 0.092 0.096 35 0.504 0.499 63 0.576 0.575 13 0.480 0.480 37 0.536 0.540 65 0.664 0.663 14 0.436 0.432 38 0.516 0.520 66 0.792 0.791 16 0.500 0.502 40 0.648 0.649 68 0.852 0.853 17 0.464 0.467 41 0.624 0.628 69 0.512 0.510 19 0.756 0.755 43 0.452 0.453 71 0.748 0.748 20 0.716 0.716 44 0.492 0.491 72 0.812 0.809 22 0.604 0.606 23 47 0.704 0.704 Po wykonaniu tych obliczeń przeprowazono testowanie sieci la pozostałych 22 zestawów anych. Następnie porównano wartości z opowiezią sieci po nauczaniu, la 22 pozostałych wariantów anych wejściowych. Wyniki porównania przestawiono w tablicy 5. Wyniki porównania la wszystkich 68 wariantów po okoowaniu tych wartości przestawia tablica 6. Można uznać, że sieć została prawie obrze nauczona. Liczby w tablicy 6 są prawie takie same.

Tablica 5 Porównanie wyników (zakoowanych) przy testowaniu sieci Nr. Lp. Lp. 3 0.068 0.072 27 0.460 0.464 51 0.712 0.711 6 0.584 0.583 30 0.616 0.618 58 0.624 0.626 9 0.116 0.120 33 61 0.632 0.631 12 0.676 0.677 36 0.556 0.554 64 0.620 0.623 15 0.400 0.400 39 0.860 0.862 67 0.820 0.823 18 0.436 0.438 42 0.600 0.597 70 0.608 0.606 21 0.676 0.676 45 0.592 0.590 24 0.440 0.442 48 0.724 0.722 Tablica 6 Porównanie wyników (okoowanych) Nr. Lp. Lp. 1 6.900 6.835 24 16.000 16.061 47 22.600 22.600 2 20.700 20.633 25 15.300 15.260 48 23.100 23.043 3 6.700 6.792 26 17.100 17.030 49 16.400 16.496 4 20.100 20.033 27 16.500 16.602 50 17.600 17.546 5 6.500 6.480 28 15.900 15.891 51 22.800 22.785 6 19.600 19.576 29 24.700 24.802 52 23.500 23.528 7 8.800 8.920 30 20.400 20.450 57 17.200 17.251 8 26.400 26.393 31 19.900 19.920 58 20.600 20.650 9 7.900 8.006 32 18.800 18.837 59 23.300 23.298 10 23.600 23.522 33 19.000 18.966 60 17.400 17.357 11 7.300 7.400 34 18.200 18.260 61 20.800 20.782 12 21.900 21.917 35 17.600 17.482 62 23.500 23.471 13 17.000 17.007 36 18.900 18.839 63 19.400 19.367 14 15.900 15.809 37 18.400 18.497 64 20.500 20.566 15 15.000 15.009 38 17.900 17.993 65 21.600 21.580 16 17.500 17.542 39 26.500 26.560 66 24.800 24.786 17 16.600 16.671 40 21.200 21.220 67 25.500 25.586 18 15.900 15.949 41 20.600 20.711 68 26.300 26.332 19 23.900 23.876 42 20.000 19.914 69 17.800 17.738 20 22.900 22.896 43 16.300 16.317 70 20.200 20.144 21 21.900 21.892 44 17.300 17.266 71 23.700 23.690 22 20.100 20.150 45 19.800 19.750 72 25.300 25.229 23 16.700 16.576 46 20.500 20.514 LITERATURA 1. Dua Z., Kohutek Z., Kuśmierz J., Mikołajek M., Szefer G.: Wyznaczanie grubości

powłoki poślizgowej obuowy wielowarstwowej szybu ze wzglęu na obrót stopy po wybraniu złoża w obrębie filara ochronnego. Zesz. Nauk. Pol. Śl. Górnictwo Nr 202, Gliwice 1993. 2. Rumelhart D.E., Mc Clellan J.L. (es.): Parallel istribute processing. The Mit Press, Cambrige, Massachusetts 1986. 3. Taeusiewicz R.: Sieci neuronowe. Akaemicka Oficyna Wyawnicza, Warszawa 1993.