POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej. mgr inż. Aleksandra Świetlicka

Wielkość: px
Rozpocząć pokaz od strony:

Download "POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej. mgr inż. Aleksandra Świetlicka"

Transkrypt

1 POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej mgr inż. Aleksandra Świetlicka Stochastyczny model biologicznej sieci neuronowej oparty na kinetycznych schematach Markowa Rozprawa doktorska Promotor dr hab. inż. Andrzej Rybarczyk, prof. nadzw. Poznań, 2013

2 Pracę dedykuję mojemu Mężowi Hubertowi Świetlickiemu który dzielnie wytrzymał wszystkie moje jęki i stęki i gdyby nie on w pracy nie istniałaby interpunkcja. Serdecznie dziękuję Profesorowi Andrzejowi Rybarczykowi za każde słowo wsparcia i za okazaną mi cierpliwość, zwłaszcza przy organizacji wszystkich formalności. Dziękuję również Rafałowi Długoszowi, jego drobne uwagi bardzo mi pomogły i zdecydowanie wzbogaciły zawartość pracy.

3 Spis treści Spis symboli i skrótów 1 1 Wstęp Przedmiot pracy Motywacja i cel pracy Teza i układ pracy Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki 11 3 Deterministyczne i stochastyczne modele komórki neuronowej Wprowadzenie Potencjał czynnościowy Podstawowy model Hodgkina-Huxleya Parametry modelu Hodgkina-Huxleya Zakłócenia w modelu Hodgkina-Huxleya Kinetyczny model Hodgkina-Huxleya Kinetyczny schemat Markowa Deterministyczny model kinetyczny Stochastyczny model kinetyczny Porównanie deterministycznego i stochastycznego modelu kinetycznego Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa Stochastyczna wersja modelu o rozszerzonych schematach kinetycznych Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych Podsumowanie Metody uczenia komórki neuronowej Metoda gradientu prostego Nauka w modelu Hodgkina-Huxleya Nauka w stochastycznym modelu kinetycznym neuronu Wyniki eksperymentalne Model biologicznej sieci neuronowej Struktura rozpatrywanej sieci neuronowej i

4 Spis treści 5.2 Dyskretyzacja i sposób rozwiązania układu Wartości parametrów oraz wartości inicjujące Wyniki eksperymentalne - sieć neuronowa zbudowana z jednej gałęzi Macierz systemowa Wyniki symulacji Wyniki eksperymentalne - sieć neuronowa zbudowana z pięciu gałęzi Macierz systemowa Wyniki symulacji Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi Macierz systemowa Wyniki symulacji Deterministyczny model kinetyczny sieci neuronowej Wyprowadzenie stochastycznej wersji modelu sieci neuronowej Dyskretyzacja i sposób rozwiązania układu Rozwiązanie równań wynikających ze schematów kinetycznych Markowa Funkcje α i β oraz ich pochodne względem potencjału Wyniki eksperymentalne - sieć zbudowana z jednej gałęzi Wyniki eksperymentalne - sieć zbudowana z pięciu gałęzi Wyniki eksperymentalne - sieć zbudowana z siedmiu gałęzi Porównanie modelu klasycznego sieci neuronowej z modelami kinetycznymi Metody uczenia biologicznych stochastycznych sieci neuronowych Metoda mnożników Lagrange a Sformułowanie problemu Rozwiązanie postawionego problemu Przykładowe wyniki Przykłady zastosowania modeli biologicznych komórek neuronowych w automatyce i robotyce Przygotowanie biologicznych sieci neuronowych dla implementacji z wykorzystaniem kart graficznych Aproksymacja funkcji prostokątnej Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS Podsumowanie 112 Literatura 115 ii

5 Spis symboli i skrótów Wykaz symboli i oznaczeń występujących w pracy a, b skala czasu i wrażliwość zmiennej odzysku u a i promień przekroju gałęzi sieci neuronowej A macierz systemowa - pokazująca rozkład współczynników a i, wynikająca z budowy sieci neuronowej α m, α n, α h funkcje sigmoidalne zależne od potencjału V, reprezentujące współczynnik przejścia pomiędzy wnętrzem a zewnętrzem komórki nerwowej β m, β n, β h funkcje sigmoidalne zależne od potencjału V, reprezentujące współczynnik przejścia pomiędzy zewnętrzem a wnętrzem komórki nerwowej B n, p) rozkład dwumianowy o parametrach n i p C kondensator powiązany z błoną komórkową dv wartość stała - dv = 20 dw przyrost procesu Wienera D t człon różniczkujący regulatora PID n AB średnia liczba kanałów, która przechodzi ze stanu A do stanu B stochastyczny model kinetyczny komórki nerwowej) t przyrost czasu x długość podziału gałęzi sieci neuronowej na segmenty e t) uchyb regulacji e x, e y, e z osie główne E funkcja minimalizowana w metodzie gradientu prostego η współczynnik długości kolejnych kroków w metodzie gradientu prostego F funkcja będąca sumą funkcji minimalizowanej G i funkcji F 1, F 2,..., F m wymnożonych przez mnożniki Lagrange a λ 1, λ 2,..., λ m w metodzie mnożników Lagrange a LUB pomocniczy zapis głównego równania modelu Hodgkina- Huxleya lub modelu kinetycznego w metodzie gradientu prostego F 1, F 2,..., F m ograniczenia w metodzie mnożników Lagrange a G funkcja minimalizowana w metodzie mnożników Lagrange a LUB pochodna funkcji F względem potencjału g Na stała o wymiarze konduktancji jonowej sodu mierzona na cm 2 1

6 Spis symboli i skrótów g K stała o wymiarze konduktancji jonowej potasu mierzona na cm 2 g L stała o wymiarze konduktancji jonowej chloru mierzona na cm 2 ḡ Na konduktancja jonowa sodu - ḡ Na = g Na m 3 h ḡ K konduktancja jonowa potasu - ḡ K = g K n 4 ǧ Na, ǧ K, ǧ L wartości domyślnych parametrów g Na, g K, g L g Na, g K, g L wagi modelu Hodgkina-Huxleya i stochastycznego modelu kinetycznego I prąd wymuszający - wejście zewnętrzne komórki nerwowej I ext prąd wejściowy komórki nerwowej, powiązany z załączaniem i wyłączaniem kondensatora C I ion prąd powiązany z ruchem poszczególnych typów jonów przez membranę I t człon całkujący regulatora PID k P, k I, k D parametry regulatora PID l długość pojedynczej gałęzi sieci neuronowej L macierz koincydencji - przedstawienie połączeń między gałęziami sieci neuronowej λ 1, λ 2,..., λ m mnożniki Lagrange a m, n, h zmienne bezwymiarowe, przyjmujące wartości z przedziału 0, 1, zmienne te pomagają w opisie prawdopodobieństwa tego, że pojedyncza bramka jest w stanie przepuszczania; kombinacja zmiennych m i h kontroluje kanały sodowe, zmienna n - kanały potasowe µ wartość oczekiwana rozkładu normalnego n A, n B liczba kanałów odpowiednio w stanie A i w stanie B stochastyczny model kinetyczny komórki nerwowej) N µ, σ) rozkład normalny o wartości oczekiwanej µ i odchyleniu standardowym σ ϑ kąt główny ϕ Na konduktancja pojedynczego kanału jonowego sodu będącego w stanie otwartym ϕ K konduktancja pojedynczego kanału jonowego potasu będącego w stanie otwartym p prawdopodobieństwo przejścia jednego kanału ze stanu A do stanu B; p = t r AB p i prawdopodobieństwo tego, że bramka i jest w stanie przepuszczania P x i, t) prawdopodobieństwo znajdowania się kanału jonowego w stanie x i w chwili czasu t P x i x j ) prawdopodobieństwo przejścia kanału jonowego ze stanu x i do stanu x j P t człon proporcjonalny regulatora PID φ, θ, ψ kąty Eulera - Roll, Pitch, Yaw r AB, r BA funkcja przejścia kanałów odpowiednio ze stanu A do stanu B i ze stanu B do stanu A stochastyczny model kinetyczny komórki nerwowej) 2

7 Spis symboli i skrótów R rezystancja cytoplazmy komórki nerwowej aksoplazmy) q kwaternion q 0 skalar kwaternionu iq 1 +jq 2 +kq 3 wektor kwaternionu σ wielkość stała σ = 0.1), pozwala kontrolować wielkość zakłóceń w modelu stochastycznym komórki nerwowej LUB odchylenie standardowe rozkładu normalnego t czas u zmienna odzysku ang. recovery variable) w modelu Izhikevicha u t) sygnał wyjściowy regulatora PID v potencjał na błonie komórkowej wg modelu Izhikevicha V potencjał otrzymywany w wyniku działania komórki nerwowej V Na potencjał równowagi jonów sodu V K potencjał równowagi jonów potasu V L potencjał wycieku ang. leakage current) związany z jonami chloru V αn, V αm, V αh zapis ogólny wag w metodzie gradientu prostego dla modelu Hodgkina-Huxleya powiązanych z funkcjami α n, α m, α h V βn, V βm, V βh zapis ogólny wag w metodzie gradientu prostego dla modelu Hodgkina-Huxleya powiązanych z funkcjami β n, β m, β h ˇV αn, ˇV αm, ˇV αh wartość domyślna parametrów V αn, V αm, V αh wynikająca z postaci funkcji α n, α m, α h ˇV βn, ˇV βm, ˇV βh wartość domyślna parametrów V βn, V βm, V βh wynikająca z postaci funkcji β n, β m, β h Ṽ αn, Ṽα m, Ṽα h wagi w metodzie gradientu prostego dla modelu Hodgkina- Huxleya, powiązane z funkcjami α n, α m, α h Ṽ βn, Ṽβ m, Ṽβ h wagi w metodzie gradientu prostego dla modelu Hodgkina- Huxleya, powiązane z funkcjami β n, β m, β h V potencjał wzorcowy w metodzie gradientu prostego V t) i x) opis potencjału w sieci neuronowej: i - numer rozpatrywanej gałęzi, t) moment czasu, x) punkt gałęzi w 1, w 2,..., w n wagi neuronu/sieci neuronowej x i, x j stany ogólnego schematu kinetycznego Markowa LUB wartość funkcji w metodzie gradientu prostego) Wykaz skrótów ASNN Artificial Spiking Neural Network - sztuczna impulsowa sieć neuronowa AHRS Attitude and Heading Reference System - system sensorów, zapewniający odczyt trzech stopni swobody związanych z ruchem obrotowym względem osi x, y i z DCM Direction Cosine Matrix - macierz kosinusów kierunkowych FPGA Field Programmable Gate Array - programowalny układ logiczny 3

8 Spis symboli i skrótów GPU Graphics Processing Unit - procesor graficzny IMU Inertial Measurement Unit - inercyjny zespół pomiarowy LIF model Leaky Integrate-and-Fire LSM Liquid State Machine - struktura obliczeniowa podobna do sieci neuronowej MEMS Micro Electro-Mechanical Systems - mikrosystemy ODLM Oscillatory Dynamic Link Matcher - algorytm wyznaczający segmentację obrazu, dopasowanie obrazu i monofoniczne oddzielenie źródła dźwięku PCB Printed Circuit Board - obwód drukowany PID regulator proporcjonalno-całkująco-różniczkujący SNN Spiking Neural Network - impulsowa sieć neuronowa SFR Spike Frequency Reduction - adaptacja częstotliwości impulsów SRM Spike Response Model - model stanowiący generalizację modelu LIF 4

9 Rozdział 1 Wstęp 1.1 Przedmiot pracy W ostatnich latach można zaobserwować zwiększenie liczby naukowców, którzy próbują zrozumieć różnorodność działania systemu nerwowego i podejmują próby jego opisu z wykorzystaniem aparatu matematycznego [7]. Nieustannie gromadzone dane nie są wciąż jednak wystarczające do wykonania precyzyjnego modelu matematycznego tego systemu. Stąd potrzeba ciągłego rozwijania tej dziedziny i prowadzenia dalszych badań. Przedmiotem pracy są badania nad tworzeniem nowych modeli matematycznych, które w porównaniu z istniejącymi modelami, będą lepiej opisywać procesy zachodzące w mózgu. Praca ma też wymiar praktyczny, podano przykłady zastosowań w sterowaniu obiektami automatyki i robotyki. Neuron jest podstawową jednostką układu nerwowego, która zbudowana jest zawsze z jednego aksonu i wielu dendrytów. Przystosowana jest do przewodzenia, przetwarzania i generowania impulsów nerwowych. W rzeczywistości przewodzenie może odbywać się w różnych kierunkach, natomiast w rozpatrywanych modelach, zakładać się będzie, że odbywa się ono w jednym kierunku: od dendrytów do jądra oraz z komórki poprzez akson do następnej komórki. Impulsy, które wpływają do komórki poprzez dendryty są sumowane na błonie komórkowej. Następnie z pomocą aksonu, który zakończony jest synapsą, impulsy przekazywane są do kolejnego neuronu lub grupy neuronów. Największe znaczenie przy przesyłaniu sygnałów nerwowych ma błona komórkowa, która równoważy różnicę potencjałów pomiędzy wnętrzem i zewnętrzem komórki. Istnieje wiele modeli opisujących procesy zachodzące na błonie komórkowej, jednak każdy z nich opiera się na innych założeniach. Mianowicie z jednej strony zwiększa się liczba parametrów modelu, aby jak najwierniej odwzorować potencjał na błonie komórkowej. Z drugiej zaś strony poszukuje się również uproszczeń istniejących modeli, głównie w celu uproszczenia implementacji. Poniżej pokrótce przedstawiona zostanie charakterystyka wybranych modeli, podczas gdy w kolejnych rozdziałach pracy znajduje się obszerny opis modeli stanowiących bazę dla nowo tworzonych. Pierwszy model neuronu zaproponowany został w roku 1907 przez Louisa Lapicque - integrate-and-fire [1, 43] i opisany był jedynie prostym równaniem: dv t) I t) = C dt 1.1) 5

10 1.1 Przedmiot pracy przedstawiającym zmianę w czasie potencjału V na błonie komórkowej o konduktancji C względem prądu wejściowego I. Innym, przełomowym modelem, okazał się model Alana Lloyda Hodgkina i Andrew Huxleya podany w 1952 roku. Model ten, stanowiący również bazę dla analizy przeprowadzonej w niniejszej pracy, przyjmuje już więcej założeń związanych ze strukturą błony komórkowej. Podkreśla się tu fakt, że błona komórkowa zbudowana jest z kanałów, na które składają się bramki regulujące procesy przepływu jonów pomiędzy wnętrzem a zewnętrzem komórki. W modelu tym wprowadzone zostało założenie, że właściwości błony komórkowej mogą być zamodelowane poprzez obwód elektryczny bliższy opis w rozdziale trzecim). Stąd pojawiły się składowe prądowe wynikające z rodzajów jonów przepływających przez błonę: C dv dt = I ext I ion 1.2) gdzie I ext jest prądem wymuszającym, natomiast I ion powiązany jest z ruchem poszczególnych jonów przez błonę. Powyżej przedstawione modele mają jedynie reprezentować sposób podejścia do komórki nerwowej. Mianowicie zakłada się tutaj, że komórka nerwowa jest strukturą punktową, to znaczy w każdym punkcie błony komórkowej potencjał jest identyczny. To znacznie ułatwia analizę matematyczną oraz implementację tych modeli. Podejście takie powoduje jednak utratę informacji o pewnych właściwościach komórki nerwowej. Chcąc dążyć do jak najwierniejszego odwzorowania układu nerwowego należy przyjąć to rozumowanie za nieścisłe, gdyż komórka nie jest strukturą punktową. Stąd powstało wiele takich modeli, które zakładają że potencjał w różnych punktach błony komórkowej jest różny. Już Hodgkin i Huxley w artykule z roku 1952 [32] zaproponowali rozszerzenie swojego modelu w taki sposób aby opisywał drzewiastą strukturę neuronu dla łatwiejszego rozróżnienia tych modeli w pracy stosowane będzie określenie neuronu czy też komórki nerwowej w odniesieniu do modeli reprezentujacych strukturę punktową oraz określenie sieci neuronowej dla komórki nerwowej o strukturze drzewiastej ). Również później wyprowadzony został model linii długiej cable theory - rok 1959) [7] oraz jego zdyskretyzowany odpowiednik - model przedziałowy compartmental model - rok 1964) [7]. W modelach opisujących potencjał na błonie komórkowej z reguły stosuje się uproszczenia umożliwiające dużo mniej skomplikowany zapis równań różniczkowych danego modelu. Do tych uproszczeń należy m.in. metoda wyznaczania liczby kanałów będących w stanie przepuszczania przy utrzymaniu stałego napięcia wewnątrz i na zewnątrz komórki nerwowej ang. voltage clamp) [26]. W takim przypadku konieczne jest utrzymanie stałego poziomu napięcia w punkcie pomiaru, a co za tym idzie, założenie, że na całej błonie komórkowej potencjał rozkłada się równomiernie. Wykorzystanie modelu opartego o schematy Markowa umożliwia przywrócenie niektórych utraconych własności komórki nerwowej [9], wynikających np. z podejścia, w którym komórkę nerwową traktuje się jako strukturę punktową. W związku z powyższym oprócz krótkiego przedstawienia modelu Hodgkina - Huxleya, w rozdziale trzecim pokazane zostały również niektóre z rozszerzeń tego modelu. Pokazany tu został przede wszystkim model kinetyczny w dwóch wersjach - deterministycznej oraz stochastycznej. 6

11 1.2 Motywacja i cel pracy Rozważanie modeli biologicznych komórek neuronowych czy całych sieci tych komórek nie miałoby większego sensu bez prezentacji ich praktycznych zastosowań. Dlatego też w pracy skupiono się nie tylko na opisie matematycznym nowych modeli ale także na wybranych zastosowaniach tych modeli. Najważniejszą część stanowi wykorzystanie tego typu modeli w automatyce i robotyce, a w szczególności do sterowania obiektami automatyki. 1.2 Motywacja i cel pracy Pierwszym celem niniejszej pracy było utworzenie rozszerzeń modeli przedstawionych powyżej, aby można było możliwie wiernie odwzorowywać procesy zachodzące w układzie nerwowym. Zaproponowany został rozszerzony model kinetyczny komórki nerwowej o strukturze punktowej oraz model kinetyczny sieci neuronowej o budowie drzewiastej. Poza wprowadzeniem nowych modeli, celem pracy było opracowanie metody uczenia sieci neuronowej w opisywanych modelach - w stochastycznym modelu kinetycznym neuronu oraz w stochastycznym modelu kinetycznym sieci neuronowej. Najistotniejszą rzeczą są jednak proponowane możliwe zastosowania tych modeli, zwłaszcza w zagadnieniach automatyki i robotyki. Dlatego też jeden rozdział pracy poświęcony został wybranym zastosowaniom nauczonej komórki nerwowej, które podkreślają ich zalety i niejednokrotnie przewagę nad konwencjonalnymi sztucznymi sieciami neuronowymi. Zadania postawione w pracy nie tylko mają prowadzić do lepszego zrozumienia czy przedstawienia nieprzewidywalnej natury komórki nerwowej, ale również do późniejszych jej zastosowań praktycznych, w odniesieniu do zastosowań klasycznych sztucznych sieci neuronowych. Biologiczne sieci komórkowe mają duże możliwości asocjacyjne [45], które dają im ogromną przewagę nad konwencjonalnymi sztucznymi sieciami neuronowymi. Dodatkowo przygotowanie modeli pod implementację z wykorzystaniem kart graficznych daje ogromne możliwości obliczeniowe. Przeprowadzenie wielu obliczeń w trybie równoległym pozwala na szybką symulację sieci neuronowych zbudowanych z dużej liczby neuronów, niezbędnej do realizacji dużych, skomplikowanych zadań. Modele biologiczne nie mają zastępować sztucznych sieci neuronowych, które już w pewnym stopniu modelują sieć biologiczną. Można to natomiast interpretować jako próbę dołączenia tych modeli do zasobu opracowanych już do tej pory modeli sztucznych, jako narzędzie, które jest w stanie rozwiązywać zagadnienia obliczeniowe często z lepszym skutkiem). Wśród tych zagadnień można wyróżnić takie problemy jak: przetwarzanie sygnałów, aproksymacja i prognozowanie danych wyjściowych na podstawie danych wejściowych bez konieczności definiowania związku pomiędzy nimi, czy też problemy automatyki i robotyki dotyczące sterowania obiektami. Dodatkowo wprowadzenie procesu nauki do omawianych modeli pozwala na nakierowanie tych sieci na rozwiązywanie problemów, podobnych do problemów rozwiązywanych przez sztuczne sieci neuronowe. Wykorzystano tutaj jedną z bardziej popularnych metod nauki wykorzystywaną również w klasycznych sztucznych sieciach neuronowych, mianowicie metodę gradientu prostego ang. descent 7

12 1.3 Teza i układ pracy gradient). Wprowadzenie metod nauki do biologicznych modeli komórek neuronowych zapowiada ich dalszy rozwój. W pracy skupiono się na modelach stochastycznych z wielu powodów. Przede wszystkim modele te w lepszy sposób odwzorowują nieprzewidywalną naturę komórki nerwowej. Z drugiej strony jest to korzystniejsze z punktu widzenia implementacji zarówno w środowisku obliczeniowym MATLAB jak i z wykorzystaniem kart graficznych. Możliwość zastąpienia dużych układów równań różniczkowych wyznaczaniem wartości z rozkładu normalnego daje dużą przewagę nad modelami deterministycznymi, ze względu na duże uproszczenia obliczeniowe. Podsumowując powyższe założenia, można następująco przedstawić podstawowe cele postawione w tej pracy: Sformułowanie i opis rozszerzonych modeli komórki neuronowej, jako struktury punktowej. Celem tego zadania jest możliwe wierne odwzorowanie procesów zachodzących na błonie komórkowej neuronu. Sformułowanie i opis modeli neuronów opartych na strukturze drzewiastej sieci neuronowych) z wykorzystaniem formalizmu schematów kinetycznych Markowa. Opracowanie metody nauki metoda gradientu prostego) w modelach stochastycznych komórki nerwowej oraz sieci neuronowej. Przedstawienie możliwości wykorzystania modeli w automatyce - wykorzystanie nowych modeli, które przechodząc proces nauki mają rozwiązywać klasyczne problemy automatyki i robotyki, takie jak sterowanie obiektami. Wykorzystanie modeli komórki nerwowej podobnie jak klasycznych sztucznych sieci neuronowych. Duże możliwości asocjacyjne biologicznych sieci neuronowych dają im przewagę nad konwencjonalnymi sztucznymi sieciami neuronowymi. Pokazanie możliwości modelu pojedynczego neuronu na przykładzie aproksymacji funkcji prostokątnej. Wykorzystanie modelu komórki nerwowej jako element końcowy w procesie sterowania quadrocopterem - w systemie zbudowanym z rekurencyjnej sztucznej sieci neuronowej Elmana oraz nauczonej komórki według stochastycznego modelu kinetycznego do obliczania AHRS ang. Attitude Heading Reference System), czyli wyznaczania położenia obiektu w przestrzeni na podstawie odczytów z czujników. 1.3 Teza i układ pracy Zanim przedstawione zostaną główne tezy pracy warto krótko podsumować założenia przyjęte podczas opracowywania modeli później wykorzystywanych w praktyce: Komórka nerwowa, jako podstawowa jednostka układu nerwowego, nie jest jednostką deterministyczną, a ma bardziej złożoną i stochastyczną naturę. Komórka nerwowa nie jest strukturą punktową, a ma budowę drzewiastą. 8

13 1.3 Teza i układ pracy Modele biologicznych komórek nerwowych oraz sieci tych komórek można wykorzystywać podobnie jak konwencjonalne sztuczne sieci neuronowe. W związku z powyższym, poprzez wprowadzenie nauki do tych modeli, możliwe jest ich wykorzystanie w zagadnieniach automatyki i robotyki. W związku z powyższym można następująco sformułować tezy pracy: 1. Możliwe jest efektywne sterowanie w czasie rzeczywistym obiektami automatyki i robotyki z wykorzystaniem sztucznej inteligencji, bazującej na impulsowym modelu neuronu wynikającym z odpowiednio zmodyfikowanego opisu neuronu Hodgkina-Huxleya. 2. Z uwagi na dużą złożoność obliczeniową istniejących modeli biologicznych komórek neuronowych, które nadają się do tego celu, możliwe jest zbudowanie takich modeli, w których wierność procesów odtwarzania będzie większa od dotychczasowych przy jednoczesnym obniżeniu nakładów niezbędnych do obliczeń. 3. Wykorzystanie w zagadnieniach aproksymacji - można skonstruować matematyczny model neuronu biologicznego, który zdolny jest aproksymować wybraną funkcję nieliniową jednej zmiennej z dowolną dokładnością aproksymacji. Pracę można podzielić na trzy główne części wynikające z implementacji pojedynczej komórki, całych sieci neuronowych oraz z wykorzystania nauczonych komórek nerwowych w zagadnieniach obliczeniowych. Pierwsza część obejmuje rozdział trzeci i czwarty, podczas gdy drugą część stanowią rozdziały piąty i szósty. Na trzecią część pracy składa się rozdział siódmy. Dodatkowo w rozdziale drugim przywołane zostały przykłady zastosowań impulsowych sieci neuronowych ang. Spiking Neural Networks) w różnych zagadnieniach automatyki i robotyki. W rozdziale trzecim przedstawiony został opis istniejących modeli pojedynczej komórki nerwowej. Został tu opisany model Hodgkina - Huxleya oraz wykorzystywane w pracy jego rozszerzenia. Do tych rozszerzeń należy model z zakłóceniami wprowadzonymi do niektórych równań modelu oraz model kinetyczny oparty o kinetyczne schematy Markowa w dwóch wersjach - deterministycznej oraz stochastycznej. Ponadto w rozdziale tym pokazany został nowy rozszerzony model kinetyczny komórki nerwowej wraz z wynikami jego symulacji. Głównym tematem rozdziału czwartego jest nauka pojedynczej komórki nerwowej zgodnie z metodą gradientu prostego. W rozdziale tym przedmiotem badań jest zarówno komórka nerwowa według modelu Hodgkina-Huxleya jak i według stochastycznego modelu kinetycznego, który dzięki swojej postaci znacznie upraszcza proces nauki. W drugiej części pracy skupiono się na modelach całych sieci neuronowych. W rozdziale piątym pokazany został model Hodgkina - Huxleya sieci neuronowej o strukturze drzewiastej oraz jego rozszerzenie o schematy kinetyczne Markowa. W drugim rozdziale tej części rozdział szósty) przedstawiony został algorytm nauki biologicznych sieci neuronowych z wykorzystaniem metod gradientu prostego oraz mnożników Lagrange a. 9

14 1.3 Teza i układ pracy Trzecia część, obejmująca rozdział siódmy, skupia się na niektórych zastosowaniach biologicznej komórki nerwowej. Na początku pokazany został sposób przygotowania modelu całej sieci neuronowej pod implementację równoległą z wykorzystaniem kart graficznych, szczególnie istotną ze względu na to, że jest to model, który w swojej pierwotnej postaci jest kosztowny obliczeniowo. Ponadto pokazane zostały wybrane przykłady zastosowania modelu komórki nerwowej. Jednym z elementarnych zastosowań, również w przypadku sztucznych sieci neuronowych, okazała się aproksymacja funkcji, a w szczególności funkcji prostokątnej. Ten z pozoru prosty przykład pokazuje jak duże znaczenie może mieć model biologicznej komórki nerwowej. Podczas gdy w przypadku sztucznych sieci neuronowych niezbędna jest struktura zbudowana z dwóch warstw ukrytych zgodnie z teorią Kołmogorowa [47, 48]), w przypadku modelu neuronu wystarcza jedna komórka aby z dowolną dokładnością przeprowadzić aproksymację funkcji nieliniowej. Drugim, być może istotniejszym z punktu widzenia automatyki i robotyki, zastosowaniem było wykorzystanie biologicznego neuronu jako element dostrajający poprawiający dokładność) sztuczną sieć neuronową Elmana w zagadnieniu wyznaczania kątów Eulera w systemie AHRS sterowania quadrocopterem. Na koniec pracy przedstawione zostało krótkie podsumowanie oraz możliwości dalszej pracy nad modelami i ich zastosowaniami. Wszystkie modele implementowane były w środowisku MATLAB. Symulacje przeprowadzane były na komputerze o parametrach: pamięć RAM 32 GB, procesor 2.80 GHz, karta graficzna NVIDIA Quadro K2000M. 10

15 Rozdział 2 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki W obecnych czasach rozwój impulsowych sieci neuronowych SNN, ang. Spiking Neural Networks) jest bardzo intensywny. Istnieje wiele prac pokazujących aplikacje nawet pojedynczych neuronów. Dobry przykład zaprezentowany został w [12], gdzie pojedyncza żywa komórka szczura została zastosowana do sterowania manipulatorem. Ten pozornie prosty przykład pokazuje jak ogromne możliwości mogą dać modele biologicznych komórek nerwowych, które w przyszłości mogłyby zastąpić żywe komórki. Innym ciekawym przykładem jest praca przedstawiona w [63], gdzie wykorzystano neuronów typu leaky integrate-and-fire LIF) do sterowania robotem grającym w baseball. Model leaky integrate-andfire należy do grupy modeli bardzo uproszczonych, co prowadzi do przypuszczenia, że bardziej rozwinięte modele będą w stanie rozwiązywać bardziej skomplikowane problemy. Do najbardziej popularnych problemów w automatyce i robotyce rozwiązywanych z wykorzystaniem sztucznych sieci neuronowych należą zagadnienia: - rozpoznawania kształtów przez roboty, - analiza obrazu sceny robota, - ekstrakcja cech obrazu - np. wyławianie poruszających się obiektów, - sterowanie inteligentne adaptacyjne), - znajdowanie optymalnej drogi w środowisku o silnie zmiennych warunkach robot porusza się w kierunku celu, który zmienia położenie, lub przeszkody zmieniające swoje położenie). To oczywiście jest bardzo wąski obszar zastosowań sieci neuronowych. Faktycznie nie ma takiego problemu o dużej złożoności i dużej dynamice w automatyce i robotyce gdzie nie próbuje się zastosować układów sztucznej inteligencji, 11

16 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki zwłaszcza sztucznych sieci neuronowych, których pierwowzorem są sieci biologiczne. W literaturze istnieje tak wiele przykładów pokazujących implementacje z wykorzystaniem konwencjonalnych jednokierunkowych i rekurencyjnych sztucznych sieci neuronowych, że nie sposób niestety przywołać nawet większości z nich. W pracy [6] pokazany został ciekawy przykład struktury impulsowej sieci neuronowej, która autonomicznie uczy się sterowania ramieniem robota manipulatorem) o czterech stopniach swobody. Wykorzystano tutaj neurony według modelu Izhikevicha [35], które wykazują biologicznie realistyczne zachowanie przy dużej wydajności obliczeniowej. Wytrenowana sieć neuronowa testowana była na kinematycznym modelu ramienia robota humanoidalnego icub rys. 2.1). Rys. 2.1: Robot humanoidalny icub [6] Sieć neuronów impulsowych została tutaj zorganizowana następująco [6]: - dane wejściowe pogrupowane zostały w 7 warstw warstwy traktowane jako grupy neuronów) po 1200 neuronów, - 4 warstwy wyjściowe po 800 neuronów, - 4 z warstw wejściowych odpowiadają za informację daną przez propriocepcję zmysł kinestetyczny - zmysł orientacji ułożenia części własnego ciała), powiązane z trzema kątami ramienia Roll, Pitch, Yaw ) i z łokciem, - pozostałe 3 warstwy reprezentują kierunek przestrzenny, w którym powinien się poruszyć efektor końcowy urządzenie umieszczone na końcu ramienia robota, które ma oddziaływać z otoczeniem), w następnym kroku czasu, - wyjścia sieci reprezentują komendy silnika dla każdego złącza robota przegubu). W pracy [25] również pokazano wykorzystanie impulsowych sieci neuronowych konkretnie model neuronu według Izhikevicha) w sterowaniu robotem humanoidalnym icub. Wykorzystano tutaj ogólnodostępną bibliotekę C++ ispike, 12

17 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki która łączy symulator impulsowych sieci neuronowych z robotem. Biblioteka ta wykorzystuje biologicznie inspirowane podejście do konwersji informacji z czujników robota w impulsy, które przekazywane są do symulatora sieci neuronowych, który następnie dekoduje wyjściowe impulsy z sieci na komendy silnika, które wysyłane są aby sterować robotem rys. 2.2). Rys. 2.2: Impulsowy interfejs między symulatorem impulsowych sieci neuronowych i robotem [25] Robot humanoidalny icub pokazany na rysunku rzeczywisty i wirtualny) ma 53 stopnie swobody i wyposażony jest w różnorodne czujniki: cyfrową kamerę, żyroskopy, akcelerometry, mikrofony, czujniki momentu obrotowego, czujniki siły. Rys. 2.3: Schemat konwersji danych wizualnych na impulsy [25] Przykładowa schematyczna reprezentacja przekształcenia danych wizualnych na impulsy pokazana została na rysunku 2.4. Dane wejściowe są normalizowane do przedziału 0, 1. Rys. 2.4: Rzeczywisty i wirtualny robot humanoidalny icub [25] Regulator PID, stosowany w układach regulacji, składający się z trzech członów: proporcjonalnego, całkującego i różniczkującego, stanowi prosty ogólnego 13

18 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki przeznaczenia) sposób czułego sterowania dynamicznymi systemami ze zredukowanym przeregulowaniem i oscylacjami. Impulsowe sieci neuronowe w swojej prostocie, oferują wiele zalet dla sterowania układami dynamicznymi, łącznie z umiejętnością adaptacji. W artykule [58] pokazany został impulsowy sterownik neuronowy PID zbudowany z małej sieci neuronów bazujących na modelu Izhikevicha, które wykorzystane zostały do aproksymacji równań różniczkowych i całkowych. W pracy tej wykorzystano 3 neurony według modelu Izhikevicha opisane równaniami [35]: v = 0.04v 2 + 5v u + I u = a bv u) 2.1) gdzie v opisuje potencjał na błonie komórkowej, u jest tak zwaną zmienną odzysku ang. recovery variable), która odpowiedzialna jest za adaptację częstotliwości impulsów SFR, ang. Spike Frequency Reduction). Parametry a i b reprezentują odpowiednio skalę czasu i wrażliwość zmiennej odzysku. Każdy, tak skonstruowany neuron, ma za zadanie nastroić parametry regulatora k P, k I, i k D, który opisany jest równaniami: P t = k P e t) I t = k I e t) dt D t = k D de t) dt gdzie e t) jest uchybem regulacji, zaś sygnał wyjściowy opisany jest jako: 2.2) u t) = P t + I t + D t 2.3) Ogólna struktura regulatora neuronowego PID pokazana została na rysunku 2.5 [58]. Rys. 2.5: Przykładowa struktura regulatora neuronowego PID [58] Inny przykład projektu regulatora PID przedstawiony został w pracy [36]. Wykonano tutaj kontroler silnika prądu stałego z wykorzystaniem impulsów dla reprezentacji przetwarzania informacji. Zaprojektowano układ mechanizmów dla prowadzenia, pomiaru i sterowania silnikiem prądu stałego jedynie za pomocą impulsów. Struktura mechanizmu przedstawiona została na rysunku

19 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki Rys. 2.6: Schemat blokowy i rzeczywisty układ eksperymentalnej platformy [36] Matryca AER-Robot wykorzystana w tym projekcie ma zaimplementowany regulator PID bazujący na impulsach potencjału. Płyta ta ma możliwość uruchomienia aż do 4 silników prądu stałego, zawiera ona matrycę FPGA oraz złącze USB 2.0. AER-Robot oryginalnie został zaprojektowany aby sterować antropomorficznym ramieniem robota w sposób neuro-inspirowany [36]. Jednym z zastosowań impulsowych sieci neuronowych może być również zagadnienie sterowania serwomechanizmem zamkniętym układem sterowania ze sprzężeniem zwrotnym). W pracy [46] wykorzystano model sieci SRM ang. Spike Response Model ), który stanowi generalizację modeli LIF ang. Leaky Integrateand-Fire). Impulsowe sieci neuronowe mają tu za zadanie konwersję zarówno kodowanie jak i dekodowanie) liczb rzeczywistych w impulsy potencjału. Strukturę wykorzystanej sieci można opisać następująco: - neurony połączone są w strukturę sieci jednokierunkowej, - pomiędzy neuronem presynaptycznym i neuronem postsynaptycznym występuje wiele połączeń synaptycznych, - każde połączenie synaptyczne scharakteryzowane jest poprzez wagi, które reprezentują siłę połączenia, dodatkowo każda synapsa ma inne opóźnienie, - wejście i wyjście całej sieci zdefiniowane jest jako czas w którym dany neuron wysłał impuls, Ogólny stan neuronu postsynaptycznego opisany jest jako następująca funkcja [46]: K N X X k xj t) = wij t ti dk 2.4) i=1 k=1 gdzie N oznacza liczbę neuronów presynaptycznych, K - liczbę synaps. Ogólnie równanie to można scharakteryzować jako impuls wytworzony przez presynaptyczny neuron i w chwili ti, następnie k-ta synapsa przekazuje go do neuronu postsynaptycznego w czasie ti + dk, gdzie dk to opóźnienie powiązane z k-tą k synapsą. Parametr wij jest wagą między neuronem presynaptycznym i i postsynaptycznym j dla k-tej synapsy. Funkcja opisuje wpływ potencjału neuronu presynaptycznego na potencjał neuronu postsynaptycznego. 15

20 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki Tak utworzoną strukturę sieci neuronowej wykorzystano do systemu kontroli prędkości serwomechanizmu zmiennego w czasie i o nieliniowych warunkach obciążenia [46]. Eksperymentalny układ składał się z dwóch silników prądu stałego połączonych sprzęgłem mechanicznym. Pierwszy z nich odpowiadał za kontrolę prędkości obrotu, drugi miał pracować jako generator za pomocą którego miały być tworzone warunki nieliniowe. Struktura systemu sterowania opartego na impulsowych sieciach neuronowych pokazana została na rysunku 2.7 [46]. Funkcja g k) reprezentuje sygnał wejściowy, e k) - uchyb, blok D - różnicę w błędzie i e k) zmianę uchybu względem tej różnicy. W strukturze sieci neuronowej wykorzystano 3 neurony, 2 z nich reprezentują sygnały e k) i e k), trzeci z nich to bias powiązany z impulsem zadanym w początkowej chwili czasu. Rys. 2.7: Schemat systemu sterowania w oparciu o impulsowe sieci neuronowe [46] Ciekawym przykładem jest zagadnienie tworzenia map obszaru uwagi ang. visual attention map) pokazane w pracy [62]. System wykorzystuje impulsowe sieci neuronowe inspirowane siatkówką oka [60, 61]. System zbudowany jest z trzech warstw [62] rys. 2.8): - poziom ekstrakcji ang. extraction level) - sieci neuronowe wykorzystywane do detekcji linii [60] czy segmentacji koloru [61], - poziom dekompozycji ang. decomposition level) - tutaj wyróżniane są komponenty niskiego poziomu linie poziome, linie pionowe, narożniki, itp.), - poziom uwagi ang. attention level) - uformowanie mapy. 16

21 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki Rys. 2.8: Schemat tworzenia mapy obszaru uwagi [62] Jednym z szeroko opisywanych zagadnień jest problem planowania drogi robota: 1. Zaprezentowany w [33] model zwierzęcia z systemem neuronowym luźno opartym na hipokampie gryzonia, ma za zadanie psychiczną eksplorację dla znalezienia drogi w świecie przestrzennym, którego wcześniej się nauczył. Rozpoznanie drogi polega na mentalnym podsumowaniu ang. mental exploration) wybranej drogi i jej konwersji w ruch. Wykorzystano tutaj neurony impulsowe z adaptacyjną częstotliwością występowania impulsów. Przestrzeń po której porusza się obiekt zbudowany jest z komórek miejsca hipokampa ang. place cells), które, rozmieszczone losowo, reagują selektywnie na przestrzenną lokalizację. Wykorzystano tu 2016 neuronów z około 4 milionami synaps. Dalsza praca nad mentalną eksploracją przeprowadzona została w pracy [51], gdzie wprowadza się założenie, że mózg niezwłocznie rozwiązuje problem planowania drogi przez równoległe umysłowe przeszukiwanie. 2. Klasyczny problem planowania drogi robota uwzględniający przeszkody) pokazany został w pracy [64]. Do symulacji wykorzystano tutaj sieci typu LSM ang. Liquid State Machine), które mają strukturę jak klasyczne sieci neuronowe, które składają się z dużej liczby jednostek neuronów). Wykorzystano tutaj impulsowe modele neuronu. 3. W pracy [54] wykorzystano samoorganizujące się impulsowe sieci neuronowe w reprezentacji środowiska robota mobilnego i w problemie planowania drogi. Sieć neuronowa rys. 2.9) zbudowana jest z dwóch warstw neuronów typu SRM ang. Spike Response Model), który stanowi generalizację modelu LIF ang. Leaky Integrate-and-Fire). W pierwszej warstwie występują połączenia tylko w jednym kierunku, podczas gdy w drugiej - ze sprzężeniem zwrotnym. W każdym kroku planowania drogi współrzędne robota wykorzystywane są jako wartości wejściowe sieci dla symulacji i procesu adaptacji. 17

22 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki Rys. 2.9: Struktura sieci neuronowej w zagadnieniu planowania drogi robota [54] 4. Sztuczną impulsową sieć neuronową ASNN, ang. Artificial Spiking Neural Network) wykorzystano w sterowaniu mobilnym robotem wirtualnym o okrągłej strukturze i dwóch kołach, aby mógł się poruszać w świecie przestrzennym [15]. Robot ma wbudowany sensor wibracji w punkcie centralnym, czujnik światła z przodu oraz 4 sensory dotykowe, każdy obejmujący zakres 90 o, aby móc skupić się na stymulacji dotykowej, wibracyjnej i świetlnej. Wykorzystana sieć neuronowa zbudowana jest z sześciu transkonduktorów po jednym na każdy czujnik), jednego neuronu oscylacyjnego oraz dwóch neuronów ruchowych motoneuronów) wykorzystanych do ruchu każdym kołem jeden neuron jest pobudzający - dla ruchu do przodu, a drugi - hamujący - dla ruchu do tyłu). Ciekawym aspektem tej pracy jest wykorzystanie metody uczenia zwanej habituacją, która należy do grupy nieasocjacyjnych metod uczenia i polega na stopniowym zanikaniu reakcji na bodziec, który nie niesie ze sobą żadnej informacji. Zaimplementowaną sieć neuronową wykorzystano do symulacji na robocie Lego Mindstorm NXT rys. 2.10). Rys. 2.10: Przykładowe reaizacje robota Lego Mindstorm NXT 1 Sieć neuronów według modelu Hodgkina-Huxleya zaimplementowana została jako model magazynu pamięci i wykorzystana dalej do odzyskiwania sekwencji

23 Wykorzystanie biologicznych sieci neuronowych w rozwiązywaniu problemów automatyki i robotyki zdarzeń w pracy [5]. zdarzeń obrazów): Połączono tutaj dwie metody rozpoznawania sekwencji 1. metoda łańcuchowa ang. chain method) - zdarzenia są połączone w kolejności zadanej przez sekwencję, 2. metoda etykietowania ang. labelling method) - kolejność zdarzeń jest określona przez uporządkowane etykiety ang. tags), które są powiązane ze zdarzeniami. Wykorzystana sieć neuronowa zbudowana jest z dwóch interaktywnych warstw neuronów. Dolna warstwa reprezentuje następujące po sobie zdarzenia w formie aktywnych modułów, które są skomponowane z neuronów pobudzających i hamujących, gdzie występują połączenia każdego neuronu z każdym. Połączenia między dolną i górną warstwą reprezentują etykiety, które powiązane są z różnymi sekwencjami. Metoda łańcuchowa realizowana jest przez warstwę dolną, gdzie reprezentowana jest uporządkowana sekwencja zdarzeń dla przechowania i przywołania. Etykiety są przypisane do neuronów w górnej warstwie aby skojarzyć każdy neuron w tej warstwie z określoną sekwencją zakodowaną w dolnej warstwie. Tak utworzony system jest w stanie rzetelnie zapamiętać i odtworzyć kilka sekwencji uporządkowanych zdarzeń. Dodatkowo radzi sobie z kilkoma sekwencjami, również w sytuacji gdy zdarzenia się nakładają. Inny przykład impulsowej sieci neuronowej, zaimplementowanej w matrycy FPGA ang. Field Programmable Gate Array), do realizacji różnych zadań przetwarzania sygnałów zaprezentowany został w pracy [10]. Zadaniem sieci oscylacyjnych neuronów według modelu leaky integrate-and-fire LIF) było przeprowadzenie dopasowania do wzorca, czyli sprawdzenie czy zadany wzorzec występuje w sekwencji kilku wzorców. Sieć zbudowana jest z 648 neuronów i synaps. Wykorzystano tutaj algorytm ODLM ang. Oscillatory Dynamic Link Matcher), który jest w stanie osiągnąć segmentację obrazu, dopasowania obrazu [50] i monofoniczne oddzielenie źródła dźwięku [49]. Przykładów na zastosowanie impulsowych sieci neuronowych jest w literaturze przedmiotu znacznie więcej. W niniejszym rozdziale zostały zaprezentowane jedynie selektywne implementacje, które wybrane zostały jako najbardziej inspirujące. Impulsowe sieci neuronowe są narzędziem coraz popularniejszym, nie tylko w świecie publikacji naukowych, ale także w przestrzeni rzeczywistych zastosowań praktycznych. 19

24 Rozdział 3 Deterministyczne i stochastyczne modele komórki neuronowej Jako wprowadzenie do teorii dotyczącej wyprowadzonych modeli neuronu w niniejszym rozdziale pokazany zostanie przegląd modeli, które stanowiły zarówno bazę jak i inspirację do pracy nad dalszymi ich rozwinięciami. W rozdziale tym przedstawiono pięć modeli, z których ostatni stanowi pomysł na rozszerzenie tych już istniejących. Spośród modeli znanych opisane zostały: klasyczny model Hodgkina-Huxleya, stanowiący bazę dla wszystkich modeli prezentowanych nie tylko w tym rozdziale ale również w dalszej części pracy, stochastyczne rozszerzenie modelu Hodgkina-Huxleya utworzone poprzez wprowadzanie zaburzeń do równań modelu, deterministyczna wersja modelu kinetycznego bazująca na schematach kinetycznych Markowa, stochastyczna wersja modelu kinetycznego. Jako efekt pracy nad powyższymi modelami powstał pomysł utworzenia modelu kinetycznego z rozszerzonymi schematami kinetycznymi, który przedstawiony został na końcu tego rozdziału. Na początku jednak przedstawiona została teoria dotycząca potencjału czynnościowego na błonie komórkowej. 3.1 Wprowadzenie Model stworzony przez Hodgkina-Huxleya bazuje na założeniu, że elektryczne właściwości błony komórkowej mogą być zamodelowane przez równoważny obwód elektryczny, pokazany na rysunku 3.1 [7, 26, 32, 39]. 20

25 3.2 Potencjał czynnościowy Rys. 3.1: Obwód elektryczny modelujący elektryczne właściwości błony komórkowej [7, 26, 32, 39] Prąd przepływający przez błonę komórkową złożony jest z dwóch głównych składników, a mianowicie prądu jonowego I ion oraz prądu I ext podawanego z zewnątrz - jako zewnętrzne źródło prądowe. Pierwszy z nich, I ion, powiązany jest z ruchem poszczególnych typów jonów przez membranę. Wyróżniamy tutaj trzy rodzaje jonów: jony potasu, jony sodu oraz jony małego przepływu, zazwyczaj są to jony chloru. Drugi z tych prądów, I ext, powiązany jest z załączaniem i wyłączaniem kondensatora C. Stąd główne równanie opisujące obwód elektryczny przedstawiony na rysunku 3.1 ma postać C dv dt + I ion = I ext 3.1) Ponieważ z każdym elementem jonowym związana jest pewna konduktancja g i oraz potencjał V i, dla i {Na, K, L}, stąd można zapisać równanie dla prądu jonowego w postaci: I ion = I i = g i V V i ) 3.2) i i 3.2 Potencjał czynnościowy Na błonie komórkowej neuronu wytwarza się różnica potencjałów między wnętrzem i zewnętrzem komórki - polaryzacja. Różnica ta może być wynikiem nierównomiernego rozkładu jonów. Na zewnątrz komórki znajdują się jony dodatnie, podczas gdy we wnętrzu znajdują się jony ujemne. Depolaryzacja oznacza zredukowanie potencjału na błonie komórkowej. Zmiana potencjału może być efektem napływu jonów sodu lub potasu do wnętrza komórki. Innym zjawiskiem jest hyperpolaryzacja, która ma miejsce za każdym razem gdy potencjał na błonie komórkowej wzrasta. 21

26 3.3 Podstawowy model Hodgkina-Huxleya Rys. 3.2: Przykładowy przebieg potencjału na błonie komórkowej z uwzględnieniem potencjału czynnościowego Na rysunku 3.2 przedstawiony został przykładowy przebieg potencjału na błonie komórkowej ze wskazaniem potencjału czynnościowego, który pojawia się na błonie komórkowej po depolaryzacji. W miarę wzrostu potencjału na błonie komórkowej kanały jonowe sodu są w stanie przepuszczania, stąd jony mogą napływać do wnętrza komórki. Po tym napływie kanały jonowe potasu są w stanie przepuszczania i pozwalają na wypływanie jonów na zewnątrz komórki. Kanały jonowe sodu zamykają się, gdy potencjał osiągnie wartość potencjału czynnościowego. Wówczas przemieszczanie się jonów potasu na zewnątrz komórki jest powodem hyperpolaryzacji stan nadmiernej polaryzacji). Następnie następuje repolaryzacja, która przywraca polaryzację błony komórkowej. Po spadku poniżej potencjału spoczynkowego potencjał na błonie wyrównuje się i znów osiąga wartość spoczynkową. 3.3 Podstawowy model Hodgkina-Huxleya Podstawowy model Hodgkina-Huxleya składa się z czterech równań. Pierwsze z nich opisuje zmianę potencjału V na błonie komórkowej [7, 32, 37]: C dv dt = I ḡ Na V V Na ) ḡ K V V K ) g L V V L ) 3.3) gdzie elementy ḡ Na = g Na m 3 h, ḡ K = g K n 4 oraz g L mają wymiar konduktancji jonowych wyrażają przepuszczalność jonową błony komórkowej [32]), odpowiednio dla sodu i potasu, natomiast g Na oraz g K są wartościami stałymi o wymiarze konduktancji mierzonymi na cm 2. Parametry m, n i h są zmiennymi bezwymiarowymi przyjmującymi wartości pomiędzy 0 a 1. W podstawowym modelu zakładamy, że każdy kanał jonowy zbudowany jest z niewielkiej liczby bramek, które kontrolują przepływ jonów przez ten kanał. Pojedyncza bramka może być w jednym z dwóch stanów, a mianowicie w stanie przepuszczania lub w stanie nieprzepuszczania ang. permissive i non-permissive). 22

27 3.3 Podstawowy model Hodgkina-Huxleya Prawdopodobieństwo, że pojedyncza bramka jest w stanie przepuszczania jest opisane przez dodatkowe zmienne m, n i h. Kombinacja zmiennych m i h kontroluje bramki sodowe, podczas gdy zmienna n - bramki potasowe. Potencjał zależy od konduktancji jonowej dzięki założeniu, że prawdopodobieństwo tego, że pojedyncza bramka jest w stanie przepuszczania lub nieprzepuszczania zależy od potencjału na błonie komórkowej. Rozważmy bramkę typu i i = m, n, h), wówczas p i reprezentować będzie prawdopodobieństwo tego, że bramka i jest w stanie przepuszczania. Zmiany pomiędzy dwoma stanami bramki przedstawia poniższe równanie [7]: dp i dt = α i V ) 1 p i ) β i V ) p i 3.4) Funkcje α i V ) oraz β i V ) są funkcjami sigmoidalnymi, zależnymi od potencjału V. Reprezentują one współczynnik przejścia pomiędzy wnętrzem i zewnętrzem komórki nerwowej [32]. Pierwsza część równania 3.4) α i V ) 1 p i )) opisuje współczynnik przejścia bramki ze stanu nieprzepuszczania do stanu przepuszczania, podczas gdy druga część β i V ) p i ) opisuje współczynnik przejścia bramki ze stanu przepuszczania do stanu nieprzepuszczania. Jeżeli potencjał na błonie komórkowej ustali się na pewnej wartości, wówczas bramki w stanie przepuszczania osiągną stan ustalony przy czasie dążącym do nieskończoności α i V ) p i,t V ) = 3.5) α i V ) + β i V ) gdzie czas osiągnięcia tej wartości wynosi [7]: τ i V ) = 1 α i V ) + β i V ) 3.6) Zestawiając równania 3.3) oraz 3.4) dla konkretnych wartości i = m, n i h, otrzymujemy pełny układ równań opisujący podstawowy model Hodgkina- Huxleya: C dv dt = I g Nam 3 h V V Na ) g K n 4 V V K ) g L V V L ) dn dt = α n V ) 1 n) β n V ) n dm dt = α m V ) 1 m) β m V ) m dh dt = α h V ) 1 h) β h V ) h 3.7) Na rysunku 3.3 zestawione zostały przykładowe przebiegi potencjału na błonie komórkowej wyznaczone według równań różniczkowych układu 3.7) - zamodelowanych w środowisku MATLAB. Przedstawione tu zostały cztery różne przebiegi potencjału dla różnych wymuszeń prądowych I = 0, 30, 40, 80 [na]). Należy przede wszystkim zwrócić uwagę na wzrost skoków napięcia wraz ze wzrostem prądu wymuszającego. Ponadto, również wraz ze wzrostem prądu wmuszającego, częstotliwość występowania impulsów potencjału stabilizuje się i występują one regularnie, co jest charakterystyczne dla deterministycznych modeli komórki nerwowej. 23

28 3.3 Podstawowy model Hodgkina-Huxleya A B C Rys. 3.3: Przebieg potencjału na błonie komórkowej według podstawowego modelu Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 30 [na] C. I = 40 [na] D. I = 80 [na] D Parametry modelu Hodgkina-Huxleya W tabeli 3.1 zestawione zostały wszystkie wartości potencjałów V i [mv ] i konduktacji g i [ms/cm 2 ] jonowych wykorzystywane w modelu podstawowym, a także w omówionym dalej modelu zakłóconym i deterministycznej wersji modelu kinetycznego. Wartości zestawione w tabeli 3.1 przyjęte zostały zgodnie z założeniem, że potencjał spoczynkowy jest równy zero. Dodatkowo przyjmujemy, że C = 1 [µf/cm 2 ] oraz, że potencjał błony komórkowej w chwili t = 0 [ms] wynosi 67 [mv ] [32]. i V i [mv ] g i [ms/cm 2 ] Na K L Tab. 3.1: Parametry modelu Hodgkina-Huxleya W tabeli 3.2 przedstawione zostały postacie funkcji α i V ) oraz β i V ) zależne od potencjału V, dla i = m, n i h. 24

29 3.4 Zakłócenia w modelu Hodgkina-Huxleya i α i V ) β i V ) n m h V ) 10 V ) exp V ) 25 V ) exp exp V ) exp V ) 80 4 exp V ) 18 exp 1 30 V 10 ) + 1 Tab. 3.2: Postacie funkcji przejścia α i V ) i β i V ) [32] 3.4 Zakłócenia w modelu Hodgkina-Huxleya Jednym ze sposobów stworzenia modelu stochastycznego jest wprowadzenie do równań jonowych pewnego zakłócenia postaci σdw [11, 24, 53]: dp i = α i V ) 1 p i ) β i V ) p i ) dt + σdw 3.8) gdzie i = m, n i h. Dodanie tego zakłócenia powoduje stochastyczne zachowanie kanałów jonowych, które aktywowane są poprzez zmiany potencjału, mających miejsce w pobliżu tych kanałów. Parametr σ jest wartością stałą σ = 0.1), która pozwala kontrolować wielkość zakłóceń, natomiast dw oznacza przyrost procesu Wienera, który może być zaimplementowany za pomocą rozkładu normalnego [31]. Równanie 3.3) opisujące dynamikę potencjału na błonie komórkowej pozostaje bez zmian. Zatem, zestawiając ponownie równania różniczkowe modelu otrzymujemy następujący układ równań różniczkowych: C dv dt = I g Nam 3 h V V Na ) g K n 4 V V K ) g L V V L ) dn = α n V ) 1 n) β n V ) n) dt + σdw dm = α m V ) 1 m) β m V ) m) dt + σdw dh = α h V ) 1 h) β h V ) h) dt + σdw 3.9) Na rysunku 3.4 zestawione zostały przykładowe przebiegi potencjału na błonie komórkowej według modelu opisanego układem 3.9), zaimplementowane w środowisku MATLAB. 25

30 3.4 Zakłócenia w modelu Hodgkina-Huxleya A B C Rys. 3.4: Przebieg potencjału na błonie komórkowej według stochastycznego modelu Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 30 [na] C. I = 40 [na] D. I = 80 [na] W odniesieniu do charakterystycznych fragmentów wykresu potencjału czynnościowego przedstawionych na rysunku 3.2 na rysunku 3.5 przedstawiona została interpretacja przebiegów modelu stochastycznego. Pokazane zostały trzy charakterystyczne punkty czasowe: punkt wykresu po depolaryzacji ADP - ang. After- DePolarization) oraz dwa punkty wykresu po hyperpolaryzacji - szybki i wolny sahp/fahp - ang. slow/fast AfterHyperPolarization). D 26

31 3.5 Kinetyczny model Hodgkina-Huxleya Rys. 3.5: Interpretacja przebiegów potencjału w modelu stochastycznym [53] 3.5 Kinetyczny model Hodgkina-Huxleya Kinetyczny schemat Markowa Kolejne rozszerzenie podstawowego modelu Hodgkina-Huxleya oparto o schematy kinetyczne Markowa o ogólnej postaci [17]: nα n n 1)α n n 2)α n x 0 x 1 x 2 β n 2β n n 1)β n... α n nβ n x n 3.10) Według pracy [17] schematy kinetyczne Markowa zapewniają bardziej ogólną strukturę modelowania kanałów jonowych niż model Hodgkina-Huxleya. Bazują one na diagramach stanów, w których prawdopodobieństwa przejść są niezależne od czasu. Maszyna stanów ma podobne znaczenie jak diagramy reakcji w kinetyce chemicznej - stany reprezentują sekwencję proteinowych struktur które podkreślają bramkowość kanałów. Za ich pomocą można opisać prawdopodobieństwo P x i, t) znajdowania się w chwili t w stanie x i oraz prawdopodobieństwo P x i x j ) przejścia ze stanu x i do stanu x j. Wówczas możemy zapisać: dp x i, t) dt = n n P x j, t) P x j x i ) P x i, t) P x i x j ) 3.11) j=1 j=1 Powyższe równanie można zinterpretować następująco: postęp czasu zależy jedynie od aktualnego stanu systemu i jest definiowany w całości dzięki wiedzy o prawdopodobieństwach przejść. Pierwsza suma występująca w powyższym równaniu reprezentuje wszystkie przejścia wchodzące w stan x i wkład source - źródło) podczas gdy druga suma - wszystkie przejścia wychodzące z tego stanu wkład sink - wypływ). 27

32 3.5 Kinetyczny model Hodgkina-Huxleya W przypadku gdy mamy do czynienia z dużą liczbą identycznych kanałów, różnych cząsteczek, można przeinterpretować równanie 3.11). Prawdopodobieństwo znajdowania się w stanie x i będzie odpowiadało liczbie kanałów znajdujących się w tym stanie - co oznaczono po prostu przez [x i ]. Prawdopodobieństwo przejścia będzie natomiast traktowane jako funkcja przejścia oznaczana tutaj przez r ij. Stosując się do oznaczeń pokazanych na schemacie: x i r ij r ji x j 3.12) gdzie funkcje r ij i r ji są odpowiednio funkcjami przejścia ze stanu i do stanu j oraz ze stanu j do stanu i, można zapisać: d [x i ] dt = n n [x j ] r ji [x i ] r ij 3.13) j=1 j= Deterministyczny model kinetyczny W modelu kinetycznym kanały jonowe traktowane są jako elementy dyskretne, co ułatwia ich stochastyczny opis. Najlepszym sposobem aby opisać aktywność komórek nerwowych jest pokazanie interakcji pomiędzy stochastycznymi elementami dyskretnymi. Zanim przedstawiona zostanie wersja stochastyczna modelu, pokazana zostanie prosta translacja podstawowego modelu Hodgkina- Huxleya układ równań 3.7)) do wersji kinetycznej [9, 55]. n 0 4α n β n n 1 3α n 2β n n 2 2α n 3β n n 3 α n 4β n n ) Kanały jonowe potasu mogą znajdować się w jednym z pięciu stanów, co pokazane zostało na schemacie 3.14). [n i ] oznacza liczbę i stanów przepuszczających, zatem n 4 odwzorowujące n 4 w podstawowym modelu) oznacza, że potrzebne są 4 przepuszczające bramki, aby przepływ jonów potasu był możliwy, stąd ḡ K V, t) = [n 4 ] ϕ K 3.15) m 0 h 0 α h β h m 0 h 1 3α m m 1 h 0 β m α h β h 3α m β m m 1 h 1 2α m 2β m m 2 h 0 α h β h 2α m 2β m m 2 h 1 α m 3β m m 3 h 0 α h β h α m 3β m m 3 h ) Analogicznie kanały jonowe sodu mogą znajdować się w jednym z ośmiu stanów schemat 3.16)) i [m 3 h 0 ] oznacza stan otwarty m 3 h - w modelu podstawowym), stąd: ḡ Na V, t) = [m 3 h 0 ] ϕ Na 3.17) Parametry ϕ K oraz ϕ Na, o których można założyć, że są sobie równe, stanowią konduktancję pojedynczego kanału jonowego będącego w stanie otwartym. 28

33 3.5 Kinetyczny model Hodgkina-Huxleya Wykorzystując formalizm schematów kinetycznych Markowa przedstawiony za pomocą równania 3.13) można utworzyć pełen opis modelu kinetycznego za pomocą równań różniczkowych: oraz C dv dt = I ḡ Na V V Na ) ḡ K V V K ) g L V V L ) 3.18) d [n 0 ] = β n [n 1 ] 4α n [n 0 ] dt d [n 1 ] = 4α n [n 0 ] + 2β n [n 2 ] [n 1 ] β n + 3α n ) dt d [n 2 ] = 3α n [n 1 ] + 3β n [n 3 ] [n 2 ] 2α n + 2β n ) dt d [n 3 ] = 2α n [n 2 ] + 4β n [n 4 ] [n 3 ] 3β n + α n ) dt d [n 4 ] = α n [n 3 ] 4β n [n 4 ] dt d [m 0 h 0 ] = β m [m 1 h 0 ] + α h [m 0 h 1 ] [m 0 h 0 ] β h + 3α m ) dt d [m 1 h 0 ] = 3α m [m 0 h 0 ] + α h [m 1 h 1 ] + 2β m [m 2 h 0 ] dt [m 1 h 0 ] β m + 2α m + β h ) d [m 2 h 0 ] dt = 2α m [m 1 h 0 ] + α h [m 2 h 1 ] + 3β m [m 3 h 0 ] [m 2 h 0 ] 2β m + β h + α m ) d [m 3 h 0 ] = α m [m 2 h 0 ] + α h [m 3 h 1 ] [m 3 h 0 ] 3β m + β h ) dt d [m 0 h 1 ] = β h [m 0 h 0 ] + β m [m 1 h 1 ] [m 0 h 1 ] α h + 3α m ) dt d [m 1 h 1 ] = 3α m [m 0 h 1 ] + β h [m 1 h 0 ] + 2β m [m 2 h 1 ] dt [m 1 h 1 ] β m + α h + 2α m ) d [m 2 h 1 ] dt d [m 3 h 1 ] dt = 2α m [m 1 h 1 ] + β h [m 2 h 0 ] + 3β m [m 3 h 1 ] [m 2 h 1 ] 2β m + α h + α m ) = α m [m 2 h 1 ] + β h [m 3 h 0 ] [m 3 h 1 ] 3β m + α h ) 3.19) 29

34 3.5 Kinetyczny model Hodgkina-Huxleya Na rysunku 3.6 zestawione zostały przykładowe przebiegi potencjału na błonie komórkowej dla czterech różnych wartości wymuszenia prądowego. Przewagą tego modelu nad klasycznym modelem Hodgkina-Huxleya jest przede wszystkim dokładniejszy opis matematyczny procesów zachodzących w komórce nerwowej. Jednak obserwując wykresy przebiegów potencjału można zauważyć dokładnie te same zależności co w modelu Hodgkina-Huxleya, mianowicie regularność występowania skoków potencjału oraz wzrost częstotliwości tych skoków wraz ze wzrostem prądu wymuszającego. Należy ten model traktować jako model przejściowy pomiędzy ściśle deterministycznym modelem Hodgkina-Huxleya a stochastyczną wersją modelu kinetycznego, która wyprowadzona zostanie w następnym podrozdziale. A B C Rys. 3.6: Przebieg potencjału na błonie komórkowej według podstawowego modelu kinetycznego Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 30 [na] C. I = 40 [na] D. I = 80 [na] D Stochastyczny model kinetyczny W podrozdziale tym przedstawiono sposób przekształcenia deterministycznego modelu kinetycznego do jego wersji stochastycznej. Tym razem zamiast brać pod uwagę każdy z kanałów jonowych oddzielnie niezależnie), wzięto pod uwagę bardziej rzetelny schemat, w którym rozważana będzie całościowa liczba kanałów. 30

35 3.5 Kinetyczny model Hodgkina-Huxleya Załóżmy, że w chwili t w stanie A znajduje się n A kanałów i podobnie - w stanie B - n B kanałów. r AB jest funkcją przejścia, która określa przejście ze stanu A do stanu B i analogicznie - r BA określa przejście ze stanu B do stanu A. Prawdopodobieństwo przejścia jednego kanału ze stanu A do stanu B w chwili czasu między t a t + t wynosi p = t r AB. Stąd dla każdej chwili czasu można określić średnią liczbę kanałów n AB, które przechodzą ze stanu A do stanu B, poprzez losowe wybranie liczby według rozkładu dwumianowego, gdzie n = n A i k = n AB [9, 55]: ) na P X = n AB ) = p n AB 1 p) n A n AB 3.20) n AB Przy odpowiednich założeniach [21], rozkład dwumianowy B n, p) można aproksymować za pomocą rozkładu normalnego N µ, σ), gdzie µ = n AB p i σ = n AB p 1 p). Na rysunku 3.7 zestawione zostały przykładowe przebiegi potencjału na błonie komórkowej. Stochastyczną naturę neuronu najlepiej odwzorowuje przebieg potencjału dla zerowego prądu wymuszającego, gdzie najłatwiej zaobserwować nieregularność w występowaniu impulsów potencjału. Ponadto można zaobserwować wzrost częstotliwości występowania skoków potencjału wraz ze wzrostem prądu wymuszającego, co jest charakterystyczne dla modeli komórki neuronowej. A B C Rys. 3.7: Przebieg potencjału na błonie komórkowej według stochastycznego modelu kinetycznego Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 30 [na] C. I = 40 [na] D. I = 80 [na] D 31

36 3.6 Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa Porównanie deterministycznego i stochastycznego modelu kinetycznego Dobrym sposobem aby przedstawić różnicę między deterministycznym i stochastycznym modelem kinetycznym jest przedstawienie różnicy pomiędzy wartościami średnimi liczby kanałów zmieniających w kolejnych iteracjach swój stan. Przedstawione tu zostało porównanie tych wartości średnich przy założeniu zerowego wymuszenia prądowego. Na rysunkach 3.8, 3.9 i 3.10 górne przebiegi rysunek pierwszy i trzeci) dotyczą modelu deterministycznego, natomiast dolne rysunek drugi i czwarty) - stochastycznego. Najistotniejsza jest częstotliwość pojawiania się impulsów, różnice między tymi przebiegami pod tym względem są właściwie niezauważalne, zatem różnica pomiędzy modelem stochastycznym a deterministycznym jest niewielka. Deterministyczny model daje wierny opis tego co zachodzi w grupie neuronów [29, 42], np. w kolumnie korowej. Stochastyczna wersja modelu daje odpowiedni opis, ze względu na to, że zdarzenia, które zachodzą w układzie nerwowym nie są na tyle przewidywalne czy regularne, aby zakładać, że potencjał na błonie komórkowej zmienia się regularnie, dając regularne skoki. Dlatego właśnie stochastyczny model daje bardziej rzetelny opis potencjału na membranie. 3.6 Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa Stworzenie poszerzonego kinetycznego modelu komórki nerwowej jest zarówno próbą udoskonalenia modelu podstawowego, jak też przygotowaniem do stworzenia biologicznej sieci neuronowej zakładającej, że każda komórka ma nieco inną budowę. Konstrukcja modelu z rozszerzonymi schematami Markowa wygląda analogicznie do konstrukcji zwykłego modelu kinetycznego. Schematy kinetyczne przedstawiające możliwe stany kanałów jonowych zostały przedstawione jako równania 3.21) oraz 3.22): n 0 kα n β n n 1 k 1)α n 2β n n 2 k 2)α n 3β n... 2α n k 1)β n n k 1 α n kβ n n k 3.21) m 0 h 0 α h β h m 0 h 1 lα m l 1)α m l 2)α m m 1 h 0 m 2 h 0... β m 2β m 3β m α h lα m β m m 1 h 1 β h α h l 1)α m 2β m m 2 h 1 β h l 2)α m 3β m... 2α m l 1)β m m l 1 h 0 α h β h 2α m l 1)β m m l 1 h 1 α m lβ m m l h 0 α m α h β h lβ m m l h ) Tym razem zakłada się, że stan otwarty danego kanału może przypaść w dowolnym stanie schematu. Zatem: ḡ K V, t) = [n i ] ϕ K 3.23) ḡ Na V, t) = [m j h 0 ] ϕ Na 3.24) 32

37 3.6 Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa A B Rys. 3.8: Zmiany wartości średniej liczby kanałów dla schematu o pięciu stanach, dla prądu wymuszającego o wartości I = 0 [na]. Liczba kanałów przemieszczających się: A. ze stanu n 3 do stanu n 4. B. ze stanu n 4 do stanu n 3. 33

38 3.6 Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa A B Rys. 3.9: Zmiany wartości średniej liczby kanałów dla schematu o ośmiu stanach, dla prądu wymuszającego o wartości I = 0 [na]. Liczba kanałów przemieszczających się: A. ze stanu m 2 h 0 do stanu m 3 h 0. B. ze stanu m 3 h 0 do stanu m 2 h 0. 34

39 3.6 Kinetyczny model komórki nerwowej z rozszerzonymi schematami Markowa A B Rys. 3.10: Zmiany wartości średniej liczby kanałów dla schematu o ośmiu stanach, dla prądu wymuszającego o wartości I = 0 [na]. Liczba kanałów przemieszczających się: A. ze stanu m 3 h 1 do stanu m 3 h 0. B. ze stanu m 3 h 0 do stanu m 3 h 1. 35

40 3.7 Stochastyczna wersja modelu o rozszerzonych schematach kinetycznych natomiast główne równanie na dynamikę potencjału na błonie komórkowej przybiera taką samą postać jak w przypadku modelu kinetycznego, tj.: C dv dt = I ḡ Na V V Na ) ḡ K V V K ) g L V V L ) 3.25) Dla celów symulacyjnych zostało przyjęte, że kanały potasowe mogą znajdować się maksymalnie w 32 stanach, wówczas w przypadku równania 3.23) indeks i może przyjmować wartości z zakresu od 0 do 31. Podobnie kanały sodowe mogą znajdować się w 32 stanach, jednak są one rozłożone w dwóch wierszach, jak pokazano na schemacie 3.22), zatem indeks j może przyjmować wartości z zakresu od 0 do 15. Jak łatwo zauważyć, w przypadku kanałów sodowych zostało przyjęte, że stan otwarty znajduje się zawsze w pierwszym wierszu schematu, a zatem przyjmowana jest liczba kanałów równa [m j h 0 ]. Podsumowując, można stworzyć zbiór czwórek postaci {k, l, i, j}. Pierwsze dwie wartości, k oraz l, określają liczbę możliwych stanów schematów kinetycznych, odpowiednio dla kanałów potasowych i sodowych, natomiast indeksy i oraz j - stany przepuszczające dla odpowiednich schematów, przy czym i {0,..., k} oraz j {0,..., l}. 3.7 Stochastyczna wersja modelu o rozszerzonych schematach kinetycznych Przeniesienie tego modelu z wersji deterministycznej do wersji stochastycznej odbywa się analogicznie jak to zostało przedstawione z podrozdziale Średnia liczba kanałów, która w danej chwili czasu zmienia stan, wyznaczana jest poprzez losowe wybranie liczby z rozkładu dwumianowego, który aproksymowany jest rozkładem normalnym. 3.8 Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych Poniżej przedstawione zostały przykładowe wyniki implementacji poszerzonego modelu kinetycznego. Na wykresach 3.11 oraz 3.12 pokazane zostały odpowiednio wyniki dla deterministycznego oraz stochastycznego modelu, przy założeniu różnych rozmiarów schematów kinetycznych. W obu przypadkach przyjęto trzy identyczne czwórki {k, l, i, j} postaci {12, 11, 12, 7}, {24, 9, 18, 6} oraz {31, 15, 26, 9}. Na wykresach 3.13 oraz 3.14 przedstawione zostały przebiegi, również odpowiednio deterministycznej oraz stochastycznej wersji modelu, tym razem dla różnych wymuszeń prądowych. Przyjęta została czwórka postaci {31, 15, 26, 9} oraz cztery różne wymuszenia: 0 [na], 5 [na], 10 [na] oraz 20 [na]. 36

41 3.8 Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych A B C Rys. 3.11: Przebiegi potencjału na błonie komórkowej według deterministycznego poszerzonego modelu kinetycznego, dla I = 0 [na] : A. k = 12, l = 11, stany otwarte: [n 12 ] oraz [m 7 h 0 ] B. k = 24, l = 9, stany otwarte: [n 18 ] oraz [m 6 h 0 ] C. k = 31, l = 15, stany otwarte: [n 26 ] oraz [m 9 h 0 ] 37

42 3.8 Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych A B C Rys. 3.12: Przebiegi potencjału na błonie komórkowej według stochastycznego poszerzonego modelu kinetycznego, dla I = 0 [na] : A. k = 12, l = 11, stany otwarte: [n 12 ] oraz [m 7 h 0 ] B. k = 24, l = 9, stany otwarte: [n 18 ] oraz [m 6 h 0 ] C. k = 31, l = 15, stany otwarte: [n 26 ] oraz [m 9 h 0 ] 38

43 3.8 Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych A B C Rys. 3.13: Przebieg potencjału na błonie komórkowej według deterministycznego poszerzonego modelu kinetycznego Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 5 [na] C. I = 10 [na] D. I = 20 [na] D 39

44 3.8 Przykładowe wyniki implementacji modelu o rozszerzonych schematach kinetycznych A B C Rys. 3.14: Przebieg potencjału na błonie komórkowej według stochastycznego poszerzonego modelu kinetycznego Hodgkina-Huxleya dla czterech różnych wymuszeń prądowych: A. I = 0 [na] B. I = 5 [na] C. I = 10 [na] D. I = 20 [na] D 40

45 3.9 Podsumowanie Obserwując otrzymane wyniki, można zaobserwować te same cechy modelu, charakterystyczne dla wszystkich modeli tej klasy. Skoki potencjału występują regularnie i częstotliwość ich występowania rośnie wraz ze wzrostem prądu wymuszającego. Empirycznie, poprzez przeprowadzenie wyczerpujących zbiór czwórek postaci {k, l, i, j} symulacji wykazano, że model ten z podobną precyzją opisuje procesy zachodzące na błonie komórkowej. Aby podkreślić różnicę pomiędzy wynikami z wersji deterministycznej oraz stochastycznej na wykresie 3.15 pokazana została różnica pomiędzy przebiegami A z wykresów 3.11 i Odchylenie pomiędzy tymi przebiegami policzone zostało jako moduł różnicy pomiędzy wartościami potencjału otrzymanymi w wersji deterministycznej i stochastycznej modelu. Wykres ten pokazuje bardzo istotną różnicę pomiędzy wersjami modelu - mianowicie skoki potencjału w obu modelach są względem siebie przesunięte. Niestety ze względu na wykorzystany generator liczb losowych wbudowany w środowisko MATLAB) przez przeprowadzone symulacje, nie jest możliwe zaobserwowanie nieregularności, które wykazuje model stochastyczny, dlatego też została przedstawiona prezentacja tej różnicy pomiędzy wersjami modelu. Rys. 3.15: Różnica moduł różnicy między potencjałami) między przebiegami pokazanymi na rysunkach 3.11A i 3.12A 3.9 Podsumowanie Jest bardzo trudno stwierdzić który z przedstawionych modeli jest najlepszy i najlepiej odwzorowuje potencjał na błonie komórkowej w najlepszy sposób. Każdy z modeli ma zarówno wady jak i zalety. Największą zaletą prostszych modeli jak model Hodgkina-Huxleya i jego stochastyczne rozszerzenie) jest ich łatwiejsza implementacja w środowiskach obliczeniowych, takich jak MATLAB. Z drugiej jednak strony, modele te nie odzwierciedlają wszystkich aspektów związanych z neuronem i procesami, które w nim zachodzą, co zapewnia model kinetyczny. 41

46 3.9 Podsumowanie Model kinetyczny, poprzez dokładniejszy opis matematyczny, jest bardziej rzetelny, jednak jest bardziej kosztowny obliczeniowo. Problem ten jest jednak rozwiązany poprzez wprowadzenie wersji stochastycznej modelu, która znacznie ogranicza liczbę obliczeń. W kolejnym rozdziale, jako naturalny proces wiążący się z modelami neuronu i sieci neuronowych, pokazano metodę uczenia komórki nerwowej. Wykorzystano tutaj znaną już z literatury [20] metodę gradientu prostego w klasycznym modelu Hodgkina-Huxleya oraz jako nowe podejście wprowadzono tą metodę w stochastycznej wersji modelu kinetycznego. 42

47 Rozdział 4 Metody uczenia komórki neuronowej Tworzenie biologicznych modeli komórki nerwowej lub ich całych sieci ma sens wówczas gdy w zamierzeniu zostaną one wykorzystane do rozwiązywania problemów, podobnych do tych, które rozwiązywane są przez sieci sztuczne. W rozdziale tym przedstawiono sposób wprowadzenia do modelu komórki nerwowej procesu uczenia. Poprzez wykorzystanie metody gradientu prostego można, traktując część parametrów modelu jak wagi, przystosować sieć neuronową do zadanego potencjału wzorcowego. Jest to elementarne podejście, jednak daje nadzieję na dalszy rozwój tych modeli i ich intensywne wykorzystanie w automatyce. W niniejszym rozdziale przedstawiona została pokrótce metoda gradientu prostego oraz jej wykorzystanie w podstawowym modelu Hodgkina-Huxleya [18, 19, 20]. Dodatkowo jako nowe rozszerzenie tego podejścia pokazany został proces uczenia w stochastycznym modelu kinetycznym neuronu. W modelu tym, dzięki zastąpieniu pewnych obliczeń generowaniem liczb pseudolosowych z rozkładu normalnego, liczba wag redukuje się i tym sposobem osiąga się dużo mniej skomplikowany przebieg procesu uczenia. 4.1 Metoda gradientu prostego Metoda gradientu prostego należy do grupy podstawowych metod optymalizacji matematycznej. Stosuje się ją w celu znalezienia minimum zadanej funkcji celu F w tym przypadku funkcji błędu E). Jest to iteracyjna metoda, która bazuje na fakcie, że jeśli wielowartościowa funkcja F jest różniczkowalna w sąsiedztwie punktu x i, wówczas F maleje w kierunku ujemnego gradientu F x i ) [2, 13, 44]. Wówczas możemy zapisać x i+1 = x i η F x i ) 4.1) gdzie η jest małą wartością stałą η 0) i F x i+1 ) F x i ). Parametr η jest tak zwanym współczynnikiem długości kolejnych kroków. Uaktualnienie pokazane wzorem 4.1) powtarza się tak długo, aż zostanie spełnione kryterium końca. Najczęściej jako warunek wyjścia przyjmuje się test stacjonarności, czyli F x i ) < ɛ [2, 13, 44]. 43

48 4.2 Nauka w modelu Hodgkina-Huxleya Na rysunku 4.1 pokazany został algorytm metody gradientu prostego, gdzie uwzględnione zostały konkretne etapy nauki sieci neuronowej. Uaktualnianymi wartościami są wagi sieci neuronowej w 1, w 2,..., w n, minimalizowaną funkcją celu jest funkcja błędu E opisana w dalszej części rozdziału), natomiast kryterium błędu określa moduł różnicy między zadaną wartością celu V a wartością wyjściową sieci V. 4.2 Nauka w modelu Hodgkina-Huxleya Modele biologicznych komórek nerwowych wymagają różnych parametrów, które opisują pewne właściwości błony komórkowej. Te parametry można dobrać w dowolny sposób tak, aby przebieg potencjału na błonie komórkowej odpowiadał przyjętym założeniom. Zadaniem pojedynczej komórki nerwowej jest minimalizacja następującej funkcji błędu [18, 19, 20]: E = 1 T T V t) V t)) 2 dt 4.2) gdzie V jest wynikiem działania komórki nerwowej, V jest wektorem celu, natomiast T jest przedziałem czasu, w którym rozpatrujemy działanie komórki. Część parametrów modelu Hodgkina-Huxleya działać będzie jak wagi w klasycznych sztucznych sieciach neuronowych. Trzy podstawowe parametry to g Na, g K oraz g L, które przedstawione zostały w następujący sposób [18, 19, 20]: g Na = ǧ Na e g Na g K = ǧ K e g K g L = ǧ L e g L 4.3) gdzie wartości ǧ Na, ǧ K oraz ǧ L odpowiadają konduktancjom jonowym odpowiednio sodu, potasu i chloru i oznaczają tutaj domyślne wartości tych parametrów tabela 3.1), natomiast wartości g Na, g K oraz g L będą traktowane jako wagi modelu. Dodatkowe wagi wprowadzone zostały do równań eliptycznych α V ) oraz β V ). Nowe postaci tych funkcji zestawione zostały w tabeli 4.1, gdzie parametry V αn, V αm, V αh oraz V βn, V βm, V βh stanowią wagi. Również te parametry przedstawione zostały w zmienionej formie [18, 19, 20]: V αn = ˇV αn + dv Ṽα n V βn = ˇV βn + dv Ṽβ n V αm = ˇV αm + dv Ṽα m V βm = ˇV βm + dv Ṽβ m 4.4) V αh = ˇV αh + dv Ṽα h V βh = ˇV βh + dv Ṽβ h gdzie również ˇV αi i ˇVβi oznacza wartość domyślną parametru, Ṽ αi i Ṽ βi będzie wagą modelu, natomiast dv jest wartością stałą dv = 20). Domyślne wartości parametrów ˇV αi i ˇV βi zestawione zostały w tabeli 4.2. Wynikają one bezpośrednio z wyjściowych postaci funkcji α i β. 44

49 4.2 Nauka w modelu Hodgkina-Huxleya START zdefiniuj problem minimalizacja funkcji błędu E wyznacz wartości początkowe wag w 1, w 2,..., w n wyznacz wartość [ gradientu funkcji błędu E E =, E,..., E ] w 1 w 2 w n aktualizuj wartości wag w i w i η E w i ) nie czy spełniony jest warunek wyjścia? np.: e = V V < ɛ tak STOP Rys. 4.1: Schemat algorytmu metody gradientu prostego 45

50 4.2 Nauka w modelu Hodgkina-Huxleya i α i V, V αi ) β i V, V βi ) n m h 0.01 V αn V ) Vαn ) V exp V αm V ) Vαm ) V exp 1 10 Vαh V 0.07 exp 20 ) ) Vβn V exp 80 ) Vβm V 4 exp 18 exp 1 Vβh V 10 ) + 1 Tab. 4.1: Postacie funkcji α i V, V αi ) i β i V, V βi ) i ˇVαi ˇVβi n 10 0 m 25 0 h 0 30 Tab. 4.2: Wartości domyślne parametrów V αi oraz V βi Główne równanie modelu nie ulega zmianie i przyjmuje postać jak w podstawowym modelu Hodgkina-Huxleya: C dv dt = I g Nam 3 h V V Na ) g K n 4 V V K ) g L V V L ) 4.5) W procesie nauki przyjmuje się natomiast, że równania opisujące przepływ jonów przez błonę komórkową uwzględniają potencjał wzorcowy zamiast potencjału wyznaczonego w procesie nauki [18, 19, 20], czyli: dn dt = α n V ) 1 n) β n V ) n dm dt = α m V ) 1 m) β m V ) m dh dt = α h V ) 1 h) β h V ) h 4.6) Postępując zgodnie z algorytmem pokazanym na schemacie 4.1, po zdefiniowaniu problemu minimalizacja funkcji błędu 4.2)) w pierwszym kroku należy ustalić wartości początkowe wszystkich wag. Zostało przyjęte, że każda z tych wartości losowana jest z przedziału 0.5, Kolejnym etapem jest wyznaczenie gradientu funkcji błędu względem wszystkich wag modelu. Zakładając, że w i odpowiada poszczególnym wagom modelu, można napisać [18, 19, 20]: E w i = 1 T T 0 V t) V t)) V t) w i dt 4.7) 46

51 4.2 Nauka w modelu Hodgkina-Huxleya W przypadku podstawowego modelu Hodgkina-Huxleya mamy do czynienia z systemem postaci [18, 19, 20]: Ẋ = F X,..., w i,...) 4.8) Parametr X odpowiada tutaj wartości potencjału V, stąd możemy zapisać, że: F = 1 C I gna m 3 h V V Na ) g K n 4 V V K ) g L V V L ) ) 4.9) Chcemy znać wpływ poszczególnych parametrów w i na równanie 4.8). Wpływ pojedynczej wagi w i na układ dynamiczny można zapisać jako równanie różniczkowe: Ẏ = F X Y + F 4.10) w i gdzie: Y = X 4.11) w i Aktualizacja wag może odbywać się dwojako, mianowicie albo po symulacji całego modelu, albo w trybie online, to znaczy w każdym kroku czasu [18, 19, 20]: T a wi = w i + 1 T V t) V V t) w i t)) 4.12) w i w i gdzie: w i = η w i 4.13) natomiast T a jest wartością stałą i T a = 5T [18, 19, 20]. Powyższy schemat, po zastosowaniu jawnej metody Eulera do rozwiązania numerycznego równania różniczkowego, możemy przepisać w następującej postaci: w i w i t w i + t V V ) Y i w i T a T T a 4.14) w i w i η t w i V t) Wartości pochodnych cząstkowych postaci są rozwiązaniami równań w i różniczkowych postaci 4.10). Stąd utworzony został układ równań różniczkowych postaci: Ẏ 1 = G Y 1 + m 3 h V V Na ) Ẏ 2 = G Y 2 + n 4 V V K ) Ẏ 3 = G Y 3 + V V L Ẏ 4 = G Y C g K4n 3 V V K ) n V αn Ẏ 5 = G Y C g Na3m 2 h V V Na ) m V αm Ẏ 6 = G Y C g Nam 3 V V Na ) h 4.15) V αh Ẏ 7 = G Y C g K4n 3 V V K ) n V βn Ẏ 8 = G Y C g Na3m 2 h V V Na ) m Ẏ 9 = G Y C g Nam 3 V V Na ) V βm h V βm 47

52 4.2 Nauka w modelu Hodgkina-Huxleya gdzie: G = F V = 1 ) gna m 3 h + g K n 4 + g L 4.16) C jest pochodną funkcji F względem potencjału V. Funkcje Y 1, Y 2,..., Y 9 stanowią odpowiednie wartości pochodnych V i wykorzystywane są bezpośrednio do w i obliczenia nowych wartości wag modelu, przy czym: w 1 = g Na w 4 = V αn w 7 = V βn w 2 = g K w 5 = V αm w 8 = V βm 4.17) w 3 = g L w 6 = V αh w 9 = V βh W układzie 4.15) pojawiają się pochodne funkcji n, m i h po odpowiednich wagach V αi lub V βi. Wartości tych pochodnych można wyznaczyć analogicznie jak w przypadku tworzenia samego układu 4.15). Przykładowo wyznaczymy pochodną n. Równanie różniczkowe opisujące zmianę funkcji n w czasie przepiszemy w następujący V αn sposób: ṅ = F n n, V, V αn, V βn ) = α n V ) 1 n) β n V ) n 4.18) Wówczas wprowadzając pomocniczą zmienną Y n = gdzie F n V αn n V αn możemy zapisać: Ẏ n = F n n Y n + F n V αn 4.19) = α n n n 1 n) α n β n 4.20) V αn V αn V αn Niezbędne jest zatem wyznaczenie pochodnych funkcji α i V, V αi ) oraz β i V, V βi ) względem wartości V αi oraz V βi. Postaci tych pochodnych przedstawione zostały w tabelach 4.3 i 4.4. i n m h Vαn ) V 0.01 exp 10 Vαm ) V 0.1 exp 10 α i V, V alphai ) V αi ) 1 exp ) 1 exp Vαn V V αn V ) exp 10 ) Vαn V 10 1 ) V αm V ) exp ) ) 2 1 Vαm V 10 Vαh V exp 20 Vαm V Tab. 4.3: Postacie pochodnych funkcji przejścia α i V ) V αi ) 10 ) ) 48

53 4.3 Nauka w stochastycznym modelu kinetycznym neuronu i β i V, V βi ) V βi n m h ) Vβn V exp 80 ) 4 18 exp Vβm V 18 Vβh ) V 0.1 exp 10 Vβh ) V exp + 1 Tab. 4.4: Postacie pochodnych funkcji przejścia β i V ) V βi 10 ) Nauka w stochastycznym modelu kinetycznym neuronu Proces nauki można wprowadzić właściwie do każdego modelu z prezentowanych w trzecim rozdziale pracy. Tutaj jednak przedstawiony zostanie schemat postępowania jedynie w przypadku stochastycznego modelu kinetycznego komórki nerwowej. Jest to oryginalne podejście nieprezentowane dotychczas w literaturze. Podobnie jak w przypadku podstawowego modelu Hodgkina-Huxleya cały proces nauki komórki rozpoczyna się od postawienia problemu minimalizacji funkcji błędu E postaci 4.2). Ponieważ proces przepływu jonów przez błonę komórkową jest zdefiniowany inaczej niż w modelu Hodgkina-Huxleya i opiera się na generowaniu w każdym kroku serii liczb losowych, stąd wagi w postaci V α oraz V β właściwie nie są potrzebne do procesu nauki. W związku z tym wystarczą jedynie trzy wagi aby ujednolicić oznaczenia, zamiast wartości ϕ Na oraz ϕ K zastosowane zostały oznaczenia g Na oraz g K ): w 1 = g Na = ǧ Na e g Na w 2 = g K = ǧ K e g K w 3 = g L = ǧ L e g L 4.21) Przeprowadzając podobne rozumowanie jak w przypadku podstawowego modelu Hodgkina-Huxleya równania 4.8) i 4.10)), funkcję F można zapisać następująco: F = 1 C I g Na [m 3 h 0 ] V V Na ) g K [n 4 ] V V K ) g L V V L )) 4.22) Następnie należy utworzyć analogiczny układ równań różniczkowych, jak ten postaci 4.15): Ẏ 1 = G Y 1 + [m 3 h 0 ] V V Na ) Ẏ 2 = G Y 2 + [n 4 ] V V K ) 4.23) Ẏ 3 = G Y 3 + V V L 49

54 4.4 Wyniki eksperymentalne gdzie: G = F V = 1 C g Na [m 3 h 0 ] + g K [n 4 ] + g L ) 4.24) W związku z tym, że liczba kanałów zmieniających stan w danym kroku nie zależy od wag modelu, stąd wartość ta jest wyznaczana za każdym razem jednorazowo przed rozpoczęciem nauki komórki. Aktualizacja wag odbywa się dokładnie tak samo jak w przypadku modelu Hodgkina-Huxleya, czyli według schematu 4.14). Stochastyczny model kinetyczny ma przewagę nad modelem Hodgkina-Huxleya ze względu na jego uproszczoną formę. Zmniejszenie liczby wag z dziewięciu do trzech przyczynia się do redukcji złożoności obliczeń. Nie ma potrzeby obliczania wielu pochodnych, związanych z ruchami jonów między wnętrzem i zewnętrzem komórki. Dlatego też zdecydowano się na transfer procesu uczenia z modelu Hodgkina-Huxleya na stochastyczny model kinetyczny, który później wykorzystywany jest również w zastosowaniach praktycznych. 4.4 Wyniki eksperymentalne Na rysunku 4.2 przedstawione zostały przykładowe wyniki działania nauczonej komórki nerwowej. W pierwszym przykładzie jako sygnał uczący V wykorzystany został potencjał wygenerowany przez komórkę według podstawowego modelu Hodgkina-Huxleya przy założeniu prądu wymuszającego I = 40 [na]. Na rysunku 4.2 zestawione zostało pięć wykresów: pierwszy z nich pokazuje sygnał wzorcowy V, kolejne dwa otrzymane zostały w wyniku działania nauczonych komórek: drugi wykres z komórki według modelu Hodgkina-Huxleya, trzeci - z modelu stochastycznego. Na kolejnych dwóch wykresach pokazany został błąd otrzymany w wyniku porównania potencjału wzorcowego z wynikiem działania obu rodzajów komórek. Łatwo zauważyć, że największe oscylacje pojawiają się na samym początku oraz przy okazji występowania skoków potencjału. W tym przypadku niezbędne jest poprawne dopasowanie współczynnika uczenia. Jak widać sygnały otrzymane w wyniku procesu uczenia komórki nieznacznie odbiegają od sygnału zadanego. Widać jedynie, że na początku proces ten nie do końca się powiódł, w wyniku czego powstały niewielkie odchylenia od sygnału zadanego. Wykresy pokazane na rysunku 4.2 potwierdzają, że nauka modelu stochastycznego daje wyniki zbliżone do wyników otrzymanych z modelu Hodgkina-Huxleya. Tym bardziej stosowanie modelu stochastycznego jest bardziej adekwatne ze względu na jego uproszczoną formę i dużo łatwiejszą implementację. Proces uczenia przebiegał adaptacyjnie, to znaczy w każdym kroku iteracyjnie komórka nerwowa miała douczyć się do zadanego potencjału wzorcowego. Przeprowadzono symulacje dla różnych liczb iteracji, przykładowe czasy symulacji czas trenowania) dla obu modeli przedstawione zostały w tabeli 4.5. Jak łatwo zauważyć model kinetyczny ma znaczną przewagę nad modelem Hodgkina- Huxleya ze względu na czas nauki. Wyniki potwierdzają, że model kinetyczny nie odbiega znacznie od modelu Hodgkina-Huxleya, co wraz z tak małym czasem nauki sprawia, że model stochastyczny ma dużą przewagę nad modelem wyjściowym. 50

55 4.4 Wyniki eksperymentalne model model Hodgkina-Huxleya kinetyczny stochastyczny bez nauki iteracji iteracji iteracji iteracji iteracji Tab. 4.5: Porównanie czasów trenowania komórki neuronowej według modelu Hodgkina-Huxleya i stochastycznego modelu kinetycznego - wyniki podane w sekundach Na rysunku 4.3 przedstawione zostały wyniki działania neuronu według modelu kinetycznego dla różnej liczby iteracji, począwszy od sytuacji gdy nauka jeszcze nie została przeprowadzona. Można zaobserwować tutaj wpływ liczby iteracji na przebieg nauki. Widać, że w przypadku braku nauki przebieg potencjału znacznie odbiega od zadanego potencjału wzorcowego, jednak wraz ze wzrostem liczby iteracji przebiegi te zaczynają formować pożądany zarys. Zwiększanie iteracji powyżej 200 nie dawało właściwie lepszego efektu, a jedynie znacznie wydłużało czas nauki. Na rysunku 4.4 pokazane zostało działanie jedynie komórki stochastycznej. Tym razem za wzór posłużył potencjał otrzymany z modelu sieci neuronowej, który prezentowany jest w dalszej części pracy. Zostały tu zestawione cztery przebiegi, z czego pierwszy jest sygnałem wzorcowym V. Kolejne trzy prezentują działanie nauczonej komórki stochastycznej, gdzie przyjęte były różne wartości parametru ɛ warunek wyjścia: V V < ɛ). Ponieważ wartość zadanego potencjału oscyluje wokół wartości rzędu 10 4, stąd wartość parametru ɛ musi być odpowiednio mała, aby komórka dała radę dostosować się do sygnału zadanego. Stąd rozpatrywane były trzy wartości: 10 4, 10 6 oraz Z rysunku 4.4 wynika, że wraz ze zmniejszeniem wartości parametru ɛ rośnie dokładność działania komórki, natomiast przy zbyt dużej wartości wynikiem są oscylacje wokół faktycznie oczekiwanej wartości. Dodatkowo na rysunku 4.5 pokazane zostały błędy otrzymane w wyniku porównania zadanego potencjału wzorcowego z działaniem stochastycznego modelu kinetycznego neuronu. Ponieważ sama wartość potencjału oscyluje wokół wartości 10 5, stąd łatwo zauważyć, że również błąd przyjmuje wartości z zakresu Przedstawiona w tym rozdziale praca, a w szczególności sposób wprowadzenia procesu uczenia do stochastycznego modelu kinetycznego neuronu oraz jego zastosowanie pokazane w rozdziale siódmym), zostało zestawione w artykule pod tytułem: Gradient method of learning for stochastic kinetic model of neuron, autorów: Aleksandra Świetlicka, Karol Gugała, Igor Karoń, Krzysztof Kolanowski, Mateusz Majchrzycki i Andrzej Rybarczyk. Treść tego artykułu prezentowana była na międzynarodowej konferencji ISTET International Symposium on Theoretical Electrical Engineering) w roku Obecnie autorzy czekają na decyzję odnośnie dalszej publikacji pokonferencyjnej, która ma ukazać się w czasopiśmie Compel lub książce wydanej w wydawnictwie Springer. 51

56 4.4 Wyniki eksperymentalne Rys. 4.2: Wynik działania nauczonych komórek nerwowych: pierwszy wykres - potencjał wzorcowy, drugi wykres - działanie komórki nerwowej Hodgkina-Huxleya, trzeci wykres - działanie komórki nerwowej według stochastycznego modelu kinetycznego, czwarty wykres - błąd między przebiegiem wzorcowym i wynikiem działania komórki nerwowej według modelu Hodgkina-Huxleya, wykres piąty - błąd między przebiegiem wzorcowym i wynikiem działania komórki nerwowej według stochastycznego modelu kinetycznego 52

57 4.4 Wyniki eksperymentalne Rys. 4.3: Wynik działania komórki nerwowej dla różnych liczb iteracji. Pierwszy wykres - potencjał wzorcowy, kolejne - bez procesu uczenia, 10 iteracji, 50 iteracji, 100 iteracji i 200 iteracji 53

58 4.4 Wyniki eksperymentalne Rys. 4.4: Wynik działania komórki nerwowej według stochastycznego modelu kinetycznego. Pierwszy wykres przedstawia potencjał wzorcowy, kolejne trzy działanie nauczonej komórki nerwowej, dla różnych wartości parametru ɛ : 10 4, 10 6,

59 4.4 Wyniki eksperymentalne Rys. 4.5: Wynik działania komórki nerwowej według stochastycznego modelu kinetycznego. Pierwszy wykres przedstawia potencjał wzorcowy, kolejne trzy działanie nauczonej komórki nerwowej, dla różnych wartości parametru ɛ : 10 4, 10 6,

60 Rozdział 5 Model biologicznej sieci neuronowej Podstawowy model Hodgina-Huxleya, opisany w podrozdziale 3.3, stanowi bazę dla nowo zaproponowanego modelu o rozszerzonych schematach kinetycznych. Również w przypadku opisanego w poniższym rozdziale modelu, model Hodgkina-Huxleya odgrywa kluczową rolę. Zostaną tu pokazane dwa modele sieci neuronowych. Pierwszy z nich został zaproponowany już przez Alana Lloyda Hodgkina i Aldousa Huxleya w pracy [32] z roku Drugi model jest nową propozycją jego rozszerzenia w oparciu o schematy kinetyczne Markowa. Rozpatrywać będziemy deterministyczny model potencjału na błonie komórkowej neuronu o budowie dendrytowej - drzewiastej. Główne równanie tego modelu przyjmuje postać zaproponowaną już przez Hodgkina i Huxleya w [32]: a 2 V 2R x 2 = C V t + ḡ Na V V Na ) + ḡ K V V K ) + g L V V L ) 5.1) gdzie, podobnie jak w podstawowym modelu Hodgkina-Huxleya: oraz ḡ Na = g Na m 3 h 5.2) ḡ K = g K n 4 5.3) Jak widać, w głównym równaniu dynamiki potencjału uwzględniona została pochodna potencjału po przestrzeni, co ma odzwierciedlać zmiany potencjału na całej błonie komórkowej. Pozostałe równania modelu pozostają bez zmian: n t = α n 1 n) β n n m t = α m 1 m) β m m h t = α h 1 h) β h h 5.4) Parametr a wyznacza promień przekroju każdej z gałęzi sieci. Kolejnym parametrem opisującym strukturę sieci jest wektor l, który wyznacza długości każdej z gałęzi sieci. Każda gałąź sieci jest rurką o przekroju kołowym i tworzącej l. Ponadto parametr R oznacza rezystancję aksoplazmy, czyli cytoplazmy komórki nerwowej. 56

61 5.1 Struktura rozpatrywanej sieci neuronowej 5.1 Struktura rozpatrywanej sieci neuronowej Na rysunku 5.1 przedstawiona została przykładowa struktura sieci neuronowej wraz z jej podziałem na przedziały - z dowolnie przyjętym krokiem x. Możemy wyróżnić tutaj trzy gałęzie, gdzie gałąź oznaczona czarną cyfrą 1 oznacza gałąź główną. W tym przypadku gałąź 1 można traktować jako rodzica ang. parent), natomiast gałęzie 2 i 3 jako jej dzieci ang. child). A B C Rysunek 5.1: Struktura przykładowej sieci neuronowej A) oraz jej podział na przedziały - oznaczenie punktów B) oraz podział na przedziały - oznaczenie długości przedziału C) Dodatkowo czerwonymi cyframi od 1 do 7 zostały ponumerowane punkty w których rozpatrywany jest potencjał - w przypadku tak utworzonej sieci neuronowej. Istotne są tutaj różne rodzaje punktów: punkt 1 rysunek 5.1B) jest to punkt początkowy sieci, w którym aplikowany jest zewnętrzny prąd wymuszający - odległość od początku sieci jest zerowa, stąd 0 na rysunku 5.1C, punkt 3 jest punktem rozgałęzienia ang. branch point) - w tym przypadku odległość od punktu początkowego wynosi 2 x, ale jest to również początkowy punkt gałęzi drugiej i trzeciej, stąd 2 x 0, punkty 5 i 7 - to punkty kończące sieć, są to końcowe punkty gałęzi drugiej i trzeciej, w których odległość od punktu rozgałęzienia wynosi 2 x rysunek 5.1C), 57

62 5.2 Dyskretyzacja i sposób rozwiązania układu pozostałe punkty 2, 4 oraz 6, które leżą pośrodku danego odcinka sieci - ich odległości od początku każdej z gałęzi wynosi x. Wprowadzone zostanie następujące oznaczenie: V t) i x) 5.5) gdzie i oznacza numer rozpatrywanej gałęzi, t) - moment czasu, natomiast x) - punkt danej gałęzi. Przykładowo, zapis V t+ t) 1 0) dotyczy pierwszego punktu sieci w chwili t + t. Dla punktu rozgałęzienia można zapis ten przedstawić dwojako: V t) 1 2 x) - jako potencjał w ostatnim punkcie pierwszej gałęzi lub V t+ t+ t) 2 0) - jako potencjał w pierwszym punkcie gałęzi drugiej lub trzeciej - V t+ t) 3 0). Parametr x pokazuje zatem jaka jest odległość od początkowego punktu gałęzi. Analogiczne oznaczenie zostało wprowadzone zostało dla zmiennych n, m i h : n t) i x) m t) i x) h t) i x) 5.6) 5.2 Dyskretyzacja i sposób rozwiązania układu Poniżej przedstawione zostały warunki brzegowe niezbędne do przeprowadzenia dyskretyzacji równania 5.1). Pierwszy z tych warunków dotyczy początkowego punktu sieci, natomiast drugi warunek - wszystkich punktów końcowych sieci. V t) 1 0) x V t) i l i ) x = R i πa 2 0 t) 5.7) 1 = 0 5.8) Dyskretyzacja równania wyjściowego modelu wykonywana jest przy założeniu przybliżeń [38]: 2 V t) x) x 2 V t) x) t V t+ t) x) V t) x) t 5.9) V t) x x) 2V t) x) + V t) x + x) x) ) Po przeprowadzeniu dyskretyzacji równania wyjściowego modelu, uwzględniając oba warunki brzegowe, można otrzymać [14]: Dla początkowego punktu sieci x = 0 : a 1 2R V t+ t) 1 x) V t+ t) 1 0) x) 2 = = C V t+ t) 1 0) V t) 1 0) t + g Na m t+ t) 1 0) + g K + g L n t+ t) 4 1 0)) ) V t+ t) 1 0) V L ) 3 t+ t) h 1 0) ) V t+ t) 1 0) V K V t+ t) 1 0) V Na ) 5.11) 58

63 5.2 Dyskretyzacja i sposób rozwiązania układu Dla końcowych punktów sieci x = l i : a i 2R V t+ t) i = C V t+ t) i x x) V t+ t) i x) x) 2 = x) V t) i x) t + g Na m t+ t) i 4 + g K n t+ t) i x)) ) + g L V t+ t) i x) V L ) 3 t+ t) x) h i x) ) V t+ t) i x) V K V t+ t) i x) V Na ) 5.12) Dla punktów, w których sieć się rozgałęzia p odpowiada gałęzi, która jest rodzicem dla dwóch gałęzi c 1 i c 2 - nazywanych potomkami ) [14]: a p V t+ t) p = a c1 l p x) + V p t+ t) l p ) x V t+ t) c 1 + a c2 V t+ t) c 2 0) + V c t+ t) 1 x x) 0) + V c t+ t) 2 x = x) 5.13) Dla wszystkich pozostałych punktów: a i 2R V t+ t) i = C V t+ t) i x x) 2V t+ t) i x) V t) i x) t x) + V t+ t) i x + x) x) 2 = ) 3 t+ t) x) h + g Na m t+ t) i 4 + g K n t+ t) i x)) ) + g L V t+ t) i x) V L i x) ) V t+ t) i x) V K V t+ t) i x) V Na ) 5.14) Według [14], wartości wektora V, o który aktualizowana jest wartość wektora potencjałów V, może być wyznaczana z równania: f V t+ t)) V = f V t+ t)) 5.15) Gradient f może być zapisany jako suma macierzy A + B. Macierz A jest nazywana macierzą systemową ang. system matrix) i zbudowana jest ze współczynników a i w formie, którą odczytać można z równań zdyskretyzowanych ). Macierz B przyjmuje wartości tylko na głównej przekątnej i jedynie dla punk- 59

64 5.2 Dyskretyzacja i sposób rozwiązania układu tów, które nie są punktami rozgałęzienia [14]: B i, i) = C ) 3 dt g Na m t+ t) t+ t) i x) h i x) ) 2 d m g Na 3 m t+ t) i x)) t+ t) i x) dv ) h t+ t) i x) V t+ t) i x) V Na ) 3 d h g Na m t+ t) i x)) t+ t) i x) ) V t+ t) i x) V Na dv ) 4 g K n t+ t) i x) ) d n t+ t) i x) ) 3 ) g K 4 n t+ t) i x) V t+ t) i x) V K g L dv 5.16) Podobnie jak samą dyskretyzację, również funkcję f można rozpisać na różne przypadki w zależności od tego, który punkt sieci jest aktualnie rozpatrywany [14]: Dla początkowego punktu sieci: gdzie f 1) = 1 t+ t) V 1 0) V t) 1 0) y 1) C 2R t ) 3 t+ t) h g Na g K m t+ t) 1 0) ) 4 n t+ t) 1 0) 1 0) V t+ t) 1 0) V K ) V t+ t) 1 0) V Na ) ) g L V t+ t) 1 1 0) V L + 2a i π x i 0 t + t) Dla punktów, w których sieć się rozgałęzia: Dla wszystkich pozostałych punktów sieci: f i) = 1 t+ t) V i y i) C 2R g Na g K 5.17) i 0 t) = I t 2 e 10t 5.18) m t+ t) i f i) = y i) 5.19) V t) i t ) 3 t+ t) x) h i ) 4 ) x) V t+ t) i x) V K n t+ t) i g L V t+ t) i x) V L ) gdzie y jest wynikiem mnożenia y = A V. ) x) V t+ t) i x) V Na 5.20) 60

65 5.3 Wartości parametrów oraz wartości inicjujące 5.3 Wartości parametrów oraz wartości inicjujące Niezależnie od struktury badanej sieci neuronowej, zakłada się, że potencjał na błonie komórkowej w chwili początkowej t = 0 [ms], we wszystkich punktach sieci, wynosi 0 [mv ], czyli: V 0) x) = ) Początkowe wartości zmiennych m, n i h wyznaczane są przy założeniu, że ich pochodne po czasie w chwili początkowej są równe zeru, stąd: n 0) α n 0) x) = α n 0) + β n 0) m 0) α m 0) x) = α m 0) + β m 0) h 0) α h 0) x) = α h 0) + β h 0) 5.22) Pozostałe watości parametrów wykorzystywanych w modelu zestawione zostały poniżej [32]: g Na = 120 [ ms/cm 2] V Na = 115 [mv ] C = 1 [ µf/cm 2] g K = 36 [ ms/cm 2] V K = 12 [mv ] R = [kωcm] g L = 0.3 [ ms/cm 2] V L = 10.6 [mv ] I = 1 [na] 5.4 Wyniki eksperymentalne - sieć neuronowa zbudowana z jednej gałęzi Na początku rozpatrywana będzie prosta sieć, składająca się z jednego odcinka, który na całej długości ma taki sam promień przekroju. Zostało tu założone, że a = [cm], natomiast l = 3.5 [cm]. Po podziale danego odcinka na przedziały o długości x = 0.25 [cm] rozpatrywany będzie wektor potencjałów dla 15 punktów sieci. Wektor ten został przedstawiony jako 5.23). 61

66 5.4 Wyniki eksperymentalne - sieć neuronowa zbudowana z jednej gałęzi V = V 0) V x) V 2 x) V 3 x) V 4 x) V 5 x) V 6 x) V 7 x) V 8 x) V 9 x) V 10 x) V 11 x) V 12 x) V 13 x) V 14 x) 5.23) Macierz systemowa Poniżej przedstawiona została postać macierzy systemowej. Jak łatwo zauważyć, w przypadku odcinka, w którym nie pojawiają się żadne rozgałęzienia oprócz punktu początkowego oraz końcowego, macierz A jest macierzą trójdiagonalną, symetryczną o wymiarze 15 15, gdzie, oprócz pozycji A 1, 1) oraz A 15, 15), na głównej przekątnej znajduje się zawsze wartość 2a, natomiast pod oraz nad diagonalą - wartość a. a a a 2a a a 2a a A = 0 0 a 2a ) a 2a a a a Wyniki symulacji Na rysunku 5.2 przedstawione zostały wyniki symulacji potencjału na błonie komórkowej, przy założeniu wymuszenia prądowego I = 1 [na]. Aby lepiej zaobserwować w jaki sposób zmienia się wartość potencjału wzdłuż całego badanego odcinka, wszystkie przebiegi zestawione zostały na jednym wykresie. Najwyższy skok potencjału pojawia się dla pierwszego punktu sieci, a następnie wgłąb odcinka sieci potencjał stopniowo maleje, aż odchylenie od zera jest właściwie niemożliwe do zaobserwowania. 62

67 5.5 Wyniki eksperymentalne - sieć neuronowa zbudowana z pięciu gałęzi Rys. 5.2: Przebiegi potencjału w kolejnych punktach sieci neuronowej zbudowanej jedynie z jednego odcinka - zestawienie wszystkich przebiegów w punktach pomiędzy pierwszym i ostatnim punktem sieci 5.5 Wyniki eksperymentalne - sieć neuronowa zbudowana z pięciu gałęzi Kolejny przedstawiony przykład zaczerpnięty został z [14], przede wszystkim w celu porównania wyników z wynikami otrzymywanymi z dalej wyprowadzonymi modelami. Na rysunku 5.3 pokazana została struktura tej sieci oraz jej przykładowy podział, gdzie: a = , , , , ) oraz l = 1, 0.5, 0.5, 0.25, 0.25) 63

68 5.5 Wyniki eksperymentalne - sieć neuronowa zbudowana z pięciu gałęzi A B Rys. 5.3: Struktura sieci o pięciu gałęziach A) oraz jej podział na przedziały B) Na podstawie struktury badanej sieci można utworzyć macierz koincydencji L, w której pokazane są połączenia pomiędzy gałęziami sieci: L = Jako równanie 5.25) pokazana została postać wektora potencjałów V z uwzględnieniem tego, że potencjał ostatniego punktu gałęzi rodzica jest taki sam jak potencjał w punktach początkowych dwóch gałęzi dzieci. 64

69 5.5 Wyniki eksperymentalne - sieć neuronowa zbudowana z pięciu gałęzi V = V 1 0) V 1 x) V 1 2 x) V 1 3 x) V 1 4 x) = V 2 0) = V 3 0) V 2 x) V 2 2 x) V 3 x) V 3 2 x) = V 4 0) = V 5 0) V 4 x) V 5 x) 5.25) Macierz systemowa Ze względu na rozmiar macierz systemowa A została przedstawiona w postaci bloków w równaniach ): A 1 : 6, 1 : 5) = a 1 a a 1 2a 1 a a 1 2a 1 a a 1 2a 1 a a 2 1 x x a a a 2 3) a ) A 1 : 6, 6 : 11) = A 7 : 11, 1 : 8) = A 7 : 11, 9 : 11) = a 2 2 x 0 a 2 3 x a 2 a a 2 a a a a 2 3 x a x a a a 2 5) a 2 4 x a 2 5 x a 4 a 4 0 a 5 0 a ) 5.28) 5.29) 65

70 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi Wyniki symulacji Na rysunku 5.4 pokazane zostały przykładowe wyniki symulacji modelu. Na wykresie A zestawione zostały przebiegi potencjału dla dwóch pierwszych punktów sieci. Natomiast na kolejnych wykresach przedstawione zostały przebiegi potencjału wszystkich punktów sieci pomiędzy pierwszym punktem a każdym końcowym. A B C Rys. 5.4: Przebieg potencjału w różnych punktach sieci o strukturze pokazanej na rysunku 5.3: A. punkt 1 i 2, B. punkty 1-5, 6, 7, C. punkty 1-5, 8, 9, 10, D. punkty 1-5, 8, 9, 11. D 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi W kolejnym przykładzie rozpatrywana będzie nieco bardziej rozbudowana sieć, podobna w strukturze do sieci pokazanej na rysunku 5.3. Struktura tym razem badanej sieci przedstawiona jest na rysunku

71 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi A B Rys. 5.5: Struktura sieci o siedmiu gałęziach A) oraz przykładowy sposób wyznaczenia badanych punktów B) Ponownie w wektorach a oraz l pokazane zostały odpowiednio średnice przekroju oraz długości każdego odcinka sieci; w macierzy koincydencji L pokazane zostały połączenia pomiędzy poszczególnymi odcinkami sieci. a = 0.05, 0.04, 0.03, 0.03, 0.04, 0.02, 0.02) l = 1, 0.75, 0.25, 0.5, 0.5, 0.25, 0.25) 67

72 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi L = Wektor V pokazany jako równanie 5.30 zbudowany jest z potencjałów w kolejnych punktach sieci, która została podzielona na mniejsze przedziały o długości x = 0.25 [cm]. Jak widać, po takim podziale sieci potencjał badany będzie w 15 punktach. V = Macierz systemowa V 1 0) V 1 x) V 1 2 x) V 1 3 x) V 1 4 x) = V 2 0) = V 5 0) V 2 x) V 2 2 x) V 2 3 x) = V 3 0) = V 4 0) V 3 x) V 4 x) V 4 2 x) V 5 x) V 5 2 x) = V 6 0) = V 7 0) V 6 x) V 7 x) Poniżej przedstawiona została macierz systemowa A w postaci bloków. 5.30) A 1 : 5, 1 : 5) = a 1 a a 1 2a 1 a a 1 2a 1 a a 1 2a 1 a a 2 1 x x a a a 2 5) 5.31) A 1 : 5, 6 : 15) = a 2 2 x a 2 5 x ) 68

73 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi A 6 : 10, 1 : 7) = A 6 : 10, 8 : 10) = A 6 : 10, 11 : 15) = a 2 2a 2 a a 2 2a a 2 2 x A 11 : 15, 1 : 12) = A 11 : 15, 13 : 15) = a x a a a 2 4) a 2 3 x a 2 4 x a 3 a 3 0 a 4 0 2a a a 4 a a a a 2 5 x a x a a a 2 7) a 2 6 x a 2 7 x a 6 a 6 0 a 7 0 a ) 5.34) 5.35) 5.36) 5.37) Wyniki symulacji Na rysunku 5.6, w podobny sposób jak dla przykładu drugiego, przedstawione zostały przebiegi potencjału w różnych punktach sieci. Na wykresie pierwszym 5.6 widać przebiegi potencjału w dwóch pierwszych punktach sieci, a następnie, na kolejnych wykresach - przebiegi w punktach pomiędzy pierwszym a każdym ostatnim punktem sieci. Jak widać, tak samo jak dla poprzednich dwóch przykładów, poruszając się wgłąb sieci można zauważyć, że im dalszy punkt sieci tym potencjał jest mniejszy aż właściwie ciężko zauważyć jego odchylenie od zera. 69

74 5.6 Wyniki eksperymentalne - sieć neuronowa zbudowana z siedmiu gałęzi A B C D E Rys. 5.6: Przebiegi potencjału w wybranych punktach struktury sieci pokazanej na rysunku 5.5: A. punkty 1 i 2, B. punkty 1-5, 6-8, 9, C. punkty 1-5, 6-8, 10-11, D. punkty 1-5, 12-13, 14, E. punkty 1-5, 12-13, 15. W kolejnych podrozdziałach pokazane zostanie rozszerzenie powyższego modelu poprzez wprowadzenie kinetycznych schematów Markowa. Przedstawione zostaną dwie wersje tego modelu - deterministyczna i stochastyczna. 70

75 5.7 Deterministyczny model kinetyczny sieci neuronowej 5.7 Deterministyczny model kinetyczny sieci neuronowej Główne równanie prezentowanego w niniejszym rozdziale modelu przyjmuje taką samą postać jak w przypadku modelu według Hodgkina-Huxleya: a 2 V 2R x 2 = C V t + ḡ Na V V Na ) + ḡ K V V K ) + g L V V L ) 5.38) Różnica polega na zamianie funkcji konduktancji na postać wynikającą ze schematów kinetycznych Markowa o pięciu i ośmiu stanach, odpowiednio dla kanałów jonowych potasu i sodu. Stąd postać tych funkcji jest taka sama jak w sekcji 3.5.2: oraz ḡ K V, t) = [n 4 ] ϕ K 5.39) ḡ Na V, t) = [m 3 h 0 ] ϕ Na 5.40) gdzie, podobnie jak w przypadku modelu kinetycznego pojedynczej komórki nerwowej, parametry ϕ Na oraz ϕ K odpowiadają konduktancjom pojedynczych kanałów będących w stanie przepuszczania. Wszystkie domyślne wartości parametrów pozostają bez zmian i zestawione zostały już w rozdziale trzecim tabela 3.1). 5.8 Wyprowadzenie stochastycznej wersji modelu sieci neuronowej Rozpatrywane będą dwie wersje tego modelu - wersja deterministyczna oraz wersja stochastyczna - podobnie jak w przypadku kinetycznego modelu komórki nerwowej prezentowanego w rozdziale 3.5. Cały przebieg wersji deterministycznej przedstawiony zostanie poniżej. Kluczowe zmiany względem wersji stochastycznej, zostały również zestawione w kolejnych podrozdziałach. Przeprowadzenie modelu z wersji deterministycznej na stochastyczną odbywa się podobnie jak w przypadku modelu kinetycznego pojedynczej komórki nerwowej rozdział 3.5). 5.9 Dyskretyzacja i sposób rozwiązania układu Cały proces dyskretyzacji i podziału struktury sieci odbywa się identycznie jak w przypadku struktury pokazanej wcześniej w rozdziale 5. Podobnie, wszystkie warunki początkowe zaczerpnięte zostały z tego samego rozdziału. Poniżej pokazana została dyskretyzacja równań, z uwzględnieniem schematów kinetycznych Markowa, opisujących procesy przepuszczania lub nieprzepuszczania jonów sodu lub potasu przez błonę komórkową. Podobnie jak w podrozdziale 5.1 przyjęte zostały następujące, analogiczne oznaczenia: V t) i x) [m 3 h 0 ] t) i x) [n 4 ] t) i x) 5.41) Dyskretyzacja odbywa się w zależności od rozpatrywanego punktu sieci: 71

76 5.9 Dyskretyzacja i sposób rozwiązania układu Dla początkowego punktu sieci x = 0 : a 1 2R V t+ t) 1 x) V t+ t) 1 0) x) 2 = = C V t+ t) 1 0) V t) 1 0) t + ϕ Na [m 3 h 0 ] t+ t) 1 0) + ϕ K [n 4 ] t+ t) 1 0) + g L V t+ t) 1 0) V L ) V t+ t) 1 0) V Na ) V t+ t) 1 0) V K ) 5.42) Dla końcowych punktów sieci x = l i : a i 2R V t+ t) i = C V t+ t) i x x) V t+ t) i x) x) 2 = x) V t) i x) t + ϕ Na [m 3 h 0 ] t+ t) i x) + ϕ K [n 4 ] t+ t) i x) + g L V t+ t) i x) V L ) V t+ t) i x) V Na ) V t+ t) i x) V K ) 5.43) Dla punktów, w których sieć się rozgałęzia p odpowiada gałęzi, która jest rodzicem dla dwóch gałęzi c 1 i c 2 - nazywanych potomkami ) [14]: a p V t+ t) p = a c1 x x) + V p t+ t) x) x V t+ t) c 1 + a c2 V t+ t) c 2 0) + V c t+ t) 1 x x) 0) + V c t+ t) 2 x = x) 5.44) Dla wszystkich pozostałych punktów: a i 2R V t+ t) i = C V t+ t) i x x) 2V t+ t) i x) V t) i x) t + ϕ Na [m 3 h 0 ] t+ t) i x) + ϕ K [n 4 ] t+ t) i x) + g L V t+ t) i x) V L ) x) + V t+ t) i x + x) x) 2 = V t+ t) i x) V Na ) V t+ t) i x) V K ) 5.45) 72

77 5.9 Dyskretyzacja i sposób rozwiązania układu Analogicznie jak w modelu wyjściowym pokazanym wcześniej w tym rozdziale, w każdym kroku wyznaczane jest rozwiązanie układu równań, danego wzorem: f V t+ t)) V = f V t+ t)) 5.46) gdzie f V t+ t)) = A + B, macierz A wyraża macierz systemową, natomiast macierz B jest macierzą diagonalną, która przyjmuje określone wartości jedynie dla punktów nie będących punktami rozgałęzienia. W przypadku modelu deterministycznego niezbędne jest wyznaczenie wartości pochodnych odpowiednich wartości [n 4 ] oraz [m 3 h 0 ], co sprawia, że macierz B przyjmuje następujące wartości na głównej przekątnej: B i, i) = C dt ϕ Na [m 3 h 0 ] t+ t) i x) ϕ Na d [m 3h 0 ] t+ t) i x) dv ϕ K [n 4 ] t+ t) i x) ϕ K d [n 4] t+ t) i x) dv V t+ t) i x) V Na ) V t+ t) i x) V K ) g L 5.47) W przypadku modelu stochastycznego wartości odczytywane ze schematów kinetycznych Markowa uznawane są za stałe, wówczas ich pochodne przyjmują wartości zerowe i stąd dużo mniej skomplikowana postać macierzy B : B i, i) = C dt ϕ Na [m 3 h 0 ] t+ t) i x) ϕ K [n 4 ] t+ t) i x) g L 5.48) Prawa strona równania macierzowego 5.46) również zależy od aktualnie rozpatrywanego punktu sieci, stąd przyjęto: Dla początkowego punktu sieci: 1 0) V t) 1 0) f 1) = 1 t+ t) V y 1) C 2R t ϕ Na [m 3 h 0 ] t+ t) 1 0) ϕ K [n 4 ] t+ t) 1 0) g L V t+ t) 1 0) V L ) + 1 2a i π x i 0 t + t) V t+ t) 1 0) V Na ) V t+ t) 1 0) V K ) 5.49) gdzie i 0 t) = I t 2 e 10t 5.50) jest prądem aplikowanym w punkcie początkowym sieci. Dla punktów, w których sieć się rozgałęzia: f i) = y i) 5.51) 73

78 5.9 Dyskretyzacja i sposób rozwiązania układu Dla wszystkich pozostałych punktów sieci: f i) = 1 2R t+ t) V i y i) C ϕ Na [m 3 h 0 ] t+ t) i ϕ K [n 4 ] t+ t) i x) x) V t) i x) t x) g L V t+ t) i x) V L ) V t+ t) i x) V Na ) V t+ t) i x) V K ) 5.52) gdzie y jest wynikiem mnożenia y = A V Rozwiązanie równań wynikających ze schematów kinetycznych Markowa W zdyskretyzowanych równaniach opisujących model kinetyczny sieci neuronowej wykorzystywane są wartości [n 4 ], [m 3 h 0 ] oraz ich pochodne względem potencjału. Poniżej pokazane zostanie w jaki sposób, korzystając z metod macierzowych, wyznaczyć wartości tych parametrów - zarówno dla schematu z pięcioma jak i z ośmioma stanami. 1) Schemat z pięcioma stanami - kanały jonowe potasu Dla uproszczenia i możliwości macierzowego opisu ruchu jonów przez błonę komórkową, wprowadzone zostały następujące oznaczenia: [n] = [n 0 ], [n 1 ], [n 2 ], [n 3 ], [n 4 ] ) T 5.53) oraz d [n] d dv = [n0 ] dv, d [n 1 ] dv, d [n 2 ] dv, d [n 3 ] dv, d [n 4 ] dv ) T 5.54) Wówczas wartości tych wektorów w chwili t+ t mogą zostać wyznaczone jawnie poprzez rozwiązanie odpowiedniego układu równań. W przypadku [n] t+ t), mamy do czynienia z równaniem postaci: podczas gdy dla d [n] t+ t) /dv z równaniem postaci: C 1 d [n]t+ t) i x) dv C 1 [n] t+ t) i x) = [n] t) i x) 5.55) = d [n]t) i x) + t C 2 [n] t+ t) i x) 5.56) dv Postacie macierzy C 1 oraz C 2 zostały przedstawione poniżej: t α n t β n 0 4 t α n 1 + t 3α n + β n ) 2 t β n C 1 :, 1 : 3) = 0 3 t α n t α n + β n ) t α n 5.57)

79 5.9 Dyskretyzacja i sposób rozwiązania układu C 1 :, 4 : 5) = t β n t α n + 3β n ) 4 t β n t α n t β n 5.58) C 2 :, 1 : 3) = 4 dα n dv 4 dα n dv dβ n dv 3 dα n dv + dβ ) n dv 0 3 dα n dv 0 2 dβ n dv dαn 2 dv + dβ ) n dv dα n dv ) C 2 :, 4 : 5) = dβ n dv ) dαn dv + 3dβ n dv dα n dv 0 dβ n dv 4 dβ n dv 5.60) W przypadku modelu stochastycznego obliczenia pokazane powyżej, ulegają znacznemu uproszczeniu, przede wszystkim ze względu na to, że wartości wektora [n] t+ t) i traktowane są jak stałe i w związku z tym nie trzeba obliczać ich pochodnych, które w tym przypadku przyjmują wartość 0. Same wartości wektora wyznaczane są według prostej reguły: [n] t+ t) i [n] t+ t) i = [n] t) i + [n] 5.61) gdzie [n] odnosi się do wartości losowanych z rozkładu normalnego - czyli do liczby kanałów która w danym kroku zmieniła stan. 2) Schemat z ośmioma stanami - kanały jonowe sodu Podobnie w przypadku wartości [m 3 h 0 ] utworzone zostały dwa wektory [mh] oraz d [mh] /dv następującej postaci: oraz d [mh] dv [mh] = [m 0 h 0 ], [m 1 h 0 ], [m 2 h 0 ], [m 3 h 0 ], [m 0 h 1 ], [m 1 h 1 ], [m 2 h 1 ], [m 3 h 1 ]) T 5.62) d [m0 h 0 ] = dv, d [m 1h 0 ] dv d [m 0 h 1 ] dv, d [m 2h 0 ] dv, d [m 1h 1 ] dv, d [m 3h 0 ], dv, d [m 2h 1 ], d [m 3h 1 ] dv dv ) T 5.63) 75

80 5.9 Dyskretyzacja i sposób rozwiązania układu Również w tym przypadku utworzyć można dwa równania macierzowe do wyznaczenia wartości wektorów w chwili t + t : C 1 d [mh]t+ t) i dv C 1 [mh] t+ t) i x) = [mh] t) i x) 5.64) = d [mh]t+ t) i dv + t C 2 [mh] t+ t) i x) 5.65) Postaci odpowiednich macierzy przedstawione zostały poniżej: 1 + t 3α m + β h ) t β m 3 t α m 1 + t β m + β h + 2α m ) 0 2 t α m C 1 :, 1 : 2) = 0 0 t β h 0 0 t β h ) C 1 :, 3 : 4) = C 1 :, 5 : 6) = C 1 :, 7 : 8) = t β m t 2β m + β h + α m ) 3β m t t α m 1 + t 3β m + β h ) t β h 0 0 t β h t α h 0 0 t α h t α h + 3α m ) t β m 3 t α m 1 + t β m + α h + 2α m ) 0 2 t α m 0 t α m t α h 0 0 t α h t β m t 2β m + α h + α m ) 3 t β m t α m 1 + t 3β m + α h ) 5.67) 5.68) 5.69) 76

81 5.9 Dyskretyzacja i sposób rozwiązania układu C 2 :, 1 : 2) = 3 dα m dv + dβ ) h dv 3 dα m dv dβ m dv dβm dv + dβ ) h dv + 2dα m dv 0 2 dα m dv dβ h dv ) C 2 :, 3 : 4) = 2 dβ m dv 2 dβ m dv + dβ h dv + dα m dv dα m dv dβ h dv 0 0 ) 0 3 dβ m dv 3 dβ m dv + dβ ) h dv 0 0 dβ h 0 dv dβ h 0 dv ) C 2 :, 5 : 6) = dα h dv 0 0 dα h dv ) 0 dαh dv + dα m dv 3 dα m dv dβ m dv dβm dv + dα h dv + 2dα m dv 0 2 dα m dv 0 0 ) 5.72) 77

82 5.9 Dyskretyzacja i sposób rozwiązania układu C 2 :, 7 : 8) = dα h 0 dv dα h 0 dv dβ m dv 2 dβ m dv + dα h dv + dα ) m dv dα m dv 0 3 dβ m dv 3 dβ m dv + dα ) h dv 5.73) Podobnie jak w przypadku schematu z pięcioma stanami, w przypadku wersji stochastycznej wszystkie obliczenia związane z wartościami [mh] oraz d [mh] /dv upraszczają się do jednej reguły uaktualniającej wartości wektora [mh] t+ t) i. Wynika to ponownie z faktu, że wartości wektora [mh] t+ t) i traktowane są jako stałe i w związku z tym pochodne wektora d [mh] /dv przyjmują wartość 0. Stąd jedynie jedno równanie macierzowe postaci: [mh] t+ t] i = [mh] t) i + [mh] 5.74) gdzie [mh] stanowi wektor wartości losowanych według rozkładu Gaussa i reprezentuje liczbę kanałów aktualnie zmieniających stan. Jak łatwo zauważyć model stochastyczny znów ma przewagę nad modelem deterministycznym. Po raz kolejny obliczenia w modelu stochastycznym są dużo mniej skomplikowane, a co za tym idzie przyspieszają czas działania sieci komórkowych. Dodatkowo, co zostanie pokazane w kolejnych podrozdziałach, wyniki w obu modelach są do siebie bardzo zbliżone i pozwalają stwierdzić, że model stochastyczny, mimo dużo prostszych rozwiązań, jest wystarczająco dokładny precyzyjny) Funkcje α i β oraz ich pochodne względem potencjału Jak zostało to pokazane w sekcji do obliczenia wartości wektorów d [n] /dv oraz d [mh] /dv niezbędna jest znajomość postaci pochodnych funkcji α V ) oraz β V ) względem potencjału. Funkcje α V ) oraz β V ) pozostają bez zmian i ich postać przedstawiona została już w rozdziale trzecim tabela 3.2), natomiast postaci pochodnych przedstawione zostały w tabeli

83 5.10 Wyniki eksperymentalne - sieć zbudowana z jednej gałęzi i dα i V ) dv dβ i V ) dv n m h 10 V )) V exp V ) ) exp V ) 80 exp V ) exp V ) V ) ) exp V ) 18 exp exp V 20 ) 30 V ) 0.1 exp V ) exp ) 2 Tab. 5.1: Postacie pochodnych funkcji α V ) i β V ) względem potencjału 5.10 Wyniki eksperymentalne - sieć zbudowana z jednej gałęzi W sekcji tej pokazane zostały wyniki symulacji prostej sieci zbudowanej z jednego odcinka. Struktura tej sieci jest identyczna jak ta przedstawiona w rozdziale 5.4. Rozpatrywanych jest w związku z tym 15 punktów, w których wyznaczany jest potencjał. Macierz systemowa A pozostaje bez zmian i przyjmuje postać 5.24) - wynika ona ze struktury sieci. Na rysunku 5.7 zestawione zostały wyniki symulacji sieci w obu wersjach modelu - deterministycznej oraz stochastycznej. Jak widać wyniki te są praktycznie identyczne, co kolejny raz potwierdza przewagę modelu stochastycznego nad modelem deterministycznym, wynikającą z uproszczonych obliczeń. Największy skok potencjału można zaobserwować w pierwszym punkcie sieci. Co jest istotne - w idealny sposób zostało tu pokazane, że w każdym kolejnym punkcie sieci potencjał nie wzbudza się na tym samym poziomie co w pierwszym punkcie, a dodatkowo każdy kolejny impuls potencjału jest przesunięty w czasie, co również pokazuje poprawne działanie sieci, uwzględniające proces przepływu prądu przez sieć neuronową. 79

84 5.11 Wyniki eksperymentalne - sieć zbudowana z pięciu gałęzi A Rys. 5.7: Przebiegi potencjału w 15 punktach sieci neuronowej zbudowanej z jednego odcinka, wyznaczone według modelu deterministycznego A) i stochastycznego B) B 5.11 Wyniki eksperymentalne - sieć zbudowana z pięciu gałęzi Podobnie jak w rozdziale 5.5, kolejne przykłady wyników symulacji sieci neuronowej zakładają pięcioodcinkową strukturę, stąd 11 punktów struktury w których wyznaczany jest potencjał. Podobnie jak w przypadku sieci o jednej gałęzi, całą strukturę, łącznie z parametrami i postacią macierzy systemowej można znaleźć w sekcji 5.5. Na poniższych rysunkach przedstawione zostały przebiegi w wybranych punktach rozważanej struktury, co pozwala na przejrzystą analizę potencjału w tych punktach. Na rysunkach 5.8A oraz 5.8B pokazane zostały przebiegi w trzech punktach sieci - w początkowym, w pierwszym punkcie rozgałęzienia punkt 5) oraz w jednym z punktów końcowych punkt 7). Na pierwszym z wykresów pokazane zostało działanie modelu deterministycznego, podczas gdy na drugim - modelu stochastycznego. Na kolejnych dwóch wykresach 5.8C i 5.8D zostały pokazane wyniki zebrane z czterech punktów sieci - począwszy od punktu początkowego sieci, poprzez dwa punkty rozgałęzień punkt 5 i 9) a zakończywszy na punkcie końcowym sieci punkt 10/11). Potencjały w punktach 10 i 11 tej samej struktury dają identyczne przebiegi potencjału ze względu na taką samą budowę sieci w tych punktach. Ponownie na tych dwóch rysunkach porównane zostały dwie wersje modelu - deterministyczna oraz stochastyczna. Po raz kolejny wyniki jednego modelu właściwie nie odbiegają od wyników drugiego, co oczywiście potwierdza przewagę modelu stochastycznego nad deterministycznym. Dodatkowo znów można zauważyć, że potencjał w każdym kolejnym punkcie sieci jest coraz niższy oraz przesunięty w czasie. 80

85 5.12 Wyniki eksperymentalne - sieć zbudowana z siedmiu gałęzi A B C Rys. 5.8: Przebiegi potencjału w modelu deterministycznym A i C) i stochastycznym B i D) w punktach struktury sieci: A. i B. początkowym, pierwszym rozgałęzieniu punkt 5) i jednym z końcowych punkt 7), C. i D. początkowym, pierwszym rozgałęzieniu punkt 5), drugim rozgałęzieniu punkt 9) i jednym z końcowych punkt 10/11) D 5.12 Wyniki eksperymentalne - sieć zbudowana z siedmiu gałęzi Ostatni przykład działania sieci neuronowej zakłada strukturę o siedmiu gałęziach sekcja 5.6). Ponownie na wykresach przedstawione są potencjały jedynie w wybranych punktach struktury: na rysunkach 5.9A i 5.9B - pierwszy punkt struktury, dwa punkty rozgałęzienia 5 i 8) oraz jeden z punktów końcowych 9), na rysunkach 5.9C i 5.9D - pierwszy punkt struktury, dwa punkty rozgałęzienia 5 i 8) oraz jeden z punktów końcowych 11), na rysunkach 5.9E i 5.9F - pierwszy punkt struktury, dwa punkty rozgałęzienia 5 i 13) oraz jeden z punktów końcowych 14/15 - potencjał w tych punktach jest jednakowy). 81

86 5.12 Wyniki eksperymentalne - sieć zbudowana z siedmiu gałęzi Po raz kolejny można napisać, że model stochastyczny jest wyraźnie lepszy niż model deterministyczny - daje takie same wyniki a jest dużo łatwiejszy i mniej zasobochłonny niż model deterministyczny. A B C D E Rys. 5.9: Przebiegi potencjału w modelu deterministycznym A, C i E) i stochastycznym B, D i F) w punktach struktury: A. i B. początkowym, pierwszym rozgałęzieniu punkt 5), drugim rozgałęzieniu punkt 8) i jednym z końcowych punkt 9), C. i D. początkowym, pierwszym rozgałęzieniu punkt 5), drugim rozgałęzieniu punkt 8) i jednym z końcowych punkt 11), E. i F. początkowym, pierwszym rozgałęzieniu punkt 5), drugim rozgałęzieniu punkt 13) i jednym z końcowych punkt 14/15) F 82

87 5.13 Porównanie modelu klasycznego sieci neuronowej z modelami kinetycznymi 5.13 Porównanie modelu klasycznego sieci neuronowej z modelami kinetycznymi Porównanie złożoności obliczeniowej przedstawionych w tym rozdziale modeli jest wyjątkowo istotne zwłaszcza w przypadku implementacji sprzętowej np. wykorzystującej karty graficzne). Szczególnie wybór pomiędzy deterministyczną a stochastyczną wersją modelu kinetycznego ma znaczący wpływ na tą realizację. Określenie złożoności obliczeniowej tych modeli jest niezwykle trudne. Zwłaszcza w przypadku modelu kinetycznego, ze względu chociażby na schematy kinetyczne Markowa. Przejścia pomiędzy stanami tych schematów kinetycznych opisane są równaniami 5.55)-5.56) oraz 5.64)-5.65). Rozpatrując sieć zbudowaną z jednej gałęzi o N punktach niezbędne jest przeprowadzenie 4N obliczeń macierzowych w przypadku modelu deterministycznego. Dla każdego punktu sieci tworzy się niezależny układ schematów kinetycznych Markowa. Warto również wspomnieć, że praktyczne zastosowania tych sieci mogą wymagać nawet milionów punktów, w których należy wyznaczyć potencjał. Model stochastyczny znacznie redukuje liczbę niezbędnych obliczeń macierzowych. Jednakże założono, że pojedyncza bramka może znajdować się w więcej niż dwóch stanach, co powoduje, że złożoność obliczeniowa jest jednak większa niż w wyjściowym modelu Hodgkina-Huxleya sieci neuronowej. Zakłada się jednak, że większa liczba stanów jest w stanie zapewnić większe możliwości w przypadku dalszych zastosowań [23]. Dla dodatkowego porównania wyznaczone zostały czasy implementacji przedstawionych modeli sieci neuronowych. Jako wyjściowy, podstawowy model, przyjęty został model przedstawiony w pierwszej części tego rozdziału i ponieważ jest to bezpośrednie rozszerzenie modelu Hodgkina-Huxleya, dlatego traktowany będzie jako model klasyczny. Kolejne dwa badane modele to wersja deterministyczna oraz stochastyczna modelu kinetycznego sieci neuronowej. Wyniki symulacji pokazują różne czasy symulacji sieci neuronowych o jednakowej strukturze, gdzie sieć składa się z jednego odcinka o różnych długościach, zakładając, że najkrótszy odcinek ma 5 rozpatrywanych punktów, natomiast najdłuższy Badanie odbyło się dla jednakowej liczby kroków czasu , przy t = 10 3 s. Analizując czasy symulacji badanych sieci można zauważyć, że najszybszy jest model klasyczny. Można też zauważyć dużą przewagę stochastycznego modelu kinetycznego nad jego deterministyczną wersją. Mimo że model stochastyczny wypada gorzej niż model klasyczny, to jednak wyniki otrzymane z modelu stochastycznego dużo wierniej odzwierciedlają działanie rzeczywistych sieci neuronowych. Warto też wspomnieć o dalszej implementacji modelu kinetycznego sieci neuronowej z wykorzystaniem kart graficznych omówionej szerzej w rozdziale siódmym). Implementacja ta jest szczególnie istotna ze względu na możliwość równoległej realizacji wielu wątków. W tym przypadku losowanie wartości z rozkładu normalnego, reprezentujące liczbę kanałów zmieniających stan w danym kroku czasu, może być wykonywana jednocześnie co znacznie zmniejsza czas symulacji tych sieci. Tak jak już to zostało wspomniane, aplikacje tych sieci neuronowych mogą wymagać milionów punktów w których wyznaczany jest potencjał. W związku z tym implementacja równoległa ma tutaj ogromne znaczenie. 83

88 5.13 Porównanie modelu klasycznego sieci neuronowej z modelami kinetycznymi W rozdziale szóstym pokazany zostanie sposób wprowadzenia procesu uczenia do tego rodzaju sieci, podczas gdy w rozdziale siódmym przedstawiony zostanie przebieg implementacji tych sieci z wykorzystaniem kart graficznych. 84

89 Rozdział 6 Metody uczenia biologicznych stochastycznych sieci neuronowych Podobnie jak w rozdziale 4, w niniejszym rozdziale przedstawiona zostanie metoda gradientu prostego, tym razem w procesie nauki biologicznej sieci neuronowej według stochastycznego modelu kinetycznego - rozdział 5). Należy rozróżnić pojęcia uczenia sztucznej i biologicznej sieci neuronowej. W pierwszym przypadku odpowiednio nauczona sieć jest w stanie rozwiązywać skomplikowane problemy, podczas gdy w drugim przypadku sieć dostosowuje swoje parametry na bieżąco. Sterowanie parametrami modelu pozwala na uzyskanie żądanych przebiegów potencjałów. Wagi parametry modelu) aktualizowane są przy pomocy metody gradientu prostego w połączeniu z metodą mnożników Lagrange a. W pierwszej części niniejszego rozdziału przedstawiona zostanie metoda mnożników Lagrange a wyznaczania ekstremum zadanej funkcji. Następnie postawiony zostanie problem oraz krok po kroku jego rozwiązanie. Podsumowując ten rozdział, pokazane zostaną przykładowe wyniki działania uczonej biologicznej sieci neuronowej. 6.1 Metoda mnożników Lagrange a Metoda mnożników Lagrange a jest jedną z metod wykorzystywanych w teorii optymalizacji, służącą do wyznaczania ekstremum warunkowego funkcji. Funkcja ta, z założenia musi być różniczkowalna. Rozwiążemy zatem przykładowo nawiązując do zagadnienia poruszanego w niniejszym rozdziale) zagadnienie znalezienia minimum funkcji G : o ograniczeniach min G x 1, x 2,..., x n ) 6.1) F i x 1, x 2,..., x n ) 0 dla i = 1, 2,..., m 6.2) W celu rozwiązania postawionego zadania tworzy się nową funkcję F : F x 1, x 2,..., x n, λ 1, λ 2,..., λ m ) = G + λ 1 F 1 + λ 2 F λ m F m 6.3) 85

90 6.2 Sformułowanie problemu gdzie współczynniki λ i, i = 1, 2,..., m, nazywane są mnożnikami Lagrange a i spełniają jedynie rolę pomocniczą [2, 3, 13, 44]. Następnie w celu wyznaczenia minimum lub maksimum wyjściowej funkcji G, wyznacza się rozwiązanie układu równań utworzonego przez kolejne pochodne cząstkowe funkcji F względem wszystkich zmiennych tej funkcji: F x 1 = 0 F x 2 = 0. F x n = 0 F λ 1 = 0 F λ 2 = 0. F λ m = 0 6.4) 6.2 Sformułowanie problemu W rozdziale tym wzięto pod uwagę prostą sieć neuronową zbudowaną jedynie z trzech odcinków w taki sposób, aby punktów, w których obliczany jest potencjał, było jedynie pięć rysunek 6.1). W rozważaniach brano pod uwagę biologiczną sieć neuronową utworzoną na podstawie stochastycznego modelu kinetycznego. Rys. 6.1: Struktura rozpatrywanej sieci neuronowej Zadaniem tak utworzonej sieci neuronowej jest dążenie do osiągnięcia minimum następującej funkcji: G = 1 T V 1 V 1 ) T V 2 V 2 ) T V 3 V 3 ) T V 4 V 4 ) T V 5 V 5 ) ) Faktycznie oznacza to, że wyznaczone potencjały mają odwzorowywać pięć zadanych potencjałów V1, V2, V3, V4 i V5. Dodatkowo wprowadzone zostało pięć ograniczeń wynikających z opisu potencjału na błonie komórkowej w pięciu rozważanych punktach według modelu kinetycznego sieci neuronowej): 86

91 6.2 Sformułowanie problemu F 1 = C V 1 V 1prev t F 2 = C V 2 V 2prev t + g Na [m 3 h 0 ] 1 V 1 V Na ) + g K [n 4 ] 1 V 1 V K ) + g L V 1 V L ) a 1It 2 e 10t 2π x a 1 V 2 V 1 2R x 2 + g Na [m 3 h 0 ] 2 V 2 V Na ) + g K [n 4 ] 2 V 2 V K ) V 3 2V 2 + g L V 2 V L ) a 1 V 1 2R x 2 + F 3 = a 2 1 V 3 V 2 ) a 2 2 V 4 V 3 ) a 2 3 V 5 V 3 ) 6.6) F 4 = C V 4 V 4prev t F 5 = C V 5 V 5prev t + g Na [m 3 h 0 ] 4 V 4 V Na ) + g K [n 4 ] 4 V 4 V K ) + g L V 4 V L ) a 2 V 4 V 3 2R x 2 + g Na [m 3 h 0 ] 5 V 5 V Na ) + g K [n 4 ] 5 V 5 V K ) + g L V 5 V L ) a 3 V 5 V 3 2R x 2 Ponownie dla ujednolicenia zapisu zastosowano zapis g Na i g K zamiast ϕ Na i ϕ K. Dodatkowo, według oznaczeń wprowadzonych w rozdziale 5, przyjęty w powyższym układzie równań zapis potencjału przyjmuje postać: V 1 = V t+ t) 1 0) V 1prev = V t) 1 0) V 2 = V t+ t) 1 x) V 2prev = V t) 1 x) V 3 = V t+ t) 1 2 x) = V t+ t) 2 0) = V t+ t) 3 0) V 3prev = V t) 1 2 x) = V t) 2 0) = V t) 3 0) V 4 = V t+ t) 2 x) V 4prev = V t) 2 x) V 5 = V t+ t) 3 x) V 5prev = V t) 3 x) 6.7) Podobnie można wprowadzić zapis dla wartości [m 3 h 0 ] oraz [n 4 ] : [m 3 h 0 ] 1 = [m 3 h 0 ] t+ t) 1 0) [m 3 h 0 ] 2 = [m 3 h 0 ] t+ t) 1 x) [m 3 h 0 ] 3 = [m 3 h 0 ] t+ t) 1 2 x) = [m 3 h 0 ] t+ t) 2 0) = [m 3 h 0 ] t+ t) 3 0) [m 3 h 0 ] 4 = [m 3 h 0 ] t+ t) 2 x) [m 3 h 0 ] 5 = [m 3 h 0 ] t+ t) 3 x) 6.8) 87

92 6.3 Rozwiązanie postawionego problemu [n 4 ] 1 = [n 4 ] t+ t) 1 0) [n 4 ] 2 = [n 4 ] t+ t) 1 x) [n 4 ] 3 = [n 4 ] t+ t) 1 2 x) = [n 4 ] t+ t) 2 0) = [n 4 ] t+ t) 3 0) [n 4 ] 4 = [n 4 ] t+ t) 2 x) [n 4 ] 5 = [n 4 ] t+ t) 3 x) 6.9) Jako potencjał wzorcowy przyjęty został potencjał wyznaczony w prostym modelu Hodgkina-Huxleya sieci neuronowej rozdział 5), zbudowanej właśnie z pięciu punktów. Z kolei jako wagi przyjęto, podobnie jak w rozdziale 4, jedynie trzy parametry, mianowicie g Na, g K oraz g L. Przyjęto, że wagi obliczane są jednokrotnie dla każdego punktu sieci. Można zatem zapisać: g Na = ǧ Na e g Na g K = ǧ K e g K g L = ǧ L e g L 6.10) gdzie ǧ oznacza domyślną wartość parametru g, natomiast g wartością aktualizowaną. W dalszym ciągu, w następnym podrozdziale omówiony zostanie sposób rozwiązania postawionego powyżej problemu. 6.3 Rozwiązanie postawionego problemu Rozwiązanie problemu przedstawionego w poprzednim podrozdziale zbudowane jest z dwóch głównych części. Pierwszy etap polega na aktualizacji wag według schematu pokazanego w rozdziale 4. W drugim etapie wykorzystywana jest metoda mnożników Lagrange a, która ma posłużyć znalezieniu minimum funkcji z zadanymi ograniczeniami i z zaktualizowanymi wagami. Pierwsza część przebiega analogicznie jak w procesie nauki pojedynczej komórki nerwowej. Wyznaczana jest funkcja G oraz trzy równania różniczkowe, podobnie jak równania 4.23) i 4.24), które aktualizowane są w każdym kroku nauki. Drugi etap przebiega następująco: A. Utworzenie nowej funkcji F będącej sumą funkcji minimalizowanej oraz odpowiednich funkcji ograniczeń wymnożonych przez pięć mnożników Lagrange a: F = G + λ 1 F 1 + λ 2 F 2 + λ 3 F 3 + λ 4 F 4 + λ 5 F ) B. W następnym kroku tworzony jest system złożony z cząstkowych równań różniczkowych 6.12), liczonych względem pięciu potencjałów V 1, V 2, V 3, V 4, V 5, wag sieci g Na, g K, g L oraz mnożników Lagrange a λ 1, λ 2, λ 3, λ 4, λ 5. Wartości n 1, n 2, n 3, n 4, n 5 oraz m 1, m 2, m 3, m 4, m 5 odpowiadają tutaj wartościom [n 4 ] oraz [m 3 h 0 ] dla kolejnych schematów kinetycznych - dla każdego punktu rozpatrywanej sieci tworzony jest niezależny schemat kinetyczny. 88

93 6.3 Rozwiązanie postawionego problemu F = 2 ) C V 1 T V 1 V1 ) λ 1 t + g Na [m 3 h 0 ] 1 + g K [n 4 ] 1 + g L F = 2 V 2 T V 2 V2 a 1 ) + λ 1 2R x) 2 λ 2 C t + g Na [m 3 h 0 ] 2 + g K [n 4 ] 2 + g L + + λ 3 a 2 1 F = 2 V 3 T V 3 V3 a 1 ) + λ 2 2R x) 2 λ 3 a a a3) 2 a 3 + λ 2 a 1 2R x) 2 ) a 1 R x) 2 a 2 + λ 4 2R x) 2 + λ 5 2R x) 2 F = 2 C V 4 T V 4 V4 ) + λ 3 a 2 2 λ 4 t + g Na [m 3 h 0 ] 4 + g K [n 4 ] 4 + g L + a ) 2 2R F = 2 C V 5 T V 5 V5 ) + λ 3 a 2 3 λ 5 t + g Na [m 3 h 0 ] 5 + g K [n 4 ] 5 + a ) 3 2R F = g Na λ 1 [m 3 h 0 ] g 1 V 1 V Na ) λ 2 [m 3 h 0 ] 2 V 2 V Na ) Na λ 4 [m 3 h 0 ] 4 V 4 V Na ) λ 5 [m 3 h 0 ] 5 V 5 V Na )) F = g K λ 1 [n 4 ] g 1 V 1 V K ) λ 2 [n 4 ] 2 V 2 V K ) K λ 4 [n 4 ] 4 V 4 V K ) λ 5 [n 4 ] 5 V 5 V K )) F = g L λ 1 V 1 V L ) λ 2 V 2 V L ) g L F = C V 1 V 1prev λ 1 t F = C V 2 V 2prev λ 2 t λ 4 V 4 V L ) λ 5 V 5 V L )) + g Na [m 3 h 0 ] 1 V 1 V Na ) + g K [n 4 ] 1 V 1 V K ) + g L V 1 V L ) a 1It 2 e 10t 2π x a 1 V 2 V 1 2R x) 2 + g Na [m 3 h 0 ] 2 V 2 V Na ) + g K [n 4 ] 2 V 2 V K ) V 3 2V 2 + V 1 + g L V 2 V L ) a 1 2R x) 2 F = a 2 1 V 3 V 2 ) a 2 2 V 4 V 3 ) a 2 3 V 5 V 3 ) λ 3 F = C V 4 V 4prev +g Na [m 3 h 0 ] λ 4 t 4 V 4 V Na ) + g K [n 4 ] 4 V 4 V K ) F = C V 5 V 5prev λ 5 t + g L V 4 V L ) a 2 V 4 V 3 2R x) 2 + g Na [m 3 h 0 ] 5 V 5 V Na ) + g K [n 4 ] 5 V 5 V K ) + g L V 5 V L ) a 3 V 5 V 3 2R x) ) 89

94 6.4 Przykładowe wyniki Składając ze sobą obie części otrzymujemy jeden krok postępowania w kierunku znalezienia optymalnych wartości wag. Czynności te powtarza się tak długo aż otrzyma się rozwiązanie odbiegające od zadanych wartości potencjału wzorcowego co najwyżej o dostatecznie niewielką wartość współczynnika ɛ rozdział 4). W kolejnym podrozdziale pokazane zostaną przykładowe wyniki działania tak uczonej sieci nerwowej. 6.4 Przykładowe wyniki W celu zbadania funkcjonalności sieci neuronowej uczonej według metody gradientu prostego przeprowadzono kilka prostych symulacji. Jako potencjał wzorcowy V przyjęto potencjał wyznaczony według modelu Hodgkina-Huxleya sieci neuronowej o strukturze pokazanej na rysunku 6.1. Uczenie sieci neuronowej, podobnie jak w przykładach pokazanych w przypadku pojedynczej komórki nerwowej rozdział 4), polegało na dopasowaniu potencjału, poprzez odpowiednie dobranie wartości wag, do zadanego potencjału wzorcowego. We wszystkich przeprowadzonych symulacjach przyjęto 100 iteracji nauki i badano wpływ współczynnika dokładności ɛ na jakość odtwarzania potencjału wzorcowego. Czas nauki trwał sekundy, podczas gdy odtworzenie pojedynczej wartości potencjału wyniosło w przybliżeniu sekundy. Na rysunku 6.2 pokazany został przykładowy przebieg potencjału wyznaczony za pomocą uczonej sieci neuronowej. Na górnym wykresie przebieg potencjału narysowany linią ciągłą pokazuje potencjał wyznaczony dla pierwszego punktu sieci o strukturze z rysunku 6.1. Przebieg potencjału narysowany linią przerywaną jest wynikiem otrzymanym w procesie nauki sieci neuronowej. Jak widać, źle dobrany współczynnik dokładności ɛ = 10 3, powoduje, że otrzymany wynik znacząco odbiega od zadanego potencjału. Dodatkowo na rysunku dolnym przedstawiony został błąd bezwzględny pomiędzy przebiegami tych potencjałów. Największą różnicę można zaobserwować w pierwszych sekundach, kiedy osiąga ona wartość do około [mv ], natomiast po około 6 sekundach różnica ta maleje do zera. Na rysunku 6.3 zestawione zostały wyniki otrzymane z modelu sieci neuronowej Hodgkina-Huxleya na rysunku górnym) oraz wyniki otrzymane w procesie nauki wykres dolny). Pokazane tu zostały przebiegi potencjału w czterech punktach sieci 1, 2, 3 i 4 - przebieg potencjału w punktach 4 i 5 jest identyczny, wynika to ze struktury sieci neuronowej). Zwłaszcza po przebiegach potencjału w pierwszych dwóch punktach sieci widać, że źle zostały dobrane parametry nauki. Poprzez lepsze dopasowanie współczynnika dokładności, można uzyskać zdecydowanie lepsze rezultaty. Na rysunku 6.4 pokazany został przykładowy przebieg funkcji dla ɛ = Ponownie wykres narysowany linią ciągłą odpowiada przebiegowi potencjału uzyskanego z modelu sieci neuronowej Hodgkina-Huxleya, podczas gdy wykres narysowany linią przerywaną jest wynikiem działania uczonej sieci neuronowej - w obu przypadkach rozważany jest jedynie pierwszy punkt sieci o strukturze z rysunku 6.1. Dodatkowo na dolnym rysunku przedstawiono błąd bezwzględny pomiędzy tymi przebiegami. Można zauważyć, że błąd ten 90

95 6.4 Przykładowe wyniki znacznie zmalał względem wyników prezentowanych na rysunku 6.2. Również w pierwszych sekundach można zaobserwować najwyższe wartości błędu, który osiąga wartość do [mv ] i już po około 4 sekundach maleje do zera. Podobnie jak w pierwszym przypadku na rysunku 6.5 zestawione zostały wyniki dla wszystkich punktów sieci neuronowej. Ponownie w szczególności potencjały uzyskane w dwóch pierwszych punktach sieci, idealnie pokazują jak niewielka jest różnica pomiędzy przebiegami. Przeprowadzenie rozważań pokazanych w rozdziale piątym i szóstym ma póki co jedynie znaczenie symulacyjne. W rozdziale siódmym przedstawione zostaną wybrane zastosowania uczenia w modelu pojedynczej komórki nerwowej, podczas gdy model sieci neuronowej będzie jeszcze rozwijany i w przyszłości również zostanie przeprowadzona analiza tego typu modeli pod kątem zastosowań. W chwili obecnej zakłada się, że sieć taka ma jedynie jedno wejście oraz wiele wyjść co znacznie ogranicza jej możliwości. Należy więc znacznie rozbudować strukturę takich sieci i przeprowadzić ich dalszą głęboką analizę. 91

96 6.4 Przykładowe wyniki Rys. 6.2: Porównanie przebiegów potencjałów rysunek górny), wyznaczonych w pierwszym punkcie przyjętej struktury sieci, według modelu Hodgkina-Huxleya wykres linią ciągłą) oraz według uczonego stochastycznego modelu kinetycznego wykres linią przerywaną), ɛ = 10 3 oraz błąd pomiędzy tymi przebiegami rysunek dolny) 92

97 6.4 Przykładowe wyniki Rys. 6.3: Porównanie działania nauczonej sieci neuronowej rysunek dolny) z wynikami otrzymanymi podczas symulacji sieci neuronowej rysunek górny) według modelu Hodgkina-Huxleya, dla ɛ =

98 6.4 Przykładowe wyniki Rys. 6.4: Porównanie przebiegów potencjałów rysunek górny), wyznaczonych w pierwszym punkcie przyjętej struktury sieci, według modelu Hodgkina-Huxleya wykres linią ciągłą) oraz według uczonego stochastycznego modelu kinetycznego wykres linią przerywaną), ɛ = 10 6 oraz błąd pomiędzy tymi przebiegami rysunek dolny) 94

99 6.4 Przykładowe wyniki Rys. 6.5: Porównanie działania nauczonej sieci neuronowej rysunek dolny) z wynikami otrzymanymi podczas symulacji sieci neuronowej rysunek górny) według modelu Hodgkina-Huxleya, dla ɛ =

100 Rozdział 7 Przykłady zastosowania modeli biologicznych komórek neuronowych w automatyce i robotyce W niniejszym rozdziale przedstawione zostały wybrane możliwości wykorzystania modelu biologicznej komórki nerwowej uczonej za pomocą metody gradientowej. Ponieważ sam model jest kosztowny obliczeniowo, stąd na początek przedstawiony został sposób przekształcenia modelu całej sieci neuronowej w celu dalszej implementacji przy wykorzystaniu kart graficznych. W kolejnych podrozdziałach pokazane zostały przykłady wykorzystania nauczonej biologicznej komórki nerwowej w zagadnieniu aproksymacji funkcji. W tym przypadku podkreślone zostało szczególne znaczenie pojedynczej komórki nerwowej w aproksymacji funkcji prostokątnej. Kolejnym i najciekawszym przykładem działania biologicznej komórki nerwowej, jest jej zastosowanie wraz ze strukturą sztucznej sieci neuronowej Elmana, jako elementu dopinającego w systemie AHRS wyznaczania stopni swobody związanych z obrotem względem osi x, y i z. System ten ma zostać wykorzystany w procesie sterowania quadrocopterem. 7.1 Przygotowanie biologicznych sieci neuronowych dla implementacji z wykorzystaniem kart graficznych Główną wadą przedstawionych w tej pracy modeli jest ich złożoność obliczeniowa. Stąd pomysł implementacji tych sieci z wykorzystaniem kart graficznych [28] GPU, ang. Graphics Processing Unit - procesor graficzny), które umożliwiają wydajną równoległą implementację przy niedużych nakładach finansowych [4]. Wyposażenie komputera w kartę graficzną, którą można programować, jest wielokrotnie tańsze niż zakup klastra obliczeniowego czy superkomputera. Dostępne są także darmowe i dobrze udokumentowane narzędzia do debugowania i profilowania, co ułatwia optymalizację tworzonego oprogramowania. 96

101 7.1 Przygotowanie biologicznych sieci neuronowych dla implementacji z wykorzystaniem kart graficznych W przypadku implementacji biologicznej sieci neuronowej z wykorzystaniem kart graficznych należy przeanalizować, w jaki sposób przetworzyć dany zapis matematyczny aby móc zrównoleglić obliczenia. W tym przypadku każdy rozważany punkt sieci implementowany jest jako niezależny obiekt. Podczas pracy programu każdy punkt sieci wymienia informacje ze wszystkimi sąsiadującymi z nim punktami. Cały program rozpoczyna się od nadania wartości wszystkim parametrom modelu. Pojedynczy krok działania programu można opisać w następujący sposób: 1. Wylosowanie wszystkich liczb z rozkładu normalnego niezbędnych do aktualizacji liczby bramek zmieniających w danym kroku swój stan wykonywane jest to za pomocą generatora liczb pseudolosowych z rozkładu normalnego pokazanego w [27]). 2. Synchronizacja wszystkich wątków w celu zapewnienia, aby wszystkie wartości losowe używane w dalszych obliczeniach zostały wylosowane. 3. Aktualizacja wszystkich stanów schematów kinetycznych. 4. W kolejnym kroku aktualizowane są wszystkie punkty rozpatrywanej struktury sieci neuronowej. Każdy taki punkt przyjmuje na wejściu sygnał prądowy, w odpowiedzi zwracając wyznaczony potencjał. Jak już zostało wspomniane, podczas pracy programu każdy punkt sieci wymienia informacje ze wszystkimi sąsiadującymi z nim punktami. Odbywa się tu zatem obliczanie aktualnego stanu wszystkich punktów sieci na podstawie stanu poprzedniego do danego stanu oraz wszystkich z nim sąsiadujących z uwzględnieniem struktury sieci. Po obliczeniu wszystkich parametrów modelu, które w trakcie działania programu zmieniają swoje wartości, aktualizowana jest wartość potencjału, wyznaczana w danym punkcie sieci. Na rysunku 7.1 przedstawiony został przykładowy wykres realizacji sieci neuronowej z wykorzystaniem kart graficznych. Wzięto tu pod uwagę strukturę sieci przedstawionej na rysunku 5.3, która zbudowana jest z 11 punktów. Przedstawiono tutaj przebieg potencjału w punkcie piątym a), w punkcie siódmym b), w punkcie dziewiątym c), w punkcie dziesiątym d) i w punkcie jedenastym e) omawianej struktury. Zaobserwowane kolejne pobudzenia potencjału na błonie komórkowej, wynikają przede wszystkim z jakości generatora liczb losowych [27]. 97

102 7.2 Aproksymacja funkcji prostokątnej Rys. 7.1: Przykładowy przebieg potencjału na błonie komórkowej sieci neuronowej o strukturze drzewiastej a) punkt piąty, b) punkt siódmy, c) punkt dziewiąty, d) punkt dziesiąty, e) punkt jedenasty 7.2 Aproksymacja funkcji prostokątnej Model biologicznej komórki nerwowej został wykorzystany do jednego z referencyjnych zagadnień rozwiązywanych przy pomocy sztucznych sieci neuronowych, mianowicie w zagadnieniu aproksymacji. Podczas gdy w przypadku sztucznych sieci neuronowych niezbędna jest struktura zbudowana przynajmniej z jednej warstwy ukrytej, w przypadku modelu komórki nerwowej w zupełności wystarcza jeden neuron, aby z sukcesem przeprowadzić proces aproksymacji, również funkcji nieciągłych. Według teorii Kołmogorowa [47, 48] w przypadku funkcji ciągłych niezbędne jest wykorzystanie trzech warstw w strukturze sztucznej sieci neuronowej: wejściowej, jednej ukrytej zbudowanej z 2N + 1 neuronów, gdzie N oznacza rozmiar wektora wejściowego, oraz warstwy wyjściowej. Teoria ta mówi również o tym, że w przypadku funkcji nieciągłych niezbędne jest dodanie drugiej warstwy ukrytej w strukturze sieci. W niniejszej pracy jako wstęp do dalszych zastosowań przedstawiona została aproksymacja funkcji prostokątnej za pomocą pojedynczej komórki nerwowej według stochastycznego modelu kinetycznego z gradientowym procesem uczenia. Dla przypomnienia główne równanie tego modelu, opisujące potencjał na błonie komórkowej przyjmuje następującą postać: C dv dt = I ḡ Na V V Na ) ḡ K V V K ) g L V V L ) 7.1) Prąd I w tym równaniu jest rozumiany tutaj jako źródło zewnętrzne, traktowany jest on jako wejście do komórki nerwowej. Przebieg uczenia wygląda analogicznie jak w konwencjonalnych sztucznych sieciach neuronowych, to znaczy jako wejście do komórki podawane są wartości 98

103 7.3 Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS osi odciętej, podczas gdy jako wzór potencjał wzorcowy - cel nauki) brane są odpowiednie wartości funkcji prostokątnej. Symulacje przeprowadzone zostały dla 450 próbek. Czas nauki wyniósł 5.27 sekundy, natomiast błąd policzony jako wartość bezwzględna różnicy między wartościami zadanymi a otrzymanymi w wyniku symulacji, wyniósł Na rysunku 7.2 pokazany został przykład działania tej komórki nerwowej w przypadku aproksymacji funkcji prostokątnej. Dla pokazania różnicy pomiędzy szukaną funkcją prostokątną a wynikiem działania komórki nerwowej, został pokazany błąd różnica bezwzględna) pomiędzy tymi dwoma przebiegami. Błąd pomiędzy wykresami tych funkcji jest rzędu 10 3, wykresy tych przebiegów celowo zostały przedstawione na osobnych rysunkach, ze względu na mały błąd i brak możliwości dostrzeżenia różnicy pomiędzy wykresami. 7.3 Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS AHRS ang. Attitude and Heading Reference System) jest to system sensorów, zapewniający odczyt trzech stopni swobody związanych z ruchem obrotowym wokół osi x, y i z. System ten pozwala na obliczenie położenia obiektu w przestrzeni i składa się z czujników MEMS ang. Micro Electro-Mechanical Systems), mianowicie z akcelerometru, żyroskopu i magnetometru [8]. System AHRS umożliwia wyznaczenie orientacji obiektu np. quadrocoptera - rys. 7.3) w przestrzeni na podstawie przyspieszeń liniowych, kątowych oraz zwrotu i siły pola magnetycznego Ziemi. Algorytm wyznaczania kątów Eulera można zapisać w następujących krokach: 1. Zgromadzenie danych z czujników akcelerometr, żyroskop, magnetometr). 2. Normalizacja próbek z czujników inercyjnych i czujnika pola magnetycznego Ziemi. 3. Wyznaczenie wektorów przyspieszenia w zależności od grawitacji i strumienia magnetycznego Ziemi. 4. Ostateczne wyznaczenie kątów Eulera względem trzech osi obrotu x, y i z ang. Roll, Pitch, Yaw). W celu zebrania danych z trzech czujników akcelerometru, żyroskopu i magnetometru) zostało zbudowane urządzenie rejestrujące pokazane na rysunku 7.4. W urządzeniu wykorzystano moduł IMU ang. Inertial Measurement Unit - inercyjny zespół pomiarowy) firmy ATMEL ATAVRSBIN1, który wyposażony jest w trójosiowy akcelerometr, trójosiowy żyroskop i trójosiowy magnetometr. Do odczytu danych wykorzystany został STM32F4-Discovery [40]. Połączenia między komponentami zostały zaimplementowane z wykorzystaniem obwodu drukowanego ang. PCB - Printed Circuit Board), który posiada dodatkowo wbudowany blok zasilający, blok komunikacyjny Bluetooth oraz złącze 99

104 7.3 Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS Rys. 7.2: Aproksymacja funkcji prostokątnej przy pomocy pojedynczej biologicznej komórki nerwowej 100

105 7.3 Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS Rys. 7.3: Quadrocopter1 karty SD. Próbki z akcelerometru i żyroskopu zapisywane były przy częstotliwości 50 [Hz], podczas gdy z magnetometru przy częstotliwości 10 [Hz] [40]. Pozycja obiektu w danej przestrzeni zdefiniowana jest jako przemieszczenie między dwoma układami współrzędnych. Pierwszym systemem może być Ziemia lub punkt, w którym odbywa się kalibracja sensorów. Drugim układem natomiast, jest obiekt sterowania, jak na przykład quadrocopter rys. 7.3). Wartości takie jak kierunek, prędkość, przyspieszenie i ruch mogą być łatwo transformowane z jednego układu współrzędnych do drugiego. Współrzędne w docelowym układzie współrzędnych otrzymuje się poprzez wymnożenie wektora reprezentującego położenie w wyjściowym układzie współrzędnych przez macierz rotacji R, o wymiarze 3 3. Taką macierz określa się jako macierz kosinusów kierunkowych ang. DCM - Direction Cosine Matrices). Konwersja pozycji kątowej między kątami Eulera a reprezentacją DCM dana jest równaniem: 0 x x y0 = R y 7.2) 0 z z 1 Zdjęcie wykonane i udostępnione przez Krzysztofa Kolanowskiego 101

106 7.3 Wykorzystanie komórek nerwowych w algorytmie wyznaczania kątów Eulera poprzez system AHRS Rys. 7.4: Urządzenie rejestrujące dane odczytane z akcelerometru, żyroskopu i magnetometru2 gdzie [52]: cos θ cos ψ sin φ sin θ cos ψ cos φ sin ψ cos φ sin θ cos ψ + sin φ sin ψ R = cos θ sin ψ sin φ sin θ sin ψ + cos φ cos ψ cos φ sin θ sin ψ sin φ cos ψ sin θ sinφ cos θ cos φ cos θ 7.3) zaś kąty φ, θ i ψ odpowiadają kątom Eulera względem trzech osi obrotu Roll, Pitch, Yaw ). Jednym ze sposobów zastąpienia klasycznego algorytmu AHRS jest wykorzystanie kwaternionów. Kwaternion jest to liczba zespolona wyższego rzędu w tym przypadku rzędu czwartego) i zdefiniowany jest następująco: q = q0, q1, q2, q3 ) 7.4) Można też wprowadzić następujący zapis alternatywny: q = q0 + iq1 + jq2 + kq ) Zdjęcie wykonane i udostępnione przez Krzysztofa Kolanowskiego 102

POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej. mgr inż. Aleksandra Świetlicka

POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej. mgr inż. Aleksandra Świetlicka POLITECHNIKA POZNAŃSKA Wydział Informatyki Katedra Inżynierii Komputerowej mgr inż. Aleksandra Świetlicka Stochastyczny model biologicznej sieci neuronowej oparty na kinetycznych schematach Markowa Streszczenie

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Prof. dr hab. inż. Marek Kurzyński Wrocław, Politechnika Wrocławska Wydział Elektroniki Katedra Systemów i Sieci Komputerowych

Prof. dr hab. inż. Marek Kurzyński Wrocław, Politechnika Wrocławska Wydział Elektroniki Katedra Systemów i Sieci Komputerowych Prof. dr hab. inż. Marek Kurzyński Wrocław, 30.11.2013 Politechnika Wrocławska Wydział Elektroniki Katedra Systemów i Sieci Komputerowych R E C E N Z J A rozprawy doktorskiej Pani mgr inż. Aleksandry ŚWIETLICKIEJ

Bardziej szczegółowo

Potencjał spoczynkowy i czynnościowy

Potencjał spoczynkowy i czynnościowy Potencjał spoczynkowy i czynnościowy Marcin Koculak Biologiczne mechanizmy zachowania https://backyardbrains.com/ Powtórka budowy komórki 2 Istota prądu Prąd jest uporządkowanym ruchem cząstek posiadających

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

Wprowadzenie do pulsujących sieci neuronowych

Wprowadzenie do pulsujących sieci neuronowych Zakład Algebry i Kombinatoryki Wydział Matematyki i Nauk Informacyjnych 31 maja 2017 Wstęp Plan prezentacji Biologiczna inspiracja modeli neuronów. Modelowe neuronów naturalnych. Neurony trzeciej generacji

Bardziej szczegółowo

Elektrofizjologia neuronu

Elektrofizjologia neuronu Spis treści Co to jest neuron? 2008-11-13 Spis treści Co to jest neuron? Wstęp Rola jonów w działaniu neronu Potencjał membranowy Stan równowagi Bramki jonowe Dynamika bramek jonowych Model Hodgkina-Huxley

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya

Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya Wstęp do sieci neuronowych, wykład 15, Neuron Hodgkina-Huxleya Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2019-01-21 Projekt pn. Wzmocnienie

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych

Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych Mechatronika i inteligentne systemy produkcyjne Modelowanie systemów mechatronicznych Platformy przetwarzania danych 1 Sterowanie procesem oparte na jego modelu u 1 (t) System rzeczywisty x(t) y(t) Tworzenie

Bardziej szczegółowo

Sposoby modelowania układów dynamicznych. Pytania

Sposoby modelowania układów dynamicznych. Pytania Sposoby modelowania układów dynamicznych Co to jest model dynamiczny? PAScz4 Modelowanie, analiza i synteza układów automatyki samochodowej równania różniczkowe, różnicowe, równania równowagi sił, momentów,

Bardziej szczegółowo

Obiekt. Obiekt sterowania obiekt, który realizuje proces (zaplanowany).

Obiekt. Obiekt sterowania obiekt, który realizuje proces (zaplanowany). SWB - Systemy wbudowane w układach sterowania - wykład 13 asz 1 Obiekt sterowania Wejście Obiekt Wyjście Obiekt sterowania obiekt, który realizuje proces (zaplanowany). Fizyczny obiekt (proces, urządzenie)

Bardziej szczegółowo

Automatyka i sterowania

Automatyka i sterowania Automatyka i sterowania Układy regulacji Regulacja i sterowanie Przykłady regulacji i sterowania Funkcje realizowane przez automatykę: regulacja sterowanie zabezpieczenie optymalizacja Automatyka i sterowanie

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Regulator PID w sterownikach programowalnych GE Fanuc

Regulator PID w sterownikach programowalnych GE Fanuc Regulator PID w sterownikach programowalnych GE Fanuc Wykład w ramach przedmiotu: Sterowniki programowalne Opracował na podstawie dokumentacji GE Fanuc dr inż. Jarosław Tarnawski Cel wykładu Przypomnienie

Bardziej szczegółowo

Ćwiczenie 3 Badanie własności podstawowych liniowych członów automatyki opartych na biernych elementach elektrycznych

Ćwiczenie 3 Badanie własności podstawowych liniowych członów automatyki opartych na biernych elementach elektrycznych Ćwiczenie 3 Badanie własności podstawowych liniowych członów automatyki opartych na biernych elementach elektrycznych Cel ćwiczenia Celem ćwiczenia jest poznanie podstawowych własności członów liniowych

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Modelowanie, sterowanie i symulacja manipulatora o odkształcalnych ramionach. Krzysztof Żurek Gdańsk,

Modelowanie, sterowanie i symulacja manipulatora o odkształcalnych ramionach. Krzysztof Żurek Gdańsk, Modelowanie, sterowanie i symulacja manipulatora o odkształcalnych ramionach Krzysztof Żurek Gdańsk, 2015-06-10 Plan Prezentacji 1. Manipulatory. 2. Wprowadzenie do Metody Elementów Skończonych (MES).

Bardziej szczegółowo

Szybkie prototypowanie w projektowaniu mechatronicznym

Szybkie prototypowanie w projektowaniu mechatronicznym Szybkie prototypowanie w projektowaniu mechatronicznym Systemy wbudowane (Embedded Systems) Systemy wbudowane (ang. Embedded Systems) są to dedykowane architektury komputerowe, które są integralną częścią

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD X: Sztuczny neuron Koneksjonizm: wprowadzenie 1943: Warren McCulloch, Walter Pitts: ogólna teoria przetwarzania informacji oparta na sieciach binarnych

Bardziej szczegółowo

lim Np. lim jest wyrażeniem typu /, a

lim Np. lim jest wyrażeniem typu /, a Wykład 3 Pochodna funkcji złożonej, pochodne wyższych rzędów, reguła de l Hospitala, różniczka funkcji i jej zastosowanie, pochodna jako prędkość zmian 3. Pochodna funkcji złożonej. Jeżeli funkcja złożona

Bardziej szczegółowo

Przekształcanie schematów blokowych. Podczas ćwiczenia poruszane będą następujące zagadnienia:

Przekształcanie schematów blokowych. Podczas ćwiczenia poruszane będą następujące zagadnienia: Warszawa 2017 1 Cel ćwiczenia rachunkowego Podczas ćwiczenia poruszane będą następujące zagadnienia: zasady budowy schematów blokowych układów regulacji automatycznej na podstawie równań operatorowych;

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

1. POJĘCIA PODSTAWOWE I RODZAJE UKŁADÓW AUTOMATYKI

1. POJĘCIA PODSTAWOWE I RODZAJE UKŁADÓW AUTOMATYKI Podstawy automatyki / Józef Lisowski. Gdynia, 2015 Spis treści PRZEDMOWA 9 WSTĘP 11 1. POJĘCIA PODSTAWOWE I RODZAJE UKŁADÓW AUTOMATYKI 17 1.1. Automatyka, sterowanie i regulacja 17 1.2. Obiekt regulacji

Bardziej szczegółowo

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU

Bardziej szczegółowo

Automatyka i robotyka ETP2005L. Laboratorium semestr zimowy

Automatyka i robotyka ETP2005L. Laboratorium semestr zimowy Automatyka i robotyka ETP2005L Laboratorium semestr zimowy 2017-2018 Liniowe człony automatyki x(t) wymuszenie CZŁON (element) OBIEKT AUTOMATYKI y(t) odpowiedź Modelowanie matematyczne obiektów automatyki

Bardziej szczegółowo

1. Regulatory ciągłe liniowe.

1. Regulatory ciągłe liniowe. Laboratorium Podstaw Inżynierii Sterowania Ćwiczenie: Regulacja ciągła PID 1. Regulatory ciągłe liniowe. Zadaniem regulatora w układzie regulacji automatycznej jest wytworzenie sygnału sterującego u(t),

Bardziej szczegółowo

Błona komórkowa grubość od 50 do 100 A. Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne

Błona komórkowa grubość od 50 do 100 A. Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne Błona komórkowa grubość od 50 do 100 A Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne napięcie elektryczne, zwane napięciem na błonie. Różnica potencjałów to ok.

Bardziej szczegółowo

Błona komórkowa grubość od 50 do 100 A. Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne

Błona komórkowa grubość od 50 do 100 A. Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne Błona komórkowa grubość od 50 do 100 A Istnieje pewna różnica potencjałów, po obu stronach błony, czyli na błonie panuje pewne napięcie elektryczne, zwane napięciem na błonie. Różnica potencjałów to ok.

Bardziej szczegółowo

przy warunkach początkowych: 0 = 0, 0 = 0

przy warunkach początkowych: 0 = 0, 0 = 0 MODELE MATEMATYCZNE UKŁADÓW DYNAMICZNYCH Podstawową formą opisu procesów zachodzących w członach lub układach automatyki jest równanie ruchu - równanie dynamiki. Opisuje ono zależność wielkości fizycznych,

Bardziej szczegółowo

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

Rozszerzony konspekt preskryptu do przedmiotu Podstawy Robotyki

Rozszerzony konspekt preskryptu do przedmiotu Podstawy Robotyki Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Rozszerzony konspekt preskryptu do przedmiotu Podstawy Robotyki dr inż. Marek Wojtyra Instytut Techniki Lotniczej

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Rys. 1 Otwarty układ regulacji

Rys. 1 Otwarty układ regulacji Automatyka zajmuje się sterowaniem, czyli celowym oddziaływaniem na obiekt, w taki sposób, aby uzyskać jego pożądane właściwości. Sterowanie często nazywa się regulacją. y zd wartość zadana u sygnał sterujący

Bardziej szczegółowo

Aplikacje Systemów. Nawigacja inercyjna. Gdańsk, 2016

Aplikacje Systemów. Nawigacja inercyjna. Gdańsk, 2016 Aplikacje Systemów Wbudowanych Nawigacja inercyjna Gdańsk, 2016 Klasyfikacja systemów inercyjnych 2 Nawigacja inercyjna Podstawowymi blokami, wchodzącymi w skład systemów nawigacji inercyjnej (INS ang.

Bardziej szczegółowo

PRAWO OHMA DLA PRĄDU PRZEMIENNEGO

PRAWO OHMA DLA PRĄDU PRZEMIENNEGO ĆWICZENIE 53 PRAWO OHMA DLA PRĄDU PRZEMIENNEGO Cel ćwiczenia: wyznaczenie wartości indukcyjności cewek i pojemności kondensatorów przy wykorzystaniu prawa Ohma dla prądu przemiennego; sprawdzenie prawa

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

INSTRUKCJA Regulacja PID, badanie stabilności układów automatyki

INSTRUKCJA Regulacja PID, badanie stabilności układów automatyki Opracowano na podstawie: INSTRUKCJA Regulacja PID, badanie stabilności układów automatyki 1. Kaczorek T.: Teoria sterowania, PWN, Warszawa 1977. 2. Węgrzyn S.: Podstawy automatyki, PWN, Warszawa 1980 3.

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

Instrukcja do ćwiczenia 6 REGULACJA TRÓJPOŁOŻENIOWA

Instrukcja do ćwiczenia 6 REGULACJA TRÓJPOŁOŻENIOWA Instrukcja do ćwiczenia 6 REGULACJA TRÓJPOŁOŻENIOWA Cel ćwiczenia: dobór nastaw regulatora, analiza układu regulacji trójpołożeniowej, określenie jakości regulacji trójpołożeniowej w układzie bez zakłóceń

Bardziej szczegółowo

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego

Bardziej szczegółowo

Efekty kształcenia na kierunku AiR drugiego stopnia - Wiedza Wydziału Elektrotechniki, Automatyki i Informatyki Politechniki Opolskiej

Efekty kształcenia na kierunku AiR drugiego stopnia - Wiedza Wydziału Elektrotechniki, Automatyki i Informatyki Politechniki Opolskiej Efekty na kierunku AiR drugiego stopnia - Wiedza K_W01 K_W02 K_W03 K_W04 K_W05 K_W06 K_W07 K_W08 K_W09 K_W10 K_W11 K_W12 K_W13 K_W14 Ma rozszerzoną wiedzę dotyczącą dynamicznych modeli dyskretnych stosowanych

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Wprowadzenie do technik regulacji automatycznej. prof nzw. dr hab. inż. Krzysztof Patan

Wprowadzenie do technik regulacji automatycznej. prof nzw. dr hab. inż. Krzysztof Patan Wprowadzenie do technik regulacji automatycznej prof nzw. dr hab. inż. Krzysztof Patan Czym jest AUTOMATYKA? Automatyka to dziedzina nauki i techniki zajmująca się teorią i praktycznym zastosowaniem urządzeń

Bardziej szczegółowo

Analogowy sterownik silnika krokowego oparty na układzie avt 1314

Analogowy sterownik silnika krokowego oparty na układzie avt 1314 Katedra Energoelektroniki i Automatyki Systemów Przetwarzania Energii 51 Konferencja Studenckich Kół Naukowych Bartłomiej Dąbek Adrian Durak - Elektrotechnika 3 rok - Elektrotechnika 3 rok Analogowy sterownik

Bardziej szczegółowo

Budowa i zróżnicowanie neuronów - elektrofizjologia neuronu

Budowa i zróżnicowanie neuronów - elektrofizjologia neuronu Budowa i zróżnicowanie neuronów - elektrofizjologia neuronu Neuron jest podstawową jednostką przetwarzania informacji w mózgu. Sygnał biegnie w nim w kierunku od dendrytów, poprzez akson, do synaps. Neuron

Bardziej szczegółowo

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe Przetworniki cyfrowo / analogowe W cyfrowych systemach pomiarowych często zachodzi konieczność zmiany sygnału cyfrowego na analogowy, np. w celu

Bardziej szczegółowo

Ćwiczenie: "Obwody prądu sinusoidalnego jednofazowego"

Ćwiczenie: Obwody prądu sinusoidalnego jednofazowego Ćwiczenie: "Obwody prądu sinusoidalnego jednofazowego" Opracowane w ramach projektu: "Informatyka mój sposób na poznanie i opisanie świata realizowanego przez Warszawską Wyższą Szkołę Informatyki. Zakres

Bardziej szczegółowo

RÓWNANIA RÓŻNICZKOWE WYKŁAD 4

RÓWNANIA RÓŻNICZKOWE WYKŁAD 4 RÓWNANIA RÓŻNICZKOWE WYKŁAD 4 Obszar określoności równania Jeżeli występująca w równaniu y' f ( x, y) funkcja f jest ciągła, to równanie posiada rozwiązanie. Jeżeli f jest nieokreślona w punkcie (x 0,

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Ćwiczenie nr 1 Odpowiedzi czasowe układów dynamicznych

Ćwiczenie nr 1 Odpowiedzi czasowe układów dynamicznych Ćwiczenie nr 1 Odpowiedzi czasowe układów dynamicznych 1. Cel ćwiczenia Celem ćwiczenia jest zapoznanie studentów z metodą wyznaczania odpowiedzi skokowych oraz impulsowych podstawowych obiektów regulacji.

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych XXXVIII MIĘDZYUCZELNIANIA KONFERENCJA METROLOGÓW MKM 06 Warszawa Białobrzegi, 4-6 września 2006 r. Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych Eligiusz PAWŁOWSKI Politechnika

Bardziej szczegółowo

Simulink MATLAB Przegląd obiektów i przykłady zastosowań

Simulink MATLAB Przegląd obiektów i przykłady zastosowań Simulink MATLAB Przegląd obiektów i przykłady zastosowań M. Berndt-Schreiber 1 Simulink MATLAB SIMULINK jest rozszerzeniem pakietu MATLAB; przy pomocy graficznego środowiska pozwala konstruować diagramy

Bardziej szczegółowo

Wykład 1: Wprowadzenie do sieci neuronowych

Wykład 1: Wprowadzenie do sieci neuronowych Wykład 1: Wprowadzenie do sieci neuronowych Historia badań nad sieciami neuronowymi. - początki: badanie komórek ośrodkowego układu nerwowego zwierząt i człowieka, czyli neuronów; próby wyjaśnienia i matematycznego

Bardziej szczegółowo

Wykład z Technologii Informacyjnych. Piotr Mika

Wykład z Technologii Informacyjnych. Piotr Mika Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Katedra Automatyzacji Laboratorium Podstaw Automatyzacji Produkcji Laboratorium Podstaw Automatyzacji

Katedra Automatyzacji Laboratorium Podstaw Automatyzacji Produkcji Laboratorium Podstaw Automatyzacji Katedra Automatyzacji Laboratorium Podstaw Automatyzacji Produkcji Laboratorium Podstaw Automatyzacji Opracowanie: mgr inż. Krystian Łygas, inż. Wojciech Danilczuk Na podstawie materiałów Prof. dr hab.

Bardziej szczegółowo

Praktyczne aspekty modelowania układu nerwowego

Praktyczne aspekty modelowania układu nerwowego Praktyczne aspekty modelowania układu nerwowego Ćwiczenia 1 Modelowanie układu nerwowego w GENESIS dr Daniel Wójcik d.wojcik [malpa] nencki.gov.pl na podstawie The Book of GENESIS Modelowanie 1)Tworzymy

Bardziej szczegółowo

Układy stochastyczne

Układy stochastyczne Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.

Bardziej szczegółowo

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0,

W celu obliczenia charakterystyki częstotliwościowej zastosujemy wzór 1. charakterystyka amplitudowa 0, Bierne obwody RC. Filtr dolnoprzepustowy. Filtr dolnoprzepustowy jest układem przenoszącym sygnały o małej częstotliwości bez zmian, a powodującym tłumienie i opóźnienie fazy sygnałów o większych częstotliwościach.

Bardziej szczegółowo

wiedzy Sieci neuronowe

wiedzy Sieci neuronowe Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci

Bardziej szczegółowo

Politechnika Warszawska Instytut Automatyki i Robotyki. Prof. dr hab. inż. Jan Maciej Kościelny PODSTAWY AUTOMATYKI

Politechnika Warszawska Instytut Automatyki i Robotyki. Prof. dr hab. inż. Jan Maciej Kościelny PODSTAWY AUTOMATYKI Politechnika Warszawska Instytut Automatyki i Robotyki Prof. dr hab. inż. Jan Maciej Kościelny PODSTAWY AUTOMATYKI 12. Regulacja dwu- i trójpołożeniowa (wg. Holejko, Kościelny: Automatyka procesów ciągłych)

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Lista zagadnień kierunkowych pomocniczych w przygotowaniu do egzaminu dyplomowego magisterskiego Kierunek: Mechatronika

Lista zagadnień kierunkowych pomocniczych w przygotowaniu do egzaminu dyplomowego magisterskiego Kierunek: Mechatronika Lista zagadnień kierunkowych pomocniczych w przygotowaniu do Kierunek: Mechatronika 1. Materiały używane w budowie urządzeń precyzyjnych. 2. Rodzaje stali węglowych i stopowych, 3. Granica sprężystości

Bardziej szczegółowo

Sterowniki Programowalne (SP)

Sterowniki Programowalne (SP) Sterowniki Programowalne (SP) Wybrane aspekty procesu tworzenia oprogramowania dla sterownika PLC Podstawy języka funkcjonalnych schematów blokowych (FBD) Politechnika Gdańska Wydział Elektrotechniki i

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Dobór parametrów regulatora - symulacja komputerowa. Najprostszy układ automatycznej regulacji można przedstawić za pomocą

Dobór parametrów regulatora - symulacja komputerowa. Najprostszy układ automatycznej regulacji można przedstawić za pomocą Politechnika Świętokrzyska Wydział Mechatroniki i Budowy Maszyn Centrum Laserowych Technologii Metali PŚk i PAN Zakład Informatyki i Robotyki Przedmiot:Podstawy Automatyzacji - laboratorium, rok I, sem.

Bardziej szczegółowo

Proste układy wykonawcze

Proste układy wykonawcze Proste układy wykonawcze sterowanie przekaźnikami, tyrystorami i małymi silnikami elektrycznymi Ryszard J. Barczyński, 2016 Politechnika Gdańska, Wydział FTiMS, Katedra Fizyki Ciała Stałego Materiały dydaktyczne

Bardziej szczegółowo

Układ regulacji ze sprzężeniem zwrotnym: - układ regulacji kaskadowej - układ regulacji stosunku

Układ regulacji ze sprzężeniem zwrotnym: - układ regulacji kaskadowej - układ regulacji stosunku Układ regulacji ze sprzężeniem zwrotnym: - układ regulacji kaskadowej - układ regulacji stosunku Przemysłowe Układy Sterowania PID Opracowanie: dr inż. Tomasz Rutkowski Katedra Inżynierii Systemów Sterowania

Bardziej szczegółowo

Automatyzacja. Ćwiczenie 9. Transformata Laplace a sygnałów w układach automatycznej regulacji

Automatyzacja. Ćwiczenie 9. Transformata Laplace a sygnałów w układach automatycznej regulacji Automatyzacja Ćwiczenie 9 Transformata Laplace a sygnałów w układach automatycznej regulacji Rodzaje elementów w układach automatyki Blok: prostokąt ze strzałkami reprezentującymi jego sygnał wejściowy

Bardziej szczegółowo

3 Podstawy teorii drgań układów o skupionych masach

3 Podstawy teorii drgań układów o skupionych masach 3 Podstawy teorii drgań układów o skupionych masach 3.1 Drgania układu o jednym stopniu swobody Rozpatrzmy elementarny układ drgający, nazywany też oscylatorem harmonicznym, składający się ze sprężyny

Bardziej szczegółowo

PRACA DYPLOMOWA MAGISTERSKA

PRACA DYPLOMOWA MAGISTERSKA Politechnika Poznańska Wydział Budowy Maszyn i Zarządzania PRACA DYPLOMOWA MAGISTERSKA Konstrukcja autonomicznego robota mobilnego Małgorzata Bartoszewicz Promotor: prof. dr hab. inż. A. Milecki Zakres

Bardziej szczegółowo

MECHANIKA II. Praca i energia punktu materialnego

MECHANIKA II. Praca i energia punktu materialnego MECHANIKA II. Praca i energia punktu materialnego Daniel Lewandowski Politechnika Wrocławska, Wydział Mechaniczny, Katedra Mechaniki i Inżynierii Materiałowej http://kmim.wm.pwr.edu.pl/lewandowski/ daniel.lewandowski@pwr.edu.pl

Bardziej szczegółowo

Podstawy Automatyki. Wykład 7 - obiekty regulacji. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Podstawy Automatyki. Wykład 7 - obiekty regulacji. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki Wykład 7 - obiekty regulacji Instytut Automatyki i Robotyki Warszawa, 2018 Obiekty regulacji Obiekt regulacji Obiektem regulacji nazywamy proces technologiczny podlegający oddziaływaniu zakłóceń, zachodzący

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Ćwiczenie ELE. Jacek Grela, Łukasz Marciniak 3 grudnia Rys.1 Schemat wzmacniacza ładunkowego.

Ćwiczenie ELE. Jacek Grela, Łukasz Marciniak 3 grudnia Rys.1 Schemat wzmacniacza ładunkowego. Ćwiczenie ELE Jacek Grela, Łukasz Marciniak 3 grudnia 2009 1 Wstęp teoretyczny 1.1 Wzmacniacz ładunkoczuły Rys.1 Schemat wzmacniacza ładunkowego. C T - adaptor ładunkowy, i - źródło prądu reprezentujące

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Regulator PID w sterownikach programowalnych GE Fanuc

Regulator PID w sterownikach programowalnych GE Fanuc Regulator PID w sterownikach programowalnych GE Fanuc Wykład w ramach przedmiotu: Sterowniki programowalne Opracował na podstawie dokumentacji GE Fanuc dr inż. Jarosław Tarnawski Cel wykładu Przypomnienie

Bardziej szczegółowo

WIZUALIZACJA I STEROWANIE ROBOTEM

WIZUALIZACJA I STEROWANIE ROBOTEM Maciej Wochal, Opiekun koła: Dr inż. Dawid Cekus Politechnika Częstochowska, Wydział Inżynierii Mechanicznej i Informatyki, Instytut Mechaniki i Podstaw Konstrukcji Maszyn, Koło Naukowe Komputerowego Projektowania

Bardziej szczegółowo

OPISY PRZESTRZENNE I PRZEKSZTAŁCENIA

OPISY PRZESTRZENNE I PRZEKSZTAŁCENIA OPISY PRZESTRZENNE I PRZEKSZTAŁCENIA Wprowadzenie W robotyce przez pojęcie manipulacji rozumiemy przemieszczanie w przestrzeni przedmiotów i narzędzi za pomocą specjalnego mechanizmu. W związku z tym pojawia

Bardziej szczegółowo

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 3 Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika

Bardziej szczegółowo

Opinia o pracy doktorskiej pt. On active disturbance rejection in robotic motion control autorstwa mgr inż. Rafała Madońskiego

Opinia o pracy doktorskiej pt. On active disturbance rejection in robotic motion control autorstwa mgr inż. Rafała Madońskiego Prof. dr hab. inż. Tadeusz Uhl Katedra Robotyki i Mechatroniki Akademia Górniczo Hutnicza Al. Mickiewicza 30 30-059 Kraków Kraków 09.06.2016 Opinia o pracy doktorskiej pt. On active disturbance rejection

Bardziej szczegółowo

Podstawy Elektrotechniki i Elektroniki. Opracował: Mgr inż. Marek Staude

Podstawy Elektrotechniki i Elektroniki. Opracował: Mgr inż. Marek Staude Podstawy Elektrotechniki i Elektroniki Opracował: Mgr inż. Marek Staude Część 1 Podstawowe prawa obwodów elektrycznych Prąd elektryczny definicja fizyczna Prąd elektryczny powstaje jako uporządkowany ruch

Bardziej szczegółowo

Automatyka i Regulacja Automatyczna Laboratorium Zagadnienia Seria II

Automatyka i Regulacja Automatyczna Laboratorium Zagadnienia Seria II Automatyka i Regulacja Automatyczna Laboratorium Zagadnienia Seria II Zagadnienia na ocenę 3.0 1. Podaj transmitancję oraz naszkicuj teoretyczną odpowiedź skokową układu całkującego z inercją 1-go rzędu.

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

METODY OBLICZENIOWE. Projekt nr 3.4. Dariusz Ostrowski, Wojciech Muła 2FD/L03

METODY OBLICZENIOWE. Projekt nr 3.4. Dariusz Ostrowski, Wojciech Muła 2FD/L03 METODY OBLICZENIOWE Projekt nr 3.4 Dariusz Ostrowski, Wojciech Muła 2FD/L03 Zadanie Nasze zadanie składało się z dwóch części: 1. Sformułowanie, przy użyciu metody Lagrange a II rodzaju, równania różniczkowego

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

II. Równania autonomiczne. 1. Podstawowe pojęcia.

II. Równania autonomiczne. 1. Podstawowe pojęcia. II. Równania autonomiczne. 1. Podstawowe pojęcia. Definicja 1.1. Niech Q R n, n 1, będzie danym zbiorem i niech f : Q R n będzie daną funkcją określoną na Q. Równanie różniczkowe postaci (1.1) x = f(x),

Bardziej szczegółowo

Podstawy Automatyki. Wykład 4 - algebra schematów blokowych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

Podstawy Automatyki. Wykład 4 - algebra schematów blokowych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki Wykład 4 - algebra schematów blokowych Instytut Automatyki i Robotyki Warszawa, 2015 Wstęp Schemat blokowy Schemat blokowy (strukturalny): przedstawia wzajemne powiązania pomiędzy poszczególnymi zespołami

Bardziej szczegółowo

Ćwiczenie 10 Temat: Własności tranzystora. Podstawowe własności tranzystora Cel ćwiczenia

Ćwiczenie 10 Temat: Własności tranzystora. Podstawowe własności tranzystora Cel ćwiczenia Ćwiczenie 10 Temat: Własności tranzystora. Podstawowe własności tranzystora Cel ćwiczenia Poznanie podstawowych własności tranzystora. Wyznaczenie prądów tranzystorów typu n-p-n i p-n-p. Czytanie schematów

Bardziej szczegółowo

Prof. dr hab. inż. Lech M. Grzesiak Politechnika Warszawska, Wydział Elektryczny

Prof. dr hab. inż. Lech M. Grzesiak Politechnika Warszawska, Wydział Elektryczny Prof. dr hab. inż. Lech M. Grzesiak Politechnika Warszawska, Wydział Elektryczny Recenzja rozprawy doktorskiej mgr. inż. Karola Tatara pt. Synteza regulatorów ślizgowych dla przetworników energoelektronicznych

Bardziej szczegółowo

Automatyka i pomiary wielkości fizykochemicznych. Instrukcja do ćwiczenia VI Dobór nastaw regulatora typu PID metodą Zieglera-Nicholsa.

Automatyka i pomiary wielkości fizykochemicznych. Instrukcja do ćwiczenia VI Dobór nastaw regulatora typu PID metodą Zieglera-Nicholsa. Automatyka i pomiary wielkości fizykochemicznych Instrukcja do ćwiczenia VI Dobór nastaw regulatora typu PID metodą Zieglera-Nicholsa. 1. Wprowadzenie Regulator PID (regulator proporcjonalno-całkująco-różniczkujący,

Bardziej szczegółowo