Alternatywne modele neuronów i wªa±ciwo±ci ich sieci

Wielkość: px
Rozpocząć pokaz od strony:

Download "Alternatywne modele neuronów i wªa±ciwo±ci ich sieci"

Transkrypt

1 Uniwersytet Marii Curie-Skªodowskiej w Lublinie Wydziaª Matematyki, Fizyki i Informatyki Beata Joanna Grzyb Alternatywne modele neuronów i wªa±ciwo±ci ich sieci (Alternative neuron models and properties of their networks) Praca magisterska wykonana w Zakªadzie Ukªadów Zªo»onych i Neurodynamiki pod kierunkiem naukowym Prof. dr hab. Wiesªawa A. Kami«skiego Lublin 2007

2 Spis tre±ci Spis rysunków 4 Spis tablic 6 Wst p 7 1 Neuron biologiczny i jego wªa±ciwo±ci Rodzaje neuronów Ogólna budowa neuronu Potencjaª spoczynkowy Potencjaª czynno±ciowy Budowa i rodzaje synaps Szybkie przeka¹nictwo synaptyczne Neuronalna reprezentacja informacji Najwa»niejsze cechy i charakterystyki neuronu Modele neuronów biologicznych Klasykacja modeli neuronów Model Integrate-and-re Model Resonate-and-Fire Model Hodgkina-Huxleya Model FitzHugh-Nagumo Model Morrisa-Lecara Model Hindmarsha-Rose Model Izhikevicha Model FC Porównanie wªa±ciwo±ci modeli neuronów

3 3 Sieci neuronów biologicznych Sieci neuronów impulsowych Koncepcja oblicze«pªynowych Budowa maszyny pªynowej Biologiczne przesªanki maszyny pªynowej Wªa±ciwo±ci maszyny pªynowej Maszyna pªynowa a maszyna echowa Wªa±ciwo±ci maszyny pªynowej dla ró»nych modeli neuronów Model maszyny pªynowej Metody bada« Wyniki bada« Aktywno± neuronów w czasie symulacji Odlegªo± euklidesowa Indywidualna i globalna entropia informacyjna Rozpoznawanie ekspresji twarzy przy u»yciu maszyny pªynowej Systemy rozpoznawania ekspresji twarzy Zbiór danych i ich reprezentacja Architektura systemu Wyniki bada« Podsumowanie 79 Bibliograa 81 3

4 Spis rysunków 1.1 Zró»nicowana struktura przestrzenna komórek nerwowych Uproszczony wygl d neuronu i jego cz ±ci skªadowe Powstawanie potencjaªu spoczynkowego Rejestracja potencjaªu czynno±ciowego w komórce Schematyczny przekrój synapsy Podsumowanie najwa»niejszych wªa±ciwo±ci biologicznych neuronów Schematyczny wykres modelu integrate-and-re Przykªadowe odpowiedzi modeli resonate-and-re Porównanie odpowiedzi modelu integrate-and-re oraz resonate-and-re Pomocniczy schemat dla modelu Hodgkina-Huxleya Wykresy funkcji dla m (V ), n (V ), h (V ), τ m (V ), τ n (V ), τ h (V ) Przebieg m(t) oraz m (V (t)) Przebieg n(t) + h(t) Schemat modelu Morrisa-Lecara Przykªadowe odpowiedzi modelu Morrisa-Lecara Ró»ne wzorce odpowiedzi modeli Hindmarsha-Rose Porównanie odpowiedzi neuronów kory ruchowej szczura i modelu Izhikevicha Graczna interpretacja parametrów modelu Izhikevicha Budowa modelu FC Przekrój synapsy w modelu FC Schemat dziaªania modelu FC Porównanie wªa±ciwo±ci modeli neuronów Wielowarstwowy perceptron Rekurencyjna sie neuronowa Impulsowa sie neuronowa Schemat dla reguªy Hebba Sprz towa implementacja maszyny pªynowej

5 3.6 Typowe wzory fal dla problemu XOR Architektura maszyny pªynowej oraz jej neuronowa implementacja Wªa±ciwo± separowalno±ci losowo wygenerowanej maszyny LSM Model maszyny pªynowej Ci gi impulsów podawane na siatkówk. Wzorzec W Ci gi impulsów podawane na siatkówk. Wzorzec W Odpowiedzi maszyny pªynowej zªo»onej z ró»nych modeli neuronów Odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»enej z ró»nych modeli neuronów Odlegªo± euklidesowa stanów maszyny pªynowej dla ró»nych modeli neuronów Entropia lokalna dla maszyny pªynowej zªo»enej z ró»nych modeli neuronów Entropia globalna dla maszyny pªynowej zªo»enej z ró»nych modeli neuronów Przykªadowe zdj cia z bazy expresji twarzy JAFFE Reprezentacja gaborowska twarzy Binarna reprezentacja cz ±ci obrazu Archiktektura maszyny pªynowej z zaznaczonymi poª czeniami wchodz cymi oraz wychodz cymi dla wybranego neuronu z warstwy ±rodkowej

6 Spis tablic 2.1 Oryginalne warto±ci równa«hodgkina-huxleya Porównanie algorytmów rozpoznawania ekspresji twarzy Przykªady poprawnego rozpoznania emocji przez sie Przykªady bª dnego rozpoznania emocji przez sie Porównanie wyników rozpoznania ekspresji obu reprezentacji twarzy Porównanie wyników rozpoznania ekspresji w poszczególnych grupach testowych dla ró»nych modeli neuronów Porównanie wyników rozpoznania ekspresji twarzy dla ró»nych modeli neuronów Wyniki rozpoznania ekspresji przez badan grup osób

7 Wst p Pierwotn inspiracj sztucznej sieci neuronowej stanowiªa budowa naturalnych ukªadów nerwowych, a w szczególno±ci mózgu. Badania nad modelowaniem sztucznych sieci neuronowych zostaªy zapocz tkowane wraz z wydaniem w 1943 roku historycznej pracy McCullocha i Pittsa 1, w której przedstawiono matematyczny opis komórki nerwowej oraz powi zano go z problemem przetwarzania danych. Perceptron byª pierwszym praktycznie zastosowanym modelem sieci neuronowej. Zbudowany zostaª w 1957 roku przez Rosenblatta i Wightmana jako system do rozpoznawania znaków alfanumerycznych z uczeniem jako metod programowania. Dziaªanie perceptronu nie byªo zadowalaj ce z punktu widzenia zasadniczego celu bada«. Chocia» ukªad uczyª si rozpoznawania, to nie radziª sobie z bardziej zªo»onymi znakami wykazuj c wra»liwo± na zmian skali rozpoznawanych obiektów, ich poªo»enia w polu widzenia oraz zmiany ksztaªtu. W trakcie bada«zauwa»ono wa»n zalet perceptronu, a mianowicie jego zdolno± do zachowywania poprawnego dziaªania nawet po uszkodzeniu pewnej cz ±ci jego elementów. Pierwszym komercyjnym neurokomputerem byªa stworzona w 1960 roku przez Widrowa i Hoa sie Madaline skªadaj ca si z adaptacyjnych neuronów liniowych, zwanych równie» adalinami 2. Sie ta posiadaªa zdolno± do adaptacyjnego przetwarzania sygnaªów i wykorzystywana byªa w radarach, sonarach oraz w telekomunikacji. Rok 1969 byª rokiem upadku idei sztucznych sieci neuronowych. Ukazaªa si wówczas ksi»ka Minsky'ego oraz Paperta 3, w której skrytykowano ide perceptronu pokazuj c na wielu przykªadach jego ograniczenia. Spowodowaªo to w rezultacie przerwanie bada«w tym kierunku w wielu o±rodkach i wieloletni zastój w badaniach nad sieciami neuronowymi. Nie oznacza to jednak,»e w latach 70tych nie byªo»adnych osi gnie w dziedzinie sieci neuronowych, z których warto wymieni : stworzenie przez Werbosa nowego schematu uczenia sieci, badania nad pami ci asocjacyjn prowadzone przez Kohonena i Andersona, opracowanie przez Kohonena ucz cej si bez nauczyciela sieci neuronowej oraz wprowadzenie teorii adaptacyjnych sieci rezonansowych przez Grossberga i Carpentera. 1 ang. A logical calculus of the ideas immanent in nervous activity 2 ang. ADAptive LInear NEuron 3 ang. An introduction on computational geometry 7

8 Kolejne o»ywienie spowodowaªo opublikowanie w 1986 roku dwutomowej monograi opracowanej przez McClellanda i Rumelharta na temat równolegªego przetwarzania rozproszonego. Publikacja ta otworzyªa now er dla kiedy± niedocenionych mo»liwo±ci sieci warstwowych. Od poªowy lat 80tych ubiegªego wieku zacz ª si prawdziwy wy±cig, którego uczestnikami obok laboratoriów badawczych s tak»e rmy produkuj ce ukªady elektroniczne. Przez caªe lata za podstawow jednostk obliczeniow w mózgu uwa»ano komórke nerwow. Ostatnie badania wykazaªy jednak,»e w ukªadach biologicznych pojedynczy neuron nie jest w stanie przetwarza wszystkich docieraj cych do niego informacji. Rol podstawowej jednostki obliczeniowej speªniaj ukªady neuronów tworz ce mikroobwody. Do badania mikroobwodów stosuje si obecnie gªównie symulacje komputerowe, których analiz uwa»a si za równowa»n obserwacjom biologicznym. Nowatorskim podej±ciem do symulacji mikroobwodów jest teoria maszyn pªynowych 4. Wedªug niej fragmenty mózgu traktuje si jako ukªady posiadaj ce okre±lone zdolno±ci obliczeniowe. Model maszyny pªynowej nie wymaga szczegóªowej analizy zachowania poszczególnych neuronów czy te» poª cze«pomi dzy nimi. Podej±cie to jest poprawne biologicznie i umo»liwia na znaczne skrócenie czasu symulacji. Do tej pory w badaniach wªa±ciwo±ci maszyn pªynowych u»ywane byªy najprostsze impulsowe modele neuronów typu integrate-and-re oraz te najbardziej zªo»one modele Hodgkina-Huxleya. Celem niniejszej pracy jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej i zbadanie podstawowych jej wªa±ciwo±ci w zale»no±ci od u»ytych modeli neuronów oraz stworzenie w oparciu o teori maszyn pªynowych systemu rozpoznaj cego ekspresje twarzy. Praca skªada si z pi ciu rozdziaªów. Celem rozdziaªu 1 jest wprowadzenie do podstawowych zaªo»e«neurobiologii. Omówiona zostaªa budowa i funkcje poszczególnych cz ±ci typowej komórki nerwowej oraz sposób dziaªania i rola synaps w przekazywaniu informacji. Opisane zostaªo zjawisko okre±lane jako potencjaª czynno±ciowy oraz wytªumaczone towarzysz ce mu poj cia takie jak: bezwzgl dny i wzgl dny okres refrakcji oraz próg pobudzenia. W podsumowaniu rozdziaªu zamieszczono najwa»niejsze cechy i charakterystyki neuronu z punktu widzenia modelowania. Rozdziaª 2 zawiera przegl d najwa»niejszch modeli neuronów. Omówione zostaªy biologiczne modele neuronów takie jak: integrate-and-re, resonate-and-re, Hodgkina-Huxleya, FitzHugh- Nagumo, Hindmarsha-Rose, Izhikevicha oraz FC. W rozdziale uj to tak»e taberyczne porównanie najistotniejszych wªa±ciwo±ci zaprezentowanych modeli. W rozdziale 3 omówiona zostaªa ogólna koncepcja impulsowych sieci neuronowych oraz ich wady i zalety na tle konwencjonalnych sztucznych sieci neuronowych. Ponadto przedstawiona zostaªa ogólna teoria maszyny pªynowej oraz jej biologiczne przesªanki. Przedmiotem zainteresowania rozdziaªu 4 jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej oraz zbadanie jej podstawowych wªa±ciwo±ci w zale»no±ci od u»ytych modeli 4 ang. Liquid State Machine (LSM) 8

9 neuronów. Zbudowana w celu zbadania wªa±ciwo±ci maszyny pªynowej architektura opiera si na uproszczonym modelu ukªadu wzrokowego. Zamieszczone w rozdziale graczne przebiegi stanów aktywno±ci neuronów maszyny pªynowej pozwoliªy na zobrazowanie ró»nic w dynamice poszczególnych modeli neuronów. Do scharakteryzowania przepªywu informacji w maszynie pªynowej posªu»ono si miar entropii indywidualnej i globalnej. Natomiast do okre±lenia i porównania zdolno±ci asocjacyjnych maszyn pªynowych wykorzystano analiz odlegªo±ci euklidesowej. Caªkowicie nowe podej±cie do zagadnienia rozpoznawania ekspresji twarzy oparte na modelu maszyny pªynowej zostaªo przedstawione w rozdziale 5. Skonfrontowane zostaªy dwa sposoby przetwarzania informacji z obrazu twarzy oraz ich wpªyw na wynik rozpoznania poszczególnych emocji. Ponadto porównane zostaªy wyniki prawidªowego rozpoznania ekspresji dla ró»nych modeli neuronów u»ytych w warstwie pªynowej opracowanego systemu. Niniejsza praca zostaªa oparta gªównie na materiaªach i opracowaniach dost pnych w sieci Internet. Wszystkie symulacje omawiane w pracy przeprowadzone zostaªy przy u»yciu symulatora ukªadów neuronowych CSim w ±rodowisku programistycznym Matlab. Do bada«systemu rozpoznaj cego emocje wykorzystano baz zdj ekspresji twarzy JAFFE. W pracy gªówn metod badawcz jest metoda opisowa. Charakteryzuje ona dane zjawisko w sposób ilo±ciowy i jako±ciowy, czyli opis sªowny przeplata si z informacjami liczbowymi dotycz cymi badanego zjawiska. Du»y nacisk poªo»ono na aktualno± informacji i danych, tak aby w jak najwi kszym stopniu odzwierciedlaªy one procesy zachodz ce w badaniach nad sztucznymi sieciami neuronowymi na wiecie. Autorka chciaªaby serdecznie podzi kowa Panu Profesorowi Wiesªawowi A. Kami«skiemu i Panu Doktorowi Grzegorzowi M. Wójcikowi za po±wi cenie swojego czasu, okazan»yczliwo± oraz liczne wnikliwe uwagi i pomocne sugestie przekazane w trakcie przygotowywania niniejszej pracy. Oddzielne, serdeczne podzi kowania skªada Panu Doktorowi Jackowi Biaªow sowi za wiele cennych wskazówek oraz owocn wspóªprac przy tworzeniu modelu neuronu FC. 9

10 Rozdziaª 1 Neuron biologiczny i jego wªa±ciwo±ci Pierwowzorem sztucznych sieci neuronowych jest ludzki mózg, uznawany wspóªcze±nie za najbardziej zªo»ony obiekt we wszech±wiecie. Komórki, stanowi ce podstawow jednostk strukturaln i czynno±ciow mózgu nazywane s komórkami nerwowymi, w skrócie neuronami. 1.1 Rodzaje neuronów Neurony ró»ni si znacznie ksztaªtami i rozmiarami, liczb tworzonych synaps, czy te» rodzajem wydzielanych zwi zków chemicznych [1]. Dlatego te» nie mo»emy mówi o czym± takim jak typowy neuron. Rysunek 1.1 przedstawia neurony zró»nicowane pod wzgl dem struktury przestrzennej. Rysunek 1.1: Zró»nicowana struktura przestrzenna komórek nerwowych. ródªo: 10

11 Neurony mo»emy klasykowa na podstawie cech strukturalnych, tj. np.: rozmiaru i liczby posiadanych neurytów, czyli elementów odpowiedzialnych za przekazywanie informacji z ciaªa komórki do kolejnych neuronów lub innych komórek. Komórki z jednym, dwoma lub wi cej neurytami nazywane s odpowiednio jedno-, dwu- i wielobiegunowymi. Dendryt, czyli element neuronu b d cy zazwyczaj rozgaª zion struktur przenosz c sygnaªy otrzymywane z innych neuronów lub komórek do ciaªa neuronu, równie» mo»e stanowi podstaw klasykacji neuronów. Bior c pod uwag ksztaªt drzewka dendrytycznego mo»emy wyró»ni, np.: komórki piramidalne, komórki gwie¹dziste czy te» komórki Purkinjego [1]. Dªugo± aksonów równie» mo»e stanowi podstaw ich klasykacji. Neurony wyposa»one w dªugi akson nale» do grupy Golgi I (np. komórki piramidalne, komórki Purkinjego), za± neurony gwia¹dziste, gdzie akson ma dªugo± nie wi ksz ni» dendryty, tworz grup Golgi II [2]. Analiza poª cze«jakie tworz neurony, pozwala na ich klasykacj ze wzgl du na peªnione funkcje. Mo»emy tu wy- ªoni neurony aferentne (czuciowe lub zmysªowe) przewodz ce impulsy od receptorów czuciowych, neurony eferentne (ruchowe lub motoneuronowe) przewodz ce impulsy do efektorów (mi ±nie, gruczoªy) oraz neurony po±rednicz ce (kojarzeniowe, asocjacyjne) transmituj ce impulsy od neuronów czuciowych do ruchowych [1]. 1.2 Ogólna budowa neuronu Uproszczony wygl d komórki nerwowej zostaª przedstawiony na rysunku 1.2. Neuron skªada si z bªony komórkowej otaczaj cej cytoplazm, centralny jego element stanowi perikarion czyli ciaªo komórki. Z tej cz ±ci neuronu wyrastaj neuryty, dªugie cylindryczne wypustki dwojakiego rodzaju, dendryty i aksony. Dendryty s silnie rozgaª zionymi przedªu»eniami ciaªa komórki, na nie przypada na ogóª najwi ksza cze± (ponad 90%) obszaru zajmowanego przez neuron [2]. Rysunek 1.2: Uproszczony wygl d neuronu i jego cz ±ci skªadowe. ródªo: 11

12 Czynno±ciowo dendryty i ciaªo komórki tworz jedn caªo± odbieraj c sygnaªy docieraj ce tu z receptorów lub innych neuronów. Komórki nerwowe zwykle maj tylko jeden akson, który przewa»nie wychodzi z ciaªa komórki. Poprzez akson i jego liczne odgaª zienia sygnaª jest wysyªany z neuronu do s siednich neuronów lub do narz dów wykonawczych. Akson odpowiada zatem za cz ± nadawcz neuronu. Oprócz bªony pokrywaj cej caªy neuron, akson mo»e mie dodatkowo jedn lub dwie osªonki. Bli»sza aksonu, osªonka mielinowa, przypomina ponacinan izolacj na kablu elektrycznym. Zbudowana jest z wysokooporowej elektrycznie substancji tªuszczowo-biaªkowej zwanej mielin, a jej segmenty poprzedzielane s fragmentami nieosªoni tymi, zwanymi przew -»eniami Ranviera. Osªonka ta ma podstawowe znaczenie dla pr dko±ci przewodzenia impulsów wzdªu» aksonu. Druga osªonka, zwana osªonk Schwanna wyst puje na niektórych, przewa»nie najcie«szych wªóknach, w grubszych natomiast pokrywa osªonk mielinow na zewn trz [2]. 1.3 Potencjaª spoczynkowy Mi dzy obu stronami bªony plazmatycznej istnieje okre±lona ró»nica potencjaªu elektrycznego. Komórki nerwowe, które w wyniku odpowiednio silnego pobudzenia s w stanie wytworzy potencjaª czynno±ciowy nazwane s pobudliwymi. Potencjaª spoczynkowy natomiast deniowany jest jako ró»nica mi dzy obu stronami nie pobudzonej komórki pobudliwej. Wszystkie napi cia na bªonie komórkowej wyra»ane s jako stosunek potencjaªu wn trza komórki do potencjaªu po stronie zewn trznej. Warto±ci potencjaªu spoczynkowego w komórkach nerwowych wahaj si mi dzy 65 mv a 90 mv [1]. Powstawanie potencjaªu spoczynkowego zostaªo zilustrowane na rysunku 1.3. Rysunek 1.3: Powstawanie potencjaªu spoczynkowego. ródªo: sjjgsca/nerverestingpot.html Jak mo»na zauwa»y na rysunku 1.3 istnieje du»a ró»nica st»e«jonów potasu oraz jonów sodu mi dzy wn trzem a ±rodowiskiem zewn trznym komórki. Bªon komórkow cechuje odmienna 12

13 przepuszczalno± dla ró»nych jonów. Przepuszczalno± dla jonów sodu, gdy neuron znajduje si w stanie niepobudzonym jest niewielka. Inaczej jest w przypadku jonów potasu. I to przede wszystkim dzi ki tendencji jonów potasu do przepªywania zgodnie z gradientem st»e«, czyli z wewn trz na zewn trz komórki, powstaje potencjaª spoczynkowy. Wypªywanie jonów potasowych na zewn trz powoduje powstanie niewielkiego nadmiaru ªadunków ujemnych po wewn trznej stronie bªony, a tym samym wytwarza ró»nic potencjaªów po obu stronach bªony. Powstaªa ró»nica potencjaªów oznacza istnienie siªy elektrostatycznej, której zadaniem jest przeciwdziaªanie dalszemu wypªywowi jonów potasu. Siªa elektrochemiczna jest ró»nic pomi dzy potencjaªem spoczynkowym a potencjaªem równowagi dla danego jonu. Potencjaª równowagi, zwany równie» potencjaªem Nernsta, deniujemy jako stan, w którym wypªywanie jonów z komórki jest równowa»one ich napªywaniem do wn trza, przepªyw jonów netto wi c jest równy zero [1]. Potencjaª równowagi E k mo»na obliczy, stosuj c równanie Nernsta [2]: E k = RT ZF ln( [C] z [C] w ), (1.1) gdzie T oznacza temperatur, R staª gazow, a F staª Faradaya. Natomiast [C] z przedstawia st»enie danego jonu odpowiednio w pªynie tkankowym i neuroplazmie. oraz [C] w W przypadku systemu, w którym wyst puje tylko jeden typ jonu warto± potencjaªu równowagi jest taka sama jak warto± tzw. potencjaªu odwrócenia 1. Chocia» te dwa terminy odnosz si do ró»nych aspektów tego samego zjawiska, to ró»nica mi dzy nimi jest bardzo subtelna. Na przykªad, dla jonów sodu w stanie równowagi ró»nica w koncentracji jonów powoduje powstanie potencjaªu Nernsta E Na o warto±ci okoªo +50 mv. Zatem w stanie równowagi wn trze komórki ma potencjaª dodatni w stosunku do otoczenia. Je»eli ró»nica napi cia u jest mniejsza ni» warto± potencjaªu Nernsta, to wi cej jonów Na+ wpªynie do komórki zmniejszaj c ró»nic w koncentracji. Natomiast je±li napi cie jest wi ksze ni» potencjaª równowagi, to wówczas jony wypªywaj na zewn trz z komórki. Zatem kierunek pr du jest odwrócony gdy napi cie u przekracza warto± E Na. St d E Na nazywa si te» potencjaªem odwrócenia [3]. Warto± potencjaªu odwrócenia mo»e zosta okre±lona empirycznie na podstawie przeprowadzonego do±wiadczenia, np. przy pomocy metody voltage clamping. Potencjaª, przy którym nie obserwuje si przepªywu pr du jest potencjaªem odwrócenia. Natomiast potencjaª równowagi to czysto teoretyczna warto± i chocia» mo»na wyznaczy jej warto± stosuj c równanie Nernsta, to nie mo»na jej wyznaczy empirycznie. 1.4 Potencjaª czynno±ciowy Zasadnicz rol neuronu jest odbieranie impulsów przez jego dendryty i ciaªo komórki oraz nast pnie przekazywanie ich do zako«cze«aksonu. W tym procesie gªówny udziaª przypada bªonie neuronu. Gdy na bªon pobudliwej komórki zadziaªa bodziec o intensywno±ci wystarczaj cej do 1 ang. reversal potential 13

14 zdepolaryzowania neuronu powy»ej okre±lonej warto±ci progowej, w skrócie nazwanej bod¹cem progowym, jej przewodno± nagle wzrasta. Przepuszczalno± bªony dla jonów sodu wzrasta nawet 500-krotnie. W przeci gu 0,5 ms jony sodu wpªywaj lawinowo do wn trza powoduj c nie tylko depolaryzacje, ale nawet miejscowe odwrócenie polaryzacji bªony (tzw. nadstrzaª). Równie» i kanaªy potasowe zostaj otwarte, powoduj c wypªywanie jonów potasu z komórki. Otwarcie kanaªów sodowych i potasowych jest asynchroniczne, co przeciwdziaªa jednoczesnej zmianie st»e«po obu stronach bªony. Po upªywie okoªo 0,5 ms kanaªy sodowe zamykaj si, natomiast jony potasu masowo wychodz z komórki na zewn trz, powoduj c jej repolaryzacj. Po nast pnych dwóch niewielkich wahaniach potencjaªu, tzw. ujemnym i dodatnim potencjaªem nast pczym mechanizmy bªonowe wracaj do stanu równowagi, i s gotowe do reakcji na nast pny bodziec [2]. Opisane zjawisko, okre±lane jako potencjaª czynno±ciowy lub impuls nerwowy, zostaªo zobrazowane na rysunku 1.4. Rysunek 1.4: Rejestracja potencjaªu czynno±ciowego w komórce. ródªo: W czasie trwania potencjaªu czynno±ciowego komórka staje si niepobudliwa, za± w czasie wyst powania hiperpolaryzuj cego potencjaªu nast pczego jej pobudliwo± jest zmniejszona. Zjawiska te okre±lane s odpowiednio jako refrakcja bezwzgl dna i wzgl dna[1]. Pojawienie si potencjaªu czynno±ciowego jest mo»liwe tylko wtedy, gdy bodziec speªnia nast puj ce warunki: posiada siª konieczn do pobudzenia danego wªókna; musi dziaªa przez minimalny czas, zwany czasem u»ytecznym; musi narasta dostatecznie szybko do warto±ci progowej. Bod¹ce, które nie speªniaj powy»szych warunków, tzw. bod¹ce podprogowe, mog si sumowa [2]. 14

15 1.5 Budowa i rodzaje synaps cisªe poª czenia mi dzyneuronalne lub poª czenia mi dzy neuronami i efektorami nazywane s poª czeniami synaptycznymi, lub krótko synapsami. W ukªadzie nerwowym wspóªistniej dwa typy synaps: elektryczne i chemiczne. Przewa»aj ca cz ± synaps ma charakter chemiczny. Synapsa chemiczna skªada si z nast puj cych elementów [4]: bªony presynaptycznej pokrywaj cej zako«czenie aksonu; szczeliny synaptycznej o szeroko±ci okoªo 20 nm; bªony postsynaptycznej. Synapsy mog by tworzone w ka»dym miejscu na komórce odbieraj cej sygnaª. Lokalizacja na neuronie postsynaptycznym stanowi kryterium klasykacji synaps. Mo»emy wyró»ni tu synapsy akso-dendrytyczne, synapsy akso-aksonalne oraz charakteryzuj ce si wyj tkowo silnym przeka¹nictwem synapsy akso-somatyczne [1]. Rysunek 1.5: Schematyczny przekrój synapsy. ródªo: Schematyczny przekrój synapsy zostaª przedstawiony na rysunku 1.5. Cecha charakterystyczn struktury presynaptycznej jest obecno± po wewn trznej stronie bªony licznych drobnych p cherzyków zawieraj cych we wn trzu przeka¹nik. Przekazywanie informacji przez synaps odbywa si nast puj co. Impuls, który dotarª do zako«czenia aksonu powoduje wydzielenie z bªony presynaptycznej porcji neuroprzeka¹nika. Substancja ta dyfunduje przez szczelin synaptyczn do bªony postsynaptycznej. Od strony dendrytu znajduj si czuªe na obecno± neuroprzeka¹ników kanaªy jonowe. Otwarcie ich powoduje silne wnikanie jonów sodu do dendrytu i zapocz tkowanie poruszania si potencjaªu czynno±ciowego w dendrycie neuronu postsynaptycznego. Potencjaª w pojedynczej synapsie rzadko ma warto± progow, dlatego te» z reguªy maªe potencjaªy synaptyczne musz si sumowa a» do osi gni cia warto±ci progowej. Mówimy wówczas o zjawisku 15

16 sumowania czasowego w pojedynczej synapsie oraz o zjawisku sumowania przestrzennego mi dzy wieloma synapsami rozproszonymi po caªej przestrzeni odbiorczej neuronu [2]. 1.6 Szybkie przeka¹nictwo synaptyczne Neuroprzeka¹niki wydzielane do szczeliny synaptycznej w trakcie przekazywania pobudzenia przez synaps mog by dwojakiego rodzaju. W zale»no±ci od wpªywu na polaryzacj bªony, wyró»- niamy neuroprzeka¹niki pobudzaj ce, które obni»aj próg pobudzenia lub te» hamuj ce, które go podwy»szaj. Pobudzaj ce potencjaªy postsynaptyczne 2 przybli»aj potencjaª bªony do progu generacji potencjaªów czynno±ciowych. Pobudzaj ce potencjaªy synaptyczne cechuje kilka istotnych wªa±ciwo±ci [1]: rejestrowane z ciaªa neuronu jako przej±ciowa depolaryzacja bªony powstaj w wyniku aktywacji kilku synaps; pomi dzy pobudzeniem wªókien aferentnych, tj. wªókien przenosz cych sygnaªy sensoryczne (czuciowe) ze skóry, mi ±ni szkieletowych, stawów, oczu, uszu, itp. do o±rodkowego ukªadu nerwowego, a powstaniem EPSP wyst puje krótkie opó¹nienie zwane opó¹nieniem synaptycznym wynosz ce okoªo 0,5 1 ms; EPSP s niewielkie, od dziesi tych cz ±ci mv do okoªo 8 mv, ich amplituda jest uzale»niona od liczby pobudzonych wªókien aferentnych; EPSP powstaj w wyniku dziaªania kwasu glutaminowego zanikaj c wykªadniczo w czasie ms. Pod wpªywem receptoru GABA powstaj hamuj ce potencjaªy postsynaptyczne 3, które oddalaj potencjaª bªony komórkowej od progu generacji potencjaªów czynno±ciowych. IPSP maj podobne wªa±ciwo±ci jak EPSP, z wyj tkiem tego,»e maj charakter hamuj cy [1]. 1.7 Neuronalna reprezentacja informacji Komórki nerwowe koduj informacj na dwa sposoby. Po pierwsze, cz sto± przesyªania potencjaªów czynno±ciowych przekazuje informacj o czasie trwania bod¹ca oraz o jego intensywno±ci i zmianie tej intensywno±ci w czasie. Na przykªad, cz sto± potencjaªów czynno±ciowych w neuronie ruchowym niesie informacj o czasie i sile skurczu wªókien mi ±niowych. Po drugie, ogóª poª cze«wej±ciowych i wyj±ciowych neuronu aferentnego (tzw. adres neuronu) koduje informacj o przestrzennej lokalizacji bod¹ca oraz o jego naturze jako±ciowej, czyli modalno±ci. W ukªadach 2 ang. excitatory postsynaptic potential, EPSP 3 ang. inhibitory postsynaptic potential, IPSP 16

17 ruchowych i czuciowych dokªadne zakodowanie okre±lonej wªa±ciwo±ci zazwyczaj jest uzale»nione od aktywno±ci du»ego zespoªu komórek (tzw. kodowanie populacyjne). Precyzja kodowania czuciowego i ruchowego jest uwarunkowana wierno±ci przenoszenia informacji przez potencjaªy czynno±ciowe. Wierno± przenoszenia umo»liwiaj nast puj ce czynniki [1]: 1. Binarny charakter potencjaªów czynno±ciowych. W danej chwili akson albo przewodzi potencjaª czynno±ciowy, albo nie. Takie dwójkowe kodowanie jest mniej podatne na bª dy, które mog powsta w efekcie znieksztaªcenia sygnaªu przez szumy. 2. Modulacja cz sto±ci generowania potencjaªów czynno±ciowych. Przypadkowy brak albo dodanie pojedynczego potencjaªu czynno±ciowego nie wpªywa w istotny sposób na ±redni cz sto± serii potencjaªów, je±li nie jest ona zbyt krótka. 3. Redundancja informacji. Sygnaª ruchowy wytwarzany jest przez du»e populacje neuronów dziaªaj ce w skoordynowany sposób. Bª dna aktywno± kilku komórek kompensowana zostaje przez prawidªow aktywno± wi kszo±ci z nich. 1.8 Najwa»niejsze cechy i charakterystyki neuronu Celem tego podrozdziaªu jest zilustrowanie bogactwa i zªo»ono±ci reakcji neuronów w odpowiedzi na pojedyncze impulsy elektryczne. Izhikevich wyodr bniª 20 najbardziej znacz cych cech biologicznych neuronów [5], a mianowicie: A. Wzmacniaj ce pulsowanie 4. Neuron generuje ci g impulsów tak dªugo a» podawane s na wej±cie impulsy elektryczne (rys. 1.6.A) B. Fazowe pulsowanie 5. Neuron wystrzela tylko pojedynczy impuls w reakcji na impulsy wej- ±ciowe. Takie zachowanie neuronów jest po»yteczne przy wykrywaniu pocz tku stymulacji (rys. 1.6.B) C. Wzmacniaj ce wybuchanie 6. Neuron wysyªa seri impulsów podczas stymulacji. Takim zachowaniem cechuj si neurony kory mózgowej u kota. Cz stotliwo± wystrzaªów neuronu mo»e wynosi okoªo 50 Hz, dlatego te» uwa»a si»e te neurony przyczyniaj si do oscylacji fal gamma w mózgu (rys. 1.6.C) D. Fazowe wybuchanie 7. Podobne do neuronów charakteryzuj cych si fazowym pulsowaniem. Przy wykryciu pocz tku stymulacji wypuszczana jest seria impulsów (rys. 1.6.D) E. Model mieszany 8. Najpierw pojawia si seria impulsów tak jak w poprzednim przypadku, 4 ang. Tonic Spiking 5 ang. Phasic Spiking 6 ang. Tonic Bursting 7 ang. Phasic Bursting 8 ang. Mixed Model 17

18 a nast pnie neuron przeª cza si w fazowe pulsowanie. Takie zachowanie jest widoczne w pobudzaj cych neuronach w korze mózgowej ssaków (rys. 1.6.E) F. Adaptacja cz stotliwo±ci impulsów 9. Jeden z najbardziej powszechnych typów neuronów pobudzaj cych w korze mózgowej ssaków. Generuje wzmacniaj ce pulsowanie z malej c cz stotliwo±ci impulsów (rys. 1.6.F) G. Pobudliwo± pierwszo-klasowa 10. W tej klasie neuronów cz stotliwo± wzmacniaj cego pulsowania zale»y od siªy pobudzenia i warto± jej mo»e waha si w granicach od 2 Hz do 200 Hz, lub wi cej. Reaguj bardzo nisk cz stotliwo±ci wystrzaªów nawet na bardzo sªabe pobudzenie. Neurony tej grupy mog zakodowa siª pobudzenia na cz stotliwo± generowania impulsów (rys. 1.6.G) H. Pobudliwo± drugo-klasowa 11. Neurony tej klasy zachowuj si podobnie do neuronów grupy I, ale nie reaguj na sªabe pobudzenia, charakteryzuj si relatywnie wy»sz cz stotliwo±ci generowania impulsów (od 40 Hz) (rys. 1.6.H) I. Utajenie impulsu 12. Neuron generuje impuls z opó¹nieniem, którego warto± zale»y od siªy stymulacji. Neurony w korze mózgowej ssaków mog mie opó¹nienie dziesi tek milisekund (rys. 1.6.I) J. Podprogowe oscylacje 13. Ta klasa neuronów posiada zdolno± do oscylacji (rys. 1.6.J) K. Wyró»niona cz stotliwo± i rezonans 14. Dzi ki zjawisku rezonansu, neuron posiadaj cy potencjaª oscylacyjny mo»e odpowiada selektywnie na pobudzenie z podobn cz stotliwo±ci do podprogowych oscylacji. Te neurony zostaªy nazwane rezonatorami (rys. 1.6.K) L. Integracja i wykrywanie zgodno±ci 15. Neurony nie posiadaj ce zdolno±ci do oscylacji zachowuj si jak integratory. Im wy»sza cz stotliwo± tym wi ksze prawdopodobie«stwo,»e neuron wygeneruje impuls (rys. 1.6.L) M. Odbity impuls 16. Neurony odbijaj impuls, który do nich dociera i jest on uwalniany z hamuj cego wej±cia (rys. 1.6.M) 9 ang. Spike Frequency Adaptation 10 ang. Class 1 Excitability 11 ang. Class 2 Excitability 12 ang. Spike Latency 13 ang. Subthreshold Oscillations 14 ang. Frequency Preference and Resonance 15 ang. Integration and Coincidence Detection 16 ang. Rebound Spike 18

19 Rysunek 1.6: Podsumowanie najwa»niejszych wªa±ciwo±ci biologicznych neuronów. ródªo: [5] 19

20 N. Odbita seria 17. Podobnie do powy»szych z t ró»nic,»e odbijana jest seria impulsów, a nie pojedynczy impuls. Uwa»a si,»e tej klasy neurony przyczyniaj si do oscylacji fal w korze mózgowej w fazie snu (rys. 1.6.N) O. Zmienny próg 18. Grupa neuronów biologicznych posiadaj cych zmienn warto± progu pobudzenia, która zale»y od ich wcze±niejszej aktywacji (rys. 1.6.O) P. Dwumodalno± 19. Neuron prezentuje dwa stabilne tryby dziaªania: spoczynek i wzmacniaj ce wzbudzanie. Tryby s przeª czane przez pobudzaj ce lub hamuj ce impulsy (rys. 1.6.P) Q. Depolaryzacja po impulsie 20. Po wystrzale impulsu potencjaª membrany mo»e okazywa przedªu»on hiperpolaryzacj 21 lub te» przedªu»on depolaryzacj 22. W obu przypadkach, taki neuron ma skrócony czas refrakcji i staje si niezwykle podatny na impulsy (rys. 1.6.Q) R. Przystosowanie 23. Neuron traci swoj wra»liwo± na siln, lecz wolno narastaj c stymulacj i nie wytwarza impulsu. Chocia» mo»e wystrzeli impuls w odpowiedzi na sªabsze, ale szybciej wzmacniaj ce si pobudzenie (rys. 1.6.R) S. Pobudzane hamowaniem pulsowanie 24. Neuron pozostaje cichy tak dªugo, a» nie ma»adnego impulsu wej±ciowego, generuje impuls na wyj±ciu w momencie hiperpolaryzacji lub wstrzykni tego z zewn trz pr du (rys. 1.6.S) T. Pobudzane hamowaniem wybuchanie 25. Podobnie do poprzedniej klasy neuronów, z tym»e neurony generuj seri impulsów w odpowiedzi na ci gª hiperpolaryzacj (rys. 1.6.T) 17 ang. Rebound Burst 18 ang. Threshold Variability 19 ang. Bistability of Resting and Spiking States 20 ang. Depolarizing After-Potentials 21 ang. prolonged after-hyperpolarization AHP 22 ang. prolonged depolarized after-potential 23 ang. Accommodation 24 ang. Inhibition-Induced Spiking 25 ang. Inhibition-Induced Bursting 20

21 Rozdziaª 2 Modele neuronów biologicznych Mechanizm funkcjonowania neuronu mo»e by odzwierciedlony na wielu poziomach abstrakcji. Niniejszy rozdziaª stanowi b dzie przegl d modeli neuronów. Zaprezentowane zostan modele bardzo szczegóªowo odwzorowuj ce wªa±ciwo±ci i funkcje ich biologicznych protoplastów, a tak»e takie, które odwzorowuj tylko ich najbardziej podstawowe funkcje. Przy omówieniu wi kszo±ci modeli podany zostanie koszt oblicze«numerycznych. W celu wyznaczenia tego kosztu, ka»dy model zapisany jako system dynamiczny ẋ = f(x), zostaª zaimplementowany przy u»yciu metody Eulera pierwszego rz du o staªym kroku τ, danej wzorem x(t + τ) = x(t) + τf(x(t)). 2.1 Klasykacja modeli neuronów Modele neuronów mog by klasykowane na wiele ró»nych kategorii w zale»no±ci od zastosowanego kryterium. J. Malmivuo wyodr bniª cztery przykªadowe kryteria oraz odpowiadaj ce im klasykacje modeli neuronów[6]: 1. Opis struktury modelu mo»e by wyra»ony przez: równania matematyczne (np. równania Hodgkina-Huxleya); opart na prawach zyki abstrakcyjn konstrukcj (np. model Ecclesa); konstrukcj analogiczn, ale ró»ni c si od oryginalnego zjawiska (np. elektroniczny model neuronu). 2. Modele mog opisywa zjawisko w ró»nych koncepcyjnych wymiarach. Aspekty modeli mog obejmowa : struktur (przewa»nie pokazywane na mechanicznym modelu); funkcj (przewa»nie przedstawiane za pomoc elektronicznego, matematycznego lub komputerowego modelu); 21

22 ewolucj ; pozycj w hierarchii. 3. Klasykacja wedªug zjologicznego poziomu zjawiska: poziom wewn trz neuronowy (potencjaª spoczynkowy w bªonie, mechanizm generowania impulsów, propagacja impulsu wzdªu» aksonu); funkcje pobudzenia i odpowiedzi pojedynczego neuronu; transmisja synaptyczna; interakcje pomi dzy neuronami i grupami neuronów, sieci neuronowe; psychozjologiczny poziom. 4. Klasykacja wedªug parametrów modelu: parametry bezczynno±ci (spoczynkowe); parametry pobudzenia; parametry regeneracji; parametry adaptacji. 2.2 Model Integrate-and-re Model leaky integrate-and-re jest prawdopodobnie najbardziej znanym i najszerzej stosowanym modelem neuronu impulsowego. Wynika to gªównie z cech takich jak: przejrzysto± reguª kodowania, mo»liwo± matematycznego analizowania dynamiki sieci oraz wysoka efektywno± symulacji du»ych sieci zªo»onych z tych neuronów. Szczegóªowy opis modelu zostaª przedstawiony przez Gerstnera [3]. Jak widzimy na rysunku 2.1 podstawowy ukªad modelu integrate-and-re skªada si z kondensatora C poª czonego równolegle z opornikiem R. Caªy ukªad RC zasilany jest pr dem I(t), który dzieli si na dwie cz ±ci, tj. I(t) = I R +I C. Pierwsza cz ± to rezystancyjny pr d I R przepªywaj cy przez liniowy opornik R. Jego warto± z prawa Ohma, wynosi I R = u/r, gdzie u jest napi ciem na oporniku. Druga cz ± pr du, tj. pr d I C zasila kondensator. Z denicji pojemno±ci kondensatora mamy,»e C = q/u, gdzie q jest ªadunkiem a u napi ciem na ko«cach kondensatora. St d te», mo»emy wyznaczy pr d kondensatora I C = Cdu/dt. Zatem otrzymujemy [3]: I(t) = u(t) R + C du dt. (2.1) 22

23 Rysunek 2.1: Schematyczny wykres modelu integrate-and-re. ródªo: gerstner/spnm/node26.html. Po pomno»eniu równania (2.1) przez R i wprowadzeniu staªej τ m = RC, dostajemy: τ m du dt = u(t) + RI(t), (2.2) gdzie potencjaª bªony komórkowej oznaczony zostaª jako u, a staªa czasowa bªony jako τ m. W modelach integrate-and-re forma potencjaªu czynno±ciowego nie jest jasno opisana. Impulsy s zdarzeniami charakteryzowanymi przez czas wystrzaªu t (f) [3]: t (f) : u(t (f) ) = ν. (2.3) Innymi sªowy, warto± napi cia u(t) jest porównywana z warto±ci progu ν. Je»eli u(t) = ν w czasie t i (f), to wówczas na wyj±ciu generowany jest impuls δ(t t i (f) ). Niezwªocznie po czasie wystrzaªu t (f) warto± potencjaªu bªony przyjmuje warto± pocz tkow u r < ν lim u(t) = u R. (2.4) t t (f),t>t (f) Je»eli t > t (f) wówczas dynamika jest ponownie liczona ze wzoru (2.2) a» do nast pnego zrównania potencjaªu bªony z warto±ci progow. W ogólnej postaci nieliniowego modelu integrate-and-re równanie (2.2) zamienia si na [3]: τ m du dt = F (u) + G(u)I. (2.5) Podobnie jak w przypadku liniowego modelu w momencie przekroczenia progu pobudzenia na wyj±ciu generowany jest impuls, a warto± potencjaªu bªony ustawiana zostaje na warto± pocz tkow. Porównanie równa«(2.2) i (2.5) pokazuje,»e G(u) mo»e by interpretowane jako zale»ny napi ciowo opór na wej±ciu ukªadu, a F (u) (u u rest) odpowiada napi ciowo zale»nej staªej rozpadu [3, 5]. 23

24 Opisane powy»ej modele neuronu stymulowane byªy zewn trznym pr dem I(t). W bardziej rzeczywistych warunkach, model integrate-and-re stanowi cz ± wi kszej sieci i pr d wej±ciowy jest generowany poprzez aktywno± neuronów presynaptycznych. Je±li presynaptyczny neuron j wystrzeli impuls w czasie t j (f), to neuron postsynaptyczny i odbiera impuls zgodnie z przebiegiem czasowym δ(t t j (f) ) [3]. Ogólnie model integrate-and-re mo»na opisa nast puj co [5]: y i = a i + b i y i + n s ij δ(t t j ), (2.6) j=1 gdzie s ij jest miar efektywno±ci poª czenia mi dzy j-tym a i-tym neuronem. Jak mo»emy zauwa»y w lewej cz ±ci rysunku 2.1 presynaptyczny impuls jest ltrowany w synapsie i tworzy wej±ciowy impuls α(t t j (f) ). Caªkowita warto± wej±ciowego pr du do neuronu i jest wa»on sum wszystkich impulsów, czyli: I i (t) = j w ij α(t t (f) j ), (2.7) f gdzie w ij jest miar efektywno±ci poª czenia mi dzy j-tym a i-tym neuronem. Chocia» równanie (2.6) do± dobrze modeluje poª czenie synaptyczne, w rzeczywisto±ci proces ten jest znacznie bardziej zªo»ony. Amplituda postsynaptycznego impulsu zale»y od aktualnej warto±ci potencjaªu bªony u i. Ka»dy presynaptyczny potencjaª czynno±ciowy powoduje zmian w warto±ci potencjaªu postsynaptycznego zgodnie ze wzorem czasowym g(t t j (f) ). Wówczas warto± postsynaptycznego pr du generowanego przez impuls w czasie t j (f) jest nast puj ca [3]: α(t t j (f) ) = g(t t j (f) )[u i (t) E syn ], (2.8) gdzie parametr E syn oznacza warto± potencjaªu odwrócenia 1 w synapsie. Warto± tego potencjaªu zale»y od typu synapsy. Dla synaps pobudzaj cych E syn jest znacznie wi ksza od potencjaªu spoczynkowego, natomiast dla synaps hamuj cych jest zbli»ony do warto±ci potencjaªu spoczynkowego [3]. Model integrate-and-re nale»y do grupy modeli zwanej pobudliwo± pierwszoklasowa 2. Gdy przyjmiemy krok τ równy 1 ms, to model integrate-and-re staje si modelem najprostszym do zaimplementowania. Obliczenie warto±ci potencjaªu bªony w ka»dym kroku wymaga zaledwie 5 operacji zmiennoprzecinkowych (dodawania, mno»enia itp.). Poniewa» jednak model integrate-and- re posiada tylko jedn zmienn, nie mo»e prezentowa zachowa«, takich jak: fazowe pulsowanie, wszelkiego rodzaju wybuchanie, odbijaj ce odpowiedzi, zmienna warto± progu, dwumodalno± czy samoistna dynamika chaotyczna. Z powodu staªej warto±ci progu impulsy nie mog by utajnione. Inaczej zachowuje si nieliniowy model integrate-and-re. Symulowanie 1 ms pracy tego modelu neuronu wymaga wykonania 7 operacji zmiennoprzecinkowych. utajnienia impulsu, zmiennego progu oraz dwumodalno±ci [5]. 1 ang. reversal potential 2 ang. Class 1 excitable Model ten posiada wªa±ciwo± 24

25 2.3 Model Resonate-and-Fire Model resonate-and-re, podobny pod wieloma wzgl dami do modelu integrate-and-re, jest najprostszym mo»liwym modelem posiadaj cym wªa±ciwo± tªumienia drga«potencjaªu bªony. Symulacja 1 ms pracy neuronu zajmuje tylko 10 operacji zmiennoprzecinkowych [5]. Model ten powstaª poprzez zlinearyzowanie nieliniowych równa«modelu neuronu prezentuj cego tªumienie drga«potencjaªu bªony. Powstaªy ukªad równa«liniowych: ẋ = bx ωy ẏ = ωx + by mo»e zosta zapisany w równowa»nej zespolonej formie: ż = (b + iω)z, (2.9) w której oscyluj c aktywno± neuronu reprezentuje zmienna zespolona z = x + iy C. Cz ± rzeczywista x, przypomina zmienn pr dow, natomiast cz ± urojona y zmienn napi ciow. (b + iω) C jest parametrem, gdzie b < 0 to szybko± przyci gania do warto±ci potencjaªu spoczynkowego, za± ω > 0 cz sto±ci drga«[7]. Rysunek 2.2: Przykªadowe odpowiedzi modeli resonate-and-re. ródªo: [7]. Mówimy,»e neuron generuje potencjaª czynno±ciowy, gdy zmienna y = Imz przekroczy warto± progu pobudzenia y = a thresh. Na rysunku 2.2 na pªaszczy¹nie zespolonej warto± progu 25

26 y = 1 zostaªa oznaczona poziom przerywan lini, która przechodzi przez punkt i C. neuron wystrzeliª impuls z musi zosta wypchni te poza biaªy, otoczony pogrubion krzyw, obszar na pªaszczy¹nie. Krzywa ta jest cz ±ci rozwi zania, które przechodzi przez punkt i C. Ka»de rozwi zanie startuj ce z tego biaªego obszaru b dzie zbie»ne do stanu spoczynku z = 0 bez przekraczania progu. Natomiast ka»de rozwi zanie startuj ce spoza obszaru biaªego przekroczy warto± progu przed osi gni ciem stanu spoczynku [7]. Model resonate-and-re mo»e by opisany w formie: z i = (b i + iω i )z i + n c ij δ(t t j ), (2.10) j=1 gdzie z C opisuje stan i-tego neuronu, (b + iω) C jest jego wewn trznym parametrem, c ij C wag poª czenia synaptycznego, δ delt Diraca, t j czasem, w którym j-ty neuron wygenerowaª ostatni impuls czynno±ciowy [7]. Jak widzimy ka»dy wygenerowany przez neuron impuls powoduje zmian aktywno±ci neuronów poª czonych z nim o zespolon staª warto± c ij. Po wystrzale potencjaªu czynno±ciowego warto± z i przyjmuje warto± pocz tkow. W przedstawionym przykªadzie jest to warto± i C. Chocia» równania 2.6 i 2.10 wygl daj podobnie, maj caªkowicie odmienna dynamik, co zostaªo przedstawione na rysunku 2.3. By Rysunek 2.3: Porównanie odpowiedzi modelu integrate-and-re oraz resonate-and-re. ródªo: [7]. 26

27 2.4 Model Hodgkina-Huxleya Model odwzorowuj cy rzeczywiste zachowanie neuronu biologicznego zostaª opisany w 1952 r. przez Hodgkina i Huxleya [8], którzy za to wybitne osi gni cie zostali nagrodzeni nagrod Nobla w dziedzinie medycyny. Pomocniczy schemat modelu Hodgkina-Huxleya zostaª przedstawiony na rysunku 2.4. Rysunek 2.4: Pomocniczy schemat dla modelu Hodgkina-Huxleya. ródªo: gerstner/spnm/node14.html Cz ±ciowo przepuszczalna bªona komórkowa oddziela wn trze komórki od pªynu zewn trzkomórkowego dziaªaj c jak kondensator. Oprócz kondensatora na schemacie znajduj si równie» trzy oporniki, po jednym dla ka»dego kanaªu jonowego rozwa»anego w modelu. Kanaªy potasu i sodu s napi ciowo zale»ne. Je»eli do komórki zostanie wstrzykni ty pr d I(t), mo»e on dodatkowo zasili kondensator lub te» wypªyn przez kanaªy w bªonie komórki. Z powodu aktywnego transportu jonów przez bªon komórkow, koncentracja jonów wewn trz komórki ró»ni si od koncentracji jonów w pªynie zewn trzkomórkowym. Potencjaª Nernsta wygenerowany przez t ró»nic w koncentracji jest reprezentowany przez ¹ródªa pr du. Poniewa» caªkowita warto± pr du musi by równa sumie pr dów poszczególnych gaª zi, otrzymujemy [3]: I(t) = I C (t) + k I k (t), (2.11) gdzie suma przebiega po wszystkich kanaªach jonowych. Standardowo w modelu Hodgkina-Huxleya s tylko trzy typy kanaªów: kanaª sodowy z indeksem Na, kanaª potasowy z indeksem K i nieokre±lony kanaª upªywowy z oporem R. Z denicji pojemno±ci kondensatora C = q/u, gdzie q jest ªadunkiem, za± u napi ciem na ko«cach kondensatora, mo»emy wyznaczy zasilaj cy pr d I C = C du dt. Zatem z 2.11 mamy C du dt = k I k (t) + I(t). (2.12) Jak ju» wspomniano, model Hodgkina-Huxleya opisuje trzy typy kanaªów. Wszystkie kanaªy mog by charakteryzowane przez ich opór, b d¹ przez ich przewodno±. Kanaª upªywowy okre- ±lany jest przez napi ciowo niezale»n przewodno± g L = 1/R. Przewodno± pozostaªych kanaªów 27

28 jonowych zale»y zarówno od napi cia, jak i czasu. Je»eli wszystkie kanaªy s otwarte, to przewodz one pr d z maksymaln przewodno±ci, odpowiednio g Na lub g K. Przewa»nie jednak cz ± kanaªów jest zablokowana. Prawdopodobie«stwo tego,»e kanaª jest otwarty opisuj dodatkowe zmienne m, n, oraz h. Poª czenie dziaªania zmiennych m i h wpªywa na kanaªy Na +, natomiast dziaªanie n na bramki K +. Wykorzystuj c te zmienne mo»emy wyznaczy warto± sumaryczn pr du w poszczególnych gaª ziach [3]: I k = g Na m 3 h(u E Na ) + g K n 4 (u E K ) + g L (u E L ). (2.13) k Parametry E Na, E K oraz E L oznaczaj potencjaªy odwrócenia, a warto±ci potencjaªów oraz przewodno±ci s wielko±ciami wyznaczonymi do±wiadczalnie. Tablica 2.1: Oryginalne warto±ci równa«hodgkina-huxleya. ródªo: [3]. x E x g x Na 115mV 120mS/cm 2 K 12mV 36mS/cm 2 L 10.6mV 0.3mS/cm 2 x α x (u/mv ) β x (u/mv ) n ( u)/[exp(1 0.1u) 1] 0.125exp( u/80) m ( u)/[exp( u) 1] 4exp( u/18) h 0.07exp( u/20) 1/[exp(3 0.1u) + 1] W tabeli 2.1 zostaªy przestawione oryginalne warto±ci wyznaczone do±wiadczalnie przez Hodgkina i Huxleya. Wielko±ci te opieraj si na skali, w której warto± potencjaªu spoczynkowego wynosi zero. W celu otrzymania warto±ci akceptowanych obecnie nale»aªoby przesun skal o 65 mv. Na przykªad, prawidªowe warto±ci potencjaªu odwrócenia sodu to E Na = 50 mv, a potasu E K = 77 mv. Wstawiaj c (2.13) do (2.12) dostajemy: C du dt = [g Nam 3 h(u E Na ) + g K n 4 (u E K ) + g L (u E L )] + I(t) (2.14) Zmienne m, n, oraz h mo»na wyznaczy z nast puj cych równa«: dm dt = α m(u)(1 m) β m (u)m, dn dt = α n(u)(1 n) β n (u)n, dh dt = α h(u)(1 h) β h (u)h, gdzie funkcje α i β s empirycznie wyznaczonymi funkcjami napi cia, dobranymi przez Hodgkina i Huxleya tak, aby pasowaªy do danych aksonu kaªamarnicy [3]. Równania Hodgkina-Huxleya w nowej konwencji zapisu przyjmuj nast puj c posta [9]: dv dt = [I g Nam 3 h(v V Na ) g K n 4 (V V K ) + g L (V V L )]/C, (2.15) dm dt = α m(v )(1 m) β m (V )m, 28

29 dn dt = α n(v )(1 n) β n (V )n, dh dt = α h(v )(1 h) β h (V )h, 0.01(V +55) gdzie: α n (V ) =, 1 exp[ (V +55)/10] α 0.1(V +40) m(v ) =, 1 exp[ (V +40)/10] α h(v ) = 0.07exp[ (V + 65)/20], 1 β n (V ) = 0.125exp[ (V + 65)/80], β m (V ) = 4exp[ (V + 65)/18], β h (V ) =, 1+exp[ (V +35)/10] V oznacza potencjaª bªony komórkowej, I pr d wstrzykni ty do neuronu. Warto±ci staªych w temperaturze 6, 3 0 C wynosz : g Na = 120 mmho/cm 2, g K = 36 mmho/cm 2, g L = 0, 3 mmho/cm 2, V Na = 50 mv, V K = 77 mv, V L = 54, 4 mv, C = 1 µf/cm 2. Model Hodgkina-Huxleya jest niezwykle kosztowny w implementacji. Potrzebuje 120 operacji zmiennoprzecinkowych do symulacji 0,1 ms, zatem a» 1200 opearacji/1 ms. Z tego powodu nadaje si gªównie do symulowania niewielkiej ilo±ci neuronów lub w przypadku kiedy czas symulacji nie odgrywa znacz cej roli [5]. 2.5 Model FitzHugh-Nagumo Omówiony powy»ej model Hodgkina-Huxleya najwierniej odtwarza biologiczne wªa±ciwo±ci neuronu, jednak»e posiada te» ogromn wad, du» zªo»ono± obliczeniow. FitzHugh pokazaª,»e równania tego modelu mog by zredukowane do dwuwymiarowego ukªadu równa«, których dynamika jest bardzo bliska dynamice peªnego czterowymiarowego modelu [10]. Rysunek 2.5: Wykresy funkcji dla m (V ), n (V ), h (V ), τ m(v ), τ n(v ), τ h (V ). ródªo: [9]. 29

30 Przyjmuj c V jako staª warto±, mo»emy rozwi za równania Na przykªad, zakªadaj c m(0) = 0, otrzymujemy: m(t) = m (V )(1 e t/τm(v ) ), (2.16) gdzie m (V ) αm 1 α m+β m, τ m (V ) α m+β m Dla zmiennych n i h otrzymujemy podobne rozwi zania. Rysunek 2.5 przedstawia wykresy funkcji m (V ), n (V ), h (V ), τ m (V ), τ n (V ), τ h (V ). Jak widzimy staªa czasowa τ m jest znacznie mniejsza ni» staªe τ n i τ h dla wszystkich warto- ±ci V. Zatem mo»emy wnioskowa,»e zmienna m ewoluuje znacznie szybciej od zmiennych n i h. To sugeruje,»e mo»emy zamieni m(t) w modelu Hodgkina-Huxleya na m (V (t)), czyli u»y warto±ci V do wyliczenia m, a nast pnie u»y tej warto±ci jako m po prawej stronie równa«dv/dt, dn/dt, oraz dh/dt [9]. Poprawno± tego przybli»enia zostaªa ukazana na rysunku 2.6. FitzHugh zaobserwowaª,»e je»eli równania Hodgkina-Huxleya generuj okresowe potencjaªy czynno±ciowe, zachodzi nast puj ce przybli»enie: n(t) + h(t) 0.8 [9]. Po uproszczeniach dostajemy nast puj cy dwuwymiarowy ukªad równa«: dv dt = [I g Na[m (V )] 3 (0.8 n)(v V Na ) g K n 4 (V V K ) + g L (V V L )]/C, dn dt = α n(v )(1 n) β n (V )n. (2.17) Jako±ciowy model, który odwzorowuje zachowanie modelu Hodgkina-Huxleya dany jest nastepuj cymi równaniami FitzHugh-Nagumo [9]: ɛ dv dt = F (v) w + I, dw dt = v γw, (2.18) gdzie: F (v) = v(1 v)(v + a), ɛ 1 oraz a, γ s staªymi. Równania FitzHugh-Nagumo w porównaniu z równaniami (2.17) operuj na znacznie prostszych funkcjach. Przy symulacji trwaj cej 0,25 ms potrzeba 18 operacji zmiennoprzecinkowych, co daje 72 operacje w ci gu 1 ms symulacji. Poniewa» model jest dwuwymiarowym systemem bez resetu, nie mo»e prezentowa samoistnej dynamiki chaotycznej lub wybuchania [5]. 30

31 Rysunek 2.6: Niebieska linia odpowiada m(t) liczonej z peªnego modelu HH, czerwona m (V (t)). ródªo: [9]. Rysunek 2.7: Przebieg n(t) + h(t). ródªo: [9]. 31

32 2.6 Model Morrisa-Lecara Morris i Lecar zaproponowali prosty dwuwymiarowy model opisuj cy dziaªanie komórki mi ±niowej w sonoga. Schematyczny obraz modelu Morrisa-Lecara (ML) przedstawiony zostaª na rysunku 2.8. Podobnie jak w przypadku modelu Hodgkina-Huxleya, model Morrisa-Lecara charakteryzuj dwie Rysunek 2.8: Schemat modelu Morrisa-Lecara. ródªo: [11]. szybkie przewodno±ci (g Ca, g K ), które przyczyniaj si do powstawania potencjaªów czynno±ciowych. Jednak»e w modelu ML do wn trza skierowany jest pr d wapniowy, a nie sodowy jak w przypadku modelu Hodgkina-Huxleya. Dodatkowo, by model ML mógª generowa seri impulsów 3 w odpowiedzi na pobudzenie, zostaª wyposa»ony w wewn trzny zbiornik z wapniem oraz wapniowo zale»n przewodno± potasu. równania [11]: C m dv m dt d[n] dt d[ca] dt Model Morrisa-Lecara deniuj przedstawione poni»ej = I stim g Ca m (V m E Ca ) g K n(v m E K ) g L (V m E L ) [Ca] g K(Ca) [Ca] + K (V m E K ), = n n τ n, = k 1 I Ca k 2 [Ca]. (2.19) Równania 2.19 dla potencjaªu bªony V m niuj cych model Hodgkina-Huxleya. oraz dla aktywacji potasu n s podobne do tych de- Nowo±ci jest dodanie wapniowo aktywizowanego pr du [Ca] potasowego I K(Ca). Aktywacj g K(Ca) determinuje funkcja koncentracji wapnia, gdzie [Ca]+K [Ca] opisuje równanie, w którym pr d wapniowy (k 1 I Ca ) przyczynia si do zwi kszenia wapna w wewn trznym zbiorniku wapniowym, natomiast pr d ( k 2 I Ca ) do jego zmniejszenia [11]. 3 tj. bursting 32

33 Rysunek 2.9: Przykªadowe odpowiedzi modelu Morrisa-Lecara. ródªo: [11]. Gdy wewn trzny zbiornik z wapniem oraz wapniowo aktywizowana przewodno± nie zostanie wª czona do równa«, model Morrisa-Lecara b dzie zachowywa si podobnie do modelu Hodgkina- Huxleya, generuj c pojedyncze impulsy w odpowiedzi na pobudzenie. Poniewa» w zubo»onym modelu Morrisa-Lecara uwzgl dnione zostaªy tylko dwie zmienne, tj. potencjaª bªony (V) oraz aktywno± potasu, model ten jest znacznie prostszy od modelu Hodgkina-Huxleya. opisuj ce model dane s nast puj co [5]: gdzie: Równania C dv dt = I g L(V V L ) g Ca m (V V Ca ) g K n(v V K ), dn dt = λ(v )(n (V ) n), (2.20) m (V ) = 1 2 {1 + tanh[(v V 1) V 2 ]}, n (V ) = 1 2 {1 + tanh[(v V 3) V 4 ]}, λ(v ) = λcosh[ (V V 3) ]. (2V 4 ) Parametry modelu u»ywane w symulacjach: C = 20 µf/cm 2, g L = 2 mmho/cm 2, V L = 50 mv, g Ca = 4 mmho/cm 2, V Ca = 100 mv, g K = 8 mmho/cm 2, V K = 70 mv, V 1 = 0 mv, V 2 = 15 mv, V 3 = 10 mv, V 4 = 10 mv, λ = 0, 1 s 1, I(µA/cm 2 ). Model prezentuje ró»ne typy pulsowania. Jednak»e zachowanie typu fazowe wychuchanie 4 zachodzi tylko wtedy, kiedy dodane zostanie dodatkowe równanie opisuj ce dezaktywacj pr du wapniowego. Przy warto±ci kroku τ = 0, 1 ms potrzeba okoªo 600 operacji zmiennoprzecinkowych do symulacji 1 ms pracy neuronu [5]. 4 tonic bursting 33

34 2.7 Model Hindmarsha-Rose Hindmarsh i Rose zaproponowali kilka modeli neuronów, z których najwi ksz popularno± zyskaª model charakteryzuj cy si wybuchowym generowaniem impulsów. Podstaw tego modelu stanowi zmodykowany model FitzHugh-Nagumo. Model ten mo»e generowa oscylacje z dªugimi przerwami mi dzy impulsami. Stanowi najprostsz matematyczn reprezentacj fenomenu uwalniania wybuchowych oscylacji jakie wyst puj w biologicznych komórkach neuronowych [12, 13]. Symulacja 1 ms pracy neuronu wymaga 120 operacji zmiennoprzecinkowych [5]. Pocz tkowo model Hindmarsha-Rose (HR) posiadaª dwie zmienne, jedn dla potencjaªu bªony oraz drug odpowiedzialn za przystosowanie w kanaªach jonowych. Ogólne równania dla modelu HR s nast puj ce [12]: dv dt dw dt = α(βr f(v ) + I), = γ(g(v ) δr) (2.21) gdzie I oznacza dostarczony pr d, α, β, γ oraz δ s staªymi propagacji, f(v ) jest funkcj sze±cienn, natomiast g(v ) funkcj nieliniow. Wstawiaj c za zmienne V i W w równaniu 2.21 zmienne x i y dochodzimy do modelu z trzema zmiennymi, gdzie: x oznacza potencjaª bªony, y wewn trzny pr d, a z powolny pr d adaptacyjny. Równania przyjmuj nast puj c posta [14]: dx dt = y f(x) z + I, dy = g(x) y, dt dz = ɛ(h(x) z), dt gdzie I reprezentuje zaaplikowany pr d, f(x) i g(x) s funkcjami dobranymi eksperymentalnie: f(x) = ax 3 bx 2, (2.22) g(x) = c dx 2, (2.23) ɛ jest skal czasow powolnego pr du adaptacyjnego, za± h(x) jest skal wpªywu powolnej dynamiki, która determinuje sposób w jaki neuron odpowie na pobudzenie czy b dzie to pojedynczy impuls czy te» seria impulsów w tzw. trybie wybuchowym. Na rysunku 2.10 A pokazano ró»ne wzorce odpowiedzi neuronu. Jak wida, dla ró»nych warto- ±ci doprowadzanego pr du I, model Hindmarsha-Rose wytwarza krótkie, dªugie lub nieregularne (chaotyczne) serie impulsów. Rysunek 2.10 B przedstawia przykªad serii impulsów generowanych przez dwa powi zane ze sob hamuj ce neurony. 34

35 Rysunek 2.10: Ró»ne wzorce odpowiedzi modeli Hindmarsha-Rose. ródªo: [12]. Pierwszy trójwymiarowy model zostaª zaproponowany przez Hindmarsha i Rose w 1984 r. Równania opisuj ce model w zasadzie s takie same jak równania (2.23), z tym»e h(x) zostaªa zdeniowane jako funkcja liniowa postaci [14, 13]: h(x) = s(x x ), gdzie (x, y ) s wspóªrz dnymi punktu równowagi poªo»onego najbardziej na lewo w modelu 2.22 bez adaptacji (I = 0). Model Hindmarsha-Rose'84 deniowany jest równaniami [14]: dx dt = y ax3 + bx 2 z + I, dy dt = c dx2 y, (2.24) dz dt = ɛ(s(x x ) z). Parametry u»ywane do symulacji s nast puj ce: a = 1, b = 3, c = 1, d = 5, ɛ = 0, 005, s = 4, x = 1 5 2, I = 3,

36 Drugi trójwymiarowy model Hindmarsha-Rose zostaª zaproponowany w 1985 r. I tutaj równie» jedyn ró»nic w stosunku do modelu 2.22 jest funkcja h(x) postaci [14]: h(x) = K µ(x+1+k) 1 µ (1+2k) 1, (2.25) gdzie K oraz µ s staªymi. Funkcja ta zostaªa dobrana tak, aby jej spadek mógª by zmieniany poprzez zmian µ bez przenoszenia punktu równowagi oraz by: h( 1 k) = 0. Model Hindmarsha-Rose'85 opisuj nast puj ce równania [14]: dx dt = y ax3 + bx 2 z + I, dy dt = c dx2 y, (2.26) dz dt = ɛ(k µ(x+1+k) 1 z). µ (1+2k) 1 Parametry modelu u»ywane w symulacjach: a = 1, b = 3, c = 1, d = 1, 077, ɛ = 0, 005, µ = 4, 3, K = 2, k = , I = 4, Model Izhikevicha Izhikevich zaproponowaª model neuronu, ª cz cy w sobie biologiczne prawdopodobie«stwo do modelu Hodgkina-Huxleya z numeryczn efektywno±ci modelu integrate-and-re [15]. W zale»no±ci od czterech parametrów model generuje impulsowe lub wybuchowe zachowanie wyst puj ce w neuronach kory. Na rysunku 2.11 przedstawiono porównanie zachowania komórki neuronowej w korze ruchowej szczura oraz zachowanie modelu Izhikevicha. Model Izhikevicha deniuj nast puj ce równania [15]: dv dt = 0.04v2 + 5v u + I, du dt = a(bv u) wraz z pomocniczymi wzorami resetowania modelu po wygenerowaniu impulsu: (2.27) je±li v 30mV, wtedy v c, u u + d, (2.28) W powy»szych równaniach a, b, c oraz d s parametrami, zmienna I to wielko± pr du synaptycznego lub wstrzykni tego bezpo±rednio do modelu. Natomiast zmienna v oznacza potencjaª bªony neuronu, a zmienna u reprezentuje powrót bªony do stanu równowagi, co wynika z aktywacji pr du potasowego oraz inaktywacji pr du sodowego. W momencie, gdy potencjaª czynno±ciowy osi gnie szczyt (+30 mv ), warto±ci zmiennych resetowane s zgodnie z równaniami (2.28). Nale»y z naciskiem podkre±li,»e warto± +30 mv nie powinna by kojarzona z warto±ci progow neuronu [15]. 36

37 Rysunek 2.11: Porównanie odpowiedzi neuronów kory ruchowej szczura i modelu Izhikevicha. ródªo: [15]. Cz ± 0.04v 2 + 5v równania (2.27) zostaªa otrzymania przez dopasowywanie dynamiki pocz tkowania impulsów w komórce nerwowej kory tak, aby potencjaª bªony wyra»aª si w mv, a czas w ms. Potencjaª spoczynkowy modelu znajduje si pomi dzy warto±ciami -70 a -60 mv, w zale»no±ci od warto±ci parametru b. Tak jak wi kszo± rzeczywistych modeli, model ten nie posiada staªego progu. W zale»no±ci od historii potencjaªów bªony przed impulsem, próg potencjaªu mo»e przyjmowa zarówno warto±ci okoªo -55 mv lub -40 mv [15]. Na rysunku 2.12 gracznie zaznaczono parametry modelu Izhikevicha. Parametr a oznacza czas jaki potrzebny jest by neuron powróciª do stanu spoczynku. Mniejsze warto±ci powoduj wolniejsze dochodzenie modelu do warto±ci spoczynkowej. Najcz ±ciej a przyjmuje warto± 0,02. Parametr b opisuje wra»liwo± zmiennej u na podprogowe wahania potencjaªu bªony v. Wi ksza warto± mocniej wi»e zmienne v i u powoduj c pojawianie si podprogowych oscylacji oraz generowanie impulsów przy obni»onej warto±ci progu. Typowa warto± tego parametru to 0,2. Parametr c stanowi warto±, na któr ustawiany zostaje potencjaª bªony v po wypuszczeniu impulsu. Typowa warto± dla c to -65 mv. Ostatni parametr d modeluje zmian zmiennej u po wygenerowaniu potencjaªu czynno±ciowego. Przewa»nie przyjmuje warto± 2. 37

38 Rysunek 2.12: Graczna interpretacja parametrów modelu Izhikevicha. ródªo: [15]. Model Izhikevicha mo»e odwzorowywa, przy odpowiednim doborze parametrów a, b, c, d, wszystkie znane typy neuronów kory. Potrzeba tylko 13 operacji zmiennoprzecinkowych do symulacji 1 ms. Przy ustawieniach danych nast puj co: (a, b, c, d) = (0.2, 2, 56, 16) i I = 99 model wykazuje zachowanie chaotyczne [5]. 2.9 Model FC Model FC 5, którego jestem wspóªautork, jest kompromisem pomi dzy biologiczn poprawno- ±ci a obliczeniow efektywno±ci, stworzonym z my±l o symulowaniu przebiegu impulsów»ywej komórki nerwowej. FC obejmuje zjawiska takie jak: osªabianie wra»liwo±ci na zewn trzne pobudzanie, opó¹nianie i osªabianie potencjaªów postsynaptycznych, modykacj wewn trznych wag wynikaj c z propagacji potencjaªów postsynaptycznych wzdªu» dendrytu, modykacj wªa±ciwo- ±ci pami ci dla ka»dego wej±cia zgodnie ze wzorem dªugotrwaªego wzmocnienia synaptycznego 6, generowanie impulsu kiedy suma potencjaªów wszystkich wej± przekroczy próg oraz refrakcj [16]. Przy modelowaniu neuronów, ich podobie«stwo do biologicznych odpowiedników oraz efektywno± obliczeniowa s przeciwstawnymi celami. Dlatego te», tylko najistotniejsze cechy biologicznych neuronów powinny zosta wzi te pod uwag, tak aby nie zwi ksza zªo»ono±ci obliczeniowej modelu ponad konieczno± [17]. St d te» przyj li±my,»e dla pojedynczego neuronu przynajmniej nast puj ce zjawiska neurozjologiczne powinny zosta uwzgl dnione: 1. Ka»dy sygnaª wej±ciowy powoduje zmian pobudzaj cego 7 lub hamuj cego 8 postsynaptycznego potencjaªu. Istniej typowe wzory ich wzmacniania lub osªabiania. Powszechnie akceptowane s neurozjologiczne dane, takie jak: przebiegi czasowe, amplitudy potencjaªu 5 ang. Firing Cell 6 ang. long term potentiation (LTP) 7 ang. excitatory postsynaptic potential, EPSP 8 ang. inhibitory postsynaptic potential, IPSP 38

39 czynno±ciowego, oraz próg pobudzenia powoduj cy potencjaª czynno±ciowy oraz odblokowywanie kanaªów NMDA [18, 19, 20]. 2. Je»eli skumulowany lokalny potencjaª postsynaptyczny przekroczy warto± lokalnego progu (okoªo -70mV), receptor NMDA powoduje otwarcie zablokowanych kanaªów wapniowych i tym samym zachodzi fenomen dªugotrwaªego wzmocnienia synaptycznego (LTP) i aktywacji dªugotrwaªej pami ci zwi zanej z danym wej±ciem [20, 21]. 3. Zmiana wag w wyniku propagacji potencjaªu postsynaptycznego wzdªu» dendrytu oraz nieliniowa kumulacja potencjaªu dla funkcji progowej [22]. Model FC mo»e wyst powa w trzech wersjach: jako neuron pobudzaj cy, hamuj cy lub receptor. Na rysunku 2.13 zostaªa przedstawiona ogólna budowa modelu. Jak mo»na zauwa»y, model skªada si z dendrytu, ciaªa komórki oraz aksonu. Dendryt zªo»ony jest z ci gu kompartmentów, z których ka»dy posiada wej±cie synaptyczne, pobudzaj ce lub hamuj ce, stanowi ce substytut wielu synaps biologicznych. Rysunek 2.13: Budowa modelu FC. ródªo: Opracowanie Jacek Biaªow s. Model FC wyposa»ony jest w trzy rejestry, po jednym dla wej± pobudzaj cych (E), wej± hamuj cych (I) oraz stanu pami ci (M). Rejestry skªadaj si z tabel danych odpowiednio powi zanych z wej±ciami neuronu. Pierwsza warto± w ka»dej tabeli zarezerwowana jest na aktualn warto± aktywacji odpowiedniego wej±cia. Po wykryciu potencjaªu czynno±ciowego w synapsie, warto±ci odpowiedniej tabeli w rejestrze s zmieniane zgodnie z staªymi czasowymi dla EPSP i IPSP. Uaktualnienie rejestrów dla i-tego kompartmentu zachodzi wedªug wzoru: E i,k (t + 1) = E i,k (t) + A(i)M(i)P E (k), I i,k (t + 1) = I i,k (t) + P I (k), (2.29) M i,k (t + 1) = M i,k (t) + P M (k), gdy S i (t) CaMT. W powy»szych zale»no±ciach P E (k), P M (k) (P I (k)) oznaczaj staª wielko± EPSP (IPSP) dla k-tej komórki w przedziale. S i (t) stanowi sumaryczny potencjaª, A(i) funkcj adaptacji, M(i) funkcj pami ci, natomiast CaM T próg otwarcia kanaªu wapniowego. 39

40 Rysunek 2.14: Przekrój synapsy w modelu FC. ródªo: Opracowanie Jacek Biaªow s. Na rysunku 2.14 przedstawiony zostaª przekrój synapsy w modelu Firing Cell. Uruchomienie zjawiska dªugotrwaªej pami ci synaptycznej 9 wymaga zbiegni cia si w czasie sygnaªu pobudzaj - cego i otwarcia kanaªu wapniowego. W dendrycie uwzgl dniono funkcj adaptacji A(i), która dla i-tego przedziaªu przyjmuje posta : A(i) = (ReP Rsp) (ReP S i(t)), (2.30) (ReP Rsp) gdzie Rep oraz Rsp s parametrami, za± S i (t) sumarycznym potencjaªem: NE NI S i (t+1) = ReP + (E m,0 (t) ReP )Inf(m, i)+ (I m,0 (t) ReP )Inf(m+NE, i) (2.31) m=1 m=1 1 1 LSW (N 1) (b a), gdy b a, Inf(a, b) = 1 4 N (a b), gdy (a b) N 4, 0, poza. (2.32) gdzie N, NI, NE oraz LSW to parametry, za± E i,0 oraz I i,0 warto±ci aktualne w rejestrze potencjaªów pobudzaj cych i hamuj cych dla i-tego przedziaªu. M(i) oznacza funkcj pami ci w i-tym przedziale, liczon ze wzoru: M(i) = 1 + ln (C i(t) + 1), (2.33) 6clog C i (t + 1) = C i (t) + exp(10(m i,0 (t) ReP )) 1, (2.34) z dodatkowym warunkiem: je±li C i (t + 1) > F Q wtedy C i (t + 1) C i (t + 1) F Q. C(i) oznacza tutaj ªadunek pami ci wapniowej dla i-tego przedziaªu, clong, F Q, ReP s parametrami, a M i,0 aktualn warto±ci pami ci wapniowej w rejestrze. Ogólny schemat dziaªania modelu zostaª zaprezentowany na rysunku W ka»dym kroku 10, je»eli neuron nie znajduje si w stanie refrakcji, sprawdzane s warto±ci w synapsach i dalej we- 9 ang. long term potentiation 10 1 krok = 0,5 msec 40

41 Rysunek 2.15: Schemat dziaªania modelu FC. ródªo: Opracowanie Jacek Biaªow s. dªug wzorów 2.29 odpowiednio uaktualniane warto±ci w rejestrach. Nast pnie zostaj wyznaczone warto±ci wa»onej sumy wszystkich potencjaªów synaptycznych ze wzoru: P SP (t + 1) = ReP + NE m=1 NI W (i)(e m,0 (t) ReP ) + (I m,0 (t) ReP ) (2.35) m=1 z dodatkowym warunkiem: je±li P SP < KEP wtedy P SP KEP. ReP, KEP oznaczaj parametry, E m,0 i I m,0 aktualne warto±ci w rejestrze potencjaªów pobudzaj cych i hamuj cych, a W (i) waga dla i-tego kompartmentu: W (i) = 1 LSW NE 1 (i NE) + 1, (2.36) gdzie LSW, N E s parametrami. Je»eli warto± skumulowanego potencjaªu postsynaptycznego przekracza warto± progu (-50 mv ), to neuron generuje impuls na wyj±ciu aksonu, za± warto±ci wszystkich rejestrów ustawiane s na warto± pocz tkow, a neuron wchodzi w stan refrakcji na 1,5 msec. W przeciwnym razie warto±ci w rejestrach s przesuwane, co odzwierciedla upªyw czasu. 41

42 Warto±ci w rejestrach zmieniaj si zgodnie z nast puj cymi formuªami: E i,k+1, gdy P SP < thresh, E i,k (t + 1) = (2.37) ReP, poza; M i,k+1, gdy P SP < thresh, M i,k (t + 1) = (2.38) ReP, poza; I i,k+1, gdy (P SP ReP ) lub (P SP < ReP ) i (D i (t) > 0), I i,k (t + 1) = I i,k+1, gdy (P SP < ReP ) i (D i (t) 0) i (L i (t) = sleepc), (2.39) I i,k (t), poza, gdzie ReP, thresh s parametrami, P SP suma wszystkich potencjaªów w neuronie, D i i L i funkcjami opó¹niania i osªabiania wpªywu potencjaªów hamuj cych. 6, gdy InInh(i) = 1, D i (t + 1) = D i (t) 1, gdy (P SP < ReP ) i (D i (t) > 0), (2.40) D i (t), poza; L i (t) + 1, gdy D i (t) 0 i P SP < ReP, L i (t + 1) = 0, gdy L i (t) = sleepc, L i (t), poza, (2.41) gdzie P SP jest potencjaªem sumarycznym w neuronie, ReP oraz sleepc s parametrami, a InInh(i) hamuj cym impulsem wej±ciowym w i-tej synapsie Porównanie wªa±ciwo±ci modeli neuronów Omówione powy»ej modele w wi kszo±ci nale» do najpowszechniej u»ywanych modeli neuronów impulsowych oraz wybuchowych 11. Porównanie tych modeli zostaªo przedstawione na rysunku Przy porównaniu wzi to pod uwag najwa»niejsze cechy i charakterystyki neuronu opisane w rozdziale 1 (patrz 1.8). Uwzgl dniono równie» cechy takie jak: znaczenie biozyczne, mierzalno± parametrów modelu, zdolno± do prezentowania przez model samoistnych zachowa«chaotycznych. Jak mo»emy zauwa»y na rysunku 2.16 model Hodgkina-Huxleya prezentuje wszystkie z rozwa»anych cech i wªa±ciwo±ci modeli neuronów, jednak»e jest modelem najbardziej kosztownym obliczeniowo. Z kolei najmniej kosztownym modelem jest integrate-and-re, który prezentuje zaledwie najbardziej fundamentalne wªa±ciwo±ci impulsowych neuronów kory. Jedyn du» zalet tego 11 ang. bursting 42

43 Rysunek 2.16: Porównanie wªa±ciwo±ci modeli neuronów. ródªo: [5]. modelu jest jego liniowo±, przez co nadaje si on do wszelkich analiz matematycznych. Quadratic integrate-and-re jest praktycznie tak efektywny jak jego liniowy odpowiednik, przewa»aj c prezentacj wielu wa»nych wªa±ciwo±ci biologicznych neuronów, takich jak: ukryte impulsy oraz bistabilno±. Z powodu jednowymiarowo±ci niestety nie przedstawia wybuchania czy te» adaptacji cz stotliwo±ci impulsów. Model Izhikevicha prezentuje wszystkie porównywane cechy z wyj tkiem znaczenia biozycznego i plasuje si na najwy»szym miejscu w±ród modeli, je»eli pod uwag we¹miemy stosunek biologicznego podobie«stwa do kosztów implementacji. 43

44 Rozdziaª 3 Sieci neuronów biologicznych Modele neuronów impulsowych z wi ksz ni» tradycyjne modele dokªadno±ci próbuj uchwyci bogat dynamik rzeczywistych struktur neuronowych. Przykªadowo, tak jak w przypadku prawdziwych neuronów, komunikacja mi dzy nimi zachodzi za pomoc impulsów. W rozdziale tym zostanie przedstawiona ogólna koncepcja impulsowych sieci neuronowych oraz ich wady i zalety na tle konwencjonalnych sztucznych sieci neuronowych. Zaprezentowana zostanie równie» ogólna teoria oblicze«pªynowych oraz maszyn pªynowych zbudowanych z neuronów impulsowych. 3.1 Sieci neuronów impulsowych Oryginaln inspiracj sztucznej sieci neuronowej byªa budowa naturalnych ukªadów nerwowych, a w szczególno±ci mózgu. Tradycyjnie wierzono,»e neurony komunikuj si ze sob u»ywaj c w tym celu ±redniej warto±ci szybko±ci wysyªania impulsów 1. Innymi sªowy, twierdzono»e neuron odbiera informacj od innego neuronu poprzez zliczanie ilo±ci impulsów otrzymanych od tego neuronu w trakcie relatywnie dªugiego okresu czasu oraz okre±lenie ±redniego odst pu czasu pomi dzy impulsami. Ten typ kodowania informacji znany jest jako kodowanie szybko±ciowe 2. Wi kszo± sztucznych sieci neuronowych u»ywa tego typu kodowania w formie rzeczywistych warto±ci reprezentuj cych poziom aktywacji [23]. Ostatnie odkrycia w neurozjologii zach ciªy poszukiwania alternatywnych schematów kodowania w sztucznych sieciach neuronowych. W mózgu naczelnych odkryto neurony, które wybiórczo odpowiadaªy na zªo»one wizualne pobudzenie ju» w czasie ms po prezentacji pobudzenia. Informacja ta przetwarzana byªa ±rednio przez 10 warstw pomi dzy pocz tkowym a ko«cowym etapem rozpoznania bod¹ca. Maj c te dane ªatwo mo»na wyznaczy,»e na ka»dy etap przetwarzania przypadaªo zaledwie 10 ms, co w istocie wyklucza kodowanie szybko±ciowe jako metody przekazy- 1 ang. mean ring rate 2 ang. rate coding 44

45 wania informacji, a dowodzi istnienia w mózgu innego sposóbu kodowania informacji. Najbardziej obiecuj c alternatyw wydaje si tu kodowanie czasowe 3, które umo»liwia transmisj ogromnej ilo±ci danych przy pomocy zaledwie kilku impulsów, to znaczy jednego czy te»»adnego dla ka»dego neuronu wª czonego w przetwarzanie tego specycznego zadania [23]. Wolfgang Maass w [24] wyró»niª trzy generacje sieci neuronowych. Pierwsz generacj stanowi sieci, które jako podstawowych jednostek strukturalnych u»ywaj modelu neuronu McCullocha- Pittsa. W tej klasie mo»emy wyró»ni sieci neuronowe, takie jak: wielowarstwowe perceptrony, sieci Hopelda oraz maszyny Boltzmanna. Przykªadowa sie wielowarstwowa, zªo»ona z perceptronów zostaªa przedstawiona na rysunku 3.1. Charakterystyczn cech modeli modeli pierwszej generacji jest to,»e mog one dawa tylko cyfrowe wyj±cie. Stanowi uniwersalne narz dzie do oblicze«z cyfrowym wej±ciem i wyj±ciem, a ka»da funkcja logiczna mo»e by obliczona przy pomocy wielowarstwowego perceptronu z jedn warstw ukryt. Rysunek 3.1: Wielowarstwowy perceptron. ródªo: Druga generacja sieci neuronowych opiera si na neuronach z funkcj aktywacji z ci gªym zbiorem mo»liwych warto±ci odpowiedzi na wa»on sum wej±cia. Typowe przykªady to sieci sigmoidalne ze sprz»eniami zwrotnymi (patrz rysunek 3.2) lub bez sprz»e«zwrotnych. Zostaªo dowiedzione,»e sieci neuronowe drugiej generacji potra oblicza pewne funkcje logiczne z mniejsz ilo±ci bramek ni» sieci neuronowe pierwszej generacji. Dodatkowo, sieci drugiej generacji potra wyznacza funkcj z analogowym wej±ciem i wyj±ciem. W istocie sieci te z jedn tylko warstw ukryt, z do± dobr dokªadno±ci aproksymuj ka»d ci gª funkcj. Kolejn wa»n cech charakterystyczn tej generacji sieci neuronowych jest to,»e umo»liwiaj one u»ycie gradientowych metod uczenia, takich jak metoda uczenia ze wsteczn propagacj bª du 4. Sieci tej generacji maj równie» interpretacje biologiczn, bowiem wyj±cie sigmoidalnego neuronu mo»e by traktowane jako cz sto± emitowania impulsów biologicznego neuronu. Poniewa» biologiczne neurony, zwªaszcza w wy»szych obszarach kory, znane s z wypuszczania impulsów w ró»nych ±rednich 3 ang. temporal coding 4 ang. backpropagation method 45

46 Rysunek 3.2: Rekurencyjna sie neuronowa. ródªo: cz stotliwo±ciach, pomi dzy ich minimaln i maksymaln cz stotliwo±ci, sieci drugiej generacji, z uwagi na ich interpretacje s bardziej biologicznie realistyczne ni» sieci pierwszej generacji. Trzecia generacja modeli sieci neuronowych u»ywa neuronów impulsowych jako podstawowych jednostek strukturalnych. Typowa impulsowa sie neuronowa wraz z przedstawionym wej±ciem i wyj±ciem sieci zostaªa przedstawiona na rysunku 3.3. Modele nale» ce do trzeciej generacji tak»e nie dostarczaj kompletnego opisu wyj tkowo zªo»onych funkcji biologicznego neuronu i podobnie jak poprzednie generacje s uproszczonymi modelami obejmuj cymi zaledwie kilka aspektów biologicznego neuronu. Jednak»e w porównaniu do poprzednich dwóch generacji s znacznie bardziej realistyczne. W szczególno±ci du»o lepiej opisuj rzeczywiste wyj±cie biologicznego neuronu. Podczas gdy czasowo± kroków obliczeniowych jest zazwyczaj bagatelizowana w modelach poprzednich generacji, czasowo± pojedynczych kroków obliczeniowych odgrywa znacz c rol w obliczeniach w sieci neuronów impulsowych. W istocie, odpowied¹ neuronu impulsowego v skªada si ze zbioru F v R + (gdzie R + = {x R : x 0}) punktów w czasie kiedy v wypuszcza impuls. Sieci tej generacji, tak jak sieci drugiej generacji, aproksymuj ci gªe funkcje caªkiem dobrze, lecz przy u»yciu czasowo zakodowanego wej±cia i wyj±cia. Warto tu doda,»e istniej funkcje, do aproksymacji których w sieciach impulsowych wymagana jest mniejsza ilo± neuronów ni» w przypadku sieci drugiej generacji. Formalnie impulsowa sie neuronow 5 skªada si ze sko«czonego zbioru V neuronów impulsowych wraz z funkcj progow Θ v : R + R + dla ka»dego neuronu v V, oraz zbioru E V V synaps wraz z wag w u,v 0 oraz funkcj odpowiedzi ε u,v : R + R dla ka»dej synapsy u, v E (gdzie R + = {x R : x 0}). Dla wybranego podzbioru V input V neuronów wej±ciowych zakªada si,»e ci g czasowy odpowiedzi neuronu 6 F u dla neuronu u V input jest dany z zewn trz. Natomiast na wyj±cie sieci skªadaj si ci gi czasowe odpowiedzi F v dla neuronów v nale» cych do wyznaczonego zbioru neuronów wyj±ciowych V output V. 5 ang. Spiking Neuron Network (SNN) 6 ang. spiketrain 46

47 Rysunek 3.3: Impulsowa sie neuronowa. ródªo: Wi kszo± bada«nad algorytmami uczenia dla impulsowych sieci neuronowych skupia si na metodach nienadzorowanych. Celem tych algorytmów jest umo»liwienie sieci samoorganizacji i ostatecznego rozró»nienia pomi dzy wej±ciowymi wzorami bez jawnej identykacji tych wzorów. Samoorganizuj ce si mapy tradycyjnie stosowane byªy w sieciach neuronowych drugiej generacji. Ruf i Schmitt zaproponowali podobny mechanizm do nienadzorowanego uczenia w impulsowych sieciach neuronowych. Model ten jest kolejnym krokiem w kierunku biologicznej rzeczywisto±ci ªacz c w sobie impulsowe modele neuronów z biologicznie poprawn samoorganizacj. W±ród tradycyjnych nadzorowanych metod uczenia sieci neuronowych z jedn warstw mo»emy wymieni uczenie wedªug Hebba, uczenie perceptronowe czy te» reguª delta. Uczenie wedªug reguªy Hebba polega na zwi kszaniu wagi pomi dzy neuronami w momencie, gdy oba neurony s jednocze±nie aktywne. Ta metoda nauki nale»y do jedej z najprostszych metod i oryginalnie opiera si na zaªo»eniach biologicznych, gdzie ten typ wzmacniania wagi poª cze«uwa»a si za dominuj cy. W rozszerzonej wersji reguªy Hebba tak»e wzmacniane s poª czenia pomi dzy neuronami, gdy te jednocze±nie s w stanie nieaktywnym. Ze wzgl du na swoje biologiczne korzenie metoda Hebba staªa si naturalnym kandydatem do zaadoptowania w impulsowych sieciach neuronowych. Taka adaptacja reguªy Hebba zaproponowana zostaªa przez Ruf i Schmitta, i tu zmiana wagi w u,v pomi dzy presynaptycznym neuronem u a postsynaptycznym neuronem v, dana jest wzorem: w u,v = η(t v t 0 ), (3.1) gdzie t v jest czasem wypuszczenia impulsu przez neuron postsynaptyczny, a t 0 czasem drugiego impulsu neuronu presynaptycznego (t u jest czasiem pierwszego impulsu neuronu u), η wska¹nikiem szybko±ci uczenia. Je±li drugi impuls neuronu u zostanie wypuszczony przed impulsem neuronu v, czyli (t v t 0 > 0) wówczas waga w u,v pomi dzy nimi zostaje wzmocniona, natomiast w przeciwnym przypadku, waga zostaje osªabiona. 47

48 Rysunek 3.4: Schemat dla reguªy Hebba. ródªo: [23]. Na podstawie powy»ej zaprezentowanych informacji o impulsowych sieciach neuronowych mo-»emy pokrótce przedstawi nast puj ce ich zalety: 1. Pr dko±. Sieci zbudowane z impulsowych neuronów s w stanie przesyªa i odbiera znacz c ilo± danych przy wykorzystaniu relatywnie niewielkiej ilo±ci impulsów. To daje mo»liwo± stworzenia bardzo szybkiej i efektywnej implementacji. 2. Dziaªanie w czasie rzeczywistym. Impulsowe sieci zaprojektowane zostaªy do u»ycia czasowych informacji, dlatego te» mog by z ªatwo±ci przystosowane do rzeczywistego dynamicznego ±rodowiska. 3. Zªo»ono±. Impulsowe sieci mog oblicza ka»d funkcj, któr potra tak»e liczy sie drugiej generacji, przy czym z reguªy wykorzystuj do tego mniej neuronów. 4. Biologiczna wierno±. Poniewa» impulsowe sieci stosuj si bli»ej do tego co wªa±nie zostaªo odkryte o biologicznych sieciach neuronowych, bez trudu mog czerpa korzy±ci z szybko rosn cej wiedzy w dziedzinie neurozjologii.[23] Mimo szeregu zalet impulsowe sieci neuronowe nie s pozbawione wad, z których najistotniejsz stanowi du»a moc obliczeniowa potrzebna do ich symulacji. By nieco zmniejszy te wymagania w sieciach tego typu przewa»nie stosuje si mniej zªo»one neurony impulsowe, takie jak na przykªad model integrate-and-re. 48

49 3.2 Koncepcja oblicze«pªynowych Obliczenia pªynowe stanowi stosunkowo now technik dostarczaj c teoretycznych podwalin dla sieci neuronowych, które s w stanie przetwarza sygnaªy z czasow zale»no±ci. Ogólnie system skªada si z dwóch komponentów: pªynu oraz warstwy odczytuj cej. Pªyn odgrywa tu rol zanikaj cej pami ci, natomiast warstwa odczytuj ca gªównej jednostki rozpoznaj cej wzorce. Powy»sza koncepcja brzmi bardzo abstrakcyjnie i najlepiej mo»na j zilustrowa przy pomocy nast puj cej metafory o kubku z kaw. Idealnie gªadk powierzchni kawy okre±li mo»emy jako stan podstawowy. Stan ten mo»e zosta zaburzony, gdy do kawy wrzucimy kostk cukru b d¹ te» zamieszamy kaw ªy»eczk, co b dzie równoznaczne z czasowym strumieniem wej±ciowym. W odpowiedzi na zaburzenie, na powierzchni kawy powstaj wypryski i formuj si ró»ne fale. Jak widzimy w rzeczywisto±ci kawa zachowuje informacj o ostatnich zdarzeniach i gdyby±my potrali czyta z jej powierzchni, to mogliby±my wydoby informacje o ostatnich wydarzeniach z ni zwi zanych. Po upªywie pewnego czasu od chwili zaburzenia powierzchnia kawy wraca do stanu pocz tkowego i jest gotowa na przyj cie nowych wzorów [25]. Fernando i Sojakka w [26] wzi li koncepcj oblicze«pªynowych na powa»nie pokazuj c jak prawdziwa woda mo»e zosta u»yta do rozwi zania problemu XOR oraz do rozpoznawania wypowiadanych cyfr zero i jeden. Przeprowadzenie tej symulacji byªo obliczeniowo efektywne, gdy» woda transformuje nisko wymiarowy sygnaª wej±ciowy od silników stymuluj cych jej powierzchni na wy»ej wymiarow przestrze«fal. Na rysunku 3.5 przedstawiono architektur maszyny pªynowej u»ytej do tych eksperymentów. Rysunek 3.5: Sprz towa implementacja maszyny pªynowej. ródªo: [26]. Do skonstruowania pªynowego mózgu wykorzystano szklany pojemnik z wod umieszczony na projektorze. Do ka»dej ±ciany pojemnika zostaªy przyczepione silniczki podª czone do komputera. Powstaªe, po zaburzeniu stanu wody dziaªaniem silniczków, wzory rzutowane byªy na antyodblaskowy karton i nagrywane przy u»yciu standardowej internetowej kamery. Nagrane wzory fal po 49

50 przej±ciu przez ltr Sobela stanowiªy wej±cie do sieci neuronowej zªo»onej z 50 perceptronów, do których uczenia u»ywana byªa reguªa p-delta. W celu odtworzenia problemu XOR przy pomocy pªynu dwa silniczki zostaªy ustawione po przeciwnych stronach naczynia. Pojedyncze silniki pracuj ce ze staª cz stotliwo±ci po lewej lub prawej stronie zbiornika odpowiadaªy przypadkom [1 0] oraz [0 1]. Natomiast w przypadku [1 1] oba silniki byªy aktywne w tym samym czasie. Rysunek 3.6 pokazuje fale, które reprezentuj wej±cia w zadaniu XOR. Zbie»no± do optymalnego rozwi zania otrzymano po 200 epokach. Po procesie uczenia 85% obrazów byªa poprawnie klasykowana. Rysunek 3.6: Typowe wzory fal dla problemu XOR. Z lewej góry: [0 1](prawy silnik wªaczony), z prawej góry: [1 0] (lewy silnik wª czony), z lewego doªu: [1 1] (oba silniki wª czone), z prawego doªu: [0 0] (nieruchoma woda). Po prawej strony obrazy po przej±ciu przez ltr Sobela. ródªo: [26]. 3.3 Budowa maszyny pªynowej Architektura maszyny pªynowej (LSM) 7 zaproponowana zostaªa przez Maassa i Markrama jako propozycja uniwersalnej maszyny do oblicze«w czasie rzeczywistym. Ogólna architektura maszyny LSM zostaªa przedstawiona na rysunku 3.7. Maszyna LSM skªada si z trzech cz ±ci: moduªu wprowadzaj cego, kolumny cieczowej oraz warstwy odczytuj cej. Moduª wprowadzaj cy stanowi warstwa neuronów wej±ciowych, na które podawany jest sygnaª zewn trzny. Sygnaª dalej przekazywany zostaje do wybranych neuronów kolumny cieczowej, w której dokonywane s obliczenia neuronowe. Przetworzony przez kolumn ±rodkow sygnaª nast pnie kierowany jest do neuronów moduªu odczytuj cego, gdzie nast puje analiza i interpretacja oblicze«wykonanych w poprzedniej warstwie. U»ywaj c zapisu matematycznego stan maszyny pªynowej jest bie» cym wynikiem dziaªania pewnego operatora lub ltra L M, który odwzorowuje funkcj wej±cia u( ) na funkcj stanu x M (t): x M (t) = (L M u)(t). (3.2) 7 ang. liquid state machine 50

51 Rysunek 3.7: Architektura maszyny pªynowej oraz jej neuronowa implementacja. ródªo: Nast pnie stan maszyny pªynowej x M (t) trasformowany zostaje przy pomocy odczytuj cej warstwy f M na wyj±cie systemu: y(t) = f M (x M (t)). (3.3) W przeciwie«stwie do ltru pªynowego L M skªadaj cego si z losowo poª czonych ze sob neuronów, struktura mapy odczytuj ca f M dostosowywana jest do konkretnego zadania jakie zostaªo postawione maszynie pªynowej. Poniewa» warstwa odczytuj ca nie zostaªa wyposa»ona w pami, wszystkie niezb dne informacje o sygnaªe wej±ciowym u(s), gdzie s t niezb dne do wytworzenia docelowego wyj±cia maszyny y(t) w czasie t musz zosta zachowane w stanie kolumny cieczowej x M (t) [27]. Dokªadna struktura warstwy odczytuj cej nie jest jasno sprecyzowana. W rzeczywisto±ci mo»e ni by ka»da metoda analizy statystycznej czy te» rozpoznawania wzorców. Mo»liwe funkcje odczytuj ce obejmuj : liniowy rzut, dyskryminacje Fishera, perceptron, wielowarstwowy perceptron uczony metod wstecznej propagacji bª du, a nawet metod wektorów wspieraj cych 8. Warto tu zaznaczy,»e kolumna pªynowa nie podlega uczeniu. Tylko i wyª cznie warstwa odczytuj ca jest trenowana, tak aby maszyna LSM optymalnie realizowaªa postawione jej zadanie [28]. Podziaª pomi dzy warstw pªynu a warstw odczytuj c sprawia,»e koncepcja maszyny pªynowej ma znaczn przewag nad zwykªymi rekurencyjnymi sieciami neuronowymi 9. Po pierwsze, proces uczenia warstwy odczytuj cej zazwyczaj trwa du»o krócej, ni» proces uczenia caªej sieci rekurencyjnej. Co wi cej, do tej samej kolumny pªynowej mo»e by podª czonych jednocze±nie 8 ang. Support Vector Machines (SVN) 9 ang. Recurrent Neural Networks (RNN) 51

52 kilka map odczytuj cych, a ka»da z tych map mo»e by przeznaczona do realizowania zupeªnie ró»nych zada«. To oznacza,»e obliczenia w warstwie pªynowej mog by przeprowadzone tylko raz, co daje maszynie LSM wrodzone zdolno±ci oblicze«równolegªych nie wymagaj c przy tym wiele dodatkowej mocy obliczeniowej [28]. 3.4 Biologiczne przesªanki maszyny pªynowej Kora nowa, wspieraj c pojawianie si wysoce zªo»onych funkcji poznawczych, umo»liwia ssakom adaptacj do szybko zmieniaj cego si ±rodowiska. Wy»sze funkcje poznawcze zale» w du»ej mierze od zdolno±ci systemu do przewidywania przyszªych zdarze«w celu wygenerowania wªa±ciwych odpowiedzi w zmiennym ±rodowisku. Równolegle, w czasie rzeczywistym kora nowa transformuje bod¹ce sensoryczne na wielowymiarow odpowied¹ wykorzystuj c w tym procesie równie» informacje przetworzone i zapami tane w przeszªo±ci. Sygnaª odbierany poprzez narz dy sensoryczne zostaje dokªadnie odwzorowany nie tylko w korze nowej, lecz tak»e w rejonie podkory oraz narz dów ruchowych. W obr bie kory informacja ta jest powielana w celu utrzymania spójnego i peªnego obrazu. Topograczne mapy kory nowej dokªadnie precyzuj podstawow funkcj ka»dego regionu kory oraz pokazuj,»e wszystkie funkcje kory s wewn trznie poª czone. To wªa±nie sposób, w jaki te funkcje s powi zane formuje architektur poznawcz, która pozwala korze na tworzenie zintegrowanych wielowymiarowych modeli sensoryczno-ruchowych do symulacji i przewidywania przyszªych zdarze«. W obr bie warstw kory nowej neurony w zawiªy sposób odwzorowuj si wzajemnie. Tu anatomiczne i zjologiczne wªa±ciwo±ci, jak równie» prawdopodobie«stwo poª czenia pomi dzy neuronami s unikalne dla ka»dego poª czenia synaptycznego. Przewaga obliczeniowa tego specycznie uªo»onego rekurencyjnego ukªadu jest ogromna w porównaniu do zwykªej losowej rekurencyjnej sieci. Wielu wczesnych anatomów zaproponowaªo,»e neurony kory nowej mog by zgrupowane w kolumny o ±rednicy rozpi to±ci podstawowego aksonu i dendrytu neuronu piramidalnego (okoªo 500 µm). Rzeczywi±cie ponad 80% synaps neuronów po±rednicz cych kory nowej przeznaczona jest do ª czenia neuronów neuronów w obr bie 500 µm. Eksperymenty w pó¹nych latach 50-tych i wczesnych 60-tych pokazuj,»e pªat kory mo»e równie» by postrzegany funkcjonalnie jako kompozycja maªych powtarzaj cych si kolumn zªo»onych z kilku tysi cy komórek o ±rednicy okoªo 500 µm. Takie funkcjonalne moduªy zostaªy obecnie zaobserwowane w wielu obszarach kory u przedstawicieli ró»nych gatunków. Jednak»e niedawne odkrycia ujawniªy,»e istnieje wiele le» cych na sobie funkcjonalnych kolumn, co sugerowaªoby,»e idea kolumny korowej jako zbioru anatomicznych jednostek nie jest poprawna. Funkcjonalne moduªy pokrywaj si w taki sposób,»e grupa neuronów wspóªpracuj cych ze sob w trakcie jednej operacji nie koniecznie wspóªpracuje w trakcie innej [27]. 52

53 Odkrycia mikroobwodów neuronowych w ró»nych cz ±ciach mózgu czªowieka, czy mózgu przedstawicieli innych gatunków sugeruj, i» takie heterogeniczne kolumny neuronów s nieukierunkowane zadaniowo i przez to mog posiada potencjalnie uniwersalne zdolno±ci obliczeniowe. Maszyna pªynowa mo»e przypomina uproszczony model kory mózgowej, w której pojedyncze neurony uªo-»one s w kolumny. Kolumny te, podobne do siebie anatomicznie i zjologicznie, mog przetwarza wiele zªo»onych zada«równolegle. 3.5 Wªa±ciwo±ci maszyny pªynowej Najistotniejsz wªa±ciwo±ci maszyny pªynowej jest jej zdolno± do generowania ró»nych reakcji w odpowiedzi na ró»ne dane wej±ciowe. Wielko± odlegªo±ci pomi dzy ró»nymi odpowiedziami maszyny nazwana zostaªa wªasno±ci separowalno±ci pªynu (SP) 10. Wska¹nik ten odzwierciedla Rysunek 3.8: Wªa±ciwo± separowalno±ci losowo wygenerowanej maszyny LSM. ródªo: zdolno±ci pªynu do tworzenia ró»nych trajektorii stanów wewn trznych systemu wywoªanych przez dwa ró»ne strumienie wej±ciowe. Zdolno± jednostek odczytuj cych do rozró»niania tych trajektorii, uogólniania i powi zania ich z po» danym wyj±ciem systemu nazwana zostaªa zdolno±ci aproksymacji (AP) 11. Wªasno± ta zale»y w du»ej mierze od zdolno±ci adaptacyjnej wybranych jednostek w warstwie odczytuj cej, podczas gdy SP opiera si bezpo±rednio na zªo»ono±ci pªynu. Identykacja ró»nicy pomi dzy dwoma ró»nymi stanami pªynu, czy te» ró»nica w odpowiedziach na dwa strumienie danych jest w istocie zadaniem trudnym. Nie istniej»adne ostateczne miary odlegªo±ci pomi dzy stanami pªynu, czy te» dla czasowych strumieni wej±ciowych. Poniewa» stany pªynu s z natury wysoce dynamiczne i nieliniowe, ªatwo zauwa»y,»e proste odwzorowanie jeden 10 ang. separation property of the liquid 11 ang. approximation property 53

54 na jeden pomi dzy dwoma stanami nie jest mo»liwe. Nawet maªa ró»nica w wej±ciowych strumieniach mo»e powodowa widocz ró»nic w odpowiedziach pªynu. Jednak»e proste porównywanie mo»e dostarczy nam wskazówek na temat odlegªo±ci pomi dzy trajektoriami pªynów dla dwóch strumieni wej±ciowych. W tym celu mo»emy posªu»y si ±redni norm euklidesow prostych odlegªo±ci pomi dzy stanami dwóch sieci dla wszystkich nagranych kroków czasowych. Formalnie mo»emy to zapisa jako Xu M (t) Xv M (t), gdzie Xu M (t) i Xv M (t) oznaczaj stany pªynu w czasie t dla strumieni wej±ciowych u oraz v. Maass zauwa»yª,»e u»ycie bardziej realistycznych dynamicznych synaps zamiast staªych po- ª cze«synaptycznych znacznie poprawia zachowanie maszyn LSM zbudowanych z impulsowych sieci neuronowych. Synapsy dynamiczne umo»liwiaj zmniejszenie i przyzwyczajenie do sygnaªu wej±ciowego, a tym samym zwi kszaj nieliniowo± interakcji w sieci. Odkrycie,»e bardziej dynamiczne poª czenia zwi kszaj moc obliczeniow modelu nie s zaskakuj ce, je±li u±wiadomimy sobie,»e u»ycie u»ycie tych neuronów i synaps znacz co wzmacnia czasow dynamik o±rodka powoduj c,»e wej±ciowe trajektorie s bardziej unikalne, a tym samym ªatwiejsze do rozró»nienia. W odniesieniu do wªasno±ci separacji warto zaznaczy,»e istnieje silna korelacja pomi dzy siª obliczeniow caªego systemu a nieliniowo±ci sieci pªynowej [29]. 3.6 Maszyna pªynowa a maszyna echowa Jaeger niezale»nie od bada«maassa opracowaª bardzo podobn do maszyny pªynowej koncepcj maszyny echowej (ESM) 12. Obie struktury umo»liwiaj uniwersalne obliczenia w czasie rzeczywistym bez staªych stanów czy atraktorów u»ywaj c do tego celu rekurencyjnych sieci neuronowych. Cho maszyna ESM wydaje si by prawie identyczna z maszyn LSM, istniej mi dzy nimi pewne ró»nice [30]: LSM u»ywane s gªównie do modelowania dynamiki i przedstawiania zjawisk wyst puj cych w biologicznych sieciach neuronowych, podczas gdy ESN wykorzystywane s do bardziej in»ynieryjnych zastosowa«. Kolumna pªynowa w LSM typowo bazuje na impulsowych modelach neuronów, podczas gdy baseny 13 ESN przewa»nie zbudowane s z prostych sigmoidalnych neuronów. Architektura LSM dopuscza u»ycie ró»norodnych mechanizmów warstwy odczytuj cej, wª - czaj c w to uczone wielowarstwowe sieci neuronowe, natomiast ESN ogranicza si tylko do u»ycia pojedynczej warstwy jednostek odczytuj cych stan basenu. 12 ang. Echo State Machine 13 ang. reservoirs 54

55 Jaeger zauwa»yª,»e zastosowanie rekurencyjnej sieci zªo»onej z neuronów typu integrate-and- re zamiast standardowej sigmoidalnej rekurencyjnej sieci znacznie poprawia zachowanie maszyny echowej. Gªówn ró»nic mi dzy tymi dwoma rodzajami sieci jest zdolno± tej pierwszej do reagowania w sposób bardziej nieliniowy na czasowe wej±cie, co mocno odbija si na wzro±cie nieliniowej dynamiki maszyn ESM [31]. 55

56 Rozdziaª 4 Wªa±ciwo±ci maszyny pªynowej dla ró»nych modeli neuronów Do tej pory w badaniach wªa±ciwo±ci maszyny pªynowej u»ywane byªy najprostsze impulsowe modele neuronów typu integrate-and-re oraz te najbardziej zªo»one modele Hodgkina-Huxleya. Wybór tych modeli ma swoje uzasadnienie w ch ci obni»enia potrzebnych zasobów obliczeniowych lub te» w zwi kszeniu biologicznej poprawno±ci symulowanych ukªadów. Maj c do dyspozycji wiele ró»nych modeli neuronów, warto byªoby sprawdzi jak zachowuj si one w maszynie pªynowej. Dlatego te», przedmiotem zainteresowania niniejszego rozdziaªu jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej oraz zbadanie podstawowych jej wªa±ciwo±ci w zale»no±ci od u»ytych modeli neuronów. 4.1 Model maszyny pªynowej Zaproponowana do badania wªa±ciwo±ci maszyny pªynowej architektura opiera si na uproszczonym modelu ukªadu wzrokowego opisanym w [32]. Model ten zostaª przedstawiony na rysunku 4.1. Architektura maszyny pªynowej skªada si z dwóch gªównych moduªów, tj. moduªu wej±ciowego (siatkówki) oraz pojedynczej kolumny pªynowej (hiperkolumny kory). Moduª wej±ciowy stanowi cztery neurony pobudzaj ce uªo»one na siatce o wymiarach Ka»dy neuron siatkówki poª - czony jest z ka»dym neuronem warstwy LGN. Warstwa LGN skªada si z 64 neuronów rozªo»onych na siatce o wymiarach Ka»da z pozostaªych warstw maszyny pªynowej, tj. L4, L3, L3, L2, L5 oraz L6 rozªo»ona jest na siatce Warstwy zestawiane s tak, by poª czenie zachodziªo tylko pomi dzy neuronami z tylnej ±cianki warstwy poprzedzaj cej i neuronami z przedniej ±cianki warstwy nast puj cej. Dodatkowo, kolumna L6 zostaªa bezpo±rednio poª czona z kolumn LGN. Poª czenia mi dzy neuronami wewn trz warstw generowane s losowo z prawdopodobie«stwem 56

57 Rysunek 4.1: Model maszyny pªynowej. ródªo: Opracowanie wªasne. poª czenia pomi dzy par neuronów ustalanej nast puj c zale»no±ci [33]: P (D) = C e D(A,B) λ, (4.1) gdzie D(A, B) oznacza euklidesow odlegªo± mi dzy neuronami A i B, za± parametr λ okre±la g sto± poª cze«. W zale»no±ci od tego, czy poª czenie tworzone jest pomi dzy neuronami pobudzaj cymi (Ex) a hamuj cymi (Inh) wspóªczynnik C przyjmuje nast puj ce warto±ci: C Ex Ex = 0, 3, C Ex Inh = 0, 2, C Inh Inh = 0, 1 oraz C Inh Ex = 0, 4. Udziaª poª cze«pobudzaj cych w kolumnie cieczowej wynosi 80%. 4.2 Metody bada«wszystkie symulacje omawiane w niniejszym rozdziale przeprowadzone zostaªy przy u»yciu symulatora ukªadów neuronowych CSim 1 w otoczeniu programistycznym Matlab. W dalszych rozwa»aniach nazwy neuronów i typów synaps bed u»yte bezpo±rednio ze ±rodowiska CSim. Do badania wªa±ciwo±ci maszyny pªynowej wybrano nast puj ce modele neuronów: integrateand-re, resonate-and-re, FitzHugh-Nagumo, Morrisa-Lecara, Hindmarsha-Rose oraz Izhikevicha. Poniewa» symulator CSim spo±ród tych modeli pozwalaª na u»ycie tylko modelu integrate-and-re oraz Izhikevicha, na potrzeby tej pracy jego mo»liwo±ci zostaªy rozszerzone o pozostaªe modele. Moduª wej±ciowy maszyny pªynowej zªo»ony byª z neuronów typu Input Spiking Neuron, na które podawane byªy dwa wzorce, wzorzec W1 oraz W2. Wzorzec stanowiªy 4 losowo wygenerowane ci gi impulsów, ka»dy podawany na osobny neuron w cz ±ci siatkówkowej. Przebieg impulsów w obu wzorcach zobrazowano na rysunkach 4.2 i Symulator CSim oraz szczegóªowa dokumentacja do niego dost pny jest na stronie 57

58 Rysunek 4.2: Ci gi impulsów podawane na siatkówk. Wzorzec W1. ródªo: Opracowanie wªasne. Rysunek 4.3: Ci gi impulsów podawane na siatkówk. Wzorzec W2. ródªo: Opracowanie wªasne. W celu zbadania aktywno±ci sieci powstaªej w wyniku wprowadzenia do niej dwóch ró»nych wzorców zostaªa wykorzystana analiza odlegªo±ci euklidesowej umo»liwiaj ca okre±lenie zdolno±ci asocjacyjnych nieuczonej sieci. Odlegªo± euklidesowa E W 1W 2 (t) deniowana jest jako liczba neuronów, których stan w danym kroku czasowym t po wprowadzeniu wzorca W 1 ró»ni si od stanu tych neuronów w przypadku pokazania wzorca W 2, co zapisujemy jako [34]: E W 1W 2 (t) = n (yi W 1 (t) yi W 2 (t)) 2, (4.2) i=1 gdzie n oznacza liczb obserwowanych neuronów, yi W 1 (t) i yi W 2 (t) oznaczaj stan i-tego neuronu w czasie t po wrowadzeniu do sieci wzorca odpowiednio W 1 oraz W 2. W pracy obserwowano tylko stany neuronów z tylnej ±cianki ostatniej warstwy hiperkolumny. Czas symulacji T wynosiª 1000 ms i podzielony zostaª na przedziaªy t i = 10 ms, w których liczona byªa odleglo± euklidesowa. 58

59 Stan maszyny pªynowej okre±laª binarny wektor o dªugo±ci 64, w którym skªadowa '0' oznaczaªa nieaktywny neuron, za± '1' neuron aktywny. Do scharakteryzowania przepªywu informacji w maszynie pªynowej wykorzystano miar entropii opieraj c si na klasycznej denicji entropii informacyjnej Shannona. W przeprowadzonych badaniach symulowano 1000 ms pracy ukªadu biologicznego. W tym czasie na warstwie odczytuj cej odczytano N stanów aktywnych, przy czym liczba stanów ró»niªa si w zale»no±ci od u»ytego w warstwie pªynowej modelu neuronu oraz pokazywanych siatkówce wzorców. Prawdopodobie«- stwo wyst pienia n i aktywnych neuronów w czasie t i = 10 ms mo»na zdeniowa nast puj co [35]: p i = n i N. (4.3) Prawdopodobie«stwo to interpretujemy jako szans na przekazanie caªej informacji w czasie t i. Suma prawdopodobie«stw jest zdarzeniem pewnym. 100 p i = n 1 + n n 100 N i=1 = 1. (4.4) Wykorzystuj c denicj prawdopodobie«stwa p i mo»na wprowadzi entropi indywidualn S i o = p i ln(p i ) (4.5) oraz entropi globaln S i = i S i o = i p i ln(p i ). (4.6) W badaniach rozpatrywano dwie warto±ci parametru λ okre±laj cego g sto± synaps w poszczególnych warstwach hiperkolumny cieczowej. Poª czenia mi dzy warstwami realizowane byªy za pomoc Static Spiking Synapse, natomiast poª czenia mi dzy neuronami wewn trz warstw odbywaªy si za pomoc Dynamic Spiking Synapse. Wagi poª cze«mi dzy neuronami zale»aªy od zastosowanego modelu neuronu w maszynie pªynowej i zostaªy dobrane eksperymentalnie, tak by jak najlepiej zobrazowana zostaªa dynamika modelu. Waga poª cze«synaptycznych Wscale dla neuronów integrate-and-re wynosiªa 5, dla resonate-and-re, FitzHugh-Nagumo oraz Hindmarsha- Rose 1, dla Morrisa-Lecara 3, a dla Izhikevicha Wyniki bada«w celu uzyskania wi kszej poprawno±ci wyników symulacje byªy powtarzane 5-krotnie dla ka»dego podawanego na wej±cie maszyny wzorca. Do dalszych rozwa»a«wykorzystywane byªy u±rednione wyniki z symulacji. 59

60 4.3.1 Aktywno± neuronów w czasie symulacji Na rysunku 4.4 przedstawione zostaªy przebiegi stanów aktywno±ci obserwowanych neuronów maszyny pªynowej w odpowiedzi na wprowadzone wzorce W1 oraz W2. Porównanie wykresów przebiegu stanów aktywno±ci dla ró»nych modeli neuronów umo»liwia ªatwe uchwycenie ró»nic w ich dynamice. (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morrisa-Lecara (e) Hindmarsha-Rose'84 (f) Hindmarsha-Rose'85 (g) Izhikevicha Rysunek 4.4: Odpowiedzi maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 60

61 Na rysunku 4.4(a) przedstawione zostaªy przebiegi stanów aktywno±ci obserwowanych neuronów maszyny pªynowej zªo»onej z neuronów typu integrate-and-re w odpowiedzi na podane wzorce W 1 oraz W 2. Jak wida ró»nica pomi dzy obydwoma przebiegami jest znaczna. Dla wzorca W2 po krótkim przejawie aktywno±ci na pocz tku symulacji wyst puje dªuga przerwa w aktywno±ci neuronów. Ró»nice w odpowiedziach maszyny pªynowej zªo»onej z neuronów resonate-and-re na wprowadzane wzorce, nie s ju» tak dobrze widoczne, jak w przypadku neuronów integrate-and-re. Dodatkowo, jak mo»na zaobserwowa na rysunku 4.4(b), odpowiedzi neuronów pokrywaj do± równomiernie prawie caª przestrze«wykresu tworz c przy tym charakterystyczny powtarzaj cy si wzór. W przypadku maszyny pªynowej skªadaj cej si z neuronów FitzHugh-Nagumo, ró»nice pomi dzy stanami sieci dla ró»nych wzorców nie s wyra¹ne. Na rysunku 4.4(c) mo»na zauwa»yc,»e przez pierwsze 350 ms wyst puje okres ciszy, po którym do ko«ca symulacji obserwowane neurony pozostaj bardzo aktywne. Ró»nice pomi dzy stanami obserwowanych neuronów Morrisa-Lecara, które wida na rysunku 4.4(d) s dobrze widoczne. Neurony charakteryzuj si du» aktywno±ci podczas caªego czasu trwania symulacji. Podobnie jak w przypadku modelu FitzHugh-Nagumo, tu te» wyst puje pocz tkowy okres braku aktywno±ci neuronów, po którym nast puje wzmo»ona ich praca. Porównuj c rysunki 4.4(e) i 4.4(f), ªatwo zauwa»y,»e stany neuronów Hindmarsha-Rose'84 ukªadaj si warstwowo, czyli po stanach aktywno±ci nast puje okres ich nieaktywno±ci, co natomiast nie wyst puje w przypadku neuronów Hindmarsha-Rose'85. Ró»nica ta mo»e by nast pstwem du»o wi kszej aktywno±ci neuronów wersji drugiej omawianego modelu. Ró»nice w odpowiedziach maszyny neuronowej na podawany wzorzec w przypadku modelu Izhikevicha nie s wyra¹ne. Stany ukªadaj si warstwowo, po krótkich okresach wzmo»nonej aktywno±ci neuronów nast puje do± dªuga przerwa w ich pracy Odlegªo± euklidesowa Na rysunku 4.5(a) przedstawiono wykres odlegªo±ci euklidesowej stanów maszyny pªynowej skªadaj cej si z neuronów integrate-and-re. Odlegªo± euklidesowa mierzona dla parametru λ = 9 jest znacznie mniejsza ni» w przypadku λ = 3, co oznacza sªabsze zdolno±ci separacji wzorców, gdy neurony s ze sob g sto poª czone. W przypadku modelu resonate-and-re (patrz 4.5(b)) dla obu warto±ci parametru λ odlegªo±ci euklidesowe s porównywalne i oscyluj wokóª warto±ci 5. Takie zachowanie mo»e sugerowa,»e zwi kszenie g sto±ci poª cze«synaptycznych w kolumnach pªynowych zªo»onych z neuronów resonate-and-re nie wpªywa na zmian zdolno±ci separacyjnych maszyny LSM. 61

62 (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morris-Lecar (e) Hindmarsh-Rose'84 (f) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.5: Odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 62

63 Warto±ci odlegªo±ci euklidesowych maszyny pªynowej zªo»onej z neuronów FitzHugh-Nagumo ró»ni si diametralnie dla obu warto±ci λ. W przypadku λ = 9 warto± odlegªo±ci gwaªtownie narasta pocz wszy od 250 ms symulacji przez okoªo 100 ms, a» do osi gni cia warto±ci maksymalnej, po czym równie gwaªtownie spada do zera. Sugeruje to,»e po tym czasie neurony synchronizuj si, a ró»nica pomi dzy wprowadzonymi wzorcami nie jest widoczna. Inaczej jest w przypadku warto- ±ci λ = 3. Odlegªo± euklidesowa gwaªtownie wzrasta w okoªo 300 ms symulacji i szybko osi ga swoje maksimum. Nast pnie jej warto± obni»a si, ale pozostaje dodatnia do ko«ca symulacji. Jak wida na rysunku 4.5(d) warto± odlegªo±ci euklidesowej dla przypadku λ = 3 utrzymuje si w okolicach 6, co ±wiadczy mo»e o dobrej, w porównaniu do pozostaªych modeli, zdolno±ci separacji modelu Morrisa-Lecara. Dla warto±ci λ = 9 warto± odlegªo±ci jest wysoka na pocz tku symulacji, po czym powoli, ale systematycznie zmniejsza si do 1. Wykresy odlegªo±ci euklidesowej odpowiedzi maszyn pªynowych zbudowanych z neuronów typu Hindmarsha-Rose'84 oraz z neuronów Hindmarsha-Rose'85 na podane wzorce W 1 oraz W 2 przedstawione zostaªy na rysunkach 4.5(e) oraz 4.5(f). Šatwo wida,»e w przypadku, gdy parametr g sto±ci poª cze«synaptycznych przyj ª warto± 9, wykresy te nie ró»ni si znacznie. Inaczej jest w przypadku, gdy warto± g sto±ci wynosiªa 3. Odlegªo± euklidesowa dla maszyny pªynowej zªo»onej z neuronów Hindmarsha-Rose'84 waha si w granicach od 3 do 6 w trakcie prawie caªego przebiegu symulacji. Natomiast warto± ta dla maszyny zªo»onej z neuronów Hindmarsha-Rose'85 jest generalnie wy»sza i oscyluje mi dzy 5 a 6. Na tej podstawie mo»na sugerowa,»e maszyna pªynowa zªo»ona z neuronów drugiej wersji modelu Hindmarsha-Rose ma lepsze wªa±ciwo±ci separowalno±ci. Przedstawione na rysunku 4.5(g) odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»onej z neuronów Izhikevicha s niewielkie. Warto± ta przewa»ne jest ni»sza od 2 dla parametru λ = 9 oraz 3 dla parametru λ = 3. wiadczy to o maªych zdolno±ciach separacyjnych maszyny LSM zbudowanej z omawianego modelu neuronu. Na rysunku 4.6 przedstawiono zbiorcze uj cie wszystkich przebiegów stanów maszyn pªynowych omówionych w tym podrozdziale. Dla parametru λ = 3 wida,»e w trakcie prawie caªej symulacji odlegªo±ci euklidesowe s najwi ksze dla modelu Morrisa-Lecara, za± najmniejsze dla modelu Izhikevicha. Niewiele mniejszymi odlegªo±ciami od modelu Morrisa-Lecara charakteryzuje si model resonate-and-re, a tak»e po okresie rozgrzewania model Hindmarsha-Rose'85. Dla parametru λ = 9 najwi ksz warto±ci odlegªo±ci cechuje si model Hindmarsha-Rose'84 i jest to jedyny przypadek, w którym warto± ta ulega poprawie po zwi kszeniu g sto±ci poª cze«synaptycznych w kolumnach pªynowych. Najni»sze warto±ci odlegªo±ci w tej konguracji przypadaj modelowi Izhikevicha oraz integrate-and-re. Wªasno± separowalno±ci jest najwa»niejsz wªasno±ci maszyn pªynowych. Odlegªo± euklidesowa deniowana jako liczba neuronów, których stan po wprowadzeniu wzorca W 1 ró»ni si od 63

64 stanu neuronów w przypadku pokazania wzorca W 2, pozwala na okre±lenie zdolno±ci separowalno±ci maszyny pªynowej. Reasumuj c powy»sze rozwa»ania na temat odlegªo±ci euklidesowych dla ró»nych modeli neuronów, mo»na stwierdzi,»e najlepsze wªasno±ci separowalno±ci posiada model Morrisa-Lecara przy warto±ci g sto±ci poª cze«równej 3 oraz model Hindmarsha-Rose'84 przy warto±ci g sto±ci poª cze«równej 9. Do± stabilna i porównywalna dla obu konguracji odlegªo± euklidesowa modelu resonate-and-re, równie» ±wiadczy o dobrych wªasno±ciach separowalno±ci tego modelu. Najsªabsze wªasno±ci separowalno±ci posiadaj modele integrate-and-re oraz Izhikevicha. Rysunek 4.6: Odlegªo± euklidesowa stanów maszyny pªynowej dla ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 64

65 4.3.3 Indywidualna i globalna entropia informacyjna Zmiany indywidualnej entropii informacyjnej dla ró»nych modeli neuronów u»ytych w warstwie pªynowej przedstawia rysunek 4.7. Dla wzorca W1 i W2 charakter zmian entropii indywidualnej ró»ni si nieznacznie w przypadku modeli resonate-and-re, FitzHugh-Nagumo oraz Hindmarsha- Rose'85. Najwi ksze ró»nice w zmianach entropii indywidualnej dla ka»dego z wzorców wej±ciowych widoczne s dla modeli Hindmarsha-Rose'84 i Izhikevicha. Warto zwróci uwag na ksztaªt wykresu entropii indywidualnej wyznaczonej dla neuronów resonate-and-re. Przypomina on wykres 2.2 odpowiedzi pojedynczego neuronu resonate-and-re. Pocz tkowa wysoka warto± entropii indywidualnej 0,12 zostaje wytªumiona do warto±ci okoªo 0,05, która utrzymuje si ju» prawie do ko«ca symulacji. (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morris-Lecar (e) Hindmarsh-Rose'84 (f) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.7: Entropia lokalna maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 65

66 Rysunek 4.8 obrazuje otrzymane w badaniach zmiany globalnej entropii informacyjnej. Nietrudno zauwa»y,»e globalna entropia akumuluje si w czasie. Najwi ksze warto±ci osi gane s dla modeli resonate-and-re (ponad 4,5) oraz Morrisa-Lecara i FitzHugh-Nagumo (okoªo 4,5), najni»sze za± dla modelu Izhikevicha (okoªo 3). (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morris-Lecar (e) Hindmarsh-Rose'84 (f) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.8: Entropia globalna maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 66

67 Rozdziaª 5 Rozpoznawanie ekspresji twarzy przy u»yciu maszyny pªynowej Zadanie rozpoznawania emocji na podstawie obrazu twarzy podejmowane jest przez wielu badaczy. Do tej pory jako podstawy systemu klasykuj cego ekspresje bardzo cz sto wykorzystywano sieci neuronowe nale» ce do drugiej generacji. W rozdziale tym zostanie zaprezentowane caªkowicie nowe podej±cie do zagadnienia rozpoznawania emocji oparte na modelu maszyny pªynowej. Skonfrontowane zostan dwa sposoby przetwarzania informacji z obrazu twarzy oraz ich wpªyw na wynik rozpoznania poszczególnych ekspresji. Porównane zostan równie» wªa±ciwo±ci aproksymacyjne maszyn pªynowych w zale»no±ci od u»ytych modeli neuronów. 5.1 Systemy rozpoznawania ekspresji twarzy Emocje odgrywaj coraz wi ksz rol przy projektowaniu systemów komputerowych, a zwªaszcza przy tworzeniu interfejsów pomi dzy komputerem a u»ytkownikiem. Poci ga to za sob konieczno± automatycznego rozpoznania ludzkich zachowa«oraz umiej tno±ci ich klasykacji i opisu. Ró»ne stany emocjonalne czªowiek wyra»a poprzez mimik, gesty, postaw ciaªa, d¹wi ki. Zatem, aby caªo±ciowo obj problem automatycznego rozpoznawania emocji nale»aªoby podda jednoczesnej analizie wszystkie sposoby wyra»ania stanów uczu. Ze wzgl du na zªo»ono± tego problemu, dotychczasowe prace badaczy ograniczaj si do jednego czy te» dwóch sposobów wyra»ania stanów emocjonalnych. Pocz wszy od wczesnych lat 70-tych ubiegªego wieku, Paul Ekman wraz z kolegami przeprowadziª obszerne badania nad ekspresj twarzy. Potwierdziªy one tez o uniwersalno±ci ekspresji takich jak: rado±, smutek, zªo±, strach, zaskoczenie oraz wstr t. Ekman i Friesen zaproponowali 67

68 system kodowania ekspresji twarzy FACS 1, w którym ruchy twarzy opisane byªy zbiorem jednostek akcji, a ka»dej jednostce odpowiadaª mi sie«twarzy [37]. Poszczególne ekspresje twarzy opisane zostaªy jako kombinacja pojedynczych jednostek akcji. Ten system kodowania ekspresji twarzy wykonywany byª r cznie starannie przestrzegaj c zapisanych reguª. Klasykacji podlegaªy statyczne obrazy przedstawiaj ce emocje przewa»nie w jej szczytowym momencie. Prace Ekmana zainspirowaªy wielu badaczy do poszukiwa«automatycznych metod analizy ekspresji twarzy. Ogólnie systemy automatycznego rozpoznawania ekspresji twarzy skªadaj si z nast puj cych faz: wykrycia i lokalizacji twarzy, ekstrakcji cech twarzy oraz klasykacji ekspresji twarzy. Ka»da z faz stanowi odr bny problem badawczy. Najskuteczniejsze systemy detekcji twarzy oparte s na sieciach neuronowych. W momencie wykrycia twarzy na obrazie, koresponduj cy obszar zostaje wyodr bniony i znormalizowany tak, by na przykªad odlegªo±ci pomi dzy oczami byªy zbli»one dla wszystkich obrazów. Kolejna faza, ekstrakcja cech twarzy skupia si na próbie znalezienia najodpowiedniejszej reprezentacji obrazu twarzy dla problemu jej rozpoznania. Wyró»ni mo»na tu dwa gªówne podej±cia, oparte na holistycznym dopasowaniu wzorców lub oparte na geometrycznych cechach twarzy [36]. W systemach holistycznych wzór mo»e by obrazem cyfrowym lub te» wektorem cech uzyskanym po przetworzeniu caªego obrazu twarzy. Do redukcji wielowymiarowej reprezentacji wektorowej wykorzystuje si analiz gªównych skªadowych 2 oraz wielowarstwowe sieci neuronowe. W systemach wykorzystuj cych geometryczne wªasno±ci twarzy, wektor cech stanowi odlegªo±ci pomi dzy charakterystycznymi punktami twarzy oraz relatywne rozmiary gªównych skªadowych twarzy. Punkty charakterystyczne mog równie» tworzy geometryczny graf repezentuj cy twarz [37]. Systemy te przewa»nie s obliczeniowo bardziej wymagaj ce od systemów opartych na wzorcach, jednak»e s bardziej odporne na ró»nice w skali, rozmiarach, orientacji gªowy oraz lokalizacji twarzy na obrazie. Zadanie klasykacji ekspresji twarzy mo»e by rozwi zywane ró»nie w zale»no±ci od tego czy do systemu wprowadzana jest sekwencja obrazów czy te» obraz statyczny. W pierwszym przypadku, analiza ekspresji mo»liwa jest za pomoc ±ledzenia zmian poªo»enia charakterystycznych punktów twarzy. Mo»na równie» analizowa ruch kraw dzi wyodr bionych w obszarze wokoª ust, nosa, oczy oraz brwi. Bardzo cz sto wykorzystywane s tak»e metody przepªywu optycznego 3, do których w celu zredukowania wielowymiarowo±ci stosuje si analiz gªównych skªadowych. Do klasykacji ekspresji z obrazów statycznych bardzo cz sto wykorzystuje si metod wªa±ciwych twarzy 4 w po- ª czeniu z analiz gªównych skªadowych [37]. Do analizy emocji twarzy stosowane s równie» sieci Bayesa [37], klasykatory oparte na ukrytych modelach Markowa 5 [37] oraz wielowarstwowe sieci neuronowe [36, 37]. 1 ang. Facial Action Coding System 2 ang. principal component analysis (PCA) 3 ang. optical ow 4 ang. eigenfaces 5 Hidden Markov Model (HMM) 68

69 Tablica 5.1: Porównanie algorytmów rozpoznawania ekspresji twarzy. ródªo: [37]. Autor Sposób przetwarzania Klasykator Liczba Liczba Skuteobrazu ekspresji podmiotów -czno± Mase przepªyw optyczny sieci neuronowe % Black i Yacoob model parametryczny oparty na reguªach % Yacoob i Davis przepªyw optyczny oparty na reguªach % Rosenblum i inni przepªyw optyczny sieci neuronowe % Essa i Pentland przepªyw optyczny opaty na odlegªo±ci % Otsuka i Ohya przepªyw optyczny HMM % Lanitis i inni model wygl du oparty na odlegªo±ci 7-74% Chen model wygl du Winnow % Cohen i inni model wygl du sieci Bayesa % W tabeli 5.1 przedstawiono porównanie algorytmów rozpoznawania ekspresji twarzy. Jak wida ogólna skuteczno± prawidªowej klasykacji ekspresji twarzy jest do± wysoka. Najwy»sza w±ród algorytmów rozpoznaj cych 6 emocji wynosi 95%, natomiast w±ród algorytmów rozpoznaj cych 5 ekspresji a» 98% [37]. Poprawno± systemów, w których rol klasykatora peªni sieci neuronowe jest ju» nieco ni»sza i wynosi 86% [37]. Warto zauwa»y,»e zadanie rozpoznania ekspresji z obrazu statycznego jest du»o trudniejsze. Dla tych algorytmów skuteczno± rozpoznania generalnie jest ni»sza, jak na przykªad przy algorytmie Lanitisa, gdzie wynosi ona 74% [37]. 5.2 Zbiór danych i ich reprezentacja Baza zdj JAFFE 6 u»yta w eksperymentach skªada si z 213 zdj przedstawiaj cych 6 podstawowych ekspresji twarzy, takich jak: rado±, smutek, zaskoczenie, zªo±, odraza, strach, oraz 1 neutralnej, pozowanych przez 10 japo«skich kobiet. Oryginalne zdj cia zostaªy przeskalowane i wykadrowane, tak aby oczy na poszczególnych obrazach znajdowaªy si na zbli»onych pozycjach. Przykªadowe zdj cia pokazuje rysunek 5.1. W badaniach sprawdzono dwie ró»ne reprezentacje obrazów. Pierwsza wykorzystuje cechy wyekstrahowane przy pomocy dwuwymiarowej transformacji Gabora. Dwuwymiarowa funkcja Gabora jest fal pªask z wektorem falowym k ograniczonym przez obwiedni Gaussa o relatywnej szeroko±ci σ, przedstawion wzorem [36]: Ψ(k, x) = k2 x 2 σ 2 exp( k2 )[exp(ik x) exp( σ2 )], (5.1) 2σ2 2 gdzie x oznacza wspóªrz dne punktu ltra. W pracy wykorzystano zbiór j der Gabora z wektorem falowym o warto±ci k = π i 6 ró»nymi orientacjami (od 4 00 do 180 0, w odst pach 30 0 ) oraz 6 Dost p do bazy zdj JAFFE jest bezpªatny pod warunkiem u»ycia jej w niekomercyjnych badaniach. Informacje na temat mo»liwo±ci uzyskania dost pu do bazy znajduj si na stronie 69

70 Rysunek 5.1: Przykªadowe zdj cia z bazy expresji twarzy JAFFE. ródªo: [36]. (a) Geometria twarzy. ródªo: (b) Filtry [36]. Gabora. ródªo: Opracowanie wªasne. Rysunek 5.2: Reprezentacja gaborowska twarzy. przyj to warto± σ równ π. Ka»dy obraz podlegaª konwolucji z j drami Gabora w 34 staªych punktach reprezentujacych geometri twarzy. Rozmieszczenie tych punktów mo»na zobaczy na rysunku 5.2(a). Dla potrzeb bada«punkty te zostaªy wybrane manualnie. Jednak»e nale»y w tym miejscu wspomnie,»e istniej automatyczne metody budowania podobnej reprezentacji. Twarz reprezentowana jest przez wektor skªadaj cy si z 204 moduªów liczb zespolonych. Na rysunku 5.2(b) pokazane s 3 przykªadowe ltry Gabora oraz wynik konwolucji obrazu z cz ±ci rzeczywist ltru oraz z moduªem ltru. Reprezentacja ta b dzie dalej nazywana w skrócie reprezentacj gaborowsk. W drugim sposobie reprezentacji twarzy tylko jej cz ± o wymiarach 10x45 pikseli zostaªa wzi ta pod uwag. Przykªadowe obrazy zostaªy przedstawione na rysunku 5.3. W górnej cz ±ci mo»na zauwa»y wyodr bion cz ± twarzy w skali szaro±ci, natomiast pod spodem jej binarny odpowiednik. Reprezentacj twarzy stanowi w tym przypadku wektor 450 liczb binarnych. Reprezentacja ta w dalszych rozwa»aniach b dzie okre±lana w skrócie jako reprezentacja binarna. 70

71 Rysunek 5.3: Binarna reprezentacja cz ±ci obrazu. ródªo: Opracowanie wªasne. 5.3 Architektura systemu Proponowany system maj cy na celu rozpoznawanie emocji opiera si na modelu maszyny pªynowej i skªada si z dwóch cz ±ci: (a) cz ±ci pªynowej oraz (b) dwuwarstwowego perceptronu. Na rysunku 5.4 przedstawiona zostaªa cz ± pªynowa systemu. Dla wi kszej przejrzysto±ci rysunku pokazane zostaªy tylko pol czenia wchodz ce oraz wychodz ce dla wybranego neuronu z warstwy ±rodkowej. Rysunek 5.4: Archiktektura maszyny pªynowej z zaznaczonymi poª czeniami wchodz cymi oraz wychodz cymi dla wybranego neuronu z warstwy ±rodkowej. ródªo: Opracowanie wªasne. 71

przewidywania zapotrzebowania na moc elektryczn

przewidywania zapotrzebowania na moc elektryczn do Wykorzystanie do na moc elektryczn Instytut Techniki Cieplnej Politechnika Warszawska Slide 1 of 20 do Coraz bardziej popularne staj si zagadnienia zwi zane z prac ¹ródªa energii elektrycznej (i cieplnej)

Bardziej szczegółowo

Cel modelowania neuronów realistycznych biologicznie:

Cel modelowania neuronów realistycznych biologicznie: Sieci neuropodobne XI, modelowanie neuronów biologicznie realistycznych 1 Cel modelowania neuronów realistycznych biologicznie: testowanie hipotez biologicznych i fizjologicznych eksperymenty na modelach

Bardziej szczegółowo

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja

Bardziej szczegółowo

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15 ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku

Bardziej szczegółowo

Optyka geometryczna. Soczewki. Marcin S. Ma kowicz. rok szk. 2009/2010. Zespóª Szkóª Ponadgimnazjalnych Nr 2 w Brzesku

Optyka geometryczna. Soczewki. Marcin S. Ma kowicz. rok szk. 2009/2010. Zespóª Szkóª Ponadgimnazjalnych Nr 2 w Brzesku skupiaj ce rozpraszaj ce Optyka geometryczna Zespóª Szkóª Ponadgimnazjalnych Nr 2 w Brzesku rok szk. 2009/2010 skupiaj ce rozpraszaj ce Spis tre±ci 1 Wprowadzenie 2 Ciekawostki 3 skupiaj ce Konstrukcja

Bardziej szczegółowo

WFiIS Imi i nazwisko: Rok: Zespóª: Nr wiczenia: Fizyka Dominik Przyborowski IV 5 22 J drowa Katarzyna Wolska

WFiIS Imi i nazwisko: Rok: Zespóª: Nr wiczenia: Fizyka Dominik Przyborowski IV 5 22 J drowa Katarzyna Wolska WFiIS Imi i nazwisko: Rok: Zespóª: Nr wiczenia: Fizyka Dominik Przyborowski IV 5 22 J drowa Katarzyna Wolska Temat wiczenia: Wyznaczanie stosunku przekrojów czynnych na aktywacj neutronami termicznymi

Bardziej szczegółowo

Lekcja 9 - LICZBY LOSOWE, ZMIENNE

Lekcja 9 - LICZBY LOSOWE, ZMIENNE Lekcja 9 - LICZBY LOSOWE, ZMIENNE I STAŠE 1 Liczby losowe Czasami spotkamy si z tak sytuacj,»e b dziemy potrzebowa by program za nas wylosowaª jak ± liczb. U»yjemy do tego polecenia: - liczba losowa Sprawd¹my

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci

Bardziej szczegółowo

Metodydowodzenia twierdzeń

Metodydowodzenia twierdzeń 1 Metodydowodzenia twierdzeń Przez zdanie rozumiemy dowolne stwierdzenie, które jest albo prawdziwe, albo faªszywe (nie mo»e by ono jednocze±nie prawdziwe i faªszywe). Tradycyjnie b dziemy u»ywali maªych

Bardziej szczegółowo

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9

Metody numeryczne. Wst p do metod numerycznych. Dawid Rasaªa. January 9, 2012. Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Wst p do metod numerycznych Dawid Rasaªa January 9, 2012 Dawid Rasaªa Metody numeryczne 1 / 9 Metody numeryczne Czym s metody numeryczne? Istota metod numerycznych Metody numeryczne s

Bardziej szczegółowo

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz

Lekcja 8 - ANIMACJA. 1 Polecenia. 2 Typy animacji. 3 Pierwsza animacja - Mrugaj ca twarz Lekcja 8 - ANIMACJA 1 Polecenia Za pomoc Baltiego mo»emy tworzy animacj, tzn. sprawia by obraz na ekranie wygl daª jakby si poruszaª. Do animowania przedmiotów i tworzenia animacji posªu» nam polecenia

Bardziej szczegółowo

Podstawy statystycznego modelowania danych Analiza prze»ycia

Podstawy statystycznego modelowania danych Analiza prze»ycia Podstawy statystycznego modelowania danych Analiza prze»ycia Tomasz Suchocki Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu 1. Wprowadzenie 2. Hazard rate

Bardziej szczegółowo

Zastosowania matematyki

Zastosowania matematyki Zastosowania matematyki Monika Bartkiewicz 1 / 126 ...czy«cie dobrze i po»yczajcie niczego si nie spodziewaj c(šk. 6,34-35) Zagadnienie pobierania procentu jest tak stare jak gospodarka pieni»na. Procent

Bardziej szczegółowo

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. wiczenia 1 2 do wiczenia 3 4 Badanie do±wiadczalne 5 pomiarów 6 7 Cel Celem wiczenia jest zapoznanie studentów z etapami przygotowania i

Bardziej szczegółowo

7. REZONANS W OBWODACH ELEKTRYCZNYCH

7. REZONANS W OBWODACH ELEKTRYCZNYCH OBWODY SYGNAŁY 7. EZONANS W OBWODAH EEKTYZNYH 7.. ZJAWSKO EZONANS Obwody elektryczne, w których występuje zjawisko rezonansu nazywane są obwodami rezonansowymi lub drgającymi. ozpatrując bezźródłowy obwód

Bardziej szczegółowo

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski III. CAŠKOWAIE METODAMI MOTE CARLO Janusz Adamowski 1 1 azwa metody Podstawowym zastosowaniem w zyce metody Monte Carlo (MC) jest opis zªo-»onych ukªadów zycznych o du»ej liczbie stopni swobody. Opis zªo»onych

Bardziej szczegółowo

Zagadnienia na wej±ciówki z matematyki Technologia Chemiczna

Zagadnienia na wej±ciówki z matematyki Technologia Chemiczna Zagadnienia na wej±ciówki z matematyki Technologia Chemiczna 1. Podaj denicj liczby zespolonej. 2. Jak obliczy sum /iloczyn dwóch liczb zespolonych w postaci algebraicznej? 3. Co to jest liczba urojona?

Bardziej szczegółowo

Wykªad 10. Spis tre±ci. 1 Niesko«czona studnia potencjaªu. Fizyka 2 (Informatyka - EEIiA 2006/07) c Mariusz Krasi«ski 2007

Wykªad 10. Spis tre±ci. 1 Niesko«czona studnia potencjaªu. Fizyka 2 (Informatyka - EEIiA 2006/07) c Mariusz Krasi«ski 2007 Wykªad 10 Fizyka 2 (Informatyka - EEIiA 2006/07) 08 05 2007 c Mariusz Krasi«ski 2007 Spis tre±ci 1 Niesko«czona studnia potencjaªu 1 2 Laser 3 2.1 Emisja spontaniczna...........................................

Bardziej szczegółowo

Analiza wydajno±ci serwera openldap

Analiza wydajno±ci serwera openldap Analiza wydajno±ci serwera openldap Autor: Tomasz Kowal 13 listopada 2003 Wst p Jako narz dzie testowe do pomiarów wydajno±ci i oceny konguracji serwera openldap wykorzystano pakiet DirectoryMark w wersji

Bardziej szczegółowo

Badanie dynamiki synchronizacji modów w laserze femtosekundowym Yb:KYW

Badanie dynamiki synchronizacji modów w laserze femtosekundowym Yb:KYW Badanie dynamiki synchronizacji modów w laserze femtosekundowym Yb:KYW III Pracownia z optyki Michaª D browski Streszczenie Dynamika laserów impulsowych z pasywn synchronizacj modów jest zjawiskiem maªo

Bardziej szczegółowo

Temat: Co to jest optymalizacja? Maksymalizacja objętości naczynia prostopadłościennego za pomocą arkusza kalkulacyjngo.

Temat: Co to jest optymalizacja? Maksymalizacja objętości naczynia prostopadłościennego za pomocą arkusza kalkulacyjngo. Konspekt lekcji Przedmiot: Informatyka Typ szkoły: Gimnazjum Klasa: II Nr programu nauczania: DKW-4014-87/99 Czas trwania zajęć: 90min Temat: Co to jest optymalizacja? Maksymalizacja objętości naczynia

Bardziej szczegółowo

2 Model neo-keynsistowski (ze sztywnymi cenami).

2 Model neo-keynsistowski (ze sztywnymi cenami). 1 Dane empiryczne wiczenia 5 i 6 Krzysztof Makarski Szoki popytowe i poda»owe jako ¹ródªa uktuacji. Wspóªczynnik korelacji Odchylenie standardowe (w stosunku do PKB) Cykliczno± Konsumpcja 0,76 75,6% procykliczna

Bardziej szczegółowo

Od redakcji. Symbolem oznaczono zadania wykraczające poza zakres materiału omówionego w podręczniku Fizyka z plusem cz. 2.

Od redakcji. Symbolem oznaczono zadania wykraczające poza zakres materiału omówionego w podręczniku Fizyka z plusem cz. 2. Od redakcji Niniejszy zbiór zadań powstał z myślą o tych wszystkich, dla których rozwiązanie zadania z fizyki nie polega wyłącznie na mechanicznym przekształceniu wzorów i podstawieniu do nich danych.

Bardziej szczegółowo

Mikro II: Krzywe kosztów, Poda» rmy i Poda» gaª zi.

Mikro II: Krzywe kosztów, Poda» rmy i Poda» gaª zi. Mikro II: Krzywe kosztów, Poda» rmy i Poda» gaª zi. Krzysztof Makarski 22 Krzywe kosztów Wst p Celem jest wyprowadzenie funkcji poda»y i jej wªasno±ci. Funkcj poda»y wyprowadzamy z decyzji maksymalizuj

Bardziej szczegółowo

Koªo Naukowe Robotyków KoNaR. Plan prezentacji. Wst p Rezystory Potencjomerty Kondensatory Podsumowanie

Koªo Naukowe Robotyków KoNaR. Plan prezentacji. Wst p Rezystory Potencjomerty Kondensatory Podsumowanie Plan prezentacji Wst p Rezystory Potencjomerty Kondensatory Podsumowanie Wst p Motto W teorii nie ma ró»nicy mi dzy praktyk a teori. W praktyce jest. Rezystory Najwa»niejsze parametry rezystorów Rezystancja

Bardziej szczegółowo

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu

KLASYCZNE ZDANIA KATEGORYCZNE. ogólne - orzekaj co± o wszystkich desygnatach podmiotu szczegóªowe - orzekaj co± o niektórych desygnatach podmiotu ➏ Filozoa z elementami logiki Na podstawie wykªadów dra Mariusza Urba«skiego Sylogistyka Przypomnij sobie: stosunki mi dzy zakresami nazw KLASYCZNE ZDANIA KATEGORYCZNE Trzy znaczenia sªowa jest trzy rodzaje

Bardziej szczegółowo

Elektrofizjologia neuronu

Elektrofizjologia neuronu Spis treści Co to jest neuron? 2008-11-13 Spis treści Co to jest neuron? Wstęp Rola jonów w działaniu neronu Potencjał membranowy Stan równowagi Bramki jonowe Dynamika bramek jonowych Model Hodgkina-Huxley

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Interpolacja PWSZ Gªogów, 2009 Interpolacja Okre±lenie zale»no±ci pomi dzy interesuj cymi nas wielko±ciami, Umo»liwia uproszczenie skomplikowanych funkcji (np. wykorzystywana

Bardziej szczegółowo

PODSTAWY METROLOGII ĆWICZENIE 4 PRZETWORNIKI AC/CA Międzywydziałowa Szkoła Inżynierii Biomedycznej 2009/2010 SEMESTR 3

PODSTAWY METROLOGII ĆWICZENIE 4 PRZETWORNIKI AC/CA Międzywydziałowa Szkoła Inżynierii Biomedycznej 2009/2010 SEMESTR 3 PODSTAWY METROLOGII ĆWICZENIE 4 PRZETWORNIKI AC/CA Międzywydziałowa Szkoła Inżynierii Biomedycznej 29/2 SEMESTR 3 Rozwiązania zadań nie były w żaden sposób konsultowane z żadnym wiarygodnym źródłem informacji!!!

Bardziej szczegółowo

Caªkowanie numeryczne - porównanie skuteczno±ci metody prostokatów, metody trapezów oraz metody Simpsona

Caªkowanie numeryczne - porównanie skuteczno±ci metody prostokatów, metody trapezów oraz metody Simpsona Akademia Górniczo-Hutnicza im. Stanisªawa Staszica w Krakowie Wydziaª Fizyki i Informatyki Stosowanej Krzysztof Grz dziel kierunek studiów: informatyka stosowana Caªkowanie numeryczne - porównanie skuteczno±ci

Bardziej szczegółowo

Programowanie i struktury danych 1 / 44

Programowanie i struktury danych 1 / 44 Programowanie i struktury danych 1 / 44 Lista dwukierunkowa Lista dwukierunkowa to liniowa struktura danych skªadaj ca si z ci gu elementów, z których ka»dy pami ta swojego nast pnika i poprzednika. Operacje

Bardziej szczegółowo

LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA

LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA LXV OLIMPIADA FIZYCZNA ZAWODY III STOPNIA CZ DO WIADCZALNA Za zadanie do±wiadczalne mo»na otrzyma maksymalnie 40 punktów. Zadanie D. Rozgrzane wolframowe wªókno»arówki o temperaturze bezwzgl dnej T emituje

Bardziej szczegółowo

PRAWA ZACHOWANIA. Podstawowe terminy. Cia a tworz ce uk ad mechaniczny oddzia ywuj mi dzy sob i z cia ami nie nale cymi do uk adu za pomoc

PRAWA ZACHOWANIA. Podstawowe terminy. Cia a tworz ce uk ad mechaniczny oddzia ywuj mi dzy sob i z cia ami nie nale cymi do uk adu za pomoc PRAWA ZACHOWANIA Podstawowe terminy Cia a tworz ce uk ad mechaniczny oddzia ywuj mi dzy sob i z cia ami nie nale cymi do uk adu za pomoc a) si wewn trznych - si dzia aj cych na dane cia o ze strony innych

Bardziej szczegółowo

Ćwiczenie: "Ruch harmoniczny i fale"

Ćwiczenie: Ruch harmoniczny i fale Ćwiczenie: "Ruch harmoniczny i fale" Opracowane w ramach projektu: "Wirtualne Laboratoria Fizyczne nowoczesną metodą nauczania realizowanego przez Warszawską Wyższą Szkołę Informatyki. Zakres ćwiczenia:

Bardziej szczegółowo

Strategie zabezpieczaj ce

Strategie zabezpieczaj ce 04062008 Plan prezentacji Model binarny Model Black Scholesa Bismut- Elworthy -Li formuła Model binarny i opcja call Niech cena akcji w chwili pocz tkowej wynosi S 0 = 21 Zaªó»my,»e ceny akcji po trzech

Bardziej szczegółowo

Edyta Juszczyk. Akademia im. Jana Dªugosza w Cz stochowie. Lekcja 1Wst p

Edyta Juszczyk. Akademia im. Jana Dªugosza w Cz stochowie. Lekcja 1Wst p Lekcja 1 Wst p Akademia im. Jana Dªugosza w Cz stochowie Baltie Baltie Baltie jest narz dziem, które sªu»y do nauki programowania dla dzieci od najmªodszych lat. Zostaª stworzony przez Bohumira Soukupa

Bardziej szczegółowo

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA

POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI PRACA DYPLOMOWA MAGISTERSKA POLITECHNIKA WROCŠAWSKA WYDZIAŠ ELEKTRONIKI Kierunek: Specjalno± : Automatyka i Robotyka (AIR) Robotyka (ARR) PRACA DYPLOMOWA MAGISTERSKA Podatny manipulator planarny - budowa i sterowanie Vulnerable planar

Bardziej szczegółowo

Zarządzanie Zasobami by CTI. Instrukcja

Zarządzanie Zasobami by CTI. Instrukcja Zarządzanie Zasobami by CTI Instrukcja Spis treści 1. Opis programu... 3 2. Konfiguracja... 4 3. Okno główne programu... 5 3.1. Narzędzia do zarządzania zasobami... 5 3.2. Oś czasu... 7 3.3. Wykres Gantta...

Bardziej szczegółowo

Lekcja 173, 174. Temat: Silniki indukcyjne i pierścieniowe.

Lekcja 173, 174. Temat: Silniki indukcyjne i pierścieniowe. Lekcja 173, 174 Temat: Silniki indukcyjne i pierścieniowe. Silnik elektryczny asynchroniczny jest maszyną elektryczną zmieniającą energię elektryczną w energię mechaniczną, w której wirnik obraca się z

Bardziej szczegółowo

Wst p do informatyki. Systemy liczbowe. Piotr Fulma«ski. 21 pa¹dziernika 2010. Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

Wst p do informatyki. Systemy liczbowe. Piotr Fulma«ski. 21 pa¹dziernika 2010. Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska Wst p do informatyki Systemy liczbowe Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 21 pa¹dziernika 2010 Spis tre±ci 1 Liczby i ich systemy 2 Rodzaje systemów liczbowych

Bardziej szczegółowo

Matematyka wykªad 1. Macierze (1) Andrzej Torój. 17 wrze±nia 2011. Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej

Matematyka wykªad 1. Macierze (1) Andrzej Torój. 17 wrze±nia 2011. Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej Matematyka wykªad 1 Macierze (1) Andrzej Torój Wy»sza Szkoªa Zarz dzania i Prawa im. H. Chodkowskiej 17 wrze±nia 2011 Plan wykªadu 1 2 3 4 5 Plan prezentacji 1 2 3 4 5 Kontakt moja strona internetowa:

Bardziej szczegółowo

Android. Podstawy tworzenia aplikacji. Piotr Fulma«ski. March 4, 2015

Android. Podstawy tworzenia aplikacji. Piotr Fulma«ski. March 4, 2015 Android Podstawy tworzenia aplikacji Piotr Fulma«ski Instytut Nauk Ekonomicznych i Informatyki, Pa«stwowa Wy»sza Szkoªa Zawodowa w Pªocku, Polska March 4, 2015 Table of contents Framework Jednym z najwarto±ciowszych

Bardziej szczegółowo

MATEMATYKA 4 INSTYTUT MEDICUS FUNKCJA KWADRATOWA. Kurs przygotowawczy na studia medyczne. Rok szkolny 2010/2011. tel. 0501 38 39 55 www.medicus.edu.

MATEMATYKA 4 INSTYTUT MEDICUS FUNKCJA KWADRATOWA. Kurs przygotowawczy na studia medyczne. Rok szkolny 2010/2011. tel. 0501 38 39 55 www.medicus.edu. INSTYTUT MEDICUS Kurs przygotowawczy na studia medyczne Rok szkolny 00/0 tel. 050 38 39 55 www.medicus.edu.pl MATEMATYKA 4 FUNKCJA KWADRATOWA Funkcją kwadratową lub trójmianem kwadratowym nazywamy funkcję

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykªad 9 Systemy kolejkowe

Elementy Modelowania Matematycznego Wykªad 9 Systemy kolejkowe Elementy Modelowania Matematycznego Wykªad 9 Systemy kolejkowe Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis tre±ci 1 2 3 Spis tre±ci 1 2 3 Spis tre±ci 1 2 3 Teoria masowej obsªugi,

Bardziej szczegółowo

2.Prawo zachowania masy

2.Prawo zachowania masy 2.Prawo zachowania masy Zdefiniujmy najpierw pewne podstawowe pojęcia: Układ - obszar przestrzeni o określonych granicach Ośrodek ciągły - obszar przestrzeni którego rozmiary charakterystyczne są wystarczająco

Bardziej szczegółowo

Opis programu do wizualizacji algorytmów z zakresu arytmetyki komputerowej

Opis programu do wizualizacji algorytmów z zakresu arytmetyki komputerowej Opis programu do wizualizacji algorytmów z zakresu arytmetyki komputerowej 3.1 Informacje ogólne Program WAAK 1.0 służy do wizualizacji algorytmów arytmetyki komputerowej. Oczywiście istnieje wiele narzędzi

Bardziej szczegółowo

Baza danych - Access. 2 Budowa bazy danych

Baza danych - Access. 2 Budowa bazy danych Baza danych - Access 1 Baza danych Jest to zbiór danych zapisanych zgodnie z okre±lonymi reguªami. W w»szym znaczeniu obejmuje dane cyfrowe gromadzone zgodnie z zasadami przyj tymi dla danego programu

Bardziej szczegółowo

Badanie silnika asynchronicznego jednofazowego

Badanie silnika asynchronicznego jednofazowego Badanie silnika asynchronicznego jednofazowego Cel ćwiczenia Celem ćwiczenia jest poznanie budowy i zasady funkcjonowania silnika jednofazowego. W ramach ćwiczenia badane są zmiany wartości prądu rozruchowego

Bardziej szczegółowo

Robotyka mobilna. Architektury sterowania w robotyce. Dariusz Pazderski 1. 2 pa¹dziernika 2015. Wykªady z robotyki mobilnej studia niestacjonarne

Robotyka mobilna. Architektury sterowania w robotyce. Dariusz Pazderski 1. 2 pa¹dziernika 2015. Wykªady z robotyki mobilnej studia niestacjonarne Robotyka mobilna Architektury sterowania w robotyce Dariusz Pazderski 1 1 Katedra Sterowania i In»ynierii Systemów, Politechnika Pozna«ska 2 pa¹dziernika 2015 Wprowadzenie Paradygmaty sterowania w robotyce

Bardziej szczegółowo

1. Wprowadzenie do C/C++

1. Wprowadzenie do C/C++ Podstawy Programowania :: Roman Grundkiewicz :: 014 Zaj cia 1 1 rodowisko Dev-C++ 1. Wprowadzenie do C/C++ Uruchomienie ±rodowiska: Start Programs Developments Dev-C++. Nowy projekt: File New Project lub

Bardziej szczegółowo

Temat: Funkcje. Własności ogólne. A n n a R a j f u r a, M a t e m a t y k a s e m e s t r 1, W S Z i M w S o c h a c z e w i e 1

Temat: Funkcje. Własności ogólne. A n n a R a j f u r a, M a t e m a t y k a s e m e s t r 1, W S Z i M w S o c h a c z e w i e 1 Temat: Funkcje. Własności ogólne A n n a R a j f u r a, M a t e m a t y k a s e m e s t r 1, W S Z i M w S o c h a c z e w i e 1 Kody kolorów: pojęcie zwraca uwagę * materiał nieobowiązkowy A n n a R a

Bardziej szczegółowo

1. Wprowadzenie do C/C++

1. Wprowadzenie do C/C++ Podstawy Programowania - Roman Grundkiewicz - 013Z Zaj cia 1 1 rodowisko Dev-C++ 1. Wprowadzenie do C/C++ Uruchomienie ±rodowiska: Start Programs Developments Dev-C++. Nowy projekt: File New Project lub

Bardziej szczegółowo

19. Obiektowo± 1 Kacze typowanie. 2 Klasy

19. Obiektowo± 1 Kacze typowanie. 2 Klasy 1 Kacze typowanie 19. Obiektowo± Sk d interpreter wie, jakiego typu s np. przekazywane do metody argumenty? Tak naprawd wcale nie musi wiedzie. Do poprawnego dziaªania programu istotne jest,»e przekazywany

Bardziej szczegółowo

Kurs wyrównawczy dla kandydatów i studentów UTP

Kurs wyrównawczy dla kandydatów i studentów UTP Kurs wyrównawczy dla kandydatów i studentów UTP Część III Funkcja wymierna, potęgowa, logarytmiczna i wykładnicza Magdalena Alama-Bućko Ewa Fabińska Alfred Witkowski Grażyna Zachwieja Uniwersytet Technologiczno

Bardziej szczegółowo

EDUKARIS - O±rodek Ksztaªcenia

EDUKARIS - O±rodek Ksztaªcenia - O±rodek Ksztaªcenia Zabrania si kopiowania i rozpowszechniania niniejszego regulaminu przez inne podmioty oraz wykorzystywania go w dziaªalno±ci innych podmiotów. Autor regulaminu zastrzega do niego

Bardziej szczegółowo

Hotel Hilberta. Zdumiewaj cy ±wiat niesko«czono±ci. Marcin Kysiak. Festiwal Nauki, 20.09.2011. Instytut Matematyki Uniwersytetu Warszawskiego

Hotel Hilberta. Zdumiewaj cy ±wiat niesko«czono±ci. Marcin Kysiak. Festiwal Nauki, 20.09.2011. Instytut Matematyki Uniwersytetu Warszawskiego Zdumiewaj cy ±wiat niesko«czono±ci Instytut Matematyki Uniwersytetu Warszawskiego Festiwal Nauki, 20.09.2011 Nasze do±wiadczenia hotelowe Fakt oczywisty Hotel nie przyjmie nowych go±ci, je»eli wszystkie

Bardziej szczegółowo

LABORATORIUM PRZYRZĄDÓW PÓŁPRZEWODNIKOWYCH

LABORATORIUM PRZYRZĄDÓW PÓŁPRZEWODNIKOWYCH Wydział Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej STUDA DZENNE e LAORATORUM PRZYRZĄDÓW PÓŁPRZEWODNKOWYH LPP 2 Ćwiczenie nr 10 1. el ćwiczenia Przełączanie tranzystora bipolarnego elem

Bardziej szczegółowo

Jan Olek. Uniwersytet Stefana Kardynała Wyszyńskiego. Procesy z Opóźnieniem. J. Olek. Równanie logistyczne. Założenia

Jan Olek. Uniwersytet Stefana Kardynała Wyszyńskiego. Procesy z Opóźnieniem. J. Olek. Równanie logistyczne. Założenia Procesy z Procesy z Jan Olek Uniwersytet Stefana ardynała Wyszyńskiego 2013 Wzór równania logistycznego: Ṅ(t)=rN(t)(1- N ), gdzie Ṅ(t) - przyrost populacji w czasie t r - rozrodczość netto, (r > 0) N -

Bardziej szczegółowo

Harmonogramowanie projektów Zarządzanie czasem

Harmonogramowanie projektów Zarządzanie czasem Harmonogramowanie projektów Zarządzanie czasem Zarządzanie czasem TOMASZ ŁUKASZEWSKI INSTYTUT INFORMATYKI W ZARZĄDZANIU Zarządzanie czasem w projekcie /49 Czas w zarządzaniu projektami 1. Pojęcie zarządzania

Bardziej szczegółowo

Rys1 Rys 2 1. metoda analityczna. Rys 3 Oznaczamy prdy i spadki napi jak na powyszym rysunku. Moemy zapisa: (dla wzłów A i B)

Rys1 Rys 2 1. metoda analityczna. Rys 3 Oznaczamy prdy i spadki napi jak na powyszym rysunku. Moemy zapisa: (dla wzłów A i B) Zadanie Obliczy warto prdu I oraz napicie U na rezystancji nieliniowej R(I), której charakterystyka napiciowo-prdowa jest wyraona wzorem a) U=0.5I. Dane: E=0V R =Ω R =Ω Rys Rys. metoda analityczna Rys

Bardziej szczegółowo

HiTiN Sp. z o. o. Przekaźnik kontroli temperatury RTT 4/2 DTR. 40 432 Katowice, ul. Szopienicka 62 C tel/fax.: + 48 (32) 353 41 31. www.hitin.

HiTiN Sp. z o. o. Przekaźnik kontroli temperatury RTT 4/2 DTR. 40 432 Katowice, ul. Szopienicka 62 C tel/fax.: + 48 (32) 353 41 31. www.hitin. HiTiN Sp. z o. o. 40 432 Katowice, ul. Szopienicka 62 C tel/fax.: + 48 (32) 353 41 31 www.hitin.pl Przekaźnik kontroli temperatury RTT 4/2 DTR Katowice, 1999 r. 1 1. Wstęp. Przekaźnik elektroniczny RTT-4/2

Bardziej szczegółowo

Spis zawartości Lp. Str. Zastosowanie Budowa wzmacniacza RS485 Dane techniczne Schemat elektryczny

Spis zawartości Lp. Str. Zastosowanie Budowa wzmacniacza RS485 Dane techniczne Schemat elektryczny Spis zawartości Lp. Str. 1. Zastosowanie 2 2. Budowa wzmacniacza RS485 3 3. Dane techniczne 4 4. Schemat elektryczny 5 5. Konfiguracja sieci z wykorzystaniem wzmacniacza RS485 6 6. Montaż i demontaż wzmacniacza

Bardziej szczegółowo

Ksztaªt orbity planety: I prawo Keplera

Ksztaªt orbity planety: I prawo Keplera V 0 V 0 Ksztaªt orbity planety: I prawo Keplera oka»emy,»e orbit planety poruszaj cej si pod dziaªaniem siªy ci»ko±ci ze strony Sªo«ca jest krzywa sto»kowa, w szczególno±ci elipsa. Wektor pr dko±ci planety

Bardziej szczegółowo

Ekonometria. wiczenia 13 Metoda ±cie»ki krytycznej. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Ekonometria. wiczenia 13 Metoda ±cie»ki krytycznej. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej wiczenia 13 Metoda ±cie»ki krytycznej Instytut Ekonometrii Zakªad Ekonometrii Stosowanej Plan wicze«1 Przykªad: ubieranie choinki 2 3 Programowanie liniowe w analizie czasowej i czasowo-kosztowej projektu

Bardziej szczegółowo

Wybrane poj cia i twierdzenia z wykªadu z teorii liczb

Wybrane poj cia i twierdzenia z wykªadu z teorii liczb Wybrane poj cia i twierdzenia z wykªadu z teorii liczb 1. Podzielno± Przedmiotem bada«teorii liczb s wªasno±ci liczb caªkowitych. Zbiór liczb caªkowitych oznacza b dziemy symbolem Z. Zbiór liczb naturalnych

Bardziej szczegółowo

System Informatyczny CELAB. Przygotowanie programu do pracy - Ewidencja Czasu Pracy

System Informatyczny CELAB. Przygotowanie programu do pracy - Ewidencja Czasu Pracy Instrukcja obsługi programu 2.11. Przygotowanie programu do pracy - ECP Architektura inter/intranetowa System Informatyczny CELAB Przygotowanie programu do pracy - Ewidencja Czasu Pracy Spis treści 1.

Bardziej szczegółowo

W zadaniach na procenty wyró»niamy trzy typy czynno±ci: obliczanie, jakim procentem jednej liczby jest druga liczba,

W zadaniach na procenty wyró»niamy trzy typy czynno±ci: obliczanie, jakim procentem jednej liczby jest druga liczba, 2 Procenty W tej lekcji przypomnimy sobie poj cie procentu i zwi zane z nim podstawowe typy zada«. Prosimy o zapoznanie si z regulaminem na ostatniej stronie. 2.1 Poj cie procentu Procent jest to jedna

Bardziej szczegółowo

Mathematica - podstawy

Mathematica - podstawy Mathematica - podstawy Artur Kalinowski Semestr letni 2011/2012 Artur Kalinowski Mathematica - podstawy 1 / 27 Spis tre±ci Program Mathematica 1 Program Mathematica 2 3 4 5 Artur Kalinowski Mathematica

Bardziej szczegółowo

Spis tre±ci. Przedmowa... Cz ± I

Spis tre±ci. Przedmowa... Cz ± I Przedmowa.................................................... i Cz ± I 1 Czym s hurtownie danych?............................... 3 1.1 Wst p.................................................. 3 1.2 Denicja

Bardziej szczegółowo

Zarządzanie projektami. wykład 1 dr inż. Agata Klaus-Rosińska

Zarządzanie projektami. wykład 1 dr inż. Agata Klaus-Rosińska Zarządzanie projektami wykład 1 dr inż. Agata Klaus-Rosińska 1 DEFINICJA PROJEKTU Zbiór działań podejmowanych dla zrealizowania określonego celu i uzyskania konkretnego, wymiernego rezultatu produkt projektu

Bardziej szczegółowo

1 Kodowanie i dekodowanie

1 Kodowanie i dekodowanie 1 Kodowanie i dekodowanie Teoria informacji zajmuje si sposobami gromadzenia, przechowywania oraz przesyªania informacji. W tym celu, a tak»e dla ochrony danych informacje kodujemy. Rozmowa telefoniczna,

Bardziej szczegółowo

Edycja geometrii w Solid Edge ST

Edycja geometrii w Solid Edge ST Edycja geometrii w Solid Edge ST Artykuł pt.: " Czym jest Technologia Synchroniczna a czym nie jest?" zwracał kilkukrotnie uwagę na fakt, że nie należy mylić pojęć modelowania bezpośredniego i edycji bezpośredniej.

Bardziej szczegółowo

Joanna Kisielińska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie

Joanna Kisielińska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie 1 DYNAMICZNE MODELE EKONOMETRYCZNE X Ogólnopolskie Seminarium Naukowe, 4 6 września 2007 w Toruniu Katedra Ekonometrii i Statystyki, Uniwersytet Mikołaja Kopernika w Toruniu Joanna Kisielińska Szkoła Główna

Bardziej szczegółowo

Program Sprzeda wersja 2011 Korekty rabatowe

Program Sprzeda wersja 2011 Korekty rabatowe Autor: Jacek Bielecki Ostatnia zmiana: 14 marca 2011 Wersja: 2011 Spis treci Program Sprzeda wersja 2011 Korekty rabatowe PROGRAM SPRZEDA WERSJA 2011 KOREKTY RABATOWE... 1 Spis treci... 1 Aktywacja funkcjonalnoci...

Bardziej szczegółowo

40. Międzynarodowa Olimpiada Fizyczna Meksyk, 12-19 lipca 2009 r. ZADANIE TEORETYCZNE 2 CHŁODZENIE LASEROWE I MELASA OPTYCZNA

40. Międzynarodowa Olimpiada Fizyczna Meksyk, 12-19 lipca 2009 r. ZADANIE TEORETYCZNE 2 CHŁODZENIE LASEROWE I MELASA OPTYCZNA ZADANIE TEORETYCZNE 2 CHŁODZENIE LASEROWE I MELASA OPTYCZNA Celem tego zadania jest podanie prostej teorii, która tłumaczy tak zwane chłodzenie laserowe i zjawisko melasy optycznej. Chodzi tu o chłodzenia

Bardziej szczegółowo

Podstawowe pojęcia: Populacja. Populacja skończona zawiera skończoną liczbę jednostek statystycznych

Podstawowe pojęcia: Populacja. Populacja skończona zawiera skończoną liczbę jednostek statystycznych Podstawowe pojęcia: Badanie statystyczne - zespół czynności zmierzających do uzyskania za pomocą metod statystycznych informacji charakteryzujących interesującą nas zbiorowość (populację generalną) Populacja

Bardziej szczegółowo

Ć W I C Z E N I E 5. Częstotliwość graniczna

Ć W I C Z E N I E 5. Częstotliwość graniczna 36 Ć W I Z E N I E 5 PASYWNE FILTY ZĘSTOTLIWOŚI. WIADOMOŚI OGÓLNE Filtrem częstotliwości nazywamy układ o strukturze czwórnika (czwórnik to układ mający cztery zaciski jedna z par zacisków pełni rolę wejścia,

Bardziej szczegółowo

Przypomnienie najważniejszych pojęć z baz danych. Co to jest baza danych?

Przypomnienie najważniejszych pojęć z baz danych. Co to jest baza danych? Przypomnienie najważniejszych pojęć z baz danych. Co to jest baza danych? 1 Podstawowe pojęcia: 2 3 4 5 Dana (ang.data) najmniejsza, elementarna jednostka informacji o obiekcie będąca przedmiotem przetwarzania

Bardziej szczegółowo

Bazy danych. Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl www.uj.edu.pl/web/zpgk/materialy 9/15

Bazy danych. Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl www.uj.edu.pl/web/zpgk/materialy 9/15 Bazy danych Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl www.uj.edu.pl/web/zpgk/materialy 9/15 Przechowywanie danych Wykorzystanie systemu plików, dostępu do plików za pośrednictwem systemu operacyjnego

Bardziej szczegółowo

LABORATORIUM STEROWANIE SILNIKA KROKOWEGO

LABORATORIUM STEROWANIE SILNIKA KROKOWEGO Zachodniopomorski Uniwersytet Technologiczny WYDZIAŁ ELEKTRYCZNY Zakład Cybernetyki i Elektroniki LABORATORIUM TECHNIKA MIKROPROCESOROWA STEROWANIE SILNIKA KROKOWEGO Opracował: mgr inŝ. Andrzej Biedka

Bardziej szczegółowo

AUTOR MAGDALENA LACH

AUTOR MAGDALENA LACH PRZEMYSŁY KREATYWNE W POLSCE ANALIZA LICZEBNOŚCI AUTOR MAGDALENA LACH WARSZAWA, 2014 Wstęp Celem raportu jest przedstawienie zmian liczby podmiotów sektora kreatywnego na obszarze Polski w latach 2009

Bardziej szczegółowo

Urządzenia do bezprzerwowego zasilania UPS CES GX RACK. 10 kva. Wersja U/CES_GXR_10.0/J/v01. Praca równoległa

Urządzenia do bezprzerwowego zasilania UPS CES GX RACK. 10 kva. Wersja U/CES_GXR_10.0/J/v01. Praca równoległa Urządzenia do bezprzerwowego zasilania UPS CES GX RACK 10 kva Centrum Elektroniki Stosowanej CES sp. z o. o. 30-732 Kraków, ul. Biskupińska 14 tel.: (012) 269-00-11 fax: (012) 267-37-28 e-mail: ces@ces.com.pl,

Bardziej szczegółowo

WYKŁAD 8. Postacie obrazów na różnych etapach procesu przetwarzania

WYKŁAD 8. Postacie obrazów na różnych etapach procesu przetwarzania WYKŁAD 8 Reprezentacja obrazu Elementy edycji (tworzenia) obrazu Postacie obrazów na różnych etapach procesu przetwarzania Klasy obrazów Klasa 1: Obrazy o pełnej skali stopni jasności, typowe parametry:

Bardziej szczegółowo

Wiedza niepewna i wnioskowanie (c.d.)

Wiedza niepewna i wnioskowanie (c.d.) Wiedza niepewna i wnioskowanie (c.d.) Dariusz Banasiak Katedra Informatyki Technicznej Wydział Elektroniki Wnioskowanie przybliżone Wnioskowanie w logice tradycyjnej (dwuwartościowej) polega na stwierdzeniu

Bardziej szczegółowo

Laboratorium elektryczne. Falowniki i przekształtniki - I (E 14)

Laboratorium elektryczne. Falowniki i przekształtniki - I (E 14) POLITECHNIKA LSKA WYDZIAŁINYNIERII RODOWISKA I ENERGETYKI INSTYTUT MASZYN I URZDZE ENERGETYCZNYCH Laboratorium elektryczne Falowniki i przekształtniki - I (E 14) Opracował: mgr in. Janusz MDRYCH Zatwierdził:

Bardziej szczegółowo

Analiza i prognozowanie poziomu zachorowań na grypę

Analiza i prognozowanie poziomu zachorowań na grypę Analiza i prognozowanie poziomu zachorowań na grypę Roksana Kowalska, Anna Noga, Maciej Kawecki, Paweł Szczypiór Instytut Matematyki i Informatyki Politechnika Wrocławska WZUR 2010 25 września 2010 1 /

Bardziej szczegółowo

Techniczne nauki М.М.Zheplinska, A.S.Bessarab Narodowy uniwersytet spożywczych technologii, Кijow STOSOWANIE PARY WODNEJ SKRAPLANIA KAWITACJI

Techniczne nauki М.М.Zheplinska, A.S.Bessarab Narodowy uniwersytet spożywczych technologii, Кijow STOSOWANIE PARY WODNEJ SKRAPLANIA KAWITACJI Techniczne nauki М.М.Zheplinska, A.S.Bessarab Narodowy uniwersytet spożywczych technologii, Кijow STOSOWANIE PARY WODNEJ SKRAPLANIA KAWITACJI SKLAROWANEGO SOKU JABŁKOWEGO Skutecznym sposobem leczenia soku

Bardziej szczegółowo

PROCEDURA OCENY RYZYKA ZAWODOWEGO. w Urzędzie Gminy Mściwojów

PROCEDURA OCENY RYZYKA ZAWODOWEGO. w Urzędzie Gminy Mściwojów I. Postanowienia ogólne 1.Cel PROCEDURA OCENY RYZYKA ZAWODOWEGO w Urzędzie Gminy Mściwojów Przeprowadzenie oceny ryzyka zawodowego ma na celu: Załącznik A Zarządzenia oceny ryzyka zawodowego monitorowanie

Bardziej szczegółowo

Zadanie 1. Liczba szkód w każdym z trzech kolejnych lat dla pewnego ubezpieczonego ma rozkład równomierny:

Zadanie 1. Liczba szkód w każdym z trzech kolejnych lat dla pewnego ubezpieczonego ma rozkład równomierny: Matematyka ubezpieczeń majątkowych 5.2.2008 r. Zadanie. Liczba szkód w każdym z trzech kolejnych lat dla pewnego ubezpieczonego ma rozkład równomierny: Pr ( N = k) = 0 dla k = 0,, K, 9. Liczby szkód w

Bardziej szczegółowo

Informacje uzyskiwane dzięki spektrometrii mas

Informacje uzyskiwane dzięki spektrometrii mas Slajd 1 Spektrometria mas i sektroskopia w podczerwieni Slajd 2 Informacje uzyskiwane dzięki spektrometrii mas Masa cząsteczkowa Wzór związku Niektóre informacje dotyczące wzoru strukturalnego związku

Bardziej szczegółowo

Akademickie Centrum Informatyki PS. Wydział Informatyki PS

Akademickie Centrum Informatyki PS. Wydział Informatyki PS Akademickie Centrum Informatyki PS Wydział Informatyki PS Wydział Informatyki Sieci komputerowe i Telekomunikacyjne ROUTING Krzysztof Bogusławski tel. 4 333 950 kbogu@man.szczecin.pl 1. Wstęp 2. Tablica

Bardziej szczegółowo

WYMAGANIA EDUKACYJNE Z PRZEDMIOTÓW ZAWODOWYCH ODBYWAJĄCYCH SIĘ W SZKOLNYM LABORATORIUM CHEMICZNYM

WYMAGANIA EDUKACYJNE Z PRZEDMIOTÓW ZAWODOWYCH ODBYWAJĄCYCH SIĘ W SZKOLNYM LABORATORIUM CHEMICZNYM WYMAGANIA EDUKACYJNE Z PRZEDMIOTÓW ZAWODOWYCH ODBYWAJĄCYCH SIĘ W SZKOLNYM LABORATORIUM CHEMICZNYM PSO jest uzupełnieniem Wewnątrzszkolnego Systemu Oceniania obowiązującego w GCE. Precyzuje zagadnienia

Bardziej szczegółowo

P 0max. P max. = P max = 0; 9 20 = 18 W. U 2 0max. U 0max = q P 0max = p 18 2 = 6 V. D = T = U 0 = D E ; = 6

P 0max. P max. = P max = 0; 9 20 = 18 W. U 2 0max. U 0max = q P 0max = p 18 2 = 6 V. D = T = U 0 = D E ; = 6 XL OLIMPIADA WIEDZY TECHNICZNEJ Zawody II stopnia Rozwi zania zada dla grupy elektryczno-elektronicznej Rozwi zanie zadania 1 Sprawno przekszta tnika jest r wna P 0ma a Maksymaln moc odbiornika mo na zatem

Bardziej szczegółowo

Problemy w realizacji umów o dofinansowanie SPO WKP 2.3, 2.2.1, Dzia anie 4.4 PO IG

Problemy w realizacji umów o dofinansowanie SPO WKP 2.3, 2.2.1, Dzia anie 4.4 PO IG 2009 Problemy w realizacji umów o dofinansowanie SPO WKP 2.3, 2.2.1, Dzia anie 4.4 PO IG Jakub Moskal Warszawa, 30 czerwca 2009 r. Kontrola realizacji wska ników produktu Wska niki produktu musz zosta

Bardziej szczegółowo

Tester pilotów 315/433/868 MHz 10-50 MHz

Tester pilotów 315/433/868 MHz 10-50 MHz TOUCH PANEL KOLOROWY WYŚWIETLACZ LCD TFT 160x128 ` Parametry testera Zasilanie Pasmo 315MHz Pasmo 433MHz Pasmo 868 MHz Pasmo 10-50MHz 5-12V/ bateria 1,5V AAA 300-360MHz 400-460MHz 820-880MHz Pomiar sygnałów

Bardziej szczegółowo

Tester pilotów 315/433/868 MHz

Tester pilotów 315/433/868 MHz KOLOROWY WYŚWIETLACZ LCD TFT 160x128 ` Parametry testera Zasilanie Pasmo 315MHz Pasmo 433MHz Pasmo 868 MHz 5-12V/ bateria 1,5V AAA 300-360MHz 400-460MHz 820-880MHz Opis Przyciski FQ/ST DN UP OFF przytrzymanie

Bardziej szczegółowo

DANE MAKROEKONOMICZNE (TraderTeam.pl: Rafa Jaworski, Marek Matuszek) Lekcja XXIII

DANE MAKROEKONOMICZNE (TraderTeam.pl: Rafa Jaworski, Marek Matuszek) Lekcja XXIII DANE MAKROEKONOMICZNE (TraderTeam.pl: Rafa Jaworski, Marek Matuszek) Lekcja XXIII Systemy transakcyjne cz.1 Wszelkie prawa zastrze one. Kopiowanie i rozpowszechnianie ca ci lub fragmentu niniejszej publikacji

Bardziej szczegółowo

Ostatnia cena sprzeda y klienta 1.0 dodatek do Symfonia Faktura dla 1 firmy

Ostatnia cena sprzeda y klienta 1.0 dodatek do Symfonia Faktura dla 1 firmy Podr cznik u ytkownika Ostatnia cena sprzeda y klienta 1.0 dodatek do Symfonia Faktura dla 1 firmy Masz pytanie? zadzwo 693 936 046 lub napisz handel@symfoniadodatki.pl SPIS TRE CI 1. Instalacja dodatku

Bardziej szczegółowo

4.3. Struktura bazy noclegowej oraz jej wykorzystanie w Bieszczadach

4.3. Struktura bazy noclegowej oraz jej wykorzystanie w Bieszczadach 4.3. Struktura bazy noclegowej oraz jej wykorzystanie w Bieszczadach Baza noclegowa stanowi podstawową bazę turystyczną, warunkującą w zasadzie ruch turystyczny. Dlatego projektując nowy szlak należy ją

Bardziej szczegółowo