Zarys Neurobiologii Ćwiczenia nr 2 Informacja Przetwarzanie w układzie nerwowym Piotr Łaszczyca KFZiE, UŚ 2016
ŚRODOWISKO INFORMACYJNE CZŁOWIEKA Układ nerwowy jako system przetwarzania informacji i system adaptacji. Bodziec - nośnik informacji o zmianie stanu środowiska... Reakcja - zmiana stanu - przekształcanie środowiska dla przeciwdziałania bodźcom - np. praca Piotr Łaszczyca 2
Środowisko informacyjne Przykłady systemów: (o których można zdobywać informację) Piotr Łaszczyca 3
Środowisko informacyjne SYSTEM - zbiór elementów materialnych lub ich odwzorowań abstrakcyjnych uporządkowanych, powiązanych według planu (zbiór obiektów powiązanych przez funkcjonalność) STAN SYSTEMU - aktualne relacje pomiędzy elementami zachodzące z określonym prawdopodobieństwem. INFORMACJA - odwzorowanie stanu systemu na stan innego systemu, potwierdzenie lub wykluczenie relacji. SYGNAŁ - materialny lub energetyczny nośnik informacji. KOD - przyporządkowanie sygnałów stanom systemu: Alfabet kodu, Gramatyka kodu, Semantyka kodu. Znaki, Wyrazy, Zdania, Komunikaty = Zapisy. Piotr Łaszczyca 4
Środowisko informacyjne Przykłady kodów: ABC αβγ ДЕЖ ڇ ڈ ډ 0101110100101 - - - Piotr Łaszczyca 5
Środowisko informacyjne Przykłady kodów: alfabety naturalne, języki naturalne, Morse,... kod binarny, liczby,... semafory, znaki drogowe,... potencjały stopniowane receptorów, potencjały iglicowe neuronów,... kod genetyczny,... język pszczół, gesty, mimika, postawy ciała,... zapachy - feromony Piotr Łaszczyca 6
RÓŻNORODNOŚĆ KODÓW mod. Andrzej Kędziorski kody wizualne: język pszczół, gesty, mimika, postawy ciała, alfabety naturalne i pismo, systemy liczbowe, semafory, znaki drogowe, kody dźwiękowe: śpiewy ptaków, języki naturalne, alfabet Morse,... kody chemiczne: zapachy feromony, kod genetyczny, neuroprzekaźniki kody elektryczne: potencjał receptorowy, potencjały iglicowe,...... Piotr Łaszczyca 7
Informacje odbierane zmysłami Narząd zmysłu Wzrok Słuch Węch Smak Czucie skórne Wielkości i procesy fizyczne - Liczba fotonów - Energia fotonów - Kąt padania fotonów do oka - Częstotliwość drgań ośrodka - amplituda drgań ciała i fali powietrza - kombinacja częstotliwości i amplitudy drgań Wiązanie molekuł niektórych lotnych związków chem. z receptorami Wiązanie jonów i niektórych molekuł chem. z receptorami Energia mechaniczna i cieplna atomów i molekuł różnych przedmiotów Zjawiska subiektywne - spostrzeganie - jasność - barwa - kształt, odległość i ruch - wysokość dźwięku - głośność dźwięku - barwa dźwięków - zapach - smak - konsystencja, faktura powierzchni, lepkość, temperatura i in.
KODOWANIE INFORMACJI Kodowanie analogowe i częstościowe siły bodźca (receptory, neurony) Zróżnicowanie i swoistość receptorów kodują cechy jakościowe (rodzaj energii) bodźca Zróżnicowanie ośrodków korowych umożliwia adekwatną interpretację bodźca (dekodowanie, percepcja)
PRZENOSZENIE, PRZETWORZENIE PRZEKODOWANIE INFORMACJI Nadajnik Kanał przekazu INFORMACJA SYGNAŁ INFORMACJA Nośnik informacji SZUM Źródło szumu Odbiornik Piotr Łaszczyca 10
PRZENOSZENIE, PRZETWORZENIE PRZEKODOWANIE INFORMACJI Przetwarza... Przetwarza... Glu; ACh; DA; 5-HT; Akson < 1,5 m 0,7-100 m/s <15 ms Synapsa 0,2-0,3 (5) ms 200 nm Akson < 1,5 m 0,7-100 m/s <15 ms Piotr Łaszczyca 11
PRZENOSZENIE, PRZETWORZENIE PRZEKODOWANIE INFORMACJI Mówił dziad do obrazu. 10 11 10 11 Glu ACh DA 5-HT Glu ACh DA 5-HT? Piotr Łaszczyca Użyte rysunki z: Wikipedii 12 i www.wiredtowinthemovie.com sound.eti.pg.gda.pl/
JAK POLICZYĆ INFORMACJĘ Informację można uzyskać zadając pytania. Trzeba pytać! Pytania zaś mogą być: pytaniami dopełnienia (jaki..., gdzie..., ile...,... itp.) pytania rozstrzygnięcia (czy stan jest taki właśnie...?) Pytanie rozstrzygnięcia wymaga wykluczenia jednej z dwóch przeciwstawnych możliwości (tak / nie 1 / 0). Pytanie dopełnienia można rozłożyć na serię pytań rozstrzygnięcia. Bit - jednostka informacji (Shannon) - ilość informacji wykluczająca jeden z dwóch przeciwstawnych stanów systemu, czyli odpowiedź tak / nie na pytanie rozstrzygnięcia. Piotr Łaszczyca 13
JAK POLICZYĆ INFORMACJĘ Pojemność informacyjna (Hartley): I = lg 2 N = 3,322 lg 10 N Ile razy trzeba rozstrzygać by wiedzieć wszystko? Czy informacja może być ułamkowa? Ilość informacji w sygnale (Shannon): H i = - p i lg 2 p i 1/N lg 2 N Entropia żródła informacji (Shannon): H = H i = (- p i lg 2 p i ) I = lg 2 N Dlaczego nierówność? Piotr Łaszczyca 14
JAK POLICZYĆ INFORMACJĘ Logarytmy nam niestraszne log 2 1 = 0 bo 2 0 = 1 log 2 2 = 1 bo 2 1 = 2 log 2 4 = 2 bo 2 2 = 4 = 2 x 2 log 2 64 = 6 bo 2 6 = 64 = 2 x 2 x 2 x 2 x 2 x 2 log 10 1 000 000 = 6 bo 10 6 = 1 000 000 czyli: 10 x 10 x 10 x 10 x 10 x 10 = 1 000 000 Piotr Łaszczyca 15
JAK POLICZYĆ INFORMACJĘ I = lg 2 N = 3.322 lg 10 N H i = - p i lg 2 p i 1/N lg 2 N H = H i = (- p i lg 2 p i ) I = lg 2 N I = lg 2 3 = 1,585 P = 0,70 P = 0,05 P = 0,25 H czerwone = -0,70 lg 2 0,70 = 0,360 H zółte = -0,05 lg 2 0,05 = 0,216 H zielone = -0,25 lg 2 0,25 = 0,500 H = H i = 1,076 Gdzie zginęła informacja? Piotr Łaszczyca 16
JAK POLICZYĆ INFORMACJĘ Kilka prostych zadań. W ilu pytaniach zgadniecie Państwo: Na którym polu szachownicy stoi czarny król? Która z liczb od 0 do 999 999 wygrywa? Jakie hasło WEP pomyślałem? Piotr Łaszczyca 17
JAK POLICZYĆ INFORMACJĘ Gdzie jest król??? Wg Hartleya N = 64 I = lg 2 64 = 6 Sześć pytań! Ale jak? Piotr Łaszczyca 18
JAK POLICZYĆ INFORMACJĘ metoda podziału 1 6 3 5 4 2 Wg Hartleya N = 64 I = lg 2 64 = 6 Sześć pytań! Piotr Łaszczyca 19
JAK POLICZYĆ INFORMACJĘ Jaką liczbę wskazuje zegar? 9 0 1 8 7 2 3 6 5 4 Piotr Łaszczyca 20
JAK POLICZYĆ INFORMACJĘ Jaką liczbę wskazuje zegar? Tak zadajemy pytania 9 0 1 8 2 7 3 6 5 4 Piotr Łaszczyca Wg Hartleya N = 10 I = lg 2 10 = 3,322 Trzy i 322/1000 pytania! 21
JAK POLICZYĆ INFORMACJĘ A trzy zegary? Ile informacji? 9 0 1 9 0 1 9 0 1 8 2 8 2 8 2 7 3 7 3 7 3 6 5 4 6 5 4 6 5 4 Piotr Łaszczyca 22
Piotr Łaszczyca 23 JAK POLICZYĆ INFORMACJĘ Wg Hartleya N = 10 3 I = lg 2 10 3 = 3 x 3,322 Około dziesięć pytań! A trzy zegary? 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9
JAK POLICZYĆ INFORMACJĘ Czego się dowiedzieliśmy Jakie hasło? Która litera??????? Wg Hartleya: N = 32 ---> I = lg 2 32 = 5 ---> 5 pytań na każdą literę! Piotr Łaszczyca 24
JAK POLICZYĆ INFORMACJĘ Czego się dowiedzieliśmy Jakie hasło? Która litera?????? A........ A l a...... Wg Hartleya: N = 32 ---> I = lg 2 32 = 5 ---> 5 pytań na każdą literę! A l a m a.... A l a m a k o t a aąbcćdeęfghijklłmnńoóprsśtuwyzżź = 32 Piotr Łaszczyca 25
JAK POLICZYĆ INFORMACJĘ Czego się dowiedzieliśmy Jakie hasło? Która litera? K???? Ks??? Ksawery? Ksi ksiądz? księga? ksiuty? Ksią ksiądz! Książ ę? ka? nica? Książn Wg Hartleya: N = 32 ---> I = lg 2 32 = 5 ---> 5 pytań na każdą literę! Czy na pewno? A może by tak Konstantynopolitańczykiewiczówna... Piotr Łaszczyca 26
JAK POLICZYĆ INFORMACJĘ Jakie hasło WEP? Powiedzmy że ok. 1 000 000 haseł? Wg Hartleya N = 1 000 000 I = lg 2 10 6 = 20 20 pytań na hasło! Piotr Łaszczyca 27
JAK POLICZYĆ INFORMACJĘ Jakie hasło WEP? A na której stronie encyklopedii? Tutaj! Piotr Łaszczyca 28
JAK POLICZYĆ INFORMACJĘ Szyfry i szyfrowanie Ala ma kota ywy ky iłuy aąbcćdeęfghijklłmnńoóprsśtuwyzżź = 32 ymęśgżhjnźbńiwkasełofpćzucrdltąó = 32? Wg Hartleya N = 32 I = lg 2 32 = 5 5 pytań na każdą literę! Piotr Łaszczyca 29
JAK POLICZYĆ INFORMACJĘ Czego się dowiedzieliśmy Redundancja przekazu: R = 1 - H / I - Czy pan Kowalski jest obecny? - Uhmm! - Tak! - Tak jest! - Tak, on jest! - Tak, jest obecny! - Tak, oczywiście, on jest dzisiaj tutaj obecny osobiście -. Piotr Łaszczyca 30
JAK POLICZYĆ INFORMACJĘ Czego się dowiedzieliśmy Redundancja przekazu: R = 1 - H / I U jak Urszula, R jak Roman, O jak Olgierd, D jak Danuta. Urodziły się pięcioraczki STOP Przyjeżdżaj zaraz STOP Piotr Łaszczyca 31
Redundancja Tabela częstości znaków Znak Liczba Czestość Znak Liczba Czestość Grupa Liczba Częstość A 1468 0,0856 1 19 0,1387 15 zn 33 0,0114 Ą 160 0,0093 2 27 0,1971 14 zn 22 0,0076 B 227 0,0132 3 10 0,0730 13 zn 43 0,0148 C 720 0,0420 4 7 0,0511 12 zn 65 0,0224 Ć 57 0,0033 5 7 0,0511 11 zn 107 0,0369 D 580 0,0338 6 2 0,0146 10 zn 156 0,0538 E 1414 0,0824 7 9 0,0657 9 zn 228 0,0787 Ę 171 0,0100 8 15 0,1095 8 zn 293 0,1011 F 48 0,0028 9 3 0,0219 7 zn 330 0,1139 G 192 0,0112 0 38 0,2774 6 zn 284 0,0980 H 208 0,0121 Suma 137 5 zn 294 0,1015 I 1448 0,0844 4 zn 232 0,0801 J 413 0,0241 Znak Liczba Czestość 3 zn 268 0,0925 K 555 0,0324, 209 0,3660 2 zn 264 0,0911 L 387 0,0226. 223 0,3905 1 zn 278 0,0960 Ł 257 0,0150-67 0,1173 Suma 2 897 M 511 0,0298 8 0,0140 N 990 0,0577 : 8 0,0140 Ń 36 0,0021 ; 2 0,0035 O 1278 0,0745? 15 0,0263 Ó 187 0,0109! 2 0,0035 P 552 0,0322 ( 6 0,0105 Q 0 0,0000 ) 6 0,0105 R 756 0,0441 / 0 0,0000 S 725 0,0423 24 0,0420 Ś 119 0,0069 * 1 0,0018 T 671 0,0391 Suma 571 U 448 0,0261 V 3 0,0002 W 770 0,0449 X 6 0,0003 Y 647 0,0377 Z 995 0,0580 Ż 148 0,0086 Piotr Łaszczyca 32 Ź 7 0,0004 Suma 17 154
Redundancja Tabela częstości znaków Znak n p lg(2)n "-p lg(2)n" A 1468 0,085578-3,54662 0,303512 I 1448 0,084412-3,56641 0,301047 E 1414 0,08243-3,60069 0,296804 O 1278 0,074502-3,74659 0,279127 Z 995 0,058004-4,1077 0,238263 N 990 0,057712-4,11497 0,237485 W 770 0,044887-4,47754 0,200986 R 756 0,044071-4,50401 0,198498 S 725 0,042264-4,56442 0,192912 C 720 0,041973-4,5744 0,192 T 671 0,039116-4,67609 0,182911 Y 647 0,037717-4,72864 0,178351 D 580 0,033811-4,88635 0,165214 K 555 0,032354-4,94991 0,160149 P 552 0,032179-4,95773 0,159535 M 511 0,029789-5,06908 0,151003 U 448 0,026116-5,2589 0,137343 J 413 0,024076-5,37626 0,129439 L 387 0,02256-5,47007 0,123407 Ł 257 0,014982-6,06063 0,0908 B 227 0,013233-6,23971 0,08257 H 208 0,012125-6,36582 0,077188 G 192 0,011193-6,48129 0,072543 Ó 187 0,010901-6,51936 0,071069 Ę 171 0,009969-6,6484 0,066275 Ą 160 0,009327-6,74433 0,062906 Ż 148 0,008628-6,8568 0,059159 Ś 119 0,006937-7,17144 0,049749 Ć 57 0,003323-8,23337 0,027358 F 48 0,002798-8,48129 0,023732 Ń 36 0,002099-8,89633 0,01867 Ź 7 0,000408-11,2589 0,004594 X 6 0,00035-11,4813 0,004016 V 3 0,000175-12,4813 0,002183 Q 0 Piotr 0 Łaszczyca 0 33 Suma 17154 1 4,540799
Redundancja Tabela częstości znaków Redundancja znaków w tekście ok. 17 tysięcy literowym R = 1 - H / I n=32 I (Hartley) E (Shannon) Pojemność vs. Entropia 5 4,540799 Redundancja 0,09184 Piotr Łaszczyca 34
Redundancja w skali makro Prawo Zipfa (amerykański lingwista George Kingsley Zipf; 1902 1950) Częstość znaków/sygnałów w wielu systemach informatycznych scharakteryzowana jest przez funkcję rozkładu Zipfa Logarytm częstości wystąpienia słów względem logarytmu ich ważności (rangi) w kilku językach
Pożytki z redundancji Redundancja a niezawodność przekazu Piotr Łaszczyca 36
ILE INFORMACJI PRZETWARZAMY Liczba pręciki - obwodowo - 125 mln czopki - centralnie - 6 mln Nerw wzrokowy - ok. 1 mln aksonów komórek zwojowych Kora wzrokowa 1 500 mm 2 ; 10 5 nuronów na 1 mm 2, 6 warstw, 2 mm grubości, 50-100 neuronów na głebokość, 1 neuron ciałka kolankowatego Krytyczna częstotliwość migotania: pręciki - 12-16 Hz czopki - 55 Hz 4,4 mld bit / s 5 000 neuronów korowych Piotr Łaszczyca 37
ILE INFORMACJI PRZETWARZAMY Przepustowość - lejek informacyjny Keidla W jaki sposób układ nerwowy kompresuje (?) wyodrębnia z chaosu (?) informację w bitach na sekundę: receptory (10 10 ) > ośrodki (10 2 ) > kojarzenie (25-50) > >> decyzje (2-5) < nadawanie (15-40) << efektory (10 8-10 10 ) Piotr Łaszczyca 38
ILE INFORMACJI PRZETWARZAMY Przepustowość - lejek informacyjny Keidla mod. Andrzej Kedziorski Zachowania motywacyjne Myślenie i planowanie Decyzje 10 10 10 2 2-5 10 8-10 10 ~3x10 1 Konsekwencje: Część odbieranej informacji umyka uwadze Piotr Łaszczyca Bit/s Konsekwencje: Działamy głównie poprzez nawyki Działają w nas agenci zombie 39
STEROWANIE czyli po co ta informacja Szybkość i niezawodność przekazu informacji - problem myśliwych, żołnierzy i agentów businesu Sterowanie i Pętle Sprzężeń Zwrotnych A choćby i odruchy... Sprzężenie zwrotne ujemne = Zachowaj niezmienny stan = Przeciwdziałaj zmianom S Błąd sterowania - Oscylacje R Piotr Łaszczyca 40
STEROWANIE czyli po co ta informacja Funkcja sterowania czyli jak zamienić bodziec na reakcję albo schemat S => R lub y = f(x) 60 = III bieg i 2000 obrotów /min Piotr Łaszczyca 41
STEROWANIE czyli po co ta informacja Może być jeszcze gorzej Uproszczony graf sterowania homeostazą wodnoelektrolityczną w organizmie ssaka BARORECEPTORY WOLUMORECEPTORY UKŁAD WSPÓŁCZULNY PRAGNIENIE SERCE PODWZGÓRZE Reakcja presyjna Zwężenie Utrata wody wskutek np. pocenia Wzrost stosunku stężeń Na/K w osoczu krwi Wydzielenie WAZOPRESYNY NACZYNIA OPOROWE Utrata krwi Obniżenie ciśnienia i objętości krwi Wzrost stosunku stężeń Na/K w moczu wtórnym w kanalikach dalszych Wydzielenie ALDOSTERONU Uwalnianie RENINY Aktywacja ANGIOTENSYNOGENU ANGIOTENSYNA aktywna Zwężenie Obniżenie filtracji Obniżenie ciśnienia krwi w tętniczkach doprowadzających nerki APARAT PRZYKŁĘBUSZKOWY NEFRONÓW W NERCE KORA NADNERCZY TĘTNICZKI DOPROWADZAJĄCE NERKI - można podstawić wartości liczbowe Wzrost ukrwienia odżywczego nerki Wzrost przepuszczalności kanalików dla wody Wzrost resorpcji wody Wzrost resorpcji Na Wzrost utraty K PICIE WODY OSZCZĘDZANIE WODY Piotr Łaszczyca 42
STEROWANIE Homeostaza = Względna stałość stanu Homeostaza = Równoważenie się przepływów Cztery zasady: współdziałania procesów przeciwstawnych pętli sprzężeń zwrotnych bodźcowych oscylacji wokół punktu nastawienia przedziałowości S R Piotr Łaszczyca 43
STEROWANIE Stanowisko pilota Airbusa Piotr Łaszczyca 44
STEROWANIE Co jest na suficie Piotr Łaszczyca 45
STEROWANIE Airbus Jak tu się nie pogubić? Trening czyni mistrza Piotr Łaszczyca 46