Sztuczne Systemy Skojarzeniowe. Adrian Horzyk

Podobne dokumenty
METODY INŻYNIERII WIEDZY

BIOCYBERNETYKA SIECI NEURONOWE. Akademia Górniczo-Hutnicza. Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.

WIEDZA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

Adrian Horzyk

PODSTAWY BAZ DANYCH I SZTUCZNEJ INTELIGENCJI. Adrian Horzyk. Akademia Górniczo-Hutnicza

Adrian Horzyk

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Adrian Horzyk Web: Google: Adrian Horzyk Gabinet: paw. C3 p. 206

WSTĘP DO INFORMATYKI SIECI NEURONOWE I SZTUCZNA INTELIGENCJA wykład

SZTUCZNA INTELIGENCJA

Podstawy Sztucznej Inteligencji (PSZT)

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sztuczne sieci neuronowe

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Adrian Horzyk

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

8. Neuron z ciągłą funkcją aktywacji.

1. Logika, funkcje logiczne, preceptron.

Wstęp do sztucznych sieci neuronowych

wiedzy Sieci neuronowe

Uczenie sieci typu MLP

Metody Sztucznej Inteligencji II

SZTUCZNA INTELIGENCJA

Uczenie sieci neuronowych i bayesowskich

Wykład 1: Wprowadzenie do sieci neuronowych

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

MODELOWANIE RZECZYWISTOŚCI

Obliczenia Naturalne - Sztuczne sieci neuronowe

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Zastosowania sieci neuronowych

Temat: Sieci neuronowe oraz technologia CUDA

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sztuczne sieci neuronowe (SNN)

METODY INŻYNIERII WIEDZY

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Elementy inteligencji obliczeniowej

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Wprowadzenie do teorii systemów ekspertowych

Inteligentne systemy informacyjne

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Sztuczne sieci neuronowe

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Zastosowania sieci neuronowych

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Sztuczna inteligencja

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Podstawy sztucznej inteligencji

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Inteligentne systemy przeciw atakom sieciowym

I EKSPLORACJA DANYCH

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY INŻYNIERII WIEDZY

METODY INŻYNIERII WIEDZY

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Uczenie sieci radialnych (RBF)

6. Perceptron Rosenblatta

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2013/2014

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

ESI: Perceptrony proste i liniowe

SZTUCZNA INTELIGENCJA

Deep Learning na przykładzie Deep Belief Networks

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

SIECI RBF (RADIAL BASIS FUNCTIONS)

TRANSFORMACJE I JAKOŚĆ DANYCH

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Algorytmy wstecznej propagacji sieci neuronowych

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Elementy kognitywistyki III: Modele i architektury poznawcze

Systemy Inteligentnego Przetwarzania wykład 7: Sieci RBF

Algorytmy sztucznej inteligencji

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Lekcja 5: Sieć Kohonena i sieć ART

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji

Wstęp do teorii sztucznej inteligencji

SIECI REKURENCYJNE SIECI HOPFIELDA

OCENA DZIAŁANIA AE. METODY HEURYSTYCZNE wykład 4 LOSOWOŚĆ W AE KRZYWE ZBIEŻNOŚCI ANALIZA STATYSTYCZNA:

Sieci neuronowe w Statistica

Transkrypt:

Sztuczne Systemy Skojarzeniowe Inspiracje biologiczne Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium Biocybernetyki 30-059 Kraków, al. Mickiewicza 30, paw. C3/205

CO NAM OFERUJE BIOLOGIA?

Mózg Zupełnie inny model przetwarzania danych niż obecnie stosowany w informatyce!

LUDZKA INTELIGENCJA jest w stanie błyskawicznie radzić sobie z obliczeniowo bardzo skomplikowanymi zadaniami. Dzięki pracy NEURONÓW jest również w stanie formować i pogłębiać wiedzę, uogólniać, definiować, badać alternatywne podejścia, podsumowywać i wyciągać wnioski oraz być kreatywną

MONKEY to przykład zbioru faktów opisujących pewną małpkę: I have a monkey. My monkey is very small. It is very lovely. It likes to sit on my head. It can jump very quickly. It is also very clever. It learns quickly. My monkey is lovely. I have also a small dog. QUESTION: What is this monkey like?

S1 I HAVE A MONKEY KONSTRUKCJA CONSTRUCTION AKTYWNEGO OF ASSOCIATIVE GRAFU NEURAL GRAPH ANAKG-3 ASOCJACYJNEGO NEURONOWEGO DLA ZBIORU SEKWENCJI TRAINING UCZĄCYCH: SEQUENCES S2 MY MONKEY IS VERY SMALL S3 IT IS VERY LOVELY S4 IT LIKES TO SIT ON MY HEAD S5 IT CAN JUMP VERY QUICKLY S6 IT IS ALSO VERY CLEVER S7 IT LEARNS QUICKLY S8 MY MONKEY IS LOVELY S9 I HAVE ALSO A SMALL DOG

CONSTRUCTION OF ASSOCIATIVE NEURAL GRAPH ANAKG-3 TRAINING SEQUENCES S1 I HAVE A MONKEY S2 MY MONKEY IS VERY SMALL S3 IT IS VERY LOVELY S4 S5 IT LIKES TO SIT ON MY HEAD IT CAN JUMP VERY QUICKLY S6 IT IS ALSO VERY CLEVER S7 IT LEARNS QUICKLY S8 MY MONKEY IS LOVELY S9 I HAVE ALSO A SMALL DOG

MÓZG OŚRODEK NASZEJ INTELIGENCJI WSKAZUJE DROGĘ DO POZNANIA

MÓZG Plastyczny i dynamicznie zmienny twór Błyskawicznie reaguje na skomplikowane sytuacje Zdolny do adaptacji i samoorganizacji Zdolność do kompensacji po uszkodzeniach elementów Zdolny do równoległego przetwarzania danych Umożliwia uczenie się, adaptację i myślenie Uogólnia obiekty, fakty i reguły Kreatywnie reaguje w nowych kontekstach Aktywnie reprezentuje wiedzę Jest siedliskiem inteligencji

NEURONY BIOLOGICZNE I SZTUCZNE Neurony nie tylko sumują ważone sygnały wejściowe. Podlegają procesom relaksacji i refrakcji w czasie. Neurony posiadają progi aktywacji i swoją wrażliwość. Reprezentują kombinacje, umożliwiające im selektywne oddziaływanie na inne neurony.

WIELKOŚĆ I PLASTYCZNOŚĆ NEURONÓW Neurony biologiczne różnią się: wielkością i pojemnością, wrażliwością i reaktywnością, reprezentowanymi zbiorami kombinacji bodźców (danych), połączeniami i innymi cechami

POŁĄCZENIA I SYNAPSY Szybkie i wybiórcze przekazywanie informacji Adaptatywne reagowanie na nadchodzące sygnały Zróżnicowanie reprezentowanych kombinacji

PLASTYCZNOŚĆ SYNAPS Adaptacyjne mechanizmy plastyczne zależne są od czasu na poziomie milisekund pomiędzy aktywacjami presynaptycznymi i postsynaptycznymi: Materiały uzupełniające: http://neuroscience.uth.tmc.edu/s1/chapter07.html

STAN NEURONU Zmienia się z upływem czasu pod wpływem wewnętrznych procesów, a nie tylko na skutek zewnętrznych oddziaływań. Czas wespół z innymi czynnikami decyduje o stanie neuronów oraz ich zwiększonej lub zmniejszonej reaktywności.

SZTUCZNE SIECI NEURONOWE Artificial Neural Networks - ANN Sztuczne sieci neuronowe Algorytmy ewolucyjne Algorytmy genetyczne Metody roju Logika rozmyta i systemy rozmyte Liczby niepewne Teoria chaosu Inżynieria i reprezentacja wiedzy Kojarzenie, inteligencja i sztuczna świadomość

SZTUCZNE SIECI NEURONOWE Artificial Neural Networks - ANN Sztuczne sieci neuronowe to nazwa przypisywana matematycznym modelom naturalnych sieci neuronowych opierających się na idei neuronu McCullocha-Pittsa oraz jego wariacjom bazującym na różnych: funkcjach aktywacji sztucznych neuronów, architekturach połączeń sztucznych neuronów, metodach adaptacji/uczenia. W sztucznych sieciach neuronowych traktuje się sztuczny neuron jako jednostkę obliczającą na swoim wyjściu pewną wartość (niczym funkcja) na podstawie zwykle ważonych danych wejściowych, z których obliczana jest najczęściej suma ważona wejść, na podstawie której wyznaczają jest wartość tzw. funkcji aktywacji neuronów.

x 1 x 2 x 3 x n wejścia w 1k w 2k w 3k w nk wagi x 0 =1 próg aktywacji w 0k S f suma ważona SZTUCZNY NEURON Artificial Neuron wyjście y k = f Dane z wszystkich wejść x 1 x n równocześnie oddziałują na sztuczny neuron. Poprzednie stany sztucznego neuronu nie mają żadnego wpływu na jego aktualny stan, liczy się tylko aktualne pobudzenie oraz wagi w 0k, w 1k w nk. Nie istnieją żadne zależności czasowe pomiędzy jego stanami. y k funkcja aktywacji i=0 Reakcja sztucznego neuronu następuje natychmiast i powoduje obliczenie wartości wyjściowej ewaluując wybraną funkcję aktywacji sztucznego neuronu f, której wartość zależna jest od sumy ważonej wejść oraz aktualnych wartości wag w 0k, w 1k w nk. n w ik x i

FUNKCJE AKTYWACJI SZTUCZNYCH NEURONÓW Funkcje aktywacji sztucznych neuronów to zwykle funkcje progowe/schodkowe, liniowe lub nieliniowe. Wśród funkcji nieliniowych najczęściej występują funkcje sigmoidalne (ew. tangens hiperboliczny) oraz radialne (np. funkcja Gaussa). Funkcje ciągłe umożliwiają aproksymację oraz wykorzystanie metod gradientowych, chętnie stosowanych do adaptacji sztucznych sieci neuronowych. Funkcje progowe/schodkowe f z wyjściem binarnym {0;1} lub {-1;+1} Funkcje sigmoidalne f z wyjściem ciągłym Funkcje liniowe f z wyjściem ciągłym Funkcje Gaussowskie f z wyjściem ciągłym

PERCEPTRON model neuronu o progowej funkcji aktywacji Perceptron zdefiniowany jest jako pewna funkcja schodowa: y = f n k=1 w k x k + θ Funkcja schodkowa unipolarna: f(s) = 1 gdy s > θ 0 gdy s θ Funkcja schodkowa bipolarna: f(s) = +1 gdy s > θ θ - próg aktywacji neuronu 1 gdy s θ Perceptron posiadający n wejść dzieli n-wymiarową przestrzeń wektorów wejściowych x na dwie półprzestrzenie, które są podzielone (n-1)-wymiarową hiperpłaszczyzną, zwaną granicą decyzyjną określoną wzorem: n k=1 w k x k + θ = 0 Prosta wyznaczająca podział przestrzeni jest zawsze prostopadła do wektora wag: θ w 1

ALGORYTM UCZENIA PERCEPTRONU Dla określonego zbioru uczącego składającego się z par wektorów uczących (x, d(x)), gdzie d(x) to uczona wartość wyjściowa przez nauczyciela (w uczeniu nadzorowanym) wykonaj następujące kroki: 1. W sposób losowy wybierz wagi początkowe perceptronu w i. 2. Na wejścia perceptronu podaj kolejny wektor uczący x. 3. Oblicz wartość wyjściową perceptronu y(x). 4. Porównaj uzyskaną wartość wyjściową y(x) z wartością wzorcową d dla wektora x. 5. Dokonaj modyfikacji wag według zależności: Jeżeli y(x) d(x), to θ = θ + d(x) oraz w i = w i + d(x) x i w przeciwnym przypadku waga się nie zmienia. 6. Oblicz średni błąd dla wszystkich wzorców uczących. 7. Jeśli błąd jest mniejszy od założonego lub osiągnięto maksymalną ilość powtórzeń zbioru uczącego przerwij algorytm. 8. W odwrotnym przypadku przejdź do punktu 2.

SPOSÓB DZIAŁANIA PERCEPTRONU Działanie sieci neuronowej jest wypadkową działania poszczególnych neuronów oraz zachodzących pomiędzy nimi interakcji. Pojedynczy neuron w typowych przypadkach realizuje (z matematycznego punktu widzenia) operację iloczynu skalarnego wektora sygnałów wejściowych oraz wektora wag. W efekcie odpowiedź neuronu zależy od wzajemnych stosunków geometrycznych pomiędzy wektorami sygnałów i wektorami wag.

PIERWSZE MODELE SZTUCZNYCH NEURONÓW Model McCullocha-Pittsa (1943 r.) odzwierciedla tylko proste sumowanie statycznie ważonych sygnałów wejściowych x 1,,x n, jakie do niego docierają, próg aktywacji w 0 oraz pewną funkcję aktywacji f zależną od wartości sumy ważonej sygnałów wejściowych i wartości progu: Mimo dużej prostoty, model ten znalazł ogromną ilość zastosowań w bardzo wielu współcześnie stosowanych metodach inteligencji obliczeniowej, pokazując swoją uniwersalność i możliwość jego zastosowania w różnych zadaniach aproksymacji, regresji, klasyfikacji, pamięciach skojarzeniowych i wielu innych. Pierwsza generacja neuronów McCullocha-Pittsa zbudowana była z wykorzystaniem dyskretnych funkcji aktywacji, które zwracają wartości unipolarne {0; 1} lub bipolarne {-1; 1}.

FUNKCJE CIĄGŁE AKTYWACJI SZTUCZNYCH NEURONÓW Druga generacja neuronów wywodzących się modelu McCullocha-Pittsa stosuje ciągłe funkcje aktywacji z zakresu [0;1] lub [-1;1], wykorzystując najczęściej sigmoidalne lub radialne funkcje aktywacji. Istnieją neurony sigmoidalne, neurony oparte o funkcję tangens hiperboliczny lub neuronami radialnymi, np. neuron Gaussowski, neuron Hardy ego, neuron wielomianowy. Są one stosowane obecnie najpowszechniej w różnego rodzaju modelach sztucznych sieci neuronowych: gdzie β, σ, δ i c są parametrami, z których niektóre mogą być adaptowane w trakcie procesu nauki sieci, wykorzystującej takie neurony.

TOPOLOGIA SZTUCZNYCH SIECI NEURONOWYCH Sztuczne sieci neuronowe są bardzo uproszczonymi i zmodyfikowanymi modelami biologicznych sieci neuronowych o topologii warstwowej spotykanej w korze mózgowej istot żywych.

UCZENIE I ADAPTACJA SIECI NEURONOWYCH Do najbardziej znanych i powszechnie wykorzystywanych metod uczenia sieci neuronowych należą: Reguła Hebba polegająca na wzmacnianiu tych połączeń synaptycznych (A~B), w których aktywność jednego neuronu A powoduje aktywność drugiego połączonego z nim neuronu B. Odpowiada to empirycznym badaniom nad LTP (long term potentiation). Metoda wstecznej propagacji błędów (back propagation) umożliwiająca uczenie sieci wielowarstwowych poprzez propagację różnicy pomiędzy pożądanym a otrzymanym sygnałem na wyjściu sieci. Samoorganizacja w sieci neuronowej (np. SOM) umożliwiają uczenie sieci bez nauczyciela (unsupervised), którego celem jest wykształcenie w sieci neuronów, które by reagowały na pewne powtarzające się kombinacje bodźców z przestrzeni danych, którym można później przypisać pewne znaczenie. W tych sieciach wzmacniany jest neuron, który osiąga największą wartość pobudzenia oraz ew. również otaczające go neurony, co zapewnia sytuowanie podobnych kombinacji bodźców blisko siebie. Sieci rekurencyjne (np. sieci Hoppfielda), których bodźce krążą przez pewien określony czas aż do osiągnięcia pewnego stanu stabilności, który jest traktowany jako odpowiedź sieci.

PODSTAWY UCZENIA SIECI NEURONOWYCH Sztuczne sieci neuronowe można adaptować do rozwiązywania różnych zadań na wiele różnych sposobów. Istnieje wiele reguł ich adaptacji, spośród których większość wykorzystuje uczenie się oparte o tzw. wzorce uczące. W sztucznych sieciach neuronowych w trakcie uczenia adaptacji podlegają wagi reprezentujące siłę połączeń pomiędzy neuronami.

MODEL ADALINE Adaptive Linear Neuron Neuron Adaline jest bardzo podobny do Perceptronu. Różni się algorytm uczenia: Porównuje się sygnał wzorcowy d z sygnałem s na wyjściu liniowej części neuronu (sumatora), a więc błąd opisany jest wzorem: δ = d s Uczenie neuronu sprowadza się do minimalizacji funkcji błędu średniego kwadratowego, nazywany też błędem średniokwadratowym: n 2 Q w = 1 2 ε2 = 1 2 d i=0 w i x i Ze względu na to, iż funkcja jest różniczkowalna, możemy użyć metody największego spadku gradientu: w i t + 1 = w i t η Q w i = w w i t + ηδx i = w i t + η(d s)x i i Reguła ta nosi nazwę reguły delta: δ = d s

REGUŁA DELTA UCZENIA SIECI NEURONOWYCH Jedną z najbardziej znanych i często stosowanych reguł adaptacji sztucznych sieci neuronowych w procesie uczenia jest reguła delta.

SIGMOIDALNY MODEL NEURONU Model ten niewiele różni się od Perceptronu i modelu Adaline. Różnica polega na zastosowaniu funkcji sigmoidalnej na wyjściu neuronu, która oblicza sygnał wyjściowy na podstawie sumy ważonej sygnałów wejściowych: y(t) = f n i=0 w i t x i t Miarę błędu definiuje się wtedy jako: n 2 Q w = 1 2 d f i=0 w i x i Korzystając z metody największego spadku gradientu otrzymujemy: w i t + 1 = w i t η Q w i = w w i t ηδx i i = w i t η d f s f s x i

SIECI NEURONOWE WIELOWARSTWOWE MLP Multilayer Perceptron Sieci wielowarstwowe to odpowiednio połączone warstwy neuronów zwykle o nieliniowych funkcjach aktywacji (np. neurony sigmoidalne, radialne), aczkolwiek czasami w warstwie wyjściowej pojawiają się neurony liniowe. Sieci wielowarstwowe muszą posiadać minimalnie dwie warstwy neuronów: warstwę wejściową i warstwę wyjściową pomiędzy którymi może być jedna lub więcej warstw ukrytych. W każdej warstwie może występować różna ilość neuronów: W warstwie wejściowej odpowiada ona zwykle ilości parametrów opisujących dane wejściowe, w warstwie wyjściowej np. ilości klas, natomiast ilość neuronów w warstwach ukrytych odpowiada za możliwości modelu. Neurony łączą się tylko pomiędzy (zwykle) sąsiednimi warstwami, zaś wewnątrz warstw nie występują połączenia pomiędzy neuronami. Neurony zwykle łączymy pomiędzy sąsiednimi warstwami na zasadzie każdy z każdym.

Czym jest INTELIGENCJA? Definicja inteligencji wydaje się być nadal bardzo rozmyta jak mgławica w kosmosie, która jeszcze pod wpływem grawitacji nie zdążyła utworzyć gwiazdy mogącej dać światło dla rozwoju inteligencji sztucznej. Zewnętrzne przejawy inteligencji ludzkiej w niewielkim stopniu odkrywają przed nami tajemnice konstrukcji działania mózgu oraz sposobu jej sprzętowej realizacji. Zgłębienie tajemnic działania inteligencji leży w próbie zrozumienia działania biologicznego mózgu na razie jedynego tworu dysponującego działającą inteligencją.

SZTUCZNA INGELIGENCJA Po ponad pół wieku zmagań nad zdefiniowaniem i urealnieniem sztucznej inteligencji jeden z jej inicjatorów oraz pierwszych jej badaczy Marvin Minsky stwierdził, iż Prawdziwa sztuczna inteligencja czeka dopiero na swojego odkrywcę!

BIBLIOGRAFIA 1. Horzyk, A., How Does Generalization and Creativity Come into Being in Neural Associative Systems and How Does It Form Human-Like Knowledge?, Neurocomputing, 2014, IF = 1,634. 2. Horzyk, A., Human-Like Knowledge Engineering, Generalization and Creativity in Artificial Neural Associative Systems, Springer Verlag, AISC 11156, ISSN 2194-5357, 2015. 3. Horzyk, A., Innovative Types and Abilities of Neural Networks Based on Associative Mechanisms and a New Associative Model of Neurons - referat na zaproszenie na międzynarodowej konferencji ICAISC 2015, Springer Verlag, LNAI, 2015. 4. Horzyk, A., Human-Like Knowledge Engineering, Generalization and Creativity in Artificial Neural Associative Systems, Springer, AISC 11156, 2014. 5. Horzyk, A., Sztuczne systemy skojarzeniowe i asocjacyjna sztuczna inteligencja, EXIT, Warszawa, 2013. 6. Tadeusiewicz, R., Horzyk, A., Man-Machine Interaction Improvement by Means of Automatic Human Personality Identification, Gerhard Goos, Juris Hartmanis, and Jan van Leeuwen (Eds.), Springer, LNCS 8104, 2013. 7. Horzyk, A., Information Freedom and Associative Artificial Intelligence, Springer Verlag Berlin Heidelberg, LNAI 7267, 2012, pp. 81-89. 8. Horzyk, A., Self-Optimizing Neural Network 3, L. Franco, D. Elizondo, J.M. Jerez (eds.), Constructive Neural Networks, Springer, Series: Studies in Computational Intelligence, Vol. 258, 2009, pp. 83-101. 9. Dudek-Dyduch, E., Tadeusiewicz, R., Horzyk, A., Neural Network Adaptation Process Effectiveness Dependent of Constant Training Data Availability, Neurocomputing 72, 2009, pp. 3138-3149, IF = 1,440. horzyk@agh.edu.pl