Sztuczna inteligencja Definicja Sztuczna inteligencja (AI - ang. artificial inteligence) lub krótko SI jest stosunkowo nową interdyscyplinarną dziedziną nauki, przedmiotem wielkich oczekiwań i ożywionych debat. W sensie teoretycznym, SI łączy w sobie zagadnienia z dziedziny informatyki, psychologii, antropologii, matematyki, elektroniki, neurofizjologii i filozofii. Tak zwana stosowana SI jest gałęzią informatyki, która mówiąc bardzo ogólnie zajmuje się produkcją sprzętu komputerowego i oprogramowania, umożliwiającą imitowanie procesu myślowego człowieka. A zatem, głównym celem sztucznej inteligencji jest stworzenie inteligentnych komputerów", które byłyby zdolne rozwiązywać te problemy, które wśród ludzi uważane są za wymagające pewnej inteligencji. Dobrym punktem wyjścia do rozważań o sztucznej inteligencji wydaje się być słownikowa definicja inteligencji jako takiej, któr+a np. w słowniku Webstera brzmi następująco: Inteligencja jest to: zdolność uczenia się i rozumienia zjawisk poprzez doświadczenie, zdolność zdobywania wiedzy i wykorzystywania jej w celu szybkiego i efektywnego reagowania na nowe sytuacje; zdolność rozumowania w celu efektywnego rozwiązywania problemów " Wszelkie usiłowania w dziedzinie sztucznej inteligencji są zwykle klasyfikowane jako albo tzw. silna sztuczna inteligencja (ang. strong artificial, intelligence), która stara się stworzyć komputery, wyposażone w proces myślowy zbliżony do ludzkiego, albo tzw. słaba sztuczna inteligencja (weak artificial intelligence), która zajmuje się symulowaniem inteligencji. Prawie wszystkie zadania, nad którymi obecnie pracują specjaliści, są typu słabej sztucznej inteligencji. 1
Elementy sztucznej inteligencji: 1) Systemy ekspertowe 2) Algorytmy ewolucyjne 3) Logika rozmyta 4) Sztuczne sieci neuronowe 2
Przegląd historyczny Cała historia rozwoju sztucznej inteligencji jest najczęściej dzielona na pięć okresów: 1) 1950 r. 1960 r. Wielu pionierów techniki obliczeniowej było zafascynowanych ideą inteligentnej maszyny". Dla przykładu: Charles Babbage (1792-1871) rozważał możliwość wykorzystania Mechanizmu Analitycznego" (ang. Analytical Engine) do gry w szachy, a Alan Turing (1912-1954) w roku 1950 zaproponował tzw. test na inteligencję (zwany obecnie testem Turinga) oraz stworzył program symulujący grę w szachy. Samo pojęcie sztucznej inteligencji nie było znane aż do roku 1956, kiedy to Marvin Minsky użył tego terminu po raz pierwszy, zapisując się tym samym w historii jako ojciec sztucznej inteligencji". Problemy zaliczane obecnie do kategorii SI znajdowały się wówczas w kręgu zainteresowań cybernetyków, których uwaga w tym okresie koncentrowała się głównie na próbach budowania urządzeń imitujących ludzki mózg. Pomimo generalnego rozczarowania, jakie przyniosły te pierwsze próby, warto tu wspomnieć o przynajmniej dwóch interesujących systemach, które powstały w okresie Średniowiecza: PANDEMONIUM i PERCEPTRON. PANDEMONIUM był systemem rozpoznawania obrazów, opartym na architekturze czteropoziomowej, gdzie zadania były wykonywane przez cztery typy tzw. demonów": danych, obliczeń, rozpoznawania i decyzji. Cechy, które uczyniły PANDEMONIUM prekursorem wielu obecnych rozwiązań sztucznej inteligencji, to: wzorowanie się na ludzkim systemie nerwowym, działanie w oparciu o tzw. algorytm genetyczny" (tzn. zdolność uczenia się przez dostrajanie współczynników, odpowiadających połączeniom między demonami obliczeń). PERCEPTRON był urządzeniem, które przypominało prosty model siatkówki oka kręgowców ( siatka 400 fotokomórek każda o wartościach: l" dla oświetlonej lub O" dla ciemnej). Głównym osiągnięciem Rosenblatfa było 3
opracowanie metody, która pozwalała nauczyć PERCEPTRON rozpoznawania pewnej ograniczonej liczby obrazów. Dwa istotne wnioski, płynące z tych pierwszych doświadczeń, które nadały później rytm badaniom prowadzonym w latach dziewięćdziesiątych, to konkluzje, że: zdolność urządzeń do uczenia się jest niezbędnym atrybutem maszynowej inteligencji, ludzka inteligencja składa się w około 99% z rozpoznawania obrazów (wzorców) a tylko w l % z samego rozumowania. 2) 1960 r. 1970 r. Po doświadczeniach lat 50 - tych, naukowcy doszli do wniosku, że budowanie systemów na podobieństwo mózgu nie było najlepszą strategią tworzenia sztucznej inteligencji i zaczęli próbować nieco innego podejścia do problemu. Głównymi rzecznikami nowego trendu byli Alan Newell i Herbert Simon z Uniwersytetu Carnegie - Mellon, którzy postawili sobie za zadanie sformułowanie pewnych zasad inteligencji, wspólnych wszystkim procesom racjonalnego rozwiązywania problemów oraz dostępnych zarówno dla ludzi jak i komputerów. Koncepcja ta opierała się na założeniu, że ludzki proces myślenia odbywa się na drodze wykonywania szeregu prostych zadań manipulacji na symbolach takich jak porównanie, wyszukiwanie, modyfikowanie symboli, czyli czynności dość łatwo wykonalne dla komputera. Dwa systemy, które dobrze ilustrują zarówno zalety jak i wady tej nowej koncepcji to: GPS (skrót od ang. General Problem Solver czyli Uniwersalny Rozwiązywacz Problemów) 4
SHRDLU Terry'ego Winograd'a (zdolny do prowadzenia konwersacji na temat prostego układania klocków). 3) 1970 r. 1980 r. Okres romantyczny zarzucił ambitny plan stworzenia generalnie inteligentnych komputerów na korzyść bardziej realistycznego celu, czyli tworzenia komputerowych ekspertów w wybranej wąskiej dziedzinie. Zespół prowadzony przez Edwarda Feigenbaum*a na Uniwersytecie Stanford zajął się konstruowaniem tzw. systemów eksperckich (ang. expert systems) i systemów wiedzy (ang. knowlege - based systems), dając tym samym początek zupełnie nowej dziedzinie sztucznej inteligencji najogólniej zwanej inżynierią wiedzy (ang. knowledge engineering). Zadaniem systemów eksperckich jest imitowanie ludzkich ekspertów w konkretnej dziedzinie wiedzy. Systemy tego typu zaczęły powstawać równocześnie w wielu różnych dziedzinach wiedzy. Do najbardziej godnych uwagi wczesnych systemów eksperckich należą: DENDRAL, MYCIN, MACSYMA, INTERNIST/CADUCEUS, PROSPECTOR, HEARSAY I, II, III oraz PUFF. 4) 1980 r. 1990 r. Kamieniem milowym była tu japońska inicjatywa z końca roku 1981, dotycząca budowy tzw. Systemów Komputerowych Piątej Generacji. W okresie Oświecenia sztuczna inteligencja nadal jeszcze ciągnęła korzyści głównie z okresu intensywnego rozwoju systemów eksperckich w latach 70, aczkolwiek systemy eksperckie jako takie przestały już być w centrum zainteresowania sztucznej inteligencji. Trzy najbardziej reprezentatywne przykłady programów zdolnych do ograniczonego uczenia się" to: dwa algorytmy implementujące tzw. indukcję AQ11 Ryszarda Michalskiego (George Mason UnL) i ID3 Ross'a QuinlaniTa, 5
system EURISKO Doug'a Lenata. EURISKO był modyfikacją i rozszerzeniem wcześniejszego systemu o nazwie AM, który badał dziedzinę liczb elementarnych. 5) 1990 r. 2000 r. Wygląda na to, że historia SI przewędrowała pełne koło, jako że lata 90 powracają do problemów i rozwiązań, zapoczątkowanych w latach 50, tzn. obliczeń neuronowych" (ang. neuro-computing albo connectionism). Neurofizjologia nadal boryka się z tą samą niewiedzą, która zastopowała pierwsze próby w latach 50, jednakże komputery, dostępne obecnie do badań nad inteligencją, są dziś nieporównanie szybsze i pojemniejsze. W międzyczasie sformułowano też zasady uczenia się dla wielopoziomowych sieci neuronowych. 6) aktualne zastosowania A.I Obecnie AI, znalazła zastosowanie w praktyce jako: technologie oparte na "logice niepewności" ('Fuzzy Logic') - powszechnie stosowane do np: sterowania przebiegiem procesów technologicznych w fabrykach w warunkach "braku wszystkich danych". Systemy ekspertowe - czyli rozbudowane bazy danych z wszczepioną "sztuczną inteligencją" umożliwiającą zadawanie im pytań w języku naturalnym i uzyskiwanie w tym samym języku odpowiedzi. Systemy takie stosowane są już w farmacji i medycynie. maszynowe tłumaczenie tekstów - systemy takie jak SYSTRANS, jakkolwiek wciąż bardzo ułomne, robią szybkie postępy i zaczynają się nadawać do tłumaczenia tekstów technicznych. Sieci neuronowe - stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem "inteligentnych przeciwników" w grach komputerowych 6
Rozpoznawanie optyczne - stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych. Rozpoznawanie mowy - stosowane już powszechnie na skalę komercyjną Rozpoznawanie ręcznego pisma - stosowane już masowo, np.: do automatycznego sortowania listów, oraz w elektronicznych notatnikach. Algebra komputerowa - programy automatycznie wykonujące obliczenia symboliczne takie jak Mathematica czy MathCad. Deep Blue - program, który ograł Gary Kasparowa w szachy Sztuczna twórczość - istnieją programy automatycznie generujące krótkie formy poetyckie, komponujące, aranżujące i interpretujące utwory muzyczne, które są w stanie skutecznie "zmylić" nawet profesjonalnych artystów, w sensie, że nie rozpoznają oni tych utworów jako sztucznie wygenerowanych. 7