Podobne dokumenty
O badaniach nad SZTUCZNĄ INTELIGENCJĄ

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Wprowadzenie do teorii systemów ekspertowych

Historia sztucznej inteligencji. Przygotował: Konrad Słoniewski

Stefan Sokołowski SZTUCZNAINTELIGENCJA. Inst. Informatyki UG, Gdańsk, 2009/2010

SZTUCZNA INTELIGENCJA

Narzędzia AI. Jakub Wróblewski Pokój SZTUCZNA INTELIGENCJA (ARTIFICIAL INTELLIGENCE)

Sztuczna inteligencja

Festiwal Myśli Abstrakcyjnej, Warszawa, Czy SZTUCZNA INTELIGENCJA potrzebuje FILOZOFII?

Sztuczna inteligencja - wprowadzenie

Inteligencja. Władysław Kopaliśki, Słownik wyrazów obcych i zwrotów obcojęzycznych

Archipelag Sztucznej Inteligencji

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

Metody Sztucznej Inteligencji Methods of Artificial Intelligence. Elektrotechnika II stopień ogólno akademicki. niestacjonarne. przedmiot kierunkowy

[1] [2] [3] [4] [5] [6] Wiedza

PRZEWODNIK PO PRZEDMIOCIE

KARTA MODUŁU KSZTAŁCENIA

Alan M. TURING. Matematyk u progu współczesnej informatyki

PRZEWODNIK PO PRZEDMIOCIE

Sztuczna inteligencja

O ALGORYTMACH I MASZYNACH TURINGA

PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"

PRZEWODNIK PO PRZEDMIOCIE

M T E O T D O ZI Z E E A LG L O G R O Y R TM

Elementy kognitywistyki II: Sztuczna inteligencja

Sztuczna inteligencja i logika. Podsumowanie przedsięwzięcia naukowego Kisielewicz Andrzej WNT 20011

Praca dyplomowa magisterska

Podstawy sztucznej inteligencji

Efekt kształcenia. Wiedza

O ISTOTNYCH OGRANICZENIACH METODY

Efekt kształcenia. Ma uporządkowaną, podbudowaną teoretycznie wiedzę ogólną w zakresie algorytmów i ich złożoności obliczeniowej.

Efekty kształcenia dla kierunku studiów INFORMATYKA, Absolwent studiów I stopnia kierunku Informatyka WIEDZA

Ćwiczenie numer 4 JESS PRZYKŁADOWY SYSTEM EKSPERTOWY.

Algorytm. Krótka historia algorytmów

Inteligentne Multimedialne Systemy Uczące

WIEDZA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Marcel Stankowski Wrocław, 23 czerwca 2009 INFORMATYKA SYSTEMÓW AUTONOMICZNYCH

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

ALGORYTMY EWOLUCYJNE

kierunkowy (podstawowy / kierunkowy / inny HES) nieobowiązkowy (obowiązkowy / nieobowiązkowy) polski drugi semestr letni (semestr zimowy / letni)

Sztuczna Inteligencja i Systemy Doradcze

WYKŁAD 1: PRZEDMIOT BADAŃ PSYCHOLOGII POZNAWCZEJ W UJĘCIU HISTORYCZNYM

Symbol efektu kształcenia

Jazda autonomiczna Delphi zgodna z zasadami sztucznej inteligencji

Plan wykładów METODY SZTUCZNEJ INTELIGENCJI W UKŁADACH STEROWANIA

Kierunek:Informatyka- - inż., rok I specjalność: Grafika komputerowa i multimedia

zna metody matematyczne w zakresie niezbędnym do formalnego i ilościowego opisu, zrozumienia i modelowania problemów z różnych

KIERUNKOWE EFEKTY KSZTAŁCENIA

Dodatkowo planowane jest przeprowadzenie oceny algorytmów w praktycznym wykorzystaniu przez kilku niezależnych użytkowników ukończonej aplikacji.

Sztuczna inteligencja wprowadzenie

Odniesienie symbol II/III [1] [2] [3] [4] [5] Efekt kształcenia. Wiedza

Tomasz Pawlak. Zastosowania Metod Inteligencji Obliczeniowej

PRZEWODNIK PO PRZEDMIOCIE

SZTUCZNA INTELIGENCJA

Instytut Nauk Technicznych, PWSZ w Nysie Kierunek: Informatyka Specjalność: Gry komputerowe i multimedia, GKiM studia niestacjonarne Dla rocznika:

Metody sztucznej inteligencji w układach sterowania METODY SZTUCZNEJ INTELIGENCJI W UKŁADACH STEROWANIA

Repetytorium z matematyki 3,0 1,0 3,0 3,0. Analiza matematyczna 1 4,0 2,0 4,0 2,0. Analiza matematyczna 2 6,0 2,0 6,0 2,0

Elementy kognitywistyki III: Modele i architektury poznawcze

Wstęp do kognitywistyki. Wykład 12: Wprowadzenie do SI. Obliczeniowa teoria umysłu

Załącznik nr 1 do uchwały Senatu PK nr 119/d/12/2017 z dnia 20 grudnia 2017 r.

Rok I, semestr I (zimowy) Liczba godzin

WYKŁAD 1: PRZEDMIOT BADAŃ PSYCHOLOGII POZNAWCZEJ W UJĘCIU HISTORYCZNYM

PRZEWODNIK PO PRZEDMIOCIE

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Kierunek: Informatyka Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne. Wykład Ćwiczenia

PL Zjednoczona w różnorodności PL A8-0005/4. Poprawka

SZTUCZNA INTELIGENCJA Chatboty

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

T2A_W01 T2A_W01 T2A_W02 3 SI_W03 Posiada szeroką wiedzę w zakresie teorii grafów T2A_W01

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

CZYM SĄ OBLICZENIA NAT A URALNE?

Inżynieria danych I stopień Praktyczny Studia stacjonarne Wszystkie specjalności Katedra Inżynierii Produkcji Dr Małgorzata Lucińska

Algorytmy wspomagania decyzji Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s. 230/C-3

PRZEWODNIK DYDAKTYCZNY I PROGRAM NAUCZANIA PRZEDMIOTU FAKULTATYWNEGO NA KIERUNKU LEKARSKIM ROK AKADEMICKI 2016/2017

Nazwa przedmiotu: METODY SZTUCZNEJ INTELIGENCJI W ZAGADNIENIACH EKONOMICZNYCH Artificial intelligence methods in economic issues Kierunek:

PL Zjednoczona w różnorodności PL. Poprawka. Beatrix von Storch w imieniu grupy EFDD

Metody numeryczne w przykładach

WSKAŹNIKI ILOŚCIOWE - Punkty ECTS w ramach zajęć: Efekty kształcenia. Wiedza Umiejętności Kompetencje społeczne (symbole) MK_1. Analiza matematyczna

ZWIĄZEK MIĘDZY INFORMATYKĄ I TECHNOLOGIĄ INFORMACYJNĄ

I rok. semestr 1 semestr 2 15 tyg. 15 tyg. Razem ECTS. laborat. semin. ECTS. konwer. wykł. I rok. w tym. Razem ECTS. laborat. semin. ECTS. konwer.

Teraz bajty. Informatyka dla szkoły podstawowej. Klasa VI

Plan. Zakres badań teorii optymalizacji. Teoria optymalizacji. Teoria optymalizacji a badania operacyjne. Badania operacyjne i teoria optymalizacji

Mariusz Nowak Instytut Informatyki Politechnika Poznańska

PRZEWODNIK PO PRZEDMIOCIE

Kierunek: Informatyka Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne. Wykład Ćwiczenia

Informatyczne fundamenty

Programowanie gier. wykład 0. Joanna Kołodziejczyk. 30 września Joanna Kołodziejczyk Programowanie gier 30 września / 13

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XII: Modele i architektury poznawcze

Państwowa Wyższa Szkoła Techniczno-Ekonomiczna w Jarosławiu

Odniesienie do efektów kształcenia dla obszaru nauk EFEKTY KSZTAŁCENIA Symbol

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

JAKIEGO RODZAJU NAUKĄ JEST

Wprowadzenie do Sztucznej Inteligencji

BIOCYBERNETYKA PROLOG

Kierunek:Informatyka- - inż., rok I specjalność: Grafika komputerowa

PRZEWODNIK PO PRZEDMIOCIE

KIERUNKOWE EFEKTY KSZTAŁCENIA

PRZEDMIOTY REALIZOWANE W RAMACH KIERUNKU INFORMATYKA I STOPNIA STUDIA STACJONARNE

Transkrypt:

Sztuczna inteligencja Definicja Sztuczna inteligencja (AI - ang. artificial inteligence) lub krótko SI jest stosunkowo nową interdyscyplinarną dziedziną nauki, przedmiotem wielkich oczekiwań i ożywionych debat. W sensie teoretycznym, SI łączy w sobie zagadnienia z dziedziny informatyki, psychologii, antropologii, matematyki, elektroniki, neurofizjologii i filozofii. Tak zwana stosowana SI jest gałęzią informatyki, która mówiąc bardzo ogólnie zajmuje się produkcją sprzętu komputerowego i oprogramowania, umożliwiającą imitowanie procesu myślowego człowieka. A zatem, głównym celem sztucznej inteligencji jest stworzenie inteligentnych komputerów", które byłyby zdolne rozwiązywać te problemy, które wśród ludzi uważane są za wymagające pewnej inteligencji. Dobrym punktem wyjścia do rozważań o sztucznej inteligencji wydaje się być słownikowa definicja inteligencji jako takiej, któr+a np. w słowniku Webstera brzmi następująco: Inteligencja jest to: zdolność uczenia się i rozumienia zjawisk poprzez doświadczenie, zdolność zdobywania wiedzy i wykorzystywania jej w celu szybkiego i efektywnego reagowania na nowe sytuacje; zdolność rozumowania w celu efektywnego rozwiązywania problemów " Wszelkie usiłowania w dziedzinie sztucznej inteligencji są zwykle klasyfikowane jako albo tzw. silna sztuczna inteligencja (ang. strong artificial, intelligence), która stara się stworzyć komputery, wyposażone w proces myślowy zbliżony do ludzkiego, albo tzw. słaba sztuczna inteligencja (weak artificial intelligence), która zajmuje się symulowaniem inteligencji. Prawie wszystkie zadania, nad którymi obecnie pracują specjaliści, są typu słabej sztucznej inteligencji. 1

Elementy sztucznej inteligencji: 1) Systemy ekspertowe 2) Algorytmy ewolucyjne 3) Logika rozmyta 4) Sztuczne sieci neuronowe 2

Przegląd historyczny Cała historia rozwoju sztucznej inteligencji jest najczęściej dzielona na pięć okresów: 1) 1950 r. 1960 r. Wielu pionierów techniki obliczeniowej było zafascynowanych ideą inteligentnej maszyny". Dla przykładu: Charles Babbage (1792-1871) rozważał możliwość wykorzystania Mechanizmu Analitycznego" (ang. Analytical Engine) do gry w szachy, a Alan Turing (1912-1954) w roku 1950 zaproponował tzw. test na inteligencję (zwany obecnie testem Turinga) oraz stworzył program symulujący grę w szachy. Samo pojęcie sztucznej inteligencji nie było znane aż do roku 1956, kiedy to Marvin Minsky użył tego terminu po raz pierwszy, zapisując się tym samym w historii jako ojciec sztucznej inteligencji". Problemy zaliczane obecnie do kategorii SI znajdowały się wówczas w kręgu zainteresowań cybernetyków, których uwaga w tym okresie koncentrowała się głównie na próbach budowania urządzeń imitujących ludzki mózg. Pomimo generalnego rozczarowania, jakie przyniosły te pierwsze próby, warto tu wspomnieć o przynajmniej dwóch interesujących systemach, które powstały w okresie Średniowiecza: PANDEMONIUM i PERCEPTRON. PANDEMONIUM był systemem rozpoznawania obrazów, opartym na architekturze czteropoziomowej, gdzie zadania były wykonywane przez cztery typy tzw. demonów": danych, obliczeń, rozpoznawania i decyzji. Cechy, które uczyniły PANDEMONIUM prekursorem wielu obecnych rozwiązań sztucznej inteligencji, to: wzorowanie się na ludzkim systemie nerwowym, działanie w oparciu o tzw. algorytm genetyczny" (tzn. zdolność uczenia się przez dostrajanie współczynników, odpowiadających połączeniom między demonami obliczeń). PERCEPTRON był urządzeniem, które przypominało prosty model siatkówki oka kręgowców ( siatka 400 fotokomórek każda o wartościach: l" dla oświetlonej lub O" dla ciemnej). Głównym osiągnięciem Rosenblatfa było 3

opracowanie metody, która pozwalała nauczyć PERCEPTRON rozpoznawania pewnej ograniczonej liczby obrazów. Dwa istotne wnioski, płynące z tych pierwszych doświadczeń, które nadały później rytm badaniom prowadzonym w latach dziewięćdziesiątych, to konkluzje, że: zdolność urządzeń do uczenia się jest niezbędnym atrybutem maszynowej inteligencji, ludzka inteligencja składa się w około 99% z rozpoznawania obrazów (wzorców) a tylko w l % z samego rozumowania. 2) 1960 r. 1970 r. Po doświadczeniach lat 50 - tych, naukowcy doszli do wniosku, że budowanie systemów na podobieństwo mózgu nie było najlepszą strategią tworzenia sztucznej inteligencji i zaczęli próbować nieco innego podejścia do problemu. Głównymi rzecznikami nowego trendu byli Alan Newell i Herbert Simon z Uniwersytetu Carnegie - Mellon, którzy postawili sobie za zadanie sformułowanie pewnych zasad inteligencji, wspólnych wszystkim procesom racjonalnego rozwiązywania problemów oraz dostępnych zarówno dla ludzi jak i komputerów. Koncepcja ta opierała się na założeniu, że ludzki proces myślenia odbywa się na drodze wykonywania szeregu prostych zadań manipulacji na symbolach takich jak porównanie, wyszukiwanie, modyfikowanie symboli, czyli czynności dość łatwo wykonalne dla komputera. Dwa systemy, które dobrze ilustrują zarówno zalety jak i wady tej nowej koncepcji to: GPS (skrót od ang. General Problem Solver czyli Uniwersalny Rozwiązywacz Problemów) 4

SHRDLU Terry'ego Winograd'a (zdolny do prowadzenia konwersacji na temat prostego układania klocków). 3) 1970 r. 1980 r. Okres romantyczny zarzucił ambitny plan stworzenia generalnie inteligentnych komputerów na korzyść bardziej realistycznego celu, czyli tworzenia komputerowych ekspertów w wybranej wąskiej dziedzinie. Zespół prowadzony przez Edwarda Feigenbaum*a na Uniwersytecie Stanford zajął się konstruowaniem tzw. systemów eksperckich (ang. expert systems) i systemów wiedzy (ang. knowlege - based systems), dając tym samym początek zupełnie nowej dziedzinie sztucznej inteligencji najogólniej zwanej inżynierią wiedzy (ang. knowledge engineering). Zadaniem systemów eksperckich jest imitowanie ludzkich ekspertów w konkretnej dziedzinie wiedzy. Systemy tego typu zaczęły powstawać równocześnie w wielu różnych dziedzinach wiedzy. Do najbardziej godnych uwagi wczesnych systemów eksperckich należą: DENDRAL, MYCIN, MACSYMA, INTERNIST/CADUCEUS, PROSPECTOR, HEARSAY I, II, III oraz PUFF. 4) 1980 r. 1990 r. Kamieniem milowym była tu japońska inicjatywa z końca roku 1981, dotycząca budowy tzw. Systemów Komputerowych Piątej Generacji. W okresie Oświecenia sztuczna inteligencja nadal jeszcze ciągnęła korzyści głównie z okresu intensywnego rozwoju systemów eksperckich w latach 70, aczkolwiek systemy eksperckie jako takie przestały już być w centrum zainteresowania sztucznej inteligencji. Trzy najbardziej reprezentatywne przykłady programów zdolnych do ograniczonego uczenia się" to: dwa algorytmy implementujące tzw. indukcję AQ11 Ryszarda Michalskiego (George Mason UnL) i ID3 Ross'a QuinlaniTa, 5

system EURISKO Doug'a Lenata. EURISKO był modyfikacją i rozszerzeniem wcześniejszego systemu o nazwie AM, który badał dziedzinę liczb elementarnych. 5) 1990 r. 2000 r. Wygląda na to, że historia SI przewędrowała pełne koło, jako że lata 90 powracają do problemów i rozwiązań, zapoczątkowanych w latach 50, tzn. obliczeń neuronowych" (ang. neuro-computing albo connectionism). Neurofizjologia nadal boryka się z tą samą niewiedzą, która zastopowała pierwsze próby w latach 50, jednakże komputery, dostępne obecnie do badań nad inteligencją, są dziś nieporównanie szybsze i pojemniejsze. W międzyczasie sformułowano też zasady uczenia się dla wielopoziomowych sieci neuronowych. 6) aktualne zastosowania A.I Obecnie AI, znalazła zastosowanie w praktyce jako: technologie oparte na "logice niepewności" ('Fuzzy Logic') - powszechnie stosowane do np: sterowania przebiegiem procesów technologicznych w fabrykach w warunkach "braku wszystkich danych". Systemy ekspertowe - czyli rozbudowane bazy danych z wszczepioną "sztuczną inteligencją" umożliwiającą zadawanie im pytań w języku naturalnym i uzyskiwanie w tym samym języku odpowiedzi. Systemy takie stosowane są już w farmacji i medycynie. maszynowe tłumaczenie tekstów - systemy takie jak SYSTRANS, jakkolwiek wciąż bardzo ułomne, robią szybkie postępy i zaczynają się nadawać do tłumaczenia tekstów technicznych. Sieci neuronowe - stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem "inteligentnych przeciwników" w grach komputerowych 6

Rozpoznawanie optyczne - stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych. Rozpoznawanie mowy - stosowane już powszechnie na skalę komercyjną Rozpoznawanie ręcznego pisma - stosowane już masowo, np.: do automatycznego sortowania listów, oraz w elektronicznych notatnikach. Algebra komputerowa - programy automatycznie wykonujące obliczenia symboliczne takie jak Mathematica czy MathCad. Deep Blue - program, który ograł Gary Kasparowa w szachy Sztuczna twórczość - istnieją programy automatycznie generujące krótkie formy poetyckie, komponujące, aranżujące i interpretujące utwory muzyczne, które są w stanie skutecznie "zmylić" nawet profesjonalnych artystów, w sensie, że nie rozpoznają oni tych utworów jako sztucznie wygenerowanych. 7