1. Czym jest semantyka obliczeniowa?

Podobne dokumenty
1. Krytyka ujęcia semantyki w mocnej wersji Sztucznej Inteligencji

P. KOŁODZIEJCZYK, Związek logiki kwantyfikatorów rozgałęzionych i teorii sieci semantycznych...

Wprowadzenie do logiki Zdania, cz. III Język Klasycznego Rachunku Predykatów

Język myśli. ang. Language of Thought, Mentalese. Dr hab. Maciej Witek Zakład Filozofii Nauki, Wydział Humanistyczny Uniwersytet Szczeciński

Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu.

Elementy kognitywistyki III: Modele i architektury poznawcze

Rachunek zdań. Zdanie w sensie logicznym jest to wyraŝenie jednoznacznie stwierdzające, na gruncie reguł danego języka, iŝ tak a

1. Uwagi wstępne. Tytuł: Intencjonalność i komputery. Krytyka J. Searle a mocnej wersji AI. Autor: Piotr Kołodziejczyk /

Wstęp do kognitywistyki

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XII: Modele i architektury poznawcze

Elementy kognitywistyki II: Sztuczna inteligencja

technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych.

Elementy kognitywistyki:

O tzw. metaforze komputerowej

Programowanie deklaratywne

1. Uwagi wstępne. Uzasadniając wagę problematyki podjętej w tym tekście odwołam się do następującej wypowiedzi Kazimierza Jodkowskiego:

Gramatyki atrybutywne

Elementy kognitywistyki III: Modele i architektury poznawcze

Wprowadzenie do teorii systemów ekspertowych

0. Uwagi wstępne. Tytuł: Rola teorii obliczalności w badaniach nad AI. Autor: Piotr Kołodziejczyk;

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Główne problemy kognitywistyki: Reprezentacja

Główne problemy kognitywistyki: Reprezentacja

2. Rola matematyki w krytyce badań nad sztuczną inteligencją

Logika Matematyczna (1)

RACHUNEK ZDAŃ 7. Dla każdej tautologii w formie implikacji, której poprzednik również jest tautologią, następnik także jest tautologią.

Wstęp do kognitywistyki. Wykład 12: Wprowadzenie do SI. Obliczeniowa teoria umysłu

MATEMATYKA DYSKRETNA, PODSTAWY LOGIKI I TEORII MNOGOŚCI

Języki i operacje na językach. Teoria automatów i języków formalnych. Definicja języka

Języki programowania zasady ich tworzenia

Metody dowodzenia twierdzeń i automatyzacja rozumowań Tabele syntetyczne: definicje i twierdzenia

Andrzej Wiśniewski Logika II. Materiały do wykładu dla studentów kognitywistyki. Wykład 14. Wprowadzenie do logiki intuicjonistycznej

Programowanie komputerów

O ALGORYTMACH I MASZYNACH TURINGA

Funkcjonalizm jako filozoficzna podstawa teorii Sztucznej Inteligencji 1. Uwagi wst pne

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Internet Semantyczny. Logika opisowa

II Matematyka 2 stopnia( 3W). Logika i podstawy matematyki. Janusz Czelakowski. Wykład 8. Arytmetyka

Instrukcja automatycznego tworzenia pozycji towarowych SAD na podstawie danych wczytywanych z plików zewnętrznych (XLS).

Programowanie deklaratywne

Adam Meissner.

Główne problemy kognitywistyki: Reprezentacja

Główne problemy kognitywistyki: Reprezentacja

Z punktu widzenia kognitywisty: język naturalny

Modalny realizm i nazwy własne raz jeszcze

Definicje. Algorytm to:

KaŜdemu atrybutowi A przyporządkowana jest dziedzina Dom(A), czyli zbiór dopuszczalnych wartości.

Kognitywistyka, poznanie, język. Uwagi wprowadzające.

Wyszukiwanie. Wyszukiwanie binarne

Metoda Tablic Semantycznych

Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki. Wykład 10. Twierdzenie o pełności systemu aksjomatycznego KRZ

Filozofia umysłu. Eliminatywizm. Wykład VIII: w filozofii umysłu

SZTUCZNA INTELIGENCJA

Logika Stosowana. Wykład 1 - Logika zdaniowa. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017

PLAN ZARZĄDZANIA WYMAGANIAMI PROJEKT <NAZWA PROJEKTU> WERSJA <NUMER WERSJI DOKUMENTU>

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Definicja pochodnej cząstkowej

Umysł-język-świat 2012

LOGIKA Klasyczny Rachunek Zdań

INFORMATYKA, TECHNOLOGIA INFORMACYJNA ORAZ INFORMATYKA W LOGISTYCE

ZAŁOŻENIA FILOZOFICZNE

Gramatyki, wyprowadzenia, hierarchia Chomsky ego. Gramatyka

Wyrok Naczelnego Sądu Administracyjnego. Data wydania Akty prawne powołane w orzeczeniu TEZY

Putnam Mózgi w naczyniu

LOGIA WIARY I LOGIKA WIERZENIA. ks. Adam Olszewski UPJP2, Copernicus Center

Wykład V. Rzut okiem na języki programowania. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Wprowadzenie: języki, symbole, alfabety, łańcuchy Języki formalne i automaty. Literatura

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Systemy rozgrywek sportowych OGÓLNE ZASADY ORGANIZOWANIA ROZGRYWEK SPORTOWYCH

PODSTAWY SZTUCZNEJ INTELIGENCJI

Podstawowe informacje o obsłudze pliku z uprawnieniami licencja.txt

LOGIKA I TEORIA ZBIORÓW

INSTRUKCJA INWENTARYZACJI

Logika Matematyczna (1)

Natalia Gorynia-Pfeffer STRESZCZENIE PRACY DOKTORSKIEJ

Elementy kognitywistyki III: Modele i architektury poznawcze

ZAJĘCIA 25. Wartość bezwzględna. Interpretacja geometryczna wartości bezwzględnej.

Algorytm - pojęcie algorytmu, sposób zapisu, poziom szczegółowości, czynności proste i strukturalne. Pojęcie procedury i funkcji.

Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki. Wykłady 12 i 13. Dowód i dowodzenie w KRP. Tezy KRP

Agnieszka NOWAK * 1. WSTĘP

M T E O T D O ZI Z E E A LG L O G R O Y R TM

Narzędzia myślenia Słowa - wyobrażenia - pojęcia Wiesław Gdowicz

Wykład 6. Reguły inferencyjne systemu aksjomatycznego Klasycznego Rachunku Zdań

FK - Deklaracje CIT-8

Andrzej Wiśniewski Logika II. Materiały do wykładu dla studentów kognitywistyki

Wprowadzenie. Teoria automatów i języków formalnych. Literatura (1)

Alan M. TURING. Matematyk u progu współczesnej informatyki

Wnioskodawca Treść wniosku Realizacja

Rozdział 4 KLASY, OBIEKTY, METODY

Andrzej Wiśniewski Logika II. Wykład 6. Wprowadzenie do semantyki teoriomodelowej cz.6. Modele i pełność

CZY INFORMATYKOM MUSI WYSTARCZYĆ NIESKOŃCZONOŚĆ POTENCJALNA?

ANALIZA HIERARCHICZNA PROBLEMU W SZACOWANIU RYZYKA PROJEKTU INFORMATYCZNEGO METODĄ PUNKTOWĄ. Joanna Bryndza

Predykat. Matematyka Dyskretna, Podstawy Logiki i Teorii Mnogości Barbara Głut

Logika dla socjologów Część 2: Przedmiot logiki

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

Wstęp do logiki. Semiotyka cd.

Technologie i systemy oparte na logice rozmytej

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

hierarchie klas i wielodziedziczenie

Wykład 11b. System aksjomatyczny Klasycznego Rachunku Predykatów. Aksjomaty i reguły inferencyjne

Transkrypt:

1 Tytuł: Czy reguły obliczeniowe są wystarczającym warunkiem dla generowania semantyki? 1 Autor: Piotr Kołodziejczyk / pkolodziejczyk@interia.pl Źródło: http://www.kognitywistyka.net / mjkasperski@kognitywistyka.net Data publikacji: 18 V 2003 1. Czym jest semantyka obliczeniowa? W moich rozwaŝaniach postaram się ukazać, iŝ badania semantyczne prowadzone w ramach sztucznej inteligencji są warunkowane uprzednim przyjęciem pewnej teorii obliczalności. W świetle poczynionej uwagi moŝna sądzić, Ŝe symbolom składającym się na dowolny system przetwarzający informacje z definicji przysługują własności semantyczne. Teoretycy mocnej wersji AI w całej rozciągłości akceptują bowiem tezę, Ŝe umysłowe stany i procesy mają charakter procesów obliczeniowych (...). Procesy obliczeniowe są zarówno symboliczne, jak i formalne. Są symboliczne, gdyŝ stanowią składową reprezentacji. Są one równieŝ formalne, poniewaŝ układają się w reprezentacje dzięki syntaktyce. [Fodor 1982, s. 279]. Stąd teŝ, mianem semantyki obliczeniowej określam te teorie, których aksjomatem jest twierdzenie o determinacji rozstrzygnięć w kwestii znaczenia i odniesienia przez zbiór formalnych reguł operowania symbolami. NaleŜy przy tym wyraźnie zaznaczyć, Ŝe semantyka obliczeniowa jest koncepcją proceduralną. Definiując bowiem procedurę jako abstrakcję danego zjawiska, które wywołane z danym parametrem powoduje określone działanie systemu (por. Waite, Goos 1989 s. 23), okazuje się, iŝ badacze pracujący w paradygmacie AI traktują własności semantyczne jako interpretacje danych operacji formalnych wywołanych z odpowiednim parametrem (symbolem). Zaimplementowane w systemie symbole, twierdzą oni, muszą więc posiadać znaczenie rozumiane jako wypadkowa kauzalnych powiązań symbolu z innymi symbolami tworzącymi dany system (zob. Sloman 1986, s. 375). Na tego rodzaju ujęcie zezwala obserwacja, iŝ w kaŝdym sztucznym systemie poznawczym wyróŝnić moŝna dwa poziomy przetwarzania danych. Pierwszy pisze Bobryk to tak zwany poziom symboliczny (FORTRAN, PASCAL, BASIC). Jest on językiem, którym maszyna operuje na wejściach i wyjściach, słuŝy do komunikacji między maszyną a jej uŝytkownikami. Drugi rodzaj kodu język, w którym wykonywane są obliczenia [computations], w którym maszyna mówi do siebie nazywany jest kodem maszynowym lub językiem wewnętrznym. [Bobryk 1987, s. 46]. 1 Artykuł poniŝszy jest szkicem autorskiego wystąpienia na II Filozoficznym Forum Młodych, Bielsko-Biała.

2 Instrukcje języka symbolicznego moŝna bowiem traktować jako reprezentacje obliczeń dokonywanych w języku assemblera, natomiast relacje między instrukcjami jako kategorie semantyczne generowane przez dany system przetwarzający informacje. ZaleŜność tą oddaje następujący schemat: Proceduralne rozumienie semantyki obliczeniowej implikuje określenie jej mianem koncepcji holistycznej. Holizm ów wiąŝe się z przyjęciem załoŝenia, iŝ kategorie semantyczne tworzone przez dany system są zdeterminowane przez wewnętrzne relacje zachodzące pomiędzy poszczególnymi składnikami tego systemu (zob. Fodor 1987, s. 60). Wedle tego poglądu treść myśli pisze Fodor jest metafizycznie konstytuowana przez rolę w systemie przekonań danej osoby. [Fodor 2001, s. 16]. Dlatego teŝ, próba opisania/wyjaśnienia sposobu generowania semantyki w dowolnym systemie przetwarzającym informacje zakłada ujęcie tego systemu jako układu izolowanego. Oznacza to, Ŝe badanie własności semantycznych tego układu nie zakłada analizy interakcji pomiędzy systemem a jego środowiskiem zewnętrznym (por. Bobryk 1984, ss. 48-49). Wydaje się, iŝ przytoczona teza prowadzi wprost do internalistycznego ujęcia semantyki obliczeniowej, zgodnie z którym treści semantyczne traktowane są wąsko (por. Fodor 2001, s. 17). Mówiąc inaczej, tylko na podstawie zaimplementowanych w systemie formalnych reguł operowania symbolami moŝna wnosić, Ŝe dla dowolnego układu O i pewnego stanu A wyraŝającego sąd P istnieje ( obliczeniowa / funkcjonalna ) relacja oraz mentalna reprezentacja MP taka, Ŝe MP oznacza P oraz O zawiera A wtedy, gdy w O zachodzi relacja pomiędzy P i MP (Fodor 1975, s. 75 oraz por. Fodor 1987, s. 17). Stąd zaś nietrudno wywieść, Ŝe dla kaŝdego stanu, w którym moŝe się znaleźć dany system, istnieją obliczeniowe relacje między nim a danymi stanami systemu. Relacje tego rodzaju stanowią podstawę dla semantycznej reprezentacji procedur realizowanych przez system. Przykładową zaleŝność tego typu ilustruje ten oto schemat:

3 Na podstawie rysunku zdaje się być widocznym, Ŝe internalistyczne ujęcie semantyki obliczeniowej ściśle wiąŝe się z tezą głoszącą, iŝ znaczenie wyraŝenia jest określone przez jego połoŝenie w sieci stanów (danego systemu, przyp. P. K.) jak równieŝ poprzez sposób, w jaki korzystają z niego róŝne procedury rozumujące przy uŝyciu tej sieci. [Rapaport 1988, s. 94]. Ze względu na problematyczność przytoczonego twierdzenia naleŝy poświęcić szczegółową uwagę jego analizie. 2. Ujęcie kategorii znaczenia w badaniach AI Charakteryzując koncepcje semantyczne sformułowane w ramach teorii Sztucznej Inteligencji moŝna dostrzec pewien związek z klasycznymi rozstrzygnięciami semantycznymi. Związek ten polega na próbie wpisania wniosków sformułowanych przez badaczy AI w trójstopniowy schemat teorii referencji. Jeśli przyjąć, Ŝe schemat ten zakłada istnienie relacji pomiędzy nazwą, znaczeniem (sensem) oraz denotatem danej nazwy [zob. Paśniczek 1988, ss. 92-93], to w przypadku badań semantycznych prowadzonych w ramach teorii Sztucznej Inteligencji jest on przeformułowywany w strukturę: symbol znaczenie (sens) przedmiotowe odniesienie symbolu (por. Rumelhart 1999, s. 241). Pod pojęciem symbolu teoretycy Sztucznej Inteligencji rozumieją zazwyczaj konwencjonalny zbiór słów i zdań róŝnych języków (zob. Fetzer 1997, s. 353). Jeśli więc systemy inteligentne są systemami symbolicznymi, to ich definicyjną cechą jest to, Ŝe manipulacje symbolami muszą być semantycznie interpretowalne i to nie tylko lokalnie, ale globalnie: wszystkie te interpretacje symboli i manipulacji muszą sobie wzajemnie odpowiadać, jak ma to miejsce w arytmetyce, na poziomie symboli indywidualnych, formuł i ciągów formuł. Wszystkie te interpretacje muszą mieć semantyczny sens zarówno w całości, jak i w części. [Harnard 1995, s. 381 por. takŝe Fodor i Pylyshlyn 1988, ss. 48-55].

4 Przyjęcie kryterium semantycznej interpretowalności symboli wymusza wniosek o obliczeniowym podłoŝu formułowanej w ramach AI koncepcji znaczenia. Wprawdzie o kwestii tej pisałem juŝ wyŝej, to warto w tym miejscu dodać rzecz taką, Ŝe jeŝeli systemy inteligentne są układami przetwarzającymi ciągi symboli, to muszą one być wyposaŝone w interpreter przypisujący tym ciągom znaczenie. Mówiąc słowami Johna Haugelanda: Jeśli posiadamy dany system symboli wraz z ich interpretacjami, to znaczenia znaków będących przedmiotami wprowadzania, przechowywania, manipulacji i wprowadzania dba o siebie samą. [Haugeland 1981, s. 24]. Innymi słowy, znaczenie jest automatycznie przypisywane danemu symbolowi (lub ciągowi symboli). Na czym jednak polega ów automatyzm? Aby odpowiedzieć na to pytanie skonstruuję następujący system symboliczny: (1) System S jest inteligentnym systemem języka naturalnego. (2) Niech A oznacza alfabet systemu, czyli zbiór niezinterpretowanych symboli będących stałymi nazwowymi oraz zmiennymi indywiduowymi oraz predykatami. Zbiór ten jest skończony; A = {a, b, c, x, y, z, P, Q, R, (...)}. (3) System zawiera takŝe zbiór R zawierający reguły operowania symbolami: R = {,,,, }. (4) Składową systemu są równieŝ kwantyfikatory (ogólny i szczegółowy):,. (5) Zakładam, Ŝe do systemu wprowadzane są dane wejściowe (DW), system zawiera moduł przechowujący przetworzone informacje (M), zaś reakcjami systemu (R) są odpowiedzi na dostarczane DW. Automatyczne generowanie znaczeń moŝe (w systemie S) przebiegać następująco: (1) Niech DW stanowią te oto zdania: a. Pewne samochody są zielone. b. Pewne samochody są szybkie. c. Niektóre samochody są drogie. (2) Korzystając z A, system wygeneruje następujące reprezentacje DW: a. x (P x Q x ) b. x (P x T x ) c. x (P x S x ) (3) Moduł zawierał będzie więc informacje: i) Pewne samochody są zielone i Pewne samochody są szybkie oraz Niektóre samochody są drogie, co w S jest wyraŝalne jako: I) x (P x Q x ) x (P x T x ) x (P x S x ). (4) Na mocy zasady uproszenia koniunkcji przechowywana informacja będzie miała postać: x [P x (Q x T x S x )]. (5) Niech system otrzyma kolejną DW w postaci pytania: Co jest szybkie?. (6) Wówczas S identyfikuje, Ŝe w M występuje jednoargumentowy predykat Τ x reprezentujący własność bycia szybkim. Jako, Ŝe predykat ten pozostaje w relacji do predykatu P x, reakcją systemu będzie wygenerowanie formuły: R) x (P x T x ), czyli zdania: Pewne samochody są szybkie. Jest przy tym jasne, Ŝe w zaleŝności od liczby danych wejściowych, zasób wiedzy systemu będzie się zmieniał (por. Biela, Wojtylak 1993, ss. 129-132). Konstatacja ta nie pełni jednakŝe Ŝadnej doniosłej roli w rozwaŝaniach semantycznych. Najbardziej istotną

5 konsekwencją związaną z konstrukcją systemów izomorficznych z S jest, w opinii teoretyków mocnej wersji AI, fakt, iŝ znaczenie rozumiane jako element danej sieci symboli posiada moc kauzalną (por. Jifeng, Hoare 1990, ss. 406-409). Idąc tokiem Fodorowskich rozstrzygnięć moŝna więc stwierdzić, Ŝe Ŝywienie przekonania, pragnienia itp. są to relacje, jakie zachodzą między systemami intencjonalnymi a reprezentacjami umysłowymi, które zostały wyraŝone (w ich, niejako, głowach). WyraŜenie reprezentacji umysłowej ma przyczynowe konsekwencje. Całość takich konsekwencji implikuje sieć wzajemnych relacji przyczynowych między postawami. [Fodor 1999, s. 44]. W związku z tym, poszczególne znaczenia generowane przez dany system nie mogą być traktowane atomistycznie, lecz holistycznie. Sieć znaczeń pisze Fodor jest wytworzona przez relacje inferencyjne zachodzące między sądami i relacje inferencyjne naleŝą prawdopodobnie do istotnych własności kaŝdego sądu. [Fodor 1999, s. 31]. Na przykład analiza zdania: Piotr jest wyŝszy niŝ Jan, pozwala (na mocy zasady inferencji) wnosić, iŝ Jan jest niŝszy od Piotra. Zatem, zbiorowi symboli tworzących system znaczeń moŝna przypisywać własność referencji. Wydaje się, Ŝe problem referencji znaczeń generowanych w systemach AI stanowi najsłabszy punkt badań semantycznych realizowanych w paradygmacie mocnej wersji sztucznej inteligencji. Uznanie twierdzenia głoszącego, iŝ element danego systemu moŝe odnosić się tylko do innego elementu tego układu (zob. Baeten, Verhoef 1995, s. 160) implikuje, iŝ moŝliwość stwierdzenia równowaŝności pomiędzy sztucznymi a naturalnymi systemami poznawczymi w kwestii generowania i adaptacji znaczenia jest wysoce dyskusyjna. Sedno krytyki bazuje na refutacji 'wąskiego' ujęcia treści semantycznych. 3. Niektóre problemy semantyczne w ramach badań nad AI Przyjęcie, iŝ podstawę formułowania koncepcji semantycznych stanowią formalne reguły operowania symbolami, teoretycy AI naraŝają się na szereg zarzutów, które ująć moŝna następująco: (1) 'Inteligentne' systemy przetwarzające informacje niejednokrotnie nie uwzględniają problemu ekstensji generowanych przez siebie ciągów wyraŝeń. Z tego punktu widzenia pisze Bobryk jest czymś mało istotnym, Ŝe sądy Edyp poślubia Jokastę i Edyp poślubia swoją matkę mają tę samą denotację, czyli dotyczą tych samych faktów. WaŜne jest natomiast, czy w umyśle utrwalona jest informacja Jokasta jest matką Edypa. [Bobryk 1996, s. 101]. ToteŜ, systemom tym trudno orzec, czy wypowiedzi wyjściowe typu: Aleksander Kwaśniewski i obecny prezydent RP odnoszą się do tego samego obiektu. Trudność ta związana jest z tzw. zagadnieniem wąskiej treści. Mówiąc słowami Putnama, nietrudno wykazać, Ŝe znaczenia generowane przez dowolny system poznawczy nie są w głowie.

6 (2) Znaczenia nie są w głowie. Pisze Putnam: Jeśli idzie o mózgi w naczyniu jakim sposobem fakt, Ŝe język ma ustalone przez program związki z odbieranymi bodźcami zmysłowymi, które ani ze swej istoty, ani na Ŝadnej konwencjonalnej zasadzie nie reprezentują (...) niczego zewnętrznego, moŝe sprawić, by cały system reprezentacji, język w jego uŝyciu rzeczywiście odnosił się do drzew, lub reprezentował drzewa, bądź cokolwiek zewnętrznego? Odpowiedź brzmi: nie moŝe. [Putnam 1998, s. 313]. Jest tak, poniewaŝ, treść semantyczna tworzona przez sztuczne podmioty poznawcze jest 'wąska'. Oznacza to, iŝ odnosi się ona do symboli (wyraŝeń) zaimplementowanych w danym systemie, nie zaś do obiektów zewnętrznych wobec siebie. Za Putnamem moŝna zatem stwierdzić, Ŝe gdyby te systemy posiadały zdolność bezpośrednich interakcji ze środowiskiem, wówczas miałyby zdolność do tworzenia takich samych kategorii semantycznych jak podmioty ludzkie (por. Putnam 1998, ss. 305-306). Wtedy jednak treść semantyczna traktowana byłaby szeroko. Takie ujęcie prowadziłoby do ugruntowania zbioru symboli tworzących dany system, a w konsekwencji do skonstruowania semantyki robotycznej. Semantyka tego rodzaju zakładała, iŝ symbole składające się na dany system oraz reguły operowania nimi nie są dostatecznym warunkiem dla generowania semantyki. Odrzucam bowiem stanowisko funkcjonalistyczne i związaną z nim tezę o niezaleŝności realizacji własności poznawczych. Moje stanowisko jest, rzecz jasna, naraŝone na konieczność odrzucenia teorii obliczalności jako podstawy rozstrzygnięć semantycznych. Wydaje się jednak, iŝ ma ono tą zaletę, Ŝe nie miesza poznania z obliczaniem. UwaŜam bowiem, Ŝe aby moŝliwe było tworzenie kategorii semantycznych przez dany system, musi być on być wyposaŝony w organy sensomotoryczne. Stąd teŝ, za Harnardem, moŝna stwierdzić, Ŝe: własności symboliczne muszą być ugruntowane we własnościach robotycznych. Wiele sceptycznych rzeczy moŝna powiedzieć o robocie (...), ale nie moŝna powiedzieć, Ŝe wewnętrzne symbole tego robota dotyczą przedmiotów, zdarzeń i stanów rzeczy, do których się odnoszą tylko dlatego, Ŝe są w taki sposób przeze mnie interpretowane, poniewaŝ ten robot sam moŝe i faktycznie oddziałuje, autonomicznie i wprost na te przedmioty (...) w sposób, który odpowiada interpretacji. (...) Cena jednak, jaką trzeba zapłacić za ugruntowanie systemu jest to, Ŝe nie jest on juŝ jedynie obliczeniowy. Dla robotycznego ugruntowania (semantyki, przyp. P.K.) niezbędne jest przynajmniej przetwarzanie sensomotoryczne, a przetwarzanie nie jest obliczaniem. [Harnard 1995, s. 388]. Ugruntowanie to umoŝliwia jednakŝe przypisanie systemowi robotycznemu własności intencjonalności, a więc wyposaŝenia go w te własności poznawcze, co podmiot naturalny. Dla rozwoju badań nad sztuczną inteligencją jest to fakt niebagatelny, poniewaŝ teorie intencjonalności sformułowane w ramach mocnej wersji AI naraŝone są na szereg trudności teoretycznych, których omówienie moŝe być tematem innych analiz. Literatura: [1] J. Beaten, C. Verhoef, Concrete process algebra, w: Handbook of Logic in Computer Science vol. 4, red. S. Abramsky, Oxford, 1995, ss. 150-268. [2] A. Biela, M. Wojtylak, Automatyczne dowodzenie twierdzeń, Katowice 1993.

7 [3] J. Bobryk, Locus umysłu, Wrocław 1987. [4] J. Bobryk, Akty świadomości i procesy poznawcze, Wrocław 1996. [5] J. Fetzer, Thinking and Computing. Computers as Special Kinds of Signs, w: "Minds and Machines", Nr 3/1997, ss. 345-364. [6] J. Fodor, Language of Thought, New York 1975. [7] J. Fodor, Methodological Solipsism. Considered as Researcg Strategy in Cognitive Psychology, w: Husserl, Intentionality and Cognitive Science, red. H. Dreyfus, Cambridge Mass 1982, s. 279. [8] J. Fodor, Psychosemantics. The Problem of Meaning in the Philosophy of Mind, Cambridge Mass 1987. [9] J. Fodor, Z. Pylyshlyn, Conectionism and Cognitive Architecture: A Critical Approach, w: "Cognition", Nr 28/1988, ss. 48-55. [10] J. Fodor, Jak grać w reprezentacje umysłowe, tłum. Z. Chlewiński, w: Modele umysłu, red. Z. Chlewiński, Warszawa 1999, ss. 17-49. [11] J. Fodor, Eksperci od wiązów. Język myśleński i jego semantyka, tłum. M. Gokieli, Warszawa 2001. [12] S. Harnard, Computation Is Just Interpretable Manipulation. Cognition Isn t, w: "Minds and Machines", Nr 4/1995, ss. 379-390. [13] J. Haugeland, Semantic Engines. An Introduction to Mind design, w: Philosophy, Psychology, Artificial Intelligence, red. tenŝe, Cambridge Mass 1981, ss. 1-34. [14] H. Jifenog, C. Hoare, Categorial Semantics for Proggraming Language, w: Mathematical Foundations of Programming Semantics, red. M. Main M., Berlin-Heidelberg-New York, 1990, ss. 402-416. [15] J. Paśniczek, Meinongowska wersja logiki klasycznej, Lublin 1988. [16] H. Putnam, Mózgi w naczyniu, tłum. A. Grobler, w: H. Putnam, Wiele twarzy realizmu i inne eseje, Warszawa 1988, ss. 295-324. [17] W. Rapaport, Syntactic Semantics: Foundation of Computational Language Understatnding, w: Aspects of Artificial Intelligence, red. J. Fetzer, Dortrecht 1988, ss. 81-131. [18] D. Rumelhart, Architektura umysłu. Podejście koneksyjne, tłum. H. Grzegołowska-Klerkowska, w: Modele..., red. Z. Chlewiński, 1999. [19] A. Sloman, Reference without Causal Links, ss. 369-381, w: 7 th European Conference of Artificial Intelligence, red. B. Dolay, J. Steels, Amsterdam 1986. [20] W. M. Waite, G. Goos, Konstrukcje kompilatorów, tłum. A. Litwiniuk, Warszawa 1989.