Roboty na polu walki. Pomiędzy etyką a robotyką

Podobne dokumenty
Recenzja książki Moral Machines. Teaching Robots Right from Wrong

Zagrożenia psychospołeczne

Wymagania do przedmiotu Etyka w gimnazjum, zgodne z nową podstawą programową.

Poradnik dla osób chcących poszerzyć wiedzę o pracy zmianowej.

PL Zjednoczona w różnorodności PL A8-0005/4. Poprawka

PL Zjednoczona w różnorodności PL. Poprawka. Beatrix von Storch w imieniu grupy EFDD

Wprowadzenie do teorii systemów ekspertowych

Aby móc mówić o prawach człowieka, należy najpierw rozróżnić kilka aspektów słowa "prawo".

CBOS CENTRUM BADANIA OPINII SPOŁECZNEJ SPADEK POPARCIA DLA OBECNOŚCI POLSKICH ŻOŁNIERZY W IRAKU BS/86/2004 KOMUNIKAT Z BADAŃ WARSZAWA, MAJ 2004

1 Uzależnienia jak ochronić siebie i bliskich Krzysztof Pilch

Maciej Dziubecki Wygodny dostęp do pełnej oferty biblioteki z Primo i Promo Central Index od Ex Libris. Forum Bibliotek Medycznych 4/1 (7),

technik elektronik elektronika

Składa się on z czterech elementów:

Metoda 5-WHY. Metoda 5-WHY. Wydanie 1. Zbigniew Huber. Maj Artykuł dostępny na stronie autora:

Organizacja informacji

W tych krajach, gdzie pospolite ruszenie lub oddziały ochotnicze stanowią armię lub wchodzą w jej skład, nazwa armii rozciąga się na nie.

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

ZESPÓŁ SZKÓŁ ELEKTRYCZNYCH NR

Summary in Polish. Fatimah Mohammed Furaiji. Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling

3 największe błędy inwestorów, które uniemożliwiają osiągnięcie sukcesu na giełdzie

MIND-BODY PROBLEM. i nowe nadzieje dla chrześcijańskiej antropologii

Wstęp do kognitywistyki

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Etyka kompromisu. Zbigniew Szawarski Komitet Bioetyki przy Prezydium PAN Narodowy Instytut Zdrowia Publicznego -PZH

PRZEWODNIK PO PRZEDMIOCIE ETYKA ZAWODOWA. Logistyka. niestacjonarne. I stopnia. ISiPZ. dr Łukasz Skiba. ogólnoakademicki.

Jak sobie radzić ze stresem

Efekty kształcenia dla kierunku studiów Bezpieczeństwo Wewnętrzne

ZWROTNICOWY ROZJAZD.

Prof. Bolesław Rok Centrum Etyki Biznesu i Innowacji Społecznych ALK

System wykrywania obiektów (pieszych, rowerzystów, zwierząt oraz innych pojazdów) na drodze pojazdu. Wykonał: Michał Zawiślak

Materiały pomocnicze dla nauczycieli. 1. Uwagi do oceny zadań otwartych w arkuszu na poziomie rozszerzonym wraz z przykładowymi rozwiązaniami.

Poradnia Psychologiczno-Pedagogiczna ul. Dr. Józefa Rostka Bytom tel; ,

Uchwała Nr 17/2013/III Senatu Politechniki Lubelskiej z dnia 11 kwietnia 2013 r.

TYPY KRAJOBRAZU POLSKI WYBRANE PROBLEMY JEGO WALORYZACJI

Żeby móc mieć wpływ na świat zewnętrzny trzeba NAJPIERW móc mieć wpływ na świat wewnętrzny. Żeby wpływać na innych, trzeba wpływać na siebie.

Formularz recenzji magazynu. Journal of Corporate Responsibility and Leadership Review Form

PLAN DYDAKTYCZNY ŚCIEŻKI EKOLOGICZNEJ

Załącznik nr 1WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PEDAGOGIKA STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW: PEDAGOGIKA. I. Umiejscowienie kierunku w obszarze kształcenia wraz z uzasadnieniem

Wydział Nauk Historycznych ARCHEOLOGIA PROGRAM STUDIÓW. studia trzciegostopnia DOKTORANCKIE W ZAKRESIE ARCHEOLOGII

Mechatronika, co dalej?

Stres w pracy negocjatora. Wydział Psychologów Policyjnych KGP

GMINNY PROGRAM PRZECIWDZIAŁANIA PRZEMOCY W RODZINIE na lata

Alan M. TURING. Matematyk u progu współczesnej informatyki

Na drabinę wchodzi się szczebel po szczebelku. Powolutku aż do skutku... Przysłowie szkockie

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW NAUK O RODZINIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI

Opisy efektów kształcenia w obszarze nauk przyrodniczych Załącznik 2

EFEKTY KSZTAŁCENIA DLA KIERUNKU PSYCHOLOGIA JEDNOLITE STUDIA MAGISTERSKIE PROFIL OGÓLNOAKADEMICKI

Cele i zadania stawiane przed uczniem w ramach zajęć etyki.

STUDIA I STOPNIA PRZEKŁAD PISEMNY

USTAWA z dnia 17 grudnia 1998 r. o zasadach użycia lub pobytu Sił Zbrojnych Rzeczypospolitej Polskiej poza granicami państwa

Psychologia zdrowia i choroby S T R E S I R A D Z E N I E S O B I E Z E S T R E S E M

Zasady etyczne dotyczące relacji ludzi ze zwierzętami w badaniach naukowych. dr Beata Płonka

AGENDA PLAN WPROWADZENIE

Opis kierunkowych efektów kształcenia

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Wymagania edukacyjne z przedmiotu uzupełniającego : ekonomia w praktyce dla klasy II

Zarządzanie ryzykiem braku zgodności w banku spółdzielczym

Wykorzystanie wieloagentowych systemów w optymalizacji operacji łańcucha dostaw

OFERTA: SZKOLENIA. Fundacja ZenDriving ul. Stępińska Warszawa KRS: REGON: NIP:

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ

1 Stres wróg czy przyjaciel? Zbigniew Karapuda

PODSTAWOWE ZASADY BHP ZWIĄZANE Z OBSŁUGĄ URZĄDZEŃ TECHNICZNYCH. Szkolenia bhp w firmie szkolenie wstępne ogólne 73

Psychologia WF-PS. Studia drugiego stopnia Profil ogólnoakademicki Studia stacjonarne, niestacjonarne Magister

BEZZAŁOGOWE SYSTEMY LATAJĄCE Cezary Galiński Jarosław Hajduk

Wymagania edukacyjne przedmiotu: Ekonomia w praktyce Temat Wymagania - ocena dopuszczająca

dr hab. inż. Elżbieta Pietrzyk-Sokulska, prof. nadzw.

Szkoła Główna Służby Pożarniczej w Warszawie Państwowa Straż Pożarna i Ochotnicza Straż Pożarna nieodzownym elementem systemu Obrony Cywilnej

Kształtując przyszłość, jakiej chcemy. refleksje z raportu podsumowującego Dekadę Edukacji dla Zrównoważonego Rozwoju ( ).

Wojewódzki Urząd Pracy w Poznaniu Miejsce odbywania zajęć: Poznań, ul. Kościelna 37

UCHWAŁA NR 23/2014. Senatu Akademii Marynarki Wojennej im. Bohaterów Westerplatte z dnia 29 maja 2014 roku

U Z A S A D N I E N I E

PRZEDMIOTOWE ZASADY OCENIANIA

rozmowa doradcza Scenariusz nr 5

UCHWAŁA NR 22/2014. Senatu Akademii Marynarki Wojennej im. Bohaterów Westerplatte z dnia 29 maja 2014 roku

Colorful B S. Autor: Alicja Wołk-Karaczewska. Wydawca: Colorful Media. Korekta: Marlena Fiedorow ISBN:

Wymagania edukacyjne przedmiotu uzupełniającego: Ekonomia w praktyce

Porozumienie na rzecz upowszechniania edukacji seksualnej dzieci i młodzieży w polskiej szkole podpisane, dnia 20 stycznia 2009 r.

to umiejętność radzenia sobie z własnymi emocjami i zdolność rozumienia innych ludzi. Ma ona decydujące znaczenie w kwestii tworzenia dobrych relacji

Narzędzia Informatyki w biznesie

STRESZCZENIE. Strona 1 z 5

Jakie błędy popełniają najczęściej beneficjenci w procedurze oceny oddziaływania na środowisko?

SUKCESJA W FIRMIE RODZINNEJ. Przykład działania doradczego

KOSZTY JAKOŚCI JAKO NARZĘDZIE ZARZĄDZANIA JAKOŚCIĄ

MODELOWANIE HAMULCA TARCZOWEGO SAMOCHODU OSOBOWEGO Z WYKORZYSTANIEM ZINTEGROWANYCH SYSTEMÓW KOMPUTEROWYCH CAD/CAE

CBOS CENTRUM BADANIA OPINII SPOŁECZNEJ OPINIE O EWENTUALNYM ROZMIESZCZENIU AMERYKAŃSKICH BAZ WOJSKOWYCH NA TERENIE POLSKI BS/23/2004 KOMUNIKAT Z BADAŃ

Zadanie 9: Oferta edukacyjna na nowej specjalności Pomiary technologiczne i biomedyczne na kierunku Elektrotechnika, WEAIiE

Temat 12. Rozkaz Wykonać! Języki programowania

Zasługujesz na szacunek! Bądź pewny siebie i asertywny.

WYMAGANIA EDUKACYJNE Z ETYKI DLA KLAS IV- VIII. SZKOŁY PODSTAWOWEJ Z ODDZIAŁAMI INTEGRACYJNYMI Nr 162 W KRAKOWIE W ROKU SZKOLNYM

Global Beginner Plan Wynikowy

ZASADY POWOŁYWANIA I ODBYWANIA ĆWICZEŃ WOJSKOWYCH WG NOWEJ INSTRUKCJI O POWOŁYWANIU ŻOŁNIERZY REZERWY NA ĆWICZENIA WOJSKOWE

Wymagania podstawowe (ocena dostateczne) Wymagania rozszerzające (ocena dobra) Dział 1. Metoda projektu zasady pracy Uczeń: określa założenia

BUDOWANIE ZAANGAŻOWANIA I WYKORZYSTANIE POTENCJAŁU RÓŻNORODNOŚCI W ZESPOŁACH

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW BEZPIECZEŃSTWO WEWNĘTRZNE STUDIA II STOPNIA PROFIL PRAKTYCZNY

Program Interdyscyplinarnego Kształcenia Doktorantów w zakresie Technologii Rakietowych (Program IKD-TR)

KARTA PRZEDMIOTU. 1. NAZWA PRZEDMIOTU: Międzynarodowe prawo humanitarne. 2. KIERUNEK: Bezpieczeństwo narodowe

Projekt interdyscyplinarny biologia-informatyka

Dlaczego należy oceniać efektywność systemów wynagradzania? Kraków, r. Renata Kucharska-Kawalec, Kazimierz Sedlak

Transkrypt:

Roboty na polu walki. Pomiędzy etyką a robotyką Dawid Lubiszewski Instytut Filozofii, Uniwersytet Mikołaja Kopernika w Toruniu Streszczenie: Postępująca robotyzacja wielu sfer życia człowieka, w tym robotyzacja wojska, jest przyczyną wielu problemów etycznych, społecznych i ekonomicznych. Niniejszy artykuł dotyczy tych pierwszych, które rozpatrywane są z perspektywy roboetyki niedawno powstałego działu etyki stosowanej związanego z robotyką. W pracy tej przedstawiono zakres zainteresowań roboetyki oraz etyczne implikacje stosowania robotów przez wojsko. Opisano powody, dla których mechaniczni żołnierze zastępują coraz częściej człowieka, oraz wskazano problemy etyczne, z jakimi mierzą się ich konstruktorzy i użytkownicy. Poruszona została też kwestia odpowiedzialności za skutki działań robotów. Ponadto przedstawiono relacje wywiązujące się między robotem a jego użytkownikiem, z zaznaczeniem możliwych zagrożeń, na jakie narażeni są użytkownicy i osoby postronne. Praca ma charakter przeglądowy i referowane są w niej stanowiska znanych naukowców zajmujących się tą tematyką, do których zaliczyć należy m.in. Ronalda Arkina, Colina Allena i Wendella Wallacha. Głównym celem artykułu jest wskazanie, iż dalszy rozwój robotyki, wraz z postępującą robotyzacją różnych aspektów naszego życia, wymaga od nas poszukiwania nowych etyczno-prawnych rozwiązań, bez których prawidłowe funkcjonowanie robotów i ludzi będzie zaburzone. Słowa kluczowe: roboetyka, etyka robotów, etyka maszyn, roboty wojskowe, militarny test Turinga Po drugie, w ciągu ostatnich kilkunastu lat nastąpił gwałtowny wzrost udziału SJ (między innymi robotów i programów komputerowych) w życiu człowieka. Są to nie tylko jednostki zdalnie sterowane, ale również jednostki autonomiczne. Tym samym z roku na rok są one odpowiedzialne za realizację coraz większej liczby zadań, a wyzwania, z jakimi się mierzą, coraz częściej wymagają jakiejś oceny moralnej. Kwestia świadomości SJ schodzi więc na dalszy plan. Proste nieświadome maszyny mogą bowiem znaleźć się w problematycznej pod względem moralnym sytuacji, nieumiejętność rozwiązania której powoduje zagrożenie dla życia człowieka. Tego typu problemy pojawiają się m.in. na polu walki, a roboty wojskowe stanowią jeden z głównych kierunków rozwoju w robotyce, który zarazem budzi najwięcej zastrzeżeń etyków. Dlatego w niniejszym artykule omówione zostały przykładowe konsekwencje wynikające ze stosowania robotów na polu walki. Przykłady te są, zdaniem autora, również wystarczającym argumentem na rzecz poważnego traktowania roboetyki, której obszar zainteresowań tworzą: a) systemy etyczne implementowane do SJ, b) systemy etyczne stosowane przez inżynierów, c) systemy etyczne stosowane przez użytkowników wobec SJ, d) systemy etyczne stosowane przez producentów SJ, e) sposób, w jaki ludzie traktują SJ i vice versa [1]. Czym jest roboetyka? Roboetyka to nowa dyscyplina badawcza, zajmująca się szeroko rozumianymi problemami etycznymi związanymi z użytkowaniem sztucznych jednostek (dalej w skrócie SJ). Występuje ona również pod nazwą etyki maszyn bądź też etyki robotów. Jednakże preferuję posługiwanie się terminem roboetyka ze względu na włączenie w przedmiot badań tej dyscypliny, oprócz robotów, również programów komputerowych, takich jak boty czy systemy eksperckie. Roboetyka, mimo iż rozwijana jest interdyscyplinarnie, wciąż wywołuje uśmiech na twarzach wielu badaczy. Przyczyną tego są między innymi wydarzenia następujące fakty. Po pierwsze, problematyka etyki robotów pojawiła się w powieściach fantastyczno-naukowych Isaaca Asimova, pisanych jeszcze w ubiegłym wieku. Musiało minąć kilkanaście lat, zanim stała się przedmiotem poważnych naukowych rozważań. Ponadto, pierwsze prace dysput naukowe z tego zakresu nie dotyczyły moralności robotów, lecz innych cech, jakie powinna posiadać sztuczna jednostka. Np. w obrębie nauk humanistycznych toczono głównie dyskusje nad zagadnieniem świadomości komputerów, robotów i innych sztucznych jednostek. Z tego powodu wielu badaczy nadal uważa, że ewentualne debaty etyczne o robotach będą miały sens, gdy maszyny zostaną wyposażone w świadomość, inteligencję emocjonalną. Jest to jednak błędne myślenie. Robot, czyli uniwersalny żołnierz lepszy od człowieka Z roku na rok zwiększa się liczba żołnierzy-robotów na całym świecie. Robotyzacja armii jest jednym z głównych kierunków rozwoju robotyki, w szczególności w krajach, gdzie badania finansowane są przez wojsko. Dla przykładu: podczas działań w Iraku w armii amerykańskiej liczba używanych robotów wzrosła ze 162 w 2004 r. do 5000 w 2007 r. i ciągle wzrasta [2]. Ponadto w całej armii Stanów Zjednoczonych planuje się redukcję sprzętu obsługiwanego bezpośrednio przez ludzi do 2/3. Tendencja ta jest widoczna również w innych krajach, głównie wysokorozwiniętych. Wraz z postępującą robotyzacją armii różnych państw pojawiają się debaty z obszaru etyki nad moralnymi zdolnościami robotów i szerzej nad koniecznością ich udziału w działaniach wojennych. Dyskusje te są niezwykle trudne, gdyż sama ocena działań wojennych nie jest łatwym zadaniem dla etyków. Jednakże w dotychczasowych konfliktach po obu stronach stali ludzie, zdolni do rozwiązywania konfliktów moralnych, z którymi przyszło im się zmierzyć. Pomimo iż z historii działań wojennych dowiedzieć się możemy o niesłychanym okrucieństwie, do może jakiego zdolny jest człowiek wobec drugiego człowieka, to nie brakuje również pozytywnych zachowań. Przykładem niech będzie toczona obecnie wojna domowa w Libii i zachowanie kilku pilotów wojskowych, którzy odmówili bombardowania cywili. 87

Pytań, które zadają przeciwnicy robotyzacji armii, jest wiele. Czy podobnej reakcji możemy oczekiwać od robotów? Czy może właśnie po to się je produkuje, by takich sytuacji uniknąć? Kto odpowiada za szkody wyrządzone przez autonomiczną jednostkę? Przede wszystkim jednak nasuwa się pytanie: dlaczego roboty coraz częściej zastępują człowieka? Zwolennicy stosowania robotów wojskowych wymieniają bardzo wiele powodów, dla których żołnierze-roboty stanowią przyszłość nowoczesnej armii. Głównym argumentem na rzecz stosowania robotów jest zmniejszanie liczby ludzi narażonych na bezpośrednie i pośrednie skutki wojny. Robot, który zostanie zniszczony w czasie akcji, jest zawsze mniejszą stratą niż śmierć człowieka. Niestety, u źródeł tej argumentacji nie zawsze stoi poczucie humanitaryzmu, a często zwykła, chłodna kalkulacja polityczna. Zniszczenie kilku robotów może obejść się bez echa, natomiast śmierć kilku żołnierzy może poważnie obniżyć słupki w notowaniach partii odpowiedzialnej za udział państwa w działaniach wojennych i narażanie na śmierć własnych obywateli. Kolejnym argumentem zahaczającym o sprawy polityczne jest budżet wojska, który można zmniejszać poprzez redukcję wydatków dzięki stosowaniu nowych technologii. Zatrudnienie robotów, mimo iż bywa kosztowne, jest jednak tańsze niż utrzymanie całego systemu rekrutacji i szkolenia przyszłych żołnierzy. W te koszta wpisuje sie również utrzymanie kadry, budynków i infrastruktury. Ponadto roboty, raz przeszkolone czy odpowiednio zaprogramowane, obniżają koszty eksploatacji sprzętu i rutynowego szkolenia. Jeśli robot potrafi celnie strzelać, to nie musi odwiedzać strzelnicy w celu podtrzymania formy. Tak więc roboty na usługach armii zmieniają również jej oblicze. Wspomniane ograniczenie eksploatacji sprzętu związane jest z niezwykłą precyzją i skutecznością, z jaką roboty wykonują powierzone im zadania. Jest to kolejna ich zaleta. Są również odporne na stres, zmęczenie i mogą pracować teoretycznie bez przerwy. Z tego powodu w pierwszej kolejności roboty wojskowe skierowano do wykonywania misji nazywanych nudnymi, brudnymi lub niebezpiecznymi (ang. Dull, Dirty or Dangerous). Roboty są zdolne do przezwyciężenia problemów, z którymi nie radzą sobie ludzie. Misje są nudne, gdyż uniemożliwiają realizację normalnych cyklów wypoczynkowych i cyklów działania. Ludzie są narażeni na walkę w warunkach, w których obniża się dramatycznie poprawne funkcjonowanie ich organizmów. Ma to miejsce w sytuacjach, w których działania toczą się dłużej niż 24 h na dobę, lub są wykonywane w czasie, w którym organizm ludzki przyzwyczajony jest do odpoczynku, czyli np. w nocy. Roboty nie mają takich problemów. Potrafią wykonywać swoje funkcje użytkowe w sposób ciągły, nie zmniejszając swojej efektywności. O brudnych misjach mówi się, gdy odbywają się one w różnych warunkach środowiskowych, tj. w miejscach skażonych bronią chemiczną, biologiczną czy nuklearną. Wysłanie w taki teren człowieka naraża go na szybką śmierć. Natomiast roboty odporne są na skażenia chemiczne, biologiczne i radioaktywne, a tym samym zwiększają szanse poprawnego wykonania powierzonego im zadania. Roboty sprawdzają się jednak przede wszystkim podczas misji niebezpiecznych, gdyż koszty związane ze śmiercią żołnierzyludzi nie są liczone jedynie w pieniądzach. Każda śmierć człowieka jest również osobistą tragedią jego rodziny, zmniejsza morale w jednostce, w której służył, oraz pociąga za sobą polityczne konsekwencje (np. spadek poparcia dla partii, która zgodziła się na działania wojenne). Koszty polityczne i ludzkie zmniejszają się, jeśli misja nie powiedzie się, ale jedynymi ofiarami będą roboty, które zastąpić będzie można w krótkim czasie kolejnymi egzemplarzami. Warto zaznaczyć, że kolejny oddział robotów będzie tak samo dobrze (a może nawet i lepiej) wyszkolony niż poprzedni. Choć utarte jest powiedzenie, nie ma ludzi niezastąpionych, to jednak zastąpienie w krótkim czasie najlepszych żołnierzy jest zadaniem bardzo trudnym, a czasem niewykonalnym [2]. Wymienione argumenty mają pozytywny wydźwięk, gdyż przede wszystkim wskazują na możliwość redukcji śmierci i obrażeń, które mogą ponieść ludzie na wojnie, oraz redukcję kosztów działań wojennych. Zaznaczmy jednak, że zyski te dotyczą głównie jednej ze stron konfliktu tej, której armia dysponuje robotami. Ponadto zwolennicy stosowania robotów wojskowych wskazują na inne niedoskonałości ludzi, których pozbawione są roboty. Po pierwsze, żołnierz, jak każdy człowiek, podlega wahaniom nastrojów. Jeśli stracił kompanów na polu walki, może pałać żądzą zemsty. Ponadto, w przypływie emocji może znieważać przeciwnika, co przekłada się na nieludzkie traktowanie pojmanych jeńców czy ludności cywilnej. Zmiany na szczeblach dowódczych i zmiany w organizacji armii, na przykład z przyczyn politycznych, oraz skandale obyczajowe, mogą osłabiać prestiż dowódcy i morale w jednostce. Dodatkowo słabe przeszkolenie i brak doświadczenia żołnierzy w połączeniu z marnym wyposażeniem oraz stresem mogą zakłócać zdolność poprawnej oceny sytuacji i narażać na utratę życia niewinne osoby i współtowarzyszy. Człowiekowi zdarza się wreszcie popełniać błędy, szczególnie w wyniku zakłóceń w procesie komunikacji, narażony jest więc na niezrozumienie wydanego rozkazu bądź jego błędną interpretację. Zdaniem zwolenników stosowania robotów na polu walki, tego typu błędy czy niedoskonałości można wyeliminować dzięki zastosowaniu robotów, które są na nie odporne. Jednym z czołowych przedstawicieli zwolenników robotów wojskowych jest znany robotyk Ronald C. Arkin [3, 4], który zajmuje się 88 Pomiary Automatyka Robotyka 3/2011

również roboetyką. Uważa on, że powyższe przykłady uzasadniają stosowanie robotów wojskowych. Jest jednak świadom, iż roboty te powinny mieć zaimplementowany system etyczny i być zdolne do oceny moralnej zaistniałej sytuacji. Czy do wszystkich robotów powinno się to stosować? Czy może roboty zdalnie sterowane nie powinny mieć wbudowanego systemu etycznego? Robot-żołnierz postępujący wedle etycznych norm Roboetycy zgodnie twierdzą, że SJ powinny być wyposażone w systemy etyczne. Dotyczy to ogólnie wszystkich jednostek, których zakres obowiązków ulega powiększeniu, nie tylko tych na usługach wojska. Zgoda dotyczy jednak bardzo ogólnych rozważań, a te bardziej szczegółowe stają się już przedmiotem sporów. Jaki bowiem system etyczny należałoby implementować do SJ? Pewną odpowiedź na to pytanie zaproponowali Colin Allen i Wendell Wallach w książce Moral Machines. Teaching Robots Right from Wrong. Argumentują oni, iż w zależności od przeznaczenia i miejsca, w jakim robot został wyprodukowany, będzie on wyposażony w szczegółowy konkretny system etyczny [5]. Współczesne roboty nie są w stanie bowiem odróżniać dobra od zła, a różnorakie ich zastosowanie uniemożliwia stworzenia uniwersalnego systemu etycznego dla wszystkich robotów. Omawiane w tej pracy roboty wojskowe są tego znakomitym przykładem. Trudno sobie bowiem wyobrazić, by patrolujący jakiś obszar autonomiczny robot, wyposażony w broń palną, miał realizować nakaz szanuj bliźniego. Ponadto na wojnie nie walczy się fair, lecz wykorzystuje sztuczki mające na celu oszukania przeciwnika, niektóre bardzo drastyczne, jak ludzkie tarcze. Robot powinien być przygotowany i na takie przypadki. Jednakże, jak zaznaczają polscy naukowcy: Zbigniew Świątnicki, Włodzimierz Miszalski i Roman Wantoch-Rekowski, testowane przez wojsko roboty wygrywają na poligonie z ludźmi, gdy ci walczą według zasad fair-play (czyli nie stosują np. pozorowanego poddania się), ale przegrywają z nimi, gdy ludzie zaczynają walczyć nie-fair [6]. Zatem opracowanie odpowiedniego systemu etycznego dla robotów wojskowych jest trudnym wyzwaniem. Z jednej bowiem strony, szczególnie w kulturze zachodniej, gdzie powszechne są obawy związane z buntem robotów, istnieć może presja ze strony opinii publicznej, by sztuczne jednostki kierowały się zasadami uniemożliwiającymi celowe skrzywdzenie człowieka. Trudno jednak sobie wyobrazić, by taka jednostka, której zadaniem jest likwidacja przeciwnika, kierowała się w swoim działaniu nakazem nie zabijaj. Wybranie odpowiedniego systemu etycznego jest więc zadaniem problematycznym, którego rozwiązanie będzie inne dla różnych sztucznych jednostek. Ponadto, zdaniem Arkina, roboty wojskowe powinny być wyposażone w jeszcze jeden system system prawny. W tym przypadku wybór systemu prawnego jest dużo łatwiejszym zadaniem niż wybór systemu etycznego. Arkin proponuje bowiem implementować w SJ konwencje genewskie. Jednakże tu również może pojawić się problem realizacji zadań w zgodzie ze wspomnianymi umowami międzynarodowymi, gdyż w trakcie działań wojennych umowy te są często łamane. I wreszcie, inteligencja SJ nadal nie dorównuje inteligencji człowieka, przez co wykrycie sytuacji, w których stosowanie pewnych zasad powinno być nieuniknione, staje się zadaniem karkołomnym. Jednak, zdaniem Arkina, roboty można przeszkolić tak jak psy, by były zdolne do pewnych określonych zadań [7]. Podobnie podejście prezentuje inny robotyk, Chris Elliot, proponujący zastosowanie wobec wojskowych SJ testu, którego pozytywne przejście kwalifikowałoby jednostkę do służby w armii. Sam test przypominać miałby słynny test Turinga, w tym wypadku jednak to nie egzaminator miałby mieć problem z odróżnieniem komputera od człowieka, ale robot musiałby umieć odróżnić jednostkę nieprzyjaciela od cywila. Zatem robot powinien być zdolny do podejmowania decyzji, przed jakimi stawał dotychczas żołnierz [8]. Mając na uwadze wcześniejsze przykłady, jak chociażby problemy z realizacją zadań przez roboty, które walczą z ludźmi stosującymi podstępne praktyki, przejście pozytywne militarnego testu Turinga może utrudniać bądź uniemożliwiać robotom wykonywanie powierzonych im zadań. Powróćmy do pytania, czy implementacja systemów etycznych i prawnych dotyczyć powinna tylko robotów autonomicznych, czy też zdalnie sterowanych. Wydawać by się bowiem mogło, że w wypadku robotów sterowanych podejmowanie decyzji moralnych powinno spoczywać na człowieku. Jednakże, biorąc pod uwagę wymienione cechy robotów wojskowych, zasadnym jest również implementacja systemów etycznych i konwencji genewskich do robotów sterowanych. Jednostka taka będzie mogła sprzeciwić się wykonania rozkazu, jeśli będzie on niezgodny z przyjętymi zasadami, bez obaw o to, w jaki sposób zareaguje przełożony. Ponadto w wypadku, gdy sterujący robotem człowiek działać będzie pod wpływem emocji, zaimplementowany system etyczny czy prawny zapobiegać będzie niedozwolonym działaniom. Czy robot byłby zdolny do przeprowadzenia podobnej akcji, jaką wykonało kilku libijskich pilotów, odmawiając bombardowania cywili? Według Arkina implementacja etycznych i prawnych systemów ma gwarantować, iż roboty będą zdolne do takich działań. W wywiadzie dla magazynu New Scientist przypomina on zdarzenie, w którym to amerykańska załoga śmigłowca Apache otrzymała rozkaz zabicia bezbronnego człowieka, który wykonała. Zdaniem Arkina robot wyposażony w etyczny lub/i prawny system powinien rozpoznać, iż człowiek był nieuzbrojony i nie stanowił zagrożenia, w związku z czym SJ powinien odmówić wykonania rozkazu [7]. 89

Powyżej przedstawione zostały zasadnicze argumenty przemawiające za stosowaniem robotów na polu walki. Jednakże ich użycie budzi również wiele kontrowersji, jedną z których jest np. problem odpowiedzialności. Obecnie stosowane roboty nie tylko mają problemy z wykryciem konfliktów moralnych, nie mówiąc już o ich rozwiązaniu, ale przydarzają im się również kłopoty natury technicznej. W wyniku tego na skutek różnych błędów SJ mogą stanowić zagrożenie dla ich obsługi lub cywili. W przypadku, gdy robot zabije przypadkową osobę, postawione zostanie pytanie o odpowiedzialność. Kto bowiem odpowiada za śmierć niewinnej osoby? Odpowiedź na to pytanie nie jest łatwa, gdyż stosowanie robotów autonomicznych rozmywa wcześniej przyjęte granice odpowiedzialności. Wraz z rosnącą autonomią SJ są coraz częściej zdolne do działań, które nie zostały przewidziane przez ich konstruktorów. Elliot uważa, że w związku z tym coraz trudniej wskazać człowieka odpowiedzialnego za działanie konkretnego robota autonomicznego. Stwierdza on również, że możliwe są sytuacje, w których odpowiedzialność spadać będzie na SJ [8]. Roboty działają również w grupach, a ostateczny wynik ich pracy jest wypadkową wielu zachowań. Na przykład: bezzałogowy samolot zwiadowczy wykrywa przeciwnika, informuje o tym bezzałogową wyrzutnię rakiet, która odpala pociski w celu likwidacji wroga. W takich bądź bardziej złożonych sytuacjach, wskazanie człowieka odpowiedzialnego za śmierć niewinnych osób może okazać się niemożliwe. Z tych też powodów coraz częściej podnoszona jest dyskusja na temat zakazu używania uzbrojonych sztucznych autonomicznych jednostek. Jednakże przemysł zbrojeniowy rządzi się swoimi prawami, w szczególności w krajach nieprzestrzegających praw człowieka, w skrajnych przypadkach może być rozwijany przez międzynarodowych terrorystów. Robot najlepszy przyjaciel człowieka? Roboetyka zajmuje się również badaniem relacji zachodzących między człowiekiem a robotem. Współpraca z SJ wpływa też na zachowanie i przekonania człowieka, w tym na jego stosunek do robotów. Dla osób, które z robotami nie współpracują, wydawać by się to może dziwne czy wręcz niedorzeczne. Zaobserwowano jednak wielokrotnie, iż między człowiekiem a robotem zawiązać się może więź. Oczywiście jest ona jednostronna, gdyż współczesne roboty nie są zdolne do zawiązywania rzeczywistych więzi z ludzką osobą. Pomimo tego ludzie pracujący na co dzień z robotami zaczynają traktować je w inny sposób niż na przykład narzędzia czy inne przedmioty codziennego użytku. Dotyczy to również robotów wojskowych. Allen i Wallach przytaczają historię pewnego żołnierza i jego PackBota. Żołnierz ten nadał swojemu robotowi imię Scooby Doo i przeprowadził z nim trzydzieści pięć misji zakończonych powodzeniem. Niestety, robot uległ zniszczeniu w wyniku eksplozji. Żołnierz obsługujący robota nie chciał nowego PackBota, tylko prosił o naprawienie Scooby Doo, gdyż ten pięciokrotnie uratował mu życie [5]. Warto zaznaczyć, że obecnie w Iraku i Afganistanie używanych jest ponad 2000 PackBotów. Czy takich przypadków będzie bądź było więcej? Zapewne tak, gdyż wskazują na to inne, prowadzone niezależnie od siebie, badania. Niejednokrotnie bowiem zauważano, iż między człowiekiem a robotem zawiązywała się, zdaniem użytkownika, więź. Przykładowo, 12 % użytkowników robopsa Aibo uważała, iż roboty powinny być szanowane i mieć takie same prawa, jak zwierzęta czy ludzie [9]. Tak więc SJ zmieniają również przekonania człowieka i wpływają na jego zachowanie. Zadaniem roboetyków nie jest tylko opracowywanie systemów etycznych, które miałyby być implementowane do SJ, ale również śledzenie i badanie relacji między człowiekiem a robotem. Zbyt mocne przywiązanie człowieka do robota może również stwarzać zagrożenie dla ludzkiego życia. Człowiek taki może pod wpływem emocji podejmować próby ratowania swojego mechanicznego towarzysza za wszelką cenę, co może skutkować obrażeniami, a nawet jego śmiercią lub narażeniem na śmierć innych osób. Dlatego konstruktorzy powinni mieć na uwadze, iż nadmierna antropomorfizacja SJ może wpływać na powstanie fałszywej więzi między nim a człowiekiem, bazującej na złudzeniu, iż SJ zachowuje się jak człowiek i że jest istotą żywą. Jednakże zdaniem Arkina, celem korporacji produkujących roboty rozrywkowe jest właśnie wytworzenie takiego produktu, z którym człowiek wejdzie w długotrwałą, a nawet i trwającą przez całe życie relację [4]. Dlatego prawdopodobnie dalszy postęp robotyzacji różnych sfer naszego życia wymusi zmiany w produkcji SJ, a nawet możliwe okazać się zakazanie produkcji pewnego rodzaju jednostek. Rozwój fałszywej relacji między człowiekiem a SJ okazać się może druzgocący w skutkach dla kondycji psychicznej człowieka. Niezdrowe relacje są, moim zdaniem, jednym z głównych współcześnie zagrożeń, choć dla osób postronnych, niezwiązanych z robotyką, tego typu problemy wydawać się mogą absurdalnymi, wynikającymi z niedouczenia bądź jakiegoś psychologicznego deficytu. Jednakże, jak wskazują współcześnie prowadzone badania, SJ wchodzące w interakcje z człowiekiem wywołują u niego podobne bądź takie same reakcje, jakie pojawiają się, gdy do czynienia mamy z interakcją między ludźmi [10]. Podsumowanie Etyka i roboty nadal stanowią parę, która wielu osobom wciąż kojarzy się z filmami lub opowiadaniami z gatunku fantastyki naukowej. Jednak gwałtowny rozwój robotyki w ciągu ostatniego ćwierćwiecza spowodował, iż zagadnienia wcześniej poruszane przez powieściopisarzy stały się przedmiotem naukowej debaty i praktycznym wyzwaniem dla konstruktorów, etyków i użytkowników robotów. Przykładem obszaru wymagającego szczególnego nadzoru roboetyków jest postępująca robotyzacja armii. Proces ten wymusza poszukiwanie nowych rozwiązań etyczno-prawnych, gwarantujących prawidłową koegzystencję robotów z ludźmi. Bibliografia 1. Asaro P.: What Should We Want From a Robot Ethic? International Review of Information Ethics, 6(12), 2006, s. 9 16. 2. United States Department of Defense. Unmanned Systems Roadmap. 2007 2032, 2007. 3. Arkin R. C.: Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture, Boca Raton: Chapman-Hall (Taylor & Francis), 2009. 90 Pomiary Automatyka Robotyka 3/2011

4. Arkin R. C.: On the Ethical Quandaries of a Practicing Roboticist: A first hand look, Current Issues in Computing and Philosophy, 175, 2008, s. 45 51. 5. Allen C., Wallach W.: Moral Machines. Teaching Robots Right from Wrong. Nowy Jork: Oxford University Press, 2008. 6. Miszalski W., Świątnicki Z., Wantoch-Rekowski R.: Inteligentne roboty wojskowe, Warszawa: Dom Wydawniczy Bellona, 2001. 7. Simonite T.: Robot arms race underway, expert warns, New Scientist, http://www.newscientist.com/article/ dn13382; 12:10, 27 luty 2008, data dostępu 2011. 8. Simonite T.: Military Turing test would make war robots legal, New Scientist, http://www.newscientist. com/blog/technology/2008/02/military-turing-testwould-make-war.html; 28 luty 2008, data dostępu 2011. 9. Kahn P. i Friedman B.: Robotic pets in the lives of preschool children, Interaction Studies, 7(3), 2006, s. 405 436. 10. Karl F. M.: Introduction to the special issue on android science, Connection Science, 18(4), grudzień 2006, s. 313. Robots are going to war. Between ethics and robotics Abstract: Military robotics is rapidly becoming one of the leading fields of robotic industry. Robots which coexist with humans and ones that are going to be built in near future cause many ethical, social and economic problems. In this paper I describe the ethical dilemmas and problems which emerge from human-robot interaction. This area of interests is investigated by roboethics the ethics applied to robotics. There have been described advantages of replacing humans by robots in an army. Moreover some of the other problems have been highlighted, such as problem of responsibility of autonomous military robots. Besides, one part of this article deals with complexity of arising relationship between robot and its operator. Also there have been presented opinions of leading scientist (such as Ronald Arkin, Colin Allen and Wendell Wallach) in this area. The main goal of this paper is to show that the current development of robotics and its future implications changes the world around us. Therefore the new ethical and lawful solutions are needed. Without them the positive interaction between human and robots could not be possible. Keywords: roboethics, robot ethics, machine ethics, military robots, military Turing Test mgr Dawid Lubiszewski Doktorant filozofii na Wydziale Humanistycznym na Uniwersytecie Mikołaja Kopernika. Zainteresowania: etyka robotów, automaty komórkowe, emergencja i samoorganizacja. e-mail: dawidlubiszewski@gmail.com REKLAMA ENERGETYKA PRZYSZŁOŚCI PRZYSZŁOŚĆ ENERGETYKI profesjonalna publiczność z całego kraju 10.000 osób nowoczesny system rejestracji i obsługi zwiedzających fachowa obsługa na najwyższym europejskim poziomie nowoczesna i komfortowa infrastruktura wystawowa specjalna promocja nowych produktów atrakcyjny program wydarzeń prestiżowe nagrody zainteresowanie mediów WSTĘP WOLNY po rejestracji w serwisie www.mtp24.pl lub w holu wejściowym www.expopower.pl 91