ZBIGNIEW GOMÓŁKA 1, BOGUSŁAW TWARÓG 2, BOGDAN KWIATKOWSKI 3, EWA ŻESŁAWSKA 4

Podobne dokumenty
Stereoskopia i holografia

Mobilne Aplikacje Multimedialne

Stereoskopia i holografia

Minimalne wymagania dotyczące systemu komputerowego do odtwarzania treści 3D w projektorze BenQ:

SYSTEMY PROJEKCJI STEREOSKOPOWEJ W ANIMACJACH KOMPUTEROWYCH. Techniki projekcji Generowanie wizyjnego sygnału stereoskopowego Instalacje mobilne

KRÓTKA HISTORIA STEREOSKOPII

STEREOSKOPIA. Stereoskopia. Synteza i obróbka obrazu

TRÓJWYMIAROWA PROJEKCJA STEREOSKOPOWA

Temat ćwiczenia: Zasady stereoskopowego widzenia.

Grafika Komputerowa Wykład 4. Synteza grafiki 3D. mgr inż. Michał Chwesiuk 1/30

Odmiany aparatów cyfrowych

opracował Adam Nowiński

1. Opis okna podstawowego programu TPrezenter.

WIRTUALNE WIZUALIZACJE. Poznaj nowy wymiar wizualizacji dzięki wirtualnej rzeczywistości.

Bartosz Bazyluk SYNTEZA GRAFIKI 3D Grafika realistyczna i czasu rzeczywistego. Pojęcie sceny i kamery. Grafika Komputerowa, Informatyka, I Rok

Nowe funkcje. Wersja 4.10

Gogle wirtualnej rzeczywistości (VR) Pro

Akademia Górniczo-Hutnicza

Stereoskopia i holografia

PROJECT OF FM TUNER WITH GESTURE CONTROL PROJEKT TUNERA FM STEROWANEGO GESTAMI

DOKUMENTACJA PROJEKTOWA

Zaburzenia ustawienia i ruchomości gałek ocznych, zez czyli strabismus

Wykorzystanie komputera przez uczniów klas IV VI szkoły podstawowej w uczeniu się sprawozdanie z badań sondażowych

Zmiana rozdzielczości ekranu

Oprogramowanie wspierające kalibrację kamer 3D oraz analizę głębi obrazu stereoskopowego. Piotr Perek. Łódź, 7 grudnia Politechnika Łódzka

WideoSondy - Pomiary. Trzy Metody Pomiarowe w jednym urządzeniu XL G3 lub XL Go. Metoda Porównawcza. Metoda projekcji Cienia (ShadowProbe)

CV.SC SHOT CALCULATOR

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7

Eura-Tech. Instrukcja Obsługi Aplikacji Mobilnej

Pomiar jakości postrzeganej przez użytkownika dla usługi 3D IPTV

Monitory LCD (ang. Liquid Crystal Display) (1)

Laboratorium Komputerowe Systemy Pomiarowe

5.1. Światłem malowane

TECHNOLOGIE MULTIMEDIALNE

Cyfrowa kamera EVOLVE 1500HD Touch

Różne sposoby widzenia świata materiał dla ucznia, wersja z instrukcją

Nowoczesne metody nauczania przedmiotów ścisłych

Wideoboroskop AX-B250

Podstawy grafiki komputerowej

ROZDZIAŁ 1 Instrukcja obsługi Grand Video Console

Komputer (analogowe) :03

Wstawianie filmu i odtwarzanie go automatycznie

PROJEKTORY DO KINA DOMOWEGO

Nowinki technologiczne procesorów

Nowe, nowoczesne ramię C

Laboratorium przez Internet w modelu studiów inżynierskich

Rzeczywistość rozszerzona w praktyce muzealnej

Projekt rejestratora obiektów trójwymiarowych na bazie frezarki CNC. The project of the scanner for three-dimensional objects based on the CNC

Nowa metoda pomiarów parametrów konstrukcyjnych hełmów ochronnych z wykorzystaniem skanera 3D

Instrukcja programu OKEYE. LOCIN Sp. z o.o.

ROZPORZĄDZENIE WYKONAWCZE KOMISJI (UE) NR

Warsztaty fotograficzne dla seniorów i seniorek MILANÓWEK 2013 Sylwia Nikko Biernacka SKRÓT TECHNIKI

JVC CAM Control (dla ipada) Instrukcja Obsługi

Rzeczywistość rozszerzona i wirtualna

Gry społecznościowe. wykład 0. Joanna Kołodziejczyk. 24 lutego Joanna Kołodziejczyk Gry społecznościowe 24 lutego / 11

Kamera termowizyjna MobIR M8. Dane Techniczne

Simp-Q. Porady i wskazówki

Metody badawcze Marta Więckowska

Laboratorium optycznego przetwarzania informacji i holografii. Ćwiczenie 6. Badanie właściwości hologramów

POLARYZACJA ŚWIATŁA. Uporządkowanie kierunku drgań pola elektrycznego E w poprzecznej fali elektromagnetycznej (E B). światło niespolaryzowane

Dodatek B - Histogram

ZAJĘCIA PODNOSZĄCE KOMPETENCJE CYFROWE Z FOTOGRAFIKI KOMPUTEROWEJ WIEDZA KLUCZEM DO SUKCESU! NR RPO /16

INSTRUKCJA OBSŁUGI USB2.0 GRABBER

Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D

Wstęp posiadaczem lustrzanki cyfrowej

Rejestrator jazdy Full HD Model: 50204

JVC CAM Control (na telefony iphone) Instrukcja obsługi

Program V-SIM tworzenie plików video z przebiegu symulacji

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Ćwiczenie 4 - Podstawy materiałów i tekstur. Renderowanie obrazu i animacji

THE FARM 51 FOTOGRAMETRIA

Laboratorium Optyki Falowej

3. WYNIKI POMIARÓW Z WYKORZYSTANIEM ULTRADŹWIĘKÓW.

TTS Jesteśmy dumni z bycia częścią

Formaty plików. graficznych, dźwiękowych, wideo

Fotografia i videografia sferyczna do obrazowania przestrzeni i pomiarów fotogrametrycznych

Dwie wersje. Opis techniki wykonania. Panorama długiego, wąskiego pokoju. Jacek Kwaśniewski. wersja wersja 2006.

Zbigniew Figiel, Piotr Dzikowicz. Skanowanie 3D przy projektowaniu i realizacji inwestycji w Koksownictwie KOKSOPROJEKT

NAZWA PRODUKTU: Kamera IP WIFI zegarek budzik z podczerwienią S124 Cechy produktu

Dekoder HD Openbox S3CI CX, CI+, IPTV

Specyfikacja dla Zadania 1: Kurs programowania sterowników PLC dla uczniów grupy I w ZSP nr 2 w Brzesku.

Pokażę w jaki sposób można zrobić prostą grafikę programem GIMP. 1. Uruchom aplikację GIMP klikając w ikonę na pulpicie.

Divar - Archive Player. Instrukcja obsługi

Techniki animacji komputerowej

Skrócona instrukcja obsługi rejestratorów marki

PRZEWODNIK PO PRZEDMIOCIE

Materiały pomocnicze do laboratorium

Mówiąc prosto, każdy aparat jest światłoszczelnym pudełkiem z umieszczonym w przedniej ściance obiektywem, przez który jest wpuszczane światło oraz

Monitory Opracował: Andrzej Nowak

Instrukcja instalacji i obsługi oprogramowania OPTIVA Mobile Viewer 2

Wystawa MÓZG. Wystawa zaskakuje, bawi i ilustruje najnowsze osiągnięcia neuronauk.

PRZEWODNIK PO PRZEDMIOCIE

Specyfikacja dla Zadania 1: Kurs programowania sterowników PLC dla uczniów grupy I w ZSP nr 2 w Brzesku.

Interferencja jest to zjawisko nakładania się fal prowadzące do zwiększania lub zmniejszania amplitudy fali wypadkowej. Interferencja zachodzi dla

Nowe funkcje. Wersja 3.00

MICRON3D skaner do zastosowań specjalnych. MICRON3D scanner for special applications

Wearable interfaces. Szymon Jasina Michał Lipiński

ROZDZIAŁ 11 - DODATKI SPIS TREŚCI

Obrazowanie za pomocą soczewki

Transkrypt:

Wydawnictwo UR 2017 ISSN 2080-9069 ISSN 2450-9221 online Edukacja Technika Informatyka nr 1/19/2017 www.eti.rzeszow.pl DOI: 10.15584/eti.2017.1.42 ZBIGNIEW GOMÓŁKA 1, BOGUSŁAW TWARÓG 2, BOGDAN KWIATKOWSKI 3, EWA ŻESŁAWSKA 4 Wirtualizacja obiektów w pasywnej wizualizacji stereoskopowej Virtualization of Objects in Passive Stereoscopic Visualization 1 Doktor, Uniwersytet Rzeszowski, Wydział Matematyczno-Przyrodniczy, Katedra Inżynierii Komputerowej, Polska 2 Doktor inżynier, Uniwersytet Rzeszowski, Wydział Matematyczno-Przyrodniczy, Katedra Inżynierii Komputerowej, Polska 3 Doktor inżynier, Uniwersytet Rzeszowski, Wydział Matematyczno-Przyrodniczy, Katedra Inżynierii Komputerowej, Polska 4 Magister inżynier, Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie, Wydział Informatyki Stosowanej, Katedra Zastosowań Systemów Informatycznych, Polska Streszczenie W artykule przedstawiono zagadnienia związane z wirtualizacją obiektów w pasywnej wizualizacji stereoskopowej. Wykorzystując środowisko Unity3D oraz platformę programistyczną C#, zrealizowano aplikację do pasywnej projekcji stereoskopowej. Przedstawiono zagadnienia związane ze stereoskopową projekcją 3D oraz etapy realizacji obrazu 3D. Słowa kluczowe: technologia 3D, aktywny i pasywny system projekcji stereoskopowej, Unity3D, wirtualizacja obiektów Abstract The article presents issues related to virtualization of objects in passive stereoscopic visualization. Using the Unity3D environment and the C# programming platform, the application has been implemented for passive stereoscopic projection. The issues related to stereoscopic 3D projection and stages of 3D image presentation are presented. Keywords: 3D technology, active and passive stereoscopic projection system, Unity3D, virtualization objects, computer generated images, stereoscopic 3D Wstęp Stereoskopia oraz wyświetlacze stereoskopowe stały się bardzo ważne dla wielu zastosowań, w tym do działania urządzeń zdalnych, obrazowania problemów natury medycznej, chirurgii, wizualizacji naukowych oraz projektowania komputerowego. Termin 3D występuje w 2 postaciach: w postaci generowanych 305

komputerowo obrazów graficznych (CGI computer generated images), gdzie mamy do czynienia z wirtualnymi modelami obiektów 3D, oraz w postaci filmów stereoskopowych (s3d), gdzie obraz widziany przez odpowiednie okulary wydaje się wychodzić poza obszar ekranu. Zjawiska 3D czy stereoskopia odnoszą się do tego, jak nasze oczy i mózg postrzegają trzeci wymiar. Ludzkie oczy oddalone są od siebie o około 50 75 mm, dzięki czemu każde z osobna widzi delikatnie inny przesunięty obraz. Możemy to zauważyć, trzymając palec przed naszą głową i na przemian zamykając oraz otwierając oczy. Takie 2 obrazy trafiają do naszego mózgu, w którym odbywają się złożone procesy geometryczne mające na celu zestawienie różnic między jednym a drugim okiem. Oparta na takiej zasadzie współczesna technologia 3D wykorzystuje specjalne okulary, które mają za zadanie dostarczyć naszym oczom różną perspektywę tego samego obrazu. Dla nas, a raczej dla naszego mózgu, cała matematyczna obróbka zsynchronizowania obrazów jest całkiem naturalna i prosta, natomiast zaprojektowanie kamery, która potrafi robić to samo z takim samym efektem, to coś trudniejszego (Zone, 2005). Projekcja stereoskopowa 3D Projekcję stereoskopową można zrealizować na różnych przykładach. W artykule proces ten przedstawiono, wykorzystując wirtualizację obiektów, czyli utworzenie wirtualnych kopii przedmiotów przy użyciu technologii 3D oraz zaprojektowanie odpowiedniej aplikacji pozwalającej wyświetlać te obiekty w formacie stereo side-by-side. Jako narzędzia programistyczne wykorzystano środowisko języka C# oraz silnik Unity3D do tworzenia interaktywnych multimediów, gier i sekwencji wideo. Aby uzyskać obraz 3D, potrzebne były 2 wersje tej samej sceny sfilmowane z precyzyjnie odpowiednim kątem, tak jakby nasze oczy oglądały tę samą scenę. Obydwie kamery musiały poruszać się, śledzić i powiększać z tą samą prędkością, w przeciwnym wypadku obraz nie będzie synchroniczny. Zostały użyte do tego celu specjalne statywy pozwalające umieścić obok siebie 2 kamery, aby zapobiec rozbieżności. Kwestię tę można rozwiązać także, wykorzystując specjalne statywy lustrzane, gdzie obraz trafia do jednego obiektywu, a następnie odbijany jest przez lustro do innej kamery, która nagrywa drugi obraz (Sniderman, 2011). Wszystkie stereoskopowe wyświetlacze pokazują prawy i lewy obraz zakodowany do wyświetlania na odbiorniku 2D i opierają się na systemie dekodującym, najczęściej w postaci określonego typu okularów, które filtrują obraz dla odpowiedniego oka. Różnica polega na sposobie kodowania i dekodowania obrazu (Sniderman, 2011). Zapisany obraz stereo może być wyświetlany w formacie: mono, dualstream, side-by-side, ver/under, interlaced, anaglyph, frame- -sequential. Format side-by-side (rys. 1), czyli jeden obok drugiego, to 2 obrazy (jeden dla lewego, drugi dla prawego oka) ustawione obok siebie. W metodzie 306

side-by-side natywna rozdzielczość ekranu jest dzielona na połowę, bez zwiększania rozdzielczości na ekranie wyświetlane są 2 klatki dla prawego i lewego oka jednocześnie. W praktyce powoduje to np., że rozdzielczość HD Ready, czyli 1280x720 pikseli, zmienia się poprzez 2 umieszczone obok siebie obrazy na rozdzielczość 640x720 pikseli, czyli spadek o 50% w poziomie. Taki sygnał po dotarciu do odbiornika zostaje rozdzielony na osobne klatki, obraz podniesiony do normalnej rozdzielczości, a ramki wyświetlone w wybranym systemie oferowanym przez urządzenie 3D. Rys. 1. Format zapisu stereo side-by-side Postępy w informatyce pozwalają obecnie na wyświetlanie obrazu 3D w szerokiej gamie produktów konsumenckich, jak laptopy, monitory, aparaty fotograficzne, kamery oraz wiele innych. Jednym z największych problemów technologii 3D jest zmniejszenie obrazu o połowę. Soczewkowe ekrany wysyłają pół ekranu do każdego oka, okulary migawkowe blokują jedno oko przed całością obrazu, a okulary polaryzacyjne dopuszczają tylko połowę światła dla każdego oka. Aby oglądnąć film jako jeden ciągły obraz, ludzkie oko potrzebuje 60 klatek na sekundę. Technologia 3D dzieli to na pół, umożliwiając każdemu oku oglądanie tylko 30 klatek, co może powodować migotanie czy mdłości. Aktualne systemy są w stanie zwiększyć liczbę klatek na sekundę dzięki np. częstotliwości odświeżania w telewizorach. Wyróżnić można aktywny i pasywny system projekcji stereoskopowej. Popularną metodą systemu aktywnego jest active 3D, która wymaga użycia specjalnych okularów wyposażonych w przesłony LCD i kontrolowanych zależnie od producenta za pomocą Bluetootha, IR, czyli fali podczerwonych, lub WiFi, których praca zsynchronizowana jest z pracą wyświetlacza. System pasywny to system, w którym widz patrzy na ekran dzięki okularom zawierającym 2 odmiennie spolaryzowane filtry dla oka lewego i dla prawego. Światło dla każdego z 2 wyświetlonych obrazów jest spolaryzowane i dociera do użytkownika przez odpowiedni filtr lewy lub prawy. 307

Metody realizacji obrazu 3D Jednym z ważniejszych pojęć w realizacji obrazu 3D jest okno stereo odnoszące się do fizycznej powierzchni wyświetlacza, np. ekranu telewizora, jako prawdziwego okna, które pozwala zobaczyć świat zewnętrzny. Obiekty w stereoskopowej scenie mogą występować za lub inaczej na zewnątrz okna; mówimy wtedy o dodatniej paralaksie, na oknie czyli płaszczyźnie ekranu z zerową paralaksą, lub między oknem a widzem z paralaksą ujemną. W ten sposób fotografowany temat będzie miał różne przesunięcia w poziomie (paralaksy) w zależności od jego głębokości w scenie. Paralaksa w filmie 3D jest wartością nadrzędną, bowiem jest nośnikiem głębi i decyduje o tym, czy efekt 3D w filmie jest dla nas atrakcyjny. W tym sposobie odległość między soczewkami jest zmienna, jak również kąt patrzenia kamery jest zmienny oraz odległość od najbliższego elementu decyduje o ustawieniu bazy stereoskopowej (Tseng, Anastassiou, 2014; Lincoln, 2011). 308 Rys. 2. Stereoskopowa strefa komfortu Opracowanie odpowiednich ustawień 3D na potrzeby tworzenia projektu polega na adekwatnym skurczeniu świata rzeczywistego, tak aby go zmieścić wewnątrz przestrzeni trójwymiarowego ekranu. Tę przestrzeń tworzy interakcja naszych oczu z ekranem 2D, która może ulegać pewnej transformacji przy wykorzystaniu specjalnych efektów wizualnych. Trzy optyczne parametry pomagają w kontrolowaniu tego zabiegu: odległość międzysoczewkowa, konwergencja oczu oraz długość ogniskowej względem odległości od fotografowanego tematu. Po zgromadzeniu wszystkich reguł dotyczących percepcji stereoskopowej jesteśmy w stanie wyznaczyć pewną strefę komfortu określoną przez nasze oczy (rys. 2). Obiekt lub jego część znajdująca się w obszarach rywalizacji dwuocznej jest widziana tylko przez jedno oko, co wywołuje zaburzenia postrzegania głębi (Mendiburu, 2009).

Projekt i realizacja aplikacji wizualizacyjnej Zasadniczą sztuką poprawnie zrealizowanego projektu 3D jest umiejętność fotografii. Błędy popełnione na etapie zapisu obrazu są zmorą dalszej pracy, a narzędzia służące do eliminacji szkód, które na ogół pozwalają na ich naprawę w przypadku 2D, nie radzą sobie z obrazem 3D lub wymagają znacznie większego nakładu pracy. Przed przejściem do tworzenia zdjęć należy dobrać odpowiedni aparat wraz z obiektywem, dopasowując ogniskowe oraz przysłony, dostosowując światło do strefy komfortu i parametrów 3D. Ważnym krokiem jest wykonanie próbki zdjęć i sprawdzenie efektu 3D po wcześniejszym zakodowaniu obrazów do formatu obsługiwanego przez dostępny wyświetlacz 3D (Gomółka, Żesławska, Twaróg, Bolanowski, 2015, s. 430 433). W pierwszym etapie realizacji aplikacji wykonano wirtualizację obiektów, która polegała na wykonaniu zdjęć trójwymiarowych n-wybranym obiektom, a następnie zrealizowano ich wirtualne repliki wewnątrz silnika środowiska Unity. Kolejnym etapem była wizualizacja obiektów implementacja aplikacji pozwalającej na wyświetlanie wcześniej utworzonych obiektów metodą pasywnego stereo. Do wirtualizacji obiektów w pasywnej wizualizacji stereoskopowej wybrano następujące przedmioty: kamerę RED dragon, drzewko bonsai, wentylator podłogowy, drewnianą rzeźbę kiwi, koszyk, maskotkę bobra, maskotkę prosiaczka. Rys. 3. Wizualizacja wykorzystanej techniki fotografii 3D W celu zbudowania imitacji tych obiektów w scenie wirtualnej potrzebne było wykonanie 72 ujęć osobno dla lewego oka oraz prawego, co dla 7 obiektów daje łączną liczbę 1008 zdjęć. Efekt stereoskopii osiągnięty został dzięki aparatowi zamocowanemu na specjalnym statywie z ruchomą szyną (rys. 3); baza stereo wynosiła 6,5 cm. Najważniejszą częścią w tworzeniu sceny pozwalającej wyświetlać obiekty stereoskopowo jest zaprojektowanie i zrealizowanie wirtualnego rigu (statywu) 309

z podwójnymi kamerami. W tym celu dodano do sceny sześcian i rozciągnięto go wzdłuż osi X, formując rodzaj szyny. Utworzono jedną kamerę i zamocowano na środku szyny (kamera dla lewego oka), a drugą kamerę, dla prawego oka, zduplikowano z poprzedniej. Następnym krokiem było ustawienie obu kamerom odpowiednich warstw, które mają wyświetlać, odpowiednio warstwę left dla lewego oka i warstwę right dla prawego, oraz w ustawieniach komponentu dostosowano parametr target eye w podobny sposób. Uwzględniając, że zdjęcia są już wykonane w stereo, nie ma potrzeby rozsuwania kamer w scenie w celu uzyskania efektu 3D. Używając środowiska Unity3D oraz języka C#, zaimplemenowano aplikację do wirtualizacji obiektów w pasywnej wizualizacji stereoskopowej (rys. 4a). (a) (b) Rys. 4. Aplikacja do wirtualizacji obiektów (a), pasywna projekcja stereoskopowa (b) Zrealizowaną aplikację testowano na 2 stanowiskach do projekcji 3D. Pierwsze pozytywne testy przeprowadzono na kompatybilnym, aktywnym telewizorze 3D wyposażonym w standard HDMI 1.4. Kolejne testy przeprowadzone były w Laboratorium Badań Kognitywistycznych 3D Uniwersytetu Rzeszowskiego. Testy przeprowadzono na stanowisku do pasywnej projekcji 3D. Składa się ono z 4 zsynchronizowanych projektorów, które realizowały zadanie projekcji stereoskopowej w trybie pasywnym, i również one zakończyły się powodzeniem i prawidłowym wyświetleniem obrazu z aplikacji. W celu zmaksymalizowania efektu 3D metodą doświadczalną wybrane zostały odpowiednie wartości parametrów separacji oczu oraz zakresu pola widzenia kamery. Rysunek 4b przedstawia obiekt z poprawnie dobranymi parametrami obraz lewego i prawego oka zachodzi na siebie na środku ekranu, w wyniku czego otrzymujemy właściwy efekt 3D. Podsumowanie Dzięki wykorzystaniu profesjonalnego narzędzia, jakim jest środowisko graficzne Unity, silnik deweloperski, który zapewnia bogate ramy tworzenia aplikacji 2D i 3D lub gier, zaprojektowano i zaimplementowano złożoną aplikację 310

wirtualizacji obiektów w pasywnej wizualizacji stereoskopowej. W praktyce zrealizowane przedsięwzięcie jest pomostem pomiędzy implementacją świata wirtualnej a rozszerzonej rzeczywistości. Bardzo ważnym problemem w projekcie okazał się czas przetwarzania i wyświetlania projekcji graficznej, dla optymalizacji którego będzie w przyszłości zaproponowany wydajny algorytm w równoległej architekturze obliczeniowej. Literatura Gomółka, Z., Żesławska, E., Twaróg, B., Bolanowski, M. (2015). Restitution of 3D Scenery with Coherent and Structured Light Scanner Technologies. Measurement Automation Monitoring, 9, 430 433. Lincoln, T. (2011). Exercises in Three Dimensions. Pobrane z: http://www.lincolntom.com/pages/ exercises%20in%203d.html (28.06.2017). Mendiburu, B. (2009). 3d Film Making. Burlington, MA: Focal Press. Sniderman, Z. (2011). How Does 3D Technologh Work? Mashable. Pobrane z: http://mashable.com/ 2011/02/07/how-does-3d-work/#15O8B._g8Pqw (28.06.2017). Tseng, B., Anastassiou, D. (2014). Compatible Video Coding of Stereoscopic Sequences Using MPEG-2 s Scalability and Interlaced Structure. University of Columbia. Zone, R. (2005). 3D Filmmakers: Interviews with 3D Cinematographers. Toronto, Oxford: Scarecrow Press. 311