Przegląd metod renderingu czasu rzeczywistego dla fotorealistycznych wizualizacji architektonicznych prof. dr hab. Inż. Maria Pietruszka mgr inż. Anna Służewska Instytut Informatyki Politechniki Łódzkiej
Plan prezentacji Wstęp do wizualizacji wnętrz Podział wizualizacji z technicznego punktu widzenia Podział wizualizacji z punktu widzenia celu Metody renderingu czasu rzeczywistego w wizualizacjach architektonicznych
Wizualizacja wnętrz Jest formą graficznej komunikacji pomiędzy projektantem a odbiorcą, polegającą na przedstawieniu danych w sposób zrozumiały dla jak największej grupy widzów. Rzut parteru http://www.domnahoryzoncie.pl/
Plan prezentacji Wstęp do wizualizacji wnętrz Podział wizualizacji z technicznego punktu widzenia Podział wizualizacji z punktu widzenia celu Metody renderingu czasu rzeczywistego w wizualizacjach architektonicznych
Podział wizualizacji z technicznego punktu widzenia Wizualizacja wnętrz Statyczna Dynamiczna Animacja Interaktywne zwiedzanie
Wizualizacja statyczna
Wizualizacja dynamiczna -> animacja http://www.aversis.be/3dexperiments/video/appartment_full.htm
Wizualizacja dynamiczna -> interakcja http://webidea.pl/wizualizacja
Wizualizacja dynamiczna -> interakcja Interaktywna wizualizacja zabytkowej architektury Dziekanat Wydziału FTIMS B. Czopek, Instytut Informatyki PŁ 2006 promotor: prof. dr hab. inż. Maria Pietruszka
Wizualizacja dynamiczna -> interakcja Interaktywna wizualizacja projektów architektonicznych D. Garstka, Instytut Informatyki PŁ 2006 promotor: prof. Lesław Miśkiewicz
Plan prezentacji Wstęp do wizualizacji wnętrz Podział wizualizacji z technicznego punktu widzenia Podział wizualizacji z punktu widzenia celu Metody renderingu czasu rzeczywistego w wizualizacjach architektonicznych
Podział wizualizacji z punktu widzenia celu komercyjno-projektowa stosowana w celu komunikacji między projektantem a klientem w trakcie realizacji projektu, dla celów analizy, np. doboru optymalnego oświetlenia, rewitalizacji, rekonstrukcji, Wnętrze rekonstruowanej synagogi Pod Białym Bocianem we Wrocławiu: fotografia i wizualizacja ( Archikon-Karst-Project)
Podział wizualizacji z punktu widzenia celu Interaktywna wizualizacja rewitalizowanego Budynku Trzech Wydziałów Politechniki Łódzkiej R. Piechocki, Instytut Informatyki PŁ 2002
Podział wizualizacji z punktu widzenia celu edukacyjna i popularyzatorska wirtualne wnętrza: galerie, pałace, świątynie Kompleks świątynny Phimai (Tajlandia) Wirtualne Muzeum Sztuki w Łodzi Instytut Informatyki PŁ 2002
Podział wizualizacji z punktu widzenia celu konkursowa na przetarg lub konkurs, M. Karpiak, Festiwal Lodz-Design 2007 Gus Capote, Preconstruct, Wielka Brytania, I miejsce w konkursie Architectural 3D AWARDS 2006 w kategorii ujęcia statycznego (http://www.cgarchitect.com/3dawards/).
Podział wizualizacji z punktu widzenia celu filmy i gry komputerowe mogą ukazywać architekturę kiedyś istniejącą, taką która mogłaby zaistnieć i fantastyczną; ważna jest wizja twórcy filmu lub gry. Film Lustro, P. Byliński, Instytut Informatyki PŁ 2005
Podział wizualizacji z punktu widzenia celu wirtualne studia telewizyjne wirtualne dekoracje (wnętrza) zastępują rzeczywiste. Aktor w Blue-boxie Podgląd Materiał filmowy skluczowany z tłem wygenerowanym przez komputer
Plan prezentacji Wstęp do wizualizacji wnętrz Podział wizualizacji z technicznego punktu widzenia Podział wizualizacji z punktu widzenia celu Metody renderingu czasu rzeczywistego w wizualizacjach architektonicznych
Interaktywne zwiedzanie wnętrz Interaktywne zwiedzanie wymaga generowania nowych obrazów w czasie równoległym do zmian punktu widzenia - zmiany kierunku obserwacji lub zmiany położenia obserwatora. Dla interaktywnych wycieczek architektonicznych za minimum należy uznać rendering 20 obrazów/sekundę.
Technologie globalnego oświetlenia Lightscape 7h Autodesk VIZ 15 min. bez Globalnego Oświetlenia z Globalnym Oświetleniem
Poszukiwanie rozwiązań Rozwiązania szuka się w: renderingu bazującym na obrazach przechowujących właściwości wizualizowanej przestrzeni niestandardowym potoku renderingu dostępnym we współczesnych kartach graficznych z programowalnymi jednostkami Pixel Shader i Vertex Shader.
Charakterystyka powierzchni Materiały rozpraszające
Charakterystyka powierzchni Materiały zwierciadlane
Charakterystyka powierzchni Materiały błyszczące (polerowane)
Charakterystyka powierzchni Materiały przeźroczyste
Tekstury Tekstura to odwzorowanie barwy, chropowatości, jasności i innych właściwości powierzchni z uwzględnieniem punkt widzenia i zachowania perspektywy. Tekstura składa się z: zbioru danych opisujących cechy obiektu (np. map tekstury, wzorów matematycznych), metody odwzorowania (mapowania) tych danych na obiekt. Mapa tekstury Mapowanie płaskie Mapowanie sferyczne Mapowanie uvw
Oświetlenie Oświetlenie zapisujemy w: mapach światła (ang. light map) mapach tekstur przygotowanych na podstawie dokumentacji fotograficznej obrazach otoczenia rzeczywistego (mapa środowiska) w postaci map sześciennych lub map dwuwymiarowych (sferycznych)
Mapy fotograficzne StaveChurchinOslo MarciJarzyna
Wygląd powierzchni Tworząc wygląd powierzchni obiektu wykorzystujemy np. technikę bump mapping (mapa wybojów), normal mapping (mapy zwichrowanych normalnych), displacement mapping (mapowania przemieszczeń) Bump mapping Bump mapping Displacement mapping
Pixel i Vertex Shader Pixel Shader programowalna jednostka odpowiedzialna za wyliczanie koloru Vertex Shader jednostka odpowiedzialna za wyliczenie położenia wierzchołków wielokątów w przestrzeni Geometry Shader operuje na pojedynczym wierzchołku, linii bądź trójkącie (tzw. prymitywnych elementach); pozwala na modelowanie utworzonej już siatki w praktycznie dowolny sposób Unified shaders DirectX 10 - Shader Model 4.0
Pixel i Vertex Shader Pixel i Vertex Shader pojawiły się wraz z kartami: nvidia GForce3 ATI Radeon 8500 Języki wysokiego poziomu do tworzenia shaderów to: HLSL (Microsoft, język cieniowaniabiblioteki DirectX) Cg (nvidia) GLSL (rozszerzenie biblioteki OpenGL)
Demo Chameleon
Demo Human Head prezentuje realistyczne odwzorowanie twarzy aktora Douga Jonesa renderowanej w czasie rzeczywistym przedstawia nową formułę obliczania rozpraszania podpowierzchniowego; kolorowe tekstury o rozmiarach 4096 x 4096 zapewniają fotorealistyczną jakość szczegółów w pojedynczej klatce mamy 17 tekstur o łącznej wielkości ponad 40 milionów pikseli, z których każdy oświetlany jest za pomocą programów shaderowych. Oznacza to obróbkę ponad 1,2 miliarda pikseli w każdej sekundzie!
Demo Human Head
Demo World in Conflict
Demo Crysis
Demo BioShock
Artykuły 1. SIGGRAPH 2006 1-4.08.2006 Advanced Real-Time Rendering in 3D Graphics and Games ; Christopher Oat, Pedro V. Sander, ATI Research Jason L. Mitchell, Valve Software Carsten wenzel, Crytek GmbH Alex Evans, Bluespoon 2. Unified shaders oraz DirectX 10 czyli Shader Model 4.0 autor: Tomasz Niechaj - Focus 3. SIGGRAPH 2007 5-9.08.2007 Advanced Real-Time Rendering in 3D Graphics and Games ; Christopher Oat, AMD Graphics, 3D Application Research Group Jason L. Mitchell, Chris Green, Valve Software Johan Andersson, DICE Martin Mittring, Crytek GmbH Shanon Drone, Microsoft Corporation Nico Galoppo, University of North Carolina at Chapel Hill