ZASTOSOWANIE IMAGE BASED LIGHTING (IBL) W ŚRODOWI- SKU ROZSZERZONEJ RZECZYWISTOŚCI (AR)
|
|
- Milena Kozłowska
- 9 lat temu
- Przeglądów:
Transkrypt
1 STUDIA INFORMATICA 2009 Volume 30 Number 4 (87) Przemysław PARDEL Politechnika Śląska, Instytut Informatyki ZASTOSOWANIE IMAGE BASED LIGHTING (IBL) W ŚRODOWI- SKU ROZSZERZONEJ RZECZYWISTOŚCI (AR) Streszczenie. Poniższa praca porusza zagadnienia i problemy zastosowania techniki Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR). Słowa kluczowe: Rozszerzona Rzeczywistość, Image Based Lighting IMAGE BASED LIGHTING (IBL) IN AUGMENTED REALITY (AR) ENVIRONMENT Summary. This work presents general issues and problems of using Image Based Lighting (IBL) in Augmented Reality (AR) environment. Keywords: Augmented Reality, Image Based Lighting, High Dynamic Range 1. Wstęp Rozszerzona Rzeczywistość (Augmented Reality, AR) nie tworzy nowego w pełni wirtualnego świata 3D, lecz rozszerza i uzupełnia ten, który znamy o wirtualną powłokę [2]. Stopień zróżnicowania rodzaju komputerowej informacji jaka może zostać zintegrowana ze środowiskiem rzeczywistym jest bardzo duży, począwszy od prostej informacji (np. współrzędne położenia obiektów) do bardziej skomplikowanych obiektów fotorealistycznych, których renderowanie w środowisku rzeczywistym wymaga przetworzenia wielu danych (np. oświetlenie itp.). Współcześnie rozwijane aplikacje AR kładą duży nacisk na to aby wirtualne rozszerzenie było nierozróżnialne od obiektów rzeczywistych. Jest to możliwe tylko wtedy gdy oświetlenie wirtualnych obiektów jest zgodne z oświetleniem środowiska, które rozszerzają [1].
2 2 P. Pardel W fotorealistycznym renderingu kluczowym wymogiem dla poprawy jakości renderowania wirtualnych obiektów w aplikacjach AR jest zdolność do automatycznego przechwytywania informacji o oświetleniu środowiska oraz współczynnikach odbicia światła w nim występujących [6]. Jedną z metod, pozwalającą na zrealizowanie takich założeń, jest metoda Image Based Lighting (IBL). 2. Image Based Lighting (IBL) Image Based Lighting (IBL) proces oświetlania sceny i obiektów (rzeczywistych lub wirtualnych) w oparciu o obrazy oświetlenia pobrane bezpośrednio ze środowiska rzeczywistego. W technice tej obraz statyczny lub wideo pobrany bezpośrednio z środowiska wykorzystywany jest do wyznaczania oświetlenia. Klasyczne wykorzystanie tej techniki pozwala na odwzorowanie warunków oświetlenia sceny z danej chwili. Podejście takie nadaje się jednak do oświetlania scen, w których warunki oświetlenia pozostają niezmienne. Gdy warunki te ulegają zmianom, w celu prawidłowego oświetlenia sceny, obrazy takie należy pobierać i odpowiednio interpretować w czasie rzeczywistym [3]. Rys. 1. Wirtualny mikroskop oświetlony przy pomocy oświetlenia wyznaczonego techniką IBL (źródło: Image-based lighting. IEEE Computer Graphics and Applications ) Fig. 1. Virtual microscope illuminated with using IBL method (source: Image-based lighting. IEEE Computer Graphics and Applications ) Oświetlenie jest jednym z najważniejszych czynników, które sprawiają że wirtualne obiekty wyglądają jak prawdziwe. W większości przypadków w grafice komputerowej wyznaczany jest prosty model oświetlenia bazujący na nieskończenie małych punktowych źródłach światła znajdujących się w różnych miejscach sceny [5]. W wyniku zastosowania takie-
3 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 3 go podejścia obiekty otrzymują oświetlenie z kilku zdefiniowanych przez użytkownika punktów. Jest to metoda skuteczna dopóki ilość punktów świetlnych jest niewielka, problemem staje się zaś wyznaczenie źródła światła o kształcie nie będącym punktem (długa żarówka, niebo) gdyż przy tej metodzie liczba punktów gwałtownie wzrasta. Należy także wziąć pod uwagę fakt, że obiekty nie tylko odbijają fotony wyemitowane bezpośrednio ze źródeł światła lecz także te, które odbiły się od innych obiektów w scenie. W technice IBL możliwe jest zasymulowanie takich warunków oświetlenia poprzez zastosowanie odpowiednich obrazów będących mapą odwzorowań oświetlenia (MOO) danego środowiska [4]. Mapa Odwzorowania Oświetlenia (MOO) źródło danych pozwalające na odwzorowanie warunków oświetlenia (kształt źródeł światła, natężenie itd.) danego środowiska. Chcąc renderować bardzo skomplikowane sceny AR w czasie rzeczywistym stosuje się szereg zabiegów, które to umożliwiają. W tym celu w IBL, mimo niezgodności z rzeczywistością, obiekty emitujące światło często umieszczane są nieskończenie daleko [7] Światło rozproszone Prawo Lamberta - prawo optyki sformułowane przez Johanna Heinricha Lamberta w 1760 r. określające zależność światłości od kierunku obserwacji. Jeżeli pewna powierzchnia promieniuje lub rozprasza światło, to światłość I w kierunku tworzącym kąt θ z normalną do powierzchni promieniującej wyraża się wzorem: I ) I cos (1) ( 0 gdzie I 0 oznacza światłość w kierunku prostopadłym do powierzchni promieniującej. Prawo to jest spełnione ściśle, gdy powierzchnia promieniująca jest ciałem doskonale czarnym [10]. Własności światła rozproszonego: idealne odbicie rozproszone: idealną powierzchnią odbijającą z rozproszeniem jest powierzchnia chropowata (np. kreda), z powodu mikroskopijnych nierówności światło padające może być odbite w każdym kierunku zawartym w półkuli (rys. 2), powierzchnie idealnie rozpraszające odbijają światło zgodnie z prawem Lamberta; często nazywane są lambertowskimi (ang. Lambertian surfaces), intensywność odbicia nie zależy od położenia obserwatora, ale zależy od orientacji powierzchni względem źródła światła (rys. 3).
4 4 P. Pardel Rys. 2. Kierunki odbicia światła w idealnym odbiciu rozproszonym Fig. 2. Direction of light reflection in ideal diffuse reflection Rys. 3. Intensywność odbicia światła Fig. 3. Light reflection intensity kąt między normalną powierzchni i promieniem padającego światła nazywamy kątem padania (ang. angle of incidence) (rys. 4). Rys. 4. Kąt padania Fig. 4. Angle of incidence Punkt na lambertowskiej powierzchni odbija światło tak samo w każdym kierunku zatem przyjmuje się, że światło jest odbijane w każdym kierunku zawartym w półkuli [8][9]. Osią takiej półkuli jest normalna (N) powierzchni w renderowanym punkcie P. Zamiast jednego lub więcej odrębnych źródeł światła wyznaczonych z prawa Lamberta, próbkowane są wszystkie punkty na MOO środowiska, które tworzą spójną powierzchnię. Następnie są one ważone jako cosinus kąta pomiędzy ich kierunkiem i powierzchnią normalnej, w taki sposób jakby każdy z nich był światłem kierunkowym wyznaczonym z prawa Lamberta. Suma tych wartości wykorzystywana jest do wyznaczenia oświetlenia. N θ P
5 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 5 Należy wziąć pod uwagę fakt, iż nie ma możliwości przetworzenia w czasie rzeczywistym zbyt dużej liczby operacji przeprowadzonych na teksturach. Dlatego zamiast przetwarzać wszystkie widoki dla każdego renderowanego piksela MOO jest ujednolicana. Każdy element tekstury (teksel) reprezentuje w mapie środowiska wektor do środowiska. Dla każdego teksela wszystkie wejścia w MOO środowiska mogą być próbkowane i akumulowane, odpowiednio ważone (wyliczanie) przy pomocy cosinusów kątów pomiędzy wektorem reprezentowanym przez próbkę oraz bieżącym tekselem. Daje to sumę oświetlenia powierzchni skierowanej w kierunku otrzymywanych bieżących próbek. Odpowiednio jedno wyszukanie dla tekstury w kierunku wektora normalnego daje prawidłową wartość światła rozproszonego. Podobne rezultaty jak powyższa daje metoda konwolucyjna oparta o splot sygnałów poprzez rozmycie MOO środowiska. Wynik nie jest dokładnie taki sam, lecz wystarczająco zbliżony do oświetlenia. Największą zaletą w porównaniu do rozwiązań dokładnych jest szybkość działania zaimplementowanej w ten sposób metody. Splot sygnałów jest matematyczną operacją polegającą na łączeniu dwóch sygnałów w celu utworzenia trzeciego. Operacja ta jest uważana za jedną z najważniejszych w dziedzinie cyfrowego przetwarzania sygnałów (DSP ang. Digital Signal Processing). Matematyczny wzór określający operację splotu wygląda następująco: s ( t) f ( u) g( t u) du (2) Jest on określany również jako tzw. Twierdzenie o splocie. W dziedzinie przetwarzania sygnałów przeważnie mamy do czynienia z sygnałami w postaci cyfrowej (ang. digital signals). Są to sygnały dyskretne, nie ciągłe, powyższy wzór ulega więc przekształceniu do postaci dyskretnej (Wzór 3), w której mamy do czynienia ze spróbkowanymi wartościami. Całki zastępowane są przez sumy. s ( m) f ( n) g( m n) (3) n Sygnał wyjściowy powstający po realizacji splotów jest innej wielkości niż sygnały wejściowe. Dla przykładu jeśli pierwszy sygnał wejściowy jest wielkości N, sygnał drugi wielkości M, to sygnał wyjściowy jest wielkości N + M 1. Czasami inny rozmiar sygnału wyjściowego nie jest efektem pożądanym, stosuje się wówczas obcinanie skrajnych wartości wykraczających poza wielkość pierwotnego sygnału. Poniżej zaprezentowane są przykłady praktycznie wyjaśniające ten efekt. Splot jest operacją realizowaną dla sygnałów zarówno jedno jak i dwu-wymiarowych. W przypadku sygnałów 2 wymiarowych położenie jest określone przez 2 zmienne (w poniższym wzorze m i n):
6 6 P. Pardel c [ m, n] a[ m, n]* h[ m, n] h[ j, k] a[ m j, n k] (4) j k Splot jest w tym przypadku prostym wymnożeniem wartości z obu sygnałów wejściowych, a następnie ich zsumowaniem. Praktyczną realizację przedstawia rysunek 5. Wykonane działania są następujące: y[0,0] = x[2,2] * h[0,0] = 9 * 1 = 9 Rys. 5. Splot sygnałów Fig. 5. Signal convolution y[0,1] = x[2,1] * h[0,0] + x[2,2] * h[0,1] = 8 * * 0 = 8 y[0,2] = x[2,0] * h[0,0] + x[2,1] * h[0,1] + x[2,2] * h[0,2] = 7 * * * 1 = 16 itd. Wartości pod indeksami w praktyce mogą być na przykład wartościami kolorów dla danych pikseli obrazu. Należy w tym miejscu zauważyć, że w realizacji splotu zastosowanej powyżej założono, iż wartości poza sygnałem są równe 0. Stąd brak wymnożeń z elementami spoza zakresu. Problem ten występuję tylko na krawędziach sygnałów i często jest identyfikowany jako tzw. problem brzegu. Przy dużych sygnałach ma on przeważnie małe znaczenie dla wyniku splotu. Podejście stosowane do rozwiązania problemu zależy często od specyfiki sygnałów oraz od celu w jakim dokonywana jest operacja splotu. Innymi podejściami do rozwiązania problemu brzegu są na przykład: odbicie obrazu poza jego granicami, powtórzenie obrazu, bez odbicia, powielenie brzegowych wartości. Filtr gaussowski (Wzór 5) reprezentowany jest przez maskę splotu o zmiennych wartościach współczynników wagowych. Transformata Fouriera funkcji Gaussa jest również funkcją Gaussa, która tłumi wysokie częstości przestrzenne w obrazie w sposób monotoniczny przez co daje bardziej jednoznaczne wyniki niż filtr uśredniający.
7 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) k gdzie k oznacza sumę współczynników wagowych [11]. Poprzez użycie filtru rozmycia Gaussowskiego, wszystkie punkty tekstury środowiska otrzymują informacje od otaczających pikseli. Wynikowa MOO nazywana jest mapą natężenia napromieniowania irradiancji (ang. irradiance map). Przykład pokazuje rysunek 6. (5) Rys. 6. Przykładowa mapa natężenia napromieniowania - irradiancji Fig. 6. Example of irradiance map 2.2. Światło odbite Miejsca o największym połysku na powierzchni obiektu są zasadniczo odbiciami źródeł światła. Właściwość tą można wykorzystać do ich wykrywania, lecz jest to prawdziwe tylko dla powierzchni idealnie odbijających światło (takich jak chrom). Własności światła odbitego: powierzchnie błyszczące przejawiają odbicie zwierciadlane, światło odbite na powierzchni błyszczącego obiektu powoduje powstanie jasnego punktu (plamki) ang. specular highlight, położenie plamki zależy od pozycji kamery (obserwatora) zatem odbicie zwierciadlane jest zależne od aktualnego widoku, na poziomie mikroskopowym powierzchnia zwierciadlana jest bardzo gładka, promienie światła odbijają się od takiej powierzchni podobnie jak od lustra, im gładsza powierzchnia tym jest ona bliższa do idealnego lustra, prawo Snella (rys. 7): promienie światła padającego i światła odbitego leżą w jednej płaszczyźnie z normalną do powierzchni, kąt padania jest równy kątowi odbicia ( ), l r
8 8 P. Pardel N θl θτ P Rys. 7. Prawo Snella Fig. 7. Snell s law prawo Snella stosuje się do powierzchni doskonale lustrzanych, ale z wyjątkiem luster i chromu niewiele powierzchni ma taką własność, w ogólnym przypadku oczekujemy, że większość światła zachowuje się zgodnie z prawem Snella, z powodu mikroskopijnych wariacji na powierzchni część światła może być odbita w kierunku nieco różnym od tego jaki wynika z prawa Snella, im większa różnica między kątem rzeczywistym a idealnym, tym mniejszej ilości światła odbitej pod tym kątem oczekujemy, większość materiałów pochłania i rozprasza światło. Efektem tego jest to, że tylko najjaśniejsze obiekty, takie jak źródła światła, widziane są jako rozmyte odblaski (rys. 8). Rys. 8. Odblaski na powierzchni jabłek Fig. 8. Reflection on the apples surface Na obrazie widoczne są nie tylko odbicia z jednego kierunku, lecz z wszystkich kierunków w pewnym stałym kącie (rys. 9).
9 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 9 Rys. 9. Odbicie światła Fig. 9. Light reflection Rozmiar tego stałego kąta zależny jest od połyskliwości materiału obiektu, a w jego środku znajduje się wektor odbicia wektora obserwacji (ang. view vector). Zamiast jednego lub większej liczby różnych źródeł światła wyznaczonych przy pomocy formuły Phonga, próbkowane są wszystkie punkty na mapie środowiska zawarte w tym samym kącie. Są one ważone przy pomocy cosinusa kąta pomiędzy ich kierunkiem i wektorem odbicia. Tym samym traktowane są jakby wszystkie z nich były światłami kierunkowymi obliczonymi przy pomocy formuły Phonga. Suma tych wartości jest sumą odbitych świateł przychodzących z tego kierunku w środowisku. Także i w tym przypadku duża liczba operacji przeprowadzonych na teksturach nie może być przetworzona w czasie rzeczywistym i konieczne jest ujednolicenie MOO (patrz 2.1). Podobnie jak w przypadku wyznaczania światła rozproszonego, wszystkie teksele MOO środowiska są próbkowane, a następnie ważone jako cosinus kąta pomiędzy wektorem reprezentowanym przez próbkę i bieżącą teksturą przez moc lśnienia materiału. Rezultatem jest suma światła, widocznego jeśli odbicie wektora obserwacji zwrócone jest w kierunku bieżącej próbki. Istnieje możliwość poprawy wyników badań przy pomocy filtru rozmycia. Problemem MOO światła odbitego jest to, że rozmiar rdzenia (jądra) filtra jest zależny od jasności, która zmienia się pomiędzy różnymi materiałami. Teoretycznie dla każdego materiału powinna być wygenerowana oddzielna tekstura. Alternatywną jest generowanie mipmap (tekstur o różnych rozmiarach, które są wynikiem skalowania wyjściowej tekstury) i używanie mniejszych podpoziomów mipmap dla nieostrych materiałów. Innym sposobem jest używanie techniki SAT (ang. Summed Area Tables). Do symulacji pochłaniania światła przez materiał może być konieczne przyciemnienie MOO światła odbitego w taki sposób, aby jako podświetlenia widoczne były tylko jasne źródła światła [12]. N P R stały kąt 2.3. Metody realizacji Wykorzystanie techniki IBL w środowisku AR musi uwzględniać założenie odświeżania MOO w czasie rzeczywistym. Do pobierania MOO bardzo dobrze nadaje się chromowana lustrzana kula (lub zwykła bańka choinkowa) przedstawiona na rysunku 10.
10 10 P. Pardel Rys. 10. Chromowana lustrzana kula Fig.10. Chrome plater mirror sphere W jej odbiciu zobaczyć można prawie całe otaczające środowisko. MOO środowiska tworzona jest na podstawie pobranych obrazów takiej kuli przy pomocy dwóch lub jednej kamery. W metodzie wykorzystującej dwie kamery (rys. 11) jedna z nich pobiera obraz oświetlenia środowiska. Może to być zrealizowane zarówno przy pomocy lustrzanej kuli opisanej powyżej jak i przy pomocy kamery o obiektywie w kształcie tzw. rybiego oka. Druga kamera pobiera obraz wideo sceny, na którą później nałożone będą wirtualne obiekty. Obraz wideo sceny Obraz oświetlenia środowiska Lustrzana kula Marker Rys. 11. Metoda wykorzystująca dwie kamery Fig. 11. The setup using two cameras W metodzie wykorzystującej jedną kamerę (rys. 12) pobiera ona obraz wideo na który później nałożone będą wirtualne obiekty. W scenie znajduje się również lustrzana kula odbijająca oświetlenie środowiska. Kula ta znajduje się w ściśle określonym przez użytkownika miejscu. Obraz kuli jest wycinany z obrazu wideo i wykorzystywany jako MOO [13][14].
11 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 11 Kamera Lustrzana kula Marker Rys. 13. Metoda wykorzystująca jedną kamerę Fig. 13. The setup using one camera 3. Tworzenie mapy odwzorowań oświetlenia (MOO) środowiska 3.1. Wykrywanie lustrzanej kuli Pierwszym krokiem w tworzeniu MOO jest wykrywanie fragmentu obrazu przedstawiającego lustrzaną kulę w obrazie pobranym z kamery na podstawie: relatywnej pozycji kuli względem pozycji markera - Sm, macierzy transformacji z kamery do środka markera - M. Do wyznaczenia środka kuli w przestrzeni obrazu kamery wykorzystywany jest iloczyn Sm z M. (rys. 13). oś Y Lustrzana kula Sc kamera D/2 oś Z Marker Rys. 13. Pozycja lustrzanej kuli Fig. 13. The position of the mirror sphere
12 12 P. Pardel Następnie tworzony jest kwadrat, o boku równym średnicy kuli D, w przestrzeni widoku obrazowanego przez kamerę. Kwadrat ten po rzutowaniu na przestrzeń obrazu ogranicza obszarem obraz kuli w obrazie wideo (rys. 14). oś Y Lustrzana kula oś X Marker Rys. 14. Obraz kuli w obrazie wideo Fig. 14. Sphere image in scene W celu wykorzystania tego obrazu do stworzenia MOO, obraz ten wyodrębniany jest z obrazu kamery a następnie kopiowany i renderowany bezpośrednio na nowej teksturze. W renderowanym kwadracie widoczna jest tylko kula zwierciadlana, która w dalszych etapach może być wykorzystana jako MOO środowiska Tworzenie sferycznej MOO Najczęściej spotykanymi kształtami MOO są mapy o kształcie sferycznym lub o kształcie sześciennym. Obraz pobrany z kuli zwierciadlanej zbliżony jest do mapy o kształcie sferycznym. Rozdzielczość na skrajnych obszarach takiej mapy jest bardzo słaba (Rysunek 15), efektem tego są skutki uboczne występujące jeśli pobierane próbki pochodzą bezpośrednio z okolic skrajnego regionu mapy. Rys. 15. Rozdzielczość w skrajnym obszarze mapy odwzorowań oświetlenia Fig. 15. Bad sample resolution at the border of the sphere map Powoduje to pokazanie złych odbić na obiektach wirtualnych jeśli obserwację przeprowadza się w kierunku innym niż kierunek obserwacji kamery. W przypadku gdy kamera obserwuje lustrzaną kulę i wirtualne obiekty z tego samego kierunku, próbki obszaru skrajnego mapy o kształcie sferycznym są mapowane na obszar skrajny obiektu, zatem efekt złej
13 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 13 rozdzielczości jest ukrywany. Używając oddzielnej kamery do pobierania obrazu lustrzanej kuli (rozdział 2.3) wady mapy o kształcie sferycznym mogą stać się bardziej widoczne. Tym samym atrakcyjniejsze może stać się użycie mapy sześciennej. Jako, że pobrany obraz jest już mapą o kształcie zbliżonym do kuli daje to przewagę nad mapą o kształcie sześciennym, gdyż używając takiej mapy jesteśmy zmuszeni do konwertowania nowego obrazu z kamery do mapy sześciennej za każdym razem kiedy jest on dostępny w obrazie wideo. Mapa o kształcie sferycznym jest najbardziej wydajnym rozwiązaniem w przypadku gdy obraz lustrzanej kuli pobierany jest z tej samej kamery, która obserwuje badaną scenę Sferyczna MOO światła odbitego Obraz kuli lustrzanej może być wykorzystany jako MOO środowiska dla materiałów o idealnie odbijającej powierzchni (takich jak chrom). Dla materiałów połyskliwych, takich jak plastik, mapa ta musi być odpowiednio przetworzona (Rozdział 2). Zwykły Gaussowski filtr (2D) jest nie wystarczający ponieważ rozdzielczość próbki na krawędzi mapy o kształcie kuli jest różna od rozdzielczości w środku próbki. Rozwiązaniem jest zastosowanie rozmycia promieniowego we wszystkich 3 osiach (rys. 6). Rozmycie promieniowe osiągnięto dzięki renderowaniu kuli o promieniu 1, ze zmapowaną na nią idealnie odbijającą MOO o kształcie kuli. Koordynaty tekstury zostały wybrane w taki sposób, że obraz kuli jest widziany dokładnie, jako obiekt kuli. Kula jest obracana krok po kroku wokół osi X. Przy każdym kroku pobierany jest obraz, a wszystkie obrazy są uśredniane, biorąc pod uwagę liczbę obrotów kuli. Wynikowy rozmyty obraz jest następnie mapowany na obiekt kuli. W następnej kolejności kula jest obracana wokół osi Y, a obraz jest uśredniany. Wynikowy obraz (rozmyty w kierunku X i Y) jest ponownie mapowany na obiekt kuli, a następnie na koniec kula obracana jest wokół osi Z. Rysunek 7 pokazuje wynikową mapę [15] Sferyczna mapa światła rozproszonego Podobnie jak w przypadku MOO światła odbitego, mapa MOO światła rozproszonego wymaga także przetwarzania wstępnego. Różnica jest taka, że MOO światła rozproszonego o kształcie kuli musi być rozmywana przy pomocy stałego kąta 180 stopni. Aby to osiągnąć za pomocą techniki opisanej powyżej, potrzebna jest duża liczba próbek w celu uniknięcia skutków ubocznych. Aby zredukować liczbę próbek, mapa skalowana jest zanim zostanie rozmyta do zmniejszonej skali.
14 14 P. Pardel 4. Renderowanie Renderowanie i oświetlanie sceny z wykorzystaniem techniki IBL nie różni się zbytnio od klasycznego renderingu. Zamiast rezultatów formuł Lamberta i Blinna wykonywane są teksturowania na podstawie MOO światła rozproszonego i odbitego. Rysunek 16 pokazuje wektory, które biorą udział w obliczeniach koordynat tekstur. Y N d d d d c HRozproszone c c o k o k a V HRozproszone Z o spód lustrzanej kkuli spód lustrzanej kuli Rys. 16. Wektory biorące a udział w obliczeniach koordynat tekstur światła rozproszonego i odbitego Y R o k a HOdbite Fig. 16. Calculation of sphere map texture coordinates for a diffuse and reflective lookup Tekstury w środowisku światła rozproszonego zrealizowane są z wykorzystaniem normalnej do powierzchni N. Do obliczeń tekstury światła odbitego wykorzystuje się odbicie wektora V od oka do punktu w N. Wektor ten nazywa się R [16]. N v v v o k a V o k a Z 4.1. Renderowanie cieni Z badań przeprowadzonych przez Michaela Hallera w pracy Photorealism or/and Non- Photorealism in Augmented Reality na temat cieni obiektów w AR wynika, że odgrywają one bardzo ważną rolę w określaniu proporcji i relatywnej pozycji obiektów. Wszystkie obiekty rzeczywiste w realnej scenie rzucają cienie. Wirtualne obiekty często nie rzucają cieni, a co za tym idzie są identyfikowane jako wirtualne. W czystym wirtualnym środowisku cienie o prostych przybliżonych kształtach wyglądają akceptowalnie. Zarówno w mieszanej (Mixed Reality) jak i rozszerzonej rzeczywistości (AR) można bezpośrednio porównywać wirtualne cienie z cieniami rzeczywistych obiektów. W takich przypadkach aby dopasować wirtualny cień do rzeczywistego należy zadbać o wiele czynników (kolor, miękkość, kierunek itp.) aby wyglądał on realistycznie. Geometria rzeczywistego środowiska jest zwykle nieznana. Wirtualne obiekty rzucają cienie tylko na siebie nawzajem oraz na powierzchnię sceny określoną przez markery. Aby możliwe było rzucanie cienia również na
15 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 15 obiekty rzeczywiste, powinny one być rejestrowane w wirtualnej scenie jako obiekty rzucające wirtualny cień. Wtedy takie realne obiekty mogą odbierać wirtualne cienie. Do obliczenia odpowiednich cieni konieczne jest posiadanie wiedzy o pozycji i kształcie wszystkich źródeł światła w rzeczywistej scenie co wystarcza w zupełności do rozwiązania tego problemu. Pomimo, że informacja o oświetleniu pobrana jest z MOO środowiska, nie posiadamy informacji o pozycji i kształcie źródeł światła. Problem ten można rozwiązać na wiele sposobów: zmiana parametrów oświetlenia ręcznie (nie jest to elastyczne rozwiązanie), wydobycie źródła światła bezpośrednio z MOO środowiska. Istnieje wiele bardzo skomplikowanych metod wykorzystywanych do wydobycia źródeł światła z MOO środowiska stosowanych w renderingu lecz niestety nie są one przystosowane do pracy w czasie rzeczywistym. Dla renderingu w czasie rzeczywistym bardzo ważnym czynnikiem jest złożoność obliczeniowa stosowanych algorytmów. W jednym z takich algorytmów potencjalne źródła światła wyszukuje się poprzez znalezienie wszystkich pikseli w mapie środowiska, które wykraczają poza pewien określony górny próg. Znalezione punkty znajdujące się blisko siebie są grupowane. Wszystkie piksele na mapie środowiska reprezentują wektor światła skierowany do środowiska, zatem środek regionu zgrupowania traktowany jest jako potencjalne źródło światła, a następnie przetransformowany w wektor kierunkowy, a wielkość regionu jest wykorzystywana do określania rozmiaru źródła światła. Ta metoda staje się dosyć problematyczna gdy środowisko jest dobrze oświetlone. Obiekty, które nie emitują wystarczającej ilości światła do wywołania cienia są także interpretowane jako źródła światła, ponieważ pojawiają się jako jasne obszary w obrazie wideo. Rys. 17. Cienie uzyskane przy pomocy algorytmu wygładzania (źródło: Rendering Fake Soft Shadows with Smoothies Fig. 17. Smoothie algorithm overview (source: Rendering Fake Soft Shadows with Smoothies )
16 16 P. Pardel Cienie w świecie rzeczywistym prawie zawsze mają miękkie krawędzie. Idealnie twarde cienie są akceptowalne w grach komputerowych, lecz w AR nie dają zadawalających efektów wizualnych w porównaniu z rzeczywistymi cieniami. Istnieje kilka technik do renderowania miękkich cieni. Niektóre dają zadawalająco realistyczne efekty, np. półcienie trójkątne zastosowane przez Tomasa Akenine Möllera i Ulfa Assarssona w pracy Approximate soft shadows on arbitrary surfaces Rusing penumbra wedges [18] lub wygładzone zastosowane przez Erica Chana and Fredo Duranda ( Rendering fake soft shadows with smoothies [17]) (rys. 17) HDR W związku z ograniczeniami zakresu dynamiki kamer cyfrowych często zdarza się, że wiele pikseli ma ten sam odcień (czysto biały), pomimo tego, że emisja światła obiektów może się w zupełności różnić. Rozpatrując scenę, gdzie słońce jest widoczne i oświetla białą ścianę, najczęściej zarówno słońce jak i ściana pojawiają się jako białe punkty na obrazie wideo, pomimo że słońce jest kilka setek razy jaśniejsze niż ściana, co w efekcie powinno objawiać się bardziej wyrazistymi cieniami. Rozwiązaniem tego problemu jest zastosowanie obrazów o większej dynamice zakresu HDR. Obraz HDR (ang. High Dynamic Range image) - to obraz o zakresie jasności (ang. luminance) porównywalnym do zakresu jasności widzianego przez człowieka. Zakres jasności definiowany jest jako stosunek najjaśniejszego punktu na obrazie do punktu najciemniejszego. Można to uzyskać poprzez pobieranie kilku obrazów przy różnych ustawieniach oświetlenia, lub też poprzez modyfikację warunków oświetlenia. Należy modyfikować tak czas naświetlania, aby pobrać serię obrazów z różnym natężeniem światła. Ciemne lub jasne obszary w scenie są wyeksponowane prawidłowo na jednym z tych obrazów [1]. W systemie realizowanym przez autora badane jest zastosowanie obrazów HDR do obliczania oświetlenia i dokładniejszego, w porównaniu z obrazem o niskim zakresie dynamiki, wyodrębniania najsilniejszych źródeł światła (tzw. ekstrakcja źródeł światła). 5. Podsumowanie i wnioski Rozwój AR wpłynął na poszukiwanie metod realistycznego oświetlania wirtualnych obiektów. Aby obiekt wirtualny stał się nierozróżnialny od obiektów rzeczywistych, zarówno oświetlenie jego powierzchni jak i sposób rzucania cieni musi być identyczny jak w przypadku obiektów istniejących w środowisku rzeczywistym. Dodatkowym założeniem jakie musi spełniać metoda stosowana w środowisku AR jest tryb pracy w czasie rzeczywistym. Zasto-
17 Zastosowanie Image Based Lighting (IBL) w środowisku Rozszerzonej Rzeczywistości (AR) 17 sowanie IBL w AR pozwala na osiągnięcie tego efektu i dzięki temu jest to technika, która pozawala na pełne fotorealistyczne renderowanie obiektów wirtualnych. BIBLIOGRAFIA 1. Supan P., Stuppacher I.: Image Based Lighting in Augmented Reality. Central European Seminar on Computer Graphics for students, Azuma R.: Overview of augmented reality. GRAPH 04: Proceedings of the conference on SIGGRAPH 2004 course notes, s. 26, Nowy Jork Debevec P.: Rendering synthetic objects into Real scenes: bridging traditional and imagebased graphics with global illumination and high dynamic range photography. SIG- GRAPH 98: Proceedings of the 25th annual conference on Computer graphics and interactive techniques, s , Nowy Jork Debevec P.: Image-based lighting. IEEE Computer Graphics and Applications, 22:26 34, Debevec P.: Estimating surface reflectance properties of a complex scene under captured natural illumination. Technical Report ICT-TR ,University of Southern California Institute for Creative Technologies Graphics Laboratory, Haller M.: Photorealism or/and Non-Photorealism in Augmented Reality, Upper Austria University of Applied Sciences Media Technology and Design, Austria, Randima F.: GPU Gems. Addison-Wesley, Strug B.: Modele oświetlenia. Instytut Informatyki, Uniwersytet Jagielloński, Encyklopedia Internautica, Wolna Encyklopedia Wikipedia, Kujawińska M.: Cyfrowe metody przetwarzania obrazu część 2, Politechnika Warszawska, Instytut Mikromechaniki i Fotoniki, Hensley J., Scheuermann T., Coombe G., Lastra A., Singh M.: Fasr summed-area table generation and its applications. Technical report, University of North Carolina at Chapel Hill and ATI Research, Kato H., Billinghurst M.: Marker trackingand hmd calibration for a video-based augmented reality conferencing system. IWAR 99: Proceedings of the 2nd International Workshop on Augmented Reality, Fiala M.: Artag version 1, a fiducial marker system using digital techniques. NRC/ERB- 1117, Langsdorf B.: Gpu programming exposed: The naked truth behind nvidia s demos. Technical report, NVIDIA Corporation, 2005.
18 18 P. Pardel 16. Akenine-Moeller T., Heines E.: Real-Time Rendering. AK Peters, 2-ga edycja, Chan E., Durand F.: Rendering Fake Soft Shadows with Smoothies. Proceedings of the Eurographics Symposium on Rendering, Akenine-Möller T., Assarsson U.: Approximate soft shadows on arbitrary surfaces using penumbra wedges. ACM International Conference Proceeding Series; Vol. 28, Recenzent: Dr hab. inż. Maria Pietruszka, prof. Pol. Łódzkiej Wpłynęło do Redakcji 24 kwietnia 2009 r. Abstract Image based lighting (IBL) is a 3D rendering technique which involves plotting an image onto a dome or sphere which contains the primary subject. The lighting characteristics of the surrounding surface are then taken into account when rendering the scene, using the modeling techniques of global illumination. In first chapter Augmented Reality (AR) environment was generally presented. Chapter Image Based Lighting (IBL) show general issues of IBL technique focusing on using an image of the environment to calculate lighting, diffuse lighting (Lambert's cosine law (1), signal convolution (2)), specular lighting (Snell s law) and realizations methods. In chapter three technique of calculate lighting from an image of the environment was presented. Extracting the mirrored sphere and crating sphere maps was detailed presented. Last chapter present rendering issues in IBL and AR systems. Adding shadows and using high dynamic range (HDR) images was discussed. Adres Przemysław PARDEL: Uniwersytet Rzeszowski, Katedra Informatyki, ul. Dekerta 2, Rzeszów, Polska, przemyslaw.pardel@univ.rzeszow.pl.
Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania.
Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania. Chcąc osiągnąć realizm renderowanego obrazu, należy rozwiązać problem świetlenia. Barwy, faktury i inne właściwości przedmiotów postrzegamy
Animowana grafika 3D. Opracowanie: J. Kęsik.
Animowana grafika 3D Opracowanie: J. Kęsik kesik@cs.pollub.pl Powierzchnia obiektu 3D jest renderowana jako czarna jeżeli nie jest oświetlana żadnym światłem (wyjątkiem są obiekty samoświecące) Oświetlenie
Model oświetlenia. Radosław Mantiuk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie
Model oświetlenia Radosław Mantiuk Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Obliczenie koloru powierzchni (ang. Lighting) Światło biegnie od źródła światła, odbija
Oświetlenie obiektów 3D
Synteza i obróbka obrazu Oświetlenie obiektów 3D Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych Rasteryzacja Spłaszczony po rzutowaniu obraz siatek wielokątowych
OŚWIETLANIE OBIEKTÓW WIRTUALNYCH Z WYKORZYSTANIEM OBRAZÓW O ROZSZERZONEJ DYNAMICE (HDR) W ŚRODOWISKU ROZSZERZONEJ RZECZYWISTOŚCI
STUDIA INFORMATICA 2011 Volume 32 Number 1A (94) Przemysław PARDEL Politechnika Śląska, Instytut Informatyki OŚWIETLANIE OBIEKTÓW WIRTUALNYCH Z WYKORZYSTANIEM OBRAZÓW O ROZSZERZONEJ DYNAMICE (HDR) W ŚRODOWISKU
Grafika komputerowa. Model oświetlenia. emisja światła przez źródła światła. interakcja światła z powierzchnią. absorbcja światła przez sensor
Model oświetlenia emisja światła przez źródła światła interakcja światła z powierzchnią absorbcja światła przez sensor Radiancja radiancja miara światła wychodzącego z powierzchni w danym kącie bryłowym
Grafika Komputerowa Wykład 5. Potok Renderowania Oświetlenie. mgr inż. Michał Chwesiuk 1/38
Wykład 5 Potok Renderowania Oświetlenie mgr inż. 1/38 Podejście śledzenia promieni (ang. ray tracing) stosuje się w grafice realistycznej. Śledzone są promienie przechodzące przez piksele obrazu wynikowego
Synteza i obróbka obrazu. Tekstury. Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych
Synteza i obróbka obrazu Tekstury Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych Tekstura Tekstura (texture) obraz rastrowy (mapa bitowa, bitmap) nakładany na
Filtrowanie tekstur. Kinga Laurowska
Filtrowanie tekstur Kinga Laurowska Wprowadzenie Filtrowanie tekstur (inaczej wygładzanie) technika polegająca na 'rozmywaniu' sąsiadujących ze sobą tekseli (pikseli tekstury). Istnieje wiele metod filtrowania,
Zjawisko widzenia obrazów
Zjawisko widzenia obrazów emisja światła przez źródła światła interakcja światła z powierzchnią absorbcja światła przez sensor Źródła światła światło energia elektromagnetyczna podróżująca w przestrzeni
Gry komputerowe: efekty specjalne cz. 2
1/43 Gry komputerowe: efekty specjalne cz. 2 Przygotowała: Anna Tomaszewska 2/43 Mapowanie środowiska - definicja aproksymacje odbić na powierzchnie prosto- i krzywoliniowej," oświetlanie sceny." obserwator
Plan wykładu. Akcelerator 3D Potok graficzny
Plan wykładu Akcelerator 3D Potok graficzny Akcelerator 3D W 1996 r. opracowana została specjalna karta rozszerzeń o nazwie marketingowej Voodoo, którą z racji wspomagania procesu generowania grafiki 3D
Analiza obrazów - sprawozdanie nr 2
Analiza obrazów - sprawozdanie nr 2 Filtracja obrazów Filtracja obrazu polega na obliczeniu wartości każdego z punktów obrazu na podstawie punktów z jego otoczenia. Każdy sąsiedni piksel ma wagę, która
Programowanie gier komputerowych Tomasz Martyn Wykład 6. Materiały informacje podstawowe
Programowanie gier komputerowych Tomasz Martyn Wykład 6. Materiały informacje podstawowe Czym są tekstury? Tekstury są tablicowymi strukturami danych o wymiarze od 1 do 3, których elementami są tzw. teksele.
GRK 4. dr Wojciech Palubicki
GRK 4 dr Wojciech Palubicki Uproszczony Potok Graficzny (Rendering) Model Matrix View Matrix Projection Matrix Viewport Transform Object Space World Space View Space Clip Space Screen Space Projection
Ustawienia materiałów i tekstur w programie KD Max. MTPARTNER S.C.
Ustawienia materiałów i tekstur w programie KD Max. 1. Dwa tryby własności materiału Materiał możemy ustawić w dwóch trybach: czysty kolor tekstura 2 2. Podstawowe parametry materiału 2.1 Większość właściwości
Polecenie ŚWIATPUNKT - ŚWIATŁO PUNKTOWE
Polecenie ŚWIATPUNKT - ŚWIATŁO PUNKTOWE Tworzy światło punktowe emitujące światło we wszystkich kierunkach. Lista monitów Wyświetlane są następujące monity. Określ położenie źródłowe : Podaj wartości
Grafika Komputerowa Wykład 6. Teksturowanie. mgr inż. Michał Chwesiuk 1/23
Wykład 6 mgr inż. 1/23 jest to technika w grafice komputerowej, której celem jest zwiększenie szczegółowości renderowanych powierzchni za pomocą tekstur. jest to pewna funkcja (najczęściej w formie bitmapy)
RENDERING W CZASIE RZECZYWISTYM. Michał Radziszewski
RENDERING W CZASIE RZECZYWISTYM Michał Radziszewski Plan wykładu Oświetlenie w grafice czasu rzeczywistego Modele koloru Modele źródeł światła Światła punktowe, kierunkowe i powierzchniowe Model nieba,
Parametryzacja obrazu na potrzeby algorytmów decyzyjnych
Parametryzacja obrazu na potrzeby algorytmów decyzyjnych Piotr Dalka Wprowadzenie Z reguły nie stosuje się podawania na wejście algorytmów decyzyjnych bezpośrednio wartości pikseli obrazu Obraz jest przekształcany
Zaawansowana Grafika Komputerowa
Zaawansowana Komputerowa Michał Chwesiuk Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 28 Luty 2017 Michał Chwesiuk Zaawansowana Komputerowa 28 Luty 2017 1/11 O mnie inż.
WSTĘP DO GRAFIKI KOMPUTEROWEJ
WSTĘP DO GRAFIKI KOMPUTEROWEJ Miłosz Michalski Institute of Physics Nicolaus Copernicus University Październik 2015 1 / 15 Plan wykładu Światło, kolor, zmysł wzroku. Obraz: fotgrafia, grafika cyfrowa,
Synteza i obróbka obrazu. Algorytmy oświetlenia globalnego
Synteza i obróbka obrazu Algorytmy oświetlenia globalnego Algorytmy oświetlenia Algorytmy oświetlenia bezpośredniego (direct illumination) tylko światło poadające bezpośrednio na obiekty, mniejszy realizm,
Grafika realistyczna. Oświetlenie globalne ang. global illumination. Radosław Mantiuk
Oświetlenie globalne ang. global illumination Radosław Mantiuk Generowanie obrazów z uwzględnieniem oświetlenia globalnego Cel oświetlenia globalnego obliczenie drogi promieni światła od źródeł światła
GRAKO: ŚWIATŁO I CIENIE. Modele barw. Trochę fizyki percepcji światła. OŚWIETLENIE: elementy istotne w projektowaniu
GRAKO: ŚWIATŁO I CIENIE Metody oświetlania Metody cieniowania Przykłady OŚWIETLENIE: elementy istotne w projektowaniu Rozumienie fizyki światła w realnym świecie Rozumienie procesu percepcji światła Opracowanie
Obraz cyfrowy. Radosław Mantiuk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie
Obraz cyfrowy Radosław Mantiuk Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Obraz Funkcja dwuwymiarowa. Wartością tej funkcji w dowolnym punkcie jest kolor (jasność). Obraz
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Grafika Komputerowa Wykład 4. Synteza grafiki 3D. mgr inż. Michał Chwesiuk 1/30
Wykład 4 mgr inż. 1/30 Synteza grafiki polega na stworzeniu obrazu w oparciu o jego opis. Synteza obrazu w grafice komputerowej polega na wykorzystaniu algorytmów komputerowych do uzyskania obrazu cyfrowego
Grupa: Elektrotechnika, Studia stacjonarne, II stopień, sem. 1. wersja z dn Laboratorium Techniki Świetlnej
Grupa: Elektrotechnika, Studia stacjonarne, II stopień, sem. 1. wersja z dn. 29.03.2016 aboratorium Techniki Świetlnej Ćwiczenie nr 5. TEMAT: POMIAR UMIACJI MATERIAŁÓW O RÓŻYCH WŁASOŚCIACH FOTOMETRYCZYCH
Karty graficzne możemy podzielić na:
KARTY GRAFICZNE Karta graficzna karta rozszerzeo odpowiedzialna generowanie sygnału graficznego dla ekranu monitora. Podstawowym zadaniem karty graficznej jest odbiór i przetwarzanie otrzymywanych od komputera
Przetwarzanie obrazów wykład 4
Przetwarzanie obrazów wykład 4 Adam Wojciechowski Wykład opracowany na podstawie Komputerowa analiza i przetwarzanie obrazów R. Tadeusiewicz, P. Korohoda Filtry nieliniowe Filtry nieliniowe (kombinowane)
4/4/2012. CATT-Acoustic v8.0
CATT-Acoustic v8.0 CATT-Acoustic v8.0 Oprogramowanie CATT-Acoustic umożliwia: Zaprojektowanie geometryczne wnętrza Zadanie odpowiednich współczynników odbicia, rozproszenia dla wszystkich planów pomieszczenia
Przygotowanie grafiki 3D do gier komputerowych
Grafika Komputerowa i Wizualizacja Przygotowanie grafiki 3D do gier komputerowych Rafał Piórkowski Plan wykładu 1. Ogólne wiadomości 2. Modelowanie high poly 3. Rzeźbienie 4. Modelowanie low poly 5. Model
Implementacja filtru Canny ego
ANALIZA I PRZETWARZANIE OBRAZÓW Implementacja filtru Canny ego Autor: Katarzyna Piotrowicz Kraków,2015-06-11 Spis treści 1. Wstęp... 1 2. Implementacja... 2 3. Przykłady... 3 Porównanie wykrytych krawędzi
Przetwarzanie obrazu
Przetwarzanie obrazu Przekształcenia kontekstowe Liniowe Nieliniowe - filtry Przekształcenia kontekstowe dokonują transformacji poziomów jasności pikseli analizując za każdym razem nie tylko jasność danego
0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do
0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do obserwatora f) w kierunku od obserwatora 1. Obrót dookoła osi
Ćwiczenie Nr 11 Fotometria
Instytut Fizyki, Uniwersytet Śląski Chorzów 2018 r. Ćwiczenie Nr 11 Fotometria Zagadnienia: fale elektromagnetyczne, fotometria, wielkości i jednostki fotometryczne, oko. Wstęp Radiometria (fotometria
OpenGL oświetlenie. Bogdan Kreczmer. Katedra Cybernetyki i Robotyki Wydziału Elektroniki Politechnika Wrocławska
OpenGL oświetlenie Bogdan Kreczmer bogdan.kreczmer@pwr.wroc.pl Katedra Cybernetyki i Robotyki Wydziału Elektroniki Politechnika Wrocławska Kurs: Copyright c 2017 Bogdan Kreczmer Niniejszy dokument zawiera
Mobilne Aplikacje Multimedialne
Mobilne Aplikacje Multimedialne Technologie rozszerzonej rzeczywistości Krzysztof Bruniecki Rozszerzona rzeczywistość W odróżnieniu od rzeczywistości wirtualnej użytkownik NIE jest całkowicie zanurzony
Algorytm SAT. Marek Zając 2012. Zabrania się rozpowszechniania całości lub fragmentów niniejszego tekstu bez podania nazwiska jego autora.
Marek Zając 2012 Zabrania się rozpowszechniania całości lub fragmentów niniejszego tekstu bez podania nazwiska jego autora. Spis treści 1. Wprowadzenie... 3 1.1 Czym jest SAT?... 3 1.2 Figury wypukłe...
BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat
BIBLIOTEKA PROGRAMU R - BIOPS Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat Biblioteka biops zawiera funkcje do analizy i przetwarzania obrazów. Operacje geometryczne (obrót, przesunięcie,
RENDERING W CZASIE RZECZYWISTYM. Michał Radziszewski
RENDERING W CZASIE RZECZYWISTYM Michał Radziszewski Plan wykładu Rendering cieni wprowadzenie Cienie w grafice komputerowej Rendering off-line i rendering w czasie rzeczywistym Cienie rozmyte i ostre Mapy
OCENA PRZYDATNOŚCI FARBY PRZEWIDZIANEJ DO POMALOWANIA WNĘTRZA KULI ULBRICHTA
OCENA PRZYDATNOŚCI FARBY PRZEWIDZIANEJ DO POMALOWANIA WNĘTRZA KULI ULBRICHTA Przemysław Tabaka e-mail: przemyslaw.tabaka@.tabaka@wp.plpl POLITECHNIKA ŁÓDZKA Instytut Elektroenergetyki WPROWADZENIE Całkowity
Julia 4D - raytracing
i przykładowa implementacja w asemblerze Politechnika Śląska Instytut Informatyki 27 sierpnia 2009 A teraz... 1 Fraktale Julia Przykłady Wstęp teoretyczny Rendering za pomocą śledzenia promieni 2 Implementacja
Jeśli X jest przestrzenią o nieskończonej liczbie elementów:
Logika rozmyta 2 Zbiór rozmyty może być formalnie zapisany na dwa sposoby w zależności od tego z jakim typem przestrzeni elementów mamy do czynienia: Jeśli X jest przestrzenią o skończonej liczbie elementów
OpenGL Światło (cieniowanie)
OpenGL Światło (cieniowanie) 1. Oświetlenie włączanie/wyłączanie glenable(gl_lighting); - włączenie mechanizmu oświetlenia gldisable(gl_lighting); - wyłączenie mechanizmu oświetlenia glenable(gl_light0);
RENDERING W CZASIE RZECZYWISTYM. Michał Radziszewski
RENDERING W CZASIE RZECZYWISTYM Michał Radziszewski Plan wykładu Opóźnione cieniowanie wprowadzenie Koszt obliczeniowy cieniowania Cieniowanie jedno- i wieloprzebiegowe Cieniowanie opóźnione Schemat opóźnionego
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
a. Czym różni się sposób liczenia odbicia zwierciadlanego zaproponowany przez Phonga od zaproponowanego przez Blinna?
1. Oświetlenie lokalne a. Czym różni się sposób liczenia odbicia zwierciadlanego zaproponowany przez Phonga od zaproponowanego przez Blinna? b. Co reprezentują argumenty i wartość funkcji BRDF? Na czym
Przetwarzanie obrazów rastrowych macierzą konwolucji
Przetwarzanie obrazów rastrowych macierzą konwolucji 1 Wstęp Obrazy rastrowe są na ogół reprezentowane w dwuwymiarowych tablicach złożonych z pikseli, reprezentowanych przez liczby określające ich jasność
Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D
Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D autorzy: Michał Dajda, Łojek Grzegorz opiekun naukowy: dr inż. Paweł Rotter I. O projekcie. 1. Celem projektu było stworzenie
Modelowanie i wstęp do druku 3D Wykład 1. Robert Banasiak
Modelowanie i wstęp do druku 3D Wykład 1 Robert Banasiak Od modelu 3D do wydruku 3D Typowa droga...czasem wyboista... Pomysł!! Modeler 3D Przygotowanie modelu do druku Konfiguracja Programu do drukowania
Dodatek B - Histogram
Dodatek B - Histogram Histogram to nic innego, jak wykres pokazujący ile elementów od czarnego (od lewej) do białego (prawy koniec histogramu) zostało zarejestrowanych na zdjęciu. Może przedstawiać uśredniony
Grafika komputerowa Wykład 10 Modelowanie oświetlenia
Grafika komputerowa Wykład 10 Instytut Informatyki i Automatyki Państwowa Wyższa Szkoła Informatyki i Przedsiębiorczości w Łomży 2 0 0 9 Spis treści Spis treści 1 2 3 Spis treści Spis treści 1 2 3 Spis
MODELE OŚWIETLENIA. Mateusz Moczadło
MODELE OŚWIETLENIA Mateusz Moczadło Wstęp Istotne znaczenie w modelu oświetlenia odgrywa dobór źródeł światła uwzględnianych przy wyznaczaniu obserwowanej barwy obiektu. Lokalne modele oświetlenia wykorzystują
Scena 3D. Cieniowanie (ang. Shading) Scena 3D - Materia" Obliczenie koloru powierzchni (ang. Lighting)
Zbiór trójwymiarowych danych wej$ciowych wykorzystywanych do wygenerowania obrazu wyj$ciowego 2D. Cieniowanie (ang. Shading) Rados"aw Mantiuk Wydzia" Informatyki Zachodniopomorski Uniwersytet Technologiczny
Laboratorium Optyki Falowej
Marzec 2019 Laboratorium Optyki Falowej Instrukcja do ćwiczenia pt: Filtracja optyczna Opracował: dr hab. Jan Masajada Tematyka (Zagadnienia, które należy znać przed wykonaniem ćwiczenia): 1. Obraz fourierowski
1. Oświetlenie Materiały i powierzchnie
1. Oświetlenie Rzeczywiste światło emitowane przez określone źródło, odbijane jest na milionach powierzchni obiektów, po czym dociera do naszych oczu powodując, że widzimy dane przedmioty. Światło padające
Przekształcenia widmowe Transformata Fouriera. Adam Wojciechowski
Przekształcenia widmowe Transformata Fouriera Adam Wojciechowski Przekształcenia widmowe Odmiana przekształceń kontekstowych, w których kontekstem jest w zasadzie cały obraz. Za pomocą transformaty Fouriera
Algorytmy oświetlenia globalnego
Synteza i obróbka obrazu Algorytmy oświetlenia globalnego Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych Algorytmy oświetlenia Algorytmy oświetlenia bezpośredniego
Optyka stanowi dział fizyki, który zajmuje się światłem (także promieniowaniem niewidzialnym dla ludzkiego oka).
Optyka geometryczna Optyka stanowi dział fizyki, który zajmuje się światłem (także promieniowaniem niewidzialnym dla ludzkiego oka). Założeniem optyki geometrycznej jest, że światło rozchodzi się jako
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
SPRAWDZIAN NR 1. I promienie świetlne nadal są równoległe względem siebie, a po odbiciu od powierzchni II nie są równoległe względem siebie.
SPRAWDZIAN NR 1 ŁUKASZ CHOROŚ IMIĘ I NAZWISKO: KLASA: GRUPA A 1. Na dwie różne powierzchnie światło pada pod tym samym kątem. Po odbiciu od powierzchni I promienie świetlne nadal są równoległe względem
Karta graficzna karta rozszerzeo odpowiedzialna generowanie sygnału graficznego dla ekranu monitora. Podstawowym zadaniem karty graficznej jest
KARTA GRAFICZNA Karta graficzna karta rozszerzeo odpowiedzialna generowanie sygnału graficznego dla ekranu monitora. Podstawowym zadaniem karty graficznej jest odbiór i przetwarzanie otrzymywanych od komputera
3. FUNKCJA LINIOWA. gdzie ; ół,.
1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta
6. Zagadnienie parkowania ciężarówki.
6. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.
Filtracja nieliniowa może być bardzo skuteczną metodą polepszania jakości obrazów Filtry nieliniowe Filtr medianowy Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy
Grafika 3D program POV-Ray - 36 -
Temat 7: Rodzaje oświetlenia. Rzucanie cieni przez obiekty. Sposób rozchodzenia się, odbijania i przyjmowania światła na obiekcie. Ważną umiejętnością przy ray-tracingu jest opanowanie oświetlenia. Tym
Próbkowanie (ang. sampling) - kwantyzacja. Rastrowa reprezentacja obrazu 2D. Generowanie obrazu rastrowego 2D. Próbkowanie i integracja
Próbkowanie (ang. sampling) - kwantyzacja Rastrowa reprezentacja obrazu 2D Próbkowanie - proces zamiany ciągłego sygnału f(x) na skończoną liczbę wartości opisujących ten sygnał. Kwantyzacja - proces zamiany
Podstawy fizyki wykład 8
Podstawy fizyki wykład 8 Dr Piotr Sitarek Katedra Fizyki Doświadczalnej, W11, PWr Optyka geometryczna Polaryzacja Odbicie zwierciadła Załamanie soczewki Optyka falowa Interferencja Dyfrakcja światła D.
Mikroskop teoria Abbego
Zastosujmy teorię dyfrakcji do opisu sposobu powstawania obrazu w mikroskopie: Oświetlacz typu Köhlera tworzy równoległą wiązkę światła, padającą na obserwowany obiekt (płaszczyzna 0 ); Pole widzenia ograniczone
PORÓWNANIE WYDAJNOŚCI JĘZYKÓW CIENIOWANIA CG I HLSL
Inżynieria Rolnicza 7(125)/2010 PORÓWNANIE WYDAJNOŚCI JĘZYKÓW CIENIOWANIA CG I HLSL Jerzy Dąbkowski Instytut Teleinformatyki, Politechnika Krakowska Instytut Inżynierii Rolniczej i Informatyki, Uniwersytet
SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD
Dr inż. Jacek WARCHULSKI Dr inż. Marcin WARCHULSKI Mgr inż. Witold BUŻANTOWICZ Wojskowa Akademia Techniczna SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Streszczenie: W referacie przedstawiono możliwości
Światła i rodzaje świateł. Dorota Smorawa
Światła i rodzaje świateł Dorota Smorawa Rodzaje świateł Biblioteka OpenGL posiada trzy podstawowe rodzaje świateł: światło otoczenia, światło rozproszone oraz światło odbite. Dodając oświetlenie na scenie
Ćwiczenie 4 - Podstawy materiałów i tekstur. Renderowanie obrazu i animacji
Ćwiczenie 4 - Podstawy materiałów i tekstur. Renderowanie obrazu i animacji Materiał jest zbiorem informacji o właściwościach powierzchni. Składa się na niego kolor, sposób odbijania światła i sposób nakładania
OpenGL Światło (cieniowanie)
OpenGL Światło (cieniowanie) 1. Oświetlenie włączanie/wyłączanie glenable(gl_lighting); - włączenie mechanizmu oświetlenia gldisable(gl_lighting); - wyłączenie mechanizmu oświetlenia glenable(gl_light0);
Podstawy POV-Ray a. Diana Domańska. Uniwersytet Śląski
Podstawy POV-Ray a Diana Domańska Uniwersytet Śląski Kamera Definicja kamery opisuje pozycję, typ rzutowania oraz właściwości kamery. Kamera Definicja kamery opisuje pozycję, typ rzutowania oraz właściwości
SPRAWDZIAN NR Na zwierciadło sferyczne padają dwa promienie światła równoległe do osi optycznej (rysunek).
SPRAWDZIAN NR 1 JOANNA BOROWSKA IMIĘ I NAZWISKO: KLASA: GRUPA A 1. Na zwierciadło sferyczne padają dwa promienie światła równoległe do osi optycznej (rysunek). Dokończ zdanie. Wybierz stwierdzenie A albo
Bartosz Bazyluk SYNTEZA GRAFIKI 3D Grafika realistyczna i czasu rzeczywistego. Pojęcie sceny i kamery. Grafika Komputerowa, Informatyka, I Rok
SYNTEZA GRAFIKI 3D Grafika realistyczna i czasu rzeczywistego. Pojęcie sceny i kamery. Grafika Komputerowa, Informatyka, I Rok Synteza grafiki 3D Pod pojęciem syntezy grafiki rozumiemy stworzenie grafiki
Architektura Komputerów
Studia Podyplomowe INFORMATYKA Techniki Architektura Komputerów multimedialne Wykład nr. 9 dr Artur Bartoszewski Rendering a Ray Tracing Ray tracing (dosłownie śledzenie promieni) to technika renderowania
W poszukiwaniu sensu w świecie widzialnym
W poszukiwaniu sensu w świecie widzialnym Andrzej Śluzek Nanyang Technological University Singapore Uniwersytet Mikołaja Kopernika Toruń AGH, Kraków, 28 maja 2010 1 Podziękowania Przedstawione wyniki powstały
Przekształcenia punktowe
Przekształcenia punktowe Przekształcenia punktowe realizowane sa w taki sposób, że wymagane operacje wykonuje sie na poszczególnych pojedynczych punktach źródłowego obrazu, otrzymujac w efekcie pojedyncze
Efekty dodatkowe w rasteryzacji
Synteza i obróbka obrazu Efekty dodatkowe w rasteryzacji Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych Efekty dodatkowe Cieniowanie i teksturowanie pozwala
Przegląd metod renderingu czasu rzeczywistego dla fotorealistycznych wizualizacji architektonicznych
Przegląd metod renderingu czasu rzeczywistego dla fotorealistycznych wizualizacji architektonicznych prof. dr hab. Inż. Maria Pietruszka mgr inż. Anna Służewska Instytut Informatyki Politechniki Łódzkiej
Architektura Procesorów Graficznych
Architektura Procesorów Graficznych Referat: Rendering 3D: potok 3D, możliwości wsparcia sprzętowego, możliwości przyspieszenia obliczeń. Grupa wyrównawcza Cezary Sosnowski 1. Renderowanie Renderowanie
Obraz jako funkcja Przekształcenia geometryczne
Cyfrowe przetwarzanie obrazów I Obraz jako funkcja Przekształcenia geometryczne dr. inż Robert Kazała Definicja obrazu Obraz dwuwymiarowa funkcja intensywności światła f(x,y); wartość f w przestrzennych
Operatory mapowania tonów
Operatory mapowania tonów (ang. Tone Mapping Operators) Radosław Mantiuk rmantiuk@wi.zut.edu.pl 1 Operatory Tonów (TMO - tone mapping operator) Kompresja luminancji obrazów HDR Dostosowanie zakresu dynamiki
Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 9. Przetwarzanie sygnałów wizyjnych. Politechnika Świętokrzyska.
Politechnika Świętokrzyska Laboratorium Cyfrowe przetwarzanie sygnałów Ćwiczenie 9 Przetwarzanie sygnałów wizyjnych. Cel ćwiczenia Celem ćwiczenia jest zapoznanie studentów z funkcjami pozwalającymi na
Transformata Fouriera. Sylwia Kołoda Magdalena Pacek Krzysztof Kolago
Transformata Fouriera Sylwia Kołoda Magdalena Pacek Krzysztof Kolago Transformacja Fouriera rozkłada funkcję okresową na szereg funkcji okresowych tak, że uzyskana transformata podaje w jaki sposób poszczególne
Autodesk 3D Studio MAX Teksturowanie modeli 3D
Autodesk 3D Studio MAX Teksturowanie modeli 3D dr inż. Andrzej Czajkowski Instyt Sterowania i Systemów Informatycznych Wydział Informatyki, Elektrotechniki i Automatyki 25 kwietnia 2017 1 / 20 Plan Wykładu
Transformacje. dr Radosław Matusik. radmat
www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja m.in. przestrzeni modelu, świata, kamery oraz projekcji, a także omówienie sposobów oświetlania i cieniowania obiektów. Pierwsze
Modele symulacyjne PyroSim/FDS z wykorzystaniem rysunków CAD
Modele symulacyjne PyroSim/FDS z wykorzystaniem rysunków CAD Wstęp Obecnie praktycznie każdy z projektów budowlanych, jak i instalacyjnych, jest tworzony z wykorzystaniem rysunków wspomaganych komputerowo.
HDR. Obrazy o rozszerzonym zakresie dynamiki
Synteza i obróbka obrazu HDR Obrazy o rozszerzonym zakresie dynamiki Dynamika obrazu Zakres dynamiki (dynamicrange) to różnica między najciemniejszymi i najjaśniejszymi elementami obrazu. W fotografice
TEMAT: POMIAR LUMINANCJI MATERIAŁÓW O RÓśNYCH WŁAŚCIWOŚCIACH FOTOMETRYCZNYCH
Grupa: Elektrotechnika, Studia stacjonarne, II stopień, sem. 1. wersja z dn. 18.03.2011 aboratorium Techniki Świetlnej Ćwiczenie nr 2. TEMAT: POMIAR UMIACJI MATERIAŁÓW O RÓśYCH WŁAŚCIWOŚCIACH FOTOMETRYCZYCH
Podstawy OpenCL część 2
Podstawy OpenCL część 2 1. Napisz program dokonujący mnożenia dwóch macierzy w wersji sekwencyjnej oraz OpenCL. Porównaj czasy działania obu wersji dla różnych wielkości macierzy, np. 16 16, 128 128, 1024
Akwizycja obrazów HDR
Akwizycja obrazów HDR Radosław Mantiuk radoslaw.mantiuk@gmail.com 1 Składanie HDRa z sekwencji zdjęć LDR (1) Seria zdjęć sceny wykonanych z różnymi ustawieniami ekspozycji 2 Składanie HDRa z sekwencji
Diagnostyka obrazowa
Diagnostyka obrazowa Ćwiczenie drugie Podstawowe przekształcenia obrazu 1 Cel ćwiczenia Ćwiczenie ma na celu zapoznanie uczestników kursu Diagnostyka obrazowa z podstawowymi przekształceniami obrazu wykonywanymi
Chocofur szkolenie średniozaawansowane
Chocofur szkolenie średniozaawansowane Lech Sokołowski CHOCOFUR.COM Poniższe opracowanie stanowi esencję wiedzy przekazywanej na szkoleniu. Jest to zbiór notatek zawierający najważniejsze punkty omawianych
SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa
SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę
Synteza i obróbka obrazu HDR. Obrazy o rozszerzonym zakresie dynamiki
Synteza i obróbka obrazu HDR Obrazy o rozszerzonym zakresie dynamiki Dynamika obrazu Zakres dynamiki (dynamicrange) to różnica między najciemniejszymi i najjaśniejszymi elementami obrazu. W fotografii