Widzenie komputerowe i stereoskopia

Podobne dokumenty
Widzenie komputerowe. Widzenie komputerowe i stereoskopia. Dysparycja siatkówkowa uwagi. Układ wzrokowy naczelnych

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 12 AiR III

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Akademia Górniczo-Hutnicza

Rys. 1 Schemat układu obrazującego 2f-2f

Grafika Komputerowa Wykład 4. Synteza grafiki 3D. mgr inż. Michał Chwesiuk 1/30

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Rodzaje obrazów. Obraz rzeczywisty a obraz pozorny. Zwierciadło. Zwierciadło. obraz rzeczywisty. obraz pozorny

Akademia Górniczo-Hutnicza

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Temat ćwiczenia: Zasady stereoskopowego widzenia.

Filtracja obrazu operacje kontekstowe

Mobilne Aplikacje Multimedialne

Analiza obrazów - sprawozdanie nr 2

Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy

Grafika Komputerowa Wykład 5. Potok Renderowania Oświetlenie. mgr inż. Michał Chwesiuk 1/38

Laboratorium Optyki Falowej

Elektrofizjologiczne podstawy lokalizacji ogniska padaczkowego. Piotr Walerjan

Kalibracja kamery. Kalibracja kamery

Filtracja obrazu operacje kontekstowe

Układy stochastyczne

Skanowanie trójwymiarowej przestrzeni pomieszczeñ

Bartosz Bazyluk SYNTEZA GRAFIKI 3D Grafika realistyczna i czasu rzeczywistego. Pojęcie sceny i kamery. Grafika Komputerowa, Informatyka, I Rok

Elektrofizjologiczne podstawy lokalizacji ogniska padaczkowego. Piotr Walerjan PWSIM MEDISOFT

PDF created with FinePrint pdffactory Pro trial version

Ćwiczenie 4. Część teoretyczna

W poszukiwaniu sensu w świecie widzialnym

WYMAGANIA EDUKACYJNE NIEZBĘDNE DO UZYSKANIA POSZCZEGÓLNYCH ŚRÓDROCZNYCH I ROCZNYCH OCEN KLASYFIKACYJNYCH Z MATEMATYKI POLITECHNICZNEJ KLASA 2

Mikroskop teoria Abbego

Automatyczne nastawianie ostrości

Pattern Classification

Wstęp do fotografii. piątek, 15 października ggoralski.com

WYMAGANIA EDUKACYJNE Z MATEMATYKI DLA KLASY III

Metody Optyczne w Technice. Wykład 5 Interferometria laserowa

Wprowadzenie do pomiaru głębi obrazu za pomocą stereoskopowego układu kamer

Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D

PRZETWARZANIE SYGNAŁÓW

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Laboratorium techniki laserowej Ćwiczenie 2. Badanie profilu wiązki laserowej

OPTYKA GEOMETRYCZNA I INSTRUMENTALNA

Komunikacja Człowiek-Komputer

Zaawansowane metody analizy EEG: lokalizacja wzorów zapisu w przestrzeni 2D i 3D. Piotr Walerjan

Informatyka Stosowana. a b c d a a b c d b b d a c c c a d b d d c b a

Podstawy programowania. Wykład 7 Tablice wielowymiarowe, SOA, AOS, itp. Krzysztof Banaś Podstawy programowania 1

Optyka instrumentalna

Akwizycja obrazów. Zagadnienia wstępne

W naukach technicznych większość rozpatrywanych wielkości możemy zapisać w jednej z trzech postaci: skalara, wektora oraz tensora.

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Wymagania edukacyjne z matematyki w klasie III gimnazjum

Wprowadzenie do analizy korelacji i regresji

Detekcja punktów zainteresowania

Segmentacja przez detekcje brzegów

Prawdopodobieństwo geometryczne

Ćwiczenie 11. Wprowadzenie teoretyczne

WideoSondy - Pomiary. Trzy Metody Pomiarowe w jednym urządzeniu XL G3 lub XL Go. Metoda Porównawcza. Metoda projekcji Cienia (ShadowProbe)

Matematyka do liceów i techników Szczegółowy rozkład materiału Zakres podstawowy

Analiza ruchu. Marek Wnuk < > ZPCiR I-6 PWr. MW: SyWizE p.1/22

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Optymalizacja. Wybrane algorytmy

DETEKCJA PŁASZCZYZN W SCENIE TRÓJWYMIAROWEJ NA PODSTAWIE SEKWENCJI OBRAZÓW STEREOWIZYJNYCH

WYDZIAŁ FIZYKI I INFORMATYKI STOSOWANEJ

II. Równania autonomiczne. 1. Podstawowe pojęcia.

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Stosowane metody wykrywania nieszczelności w sieciach gazowych

Analizy Ilościowe EEG QEEG

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10

Metody analizy zapisu EEG. Piotr Walerjan

klasa III technikum I. FIGURY I PRZEKSZTAŁCENIA Wiadomości i umiejętności

Elektroniczne systemy percepcji otoczenia dla niewidomych

Aby opisać strukturę krystaliczną, konieczne jest określenie jej części składowych: sieci przestrzennej oraz bazy atomowej.

WSTĘP DO PRZETWARZANIA OBRAZÓW. Jak znaleźć ciekawe rzeczy na zdjęciu? mgr Krzysztof Szarzyński

Co należy zauważyć Rzuty punktu leżą na jednej prostej do osi rzutów x 12, którą nazywamy prostą odnoszącą Wysokość punktu jest odległością rzutu

Rozkład materiału z matematyki dla II klasy technikum zakres podstawowy I wariant (38 tyg. 2 godz. = 76 godz.)

Biostatystyka, # 3 /Weterynaria I/

TWIERDZENIE TALESA W PRZESTRZENI

Wymagania edukacyjne z matematyki Klasa III zakres podstawowy

WYMAGANIA Z WIEDZY I UMIEJĘTNOŚCI NA POSZCZEGÓLNE STOPNIE SZKOLNE DLA KLASY CZWARTEJ H. zakres rozszerzony. Wiadomości i umiejętności

0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do

Spacery losowe generowanie realizacji procesu losowego

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Synteza i obróbka obrazu. Tekstury. Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych

Optyka. Wykład XI Krzysztof Golec-Biernat. Równania zwierciadeł i soczewek. Uniwersytet Rzeszowski, 3 stycznia 2018

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Ćwiczenie Nr 11 Fotometria

Katalog wymagań programowych na poszczególne stopnie szkolne. Matematyka. Poznać, zrozumieć

Przetwarzanie obrazu stereo. Zuzanna Pietrowska 9 czerwca 2010

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

4/4/2012. CATT-Acoustic v8.0

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

Model oświetlenia. Radosław Mantiuk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Ćwiczenie 12/13. Komputerowy hologram Fouriera. Wprowadzenie teoretyczne

Grafika 2D. Animacja Zmiany Kształtu. opracowanie: Jacek Kęsik

Przekształcenia widmowe Transformata Fouriera. Adam Wojciechowski

Elementy modelowania matematycznego

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 7 AiR III

PODZIAŁ PODSTAWOWY OBIEKTYWÓW FOTOGRAFICZNYCH

Anemometria obrazowa PIV

Podstawy Przetwarzania Sygnałów

Transkrypt:

Widzenie komputerowe i stereoskopia Rozpoznawanie Obrazów Krzysztof Krawiec Instytut Informatyki, Politechnika Poznańska Na podstawie: B. Cyganek: Komputerowe przetwarzanie obrazów trójwymiarowych, EXIT 2002. 1 Krzysztof Krawiec IDSS Wednesday, June 10, 2009

Widzenie komputerowe Widzenie komputerowe (ang. computer vision) dziedzina zajmująca się interpretacją obrazów trójwymiarowych główny problem: mapowanie 3D->2D => utrata informacji (głębi) bardziej formalnie: wszystkie punkty leżące na jednej prostej przechodzącej przez ognisko kamery mapowane są na jeden piksel cel: uzyskanie mapy głębi (ang. depth map) (obraz 2.5 wymiarowy) 2

Układ wzrokowy naczelnych Główne źródła informacji o głębi: dysparycja siatkówkowa (ang. retinal disparity) -> wzajemne przysłanianie obiektów Te dwa źródła informacji uzupełniają się: dysparycja umożliwia ekstrakcję głębi dla części obrazu widocznych dla obu oczu, przysłanianie wspomaga segmentację obrazu na obiekty i krawędzie. Inne źródła informacji: ruch gałek ocznych Co jeszcze wiemy: informacja o kolorze ma znikomy wpływ na percepcję głębi 3

Dysparycja siatkówkowa uwagi formalnie: dysparycja siatkówkowa jest zerowa tylko dla punktów obrazu rzutowanych na tzw. żółtą plamkę ( centralny element siatkówki). Dla innych punktów dysparycja jest zawsze niezerowa. w OUN (obszar V1 kory wzrokowej) istnieją neurony zwane detektorami dysparycji, reagujące na dysparycję. Jakie cechy obrazu mają zasadniczy wpływ na percepcję dysparycji? druga pochodna luminancji (jasności) przecina zero (zero-crossings) [Marr&Poggio79] składowe częstotliwościowe sygnału luminancji [Mayhew&Frisby] cechy bardziej globalne [Mallot] wykazano że jesteśmy w stanie skutecznie rekonstruować głębię nawet gdy luminancja zmienia się bardzo powoli. najnowsze badania wskazują na charakter hybrydowy, zależny od zawartości obrazu. Powiązane zagadnienia: Stereogramy losowe [Julesz60] 4

Stereoskopia wykorzystanie dwóch obrazów tej samej sceny (tzw. stereopara) zalety: Tania Analogiczna do postrzegania człowieka (w obszarze korowym V1 mózgu wykazano istnienie neuronów detektorów dysparycji, których pobudzenie jest proporcjonalne do niezgodności obrazów pochodzących z lewego i prawego oka) wady: wymaga dwóch kamer (zazwyczaj) konieczność kalibracji kamer ograniczona dokładność wysoki koszt obliczeniowy 5

Model kamery perspektywicznej 6 Krzysztof Krawiec IDSS Wednesday, June 10, 2009

Model kamery perspektywicznej X c O c x T Y w f Y c Z c o p O w X w y Π P c Z w O c punkt ogniskowy (centralny) kamery o punkt główny (ang. principal point) f długość ogniskowa O c O c oś optyczna 7 O c P

Rzutowanie punktu Dany jest punkt P=(X,Y,Z) w układzie współrzędnych kamery. Współrzędne jego obrazu p=(x,y,z) w detektorze kamery można wywieść z podobieństwa trójkątów O c po i O c PO c. x=f X Z, y=f Y Z, z=f Wniosek: współrzędna Z (głębia) wpływa na współrzędne x i y => uzasadnienie sensowności stereoskopii. 8

Kamera o uproszczonej perspektywie Gdy założymy że X i Y << średnie Z (czyli że rozmiary obiektu są znacząco mniejsze od jego odległości od kamery, co jest zazwyczaj prawdą), wcześniejszy wzór można sprowadzić do: x= f Z X, y= f Z Y, z=f czyli jest to de facto skalowanie przez czynnik f/(z średnie). [Pokrewny model: model kamery afinicznej] 9

Parametry kamery Dzielą się na: zewnętrzne wewnętrzne 10

Parametry zewnętrzne W prostych przypadkach układ współrzędnych kamery i zewnętrzny można utożsamiać. Jednak gdy mamy więcej niż jedną kamerę lub kamera się porusza, nie da się tego zrobić. Przejście od zewnętrznego układu współrzędnych do układu współrzędnych kamery: złożenie translacji T i rotacji R: P c =R( P w T ) gdzie: P c położenie punktu P w układzie współrzędnych kamery P w położenie punktu P w zewnętrznym układzie współrzędnych T macierz translacji R macierz rotacji (3x3) x T=O w O c =[T T z] y T 11

Parametry wewnętrzne kamera perspektywiczna o obiektywie punktowym ma jeden parametr ogniskową f, translacja pomiędzy współrzędnymi kamery a współrzędnymi obrazu: zazwyczaj wybiera się punkt środkowy siatki o=(o x,o y ) oraz pewne rozmiary pixeli s x i s y ; wówczas: x=( x u o x ) s x, y=( y u o y ) s y 12 zniekształcenia geometryczne wprowadzane przez układ optyczny kamery wynikają z nieliniowości układu optycznego oraz zmienności parametrów w funkcji długości fali: aberracja sferyczna, koma, astygmatyzm, zakrzywienie pola widzenia, zniekształcenia poduszkowe i beczkowe aberracja chromatyczna dla porównania: kamera ortograficzna nie ma żadnych parametrów wewnętrznych

Kanoniczny układ kamer Kanoniczny układ kamer to dwie kamery perspektywiczne o takich samych parametrach wewnętrznych, o równoległych osiach optycznych, umieszczone w odległości b (baza) od siebie.

Kanoniczny układ kamer P Π L o L p L p R Z o R Π R x L x R X f O L b O R 14

Definicja dysparycji Oznaczenia: P punkt w przestrzeni 3D p L i p R jego obrazy w kamerach, odpowiednio lewej i prawej Korzystając z podobieństwa trójkątów p L o L O L oraz PXO L, jak również p R o R O R oraz PXO R, dysparycję (horyzontalną) można zdefiniować jako: D x ( p L,p R )=x L x R = bf Z Gdzie b odległość między punktami ogniskowymi obu kamer Można też definiować dysparycję wertykalną D y, a następnie zagregować D x i D y do dysparycji całkowitej. 15

Przykład 1

Przykład 2 Mariner 10 stereo pair of Boccacio Crater, Mercury. The right image of this pair was taken during the first flyby, and the left during the second. The crater is 135 km in diameter.

Metody stereoskopowego przetwarzania obrazów 18 Krzysztof Krawiec IDSS Wednesday, June 10, 2009

Zadanie Mając dane obrazy z lewej i prawej kamery, znajdź w nich takie pary punktów które z dużym prawdopodobieństwem są obrazem tego samego punktu sceny, przy akceptowalnych nakładach obliczeniowych.

Metody bezpośrednie dopasowujące obszarami (area-based), inaczej blokowe lub korelacyjne podstawowa operacja: korelowanie (zgodnie z wybranym kryterium) wybranych obszarów. relaksacyjne korelowanie wybranych obszarów + rozwiązywanie problemów niejednoznaczności dopasowań. wprowadza się funkcję energetyczną, opisującą siłę dopasowania punktów. bazujące na programowaniu dynamicznym problem stereowizji sprowadza się do problemu optymalizacyjnego z użyciem pewnej funkcji rozbieżności dopasowań. zakładają zachowanie kolejności punktów. gradientowe bazują na obliczeniu pola gradientowego w każdym punkcie obrazu. 20

Podstawowy podział Metody: bezpośrednie (ang. direct) -> : Dysparycja obliczana bezpośrednio z jasności (ewentualnie przefiltrowanej w celu eliminacji szumów). Wynik: gęsta mapa dysparycji (estymata dysparycji dla każdego punktu obrazu). metody bazujące na detekcji cech (ang. feature based methods) -> : Podstawą obliczania dysparycji są pewne cechy wyekstrahowane z obrazu (np. linie, narożniki). Wynik: rzadka mapa dysparycji (estymata dysparycji tylko w tych miejscach gdzie obecna jest analizowana cecha). Typ otrzymanej mapy dysparycji determinuje obszary zastosowań. 21

Metody bezpośrednie c.d. neuronowe wykorzystuje się m.in. modele Hopfielda, Hamminga, RBF. probabilistyczne budowa statystycznego modelu rozkładu dysparycji w pewnym oknie. model pozwala na obliczenie stopnia niepewności dopasowania. reguła Bayesa pozwala na znalezienie okna minimalizującego tę niepewność. dyfuzyjne funkcja energetyczna i dyskretne równanie dyfuzyjne. symulacja pewnego procesu energetycznego. obecność wielu lokalnych minimów funkcji energii -> stosuje się m.in. symulowane wyżarzanie. 22

Metody bazujące na cechach metoda Marr-Poggio-Grimson detekcja różnego typu krawędzi na różnych skalach szczegółowości, detektorem LoG (Laplacian of Gaussian), metoda Shirai dopasowywanie wyłącznie punktów krawędziowych, z pewnym uwzględnieniem ich otoczenia metoda tensora strukturalnego polega na detekcji lokalnych struktur w obrazie i dopasowywaniu miejsc charakteryzujących się silną strukturalnością 23

Aspekty techniczne algorytmów Algorytmy: kroczące po punktach priorytet dla przestrzeni : przeglądaj podokna, a wewnątrz każdego podokna doszukuj się różnych dysparycji (zazwyczaj począwszy od najmniejszych) kroczące po dysparycjach priorytet dla dysparycji : odwrotne zagnieżdżenie pętli: dla różnych oczekiwanych dysparycji przeglądaj całe obrazy 24

https://www.cs.auckland.ac.nz/courses/compsci773s1c/lectures/773-gg/lectbc-773.htm

Grupy zastosowań rekonstrukcja obiektów 3D rozpoznawanie obiektów 3D zazwyczaj oparte na modelu -> pomiar podobieństwa mapy głębi i modelu w 3 wymiarach kartografia, analiza terenu, w tym zastosowania militarne ciekawy przykład: analiza fal morskich systemy nawigacyjne, w tym robotyka multimedia synteza obrazów, np. nakładanie obrazów syntetycznych na rzeczywiste generowanie nieznanych widoków obiektów na podstawie widoków znanych 26

Stosowanie metod 1. W zależności od charakteru obrazów/zastosowania: poziom szumów np. wysoki poziom szumów dyskwalifikuje metody bezpośrednie, odległość od obrazowanych obiektów i, w konsekwencji, zakres dysparycji np. w obrazach kartograficznych obiekty znajdują się bardzo daleko od kamer[y], dysparycja jest niewielka -> wskazanie na metody bezpośrednie (choć z drugiej strony może wystąpić szum) 27

Stosowanie metod c.d. 2. W zależności od stawianych wymagań konieczność pracy w czasie rzeczywistym wymagana precyzja rekonstrukcji głębi np. często bardzo wysoka w rekonstrukcji obiektów 3D wymaga dokładnej kalibracji kamer 28

Metody pomiaru głębi wykorzystujące jeden obraz

Inne metody pomiaru głębi Stereoskopia nie jest jedyną metodą pomiaru głębi. Istnieją metody wykorzystujące jedną kamerę: aktywne wykorzystują osobne źródło promieniowania pasywne wykorzystują oświetlenie naturalne sceny inne 30

Pomiar głębi - Metody aktywne oświetlenie strukturalne (najczęściej regularna krata), interferometr (siatka interferencyjna za źródłem promieniowania i przed kamerą), laser, radar, sonar pomiar czasu powrotu sygnału odbitego lub zmiany jego fazy 31

Pomiar głębi Metody aktywne Zaleta: dokładne i często szybkie Wady: konieczność zastosowania źródła promieniowania: kosztowne, w przypadku niektórych pasm widma niebezpieczne dla zdrowia koszt energetyczny, w niektórych zastosowaniach wykluczone: zbyt duża odległość od obserwowanych obiektów, wojskowe, bezpieczeństwo (ang. homeland security) 32

Pomiar głębi Metody pasywne Mogą być wspólnie zatytułowane: depth from X strukturalna analiza cienia (depth from shading) wykorzystanie charakterystyki odbicia/rozpraszania światła do pozyskania informacji o głębi Wady: wymaga silnych założeń, duża złożoność obliczeniowa. głębia/kształt z ruchu (depth from motion) wykorzystanie zmian zawartości obrazu przy przemieszczaniu się kamery w pewnym sensie uogólnienie stereoskopii 33

Pomiar głębi Metody pasywne głębia z ogniskowania (depth from focus) znajdowanie odległości od obiektu przez zmianę ogniskowej i testowanie ostrości ostrość w lokalnym wycinku obrazu można zmierzyć mierząc udział składowych o wysokich częstotliwościach przestrzennych (nawet np. filtrami krawędziowymi) wady: wymaga kontroli ogniskowej, czasochłonne (nieakceptowalne w wideo) głębia z rozogniskowania (ang. depth from defocus): korzysta ze spostrzeżenia, że niezogniskowany punkt obrazu ma kształt dysku; dysk ten można opisać pewnym modelem, a pozyskując parametry tego modelu można poznać odległość punktu (pod warunkiem znajomości parametrów optycznych kamery). Matematyczna analiza pokazuje, że wystarczą zaledwie dwa obrazy (o różnym rozogniskowaniu) aby otrzymać mapę głębi 34

Metody pasywne Zaleta: brak wymagania źródła promieniowania Wada: produkują wyniki częściowe, niepełne (np. tzw. rzadka mapa głębi)

Metody wykorzystujące jeden obraz Learning 3-D Scene Structure from a Single Still Image Ashutosh Saxena, Min Sun and Andrew Y. Ng Computer Science Department, Stanford University, Stanford Założenie: estymowany model sceny składa się z wielu połączonych ze sobą płaszczyzn

1. Wyodrębnianie 'superpikseli' (oversegmentation)

2. Ekstrakcja cech i definicja ograniczeń Oczekiwana charakterystyka Sąsiednie superpiksele prawdopodobnie reprezentują płaszczyzny połączone ze sobą w scenie Sąsiednie superpiksele często reprezentują tę samą płaszczyznę Proste linie w obrazie 2D reprezentują proste linie w scenie 3D Dla osiągnięcia dobrych wyników, niezbędne było wzięcie pod uwagę wszystkich powyższych aspektów.

3. Uczenie MRF Model Markov Random Field (przestrzenny proces stochastyczny)

Charakterystyka MRF Tzw. plane parameter RF: zmiennymi są parametry płaszczyzn 3D odpowiadających superpikselom w 2D Lokalne cechy obrazu: 524 cechy 4 sasiednie superpiksele, 3 skale rozdzielczosci Cechy opisujace relacje pomiedzy superpikselami: otrzymane poprzez dodatkowe segmentacje obrazu 2 skale przestrzenne, 7 zestawów cech. Cecha opisuje czy dana para superpikseli należy do tego samego segmentu w poszczególnych 14 segmentacjach

Wyniki Porównanie map głębi pozyskanych z różnych podzbiorów cech

Przykładowe wyniki http://make3d.cs.cornell.edu/

Przykładowe wyniki (reprojekcja) The first 7 images (a-g) were evaluated as correct and the last 3 (h-j) were evaluated as incorrect.

Nowe specjalizowane urządzenia

Lytro Light field photography (plenoptic photography) Zbiera informację nie tylko o intensywności, ale też kierunkuświatła Wykorzystuje matrycę mikrosoczewek (micro lens array), które rzutują obraz na matrycę detektorów. Rekonstrukcja obrazu odbywa się poprzez transformatę Fouriera. Cechy: Możliwość zmiany ustawienia ostrości po wykonaniu zdjęcia. Brak konieczności ustawiania ostrości przed wykonaniem zdjęcia, zatem krótszy czas reakcji. Możliwość ekstrakcji standardowych obrazów. Wysoka czułość (wynikająca z dużej apertury). Możliwość rekonstrukcji obrazów 3D.

case\lytro\cm Movie 2.mov https://www.lytro.com/

Nieco inny pomysł (2012) http://image-sensors-world.blogspot.com/2012/04/cornell-university-presents.html