Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 10 Wybrane zastosowania;

Podobne dokumenty
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Elementy statystyki wielowymiarowej

Kwantyzacja wektorowa. Kodowanie różnicowe.

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Zastosowania sieci neuronowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Lekcja 5: Sieć Kohonena i sieć ART

Kodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia. Mgr inż.

Sieci Kohonena Grupowanie

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Sztuczne Sieci Neuronowe

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Zastosowania sieci neuronowych

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Sztuczna inteligencja

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Analiza składowych głównych

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Metody Sztucznej Inteligencji II

Metody systemowe i decyzyjne w informatyce

Sztuczne sieci neuronowe

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

SIECI RBF (RADIAL BASIS FUNCTIONS)

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Cyfrowe przetwarzanie i kompresja danych

Sieć przesyłająca żetony CP (counter propagation)

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Podstawy Sztucznej Inteligencji (PSZT)

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Systemy uczące się wykład 2

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Analiza składowych głównych. Wprowadzenie

Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,

Obliczenia inteligentne Zadanie 4

Podstawy sztucznej inteligencji

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Przetworniki cyfrowo analogowe oraz analogowo - cyfrowe

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Widzenie komputerowe

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Pattern Classification

Przetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.

Algorytmy sztucznej inteligencji

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Systemy uczące się Lab 4

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Sieci neuronowe w Statistica

Przykładowa analiza danych

Temat: Sieci neuronowe oraz technologia CUDA

Kompresja danych DKDA (7)

Prawdopodobieństwo i statystyka

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Hierarchiczna analiza skupień

10. Redukcja wymiaru - metoda PCA

TRANSFORMACJE I JAKOŚĆ DANYCH

wiedzy Sieci neuronowe

ALGORYTMY SZTUCZNEJ INTELIGENCJI

VII. WYKRESY Wprowadzenie

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

Uczenie sieci typu MLP

Obraz jako funkcja Przekształcenia geometryczne

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Założenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG

Sztuczne sieci neuronowe

PRZETWORNIKI C / A PODSTAWOWE PARAMETRY

SZTUCZNA INTELIGENCJA

WSTĘP I TAKSONOMIA METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. Adrian Horzyk. Akademia Górniczo-Hutnicza

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Elementy modelowania matematycznego

Optymalizacja optymalizacji

Emergentne właściwości. sztucznych sieci neuronowych

Transformaty. Kodowanie transformujace

Statystyka i eksploracja danych

Inteligentne systemy przeciw atakom sieciowym

SZTUCZNA INTELIGENCJA

Analiza korespondencji

Adrian Horzyk

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Podstawy Automatyki. Wykład 4 - algebra schematów blokowych. dr inż. Jakub Możaryn. Warszawa, Instytut Automatyki i Robotyki

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Przetwarzanie obrazów rastrowych macierzą konwolucji

Transkrypt:

Sieci Neuronowe Wykład 10 Wybrane zastosowania; wykład przygotowany na podstawie. S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 4, PWNT, Warszawa 1996. W. Duch, J. Korbicz, L. Rutkowski i R. Tadeusiewicz, Sieci Neuronowe, Biocybernetyka i inzynieria biomedyczna 2000, t.6, ACW Exit, Warszawa 2000.

Rozpoznawanie wzorców Przez pojęcie rozpoznawania wzorców rozumiemy identyfikację lub interpretację wzorca traktowanego jako obraz. Zadaniem sieci jest wyłowienie jego najważniejszych cech i zakwalifikowanie do odpowiedniej kategorii (klasy). Można wyróżnić dwa rodzaje podejść: Najpierw następuje wydobycie najważniejszych cech obrazu, a następnie sieć dokonuje na ich podstawie klasyfikacji. W wydobyciu cech obrazu są stosowane różne metody (np. momentów statystycznych) Wydobywanie cech obrazu i klasyfikacja są połączone w jedno zadanie rozwiązywane przez tą samą sieć neuronową. Np. przekształcenia obrazów typu statystycznego, stanowiące fragment działania sieci neuronowej. Przedstawimy proste podejście łączące cechy obu metod. 2

Rozpoznawanie wzorców Dane dotyczące obrazu są przetwarzane przez preprocesor uniezależniający obraz od przesunięcia, rotacji i skalowania. Wynik jest podawany na sieć neuronową dokonującą właściwego rozpoznania. Główną cecha preprocesora musi być stabilność przekształcenia obrazu niezależna od poziomu szumów w obrazie oryginalnym oraz prosty i szybki w działaniu algorytm przekształcenia umożliwiający jej przeprowadzenie w czasie porównywalnym z czasem działania samego klasyfikatora neuronowego. Jednym z takich rozwiązań jest preprocesor o strukturze kaskadowej. 3

Preprocesor o strukturze kaskadowej obraz oryginalny f f T T f TS f TRS S R obraz przetworzony Preprocesor składa się z trzech bloków: typu T : uniezależniający od przesunięcia wzdłuż osi x i y typu S : skalowanie typu R : rotacja Obraz oryginalny oraz przetworzony zakodowane są w postaci pixeli. 4

Blok przesunięcia Blok przesunięcia T zapewnia niezmienność względem przesunięcia na osi x i y przez określenie położenia środka ciężkości wzorca i takie jego przesunięcie, że znajdzie się ono zawsze w początku układu współrzędnych, umieszczanym zwykle w punkcie centralnym ramy obrazu. Środek ciężkości jest obliczany metodą uśredniania współrzędnych x i y wzorca. P liczba pixeli o przypisanej wartości binarnej 1 P = Σ Σf(x i, y j ) przy czym N oznacza wymiar pixelowy ramy obrazu (przyjmuje się ramę kwadratowa), a f (x i, y j ) ma wartość binarna 0 lub 1, określającą jasność przypisana pikselowi o współrzędnych (x i, y j ). Środek ciężkości oblicza się z zależności: x m = 1/P Σ Σ x i f(x i, y j ) ; y m = 1/P Σ Σ y i f(x i, y j ) Wzorzec wyjściowy z bloku przesunięcia określa funkcja f T (x i, y j ) = f T (x i + x m, y j + y m ) która zmienia położenie wzorca oryginalnego na płaszczyźnie umieszczając go w miejscu środka ciężkości. 5

Blok skalujący Blok skalujący S to taka zmiana wymiarów wzorca, aby średnia odległość miedzy początkiem układu współrzędnych a pixelami znajdującymi się w stanie wysokim była określonym ułamkiem wymiaru ramy. Średnia odległość określa wzór: r m = 1/(Σ Σf T (x i, y j ) ) Σ Σf T (x i, y j ) sqrt(x i2 + y j2 ) a współczynnik skali S = r m /R przy czym R jest określonym ułamkiem wymiaru ramy. Wzorzec wyjściowy z bloku skalowania określa funkcja f TS (x i, y j ) = f T (Sx i, Sy j ) Tego typu skalowanie zapewnia ciągłość cech charakterystycznych wzorca ( przy ciągłym wzorcu wejściowym f T wzorzec wyjściowy f TS jest również ciągły. 6

Blok rotacji Blok rotacji R dokonuje obrotu wzorca w taki sposób, aby kierunek maksymalnej wariancji pokrywał się z osią x. Przekształcenie to wykorzystuje własność systemu, że dla danego zbioru wektorów wejściowych wektor własny stowarzyszony z największą wartością własną macierzy kowariancji wektorów wejściowych jest skierowany w kierunku maksymalnej wariancji. Biorąc pod uwagę jedynie obrazy dwuwymiarowe, macierz kowariancji ma wymiar 2x2, dla którego wektor własny stowarzyszony z największą wartością własną, może być określony w sposób analityczny. Można doprowadzić do funkcji rzutujących postaci: f TSR (x i, y j ) = f TS (x i cos(θ) y j sin(θ), x i sin(θ)+y j (cos(θ) ) gdzie sin(θ), cos(θ) odpowiadają nachyleniu wektora własnego. 7

Układ klasyfikatora neuronowego Sygnały wyjściowe f TSR preprocesora uporządkowane w postaci wektorowej składającej się z kolejnych wierszy tabeli pikselowej, stanowią sygnały wejściowe sieci neuronowej wielowarstwowej, pełniącej funkcje klasyfikatora. Liczba węzłów wejściowych sieci jest równa liczbie pikseli. Każdy neuron wyjściowy reprezentuje klasę, ich liczba jest również stała i równa liczbie klas. Liczba warstw ukrytych i neuronów w warstwie podlega doborowi. Klasyfikator jest trenowany metodą propagacji wstecznej przy użyciu jednego z algorytmów uczących na zbiorze danych uczących reprezentujących kolejne klasy wzorców podlegających rozpoznaniu. Biorąc pod uwagę istnienie preprocesora, wystarczy użycie jednego wzorca wejściowego dla każdej klasy. 8

Uklad interpretera Na etapie rozpoznawania wzorców, biorąc pod uwagę ich zaszumienie, sygnały wyjściowe neuronów mogą przyjmować wartości ciągle z przedziału [0,1] zamiast spodziewanych wartości binarnych zerojedynkowych z jedynką odpowiadającą rozpoznanej klasie. Jednym z rozwiązań jest przyjęcie neuronu najbardziej aktywnego jako reprezentanta danej klasy. Najlepszym rozwiązaniem wydaje się interpretacja dwupoziomowa: sprawdza się o ile sygnał maksymalny przewyższa następny jeżeli różnica jest duża za zwycięski uważa się neuron o największe aktywności gdy poziomy aktywacji wszystkich neuronów są poniżej pewnego progu, interpreter ostrzega że klasyfikacja jest niepewna. Dane literaturowe wskazują że przy bardzo prostym algorytmie przetwarzania wstępnego, tą metodą można uzyskać 90% skuteczność. 9

Kompresja danych Zadaniem kompresji danych jest zmniejszenie informacji przechowywanej lub przesyłanej na odległość przy zachowaniu możliwości jej pełnego odtworzenia (dekompresji). Zastosowanie sieci neuronowej umożliwia uzyskanie nowych rozwiązań kompresji typu stratnego (z pewną utratą informacji) o dobrych właściwościach uogólniających i stosunkowo dużym współczynniku kompresji. 10

Sieć neuronowa do kompresji danych Jest to sieć dwuwarstwowa, w której liczba elementów w warstwie wyjściowej jest równa liczbie węzłów w warstwie wejściowej. Warstwa ukryta zawiera q neuronów, przy czym q<<n. Warstwa wejściowa i ukryta stanowią właściwą kompresje danych, natomiast warstwa ukryta i wyjściowa realizują dekompresje. Sieć jest typu autoasosocjacyjnego, co oznacza, że wektor uczący d jest równy wektorowi wejściowemu x, a sygnały wyjściowe sieci x i odpowiadają sygnałom wejściowym x i. 11

Schemat sieci x 1 A B x 1 x 2 x 2 x n A qn q B nq x 3 Warstwa wejściowa Warstwa ukryta Warstwa wyjściowa Schenat sieci neuronowej jednokierunkowej do kompresji danych 12

Siec neuronowa wielowarstwowa Kompresja dotyczy danych podzielonych na ramki (slide 16), będące ciągiem wektorów n-elementowych ( n liczba węzłów wejściowych). Wobec q<<n warstwa ukryta zawiera mniejszą ilość informacji niż warstwa wejściowa, ale informacja ta prezentuje wiedzę reprezentatywną dla zbioru danych, wystarczającą do rekonstrukcji oryginalnych danych wejściowych z określoną dokładnością. Warstwa ukryta reprezentuje więc składniki główne rozkładu (Principal Component Analysis PCA), stanowiące jądro informacji. Liczba tych składników jest równa liczbie neuronów q w warstwie ukrytej. Większa liczba q odpowiada zwiększonej informacji zawartej w neuronach warstwy ukrytej co z kolei umożliwia wierniejsze odtworzenie informacji wejściowej otrzymanej w wyniku dekompresji. 13

Siec neuronowa wielowarstwowa Przy zastosowaniu sieci liniowej wektor h utworzony przez odpowiedzi neuronów w warstwie ukrytej oraz zdekompresowany wektor x odpowiadający sygnałom wyjściowym sieci są opisane następującymi równaniami macierzowymi h = A x x = B h = B A x gdzie A i B są utworzone przez wagi neuronów odpowiednio warstwy ukrytej i wyjściowej sieci. Uczenie sieci czyli optymalny dobór wag tworzących macierz A i B wymaga aby różnica miedzy x ij i x ij była dla wszystkich składowych jak najmniejsza, co prowadzi do definicji funkcji celu w postaci E = ½ ΣΣ (x ij x ij ) 2 Nie istnieje rozwiązanie analityczne problemu (prostokątności A i B). Uczenie neuronów: najlepsze wyniki uzyskiwano stosując liniową funkcje aktywacji. 14

Miary kompresji Dane odtworzone w wyniku dekompresji są obarczone zawsze pewnym błędem. Miara tego błędu może być przyjmowana w różny sposób: MSE = d(x,x ) = 1/M Σ (x i x i ) 2 gdzie M oznacza wymiar wektora danych x. W przypadku danych dwuwymiarowych wektor x tworzą kolejne dane dotyczące podobrazów. Istotnym parametrem, określającym stosunek ilości informacji przypisanej obrazowi sprzed kompresji do ilości informacji odpowiadającej obrazowi skompresowanemu, jest współczynnik kompresji, K r. Im większy współczynnik K r,tym większy zysk przy przechowywaniu i przesyłaniu informacji i zwykle większe zniekształcenia powstające w zdekompresowanym obrazie. 15

Zniekształcenie dekompresji Zniekształcenie dekompresji mierzy się najczęściej za pośrednictwem współczynnika PSNR (Peak Signal-to-Noise-Ratio), mierzonego w decybelach i definiowanego w postaci: PSNR = 10 log( (2 k -1) 2 /MSE ) gdzie k jest liczba bitów użytych do kodowania stopni szarości obrazu. Przy 8-bitowej reprezentacji współczynnik PSNR określa wzór PSNR = 10 log (255 2 /MSE) Im większa wartość współczynnika PSNR, tym lepsza jest jakość obrazu. 16

Hierarchiczny podział danych Przed przystąpieniem do kompresji dane należy podzielić na ramki odpowiednich rozmiarach: podział równomierny, nie uwzględnia żadnego zróżnicowania danych w poszczególnych ramkach. uwzględnienie zróżnicowania, podział hierarchiczny. Obraz dzielony na segmenty o podobnym stopniu szarości. Segmentacja dokonywana przez regularną dekompozycję obrazu, prowadząca do struktury drzewiastej. Podział obrazu na bloki o różnych wymiarach, decyzja o kolejnym podziale jest podejmowana na podstawie pomiaru kontrastu rozumianego jako różnica miedzy najwyższym i najniższym stopniem szarości. L1 L2 L2 L3 L3 L2 L3 L3 hierarchiczny podział obrazu 17

Hierarchiczny podział danych Zastosowanie podejścia hierarchicznego w kompresji obrazów umożliwia zmniejszenie liczby wektorów uczących sieci przy zachowaniu najistotniejszych informacji zawartych w obrazie. Zapewnienie zbliżonego do siebie kontrastu wewnątrz bloku umożliwia wydatne zmniejszenie błędu kompresji, dzięki czemu przy zadanym poziomie PSNR możliwe jest uzyskanie większych współczynników kompresji K r. 18

Sieć neuronowa interpolująca Interpolacja jest procesem polegającym na określeniu wartości funkcji w punktach pośrednich w stosunku do wartości zmierzonych. Jej celem jest przywrócenie rzeczywistej, pełnej postaci niepełnego zbioru danych na podstawie jego fragmentów. Przy formułowaniu matematycznych założeń przyjmuje się ciągłość funkcji oraz jej pierwszej pochodnej. Sieć neuronowa jednokierunkowa o sigmoidalnej funkcji aktywacji może z powodzeniem spełniać funkcje układu interpolującego. Warstwa wejściowa reprezentuje dane niepełne dotyczące sygnałów zmierzonych. Warstwa wyjściowa odpowiada danym interpolowanym. Liczba danych wyjściowych jest większa niż wejściowych, układ jest więc źle uwarunkowany i trudno jest uzyskać dobre zdolności uogólniania. Zastosowanie sieci z rozszerzeniem funkcyjnym Pao polepsza uwarunkowanie problemu interpolacyjnego i powiększa zdolności uogólniania sieci. 19

Modelowanie obiektów dynamicznych W odróżnieniu od procesów statycznych, takich jak rozpoznawanie wzorca niezmiennego w czasie, w systemach dynamicznych obiekt podlegający rozpoznaniu zależy od chwilowych wartości par uczących, będących funkcją czasu. Problem identyfikacji obiektu sprowadza się do zbudowania jego modelu i określenia parametrów tego modelu w taki sposób, aby odpowiedzi obiektu y(k) i modelu y (k) na to samo wymuszenie u(k) były sobie równe z określoną tolerancją, to znaczy y y ε Sterowanie adaptacyjne znanego obiektu nieliniowego polega na doborze takiego sterowania u(k), stanowiącego wymuszenie dla obiektu, aby odpowiedź tego obiektu y(k) śledziła i nadążała za odpowiedzią modelu odniesienia y m (k) pobudzonego sygnałem r(k). 20

Sterowanie adaptacyjne Schemat układu sterowania adaptacyjnego r(k) Model odniesienia y m (k) Σ ε u(k) Obiekt y(k) Wielkość y m (k) reprezentuje wielkość zadana obiektu odniesienia przy zadanym dla niego wymuszeniu r(k). Jeżeli w układzie istnieje tylko jedno wymuszenie, to zadaniem procesu adaptacyjnego jest dobór struktury i parametrów sterownika, który sygnał wejściowy r(k) przetworzy w pożądaną postać sygnału sterującego u(k), zapewniającą spełnienie warunku sterowania. Model obiektu jest zbudowany przy wykorzystaniu sieci neuronowych. 21

Zastosowania do predykcji Sieci neuronowe ze względu na dobre właściwości uogólniające dobrze nadają się do rozwiązywania różnego rodzaju zadań predykcyjnych. Szczególnie dobre wyniki uzyskuje się w systemach których działanie powtarza patern jednego z kilku możliwych wzorców, oraz jeżeli informacja ze stanu systemu w poprzednim interwale czasowym jest dobrym wskaźnikiem na to który wzorzec będzie realizowany z kolejnym przedziale czasowym. Przykład: predykcja obciążenia sieci energetycznej 4 podstawowe rodzaje wzorców obciążeń: sobota, niedziela, poniedziałek, inny dzien., każda godzina ma swoja specyfikę istotną informacją jest znajomość obciążenia z poprzedniej godziny (silna korelacja) 22

Zestaw pytań do testu 1. Jaka jest rola preprocesora o strukturze kaskadowej przy rozpoznawaniu obrazu? 2. Jaki jest układ klasyfikatora neuronowego do rozpoznawania obrazów? 3. Jaki jest przykładowy układ sieci neuronowej do kompresji obrazów. 4. Na czym polega hierarchiczny podział danych przy kompresji obrazów? 5. Czy sieć neuronowa może pełnić rolę interpolatora? 23