Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Podobne dokumenty
Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Wstęp do sieci neuronowych, wykład 14 Maszyna Boltzmanna

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

wiedzy Sieci neuronowe

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

8. Neuron z ciągłą funkcją aktywacji.

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Podstawy Sztucznej Inteligencji (PSZT)

Prawdopodobieństwo i statystyka

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

SIECI REKURENCYJNE SIECI HOPFIELDA

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Uczenie sieci neuronowych i bayesowskich

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Metody Sztucznej Inteligencji II

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Optymalizacja ciągła

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Sieć przesyłająca żetony CP (counter propagation)

1. Logika, funkcje logiczne, preceptron.

Co to jest model Isinga?

Spacery losowe generowanie realizacji procesu losowego

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Uczenie sieci typu MLP

wiedzy Sieci neuronowe (c.d.)

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Kwantowa wariacyjna metoda Monte Carlo. Problem własny dla stanu podstawowego układu N cząstek

2. P (E) = 1. β B. TSIM W3: Sygnały stochastyczne 1/27

Sztuczne sieci neuronowe

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Reprezentacje grafów nieskierowanych Reprezentacje grafów skierowanych. Wykład 2. Reprezentacja komputerowa grafów

Szeregi czasowe, analiza zależności krótkoi długozasięgowych

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Systemy uczące się Lab 4

Rachunek prawdopodobieństwa Rozdział 6: Twierdzenia graniczne.

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Testowanie hipotez statystycznych. Wprowadzenie

Metody Rozmyte i Algorytmy Ewolucyjne

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Metody probabilistyczne

Zadania z RP 2. seria Podać przykład rozkładów prawdopodobieństwa µ n, µ, takich, że µ n

Symulacje geometrycznych sieci neuronowych w środowisku rozproszonym

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami

Obliczenia iteracyjne

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Grafy Alberta-Barabasiego

Procesy stochastyczne

Podstawy OpenCL część 2

Harmonogramowanie przedsięwzięć

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe

Rozpoznawanie obrazów

Wprowadzenie do Sieci Neuronowych Laboratorium 05 Algorytm wstecznej propagacji błędu

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Weryfikacja hipotez statystycznych

Procesy stochastyczne

Lekcja 5: Sieć Kohonena i sieć ART

Rachunek prawdopodobieństwa Rozdział 6: Twierdzenia graniczne.

Hipotezy statystyczne

Algorytm grupowania danych typu kwantyzacji wektorów

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Granica i ciągłość funkcji. 1 Granica funkcji rzeczywistej jednej zmiennej rzeczywsitej

Hipotezy statystyczne

Matematyka ubezpieczeń majątkowych r.

Algorytmy stochastyczne laboratorium 03

Podstawy sztucznej inteligencji

Prawdopodobieństwo i rozkład normalny cd.

Testowanie hipotez statystycznych.

Sztuczne sieci neuronowe (SNN)

Co to jest grupowanie

Fuzja sygnałów i filtry bayesowskie

4 Równania różniczkowe w postaci Leibniza, równania różniczkowe zupełne

Rozkłady wielu zmiennych

Wykład z Technologii Informacyjnych. Piotr Mika

Inteligentne systemy przeciw atakom sieciowym

2. Układy równań liniowych

Przykłady grafów. Graf prosty, to graf bez pętli i bez krawędzi wielokrotnych.

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Dystrybucje, wiadomości wstępne (I)

Transkrypt:

Wstęp do sieci neuronowych, wykład 9. M. Czoków, J. Piersa 2010-12-07

1 Sieci skierowane 2 Modele sieci rekurencyjnej Energia sieci 3

Sieci skierowane Sieci skierowane Sieci skierowane graf połączeń synaptycznych nie zawiera cykli wierzchołki dają się posortować topologicznie, dynamika odbywa się synchronicznie zgodnie z kolejnością zadaną przez otrzymaną kolejność,

Modele sieci rekurencyjnej Energia sieci Graf sieci dopuszcza istnienie cykli skierowanych, sortowanie topologicznie nie jest możliwe, dynamika nabiera aspektu temporalnego: sieć rozijamy w szereg podsieci powiązanych ze sobą zależnościami czasowymi.

Model sieci rekurencyjnej Modele sieci rekurencyjnej Energia sieci

Model sieci rekurencyjnej Modele sieci rekurencyjnej Energia sieci każda jednostka ma przypisany swój spin σ i { 1, +1} jest to aktualna aktywacja neuronu i może się zmieniać podczas dynamiki, połączenia synaptyczne mają przypisane wagi w ij = w ji R, przyjmujemy w ii = 0, jeżeli krawędzi nie ma w grafie, to przyjmujemy w = 0, ponadto neurony otrzymują swoje pole zewnętrzne h i R podobnie jak wagi są to wartości ustalone w trakcie procesu uczenia.

Model sieci rekurencyjnej Modele sieci rekurencyjnej Energia sieci neuron zmienia swój spin i wysyła informację do sąsiadów, jednakże po zmianie jest nieaktywny przez pewien okres czasu τ r (czas refrakcji), ponadto przesył impulsu po krawędzi zajmuje pewien okres czasu τ p (czas przesyłu, może zależeć od rodzau lub długości krawędzi!)

Dynamika Glaubera Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to sieć jest niewielka i można stosować następującą dynamikę:

Dynamika Glaubera Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to sieć jest niewielka i można stosować następującą dynamikę: wylosuj neuron σ i, przypisz σ i = sign( j w ij σ j + h i ) powtarzaj 1 i 2 aż do ustabilizowania się sytuacji.

Dynamika Glaubera Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to sieć jest niewielka i można stosować następującą dynamikę: wylosuj neuron σ i, przypisz σ i = sign( j w ij σ j + h i ) powtarzaj 1 i 2 aż do ustabilizowania się sytuacji. Oznaczmy M i = j w ijσ j + h i lokalne pole wypadkowe dla jednostki i.

Dynamika Little a Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to działanie przybliżamy dynamiką synchroniczną:

Dynamika Little a Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to działanie przybliżamy dynamiką synchroniczną: wszystkie neurony jednocześnie ustawiają się zgodnie z lokalnym polem wypadkowym, tj, przypisujemy: σ i = sign(m i ) przy wykorzystaniu zestawu spinów z porzedniej iteracji.

Dynamika Little a Modele sieci rekurencyjnej Energia sieci Alternatywne sformułowanie:

Dynamika Little a Modele sieci rekurencyjnej Energia sieci Alternatywne sformułowanie: Rozpocznij z losowego σ 0 Powtarzaj wielokrotnie: Przypisz σ t+1 := sign(w σ t ) gdzie W = [w ij ] i,j=1..n jest macierzą wag, σ t wektorem spinów w t-tym kroku.

Dynamika Hybrydowa Modele sieci rekurencyjnej Energia sieci Jeżeli τ p τ r, to dynamika staje się skomplikowana ze względu na znaczne opóźnienia w przesyle. można przybliżać lokalne małe fragmenty sieci (tj. bliskie jednoskti) dynamiką asynchroniczną (Glaubera), w dużej skali należy stosować dynamikę synchroniczną uwzględniającą różnice czasowe.

Energia sieci Modele sieci rekurencyjnej Energia sieci Określmy energię sieci (Hammiltonian) zależny od bieżącej konfiguracji spinów neuronów: E( σ) = 1 w ij σ i σ j 2 i i j h i σ i Wagi w ij oraz pola zewnętrzne h i są ustalone, więc energia zależy tylko od spinów.

Twierdzenie Modele sieci rekurencyjnej Energia sieci Twierdzenie W trakcie dynamiki Glaubera energia sieci nie ulega wzrostowi.

Dowód Modele sieci rekurencyjnej Energia sieci Załóżmy, że z konfiguracji σ przeszliśmy do σ. Niech σ i będzie neuronem, który zmieniliśmy, tj σ i = σ i = sign(m i ).

Dowód Modele sieci rekurencyjnej Energia sieci Załóżmy, że z konfiguracji σ przeszliśmy do σ. Niech σ i będzie neuronem, który zmieniliśmy, tj σ i = σ i = sign(m i ). Zauważmy, że E( σ) = 1 2 j i,k i w jk σ j σ k 1 2 2 w ij σ i σ j h j σ j h i σ i j j i

Dowód Modele sieci rekurencyjnej Energia sieci Załóżmy, że z konfiguracji σ przeszliśmy do σ. Niech σ i będzie neuronem, który zmieniliśmy, tj σ i = σ i = sign(m i ). Zauważmy, że E( σ) = 1 2 j i,k i w jk σ j σ k 1 2 2 w ij σ i σ j h j σ j h i σ i j j i Zmieniliśmy tylko spin σ i więc j i,k i w jkσ j σ k oraz j i h jσ j nie wpływają na zmianę energii.

Dowód Modele sieci rekurencyjnej Energia sieci Załóżmy, że z konfiguracji σ przeszliśmy do σ. Niech σ i będzie neuronem, który zmieniliśmy, tj σ i = σ i = sign(m i ). Zauważmy, że E( σ) = 1 2 j i,k i w jk σ j σ k 1 2 2 w ij σ i σ j h j σ j h i σ i j j i Zmieniliśmy tylko spin σ i więc j i,k i w jkσ j σ k oraz j i h jσ j nie wpływają na zmianę energii. Obliczmy E( σ ) E( σ) = = j w ij σ iσ j h i σ i j w ij σ i σ j h i σ i =

Dowód cd. Modele sieci rekurencyjnej Energia sieci E( σ ) E( σ) = j w ij σ iσ j h i σ i + j w ij σ i σ j + h i σ i =

Dowód cd. Modele sieci rekurencyjnej Energia sieci E( σ ) E( σ) = j w ij σ iσ j h i σ i + j w ij σ i σ j + h i σ i = j w ij (σ i σ i )σ j h i (σ i σ i ) =

Dowód cd. Modele sieci rekurencyjnej Energia sieci E( σ ) E( σ) = j w ij σ iσ j h i σ i + j w ij σ i σ j + h i σ i = j w ij (σ i σ i )σ j h i (σ i σ i ) = (σ i σ i ) j w ij σ j h i = (σ i σ i )( M i )

Dowód cd. Modele sieci rekurencyjnej Energia sieci E( σ ) E( σ) = j w ij σ iσ j h i σ i + j w ij σ i σ j + h i σ i = j w ij (σ i σ i )σ j h i (σ i σ i ) = (σ i σ i ) j w ij σ j h i = (σ i σ i )( M i ) Przypomnijmy, że podstawialiśmy σ i := sign(m i ). E( σ ) E( σ) = (sign(m i ) ( sign(m i ))M i = 2 M i 0

Wniosek Modele sieci rekurencyjnej Energia sieci Jeżeli ilość neuronów w sieci n jest skończona, to ilość możliwych konfiguracji σ również i podczas dynamiki osiągane jest minimum (być może lokalne!) funkcji energetycznej w skończonym czasie.

Wniosek Modele sieci rekurencyjnej Energia sieci Jeżeli ilość neuronów w sieci n jest skończona, to ilość możliwych konfiguracji σ również i podczas dynamiki osiągane jest minimum (być może lokalne!) funkcji energetycznej w skończonym czasie. Wykorzystamy dynamikę asynchroniczną sieci do znajdowania rozwiązania problemów optymalizacyjnych. Wystarczy do tego sprecyzować wagi i pola lokalne.

Cel Chcemy stwirzyć pamięć adresowaną zawartością, tj mając dany fragment obrazu będzie w stanie go odtworzyć.

Cel Chcemy stwirzyć pamięć adresowaną zawartością, tj mając dany fragment obrazu będzie w stanie go odtworzyć. Oznaczmy: I µ = {ξ µ i } obraz wzorcowy, i = 1..N ilość pikseli, µ = 1..P ilość wzorców σ i neurony sieci, po jednym neuronie na każdy piksel obrazu, w ij wagi między neuronami, h i pola zewnętrzne,

Oznaczmy stopień zgodności stanu sieci σ ze wzorcem I µ M µ ( σ) = 1 N N σ i ξ µ i = 1 N σ, I µ i=1

Oznaczmy stopień zgodności stanu sieci σ ze wzorcem I µ M µ ( σ) = 1 N N σ i ξ µ i = 1 N σ, I µ i=1 M µ ( σ) = 1 oznacza pełną zgodność, M µ ( σ) = 1 całkowitą niezgodność, ale przy naszych oznaczeniach należy pamiętać, że jest to idealny negatyw.

Energia Zdefiniujmy energię E( σ) = N 2 P (M µ ( σ)) 2 = µ=1

Energia Zdefiniujmy energię E( σ) = N 2 = N 2 µ=1 P (M µ ( σ)) 2 = µ=1 ( ) 2 P 1 N σ i ξ µ i = N i=1

Energia Zdefiniujmy energię E( σ) = N 2 = N 2 µ=1 P (M µ ( σ)) 2 = µ=1 ( ) 2 P 1 N σ i ξ µ i = N i=1 N 2 P 1 N N 2 µ=1 N i=1 j=1,j i σ i σ j ξ µ i ξ µ j + 1 N 2 N σi 2 ξ µ i i=1 2

Energia Zdefiniujmy energię E( σ) = N 2 = N 2 µ=1 P (M µ ( σ)) 2 = µ=1 ( ) 2 P 1 N σ i ξ µ i = N i=1 N 2 P 1 N N 2 µ=1 N i=1 j=1,j i σ i σ j ξ µ i ξ µ j + 1 N 2 N σi 2 ξ µ i i=1 2

Energia E( σ) = 1 2N P i j µ=1 σ i σ j ξ µ i ξ µ j

Energia E( σ) = 1 2N P i j µ=1 σ i σ j ξ µ i ξ µ j = 1 2N N i j µ=1 P σ i σ j ξ µ i ξ µ j

Energia E( σ) = 1 2N P i j µ=1 σ i σ j ξ µ i ξ µ j = 1 2N = 1 2 N i j µ=1 N σ i σ j 1 N i j P σ i σ j ξ µ i ξ µ j P ξ µ i ξ µ j µ=1

Wagi Otzymujemy zależności na wagi: w ij = 1 N P ξ µ i ξ µ j µ=1

Wagi Otzymujemy zależności na wagi: w ij = 1 N P ξ µ i ξ µ j µ=1 oraz na pola zewnętrzne h i = 0

Wagi Otzymujemy zależności na wagi: w ij = 1 N P ξ µ i ξ µ j µ=1 oraz na pola zewnętrzne h i = 0 Zerowe pola zewnętrzne sprawiają, że sieć nie ma preferencji odnośnie kolorów. Negatywy są rozpoznawane tak samo jak obrazy oryginalne.

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ,

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ, 2 poddajemy bieżącą konfigurację ewolucji Glaudera:

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ, 2 poddajemy bieżącą konfigurację ewolucji Glaudera: 1 losujemy jednostkę i,

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ, 2 poddajemy bieżącą konfigurację ewolucji Glaudera: 1 losujemy jednostkę i, 2 ustawiamy spin σ i := sign( j w ijσ j ),

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ, 2 poddajemy bieżącą konfigurację ewolucji Glaudera: 1 losujemy jednostkę i, 2 ustawiamy spin σ i := sign( j w ijσ j ), 3 powtarzamy 2.1 i 2.2 aż stan sieci się ustabilizuje,

Rekonstrukcja obrazu dynamika Glaudera Gdy sieć jest już nauczona możemy odsyskać wejściowy zaszumiony obraz: 1 obraz wejściowy konwertujemy na konfigurację spinów σ, 2 poddajemy bieżącą konfigurację ewolucji Glaudera: 1 losujemy jednostkę i, 2 ustawiamy spin σ i := sign( j w ijσ j ), 3 powtarzamy 2.1 i 2.2 aż stan sieci się ustabilizuje, 3 wyjściowy obraz odzyskujemy dekodując wyjściową konfigurację sponów σ.

Rekonstrukcja obrazu dynamika Little a Ustaloną mamy macierz wag W = (w ij ) N i,j=1 1 obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów σ 0,

Rekonstrukcja obrazu dynamika Little a Ustaloną mamy macierz wag W = (w ij ) N i,j=1 1 obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów σ 0, 2 poddajemy konfigurację ewolucji:

Rekonstrukcja obrazu dynamika Little a Ustaloną mamy macierz wag W = (w ij ) N i,j=1 1 obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów σ 0, 2 poddajemy konfigurację ewolucji: 1 Przypisujemy σ t+1 := W σ t σ t+1 i := sign(σ t+1 i )

Rekonstrukcja obrazu dynamika Little a Ustaloną mamy macierz wag W = (w ij ) N i,j=1 1 obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów σ 0, 2 poddajemy konfigurację ewolucji: 1 Przypisujemy σ t+1 := W σ t σ t+1 i := sign(σ t+1 i ) 2 powtarzamy 2.1 aż stan sieci się ustabilizuje,

Rekonstrukcja obrazu dynamika Little a Ustaloną mamy macierz wag W = (w ij ) N i,j=1 1 obraz wejściowy konwertujemy na konfigurację początkową (t = 0) spinów σ 0, 2 poddajemy konfigurację ewolucji: 1 Przypisujemy σ t+1 := W σ t σ t+1 i := sign(σ t+1 i ) 2 powtarzamy 2.1 aż stan sieci się ustabilizuje, 3 wyjściowy obraz odzyskujemy dekodując wyjściową konfigurację spinów σ T.

Trajektoria odzyskiwania obrazu 0-0.5-1 -1.5-2 -2.5-10 -5 0 0 5 10 5-5 10-10

Stabilność wzorca Załóżmy, że wzorce I µ są niezależne, tj. prawdopodobieństwo, że losowy piksel jest włączony jest to samo P(ξ µ i = +1) = P(ξ µ i = 1) = 1 2

Stabilność wzorca Załóżmy, że wzorce I µ są niezależne, tj. prawdopodobieństwo, że losowy piksel jest włączony jest to samo Pytamy: P(ξ µ i = +1) = P(ξ µ i = 1) = 1 2 kiedy I µ jest punktem stałym dynamiki sieci?

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i =

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i = j ( ) 1 ξ µ i ξ µ j N µ σ j

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i = j ( ) 1 ξ µ i ξ µ j σ j = N µ µ M µ ( σ)ξ µ i

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i = j ( ) 1 ξ µ i ξ µ j σ j = N µ µ M µ ( σ)ξ µ i Podstawmy za konfigurację wzorzec σ := I µ 0.

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i = j ( ) 1 ξ µ i ξ µ j σ j = N µ µ M µ ( σ)ξ µ i Podstawmy za konfigurację wzorzec σ := I µ 0. M i (I µ 0 ) = ξ µ 0 i + µ µ 0 M µ (I µ 0 )ξ µ i

Stabilność wzorca Policzmy: M i ( σ) = j w ij σ i = j ( ) 1 ξ µ i ξ µ j σ j = N µ µ M µ ( σ)ξ µ i Podstawmy za konfigurację wzorzec σ := I µ 0. M i (I µ 0 ) = ξ µ 0 i + µ µ 0 M µ (I µ 0 )ξ µ i }{{} } {{ } sygnał szum

Stabilność wzorca Założyliśmy, że: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j

Stabilność wzorca Założyliśmy, że: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Zdefiniujmy zmienną losową Ξ: Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1:

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) =

Stabilność wzorca Założyliśmy, że: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Zdefiniujmy zmienną losową Ξ: Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) = 1 ξ µ i ξ µ j = N j

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) = 1 ξ µ i ξ µ i j = Ξ i N 0 N N N 1 j

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) = 1 ξ µ i ξ µ i j = Ξ i N 0 1 D N(0, 1) N N N 1 N j

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) = 1 ξ µ i ξ µ i j = Ξ i N 0 1 D N(0, 1) N(0, 1 N N N 1 N N ) j

Stabilność wzorca Założyliśmy, że: Zdefiniujmy zmienną losową Ξ: P(ξ µ i ξ µ j = +1) = P(ξ µ i ξ µ j = 1) = 1 2 Ξ = ξ µ i ξ µ j Wartość oczekiwana wynosi EΞ = 0, wariancja D 2 Ξ = 1: Z centralnego twiedzenia granicznego. M µ (I µ 0 ) = 1 ξ µ i ξ µ i j = Ξ i N 0 1 D N(0, 1) N(0, 1 N N N 1 N N ) j I dalej: M µ (I µ0 )ξ µ i N(0, P 1 N ) µ µ 0

Stabilność wzorca Aby nie zepsuć wzorca musi być µ µ 0 M µ (I µ 0 )ξ µ i N(0, P 1 N ) < 1

Stabilność wzorca Aby nie zepsuć wzorca musi być µ µ 0 M µ (I µ 0 )ξ µ i N(0, P 1 N ) < 1 Wariancja musi być bardzo mała P 1 N 1

Stabilność wzorca Aby nie zepsuć wzorca musi być µ µ 0 M µ (I µ 0 )ξ µ i N(0, P 1 N ) < 1 Wariancja musi być bardzo mała czyli P 1 N 1 P N

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz.

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz. Prawdopodobieństwo że uda się odtworzyć i-ty piksel wynosi: P(N(0, α) < 1 2R N ) =

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz. Prawdopodobieństwo że uda się odtworzyć i-ty piksel wynosi: P(N(0, α) < 1 2R N ) = Φ(1 2R/N α ) =

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz. Prawdopodobieństwo że uda się odtworzyć i-ty piksel wynosi: P(N(0, α) < 1 2R N 2R/N ) = Φ(1 ) = 1 Φ( 1 2R/N ) α α

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz. Prawdopodobieństwo że uda się odtworzyć i-ty piksel wynosi: P(N(0, α) < 1 2R N 2R/N ) = Φ(1 ) = 1 Φ( 1 2R/N ) α α Chcemy odtworzyć wszystkie piksele (a nie jeden), więc prawdopodobieństwo wyniesie ( 1 Φ( 1 2R/N α )) N

Wzorzec I µ 0 zaburzamy w R punktach. Szum nadal wynosi N(0, P N ), natomiast sygnał (1 R N )ξµ 0 i. Szukamy bezpiecznego α = P N, aby wciąż dało się odzyskać obraz. Prawdopodobieństwo że uda się odtworzyć i-ty piksel wynosi: P(N(0, α) < 1 2R N 2R/N ) = Φ(1 ) = 1 Φ( 1 2R/N ) α α Chcemy odtworzyć wszystkie piksele (a nie jeden), więc prawdopodobieństwo wyniesie ( 1 Φ( 1 2R/N ) N ) 1 N Φ( 1 2R/N ) α α

Skorzystamy z przybliżenia Φ 1 x x2 exp( 2π 2 ).

Skorzystamy z przybliżenia Φ 1 x x2 exp( 2π 2 ). Jeżeli ograniczymy dopuszczalny błąd przez δ, to δ > N 1 2R/N Φ( ) α

Skorzystamy z przybliżenia Φ 1 x x2 exp( 2π 2 ). Jeżeli ograniczymy dopuszczalny błąd przez δ, to δ > N 1 2R/N Φ( ) α N α (1 2R/N) 2π 2R/N)2 exp( (1 ) 2α

Skorzystamy z przybliżenia Φ 1 x x2 exp( 2π 2 ). Jeżeli ograniczymy dopuszczalny błąd przez δ, to δ > N 1 2R/N Φ( ) α N α (1 2R/N) 2π N α exp( (1 2R/N)2 2α ) 2π 2R/N)2 exp( (1 ) 2α

Skorzystamy z przybliżenia Φ 1 x x2 exp( 2π 2 ). Jeżeli ograniczymy dopuszczalny błąd przez δ, to δ > N 1 2R/N Φ( ) α Po zlogarytmowaniu: N α (1 2R/N) 2π N α exp( (1 2R/N)2 2α ) 2π (1 2R N )2 2α ( ln δ + ln N + ln α ) 2 2R/N)2 exp( (1 ) 2α

α (1 2R N )2 2 ln N 1 2 ln N

Wniosek α (1 2R N )2 2 ln N 1 2 ln N W sieci o N wierzchołkach można przechować maksymalnie wzorców. N 4 log N

-0.6-0.4-0.2 0-0.8-1.4-1.2-10 -5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10

Niepoprawne odzyskiwanie za dużo wzorców -0.5 0-1.5-1 -2-10 10-5 5 0 0 5-5 10-10 -0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10-0.2 0-0.4-0.6-0.8-1 -10-5 5 0 0 5-5 10-10 10