Zastosowanie sieci neuronowych Kohonena do prognozowania obciążeń elektroenergetycznych

Podobne dokumenty
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Analiza danych OGÓLNY SCHEMAT. Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. Strona 1


Proces narodzin i śmierci

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335


Sieci Neuronowe 2 Michał Bereta

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Neural networks. Krótka historia rozpoznawanie znaków alfanumerycznych.

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

65120/ / / /200

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

I. Elementy analizy matematycznej

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

WikiWS For Business Sharks

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

Lekcja 5: Sieć Kohonena i sieć ART

Alternatywne metody grupowania i wizualizacji wykorzystujące sieci konkurencyjne

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD A

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Budowa optymalnego modelu prognostycznego z wykorzystaniem preprocessingu w sztucznych sieciach neuronowych 1

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA

ZESZYTY NAUKOWE INSTYTUTU POJAZDÓW 2(88)/2012

Weryfikacja hipotez dla wielu populacji

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

Natalia Nehrebecka. Zajęcia 4

Praca podkładu kolejowego jako konstrukcji o zmiennym przekroju poprzecznym zagadnienie ekwiwalentnego przekroju

0 0,2 0, p 0,1 0,2 0,5 0, p 0,3 0,1 0,2 0,4

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Rozkład dwupunktowy. Rozkład dwupunktowy. Rozkład dwupunktowy x i p i 0 1-p 1 p suma 1

Prawdziwa ortofotomapa

Natalia Nehrebecka. Wykład 2

1. SPRAWDZENIE WYSTEPOWANIA RYZYKA KONDENSACJI POWIERZCHNIOWEJ ORAZ KONDENSACJI MIĘDZYWARSTWOWEJ W ŚCIANIE ZEWNĘTRZNEJ

Uczenie sieci radialnych (RBF)

Statystyka. Zmienne losowe

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

PODSTAWA WYMIARU ORAZ WYSOKOŚĆ EMERYTURY USTALANEJ NA DOTYCHCZASOWYCH ZASADACH

Metody predykcji analiza regresji

Opracowanie metody predykcji czasu życia baterii na obiekcie i oceny jej aktualnego stanu na podstawie analizy bieżących parametrów jej eksploatacji.

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

Wielokategorialne systemy uczące się i ich zastosowanie w bioinformatyce. Rafał Grodzicki

Systemy Ochrony Powietrza Ćwiczenia Laboratoryjne

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

Podstawy teorii falek (Wavelets)

Funkcje i charakterystyki zmiennych losowych

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Regulamin promocji zimowa piętnastka

Sieci Neuronowe 1 Michał Bereta

Programowanie Równoległe i Rozproszone

PROGNOZOWANIE SPRZEDAŻY Z ZASTOSOWANIEM ROZKŁADU GAMMA Z KOREKCJĄ ZE WZGLĘDU NA WAHANIA SEZONOWE

Regulamin promocji 14 wiosna

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej

Co to jest grupowanie

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Evaluation of estimation accuracy of correlation functions with use of virtual correlator model

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

Systemy Inteligentnego Przetwarzania wykład 3: sieci rekurencyjne, sieci samoorganizujące się

Teoria niepewności pomiaru (Rachunek niepewności pomiaru) Rodzaje błędów pomiaru

Natalia Nehrebecka. Zajęcia 3

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ

APROKSYMACJA QUASIJEDNOSTAJNA

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.

KONSTRUKCJA OPTYMALNYCH PORTFELI Z ZASTOSOWANIEM METOD ANALIZY FUNDAMENTALNEJ UJĘCIE DYNAMICZNE

Laboratorium ochrony danych

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

Prawdopodobieństwo i statystyka r.

6. ROŻNICE MIĘDZY OBSERWACJAMI STATYSTYCZNYMI RUCHU KOLEJOWEGO A SAMOCHODOWEGO

CAŁKOWANIE NUMERYCZNE całki pojedyncze

Regulamin promocji upalne lato

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

DRZEWA REGRESYJNE I LASY LOSOWE JAKO

Zaawansowane metody numeryczne

PROSTO O DOPASOWANIU PROSTYCH, CZYLI ANALIZA REGRESJI LINIOWEJ W PRAKTYCE

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

8. Optymalizacja decyzji inwestycyjnych

Obliczenia inteligentne Zadanie 4

Określanie mocy cylindra C w zaleŝności od ostrości wzroku V 0 Ostrość wzroku V 0 7/5 6/5 5/5 4/5 3/5 2/5 Moc cylindra C 0,5 0,75 1,0 1,25 1,5 > 2

STARE A NOWE KRAJE UE KONKURENCYJNOŚĆ POLSKIEGO EKSPORTU

Transkrypt:

Tomasz CIECHULSKI 1, Stansław OSOWSKI 1,2 Wojskowa Akadema Technczna, Wydzał Elektronk (1), Poltechnka Warszawska, Wydzał Elektryczny (2) do:10.15199/48.2016.10.48 Zastosowane sec neuronowych Kohonena do prognozowana obcążeń elektroenergetycznych Streszczene. Praca przedstawa analzę zastosowana różnych algorytmów uczących Kohonena w prognozowanu profl obcążeń w małym systeme elektroenergetycznym w Polsce. W badanach numerycznych, przeprowadzonych w środowsku programstycznym MATLAB, wzęły udzał algorytmy WTA, CWTA, gaussowsk WTM oraz algorytm gazu neuronowego WTM. Prognozowane przeprowadzane zostało na podstawe uśrednonych wag neuronów zwycężających w przeszłośc dla danego typu dna tygodna. Abstract.. The paper shows the applcaton of self-organzng methods n Kohonen network for predcton of the profles of load n a small power system n Poland. Four learnng methods were used: WTA, CWTA, Gaussan WTM and neural gas. The predcton of power consumpton has been lmted to the profle of load. The vector profle prognoss s equal to the average of vectors of the wnnng neurons n the approprate days of the week and month. The applcaton of self-organzng methods n Kohonen network for predcton of the profles of load n a small power system Słowa kluczowe: prognozowane obcążeń, sec neuronowe Kohonena, algorytmy uczące, uczene samoorganzujące ze współzawodnctwem. Keywords: electrc load forecast, neural Kohonen network, learnng algorthms, unsupervsed learnng. Wstęp Praca przedstawa zastosowane sec samoorganzujących, w szczególnośc sec Kohonena, do prognozowana obcążeń w małym systeme elektroenergetycznym. Przeanalzowane zostały różne algorytmy samoorganzacj (WTA, CWTA, gaussowsk WTM, algorytm gazu neuronowego WTM [5]) pod kątem ch zdolnośc do mnmalzacj wartośc oczekwanej znekształcena, czyl błędu kwantyzacj. Algorytm uczący, przy użycu którego uzyskuje sę najnższy błąd kwantyzacj, został użyty do prognozowana rozkładu czasowego obcążeń elektroenergetycznych. Praca przedstawa analzuje wynk statystyczne prognozowana. Dekompozycja obcążena na składową stałą zmenną Obcążene elektroenergetyczne każdej doby zawera pewne statystyczne regularne powtarzające sę prawdłowośc tworzące wzorzec godznny obcążena elektroenergetycznego systemu, który podlega cyklcznym zmanom [1,3,7,9]. Aby wyelmnować wpływ tych zman, specyfcznych dla danego dna roku, wyodrębnono część zmenną obcążena dla każdej godzny analzowanego dna, pozostającej po odjęcu średnego obcążena badanej doby. W ten sposób powstaje tak zwany profl godznny obcążena zmennego dla dna j-tego, który wyraża sę wzorem (1) p ( j, h) P ( j, h) P ( j) rz gdze: h = 1, 2,..., 24 kolejne godzny doby; p(j,h) wektor obcążeń zmennych (proflowych) dna j-tego, p j = [p(j,1), p(j,2),..., p(j,24)]; P rz (j,h) rzeczywsty pobór mocy w systeme elektroenergetycznym o godzne h w dnu j-tym; P m (j) obcążene średne systemu w dnu j-tym. Profl ten będze poddany prognozowanu przy użycu sec Kohonena [5]. W badanach eksperymentalnych użyto danych z małego systemu elektroenergetycznego obejmujących osem lat: od 2000 do 2007 roku (łączne 2922 dn). Zbór ten podzelony został na podzbór uczący oraz weryfkujący (zbór testujący ne uczestnczący w uczenu służący sprawdzenu wytrenowanego systemu predykcj). W skład zboru danych uczących wchodzło 6 lat z okresu 2000 2005 (czyl 2192 dn), natomast w skład m zboru danych testujących wchodzą 2 lata: 2006 2007 (czyl 730 dn). Metody badawcze Celem uczena w secach samoorganzujących poprzez konkurencję jest mnmalzacja błędu kwantyzacj, który wyraża sę wzorem [5] p 2 1 (2) Eq x ww ( ) p 1 gdze: x wektor wejścowy; p lczba danych (wektorów wejścowych) podlegających samoorganzacj; w w() waga neuronu zwycężającego przy prezentacj wektora x. Proces uczena neuronów samoorganzujących dokonujących grupowana danych w przestrzen welowymarowej może być defnowany na wele sposobów. W pracy zastosowano adaptację wag neuronów w trybe on-lne, w którym każdy neuron jest modyfkowany po pojedynczej k-tej prezentacj wzorca wejścowego x według odpowednego algorytmu. Zastosowano cztery odmany algorytmów samoorganzacj poprzez konkurencję: algorytm WTA, CWTA, WTM gaussowsk gazu neuronowego. Algorytm WTA Perwszym algorytmem użytym w badanach był zwykły algorytm WTA (Wnner Takes All). Dąży sę w nm do mnmalzacj odległośc wektora x od wektora wagowego neuronu zwycęskego lub do maksymalzacj loczynu skalarnego wektora uczącego x oraz wektora wag w: x T w max. W ten sposób wyłana sę neuron zwycęzcę. Zwycęsk neuron adaptuje swoje wag w kerunku wektora x według wzoru (3), w którym η oznacza współczynnk uczena o wartośc malejącej lnowo w kolejnych teracjach. Pozostałe neurony ne adaptują swoch wag [6]. (3) ww ww ( x ww ) W toku badań symulacyjnych w środowsku MATLAB [5], wymary macerzy neuronów ustalono na 10 10 (lczba neuronów równa 100). Użyto cągłych zman sąsedztwa według funkcj gaussowskej. Na rysunku 1 przedstawono odwzorowane danych przez seć Kohonena z użycem PRZEGLĄD ELEKTROTECHNICZNY, ISSN 0033-2097, R. 92 NR 10/2016 209

algorytmu WTA. Rysunek 1a prezentuje wynk rzutowana PCA [5] na dwa najważnejsze składnk główne, a rys. 1b kolejne wartośc 24-elementowych wektorów wagowych 100 neuronów Kohonena ukształtowane w wynku procesu uczącego. Wdoczne są znaczne różnce w lokalzacj wzorca wag ( ) poszczególnych neuronów zwycęzców od położena danych testujących ( ). Wektor wagowy zwycęzców ne reprezentuje odpowedno werne położena wektora rzeczywstych obcążeń energetycznych. Na rys. 1b przedstawono rozkład obcążeń proflowych przypsanych 100 neuronom sec Kohonena dla algorytmu WTA. Zaobserwować można znaczną różncę w kształce obcążeń proflowych 24-godznnych przypsanych 100 neuronom w porównanu do typowego dobowego proflu obcążena. (4) d (x,w w ) mn 1 N p pmn N d gdze: N lczba zwycęstw -tego neuronu; wartość startowa N = 1, d= x-w norma wektorowa określająca odległość wektora x od wag neuronu w. Następne modyfkowane są wag neuronu zwycęskego w w w kerunku zadeklarowanego wektora wejścowego x. Rys.2. Odwzorowane: danych uczących przez algorytm CWTA sec Kohonena za pomocą przekształcena PCA wraz z danym testującym, obcążena proflowe przypsane 100 neuronom sec Rys.1. Odwzorowane: dwuwymarowe danych uczących przez algorytm WTA sec Kohonena za pomocą przekształcena PCA wraz z danym testującym, obcążena proflowe przypsane 100 neuronom sec Przy 100 neuronach borących udzał w oblczenach, uzyskano błąd kwantyzacj E q = 0,1343. Algorytm CWTA Zastosowany algorytm uczący zwany jest w skróce CWTA (Conscence Wnner Takes All). Zgodne z tym algorytmem, podobne jak w WTA, tylko zwycęsk neuron ma prawo adaptacj swoch wag. Dla unknęca przypadku, w którym pewne neurony ne mają żadnych szans wygrać z neuronam najslnejszym na skutek nefortunnej ncjalzacj losowej wag, wprowadzony został tzw. mechanzm sumena (ang. conscence). Podczas uczena metodą CWTA wyznaczany jest w perwszej kolejnośc neuron zwycęsk. Neuron zwycęsk to tak, którego wag synaptyczne są najbardzej zblżone do przyłożonego wektora danych wejścowych z uwzględnenem lczby dotychczasowych zwycęstw, zgodne ze wzorem [5] Norma d może być normą Eukldesową lub defnowaną w postac loczynu skalarnego. Neuron zwycęsk podlega w trakce uczena adaptacj wag według reguły Kohonena zgodne ze wzorem (5). Pozostałe neurony przegrywające konkurencje pozostają przy swoch dotychczasowych wartoścach wag. (5) w ( k 1) w ( k) ( k) x w ( k) gdze η oznacza współczynnk uczena, malejący w trakce kolejnych teracj do zera. Na rysunku 2a przedstawono odwzorowane dwuwymarowe danych uczących stanowących wektory wagowe neuronów sec Kohonena ( ) przy wykorzystanu algorytmu uczącego CWTA przekształconych za pomocą PCA wraz z danym testującym ( ). Zaobserwować można znaczną poprawę wernośc odwzorowana lokalzacj danych testujących przez wektory wagowe zwycęzców (obszar danych wejścowych wag neuronów zwycęskch jest znaczne bardzej spójny nż w przypadku algorytmu WTA). Na rysunku 2b przedstawono rozkład obcążeń proflowych przypsanych 100 neuronom sec Kohonena dla algorytmu CWTA. W tym przypadku równeż wdać 210 PRZEGLĄD ELEKTROTECHNICZNY, ISSN 0033-2097, R. 92 NR 10/2016

poprawę, gdyż kształt obcążeń przypsany neuronom jest zblżony do typowego dobowego proflu obcążena. Przy 100 neuronach błąd kwantyzacj dla algorytmu CWTA wynósł Eq = 0,0603. Względem algorytmu WTA jest to znaczący spadek wartośc błędu o około 55%. Algorytm gaussowsk WTM Kolejnym zbadanym algorytmem jest WTM (Wnner Takes Most). Różn sę on od poprzednch tym, że ne tylko zwycęsk neuron ma prawo adaptować swoje wag, ale równeż neurony z jego sąsedztwa. Im wększa odległość danego neuronu od zwycęzcy, tym mnejsza jest zmana wartośc wag tego neuronu. Adaptacja wag neuronów przebega według wzoru Kohonena [5]. (6) w w G, x)[ x w ] ( gdze: neurony należące do sąsedztwa zwycęzcy; η współczynnk uczena; G(,x) funkcja gaussowska sąsedztwa. W szczególnym przypadku przyjmując funkcję sąsedztwa w postac G(,x) = 1 dla = w oraz G(,x) = 0 dla w otrzymuje sę klasyczny algorytm WTA. Kohonena dla algorytmu gaussowskego WTM. Przy 100 neuronach borących udzał w uczenu błąd kwantyzacj wynósł E q = 0,0790. Jest to zatem wartość o ponad 31% wększa nż ta, uzyskana metodą CWTA. Algorytm gazu neuronowego WTM Algorytm gazu neuronowego jest pewną odmaną algorytmu WTM. Wszystke neurony podlegają sortowanu w każdej teracj w zależnośc od odległośc neuronów od wektora x. W kolejnym kroku neurony są sortowane w porządku narastających odległośc zgodne ze wzorem [5] d d d d (7) 0 1 2... n1 W algorytme tym funkcja sąsedztwa G(,x) jest defnowana według wzoru m( ) (8) G(, x ) exp gdze: m() kolejność neuronów posortowanych (m() = 0, 1, 2,..., n 1; λ parametr malejący w funkcj czasu. Rys.3. Odwzorowane: danych wejścowych przez algorytm gaussowsk WTM sec Kohonena za pomocą przekształcena PCA, obcążena proflowe przypsane 100 neuronom sec Na rysunku 3a przedstawono odwzorowane danych uczących uzyskane w wynku uczena wektorów wag ( ) sec Kohonena z wykorzystanem algorytmu gaussowskego WTM funkcj sąsedztwa gaussowskego przekształconych za pomocą PCA (dane systemu elektroenergetycznego oznaczone symbolem ). Zbeżność odwzorowana danych poprzez wektory wagowe neuronów jest gorsza nż w przypadku CWTA. Rysunek 3b przedstawa porównawczo rozkład obcążeń proflowych przypsanych 100 neuronom sec Rys.4. Odwzorowane: danych uczących przez algorytm gazu neuronowego WTM sec Kohonena za pomocą przekształcena PCA, obcążena proflowe przypsane 100 neuronom sec Jeśl λ = 0, wtedy adaptacj wag podlega wyłączne neuron zwycęzca, a węc otrzymujemy algorytm WTA. Jeżel natomast λ 0, wtedy wag welu neuronów podlegają adaptacj, a jej ntensywność zależy od aktualnej, zmenającej sę w czase wartośc funkcj sąsedztwa G(,x). Na rysunku 4a przedstawono położena wektorów wagowych ( ) sec Kohonena z wykorzystanem metody gazu neuronowego WTM, przekształconych za pomocą PCA oraz danych uczących ( ). Dokładność odwzorowana jest zblżona do tej, uzyskanej za pomocą metody CWTA. Na rysunku 4b przedstawono rozkład obcążeń proflowych przypsanych 100 neuronom sec Kohonena dla algorytmu gazu neuronowego WTM. PRZEGLĄD ELEKTROTECHNICZNY, ISSN 0033-2097, R. 92 NR 10/2016 211

Uzyskano błąd kwantyzacj E q = 0,0610. Jest to błąd tylko około 1,1% wększy nż błąd kwantyzacj w metodze CWTA. Spośród czterech przebadanych algorytmów uczących, najmnejszy błąd kwantyzacj występuje w przypadku użyca w uczenu algorytmu CWTA wynos 0,0603. Wynk porównawcze błędów kwantyzacj odpowadające różnym algorytmom uczącym przedstawono w tabel 1. Tabela 1. Zestawene błędów kwantyzacj dla różnych algorytmów uczących Badany algorytm Błąd kwantyzacj E q CWTA 0,0603 WTA 0,1343 gaussowsk WTM 0,0790 gaz neuronowy WTM 0,0610 Najlepszym dopasowanem obcążeń proflowych 100 neuronów odznacza sę algorytm CWTA (rys. 2a,, natomast najmnejszą dokładność odwzorowana uzyskuje sę stosując algorytm WTA (rys. 1a,. Stąd algorytm CWTA zostane użyty do badań prognostycznych w sec elektroenergetycznej. Prognozowane obcążeń Do badań użyto sec Kohonena o następujących parametrach: algorytm uczący CWTA, wymary sec: 10 10, stała początkowa uczena α = 0,5 zmenająca sę lnowo do zera w kolejnych teracjach, losowa ncjalzacja wartośc wag sec. Dla ustalena przewdywanego obcążena na określony dzeń roku w perwszej kolejnośc utworzona została tablca rozkładów zwycęstw poszczególnych neuronów sec Kohonena dla danego dna tygodna. Na rysunku 5 przedstawony został przykładowo rozkład zwycęstw neuronów dla ponedzałków z dwóch lat (2006 2007). Tabela 2. Zestawene lczby zwycęstw neuronów dla ponedzałków w każdym mesącu w cągu dwóch lat mesąc nr neuronu (lczba zwycęstw) styczeń 6 (1) 20 (2) 22 (3) 43 (2) 46 (1) 92 (1) luty 43 (3) 48 (4) 89 (1) marzec 48 (6) 62 (2) kweceń 10 (4) 49 (1) 60 (1) 62 (1) 85 (1) 93 (1) maj 35 (1) 47 (4) 55 (3) 60 (1) czerwec 35 (8) lpec 35 (3) 38 (6) 55 (1) serpeń 3 (1) 10 (1) 38 (1) 55 (5) wrzeseń 10 (1) 49 (7) paźdzernk 9 (8) 20 (2) lstopad 22 (1) 89 (7) grudzeń 2 (1) 11 (1) 22 (2) 27 (1) 89 (4) Rys.5. Rozkład zwycęstw neuronów dla ponedzałków przy prognoze obcążeń w kolejnych mesącach w cągu dwóch lat Dla każdego mesąca, w cągu dwóch lat, wykonany został hstogram zwycęstw neuronów. Istneją pewne zależnośc charakterystyczne dla konkretnych pór roku, np. w mesącach jesennych (lstopad grudzeń) często zwycężał neuron nr 89 (11 zwycęstw dla dwóch mesęcy) oraz neuron nr 22 (3 zwycęstw. Z kole w mesącach najceplejszych (lpec serpeń) często zwycężał neuron nr 38 (7 zwycęstw dla dwóch mesęcy) oraz neuron nr 55 (6 zwycęstw). W tabel 2 wyszczególnono przykładowo numery neuronów zwycężających w ponedzałk każdego mesąca z okresu dwóch lat oraz podano ch lczbę zwycęstw (wartość w nawase). Aby określć przewdywany profl obcążena energetycznego dla konkretnego dna (np. ponedzałku) w określonym roku, należy przyjąć uśrednone wartośc wag neuronów będących zwycęzcam, do których przynależał w przeszłośc dany dzeń tygodna [3,6,9,10]. Prognozowany wektor proflowy dna j-tego oblcza sę według wzoru (9): (9) p ˆ j n 1 n k 1 j k w j 212 PRZEGLĄD ELEKTROTECHNICZNY, ISSN 0033-2097, R. 92 NR 10/2016

gdze: numer neuronu; j numer dna podlegającego prognozowanu; k j lczba zwycęstw -tego neuronu w dnu j-tym w badanym okrese czasu; w wektor wag zwycęskego neuronu w dnu j-tym z przeszłośc. Na rysunku 6 przedstawono grafczne porównane obcążena dobowego z wartoścam prognozowanym w wybranym dnu (ponedzałek 23.01.2006 roku). Lna przerywana odwzorowuje przebeg znormalzowanego obcążena dobowego po dodanu do wartośc prognozowanej wartośc średnej obcążena w tym dnu (przyjęto wartość średną ponedzałku z poprzednego tygodn, natomast lna cągła wartośc rzeczywste. Kształt obu ln pokrywa sę znacząco dla poszczególnych godzn doby. Błąd MAPE wynósł dla tego przypadku 2,01%. Najwększe rozbeżnośc pomędzy obcążenem a prognozą można zaobserwować dla godzn szczytu weczornego od godz. 16 do godz. 20. Najlepsze dopasowane obu charakterystyk występuje dla godzn porannych od godz. 5 do godz. 10 oraz dla godzn nocnych od godz. 21 do godz. 24. Rys.6. Charakterystyka obcążena dobowego dla wybranego dna w roku (ponedzałek 23.01.2006 rok) wraz z prognozą Tabela 3. Statystyka błędów testowych MAPE dla poszczególnych dn tygodna na przestrzen 2 lat Dzeń tygodna Lczba dn MAPE±std [%] Ponedzałek 105 4,94±0,06 Wtorek 104 2,38±0,02 Środa 104 2,21±0,02 Czwartek 104 1,84±0,01 Pątek 104 4,26±0,03 Sobota 104 3,29±0,02 Nedzela 105 5,18±0,04 Średno - 3,44±0,03 W tabel 3 przedstawono wynk statystyczne błędu MAPE obcążeń dobowych dla wszystkch dn tygodna uzyskane tą metodą dla dwu lat borących udzał w testowanu. Średn błąd prognozy dla wszystkch dn tygodna w testowanym okrese 2 lat wynósł 3,44%. Wnosk W pracy przebadane zostały algorytmy uczące sec samoorganzacyjnej poprzez konkurencję neuronów w zastosowanach prognostycznych proflu obcążena elektroenergetycznego. W perwszej kolejnośc porównano jakość czterech algorytmów samoorganzacj pod względem błędu kwantyzacj w odwzorowanu obcążeń 24-godznnych w małym systeme elektroenergetycznym. Najmnejszym błędem kwantyzacj odznaczała sę metoda CWTA, zaś najwększy błąd kwantyzacj występuje przy użycu metody WTA. Bardzo zblżona wartość błędu kwantyzacj względem algorytmu CWTA występuje dla metody gazu neuronowego WTM. Do potrzeb prognozowana profl obcążeń użyty został najlepszy algorytm CWTA. Właścwa prognoza obcążeń oparta została o analzę lczby zwycęstw poszczególnych neuronów w przeszłośc dla określonego dna tygodna mesąca. Lczba zwycęstw neuronu -tego przekłada sę bezpośredno na uzyskany wektor proflowy, będący efektem prognozy. Wynk numeryczne eksperymentów zostały zaprezentowane w postac błędu MAPE dla poszczególnych dn tygodna z okresu 2 lat poddanych testowanu. Błąd średn MAPE obcążeń w najgorszym przypadku (nedzela, dane testujące z 2 ostatnch lat) osągnął wartość 5,18%. Najlepszy wynk statystyczny uzyskano dla czwartku, dla którego błąd MAPE wynósł 1,84%. Średn wynk prognozy lczony dla wszystkch dn tygodna wynósł 3.44%. Zaletą metody jest łatwa możlwość jej przystosowana do prognozowana średnotermnowego (z wyprzedzenem lczonym w tygodnach mesącach) lub nawet długotermnowego (z wyprzedzenem lczonym w latach). Wynka to z faktu, że prognoza proflu jest nezależna od wyprzedzena może być przeprowadzona z dowolnym wyprzedzenem. O dokładnośc prognozy decydować będze wówczas prognoza wartośc średnch obcążeń dzennych, które z roku na rok mogą podlegać stotnym zmanom. Autorzy: mgr nż. Tomasz Cechulsk, Wojskowa Akadema Technczna, Instytut Systemów Elektroncznych, Zakład Systemów Informacyjno-Pomarowych, ul. Kalskego 2, 00-908 Warszawa, E-mal: tomasz.cechulsk@wat.edu.pl; prof. dr hab. nż. Stansław Osowsk, Poltechnka Warszawska, Instytut Elektrotechnk Teoretycznej Systemów Informacyjno- Pomarowych, ul. Koszykowa 75, 00-661 Warszawa oraz Wojskowa Akadema Technczna, Instytut Systemów Elektroncznych, Zakład Systemów Informacyjno-Pomarowych, ul. Kalskego 2, 00-908 Warszawa E-mal: sto@em.pw.edu.pl. LITERATURA [1] T. Cechulsk, S. Osowsk S, Badane jakośc predykcj obcążeń elektroenergetycznych za pomocą sec neuronowych SVM, RBF MLP, Przegląd Elektrotechnczny 2014, nr 8, pp. 148-151. [2] P. Demartnes, F. Blayo, Kohonen self-organzng maps: s the normalzaton necessary?, Complex Systems 6 (1992), pp. 105-123. [3] A. Lendasse, M. Cottrell, V. Wertz, M. Verleysen, Predcton of electrc load usng Kohonen maps applcaton to the Polsh Electrcty Consumpton, Proceedngs of the Amercan Control Conference, Anchorage, 2002, pp. 3684-3689. [4] MathWorks, Matlab manual user s gude, Mathworks, Natck, 2014. [5] S. Osowsk, Sec neuronowe do przetwarzana nformacj, OWPW, Warszawa 2006. [6] S. Osowsk, K. Swek, The self-organzng neural network approach to load forecastng n the power system, 1999. IJCNN '99 Conference, Washngton, pp. 3401-3404. [7] A. Sorjamaa, J. Hao, N. Reyhan, Y. L, A. Lendasse, Methodology for long-term predcton of tme seres, Neurocomputng, vol. 70, 2007, pp. 2861-2869. [8] T. Cechulsk, S. Osowsk, Ocena wpływu wyodrębnena składowej stałej na jakość prognozy obcążeń elektroenergetycznych, Przegląd Elektrotechnczny, R. 91, Nr 10/2015, pp. 197-200. [9] G. Smon, A. Lendasse, M. Cottrell, M. Verleysen, Long-term tme seres forecastng usng self-organzng maps: the double vector quantzaton method, Proc. ANNPR'2003-Artfcal Neural Networks n Pattern Recognton, 2003, pp. 8-14 [10] M. Martn-Merno, J. Roman, Electrcty load forecastng usng self organzng maps, Proc. ICANN, 2006, pp. 709-716. PRZEGLĄD ELEKTROTECHNICZNY, ISSN 0033-2097, R. 92 NR 10/2016 213