POZNAN UNIVERSITY OF TECHNOLOGY ACADEMIC JOURNALS No 100 Electrical Engineering DOI /j

Podobne dokumenty
MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 2. MODELE SYSTEMU IEEE RTS

MODELOWANIE NEURONALNE ROZWOJU SYSTEMU ELEKTROENERGETYCZNEGO. CZĘŚĆ 1. OBSZARY MODELOWANIA

KWANTOWA SZTUCZNA SIEĆ NEURONOWA. CZĘŚĆ 2. MODEL RUCHU RAMIENIA ROBOTA PR-02

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

MOŻLIWOŚCI INFORMATYKI KWANTOWEJ DO POPRAWY DOKŁADNOŚCI MODELOWANIA. CZĘŚĆ 2 KAE NA PRZYKŁADZIE RUCHU ROBOTA PR-02

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH W PROGNOZOWANIU

SYSTEMOWY ALGORYTM EWOLUCYJNY DO POPRAWY MODELU TOWAROWEJ GIEŁDY ENERGII ELEKTRYCZNEJ. CZĘŚĆ 1. ISTOTA I MOŻLIWOŚCI ALGORYTMU

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

Zastosowania sieci neuronowych

Algorytmy sztucznej inteligencji

Informatyka I stopień (I stopień / II stopień) ogólno akademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

Uczenie sieci typu MLP

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

ĆWICZENIE 5: Sztuczne sieci neuronowe

METODA MACIERZOWA OBLICZANIA OBWODÓW PRĄDU PRZEMIENNEGO

MATLAB Neural Network Toolbox przegląd

Zastosowania sieci neuronowych - automatyka identyfikacja sterowanie

PRZEWODNIK PO PRZEDMIOCIE

Politechnika Warszawska

Zastosowanie sztucznych sieci neuronowych w prognozowaniu szeregów czasowych (prezentacja 2)

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Zastosowania sieci neuronowych

ZASTOSOWANIE AUTORSKIEJ METODY WYZNACZANIA WARTOŚCI PARAMETRÓW NOWOCZESNYCH SYSTEMÓW TECHNICZNYCH DO PŁUGÓW I OPRYSKIWACZY POLOWYCH

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Elementy inteligencji obliczeniowej

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

WYKORZYSTANIE SZTUCZNYCH SIECI NEURONOWYCH DO PROGNOZOWANIA CEN NA GIEŁDZIE ENERGII

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

SYSTEMOWY ALGORYTM EWOLUCYJNY DO POPRAWY PARAMETRÓW ROBOTA PRZEMYSŁOWEGO PR-02

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

WYZNACZANIE WARTOŚCI PODSTAWOWYCH PARAMETRÓW TECHNICZNYCH NOWOCZESNYCH KOMBAJNÓW ZBOŻOWYCH PRZY UŻYCIU SSN

Sztuczne siei neuronowe - wprowadzenie

PRZEWODNIK PO PRZEDMIOCIE

Podstawy Sztucznej Inteligencji

MATLAB Neural Network Toolbox uczenie sieci (dogłębnie)

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

PRZEWODNIK PO PRZEDMIOCIE

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Nazwa przedmiotu: METODY SZTUCZNEJ INTELIGENCJI W ZAGADNIENIACH EKONOMICZNYCH Artificial intelligence methods in economic issues Kierunek:

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym

Inżynieria Rolnicza 5(114)/2009

Deep Learning na przykładzie Deep Belief Networks

ANALIZA WŁAŚCIWOŚCI FILTRU PARAMETRYCZNEGO I RZĘDU

ALGORYTMY GENETYCZNE ćwiczenia

Identyfikacja obiektów dynamicznych za pomocą sieci neuronowych

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Projekt Sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Porównanie wyników symulacji wpływu kształtu i amplitudy zakłóceń na jakość sterowania piecem oporowym w układzie z regulatorem PID lub rozmytym

Przykład optymalizacji struktury sztucznej sieci neuronowej metodą algorytmów genetycznych

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SZTUCZNE SIECI NEURONOWE W MODELOWANIU ZJAWISK ZACHODZĄCYCH NA RYNKU NIERUCHOMOŚCI

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

PROGNOZOWANIE CENY OGÓRKA SZKLARNIOWEGO ZA POMOCĄ SIECI NEURONOWYCH

PRÓBA ZASTOSOWANIA SIECI NEURONOWYCH DO PROGNOZOWANIA OSIADAŃ POWIERZCHNI TERENU POWSTAŁYCH NA SKUTEK EKSPLOATACJI GÓRNICZEJ**

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Podstawy sztucznej inteligencji

Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych

KARTA MODUŁU KSZTAŁCENIA

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Metody Sztucznej Inteligencji II

Sieci neuronowe w Statistica

Sylabus modułu kształcenia na studiach wyższych. Nazwa Wydziału. Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia

kierunkowy (podstawowy / kierunkowy / inny HES) nieobowiązkowy (obowiązkowy / nieobowiązkowy) polski drugi semestr letni (semestr zimowy / letni)

OCENA EFEKTYWNOŚCI NEURONOWEGO PROGNOZOWANIA W OPARCIU O WYBRANE METODY NA PRZYKŁADZIE DYSTRYBUCJI PRODUKTÓW ROLNICZYCH

8. Neuron z ciągłą funkcją aktywacji.

Metody systemowe i decyzyjne w informatyce

Kryteria optymalizacji w systemach sterowania rozmytego piecami odlewniczymi

Inteligentne systemy przeciw atakom sieciowym

MODELOWANIE PROCESÓW PRZETWÓRCZYCH Z UŻYCIEM SZTUCZNYCH SIECI NEURONOWYCH

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Streszczenie. Słowa kluczowe: modele neuronowe, parametry ciągników rolniczych

Algorytmy genetyczne

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Temat: ANFIS + TS w zadaniach. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Systemy uczące się wykład 2

ODWZOROWANIE PRZEBIEGU PULSACJI METODAMI SZTUCZNEJ INTELIGENCJI

Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

MODEL SYMULACYJNY JEDNOFAZOWEGO PROSTOWNIKA DIODOWEGO Z MODULATOREM PRĄDU

SYMULACJA ZAKŁÓCEŃ W UKŁADACH AUTOMATYKI UTWORZONYCH ZA POMOCĄ OBWODÓW ELEKTRYCZNYCH W PROGRAMACH MATHCAD I PSPICE

WPŁYW INFORMACJI O ZMIENNYCH STANU OBIEKTU NA JAKOŚĆ STEROWANIA PRZEZ NEUROSTEROWNIK

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

ZASTOSOWANIE SIECI NEURONOWYCH DO OPTYMALIZACJI WARUNKÓW OBRÓBKI CIEPLNEJ STOPÓW Mg-Al

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Optymalizacja optymalizacji

Lekcja 5: Sieć Kohonena i sieć ART

1. Logika, funkcje logiczne, preceptron.

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

PRZEWODNIK PO PRZEDMIOCIE

Podstawy Sztucznej Inteligencji (PSZT)

Transkrypt:

POZNAN UNIVERSITY OF TECHNOLOGY ACADEMIC JOURNALS No 100 Electrical Engineering 2019 DOI 10.21008/j.1897-0737.2019.100.0011 Jerzy TCHÓRZEWSKI *, Dariusz RUCIŃSKI * ALGORYTM EWOLUCYJNY INSPIROWANY INFORMATYKĄ KWANTOWĄ DO POPRAWY PARAMETRÓW MODELU NEURALNEGO WYZNACZANIA CEN NA TOWAROWEJ GIEŁDZIE ENERGII ELEKTRYCZNEJ NOTOWANYCH NA RDN Artykuł zawiera wybrane wyniki badań dotyczące istoty i implementacji Algorytmu Ewolucyjnego inspirowanego obliczeniami kwantowymi do poprawy parametrów modelu neuralnego wyznaczającego ceny na Towarowej Giełdzie Energii Elektrycznej. Do uczenia Sztucznej Sieci Neuronowej modelu systemu wykorzystano dane liczbowe notowane na Rynku Dnia Następnego w okresie od 01 stycznia 2015 r. do 30 czerwca 2015 r. Szczególną uwagę zwrócono na sposób systemowego tworzenie Populacji Początkowej oraz na sposób systemowego tworzenie funkcji krzepkości (funkcji przystosowania), a na tej bazie na metodę kwantyzacji, dekwantyzacji i obliczeń kwantowych przeprowadzonych z wykorzystaniem pojęcia kwantowej liczby mieszanej i rachunku wektorowo-macierzowego. Uzyskano znaczącą poprawę modelu neuralnego wspomaganego algorytmem ewolucyjnym inspirowanym kwantowo w stosunku do modelu neuralnego wspomaganego algorytmem ewolucyjnym bez inspiracji kwantowej. SŁOWA KLUCZOWE: Algorytm Ewolucyjny, dekwantyzacja, kwantowa liczba mieszana, kwantyzacja, obliczenia kwantowe, Rynek Dnia Następnego, Sztuczna Sieć Neuronowa, Towarowa Giełda Energii Elektrycznej. 1. WPROWADZENIE Modelowanym obiektem jest system Towarowej Giełdy Energii Elektrycznej dotyczący zawieranych transakcji notowanych na Rynku Dnia Następnego o 24 wielkościach wejściowych oraz 24 wielkościach wyjściowych (system typu MIMO) [6, 9-12, 15-23]. Wielkościami wejściowymi są strumienie wolumenu energii elektrycznej (ee) dostarczonej i sprzedanej na TGEE [MWh] w poszczególnych godzinach doby, a wielkościami wyjściowymi są strumienie, uzyskanych za sprzedaną energię elektryczną, średnich cen ważonych wolumenem ee w poszczególnych godzinach doby [zł/mwh]. Dane liczbowe zostały pobrane z portalu TGE S.A. * Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach

122 Jerzy Tchórzewski, Dariusz Ruciński w zakresie notowań na RDN w okresie sześciu miesięcy, to jest 181 dni (od 01.01.2015 r. do 30.06.2015 r.). 2. PROJEKTOWANIE I UCZENIE SSN MODELU SYSTEMU Do zaprojektowania, implementacji i nauczenia modelu systemu TGEE wybrana została wielowarstwowa jednokierunkowa Sztuczna Sieć Neuronowa (Perceptronowa) [4, 8, 14, 24]. Do procesu uczenia dobrano metodę wstecznej propagacji błędu, którą zaimplementowano w środowisku MATLABA i Simulinka z wykorzystaniem Neural Network Toolbox-a. Przyjęto po 24 neuronów w warstwie wejściowej odpowiadających dostarczonej i sprzedanej ee w poszczególnych godzinach doby oraz w warstwie wyjściowej odpowiednio odpowiadających uzyskanym średni ważonym cenom uzyskanym za sprzedaną ee. W strukturze SSN ustalono jedną warstwę ukrytą z 24 neuronami oraz funkcję aktywacji neuronu w warstwie ukrytej logsig() oraz funkcję aktywacji neuronu purelin() w warstwie wyjściowej, aby uzyskać tzw. model dopasowania do systemu rzeczywistego. 3. ALGORYTM OBLICZEŃ KWANTOWYCH Przyjęto, że algorytm obliczeń kwantowych może zostać sprowadzony do trzech podstawowych algorytmów, to jest algorytmu kwantyzacji wartości pliku uczącego oraz pliku wag i biasów, algorytmu obliczeń kwantowych prowadzonych z wykorzystaniem rachunku wektorowo-macierzowego oraz algorytmu dekwantyzacji liczb kwantowych na liczby rzeczywiste [9]. Algorytm kwantyzacji polega na wyznaczaniu na podstawie liczb rzeczywistych wektorów kwantowych liczb mieszanych. Obliczenia na liczbach kwantowych, a głównie mnożenie, dodawanie i potęgowanie wektorów kwantowych liczb mieszanych okazało się, że wygodnie jest przeprowadzić z wykorzystaniem rachunku wektorowo-macierzowego, a algorytm dekwantyzacji wygodnie było przeprowadzić z wykorzystaniem SSN nauczonej dekwantyzacji [9, 21 23]. Istnieją też inne sposoby na prowadzenie obliczeń kwantowych, jak np. z wykorzystaniem bramek kwantowych, funkcji falowej, obwodów kwantowych, czy też rejestrów kwantowych oraz pojęcia iloczynu tensorowego, itp. [5, 13]. W tym miejscu warto ponadto uzupełnić ww. sposób prowadzenia obliczeń kwantowych o konwencję notacji Diraca, która upraszcza zapisy i ułatwia obliczenia. Otóż w przypadku rejestru kwantowego wartość wyrażenia α>, gdzie α jest zmienną, której wartościami są liczby naturalne, należy czytać tak jak zapis w systemie dwójkowym uzupełniany w razie czego zerami z lewej strony do długości przyjętej n znaków, co prowadzi do zapisu [13]: n 2 1 k, (1) k 0 k

Algorytm Ewolucyjny inspirowany informatyką kwantową 123 przy czym współczynniki α k spełniają warunki normalizacyjne (suma kwadratów modułów równa się 1). Proces obliczeń kwantowych przy wykorzystaniu danych wejściowych poddanych procesowi kwantyzacji oraz przy wykorzystaniu wag modelu neuralnego także poddanych procesowi kwantyzacji oraz dobranych funkcji aktywacji typu tansig() dla warstwy ukrytej SSN został przeprowadzony na podstawie algorytmu obejmującego następujące podstawowe kroki (szczegółowo opisane w pracach autorów [9-11, 19]; Krok 1. Zamiana liczb rzeczywistych na liczby binarne, a te na kwantowe liczby mieszane. Krok 2. Wyznaczanie wartości ważonych sumatorów dla poszczególnych wyjść z każdej warstwy neuronów, przy czym w wyniku mnożenia dwóch kwantowych liczb mieszanych w postaci macierzowej (w rozważanym przypadku występowania pojedynczych qubitów w macierzach kwantowych liczb mieszanych) otrzymuje się macierze kwadratowe o wymiarze 2 x 2 dla każdego neuronu występującego w każdej warstwie neuronów: k k netilim net k i, lm neti () t, (2) k k ilmk,, netilm, netilm, gdzie: poszczególne indeksy dotyczą odpowiednio: i i-tego neuronu, k k-tej warstwy, lm m-tej liczby mieszanej, t t-tego czasu obliczeń. A więc np. dla pierwszego neuronu pierwszej warstwy uzyskuje się: 1 11, 6712 5,9219 11,1596 5,3631 46, 4663 21, 7725 net1 ( t).... 5, 4275 3, 2112 5,9722 2, 2569 21,9636 12,5232 (3) Krok 3. Wyznaczanie wartości funkcji aktywacji jako funkcji tansig() w warstwie ukrytej oraz funkcji purelin() w warstwie wyjściowej, a więc np. dla pierwszego neuronu pierwszej warstwy uzyskuje się: 46,4663 21,7725 92,9226 42,547 2 21,9636 12,5232 42,7272 27,0664 1 1 1 e 1 e 1 1 46,4663 21,7725 92,9226 42,547 2 21,9636 12,5232 42,7272 27,0664 y ( net ( t)). 1 e 1 e przy czym zamianie na kwantową liczbę mieszana podlega również liczba rzeczywista 1 oraz liczba e. Krok 4. Ze względu na występowanie macierzy jako wykładnika funkcji e dokonano jego dekwantyzacji za pomocą nauczonej dekwantyzacji SSN. Wartość wyrażenia (4) staje się wartością wejściową dla warstwy 2, którą można również wyznaczyć analogicznie jak dla poszczególnych neuronów warstwy pierwszej. Krok 5. Wektor kwantowych wyjść z warstwy wyjściowej kwantowej SSN jest dalej wykorzystywany w funkcji krzepkości kwantowego algorytmu ewolucyjnego dla każdego osobnika z populacji rodziców w stosunku do, np. średniej (4)

124 Jerzy Tchórzewski, Dariusz Ruciński wartości wszystkich osobników. Przyjęto przy tym ocenę osobników kolejnych generacji chromosomów uzyskanych przez Kwantowo Inspirowany Algorytm Ewolucyjny poprawiający Kwantowo Inspirowaną Sztuczną Sieć Neuronową według algorytmu jaki zamieszczono na rys. 1 oraz na rys. 2 (rys.2.1 i rys. 2.2). 4. MODELE KOMPARATYSTYCZNE I SYMULACYJNE W celu sprawdzenia poprawności funkcjonowania SSN zawierającej poprawione wagi modelu neuronowego za pomocą inspirowanego kwantowo algorytmu ewolucyjnego zaprojektowano inspirowaną kwantowo sztuczną sieć neuronową (KISSN). Następnie sieć tą zaimplementowano i nauczono w MATA- LAB-ie jako Perceptronową Sztuczną Sieć Neuronową z jedną warstwą ukrytą, przy czym ukryta warstwa została aktywowana przez funkcję tansig(), a warstwa wyjściowa funkcją purelin() [9, 18-20]. Przeprowadzono kwantyfikację dla wszystkich wartości wejściowych (macierze 24x181) oraz wagi na podstawie 100 wygenerowanych kwantowanych liczb mieszanych na podstawie wiedzy o stanach czystych 0> oraz) 1>). W celu dekwantyzacji została skonstruowana SSN, którą nauczono generowania liczb rzeczywistych, w oparciu o wartości kwantowe dla każdego neuronu (macierz 2 x 2) jako danych wejściowych. Tak skonstruowana sieć nauczyła się dekwantyzacji - moduł (DM) - w oparciu o SSN. Dane wejściowe w postaci quasi-splątanych mieszanych liczb zostały zdekwantyzowane do DM przy użyciu ich do funkcji aktywacji tansig() jako liczby rzeczywistej przechowywanej w systemie liczb dziesiętnych. Podobny proces obliczania kwantowego przeprowadzono także w drugiej warstwie SSN, z funkcją aktywacji purelin(). W celu przeprowadzenia badań porównawczych i zbadania wpływu modelu DM, skonstruowano odpowiedni schemat blokowy w Simulink-u do porównywania sygnałów wyjściowych (średnich ważonych cen) wychodzących z kwantowej sztucznej sieci neuronowej z sygnałami sztucznej sieci neuronowej oraz z sygnałami rzeczywistymi (danymi zarejestrowanymi na RDN TGEE). Wybrane wyniki dla godzin: 01, 09 i 18 uzyskane w procesie porównywania sumatora net i z perceptronu i kwantowej SSN zamieszczono w tabeli 1. Można zauważyć m.in., że SSN dosyć poprawnie nauczyła się dekwantyzacji liczb rzeczywistych w celu uzyskiwania kwantowych liczb mieszanych, stąd można ją przyjąć do dalszej zamiany jako metodę dekwantyzacji quasi-splątanych liczb kwantowych. W efekcie podjętych badań uzyskano m.in., że wskaźnik regresji dla pierwszej warstwy wyniósł 0,999137202244422, który jest wynikiem bardzo dobrym (bliskim jedności), stąd też może stanowić narzędzie do poprawy modelu Rynku Dnia Następnego w oparciu o metody sztucznej inteligencji inspirowane informatyką kwantową i znacznie zwiększyć dokładność modelu neuronowego. W przypadku modelu dekwantyzacji drugiej warstwy wartości net i uzyskane dla pierwszej warstwy

Algorytm Ewolucyjny inspirowany informatyką kwantową 125 aktywowano za pomocą funkcji aktywacji (4), a następnie zdekwantyzowano w taki sam sposób, jak dla pierwszej warstwy (są to dane wejściowe drugiej warstwy neuronu) [9, 21-23]. Następnie na bazie danych uzyskanych dla SSN przeprowadzono analizę porównawczą net i dla drugiej warstwy. Start Utwórz strukturę chromosomu na podstawie wartości wag SNN (chromkwantw2mac i chromkwantw1mac) wynik - chrom_kwant, M-plik - utworzeniechromosmukwant; Utwórz populację początkową na podstawie struktury chromosomu i wartości wag losując wartości poszczególnych genów chromosomu z przedziału od wij - delta wij do wij + delta wij wynik - chrom_kwant_populacja M-plik - generowaniepopulacjikwant Wyznacz dostosowanie kwantowe wynik - blad_kwant, procedury zebrane w pliku sterującym - wyliczaniedostosowaniakwant; schemat blokowy pokazany w Procedurze wyznaczenia dostosowania kwantowegom-plik - utworzeniechromosmukwant; epoka <=100 T N Stop [niedost, indek]=sort(blad_kwant); Wykonaj procedurę kwantowego krzyżowania globalnego i wyznacz jego dostosowanie na podstawie SNN wynik- chrom_kwant, M-plik - krzyzowanieglobalnekwant; M-plik wywołuje procedurę - wyliczaniedostosowaniakwantpoj wynik- blad_kwant Wyznaczanie stopnia dostosowania chromosomów wynik- NastGen, indeks przechowawywanego wyniku - wartdostnast(r) M-plik - selnastgeneracjikwant; Przechowywane parametry: WartDostMaxKwant(epoka)= max(wartdost); WartDostSredKwant(epoka)= mean(wartdost); WartDostMinKwant(epoka)= min(wartdost); chrom_kwant_populacja = NastGen; blad_kwant= wartdostnast; wartoscniedostosowania=wartoscniednast; epoka = epoka +1 Rys. 1. Schemat blokowy oceny osobników kolejnych generacji chromosomów uzyskanych przez Kwantowo Inspirowany Algorytm Ewolucyjny poprawiający Kwantowo Inspirowaną Sztuczną Sieć Neuronową [9]

126 Jerzy Tchórzewski, Dariusz Ruciński Start Inicjalizacja parametrów licz <=100 N T Stop Wyodrębnij wagi z populacji początkowej chrom_kwant_populacja chrom_kwant= chrom_kwant_populacja(licz_:licz_+1,:) Utwórz macierzy wag, wynik - chromkwantw1mac M-plik - zamianawaginamacierz wyliczenie wartości net dla 1 warstwy wynik- mac_net_all_kwant M-plik - Net_calosc_dla_1_warstwy_kwant Zamiana macierzy net1 zamień na dwuwymiarową wynik - SSN_mac_net_all_kwant M-plik - Zamiana_netow_kwant_1_warstwa_4D_na_2D Otrzymane dane poddaj normalizacji, wynik- SSN_mac_net_all_kwant_norm M-plik - normalizacja_ssn_mac_net_all_kwant; Dekwantyzacji znormalizowanych danych, wynik - mac net kwant. Aktywacja neuronów funkcja tansig, wynik - tansig_1_warst M-plik - Dekwantyzacja_net1; 1 Rys. 2.1. Schemat blokowy Kwantowo Inspirowanego Algorytmu Ewolucyjnego wspomagającego Kwantowo Inspirowaną Sztuczną Sieć Neuronową, c.d. na rys. 2.2 [9]

Algorytm Ewolucyjny inspirowany informatyką kwantową 127 1 Otrzymane wartości poddaj binaryzacji wynik - Y1_bin, M-plik - zamiana10na2_y1 Otrzymane dane poddaj kwantyzacji WylRozklPrawd_y1 wynik - Y1_kwant, WylRozklPrawd_y1; Oblicz wartości neuronów warstwy wyjściowej wynik - mac_net_all_kwant_wyj M-plik Net_calosc_dla_2_warstwy_kwant; Otrzymane wartości zamień na macierz 2 wymiarową, wynik - SSN_mac_net_all_kwant_wyj, M-plik - Zamiana_netow_kwant_2_warstwa_4D_na_2D; Otrzymane kwantowe SSN_mac_net_all_kwant_wyj poddaj normalizacji wynik - SSN_mac_net_all_kwant_norm_wyj M-plik - normalizacja_ssn_mac_net_all_kwant_wyj Otrzymane wartości poddaj dekwantyzacji wynik - mac_net_kwant_wyj M-plik - Dekwantyzacja_net2 Otrzymane wartości poddaj funkcji aktywacji purelin wynik - purelin_2_warst M-plik - Dekwantyzacja_net2 Porównaj wartości otrzymane z modelu SSN i rzeczywiste w celu wyznaczenia wektora błędu MSE, wynik - blad_kwant(l_bl)=bladmse, M-plik - BLAD_MSE; icz_=licz_+2; l_bl=l_bl+1; Rys. 2.2 Schemat blokowy Kwantowo Inspirowanego Algorytmu Ewolucyjnego wspomagającego Kwantowo Inspirowaną Sztuczną Sieć Neuronową, c.d. z rys. 2.1 [9]

128 Jerzy Tchórrzewski, Dariu usz Ruciński Tabela 1. Wybrane W wynikii badań porównnawczych pomiiędzy sumatoreem neuronalnym m (rzeczywistym) NetR Reali (neti) a sum matorem neuronnalnym (inspiro owanym kwantowo wspomagaanym ewolucyjnie) NetQ Quanti (neti) dla ukrytej warsttwy neuronów. Oznaczenia: i i-ta godzina ddoby, NetReali i-ta waartość neuronalnna (rzeczywistaa) na wyjściu z i-tego neuronuu (neti) dla warsstwy ukrytej, NetQuanti i-ta wartość neuronalna n (kw wantowo inspiro owana wspomaggana ewolucyjnnie) na i-tym wyjściu (neeuronie) dla waarstwy ukrytej, Subtracti i-taa różnica pomięędzy i-tym wyjściem kwantowym a i-tym wyjściem neuronalnym (różnica pomięędzy i-tymi sum matorami neti dla warstwy ukrytej. Źróódło: Opracowaanie własne w śrrodowisku Sim mulink-a [9, 18-220]. h Rozbieżności 1 9 18 Uzyskane wyniki kwantowe k zoostały porówn nane z danym mi wyjściowyymi modelu neuronow wego i rzeczyw wistymi danyymi zarejestrrowanymi naa rynku następpnego dnia, opublikow wane m.in. we w wcześnieejszym opraccowanym allgorytmie ew wolucyjnym w celu pooprawy param metrów modeeli neuronow wych na polskkim rynku eenergii elektrycznej. Uzyskany U DM M dla dekwaantyzacji neti dla drugiej warstwy w neurronów również praw widłowo odtw warza rzeczyw wiste dane. Dane D w tym przypadku zznormalizoi sprzedanejj energii elekktrycznej na wanych śrrednich cen uzyskane u z dostarczonej d Towaroweej Giełdzie Energii E Elektrrycznej w Po olsce. Warto tutaj zauważżyć na przy-

Algorytm Ewolucyjny inspirowany informatyką kwantową 129 kład bardzo wysoką dokładność otrzymanych sum netto występujących w kwanto- neurono- wej SSN (przebiegi z okręgami na wykresach) w odniesieniu do modelu wego dla analogicznych warunkóww (przebiegi z krzyżykami na wykresach). W przeprowadzonym eksperymencie została zaprojektowana SSN i nauczona modelu systemu TGEE z wykorzystaniem danych notowanych na Rynku Dnia Następnego. Następnie zaproponowano wspomaganie algorytmem ewolucyjnym sztucznej sieci neuronowej w celu uzyskania poprawy modelu neuralnego. Wresz- inspirowane kwantowo sztucznej sieci neuronowej, który nazwano Kwantowym cie z wykorzystaniem nowej metody zaproponowano ewolucyjne wspomaganie Algorytmem Ewolucyjnym. Wykres adaptacji modelu TGEE uzyskanego za po- mocą KISSN poprawianego KIAE zamieszczono na rys. 3. Rys. 3. Wykres adaptacji modelu TGEEE uzyskanego za pomocą KISSN poprawianego KIAE. Oznaczenia: epoch - kolejna populacja uzyskana za pomocą algorytmu KIAE. adjustment value - Średni Błąd Kwadratowy obliczany jako średnia różnica pomiędzy wartościami uzyskanymi z modelu KISSN a systemem rzeczywistym. Źródło: Opracowanie własne w środowisku MATLAB-a i Simulink-a z wykorzystaniem j. Matlab [Embedded MATLAB, 2007-2016] Z jego wykorzystaniem uzyskano najlepszee wyniki dla kwantowo inspirowa- SSN nej SSN (od -0.04% do 0,05%) w stosunku do wspomaganej ewolucyjnie (od -0,11% do 0,12% %), co wskazuje na stopień poprawy modelu neuralnego TGEE, dla której błąd wahał się od -0,17% do 0.18% %, które zamieszczono w tabeli 2, a przebiegii na rys. 4. Badania dotyczyłyy sprawdzenia stopnia poprawy parametrów modelu oraz dokładności generowania cen przez poszczególne modele TGEE w środowisku MATLAB-a i Simulink-a. Okazało się, że Sztuczna Sieć Neuronowa inspirowana kwantowoo wspomagana Algorytmem Ewolucyjnym inspirowanym kwantowo poprawiłaa błąd MSE o rząd wielkości z zakresu (od -0,17 do 0,18)% do zakresu (od -0,04 do 0,05)%, a więc o rząd wielkości, pomijając sam fakt, iż błędy te i tak były niewielkie.

130 Jerzy Tchórzewski, Dariusz Ruciński Tabela 2. Błąd średniokwadratowy MSE pomiędzy przebiegami cen w ciągu 24 godzin w okresie 181 dni wyrażony przebiegiem rzeczywistym odnotowanym na Rynku Dnia Następnego a przebiegami wygenerowanymi przezz poszczególne modele: model neuro- inspi- nalny (SSN), model neuronalny wspomagany AE (SSNE) oraz model neuronalny rowany kwantowo i wspomagany AE inspirowanym kwantowo (KISSN). Źródło: Opracowanie własne [9]. Rodzaj modelu Wartość maksymalna Wartość minimalna SSN SSNE KISSN 0,001829 (0,18%) 0,00120 (0,12%) 0,00048 (0,05%) 0,00168 (-0,17%) 0,00108 (-0,11%) 0,00041 ( 0,04%) 5. UWAGI KOŃCOWE I WNIOSKI Zaprojektowano i zaimplementowano hybrydowy model systemu TGEE składający się z modelu neuronowego ze zmodyfikowanymi wagami za pomocą AE (model neuronalno-ewolucyjny), który poprawił parametry modelu systemu TGEE z zakresu od -0,17% do 0,18% do zakresu od -0,11% do 0,12% %, a następneuronalny nie poprawiono jego parametry projektując i implementując model wspomagany AE i inspirowany kwantowoo (model neuronalno-ewolucyjno- kwantowy), który poprawił parametry modelu z zakresu od -0,11% do 0,12% do zakresu -0,04% do 0, 05%, a więc o rząd wielkości, pomijać fakt, iż błąd MSE dla SSN i tak był stosunkowo niski. Rys. 4. Przebiegi błędów średniokwadratowych (MSE) dla trzech modeli w 24 godzinach wyznaczone jako wartości średnie z 1811 dni. Oznaczenia: kolor czerwony - przebieg MSE dla KISSN, kolor zielony - przebieg SSNE, kolor niebieski - przebieg SSN, os x godziny doby [h], oś y wartość błędu MSE. Źródło: Opracowanie własne [9] Ponadto pokazano, że istnieje możliwość kwantowo inspirowanego modeloneuralnego wania neuralnego oraz inspirowanego kwantowo modelowania wspomaganego algorytmem ewolucyjnym. Uzyskane wyniki badań wskazują na poprawność przyjętego kierunku badań. Metody kwantowe sprawdzają się zatem też na komputerach klasycznych, chociaż spowalniają znacznie obliczenia.

Algorytm Ewolucyjny inspirowany informatyką kwantową 131 LITERATURA [1] Arabas J., Wykłady z Algorytmów Ewolucyjnych. WNT Warszawa, ISBN: 8320429706, 2016, s. 303. [2] Ciechulski T., Osowski S., Badanie jakości predykcji obciążeń elektroenergetycznych za pomocą sieci neuronowych SVM, RBF i MLP, Przegląd Elektrotechniczny, R. 90, nr 8, 2014, s.148 151. [3] Dudek-Dyduch E., Tadeusiewicz R., Horzyk A., Neural network adaptation process effectiveness dependent of constant training data availability, Neurocomputing, Volume 72, Issues 13 15, 2019, pp. 3138 3149 [4] Korbicz J., Obuchowicz A., Uciński D., Sztuczne sieci neuronowe: podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994. [5] Kim J., Han K., (2002), Quantum-inspired evolutionary algorithm for a class of combinatorial optimization, IEEE Transactions on Evolutionary Computation, Volume: 6, Issue: 6, 2002, pp.580-593, Lewestein M. (1994), Quantum Perceptrons, Journal of Modern Optics 41 (12), pp. 2491 2501 [6] Mielczarski W., Rynki energii elektrycznej. Wybrane aspekty techniczne i ekonomiczne, ARE, Warszawa, 2000, s.308. [7] Obuchowicz A., Algorytmy Ewolucyjne z mutacją stabilną, Exit, 2013, ISBN 978-83-7837-020-8. [8] Osowski S., Sieci neuronowe do przetwarzania informacji, OWPW, Warszawa, 2013, s. 422. [9] Ruciński D., Modelowanie neuronalne cen na Towarowej Giełdzie Energii Elektrycznej wspomagane algorytmem ewolucyjnym oraz inspirowane obliczeniami kwantowymi, rozprawa doktorska pod kierunkiem dr hab. inż. Jerzego Tchórzewskiego, prof. UPH w Siedlcach, IBS PAN, Warszawa 2018. [10] Ruciński D., The neural modeling in chosen task of Electric Power Stock Market. Studia Informatica. Systemy i technologie informacyjne, No 1-2, 2017, pp. 1 22. [11] Ruciński D., Neural-evolutionary Modeling of Polish Electricity Power Exchange. Electrical Power Networks, EPNet 2016, XPlore Digital Library, 2016 r., pp. 1 6. [12] Rutkowska D., Piliński M., Rutkowski L., Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, PWN, Warszawa, 1997, s. 410. [13] Sawerwain M., Wiśniewska J., Informatyka kwantowa. Wybrane Obwody i Algorytmy, PWN Warszawa, 2015, s. 370. [14] Tadeusiewicz R., Neural Networks In Mining Sciences General Overview And Some Representative Examples, Mining Science, Volume 60, Nr 4. 2015, pp. 971 984. [15] Tchórzewski J., Systemowy Algorytm Ewolucyjny (SAE), Bio-Algorithms and Med-Systems, Vol. 1, No 1/2, Collegium Medicum. Jagiellonian University, Cracow, 2005, s. 61 64. [16] Tchórzewski J., Identification of the Electrical Energy Stock Exchange and creating knowledge maps using MATLAB environment with SIT and NNT Toolboxes, Energy Market, EEM 2009 6th International Conference on the European, IEEE Xplore Digital Library, pp. 1 6.

132 Jerzy Tchórzewski, Dariusz Ruciński [17] Tchórzewski J., Ruciński D., Systemic Method of the ANN Improvement Using Evolutionary Algorithm Inspired by Quantum Solutions Based on the Electrical Power Exchange. 2018 Progress in Applied Electrical Engineering (PAEE), IEEE Conferences, XPlore Digital Library, DOI: 10.1109/PAEE.2018.8441064, pp.1 5. [18] Tchórzewski J., Ruciński D., Neural modeling of the electric power stock market in useage of MATLAB and Simulink tools for the Day Ahead Market data, Information System in Management, Vol. 5, No. 2/2016 pp. 215 226. [19] Tchórzewski J., Ruciński D., Quantum Evolutionary Algorithm to Improve Parameters of Neural Models of Polish Electricity Power Exchange. Electrical Power Networks, EPNet 2016, XPlore Digital Library, pp. 1 8. [20] Tchórzewski J., Ruciński D., Evolutionary Algorithm Inspired by the Methods of Quantum Computer Sciences for the Improvement of a Neural Model of the Electric Power Exchange. Information System in Management, Vol. 6, No. 4/2017, SGGW, pp. 343 355. [21] Tchórzewski J., Ruciński D., Modeling and Simulation Inspired of Quantum Methods on Examples Polish Energy Power Market. IEEE XPlore Digital Library 2017 Progress in Applied Electrical Engineering (PAEE). [22] Tchórzewski J., Ruciński D., Quantum Inspired Evolutionary Algorithm to Improve the Accuracy of a Neuronal Model of the Electric Power Exchange. IEEE EUROCON 2017 17th International Conference on Smart Technologies, IEEE XPlore Digital Library, Ohrid, R. Macedonia pp. 638 643. [23] Tchórzewski J., Ruciński D., Quantum-inspired Artificial Neural Networks and Evolutionary Algorithms Methods Applied to Modeling of the Polish Electric Power Exchange Using the Day-ahead Market Data. Information Systems in Management, Vol. 7, nr 3, 2018, pp. 201 212. [24] Żurada J., Barski M., Jędruch W., Sztuczne sieci neuronowe. Podstawy teorii i zastosowania, PWN, Warszawa, 1996, s. 374. EVOLUTIONARY ALGORITHM INSPIRED BY QUANTUM INFORMATION TECHNOLOGY TO IMPROVE THE PARAMETRERS OF THE NEURAL PIICE SETTING MODEL ON THE POLISH POWER EXCHANGE TRADED ON THE DAM The paper contains selected research results on the nature and implementation of the Evolutionary Algorithm inspired by quantum computation to improve the parameters of the neural model determining prices at the Polish Power Exchange. To learn the Artificial Neural Network system model, the figures quoted on the Commodity Electricity Market of the Day-Ahead Market were used in the period from January 1, 2018 to June 30, 2018. Particular attention was paid to the systemic creation of the Initial Population and the systemic creation of the function of solidification (function adaptation), and on this basis, the quantization, dequantization and quantum computation methods carried out using the quantum concept of a mixed number. Significant improvement of the neural model supported by quantum-inspired evolutionary algorithm in relation to the model without quantum inspiration was obtained. (Received: 11.02.2019, revised: 14.03.2019)