! #! % #& ( )%( )!+,,,.#

Wielkość: px
Rozpocząć pokaz od strony:

Download "! #! % #& ( )%( )!+,,,.#"

Transkrypt

1 ! # % & ( (% # ) +, ). / ! #! % #& ( )%( )!+,,,.# 6 1! / 0

2

3 STRESZCZENIE Zjawisko złożoności można rozumieć jako istnienie nietrywialnych własności makroskopowej struktury układu lub jego aktywności, których źródła leżą głęboko w naturze oddziaływań między elementami tworzącymi układ, w oddziaływaniu układu z otoczeniem oraz w procesach samoorganizacji. Złożoność, w zależności od budowy konkretnego układu, może mieć wiele przejawów, począwszy od efektów kolektywnych, poprzez zjawiska krytyczne i spontaniczne łamanie symetrii, hierarchiczną strukturę układu, skalowanie i multiskalowanie, a skończywszy na połączeniu stabilności układu z jego elastycznością. Celem pracy jest znalezienie tych i innych przejawów złożoności w wybranych danych empirycznych i ich opis w języku fizyki. Przedmiotem analizy są trzy układy, o których a priori wiadomo, że są układami złożonymi, jednak żaden z nich nie należy do standardowego obszaru zainteresowania fizyki: rynki finansowe, język naturalny i mózg człowieka. ABSTRACT Complexity can be understood as the existence of non-trivial properties of a macroscopicstructureofasystemorofitsactivity,whoseoriginisdeepinsidethenatureof interactions among its constituents, in the system s interaction with the environment and in its self-organization. Complexity, depending on the details of the system s structure, can manifest itself in a variaty of ways, from the collecitive effects, through critical phenomena, spontaneous symmetry breaking, hierarchical structure, scaling and multiscaling, to an interplay between stability and flexibility. The main objective of this thesis is identification of these and other manifestations of complexity in empirical data and their description in the language of physics. The analysis is based on three systems which a prioriareknowntobecomplex,butwhichdonotbelongtothephysics standardfield of interest: the financial markets, the natural language, and the human brain.

4

5 PODZIĘKOWANIE Pragnę szczególnie serdecznie podziękować Panu prof. dr hab. Stanisławowi Drożdżowi za wieloletnią opiekę, współpracę, pomoc i przyjaźń, a także za wszystkie uwagi krytyczne dotyczące mojej pracy. Dziękuję moim kolegom: dr Pawłowi Oświęcimce, dr Andrzejowi Górskiemu i dr Rafałowi Rakowi za wspólne tworzenie publikacji filadelfijskich i nie tylko. Chciałbym również wyrazić wdzięczność Panu prof. dr hab. Markowi Jeżabkowi, Dyrektorowi IFJ PAN, za osobistą życzliwość, a także za stworzenie przyjaznego klimatu wobec badań interdyscyplinarnych w Instytucie. Jarosław Kwapień

6

7 WPROWADZENIE Niniejsza praca poświęcona jest spojrzeniu na dane empiryczne, pochodzące z kilku układów, które nie należą do tradycyjnego obszaru zainteresowania fizyki, tj. z rynków finansowych, języka naturalnego i ludzkiego mózgu, przez pryzmat zjawiska złożoności, ale w taki sposób, jak to zjawisko rozumie i wyraża fizyka. Dlatego zamiast stosowania ilościowych miar bezpośrednio charakteryzujących złożoność danych, wywodzących się np. z teorii informacji, w pracy został położony nacisk na identyfikację w danych własności, które są lub mogą być konsekwencją złożonej struktury tych układów. Temu celowi została podporządkowana konstrukcja pracy, w której- zamiast tradycyjnego grupowania wyników według analizowanych układów, wyniki zostały ułożone przede wszystkim według konkretnych przejawów złożoności, które udało się zidentyfikować w danych. Praca podsumowuje zainteresowania naukowe autora na przestrzeni ostatnich lat. Materiał został podzielony na 9 rozdziałów, z których dwa pierwsze stanowią część wstępną. Rozdz. 1 jest wprowadzeniem w obszar fizyki układów złożonych; zostaną w nim omówione różne miary złożoności oraz najważniejsze własności układów złożonych i niektórych związanych z nimi modeli. Rozdz. 2 składa się z krótkiej prezentacji każdego z trzech układów, który będzie przedmiotem zainteresowania w dalszych rozdziałach. Właściwa część pracy rozpoczyna się w Rozdz. 3, w którym centralnym zagadnieniem są efekty kolektywne, gdy wielowymiarowy układ(w tym wypadku rynki finansowe), na skutek wewnętrznych sprzężeń, efektywnie redukuje liczbę swoich stopni swobody. Centralnym punktem Rozdz. 4 jest identyfikacja powtarzalnych(choć nie w pełni deterministycznych) i mniej typowych wzorców aktywności, będących odpowiedzią układu(mózgu i rynków) na zewnętrzne zaburzenia. Dzięki współistnieniu takich wzorców układ może być jednocześnie stabilny i elastyczny. Tematyka Rozdz. 5 obraca się wokół zagadnienia oddziaływań dalekiego zasięgu pomiędzy grupami odległych przestrzennie stopni swobodywmózguinarynkachfinansowych.rozdz.6traktujeobrakuwyróżnionejskali,co wiąże się ze zjawiskami krytycznymi i wieloma innymi procesami fizycznymi, a także z optymalizacją. Przedmiotem analizy są w tym rozdziale rynki finansowe oraz teksty literackie. Złożoność wyrażona przez multiskalowanie zostanie omówiona w Rozdz. 7 wraz ze zjawiskiem dyskretnej niezmienniczości względem skali i jego potencjałem jako narzędzia prognozowania ewolucji rynków finansowych. W Rozdz. 8, po wprowadzeniu głównych pojęć teorii sieci złożonych, pojęcia te zostaną zastosowane w odniesieniu do rynku akcji i rynku walutowego. Pracę zamyka Rozdz. 9, zawierający wnioski i zebrane razem najważniejsze wyniki, rozproszone po wcześniejszych rozdziałach. Informacje na temat danych empirycznych, użytych do analizy w pracy, znalazły się w Dodatku. W spisie literatury autocytowania oznaczone są gwiazdką, np.[90*].

8

9 SPIS TREŚCI 1 Układyzłożone Fizykaazłożoność Pojęciezłożoności Własnościukładówzłożonych Charakterystykawybranychukładówzłożonych Mózgczłowieka Języknaturalny Rynkifinansowe Współistnieniekolektywnościiszumu Identyfikacjaefektówkolektywnychwdanychempirycznych Rynekakcji Rynekwalutowy Powtarzalnośćizmienność Rynekakcji Koramózgowa:ośrodekwzroku Oddziaływaniadalekozasięgowe Asymetrycznamacierzkorelacji Koramózgowa:ośrodekwzroku Ośrodeksłuchu:oddziaływaniamiędzypółkulowe Rynekakcji:sprzężeniemiędzyrynkowe Brakcharakterystycznejskali Zależnościpotęgowewdanychfinansowych PrawoZipfaijęzyknaturalny Fraktalnośćimultifraktalność Fraktaleiformalizmmultifraktalny Multifraktalnycharakterdanychfinansowych Bańkispekulacyjnejakozjawiskakrytyczne Reprezentacjasieciowaukładówzłożonych Formalizmipodstawowewłasnościsiecizłożonych Rynekakcjijakosieć Rynekwalutowyjakosieć Podsumowanie D Dodatek.Daneempiryczne D.1 Rynkifinansowe D.2 Koramózgowa D.3 Teksty Spisliteratury...166

10

11 1 UKŁADY ZŁOŻONE 1.1 Fizyka a złożoność Od początków swojego istnienia nauka, w tym w szczególności fizyka, ze względu na ograniczenia w aparacie matematycznym, koncentrowala się na rozpatrywaniu możliwie najprostszych modeli zjawisk, które były w stanie uchwycić najbardziej istotne cechy tych zjawisk(zwłaszcza z praktycznego punktu widzenia) i na tej podstawie dokonywać przewidywań. Przykładowo, sukcesy statyki w projektowaniu maszyn i w budownictwie pozwoliły opisywać skomplikowanie nawet układy, złożone z wielu elementów, jako prostą wypadkową oddziaływań między tymi elementami składowymi. Z kolei późniejsze sukcesy newtonowskiej teorii grawitacji czy maxwellowskiej teorii elektromagnetyzmu pozwoliły na wytłumaczenie różnych, pozornie odległych od siebie zjawisk za pomocą kilku prostych równań, opisujących oddziaływania elementarne. Bezpośrednim tego skutkiem tak rozumiany redukcjonizm stał się zasadniczym imperatywem badawczym w fizyce. Postępując w ten sposób udało się nie tylko stworzyć zweryfikowane eksperymentalnie teorie unifikujące część oddziaływań elementarnych, a w dalszej perspektywie wszystkie oddziaływania, ale także pokazać, że układy i zjawiska nie wchodzące w tradycyjny obszar zainteresowania fizyki, jak np. związki i reakcje chemiczne, budowa i działanie organizmów żywych, czy zjawiska zachodzące w skorupie ziemskiej, są niczym więcej niż matematyczną konsekwencją elementarnych równań fizycznych. Z tego miejsca biegnie już prosta droga do poglądu, że mając do dyspozycji hipotetyczny układ równań Teorii Wszystkiego, można zrozumieć każdy istniejący we Wszechświecie układ fizyczny, przy założeniu posiadania odpowiedniej mocy obliczeniowej i znajomości warunków początkowych. Pogląd ten, sam w sobie słuszny, ma jednak zasadniczą słabość, wynikającą z przyjęcia całkowicie nierealistycznych założeń. Po pierwsze, dostępna w praktyce moc obliczeniowa jest daleko niewystarczająca do pełnego opisu układów o nawet stosunkowo prostej strukturze, jeśli w grę wchodzi bezpośrednie i równoczesne oddziaływanie wielu elementów ze sobą. Widać to wyraźnie już na przykładzie newtonowskiego problemu trzech ciał, którego dokładne rozwiązanie nie jest możliwe i trzeba uciekać się do metod przybliżonych(rachunek perturbacyjny). Innym przykładem takiego względnie prostego układu jest jądro atomowe, do którego opisu również niezbędne jest stosowanie przybliżeń(pole średnie, przybliżenie Hartree-Focka itd.). W tym kontekście obliczenia dotyczące o wiele bardziej skomplikowanych układów, takich jak żywa komórka czy skorupa ziemska, bazujące na znajomości ich elementów składowych (atomów), pozostają zupełnie poza zasięgiem obecnych możliwości rachunkowych. Po drugie, co jest częściowo związane z punktem pierwszym, znajomość układu w stanie obecnym nie musi prowadzić do znajomości warunków początkowych. Na poziomie kwantowym wynika to z probabilistycznej natury teorii kwantów i nieodwracalności zjawiska kolapsu funkcji falowej, zaś na poziomie klasycznym z chaotyczności rozwiązań niektórych równań fizycznych i wynikającej z tego ich czułości na warunki początkowe. Dochodzi się w ten sposób do istotnych ograniczeń podejścia redukcjonistycznego. Z jednej strony prowadzi ono do lepszego zrozumienia fundamentów budowy świata i zamknięcia ich w stosunkowo prostej formie kilku równań(triumf tzw. wielkiego redukcjonizmu), z drugiej strony jednak wyłaniają się niemożliwe do przezwyciężenia problemy z indukcyjnym przejściem od opisu detali do opisu całości w przypadku układów zło- 1

12 żonych z wielu oddziałujących elementów(porażka tzw. drobnego redukcjonizmu)[1]. Wydaje się więc, że wyjściem z sytuacji może być komplementarne zastosowanie podejścia holistycznego, tzn. opis każdego poziomu struktury z osobna, przy użyciu osobnych praw, których zakres stosowalności może(ale nie musi) być ograniczony tylko do tego poziomu[2]. Jako przykład niech posłuży rynek finansowy, złożony z inwestorów indywidualnych i instytucjonalnych, kierujących się w swoich strategiach chęcią zysku i unikaniem ryzyka. Mimo że wiadomo, jakie siły kierują inwestorami(w najprostszym ujęciu są to: chciwość i strach) i jaki charakter mają oddziaływania między nimi(wymiana informacji i transakcje), to w praktyce ta wiedza nie wystarcza do skonstruowania realistycznego modelu funkcjonowania rynku i na jego podstawie np. dokładnego przewidywania ruchów cen akcji; ruchy cen można natomiast opisywać z większym powodzeniem za pomocą specyficznych dla nich praw. Idąc głębiej w strukturę rynku, emocje kierujące inwestorami są niewątpliwie efektem oddziaływań między neuronami w ich mózgach, jednak mimo to nie sposób tą drogą tych emocji wyjaśnić i przewidzieć. Z kolei praca neuronów jest efektem reakcji chemicznych zachodzących w samych neuronach i w ich otoczeniu, komórkowe reakcje chemiczne są wyższego rzędu skutkiem budowy atomów, a te składają się z oddziałujących elektronów i protonów, z których te ostatnie są grupami kwarków. Teoretycznie więc wszystkie prawa ekonomii muszą być ścisłą matematyczną konsekwencją oddziaływań podstawowych między cząstkami elementarnymi. Oczywiście, w praktyce nie da się ich w ten sposób wyprowadzić i aby zrozumieć działanie rynku finansowego można, a nawet należy, pomiąć głębsze poziomy jego struktury bez utraty istotnych informacji. Jak wynika z powyższego przykładu, konieczność stworzenia niezależnych, choć uzupełniających się opisów na różnych poziomach organizacji materii wynika z faktu, że więcej to znaczy inaczej [3] i zjawiska zachodzące na wyższych poziomach nie muszą być prostą wypadkową dynamiki elementów składowych na niższych poziomach. Przykłady takich zjawisk są wszechobecne: konwekcja, turbulencja, przejścia fazowe, tarcie, fraktalna linia brzegowa, wzory wydm pustynnych, samoreplikacja DNA, cykle metaboliczne w komórkach, organizmy wielokomórkowe, dynamika populacji w ekosystemie, fale i potencjały mózgowe, składnia języka, pieniądz, cykle koniunkturalne w gospodarce itd. itp. Ich cechą wspólną jest emergentność, czyli samoistne pojawienie się(i zanikanie) makroskopowego porządku w morzu przypadkowo oddziałujących ze sobą elementów na poziomie mikroskopowym. Jest to możliwe w sytuacji, gdy elementy składowe oddziałują wzajemnie w sposób nieliniowy, a oddziaływanie między sąsiednimi elementami ma możliwość propagacji na duże odległości. W ten sposób lokalne fluktuacje, w zależności od stanu otoczenia(kontekstu), mogą przekształcać się w zachowania kolektywne, a nawet globalne. W oparciu o fenomen emergencji można przyjąć roboczą definicję układu złożonego, która będzie stosowana w odniesieniu do układów analizowanych w niniejszej pracy. W myśl tej definicji układem złożonym jest układ zbudowany z wielkiej liczby elementów oddziałujących ze sobą nieliniowo, który wykazuje zachowania kolektywne i posiada łatwość zmiany wewnętrznej struktury i wzorców aktywności na skutek wymiany energii lub informacji z otoczeniem. Definicja ta daleka jest od matematycznego rygoryzmu, nie jest też dostatecznie precyzyjna, aby w praktyce móc ściśle kwalifikować dany układ do grupy układów złożonych. Tym niemniej, na jej podstawie można wskazać układy, które na pewno są tak rozumianymiukładamizłożonymiitakie,którenapewnoniminiesą(nawetjeśliskładająsięzwielu oddziałujących elementów, jak np. gaz w równowadze termodynamicznej). Powyższa definicja układu złożonego ma tę zaletę, że bierze pod uwagę najbardziej charakterystyczne 2

13 fizyczne własności jego struktury i dynamiki, dzięki czemu jest przez fizyków najpowszechniej stosowana. Układy spełniające przyjętą definicję występują powszechnie w naturze, bywają często także technicznym wytworem człowieka(internet, sieci komunikacyjne, rynki finansowe itp.). Ich powszechność sprawia, że różne układy złożone są tradycyjnie przedmiotem zainteresowania różnych dyscyplin nauki z ich różnymi narzędziami badawczymi i językiem: fizyki, chemii, fizjologii, genetyki, ekologii, lingwistyki, ekonomii, socjologii, teorii informacji i innych. W ramach każdej z tych dyscyplin funkcjonują dobrze ugruntowane prawa dotyczące mikroskopowych i makroskopowych własności odpowiednich układów, jednak w klasycznym podejściu ich zakres obowiązywania nie wykracza poza horyzont zakreślony przez przedmiot badań danej dyscypliny. Traci się w ten sposób szanse na równoległą analizę różnych układów i formułowanie praw o większym poziomie ogólności, ergo bardziej fundamentalnych. Dopiero stosunkowo niedawno to podejście zaczęło stopniowo ulegać zmianie, przede wszystkim dzięki coraz większej popularności badań interdyscyplinarnych. Niektórzy zaczęli nawet traktować układy złożone jako przedmiot badań sam w sobie i wyróżniają nową dyscyplinę: naukę o złożoności. Zauważono bowiem, że wiele układów złożonych, niekiedy o bardzo odmiennej strukturze, ma zaskakująco podobne własności(podrozdział 1.3). Może to sugerować, że własności te są uniwersalne dla szerokiej klasy układów i mogą stanowić punkt wyjścia do prac nad sformułowaniem charakterystycznych dla nich praw. Co istotne, spośród wielu dyscyplin naukowych wnoszących wkład do badań nad układami złożonymi, fizyka wydaje się być do tego zadania predysponowana z dwóch powodów. Po pierwsze, fizyka zajmuje się odkrywaniem fundamentalnych praw przyrody, a powszechność złożoności we Wszechświecie wskazuje, że wszystko, co uniwersalne dla układów złożonych jest zarazem fundamentalne dla przyrody. Po drugie, fizyka wytworzyła narzędzia, które są przydatne w tego typu badaniach: dynamikę nieliniową, teorię przejść fazowych, teorię grupy renormalizacji, teorię samoorganizacji w stanie krytycznym, synergetykę i inne. Z tego powodu fizyka, która z punktu widzenia wielu innych dyscyplin, np. ekonomii, była do niedawna postrzegana jako nauka bardzo głębokiego poziomu(redukcjonistyczna) i przez to nieadekwatna do opisu wysokich poziomów organizacji materii, takich jak rynek finansowy, obecnie zaczyna być traktowana jako dyscyplina partnerska. 1.2 Pojęcie złożoności Próbując zdefiniować pojęcie złożoności, można wstępnie odwołać się do intuicji i przyjąć, że złożoność to nietrywialna regularność, mająca swoje źródło głęboko w strukturze układu, który na pierwszy rzut oka powinien być tej regularności pozbawiony. Jednak tak rozumiana złożoność jest w znacznym stopniu pojęciem subiektywnym( złożoność obiektu leży w oczach obserwatora [4]). Niestety, wprowadzenie obiektywnej, rygorystycznej matematycznie, niesprzecznej z intuicją i w dodatku powszechnie akceptowalnej definicji oraz podanie sposobu opisu ilościowego tego zjawiska jest niezwykle trudne. Wynika to w dużym stopniu z różnorodności układów, które można nazwać złożonymi i ich umiejscowienie na styku różnych dyscyplin naukowych. W efekcie, pomimo zaproponowania kilkudziesięciu miar złożoności[5], żadna nie jest na tyle uniwersalna, aby można ją było stosować w każdym przypadku. Ogólnie rzecz biorąc, można wyróżnić kilka głównych grup miar złożoności, odnoszących się do różnych aspektów struktury bądź ewolucji układów złożonych. Krótki przegląd używanych pojęć warto rozpocząć od miar deterministycznych, wprowadzonych w 3

14 teorii informacji. W tej dziedzinie pojawiło się po raz pierwszy pojęcie złożoności i tam też podjęto pierwsze próby precyzyjnego jej zdefiniowania. Kierunek rozumowania jest następujący: skoro mowa o mierze opisującej złożoność, to naturalnym jej wyrazem w odniesieniu do danego problemu jest stopień skomplikowania tego opisu. Patrząc z deterministycznego punktu widzenia, pod pojęciem złożoności problemu można rozumieć ilość zasobów, które należy wykorzystać, aby otrzymać jego precyzyjne rozwiązanie. Klasycznym pojęciem jest tutaj wprowadzona przez A. Kołmogorowa złożoność algorytmiczna ciągu znaków, która opisuje długość binarną najkrótszego algorytmu, którego wykonanie odtworzy zadany ciąg. Wielkość ta, choć w rzeczywistości nie daje się precyzyjnie wyliczyć liczbowo, odgrywa istotną rolę w teorii informacji, pozwalając określić, jak asymptotycznie zwiększa się zapotrzebowanie na zasoby komputera w sytuacji, gdy zwiększa się rozmiar problemu[6]. Warto zauważyć, że z punktu widzenia danych analizowanych przez komputer, wielkość ta ma sens jako miara złożoności tylko w odniesieniu do danych zawierających sekwencje regularne; w przypadku danych losowych traci ona swoją użyteczność, gdyż jej wskazania stoją wtedy w sprzeczności z intuicyjnym rozumieniem przypadkowości jako zjawiska trywialnego. Wyjściem z sytuacji może być wprowadzenie miary czułej tylko na istnienie regularności i z założenia pomijającej sekwencje przypadkowe(złożoność efektywna[6, 7]) lub miary opisującej czas potrzebny do odtworzenia ciągu znaków z jego skompresowanego opisu (głębokość logiczna[8, 9]). W tym drugim przypadku odchodzi się od żądania, aby algorytm był najkrótszy(posiadał minimalną złożoność Kołmogorowa) i dopuszcza algorytmy dłuższe, ale efektywniejsze czasowo. W tym ujęciu, złożonymi(czyli głębokimi ) są problemy, które do rozwiązania wymagają dużego wysiłku obliczeniowego. Można pokazać, że w myśl tej definicji sekwencje całkowicie losowe są problemami logicznie płytkimi [8]. Głębokość logiczną można też uważać za swoistą miarę złożoności strukturalnej układów fizycznych. Procesy, prowadzące do powstania układów o dużym stopniu wewnętrznej organizacji wymagają długiego czasu- jest mało prawdopodobne, że prosty układ stanie się złożony w efekcie szybkiego procesu. Jest to fizycznym odzwierciedleniem długiego czasu obliczeń, niezbędnego do wygenerowania złożonej informacji[10]. Pozostając na styku teorii informacji i fizyki, można wprowadzić pojęcie złożoności jako zdolności obliczeniowej. W jej myśl układ można nazwać złożonym, jeśli jest równoważny uniwersalnej maszynie Turinga[11]. Jak pokazano bowiem na niektórych modelach automatów komórkowych i układów quasi-fizycznych(gaz twardych kul)[12], przy odpowiednio dobranych warunkach początkowych i brzegowych modele te mogą być uniwersalne obliczeniowo i symulować każdy proces fizyczny. Dzięki temu z trywialnej struktury w stanie początkowym, mogą z czasem wyewoluować do struktury dowolnie złożonej. Zaletą tej definicji złożoności jest to, że aby zakwalifikować konkretny układ fizyczny do danej grupy, wystarczy pokazać, że jego model jest w stanie wykonywać uniwersalne obliczenia. Z punktu widzenia czystej fizyki takie podejście ma jednak istotną wadę: nie rozróżnia pomiędzy układami, które rzeczywiście wyewoluowały do złożoności(ich obecny stan jest wynikiem długotrwałych procesów) od układów, które są potencjalnie zdolne do takiej ewolucji, ale mimo to pozostają w stanie o prostej strukturze[10]. Grupa miar statystycznych wyraża złożoność poprzez ilość nadmiarowej informacji o makroskopowym stanie układu, którą uzyskuje się, analizując mikroskopowy stan elementów tego układu. Przykładem miary należącej do grupy statystycznych miar złożoności jest entropia informacyjna[13], opisująca ilość informacji zawartej w przekazie lub pomiarze.jeślip i jestprawdopodobieństwem,żeukładznajdujesięwstanieispośródn 4

15 dostępnychmustanów,toentropiainformacyjnah I danajestwzorem N H I = p i log 2 p i. (1) i=1 Ilościowo opisuje ona liczbę bitów informacji o stanie układu, którą można uzyskać dokonując pomiaru lub odbierając informację. Wprawdzie entropia informacyjna jest miarą użyteczną, jednak z drugiej strony przyporządkowuje ona najwyższą wartość informacjom lub stanom, będącym wynikiem zdarzeń przypadkowych. Z tego względu entropia informacyjna nie jest właściwym narzędziem do charakteryzowania złożoności. U podstaw innych miar statystycznych, które mogą charakteryzować układy złożone, leży spostrzeżenie, że układy będące w równowadze termodynamicznej z otoczeniem wykazują prostą strukturę, natomiast układy potocznie określane jako złożone, czyli np. żywa komórka, ludzki mózg, ekosystem itp., pozostają z otoczeniem w stanie silnej nierównowagi. W tym kontekście nasuwa się od razu pojęcie energii swobodnej zmagazynowanej w układzie fizycznym. Problem w tym, że ilość energii swobodnej w danym układzie nie jest proporcjonalna do jego intuicyjnego stopnia złożoności; przykładem może być roślina, która jako układ dyssypatywny, ma niższą energię swobodną niż składniki mineralne i organiczne, z których czerpie energię, ale zarazem ma od nich nieporównywalnie bardziej złożoną strukturę. Z problemem tym próbowano sobie poradzić, wprowadzając pojęcie głębokości termodynamicznej[14], będącej fizycznym odpowiednikiem głębokości logicznej i mierzącej minimalną entropię procesów i zdarzeń fizycznych, które mogły doprowadzić do powstania danego układu.(jest ona swojego rodzaju formalnym rozwinięciem wcześniejszej koncepcji negentropii[15].) Głębokość termodynamiczną układu w stanie X definiuje się wyrażeniem: D T (X)=min{ klnp i (X)}, (2) i gdziep i (X)jestprawdopodobieństwem,żeukładdoszedłdostanuXnadrodzei,ak jest stałą Boltzmanna. W praktyce wzięcie minimum po wszystkich możliwych trajektoriach i nie jest możliwe, dlatego bierze się pod uwagę tylko najbardziej prawdopodobną trajektorię. Miarę tę można rozumieć jako entropię, która została przekazana do innych stopni swobody niż te, charakteryzujące obecny stan układu. Jest to zatem miara wysiłku termodynamicznego, który należy przedsięwziąć, aby stworzyć dany układ. Choć głębokość termodynamiczna zdaje egzamin jako jakościowa charakterystyka układów i jest zgodna z intuicją, to w przypadku zastosowania jej do opisu ilościowego naturalnych układów złożonych okazuje się nieużyteczna, ponieważ w praktyce niemożliwe jest podanie dokładnego ciągu zdarzeń termodynamicznych, które doprowadziły do aktualnego stanu układu. Poza tym pojawia się trudny do rozstrzygnięcia problem, czy jako zdarzenia rozpatrywać tylko te, dotyczące układu na rozpatrywanym poziomie hierarchii, czy też należy uwzględniać procesy zachodzące na głębszych, w tym najniższych poziomach struktury. Spojrzenie całościowe na układ i uwzględnienie różnic w stopniu jego złożoności na różnych poziomach hierarchii(skalach) jest cecha charakterystyczną innej miary statystycznej: złożoności wieloskalowej[16]. Miara ta, oparta na entropii informacyjnej, określa ilościowo złożoność układu jako sumę entropii podukładów na różnych poziomach jego organizacji. Dzięki swoim własnościom, w szczególności zależności funkcyjnej od skali, miara ta pozwala na rozróżnienie między układami wykazującymi intuicyjnie rozumianą złożoność, a takimi, które jej nie wykazują; może być też użyteczna w analizie złożoności sygnałów[17]. Stosowalność złożoności wieloskalowej jest jednak zawężona tylko układów, w 5

16 których stan elementów składowych opisywany jest znanym rozkładem prawdopodobieństwa(co bardzo utrudnia wykorzystanie tej miary w przypadku układów naturalnych). Jedno z pojęć złożoności dotyczy istnienia zależności statystycznych pomiędzy elementami składowymi układu: im więcej elementów wykazuje funkcjonalną łączność, tym większy stopień złożoności takiego układu(elementy muszą być przy tym od siebie na tyle odległe, że korelacje między nimi nie są trywialnym efektem oddziaływań między sąsiadami). Można to wyrazić za pomocą entropii, która dla takich związanych ze sobą elementów/podukładów nie jest wielkością addytywną. Przykładem miary statystycznej wyrażającej tak rozumianą złożoność jest informacja wzajemna, opisująca ilość informacji o jednym podukładzie, którą można uzyskać z obserwacji innych podukładów[18]. W przypadkudwóchpodukładówx 1,X 2 wyrażasięonawzorem: I(X 1,X 2 )=H I (X 1 )+H I (X 2 ) H I (X 1,X 2 ), (3) gdzieh I (X 1,X 2 )jestentropiąłącznąx 1 ix 2.Ozłożonościukładumożnamówićwsytuacji,gdyI(X 1,X 2 ) 0,adodatkowospełnionyjestwarunek,żezależnościstatystyczne są wynikiem powolnego procesu, a nie nagłych, globalnych zdarzeń[19]. Wreszcie, złożoność można też definiować jako nieregularność struktury układu. Najważniejszym przykładem stosownej miary ilościowej jest w tym wypadku wymiar fraktalny. Ma on zastosowanie do opisu struktury układów przestrzennych i ich ewolucji w czasie zarówno w przypadku obiektów matematycznych, jak i układów fizycznych. Z drugiej strony, przy jego pomocy nie można opisać ilościowo układów, które nie posiadają oczywistej struktury fraktalnej, ale mimo to mają złożoną budowę i działanie, takich jak np. żywa komórka czy rynek finansowy. Powyższa lista nie wyczerpuje wszystkich sposobów definiowania i wyrażania złożoności. Pozwala jednak zauważyć, że próby ilościowego opisu różnorodnych układów złożonych i sygnałów za pomocą pojedynczej miary są z góry skazane na niepowodzenie. Nawet jeśli jakaś miara sprawdza się w pewnym aspekcie zjawiska złożoności i daje wyniki zgodne z intuicją, to stosując ją albo napotyka się na trudności z użyciem jej w badaniach empirycznych(jak w przypadku głębokości: logicznej i termodynamicznej), albo miara ta nie jest na tyle uniwersalna, aby mogła być stosowana samodzielnie jako wyznacznik złożoności w każdym przypadku(jak wymiar fraktalny czy informacja wzajemna). Dlatego zamiast takiego podejścia, które można nazwać całościowym, konieczne jest podejście bardziej lokalne. Należy przez to rozumieć skoncentrowanie się na poszukiwaniu w strukturze i dynamice badanych układów cech charakterystycznych dla układów złożonych i ich opis ilościowy za pomocą narzędzi(z obszaru matematyki, fizyki statystycznej bądź teorii sieci), adekwatnych do konkretnej sytuacji. W tym sensie identyfikacja takich ilościowych charakterystyk w danym układzie może stanowić manifestację złożoności jego struktury. To podejście do badań nad złożonością układów naturalnych jest w tej chwili w fizyce najpowszechniejsze. 1.3 Własności układów złożonych W tym podrozdziale omówione zostaną najbardziej charakterystyczne cechy budowy i zachowania układów, które określa się jako złożone. Stworzenie takiego przeglądu jest możliwe dzięki powszechności tych cech. Układy o bardzo różnej morfologii, zbudowane na poziomie mikroskopowym z całkowicie odmiennych elementów, w tym różniących się poziomem hierarchii(układy zbudowane z prostych części składowych, tj. nie wykazujących 6

17 złożoności, i układy, których elementy są same układami złożonymi)- mogą wykazywać zadziwiająco podobną strukturę makroskopową i podobne zachowywać się w pewnych sytuacjach. Może to stanowić- choć obecnie jest to ciągle problem pod wieloma względami otwarty- manifestację uniwersalności zjawisk fizycznych, które leżą u podstaw istnienia takich układów Samoorganizacja Cechą, która najbardziej wyróżnia układy złożone wśród innych układów występujących w przyrodzie, jest ich samoorganizacja. Jest to proces ciągłej modyfikacji struktury wewnętrznej układu, w wyniku którego w układzie samoistnie pojawia się porządek i wzrasta złożoność. Proces ten jest katalizowany przez oddziaływanie układu z otoczeniem. Samoorganizacja jest szczególnie widoczna w układach biologicznych i społecznych, w których na różnych poziomach struktury pojawia się kooperacja i specjalizacja elementów składowych, ale w mniej spektakularny sposób zjawisko to pojawia się także w innych, mniej skomplikowanych układach i procesach, takich jak reakcje chemiczne, wzrost kryształów, czy tworzenie się wydm. W wyniku samoorganizacji z mikroskopowego nieuporządkowania wyłania się silny porządek w postaci makroskopowej struktury i spójnych, globalnych wzorców aktywności układu. Mechanizm samoorganizacji ma swoje źródło w procesach nierównowagowych, w których- na skutek zmiany parametru zewnętrznego- pierwotnie stabilny układ przechodzi przez punkt niestabilności[20]. Układy, w których zachodzi to zjawisko, muszą znajdować się daleko od punktu równowagi termodynamicznej. W stanie równowagi, który jest stabilnym rozwiązaniem równań opisujących dynamikę układu, wszelkie fluktuacje destabilizujące lokalnie układ są tłumione i nie powodują trwałych efektów makroskopowych. Nawet gdy warunki brzegowe nałożone na układ nie pozwalają mu powrócić dokładnie do punktu równowagi, to i tak ma on tendencję do przebywania możliwie blisko tego punktu, co wyraża zasada minimalnej produkcji entropii[21]. Inaczej wygląda sytuacja daleko od stanu równowagi, gdzie- z powodu zmiany wartości parametru kontrolnego w wyniku stałego oddziaływania z otoczeniem- mogą pojawić się inne rozwiązania stabilne na drodze bifurkacji(rys. 1). Wtedy, przechodząc przez punkt bifurkacji, system staje się niestabilny i nawet małe fluktuacje na poziomie mikroskopowym mogą zostać nieliniowo wzmocnione i w efekcie układ jako całość przechodzi do jednego z możliwych nowych stanów stabilnych - powstaje tzw. struktura dyssypatywna(układ produkuje entropię). Można to zjawisko opisać jako pojawienie się porządku na skutek spontanicznego złamania symetrii. Matematycznie wyraża to niezerowa wartość parametru porządku, charakterystycznego dla konkretnego układu. Jako uproszczony przykład pojawienia się bifurkacji może posłużyć oscylator anharmoniczny, opisywany równaniem: q(t)= γq(t) αq 3 (t), α>0. (4) W stanie równowagi: q(t) = 0 i wówczas rozwiązaniami równania(4) są: γ>0: q=0 (5) γ<0: q 0 =0 i q 1,2 =± γ /α. (6) W pierwszym przypadku jedyne rozwiązanie jest stabilne, natomiast w drugim stabilne sątylkorozwiązaniaq 1 iq 2.StowarzyszonyztymidwomaprzypadkamipotencjałV(q) został przedstawiony na rys. 2. 7

18 q * q 2 q 0 γ q 1 Rysunek 1: Bifurkacja rozwiązania stabilnego równania(4) przy przejściu parametru γ przez 0 w kierunku ujemnych wartości. Rozwiązania stabilne oznaczone są linią ciągłą, a rozwiązanie niestabilne- linią przerywaną. V(q) V(q) q 0 q q 1 q 0 q 2 q Rysunek 2: Potencjał oscylatora anharmonicznego(4) w zależności od parametru porządkuq.a)dlaγ>0jedynerozwiązanieq=0jeststabilne.b)dlaγ<0rozwiązanie q = 0 staje się niestabilne, fluktuacje powodują spontaniczne złamanie symetrii i przejście układu do jednego z dwóch równoważnych minimów potencjału. 8

19 Jednym z najprostszych układów, w którym samo wystąpienie odpowiednio dużej nierównowagi prowadzi do spontanicznej samoorganizacji, jest warstwa cieczy znajdująca się pomiędzy dwoma poziomymi płaszczyznami w polu grawitacyjnym, z których dolna ma temperaturęt 1,agórnaT 2 izachodziwarunekt 1 >T 2.Przyodpowiedniodużejróżnicy temperatur dochodzi do pojawienia się komórek konwekcyjnych Bénarda i tym samym wzrostu stopnia wewnętrznej organizacji układu. Innymi przykładami spontanicznego łamania symetrii są np. pojawienie się niezerowej magnetyzacji w próbce ferromagnetyka poniżej punktu Curie w obecności zewnętrznego zmiennego pola magnetycznego czy pojawienie się akcji laserowej przy odpowiednio silnej inwersji obsadzeń w atomach. Podobne podłoże ma fundamentalny dla świata organizmów żywych proces różnicowania się tkanek z pojedynczej komórki w czasie rozwoju embrionalnego[22] Współistnienie szumu i kolektywności Na zjawisko samoorganizacji można spojrzeć jak na pojawienie się porządku na skutek radykalnego zmniejszenia efektywnej liczby stopni swobody w układzie, gdy ten- na skutek zmiany zewnętrznych parametrów- znajdzie się w pobliżu punktu niestabilności. Niechukładonstopniachswobodyq i (t)będzieopisywanyrównaniamipodobnymido (4): q i (t)= γ i q i (t)+f i (q i (t)),i=1,...,n, (7) gdzieγ i 0,afunkcjef i sąnieliniowe,iniechwukładzietymmożnawyróżnićdwiegrupy stopniswobody:stabilne(lubszybkie)q (s) i,wktórychzaburzeniasąszybkotłumione,i niestabilne(lubpowolne)q (u) j,wktórychtłumieniezaburzeńjestsłabe(γ (s) i γ (u) j ).Wtedy, gdy zaburzony zostanie niestabilny stopień swobody, może on w wyniku nieliniowych oddziaływań podporządkować sobie inne stopnie: q (s) i (t) g(q (u) j (t)), (8) gdziegjestjednomianem.takiniestabilnystopieńswobodyq (u) j możnautożsamićzparametrem porządku. Wzór(8) wyraża tzw. zasadę podporządkowania(slaving principle)[23]. Zjawisko zmniejszenia liczby stopni swobody w układzie manifestuje się w postaci zachowań kolektywnych, które charakteryzują układ na poziomie makroskopowym. W układach złożonych występujących w przyrodzie rzadko zdarza się, aby wszystkie stopnie swobody podlegały koherentnej ewolucji. Najczęściej sprzężone stopnie swobody koegzystują ze stopniami wykazującymi zachowanie indywidualne. W różnych układach wzajemne proporcje stopni kolektywnych i niesprzężonych są różne, a w dużym stopniu zależy to także od konkretnego stanu, w którym znajduje się dany układ. Zdarzają się stany o silnej koherencji(fale alfa w mózgu, panika na rynkach finansowych, wędrówka ptaków itp.), jak i stany, w których kolektywność jest o wiele słabsza(stan czujności mózgu, okres stagnacji na giełdzie, loty ptaków na terenie lęgowym). Jednak nawet w stanie uporządkowanym marginalna obecność szumu sprzyja zachowaniu elastyczności przez układ i jego zdolności do penetracji przestrzeni fazowej w poszukiwaniu nowych stanów stabilnych Zmienność i adaptowalność Pojawienie się porządku nie musi być trwałe. Wcześniej czy później zewnętrzne parametry ponownie ulegają zmianie, a dotychczasowy stan układu staje się niestabilny. 9

20 V(q) q 1 q 2 q 3 q Rysunek 3: Przykładowy potencjał o trzech punktach stabilnych. W chwili początkowej układznajdujesięwmetastabilnymstanieq 2,alenaskutekfluktuacjiprzechodzido jednego z dwu korzystniejszych stanów. Układ przechodzi przez kolejny punkt bifurkacji i osiąga nowy stan stabilny, podobnie jak wcześniej(rys. 2). Inna możliwa sytuacja ma miejsce, gdy obok minimum potencjału, w którym znajduje się układ, istnieje lub pojawia się nowe, korzystniejsze minimum, oddzielone od pierwszego barierą. Wówczas obecność fluktuacji w układzie umożliwia pokonanie tej bariery potencjału i przejście do bardziej stabilnego stanu, co ilustruje rys. 3. W stanie tym układ może cechować inna struktura i inne zachowanie niż w poprzednio odwiedzanym stanie. W ten sposób ewolucja układu przebiega jako ciąg kolejnych stanów metastabilnych i przejść między tymi stanami. Każde osiągnięcie stanu o większej stabilności można traktować jako lepsze dostosowanie się układu do warunków otoczenia. Im układ ma bardziej elastyczną strukturę wewnętrzną(większą możliwość reorganizacji), tym szybciej potrafi się przystosować jako całość. Inaczej wygląda to w mikroskali, ponieważ poszczególne stopnie swobody układu mogą ulegać całkowitemu zniszczeniu, a także powstawać zupełnie nowe, co nie ma jednak wpływu na istnienie układu w makroskali. Najbardziej widoczne jest to w układach biologicznych, gdzie za stopnie swobody można np. przyjąć poszczególne komórki(w organizmach wielokomórkowych) lub gatunki(w ekosystemach). To, które konkretnie stopnie swobody przetrwają przejście układu przez stan niestabilny, zależy od ich przystosowania do nowych warunków. W przykładowym układzie fizycznym, w laserze, parametrem, który można opisać jakoprzystosowaniedanegostopniaswobodyω i (modupolaelektromagnetycznego),jest czasżyciaτ i odpowiedniegofotonuwewnątrzlasera.możnapokazać,żewprzypadku, gdyróżnemodycechująsięróżnąwartościąτ i,akcjalaserowapojawiasiędlamoduo najdłuższymczasieżyciaτ max inajbliższegoczęstościrezonansowej.zanikinnychmodów pola przy przejściu przez punkt progowy akcji laserowej można opisać jako konkurencję między modami i zwycięstwo najlepiej przystosowanego z nich[23]. 10

21 Powyższy przykład łączy fizyczne ujęcie procesów w pobliżu punktu przejścia fazowego z ujęciem ewolucyjnym, opartym na darwinowskiej teorii doboru naturalnego. Zgodnie z nią, kluczową charakterystyką danego stopnia swobody(np. gatunku) jest jego zdolność do reprodukcji w obliczu konkurencji o ograniczone zasoby z innymi stopniami swobody. Konkurencja wzmacnia się z chwilą destabilizującej układ zmiany zewnętrznych parametrów(np. klimatu) lub pojawienia się nowego stopnia swobody poprzez przypadkową mutację. Wygrywa ten stopień, który jest w stanie najszybciej zwiększać swoją siłę(np. populację gatunku) kosztem innych stopni. Gdy ustalą się nowe relacje między siłą stopni swobody, układ jako całość przechodzi do nowego stanu równowagi. Adaptowalność wymaga istnienia fluktuacji w układzie i stosunkowo niskich barier potencjału pomiędzy stanami stabilnymi, dzięki czemu układ może szybko przechodzić pomiędzy kolejnymi minimami. Z drugiej strony, fluktuacje nie mogą dominować, a bariery nie mogą być zbyt niskie, aby układ mógł w ogóle posiadać stany stabilne. Konkurencja między tymi sprzecznymi oczekiwaniami może być kontrolowana przez układ poprzez manipulowanie rozmiarem: im większy układ, tym fluktuacje są relatywnie słabsze(rosnąjakn 1/2,gdzieNtorozmiarukładu)[23].Podobniejestzwpływemotoczeniana układ poprzez powierzchniową wymianę energii i materii: jest on najsilniejszy w przypadku małych układów. Ponieważ ta wymiana działa na rzecz przywrócenia równowagi termodynamicznej między układem a otoczeniem, tylko duże układy, w których oddziaływania powierzchniowe można pominąć, mogą wykazywać trwałą samoorganizację. Jest to jedna z przyczyn, dla których trwałe układy złożone muszą posiadać odpowiednio dużą liczbę wewnętrznych stopni swobody Struktura hierarchiczna Ogromna większość układów złożonych wykazuje wielopoziomowość budowy, w której pojedyncze elementy na wyższym poziomie same stanowią układy złożone na niższych poziomach. Zaletą tworzenia coraz wyższych poziomów organizacji jest zwiększanie liczby możliwych konfiguracji struktury i, co za tym idzie, większa możliwość optymalizacji. Podstawowym mechanizmem umożliwiającym powstawanie form coraz wyższego rzędu jest opisana powyżej zasada podporządkowania: sprzężenie wielu(adekwatnych do sytuacji) stopni swobody układu, w wyniku którego następuje efektywne zmniejszenie ich liczby, w skrajnym przypadku do jednego. Z punktu widzenia obserwatora z zewnątrz cały układ zaczyna wtedy funkcjonować jakby był pojedynczym stopniem swobody(np. jeden mod lasera czy niezerowy moment magnetyczny w domenie ferromagnetyka). Jeśli takich układów z silnie sprzężonymi stopniami swobody jest więcej i jeśli między nimi zachodzą oddziaływania, mogą razem stworzyć strukturę wyższego rzędu. W bardziej skomplikowanych układach, w szczególności chemicznych, biologicznych i społecznych, sprzężenie stopni swobody i struktura hierarchiczna może się tworzyć na drodze przeniesienia ewolucji darwinowskiej z niższego poziomu hierarchii na wyższy poziom[24].matomiejscewsytuacji,gdywpewnymmomencieilośćzasobówjestwystarczająca do tego, aby nie wszystkie pojedyncze stopnie swobody układu musiały ze sobą konkurować o te zasoby. Może się wtedy okazać, że pojawienie się zależności między niektórymi z nich przynosi im większą korzyść niż współzawodnictwo. Ponieważ współdziałając, wszystkie elementy z takiej grupy(mogą to być molekuły, gatunki, organizacje itd.) stają się jednak bardziej wrażliwe na destrukcję każdego z nich, aby temu przeciwdziałać, wytwarzają barierę oddzielającą je od świata zewnętrznego. Od tego momentu stają się jednym tworem na wyższym poziomie hierarchii i mogą zacząć konkurować z po- 11

22 dobnymi tworami na drodze darwinowskiej. Przykładem hierarchicznej struktury o wielu poziomach hierarchii, która mogła wyewoluować w powyższy sposób, jest żywy, wielokomórkowy organizm. Konstruktywne współdziałanie stopni swobody w tym wypadku jest widoczne na trzech poziomach: molekuł, części składowych komórki i samych komórek. Innym typem struktury hierarchicznej jest struktura, w której hierarchia pojawia się wśród elementów tworzących układ. Jest to widoczne np. w sieciach złożonych, w których węzły o dużej liczbie połączeń współistnieją z węzłami o małej krotności, w strukturze osadniczej na danym terytorium, gdzie większe skupiska mieszkańców są otoczone przez mniejsze osady, czy też w istnieniu hierarchii uskoków tektonicznych, różniących się długością Bezskalowość Z hierarchiczną naturą układów złożonych ściśle wiąże się inna charakterystyczna ich własność: brak wyróżnionej skali. Zarówno struktura takich układów, jak i procesy w nich zachodzące są takie same w szerokim zakresie skal przestrzennych i czasowych. Przykłady można mnożyć; oprócz wymienionych w poprzednim podrozdziale, są to m.in.: struktura układu krwionośnego i nerwowego, kształt linii brzegowej, procesy wzrostu kryształów, zależność częstości trzęsień ziemi od ich amplitudy, zależność różnicy prędkości worteksów od ich odległości w turbulencji, zależność szybkości metabolizmu zwierząt od ich masy, rozkłady: bogactwa w społeczeństwie, siły trzęsień i wielkości osunięć ziemi, liczby odnośników do stron internetowych itd. Zaproponowano wiele mechanizmów, które mogą tłumaczyć powszechność niezmienniczości względem skali(agregacja limitowana przez dyfuzję[25], procesy Yule a[26] i uprzywilejowane przyłączanie[27], błądzenie przypadkowe[28], superpozycja procesów o rozkładzie wykładniczym i inne[29]). Tylko niektóre z nich można powiązać ze zjawiskiem złożoności, podczas gdy inne są raczej trywialne. Samoorganizacja jest ściśle związana ze zjawiskiem przejść fazowych, dlatego uniwersalna dla takich przejść bezskalowość w naturalny sposób może być jednym z najważniejszych mechanizmów prowadzących do bezskalowości w układach złożonych[30]. Wielkością, która opisuje charakterystyczną dla danego zjawiska skalę, jest długość korelacji ξ. Niech równoczasowa przestrzenna funkcja korelacji będzie zdefiniowana wzorem: C(r)= ρ(x)ρ(r x) x, (9) gdzie ρ(x) jest wielkością fizyczną zależną od problemu(spin cząstki, prawdopodobieństwo znalezienia cząstki w punkcie x itd.). W typowych warunkach powyżej punktu krytycznego korelacja zanika wykładniczo: C(r) e r/ξ. (10) Długość korelacji określa dwa reżimy symetrii w układzie: dla r < ξ stopnie swobody są od siebie zależne(symetria jest zaburzona), w wyniku czego rozmiar fluktuacji może być na tyle duży, że wyliczanie średnich wartości wielkości fizycznych traci sens. Z kolei w przypadku odwrotnym, r ξ, obszary o rozmiarze r są od siebie niezależne, problem zachowuje symetrię i średnie własności fizyczne mogą być określone. W układach, w których zachodzą przejścia fazowe, długość korelacji jest zależna od zewnętrznego parametru kontrolnego Θ(np. temperatury), a w szczególności od różnicy tegoparametruodwartościkrytycznejθ c,przyktórejnastępujeprzejście.przyzbliżaniu siędopunktukrytycznego((θ Θ c ) 0 + ),pomiędzypierwotniesłaboskorelowanymi stopniami swobody(małe ξ), na skutek wzajemnych oddziaływań pojawiają się korelacje, 12

23 których zasięg jest tym większy, im bliżej znajduje się punkt krytyczny. W otoczeniu samego punktu krytycznego ξ jest rozbieżne potęgowo: ξ Θ Θ c ν, ν>0. (11) Zależność wykładnicza funkcji korelacji(13) również przekształca się w zależność potęgową: C(r) r α, α>0. (12) W praktyce oznacza to, że maksymalny zasięg korelacji jest zdeterminowany tylko przez rozmiar układu. W takich warunkach kolektywne zachowania stopni swobody mogą być obserwowalne na wszystkich dostępnych skalach, a fluktuacje mogą się propagować dowolnie daleko. Układ staje się przez to skrajnie wrażliwy nawet na drobne zaburzenia. Brak wyróżnionej skali korelacji przenosi się bezpośrednio na bezskalowość struktury. Niezmienniczość korelacji względem skali może być także obserwowana w domenie czasowej, gdzie funkcja autokorelacji C(τ)= ρ(t)ρ(t τ) (13) także zachowuje się potęgowo w punkcie krytycznym, a spektrum mocy S(f)= + C(τ)e 2πifτ dτ (14) wykazujewtedyzachowanietypu1/f β,β>0( szum1/f ). Szczególnie ciekawym przypadkiem bezskalowości jest sytuacja, gdy zależności potęgowe manifestują się w różny sposób dla różnych części układu, dla różnych fragmentów sygnałów lub na różnych skalach. Ma to miejsce, gdy układ lub sygnał ma charakter multifraktalny. Wynika to z faktu, że multifraktalna natura obserwabli jest przejawem nieliniowości procesów, a to jest jednym z fundamentów konstrukcji układów złożonych. (Problem ten zostanie omówiony szerzej w rozdz. 7.) Oczywiście, z uwagi na skończone rozmiary układów i nałożone inne warunki brzegowe, bezskalowość przestaje obowiązywać dla bardzo małych i bardzo dużych skal. Prawa potęgowe mogą być wówczas modyfikowane np. przez silniej zbieżne eksponenty na dużych skalach Samoorganizacja w stanie krytycznym W klasycznym ujęciu teorii przejść fazowych przejście układu przez punkt krytyczny jest wynikiem zmiany zewnętrznego parametru, kontrolowanego przez otoczenie. Obserwowana w wielu układach złożonych niezmienniczość względem skali może sugerować, że układy te znajdują się przez większość czasu w stanie krytycznym lub w jego pobliżu. Byłoby to jednak mało prawdopodobne, jeśli nie istniałby wewnętrzny mechanizm, kierujący ewolucją układu w stronę punktu krytycznego na granicy między porządkiem a nieporządkiem. Takim mechanizmem może być samoorganizacja w stanie krytycznym (self-organized criticality, SOC)[31], wprowadzona jako próba wyjaśnienia powszechności szumu1/f. Archetypicznym modelem zjawiska SOC jest ewolucja stożka piasku, formowanego przez dodawanie ze stałą częstotliwością kolejnych ziaren na ograniczoną powierzchnię, z której brzegów ziarna mogą się bezpowrotnie osypywać do otoczenia. W miarę jak przybywa piasku, zwiększa się kąt α nachylenia tworzącej do podstawy stożka. Gdy kąt 13

24 jest niewielki(stożek względnie płaski) kolejne zarna piasku, spadając, albo nie powodują w ogóle lawin, albo lawiny mają ograniczony, lokalny zasięg. Gdy nachylenie tworzącej rośnie, lawiny stają soraz częstsze i coraz większe. Po przekroczeniu pewnej progowej wartościα c stożekjestjużtakstromy,żedodaniepojedynczegoziarnapowodujeglobalną katastrofę, w wyniku której stożek spłaszcza się i α spada poniżej wartości progowej. Następnie cykl powtarza się. Rozważania teoretyczne i symulacje komputerowe pokazały[31, 32], że układ ewoluuje w kierunku stanu stacjonarnego, w którym wartość kąta ma tendencję do oscylacji w niewielkimzakresiewokółα c.wbliskimotoczeniuα c spontaniczniepojawiasięhierarchia: zarówno rozmiar pojedynczych lawin, jak i czas ich trwania dany jest przez prawa potęgowe. Warunkiem osiągnięcia stanu stacjonarnego jest otwartość układu: dyssypacja piasku na brzegach równoważy napływ nowych ziaren; istotny jest też krótki czas relaksacji układu w porównaniu z szybkością dodawania ziaren(lawiny nie są dodatkowo zaburzane). Prostą komputerową realizacją modelu jest automat komórkowy( Abelian sandpile ) o następujących zasadach[31]: h i = h i +1, h i h tr (15) h i = h i 2D, h i >h tr (16) h j = h j +1, (17) gdzieh i jestwartością( wysokością )komórkii,h tr jestprogiem,przyktórymnastępuje obsunięcie się piasku, j są sąsiadami i(w liczbie 2D, gdzie D jest wymiarem przestrzeni). W każdym kroku ewolucji modelu komórka i jest wybierana losowo spośród komórek matrycy. Jeśli obsunięcie jednego ziarna przyjąć za jednostkę rozproszonej energii φ(x, t) w punkcie x, to całkowita energia rozpraszana w jednostce czasu w układzie i jej spektrum mocy są równe, odpowiednio: F(t)= φ(x, t)dx, (18) S(f)= F(t 0 +t)f(t 0 ) e 2πift dt f β,β>0, (19) gdzieśrednia jestbranapowszystkichchwilacht 0.Jesttospektrumtypuszumu1/f. Mimo przekonujących wyników symulacji komputerowych w odniesieniu do bezskalowości zdarzeń w modelu SOC, jego eksperymentalne realizacje nie zawsze to zjawisko potwierdzają(np.[33, 34]); niezgodność z symulacjami numerycznymi może mieć jednak uzasadnienie w różnej geometrii ziaren używanego materiału. Z drugiej strony, zaletą modelu jest uniwersalność scenariusza: układ samoorganizuje się w stanie krytycznym dla bardzo szerokiej gamy konkretnych realizacji modelu i dużego zakresu warunków brzegowych. Z tego względu SOC jest jednym z podstawowych modeli wykorzystywanych do opisu ewolucji układów złożonych. Jego cechą charakterystyczną jest to, że traktuje nagłe zmiany w strukturze układu złożonego, zarówno lokalne, jak i globalne, o atrybutach katastrofy, jako nieodłączną część wewnętrznej dynamiki tego układu. Stawia to pod znakiem zapytania możliwość przewidywania katastrofalnych zdarzeń, takich jak wielkie trzęsienia ziemi,ponieważnaturairozwójkażdegoznichniczymnieróżnisięodnaturyirozwoju drobnych zdarzeń[29]. Model SOC, z racji swojej katastroficznej natury, znalazł zastosowanie m.in. w opisie naturalnych i społecznych sytuacji kryzysowych: pożarów lasów, trzęsień ziemi, lawin błotnych, wyginięć gatunków, epidemii, wojen i paniki na rynkach finansowych[35]. W jego ramach można w naturalny sposób wytłumaczyć obserwację, że wiele układów złożonych 14

25 wykazuje nieciągłą ewolucję: długie okresy względnej stabilności i ciągłości są przerywane krótkimi okresami turbulencji, które silnie zmieniają stan układu. Klasycznym przykładem takiego układu jest biosfera, w której historii zasadnicze zmiany dokonywały się głównie w wyniku wielkich katastrof naturalnych, których następstwami były masowe wymierania jednych gatunków i przyśpieszony rozwój innych. Model ewolucji biosfery oparty na SOC[36] można uznać za ujęcie w języku fizyki wcześniejszej, opartej na obserwacji, teorii przerywanej równowagi (punctuated equilibrium)[37]. Warto jednak zauważyć, że statystyka najbardziej katastrofalnych zdarzeń, jakim podlegają układy złożone, pokazuje, że takie ekstremalne zdarzenia zdarzają się częściej niż wynikałoby to z aproksymacji prawami potęgowymi. Takich oddalonych zdarzeń(outliers) nie da się wyjasnić na gruncie oryginalnego modelu SOC i konieczne jest rozważanie jego modyfikacji[38, 39], które- w przeciwieństwie do oryginalnego modelu- tworzą przestrzeń dla pomyślnych przewidywań Silnie zoptymalizowana tolerancja Na układy złożone mozna spojrzeć także z punktu widzenia inżynierii, jako na układy, których struktura jest przystosowana do przetrwania potencjalnych zagrożeń. Jest to spojrzenie w wielu punktach przeciwstawne do opisanego wyżej modelu SOC, w którym zmiany na skutek katastrof są czymś naturalnym. W ujęciu teorii silnie zoptymalizowanej tolerancji(highly optimized tolerance, HOT), zdarzenia katastrofalne o jakiejkolwiek skali są zdarzeniami przez układ niepożądanymi, przed skutkami których ma go chronić wewnętrzna organizacja[40, 41]. Układ złożony w rozumieniu HOT jest bardzo elastyczny w odniesieniu do wewnętrznych zaburzeń i błędów oraz w odniesieniu do niekorzystnych czynników zewnętrznych(ma dużą tolerancję). Zakres tolerancji jest powiększany przez precyzyjne dostrajanie struktury pod katem warunków działania(silna optymalizacja), co najczęściej prowadzi do zwiększenia złożoności układu. Model HOT dotyczy tak układów naturalnych, w tym zwłaszcza biologicznych i ekosystemów, jak i układów sztucznych - urządzeń technicznych i struktur społecznych. Tak jak w przypadku dwóch ostatnich typów, model HOT pozwala na włączenie do grupy układów złożonych takich układów, których skomplikowana struktura powstaje poprzez projekt, a nie na drodze spontanicznej samoorganizacji. Ponadto HOT wydaje się być bardziej realistycznym modelem od modelu SOC w tym sensie, że zamiast zbyt uproszczonego założenia o jednorodności układu, leżącego u podstaw konstrukcji SOC, HOT kładzie nacisk na różnorodność(heterogeniczność) struktury i wieloparametrowość. Ilustracją idei HOT jest np. nowoczesny odrzutowiec wyposażony w skomplikowane układy elektroniczne, który- choć spełnia tę samą funkcję, co o wiele starsze modele samolotów, osiągające podobne parametry lotu- jest nieporównywalnie bardziej odporny na zmiany warunków atmosferycznych, drobne uszkodzenia czy niedyspozycję pilotów[41]. Matematycznie model HOT opiera się na optymalizacji parametrów układu pod kątem uzyskania maksymalnej efektywności[40]. W prostym przypadku niech x będzie zdarzeniem, którego koszt wynosi K(x), Z(x)- zasobami dostępnymi w x, a p(x) prawdopodobieństwem wystąpienia zdarzenia. Jeśli zasoby są globalnie ograniczone: a koszt jest zależny potęgowo od lokalnych zasobów: X Z(x)=const, (20) K(x)=Z α (x), α>0, (21) 15

26 to minimalizując wartość oczekiwaną kosztu δ(e(k(x))) = 0 przy warunku(20), otrzymujemy zależność typu potęgowego: p(x) Z α+1 (x)=k (1+1/α) (x). (22) W ten sposób minimalizacja kosztu przy potęgowej zależności kosztu od lokalnie dostępnych zasobów prowadzi do zasady, że najoptymalniej jest lokować większość zasobów (rozumianych np. jako rozwiązania techniczne) w regionach o dużym p(x), co pozwala układowi dobrze radzić sobie z typowymi zdarzeniami. Drugą stroną medalu jest jednak bardzo duża wrażliwość takich układów na zdarzenia bardzo rzadkie, nietypowe, których wystąpienie jest, zgodnie z(22), związane z wielkim kosztem(np. awarie kaskadowe). Problem może pojawić się także wtedy, gdy struktura układu ulegnie niewielkiej nawet modyfikacji, np. zamienione zostaną pozycje dwóch aminokwasów w łańcuchu DNA albo w programie komputerowym zmienione zostaną losowo dwie linie kodu. Układ traci wówczas część swojej funkcjonalności, a w skrajnym przypadku przestaje w ogóle działać. Odróżnia to HOT od modelu SOC, w którym czułość na zmianę warunków brzegowych jest mała. Założenia modelu HOT dotykają problemu tzw. granicy złożoności, czyli tezy, że im bardziej złożony układ, tym większe prawdopodobieństwo, że nastąpią fluktuacje prowadzące do jego niestabilności. Tymczasem punkt widzenia HOT jest w pewnym sensie odwrotny: narastająca złożoność układu prowadzi do poprawy jego działania i zwiększenia stabilności. Wartozwrócićuwagę,żepomimoiżmodeleSOCiHOTmajązazadanietłumaczyć zależności typu 1/f, obserwator, który dokonuje serii pomiarów obserwabli i odkrywa jej potęgowe skalowanie, na podstawie samego sygnału nie może udzielić odpowiedzi na pytanie, czy własnosci tego sygnału wynikają ze scenariuszy SOC, HOT, czy też skalowanie ma swoje źródło jedynie w statystycznych własnościach procesów, tworzących sygnał. Konieczna jest tu dodatkowa znajomość struktury i procesów zachodzących w badanym układzie. Z argumentów przedstawionych w podrozdz. 1.2 wynika, że, mając do dyspozycji dane z pomiarów obserwabli, pochodzące z układów naturalnych, bardzo trudno, a często jest to w ogóle niemożliwe, wyrazić przy użyciu jednej miary wielość cech składających się na złożoność tych układów. Znacznie lepszym podejściem wydaje się być analiza danych pod kątem identyfikacji konkretnych manifestacji złożoności. To podejście zastosowano w niniejszej pracy. W dalszych jej częściach zaprezentowane zostaną wyniki analiz danych pochodzących z kilku układów, o których a priori wiadomo, że są układami złożonymi: mózgu, języka naturalnego i rynków finansowych. Badania przeprowadzone zostały pod kątem identyfikacji w tych danych cech typowych dla układów złożonych: współistnienia zjawisk kolektywnych i szumu, hierarchiczności struktury, występowania zależności potęgowych itd. Warto jednak zauważyć, że z powodu zbyt słabo jeszcze rozumianej natury zjawisk zachodzących w omawianych układach, problem odpowiedzi na pytanie, czy cechy te w danym przypadku rzeczywiście są manifestacją złożoności i nie mają prostszej interpretacji(tak jak np. w przypadku szumu 1/f), musi na obecnym etapie pozostać nierozstrzygnięty. 16

27 2 CHARAKTERYSTYKA WYBRANYCH UKŁADÓW ZŁOŻONYCH W rozdziale tym zostaną w skrócie omówione układy, które będą przedmiotem badań przedstawionych w następnych rozdziałach pracy: ludzkiego mózgu, języka naturalnego i rynków finansowych. Kolejność przedstawienia tych układów nie odpowiada ilości miejsca, które zostanie im później poświęcone, ale raczej jest odzwierciedleniem pewnego ciągu, który tworzą, a który sam w sobie może ilustrować dwie cechy złożoności: hierarchiczną strukturę i zależności nieliniowe. U podstaw tego ciągu znajduje się mózg, którego jednym z emergentnych wytworów jest mowa, bez której niemożliwe byłoby powstanie cywilizacji, a w jej ramach rynków finansowych. 2.1 Mózg człowieka Mózg człowieka jest niemal archetypicznym przykładem układu złożonego. Ogromna liczbakomórekneuronowych( )ipołączeńmiędzynimi( ),niezwykłemożliwości funkcjonalne i adaptacyjne mózgu, a także zjawisko świadomości sprawiają, że stworzenie kompleksowego lub choćby fragmentarycznego jego modelu pozostaje poza zasięgiem dzisiejszej nauki i techniki. Złożoność ludzkiego mózgu dotyczy wielu poziomów organizacji, od poziomu oddziaływań molekularnych, poprzez budowę i funkcjonowanie pojedynczych neuronów, a skończywszy na strukturze sieci neuronów i sieci wyspecjalizowanych obszarów mózgu. Swoją złożoną strukturę mózg zawdzięcza, z jednej strony, samoorganizacji genów w ciągu długiej ewolucji, a z drugiej, procesom samoorganizacji własnej struktury w ciągu całego życia Organizacja funkcjonalna mózgu Najważniejszymi stopniami swobody w mózgu są neurony. Na poziomie pojedynczej komórki złożoność manifestuje się zarówno w morfologii(np. silnie rozgałęziony kształt o cechach fraktalnych), jak i w fizjologii(silna nieliniowość procesów zachodzących w komórce). Jednak z makroskopowego punktu widzenia, gdy uwaga koncentruje się tylko na jednej obserwabli związanej z aktywnością elektryczną, neurony można uważać za efektywnie pojedyncze stopnie swobody. Aktywność elektryczna neuronu składa się z prądów jonowych, płynących w dendrytach w kierunku ciała komórki oraz mniej lub bardziej nieregularnych wyładowań w aksonie(potencjałów czynnościowych). Paradoksalnie, choć tylko pola pochodzące od prądów jonowych, po zsumowaniu ich po milionach komórek, są mierzalne na zewnątrz czaszki, to oscylacje i wybuchy aktywności aksonowej są uważane za podstawowy nośnik informacji w neuronach[42]. Pojedynczy neuron bywa zwykle połączony synaptycznie z ogromną liczbąinnychneuronów,aliczbasynapssięgaprzeciętnie10 4 [43].Wzależnościodrodzaju połączenia między dwoma neuronami, ta sama informacja może powodować wzbudzenie aktywności sąsiedniego neuronu lub jej wytłumienie. Fundamentalną własnością grup połączonych ze sobą neuronów jest synchronizacja aktywności, w wyniku której neurony mogą przechodzić ze stanu o indywidualnych wzorcach wzbudzeń, do stanu kolektywnego. Umożliwia to skomplikowana struktura pętli pobudza- 17

28 Rysunek 4: Widok lewej półkuli mózgu z zaznaczonymi obszarami, które z różnych względów są związane z niniejszą pracą. jących i tłumiących, dzięki którym nawet odległe neurony mogą być zaangażowane w oscylacje kolektywne[44]. Dzieje się tak np. w przypadku fal mózgowych o niskiej częstotliwości(rytmy α, β, θ), które mogą obejmować duże obszary kory, a także w niektórych stanach patologicznych(np. atakach epilepsji), gdy oscylacje obejmują praktycznie całą korę. Źródłem takich oscylacji o globalnej kolektywności są generatory znajdujące się w hipokampie. Choć fale mózgowe są związane ze stanami relaksu i snu i, jako takie, nie pełnią istotnej roli w normalnej aktywności człowieka, podobne generatory synchronicznej aktywności neuronów są także odpowiedzialne za wiele innych rytmicznych zachowań organizmu, jak oddychanie, chodzenie czy bicie serca[45]. Synchronizacja pracy neuronów pełni istotną rolę w procesach przetwarzania informacji i percepcji bodźców zewnętrznych. Kora mózgowa jest układem hierarchicznym, podobnie jak cały mózg. Można w niej wyróżnić obszary, które posiadają połączenia z narządami zmysłów i narządami ruchu oraz takie obszary, które tego typu połączeń nie posiadają. Pierwsze z nich są odpowiedzialne za odbieranie i przetwarzanie bodźców zewnętrznych, drugie- za analizę informacji o znaczeniu bodźców i za podejmowanie decyzji. Na rys. 4 zaznaczone zostało przybliżone położenie ośrodków wzroku i słuchu, z których pochodzą dane analizowane w dalszych częściach pracy, a także ośrodki Broca i Wernickego, odpowiedzialne, odpowiednio, za umiejętność mówienia i rozumienia słowa mówionego i pisanego. Poszczególne ośrodki kory same także wykazują wewnętrzną strukturę i organizację. Bezpośrednie połączenia pochodzące od narządów zmysłów kończą się w obszarach pierwszorzędowych, gdzie analizowane są elementarne cechy bodźców, a następnie informacja o rozpoznaniu tych cech jest przekazywana do obszarów drugiego i wyższych rzędów, gdzie analiza dotyczy bardziej złożonych własności bodźca. W końcu informacja opuszcza ośrodek sensoryczny i wędruje do ośrodków skojarzeniowych. Ten prosty schemat nie oddaje jednak w pełni organizacji ośrodków, gdyż na tak opisany układ nakłada się wiele pętli sprzężeń zwrotnych, co istotnie modyfikuje organizację funkcjonalną ośrodka. W ośrodkach sensorycznych dominuje porządek topograficzny, w którym każdemu neuronowi lub grupie sąsiednich neuronów odpowiada specyficzne pole recepcyjne, związane z fragmentem odpowiedniego narządu zmysłu(siatkówka oka, ucho wewnętrzne, skóra itd.). W przypadku neuronów znajdujących się w pierwszorzędowych obszarach ośrodka słuchu, 18

29 dzięki połączeniom z odpowiednimi strukturami ucha, odbierającymi fale dźwiękowe o określonej częstotliwości(wykonującym swoistą transformatę Fouriera), pola recepcyjne tych neuronów także zawierają składowe o tej samej częstotliwości. W ośrodku wzroku sytuacja wygląda analogicznie. Poszczególne neurony są stowarzyszone z komórkami siatkówki i reagują, gdy w polu recepcyjnym tej komórki znajdzie się bodziec. Część neuronów dzieli to samo pole recepcyjne, będąc czułymi na różne aspekty bodźca. Tym sposobem dla każdego bodźca o dowolnej charakterystyce, zwiększoną aktywność przejawiają tylko te neurony, których pola recepcyjne pokrywają się z jakąś z cech tego bodźca. Informacja, rozproszona pomiędzy grupami neuronów w regionach pierwszorzędowych, jest następnie funkcjonalnie integrowana przez inne grupy neuronów w obszarach wyższych rzędów. Mechanizm integracji opiera się na synchronizacji. Grupy neuronów dzielących to samo pole recepcyjne wykazują spontaniczne kolektywne oscylacje, gdy w tym polu znajdziesiębodziecwrazzwłaściwądlatejgrupycechą.wtensposóbwdanymregionie ośrodka tworzą się oddzielne zespoły zsynchronizowanych komórek. Możliwa jest także synchronizacja oscylacji komórek należących do różnych zespołów, których pola recepcyjnesąodmienne,oileichkomórkisąwrażliwenatęsamącechębodźca.tworzysięw ten sposób fukcjonalna struktura oscylujących zespołów neuronów, połączonych poprzez oddziaływania dalekozasięgowe. Funkcjonalna segregacja i funkcjonalna integracja są uważane za zasadniczy paradygmat pracy mózgu. Segregacja napływającej z otoczenia informacji poprzez jej rozkład na elementarne składowe służy szybkości i efektywności jej dekodowania, natomiast późniejsza integracja ma na celu określenie przez mózg znaczenia tej informacji i opracowania stosownej reakcji[46] Metastabilność stanu mózgu W normalnych warunkach obszary mózgu nie są ani całkowicie zsynchronizowane, ani całkowicie zdesynchronizowane. W danej chwili część neuronów jest zaangażowana w oscylacje kolektywne, a część wykazuje aktywność indywidualną. W wyniku mechanizmów prowadzących do pojawienia się i zaniku synchronizacji, stan mózgu zmienia się w sposób ciągły, co oznacza, że mózg przez cały czas przebywa w stanie metastabilnym[47]. To ujęcie jest bliskie koncepcji przebywania układów biologicznych na granicy chaosu[48, 49]. To samo, ale nieco precyzyjniej, wyraża koncepcja chaotycznego wędrowania(chaotic itinerancy). Zgodnie z nią, aktywność mózgu można wyrazić przez trajektorię na atraktorze, na którym znajdują się niestabilne orbity periodyczne. Proces percepcji polega na tymczasowym ustabilizowaniu się dynamiki na jednej z takich orbit, by po chwili opuścić ją i znowu penetrować całą przestrzeń atraktora, wędrując po różnych jego częściach- aż do ponownego ustabilizowania się na innej orbicie[50]. Przebywanie mózgu na granicy pomiędzy porządkiem i nieporządkiem może być także wyrażone w języku modelu SOC. Mózg, w sposób ciągły oddziałując z otoczeniem, nie może znajdować się w stanie zbyt stabilnym, ponieważ wykluczałoby to jego zdolność do modyfikacji swojej struktury i do adaptacji. Ponadto stan, w którym znajduje się mózg, powinien być do pewnego stopnia czuły na niewielkie zaburzenia, aby w razie konieczności(np. pod wpływem zewnętrznego bodźca o dużym znaczeniu) mózg był zdolny do całkowitej zmiany swojego stanu. Z drugiej strony, stan mózgu nie może być niestabilny, ponieważ wtedy każde zaburzenie, nawet o marginalnej istotności dla mózgu, prowadziłoby do nieprzewidzianych zachowań i nieoptymalnych reakcji. Jest to punktem wyjścia do spojrzenia na mózg jako na układ przebywający w pobliżu stanu krytycznego. 19

30 Rysunek 5: Statystyczna odpowiedź neuronowa ośrodka słuchu na podanie bodźca dźwiękowego. Widoczna jest seria potencjałów wzbudzonych o nazwach kodujących znak i czas pojawiania się. Główne założenia tego modelu zostały przetestowane na sztucznych sieciach neuronowych[51] oraz skonfrontowane z rzeczywistą, makroskopową strukturą mózgu, wyrażoną przez sieć[52, 53] Obrazowanie pracy mózgu Podstawowe techniki obrazowania funkcji mózgu dzielą się na związane z metabolizmem(pet, fmri) oraz na związane z aktywnością elektryczną neuronów(eeg, MEG). Techniki metaboliczne, oparte na detekcji ilości krwi przepływającej przez dany region mózgu lub na pomiarze zużycia substancji odżywczych przez różne jego obszary, cechuje bardzo dobra przestrzenna zdolność rozdzielcza(poniżej 1 mm), natomiast słaba zdolność rozdzielczawdomenieczasu(rzędu1s).tadrugasprawia,żenienadająsięonedośledzenia aktywności związanej z przetwarzaniem przez mózg informacji, ponieważ istotne z tego punktu widzenia zdarzenia zachodzą z częstotliwością do kilkudziesięciu Hz. Tej wady nie posiadają techniki EEG i MEG, które są zorientowane na obrazowanie z milisekundową rozdzielczością w czasie, ale kosztem słabszej rozdzielczości przestrzennej(0,5 cm). Dodatkową zaletą tych technik jest nieinwazyjność, czego nie można powiedzieć o fmri,azwłaszczaopet. Krótkotrwałe i słabe potencjały czynnościowe neuronów nie są mierzalne przy użyciu EEG i MEG. Techniki te są w stanie zmierzyć tylko stosunkowo powolne oscylacje zsumowanych potencjałów postsynaptycznych w dendrytach i w ciałach milionów komórek zaangażowanych w oscylacje. Ze względu na swoje zalety, EEG i MEG są stosowane do śledzenia m. in. aktywności wzbudzonej przez zewnętrzne bodźce. Typowy wygląd zarejestrowanej techniką EEG lub MEG odpowiedzi ośrodka słuchu na bodziec dźwiękowy przedstawia rys. 5. Składa się ona z kilku oscylacji(potencjałów wzbudzonych), które pojawiają się z charakterystycznym opóźnieniem względem chwili podania bodźca, zakodowanym w ich nazwach. 2.2 Język naturalny Język jest układem, funkcjonującym na styku biologii i oddziaływań społecznych. Jest nierozerwalnie związany z zasadami funkcjonowania ludzkiego mózgu, których jest pro- 20

31 duktem, a jednocześnie powstał w procesie socjalizacji ludzi, gdy pomiędzy współpracującymi członkami grupy zachodziła konieczność wymiany informacji. Jest zjawiskiem emergentnym, którego istnienie wynika ze skomplikowanych, nieliniowych oddziaływań między neronami i grupami neuronów w różnych obszarach mózgu, a w szczególności w obszarze Broca. Jako układ adaptatywny podlega ciągłym zmianom, katalizowanym przez mechanizmy kognitywne i społeczne[54]. Pod wpływem interakcji pomiędzy członkami społeczności współdzielącej dany język modyfikowane są reguły gramatyczne, jedne słowa zostają wyparte przez inne, pojawiają się nowe słowa, których zadaniem jest nazwanie nowych pojęć itd. Geneza wrodzonych predyspozycji językowych człowieka jest ciągle polem dużych kontrowersji. Najbardziej znaną teorią, która ma na celu wyjaśnienie tej umiejętności, a także powszechności języka jako narzędzia komunikacji wśród wszystkich ludów i zarazem olbrzymiej różnorodności językowej świata, jest teoria gramatyki uniwersalnej[55]. Zgodnie znią,dzieckopoprzyjściunaświatmawbudowanywswójmózgmechanizmzzakodowaną ogólną strukturą gramatyczną języka. W ramach tej struktury dopuszczalne są wariacje parametrów, których konkretne wartości stowarzyszone są ze szczegółowymi zasadami gramatycznymi. Mózg dziecka poddanego działaniu jednego języka, którym mówią członkowie społeczności, ustala wartości parametrów i tą drogą dziecko przejmuje gramatykę danego języka.(w języku synergetyki takie wzmocnienie wartości konkretnych parametrów i stłumienie pozostałych może służyć za przykład działania zasady podporządkowania.) Teoria gramatyki uniwersalnej wymaga, aby w mózgu istniał organ, będący nośnikiem gramatyki uniwersalnej, a który powstał w mózgu naszego gatunku zanim pojawił się język(ponieważ język sam w sobie jest już ukształtowany przez własności gramatyki uniwersalnej). Teoria ta ma jednak zasadniczą wadę: pochodzenie tego organu jest niezwykle trunde do wyjaśnienia na gruncie ewolucyjnym. Konkurencyjne teorie dotyczące genezy języka głoszą, że mózg na drodze ewolucji i doboru naturalnego przystosował się do nabywania nowej umiejętności[56]. Zamiast powstania w którymś momencie dziejów specjalnego organu, genetyczna struktura mózgu kształtowała się stopniowo, równolegle z rozwojem języka, w taki sposób, aby człowiek coraz szybciej uczył się języka i coraz efektywniej nim władał. Słabością tego podejścia jest niemożność podania przekonujących mechanizmów, tłumaczących umiejętność wyuczenia się przez dzieci jakiegokolwiek języka, niezależnie od tego, czy posługują się nim członkowie społeczności bliskiej genetycznie dziecku, czy pod tym względem odległej, oraz tłumaczących w jaki sposób mózg mógł się genetycznie zaadaptować do języka, który zmienia się znacznie szybciej niż kod genetyczny. Trudności powyższych nie posiada teoria, według której wszystkie swoje własnosci językdostosowałdosposobu,wjakipracujeiuczysięmózg[57].zgodnieznią,najęzyk należy patrzeć jak na organizm, który wyewoluował tak, aby był najlepiej przystosowany do funkcjonowania w ekosystemie ludzkiego mózgu. Inne organizmy- protojęzyki oparte na innych strukturach niż języki współczesne- nie były tak dobrze przystosowane i dlatego wyginęły. To podejście ekologiczne ma podstawową zaletę, że nie wymaga przyjęcia dodatkowych założeń na temat sposobu, w jaki ludzki mózg nabył umiejętności posługiwania się mową. Zamiast mózgu, który miałby się w bliżej niewyjaśniony sposób przystosować do języka, to język dostosował się do mózgu. W kontekście tej teorii pierwszy język każdego człowieka jest pojedynczym osobnikiem swojego gatunku, a różne istniejące lub historyczne języki są różnymi gatunkami. Jak pokazały symulacje komputerowe na sieciach neuronowych, języki, które posiadają najczęściej spotykane struktury gramatyczne(porządek części składowych zdania, np.: podmiot-dopełnienie-orzeczenie, podmiot-orzeczenie-dopełnienie) wymagają znacznie krótszego treningu sieci niż języki 21

32 o egzotycznych strukturach, występujące rzadko na świecie(np. dopełnienie-podmiotorzeczenie)[58]. Jest zatem prawdopodobne, że najczęściej spotykane struktury gramatyczne są związane z konkretnymi zdolnościami(i ograniczeniami) mózgu do uczenia się. Dzieci uczą się zasad języka, odbierając bardzo krótkie i zaszumione jego próbki, potrzebując na to stosunkowo krótkiego czasu. Aby było to możliwe, musi istnieć wrodzona predyspozycja do uczenia się języka w takiej, a nie innej postaci. W świetle omawianej teorii nie wynika ona jednak z istnienia organu, z którym stowarzyszony jest organ-nośnik gramatyki uniwersalnej, lecz z dopasowania mowy do umiejętności uczenia się sekwencyjnego przez mózg. Język ma strukturę hierarchiczną. Na poziomie najbardziej podstawowym składa się z fonemów(język mówiony) bądź znaków(język pisany). Liczba obu tych składników w danym języku jest niewielka i sięga zazwyczaj kilkudziesięciu sztuk(w jęz. polskim występuje ok.40fonemówi32znaki).fonemyiznakigrupująsięwmorfemy,którepełniąfunkcję podstawowych elementów znaczeniowych w języku. Morfemy nie są jednak elementami samodzielnymi. Rolę najmniejszych samodzielnych składników języka pełnią słowa, złożone z jednego lub kilku połączonych morfemów. Jeszcze wyższy poziom organizacyjny tworzą zdania(proste i złożone), które stanowią najważniejsze jednostki przekazu informacji. W przypadku języka w wersji pisanej można wyróżnić także inne poziomy hierarchii(akapity, rozdziały, teksty itd.). Wszystkie języki współczesne posiadają strukturę syntaktyczną, opartą na istnieniu grup słów o ściśle określonych funkcjach w strukturze przekazu informacji, czyli części mowy(klasy), oraz na istnieniu ściśle określonych zależności między słowami z różnych grup. Klasy słów można podzielić na dwa rodzaje: klasy otwarte, w ramach których mogą powstawać nowe słowa(do tej grupy można zaliczyć: rzeczowniki, czasowniki, przymiotniki, przysłówki i ich pochodne, np. imiesłowy) oraz klasy zamknięte, o ustalonej liczbie elementów(zaimki, spójniki, przyimki, przedimki, liczebniki). Słowa w wypowiedziach pełnią dwojaką rolę: większa, podstawowa grupa słów tworzy odniesienia symboliczne dla obiektów(rozumianych jako przedmioty, pojęcia, działania lub cechy) natomiast druga, stosunkowo mała grupa słów, nie niosących samodzielnie żadnej informacji, pełni wyłącznie rolę gramatyczną(przyimki, spójniki). Ponadto niektóre słowa tego drugiego typu mogą stopniowo tracić swoje oryginalne znaczenie, stając się wyłącznie nośnikami form gramatycznych(np. jako przyrostki wskazujące czas gramatyczny, a będące pierwotnie osobnymi słowami). Prymitywne protojęzyki, nie posiadające jeszcze struktury gramatycznej, zawierały odwzorowanie niewielkiej liczby najważniejszych obiektów na słowa. W miarę rozwoju więzi społecznych u ludzi i wzrostu stopnia skomplikowania oddziaływań między członkami społeczności, rosła liczba obiektów, które wymagały nazwania. Konieczny stał się tym samym wzrost liczby słów. Jak pokazały symulacje modelu takiego protojęzyka, przy odpowiednio dużym słowniku wymagającym opanowania, liczba błędów komunikacji staje się na tyle duża, że język w takiej formie traci możliwość nadążania za coraz bardziej złożoną rzeczywistością[59, 60]. Pojawienie się gramatyki i wyższych poziomów organizacji języka pozwala w tej sytuacji na utrzymanie liczby słów na rozsądnym poziomie i, mimo to, na umożliwienie wyrażenia nieograniczonej liczby pojęć. Emergentne zjawisko gramatyki, powstałe jako mechanizm ograniczający liczbę błędów w komunikacji i pozwalający wyrażać nieporównywalnie większą liczbę pojęć, jest najbardziej jaskrawą manifestacją złożoności języka naturalnego. Przetworzenie sekwencji słów, odbieranych za pośrednictwem dźwięków lub wizualnie, na informację wymaga od mózgu umiejętności dekodowania złożonego sygnału, zidentyfikowania w nim regularnych struktur związanych z gramatyką i odczytania znaczeń, 22

33 przypisanych do poszczególnych słów i wyrażeń. W związku z tym przypuszcza się, że pojawienie się języka, bez względu na mechanizm jego akwizycji, stało się ważnym czynnikiem przyśpieszającym rozwój mózgu człowieka i struktur społecznych. 2.3 Rynki finansowe Rynki finansowe jako układy złożone Rynki finansowe są przez wielu uważane za jeden z najbardziej skomplikowanych układów, jakie funkcjonują w znanym człowiekowi Wszechświecie. Wynika to w pierwszym rzędzie z dwóch powodów. Po pierwsze, dynamika rynków finansowych jest zależna od trudnej do oszacowania liczby czynników, tak wewnętrznych, jak i zewnętrznych, w większości przypadków o trudnej do określenia sile oddziaływania. Czynniki te są ponadto silnie ze sobą powiązane, niemożliwą do przybliżonego nawet prześledzenia, siecią połączeń i sprzężeń zwrotnych(dodatnich i ujemnych). Rynki finansowe można bez dużej przesady uznać za ucieleśnienie znanej z filozofii tezy, że wszystko jest zależne od wszystkiego. Rynki dziedziczą zresztą tę cechę po całej ekonomicznej sferze działalności ludzkiej, będąc tylko tej sfery najłatwiej mierzalną częścią. Po drugie, rynki finansowe nie są układami prostych obiektów fizycznych, takich jak np. atomy i molekuły, czy nawet bardziej złożonych, jak neurony, niemniej efektywnie równie bezmyślnych jak atomy, lecz z inwestorów obdarzonych inteligencją. Ta fundamentalna jakościowa różnica sprawia, że rynki finansowe w niezrównanie szybki sposób potrafią się samoorganizować, zwiększając z czasem swój już i tak duży stopień złożoności[61, 62]. Stąd bierze się zasdnicza trudność w stworzeniu realistycznych modeli, których powstanie nota bene samo w sobie przyczyniłoby się do dalszej samoorganizacji rynków. Rynki finansowe są układami otwartymi. Czerpią energię z zewnątrz i rozpraszają ją do otoczenia, tak samo jak naturalne układy dyssypatywne. Otwartość rynków wyraża się przez dopływ i odpływ zaangażowanego przez inwestorów kapitału, pełniącego rolę energii swobodnej, oraz emisje badź zawieszanie obrotu konkretnymi papierami wartościowymi. Ponieważ jednak przepływ kapitału oraz papierów wartościowych przez rynek jest procesem stosonkowo powolnym w porównaniu do aktywności transakcyjnej, można przyjąć, że na skalach czasu charakterystycznych dla transakcji obie te wielkości są w przybliżeniu zachowane. Jest to jedna z przesłanek, które stoją u podstaw poglądu, obowiązującego zwłaszcza w klasycznej ekonomii, że rynek znajduje się w stanie równowagi. Założenie o równowadze rynku niesie za sobą dalsze konsekwencje w postaci założeń o pełnej racjonalności działań uczestników rynku, opartych na pełnej wiedzy o bieżącej i przyszłej sytuacji, doskonałej płynności aktywów(brak wpływu transakcji na cenę), istnieniu równowagi między podażą i popytem itd.[63]. Ze stanem równowagi wiąże się hipoteza wydajnego rynku(efficient market hypothesis, EMH)[64]. Zgodnie z nią, cena aktywu w danej chwili odzwierciedla całą informację, która może mieć jakikolwiek związek z tym aktywem i która jest dostępna dla inwestorów. Cena P(t) danego aktywu jest w tym świetle procesem stochastycznym o własności martyngału: E[P(t>t 0 )]=P(t 0 ), (23) gdzie E[ ] jest estymatorem wartości oczekiwanej. Według EMH, ruchy cen są pozbawione efektów pamięci, a wszelkie efekty sprzeczne z tym stwierdzeniem muszą być ograniczone do krótkich skal czasowych, odpowiadających szybkości reakcji inwestorów na napływające na rynek informacje. 23

34 Patrząc z empirycznego punktu widzenia, założenie o równowadze i wydajności rynków jest użyteczne w pierwszym przybliżeniu, pozwalając znacznie uprościć stopień skomplikowania modeli. Jest jednak wiele zjawisk, które stoją w sprzeczności z tym założeniem i sugerują konieczność uwzględnienia poprawek do równowagowego obrazu rynku. Inwestorzy w swoich decyzjach nie zawsze kierują się przesłankami racjonalnymi, często istnieje w ich decyzjach silna składowa irracjonalna. Może ona w skrajnych wypadkach prowadzić do zachowań stadnych, których skutkiem są bańki spekulacyjne, a w ich następstwie załamania cen(choć zachowania stadne mogą być także efektem decyzji racjonalnych[65]). Do tego samego może także doprowadzić brak pełnej informacji o rynku, w wyniku czego inwestorzy nie są w stanie określić, czy cena w danej chwili rzeczywiście odzwierciedla zawartą w niej informację, czego wymaga EMH. Jeśli przeszacują zawartość informacyjną ceny, podejmują decyzję, która tworzy dodatnie sprzężenie zwrotne, co jeszcze bardziej rozluźnia związek ceny i informacji[66]. Bańki i krachy są przykładem kolektywnych zawirowań, które przesuwają stan rynku daleko od punktu równowagi. Na poziomie cen takie i mniejsze zawirowania wiążą się ze zjawiskiem klasteryzacji zmienności(amplitudy fluktuacji cen, volatility), czyli istnienia następujących po sobie okresów o dużej i małej amplitudzie fluktuacji cen. Przypomina to zjawisko intermitencji. Klasteryzacja zmienności implikuje istnienie długotrwałej pamięci w amplitudzie fluktuacji, wyrażonej przez potęgowo zanikającą funkcję autokorelacji (podrozdz. 6.1). Przypomina to potęgową zależność korelacji w pobliżu punktu przejścia fazowego w zjawiskach krytycznych(wzór(12)). Krytyczność rynków finansowych nie jest jednak w typowych okolicznościach sprawą oczywistą, choć np. pewne przesłanki empiryczne(potęgowe rozkłady rozmiarów zdarzeń o ponadprogowej zmienności) mogą wskazywać na możliwość przebywania rynków w pobliżu stanu SOC jako na jedno z możliwych wytłumaczeń[67]. Nieco inaczej wygląda sprawa w końcowej fazie rynkowych wzrostów, gdy rynek staje się coraz bardziej czuły na zaburzenia, podobnie jak układ, gdy zewnętrzny parametr zbliża się do punktu krytycznego. W fazie tej dowolnie mała fluktuacja może spowodować kaskadową odpowiedź rynku przypominającą przejście fazowe, gdy wzrastające dotąd ceny przy symetrii podaży i popytu, nagle zaczynają kolektywnie spadać przy złamanej symetrii na rzecz dominującej podaży[68]. Oprócz zmienności, zjawisko długiej pamięci jest spotykane także w innych rodzajach danych finansowych(wolumen obrotów[69], liczba transakcji na jednostkę czasu[70], wielkość i rodzaj zleceń[71, 72], spread[73]) oraz w danych makroekonomicznych(inflacja[74], PKB[75]). Ponadto zależności potęgowe dotyczą rozkładu dochodów w danej społeczności(w granicy dużych dochodów, tzw. prawo Pareto)[76], rozkładu rocznych stóp wzrostu firm[77], wolumenu obrotów na rynku akcji[78], a także rozkładów fluktuacji logarytmów cen towarów i akcji[79, 80], wartości indeksów giełdowych[81] i kursów wymiany walut[82](podrozdz. 6.1). Wszystkie te zjawiska zaliczane są do tzw. faktów stylizowanych danych finansowych. Fizycznym uzasadnieniem tej powszechności relacji potęgowych w danych finansowych jest fakt, że rynki składają się z wielkiej liczby nieliniowo oddziałujących elementów. Oddziaływania te, jeśli nie posiadają charakterystycznej skali, sprawiają, że mikroskopowe szczegóły, którymi mogą różnić się pojednycze rynki, przestają być statystycznie istotne na poziomie makroskopowym Struktura rynków finansowych Podstawowymi rynkami finansowymi są: rynki towarowe, rynki akcji, rynki papierów dłużnych(obligacji), rynki instrumentów pochodnych oraz rynek walutowy. Największym 24

35 znichjestrynekwalutowy,który-wprzeciwieństwienp.dorynkówakcji-jestcałkowicie globalny. Średnie dzienne obroty na tym rynku w kwietniu 2007 r. wyniosły 3,2 bln USD[83], co odpowiada mniej więcej 20-krotności dziennego PKB świata, szacowanego w2007r.naok.150mldusd[84].rynektenmaprzytymtendencjędowzrostuook % rocznie. Rynek walutowy funkcjonuje bez typowego dla giełd papierów wartościowych cyklu: 6-8 godzinny dzień handlowy godzinna przerwa, będąc czynnym bez przerwy od niedzielnego wieczora(22.00 GMT) do piatku(22.00 GMT). Cechuje się też nieporównywalną płynnością i liczbą transakcji. Składa się przede wszystkim z dużych istytucji finansowych i banków centralnych, wobec czego jest mniej podatny na efekty kolektywne w rodzaju paniki. Rynki akcji i innych papierów wartościowych mają charakter lokalny. Zwykle są to giełdy zlokalizowane w centrach finansowych poszczególnych krajów, choć w ostatnich latach pojawia się także tendencja do łączenia krajowych giełd w większe rynki(np. Euronext, OMX). Globalna kapitalizacja wszystkich rynków akcji na świecie sięga 46,5 bln USD(październik 2009)[85], a dzienne obroty sięgają ok. 1% kapitalizacji. Największe pod względem kapitalizacji rynki akcji na świecie to New York Stock Exchange(NYSE) o kapitalizacji 10,8 bln USD, giełda tokijska(3,3 bln USD), amerykański NASDAQ(2,8 bln USD), giełda szanghajska(2,7 bln USD), giełda londyńska(2,4 bln USD), paryskobrukselsko-amsterdamski Euronext(2,4 bln USD) oraz giełda w Hongkongu(2,0 bln USD). Na ich tle giełda niemiecka we Frankfurcie nie wydaje się być dużym rynkiem (1,2 bln USD)[86]. Wartość aktywów na wolnym rynku jest możliwa do określenia w sposób wymierny, za pomocą ceny, w momencie zawierania transakcji. Cenę danego aktywu określają napływające na rynek zlecenia kupna i sprzedaży wraz z limitami ceny oraz bez limitów(zlecenia po każdej cenie), dopasowywane do siebie za pomocą automatycznych systemów, działających na większości giełd. Pomiędzy transakcjami cena jest, ściśle rzecz biorąc, nieokreślona. Pojawia się w związku z tym problem ciągłości ceny, czego wymaga np. numeryczna analiza danych w postaci szeregów czasowych o stałej częstości próbkowania. W praktyce problem ten omija się, standardowo przymując, że cena w chwilach pomiędzy kolejnymi transakcjami jest równa cenie, przy której zawarto ostatnią transakcję. W ujęciu teoretycznym kwestia pozostaje jednak otwarta i stanowi m.in. jeden z punktów wyjścia do prac nad kwantowymi modelami rynków finansowych, w których dostrzega się podobieństwo między problemem określania ceny i kwantowomechanicznym problemem pomiaru[87]. Innym rodzajem trudności związanych z ceną jest nieciągłość godzin handlowych na rynkach akcji, w wyniku czego nie jest jasne, czy czas rynkowy dotyczy tylko godzin obrotu, czy także godzin, gdy rynek jest zamknięty. Źródłem problemu jest fakt, że w czasie gdy jedne giełdy są zamknięte, giełdy w innych strefach czasowych są otwarte. Biorąc pod uwagę globalizację przepływu informacji i globalizację działań uczestników rynku, podczas godzin zamknięcia czas rynkowy, rozumiany jako wydarzenia i ruchy cen na świecie, jednak upływa. Z konieczności, podczas analizy danych, rozpatruje się tylko godziny handlowe. Na stopnie swobody, tworzące rynek, można patrzeć dwojako: mogą być nimi zarowno inwestorzy(w podstawowym ujęciu), jak i poszczególne aktywa: papiery wartościowe, towary lub waluty. W pierwszym przypadku oddziaływania między stopniami swobody są bezpośrednie i obejmują wymianę oraz przyswajanie informacji z zewnątrz oraz zawieranie transakcji. W drugim przypadku pojęcie oddziaływań jest bardziej abstrakcyjne i odnosi się do zależności statystycznych pomiędzy cenami aktywów, które wynikają z koherentnych decyzji inwestorów na tych aktywach. Ponieważ nie jest możliwe śledzenie transakcji 25

36 dokonywanych przez poszczególnych inwestorów, w analizie danych empirycznych za stopnie swobody z konieczności uważane są zazwyczaj aktywa. Zachowania inwestorów mogą być obserwowane tylko poprzez pryzmat ich kolektywnych efektów na tych aktywachwolumenu obrotów i ruchów cen. Podobieństwo profili działalności spółek i bezpośrednie powiązania handlowe w naturalny sposób przeniesione zostają na parkiet giełdy, prowadząc do tworzenia się związków między cenami ich akcji(to samo dotyczy walut i towarów). Gradacja siły tych relacji w świecie pozagiełdowym jest odzwierciedlona w różnej sile sprzężeń między akcjami, w wyniku czego na rynku powstaje wyraźna struktura hierarchiczna z pojedynczymi spółkami na najniższym poziomie, niewielkimi grupami ściśle kooperujących lub w inny sposób ze sobą związanych spółek na kolejnych, wyższych poziomach, sektorami rynkowymi jeszcze wyżej i wreszcie rynkiem jako całością na górnym poziomie struktury. Co więcej, istnienie wielu giełd na świecie i globalizacja ekonomiczna sprawiają, że powstają sprzężenia międzygiełdowe[88, 89], w wyniku czego do opisanych poziomów hierarchii można dołączyć dwa kolejne: poziom regionów geograficznych, w których rynki są silniej powiązane ze sobą niż na zewnątrz i poziom globalny, na którym wszystkie lub prawie wszystkie światowe giełdy zachowują się kolektywnie niczym pojedynczy stopień swobody[88]. Ceny akcji, towarów i innych aktywów są wyrażone w lokalnej lub ustalonej zwyczajowo walucie, która stanowi niezależny punkt odniesienia dla cen. Inaczej wygląda sytuacja w przypadku rynku walutowego, gdzie nie istnieje stabilny punkt odniesienia. Wartość walutyxmożebyćwyrażonawyłączniewinnychwalutachy,wwynikuczegostaje się ona względna. Kursy wymiany są oznaczane jako X/Y, gdzie X,Y to 3-literowe kody walut zgodne z normą ISO. Względność wartości walut oraz zasada nieistnienia arbitrażu nakłada na kursy walut dwa więzy, efektywnie redukujące liczbę stopni swobody rynku: Druga z tych relacji nosi nazwę reguły trójkąta. X/Y= 1 Y/X, (24) X/Y=X/Z Z/Y. (25) 26

37 3 WSPÓŁISTNIENIE KOLEKTYWNOŚCI I SZUMU 3.1 Identyfikacja efektów kolektywnych w danych empirycznych Zachowania kolektywne, wyłaniające się spontanicznie z morza szumu i w podobny sposób zanikające, a manifestujące się niezerowymi wartościami parametru porządku, są jedną z charakterystycznych cech układów złożonych(podrozdz ). Jeśli w stanie równowagi termodynamicznej obserwator dokonuje serii pomiarów obserwabli związanej zparametremporządku,tomierzonysygnałbędziemiał(wgranicyn )postać przypadkowychfluktuacjiośredniokwadratowejamplitudzie N 1 wokółzera.sytuacja zmieni się radykalnie, jeśli w układzie dojdzie do zaburzenia równowagi: wartości pomiarów, w skali czasu trwania nierównowagi, będą wówczas znacznie różnić się zera. Niech Ω będzie układem złożonym z N elementów α, będących jednocześnie jego stopniamiswobodyiniechx α (i), i=1,...,tbędzieseriączasowąwynikówpomiarów wchwilacht i obserwablix α związanejzestopniemswobodyα.pomiarysązazwyczaj dokonywanezestałączęstotliwością(t i+1 t i = t,i=1,...,t),choćniejesttowarunekkonieczny.dodatkowoniechpomiarywszystkichnobserwablix α będądokonywane równocześnie Dwa stopnie swobody Sprzężenie między dwoma stopniami swobody α, β można zidentyfikować przy użyciu jednej z miar, opisujących statystyczną zależność między szeregami czasowymi. Najpowszechniej stosowaną z takich miar jest znormalizowany współczynnik korelacji Pearsona, zdefiniowany jako: C αβ (τ)= 1 Tσ 2 α σ2 β T (x α (i) x α )(x β (i+τ) x β ), (26) i=1 gdzie x γ oznaczaśrednią,aσ 2 γjestwariancjąszereguczasowegoγ,natomiastτjestprzesunięciem w czasie szeregu β względem α. Współczynnik korelacji(26) jest estymatorem rzeczywistej korelacji pomiędzy procesami tworzącymi badane sygnały, biorąc pod uwagę skończonośćpróbki.współczynnikc αβ spełnianierówność: 1 C αβ 1.Wgranicy N dlaszeregówstatystycznieniezależnychodsiebiec αβ =0,natomiastwprzypadkuidentycznychsygnałów(pełnakoherencja)C αβ =1;ujemnewartościC αβ oznaczają antykorelację. Przezswojądefinicję,wktórejobasygnały:x α ix β sąbranewpierwszejpotędze, współczynnik korelacji(26) jest czuły tylko na zależności liniowe. Można obejść to ograniczenie, jeśli wprowadzi się współczynniki korelacji innych rzędów, gdzie sygnały wchodzą wpostacipotęgx s α,xt β (zwykładnikamis,t 1).Zazwyczajjednakkorelacjeliniowesą w danych dominujące i stosowana jest klasyczna definicja(26). Miarą, która jest pozbawiona ograniczeń związanych z pojedynczym rzędem korelacji i dzięki temu jest czuła na występowanie jakichkolwiek zależności statystycznych między sygnałami, jest informacja wzajemna(3). W przypadku dwuwymiarowym może być ona wyliczona ze wzoru: I(X α,x β )= p αβ (k,l)log p αβ(k,l) k X α l X β p α (k)p β (l), (27) 27

38 gdziep γ (m) P(X γ =m)jestbrzegowymrozkłademprawdopodobieństwa,ap αβ (k,l) P(X α =k,x β =l)jestłącznymrozkłademprawdopodobieństwa Dane wielowymiarowe W przypadku wielowymiarowym(n 2) analizę ułatwia podejście macierzowe[90*]. Ewolucję czasową całego układu można przedstawić w postaci macierzy danych X o elementach: X αi = 1 σ α (x α (i) x α ) (28) iwymiarzen T.Nabazietejmacierzymożnaskonstruowaćzkoleimacierzkorelacjio wymiarzen N: C= 1 T XXT, (29) którejelementamisąwspółczynnikipearsonac αβ. Zależności statystyczne między sygnałami przejawiają się w niezerowych elementach macierzy C, a co za tym idzie, także w jej własnościach spektralnych. Wyznaczenie wartości i wektorów własnych wymaga rozwiązania równania: Cv (k) =λ k v (k), k=1,...,n. (30) Macierz korelacji jest, poprzez swoją konstrukcję, macierzą symetryczną o elementach rzeczywistych,dlategojejwartościwłasneλ k iwektorywłasnev (k) sąrzeczywiste.z uwaginafakt,żec αα =1,mamy: przyczymλ 1 λ 2... λ N. N N λ k =TrC= C αα =N, (31) k=1 α= Zespół macierzy przypadkowych Wisharta Mając macierz C i jej spektrum własne, zasadniczym problemem jest odróżnienie korelacji, które wynikają z rzeczywistych sprzężeń między stopniami swobody układu, od przypadkowych korelacji, będących efektem skończoności próbki. Z pomocą przychodzi w tym momencie teoria macierzy przypadkowych(random matrix theory, RMT)[91, 92] z jej uniwersalnymi przewidywaniami dla zespołów macierzowych o określonych własnościach. W przypadku macierzy korelacji, odpowiednim zespołem jest zespół macierzy Wisharta[93], zdefiniowanych przez: W= 1 T MMT, (32) gdziemacierzmjestmacierząn T,będącąodpowiednikiemmacierzydanychXz elementami losowanymi z rozkładu Gaussa N(0, σ). Macierze Wisharta posiadają wartości własne, których rozkład gęstości jest w granicy N,T zależnyodq=t/n.wprzypadkuklasycznym(q 1)jestondany analitycznie wzorem Marczenki-Pastura[94, 95]: ρ W (λ)= 1 N N k=1 δ(λ λ k )= Q 2πσ 2 (λ max λ)(λ λ min ), λ (33) 1/Q), (34) λ max min =σ2 (1+1/Q±2 28

39 4 ρ W (λ) Q = Q = Q = 1 Q = 10 1 Q = λ Rysunek 6: Rozkład Marczenki-Pastura(33) dla różnych wartości Q = T/N. gdzieλ min λ λ max.wgranicyq wszystkiepozadiagonalneelementyw ij =0i wzór(33) redukuje się do: ρ W (λ)= 1 N N δ(λ 1)=δ(λ 1). (35) k=1 W przypadku odwrotnym, gdy Q < 1(tzw. macierze antywishartowskie), W zawiera nadmiarowąinformacjęiposiadarządt (T <N),czyliznaczna(1 Q)częśćmasy rozkładuρ W (λ)jestskoncentrowanawzerze. Rozkład Marczenki-Pastura jest ścisłą konsekwencją faktu, że dla małych wartości Q empiryczna macierz korelacji C(lub jej losowy odpowiednik W) przestaje być dobrym estymatorem prawdziwej macierzy korelacji(zwanej niekiedy macierzą populacji). Postać rozkładu(33) dla kilku wartości Q przedstawia rys. 6. WpraktycemamydoczynieniazeskończonymiwartościamiNiT,coprowadzido rozmyciabrzegówrozkładu(33),wtymprzekroczeniagranicyλ max przezniektórespośród największych wartości własnych macierzy W. Konieczna jest wówczas znajomość rozkładu λ 1,którypoprzeskalowaniuzmiennej:λ 1 (λ 1 µ)/σ,gdzie µ=( T 1+ ( N) 2 µ 4 ) 1/6, σ=, (36) (T 1)N jest dla dużych N, T zbieżny do rozkładu Tracy ego-widoma dla macierzy typu GOE[96, 97]: F 1 (s)=exp{ 1 q(x)+(x s)q 2 (x)dx}, (37) 2 s gdzieq(x)jestrozwiązaniemrównania:q (x)=xq(x)+2q 3 (x).rozkładtenma,wgranicy dużychn,t,szerokość: σ TW 1/Q(λ max /N) 2/3. (38) 29

40 WektorywłasnemacierzyWmająskładowev (k) α,którychasymptotycznezachowanie wgranicyn,t danejestrozkłademportera-thomasa[91]: P(u)= 1 2π e u2 /2, (39) gdzieu=v (k) α dlaα=1,...,niobowiązujenormalizacja αv (k) α =N.Innąużyteczną wielkością, związaną z rozkładem wartości składowych pojedynczego wektora własnego, jest odwrotny współczynnik udziału(inverse participation ratio): N I k = (v α) (k) 4. (40) α=1 Określa on w przybliżeniu, ile składowych wektora k wnosi istotny przyczynek do jego długości.dlacałkowiciezdelokalizowanegowektoraojednakowychskładowychv α (k) = 1/ N,I k =1/N,adlawektorazlokalizowanegoojednejniezerowejskładowejv α (k) =δ αα 0, I k =1.WprzypadkumacierzyWishartawartośćoczekiwanategowspółczynnikajest asymptotycznie zbieżna do wartości 3/N, charakterystycznej dla zespołu GOE. Odwrotny współczynnik udziału niesie podobną informację jak entropia informacyjna(1), prościej jednak zinterpretować jego wartość Zespół skorelowanych macierzy Wisharta Ważną z praktycznego punktu widzenia odmianą macierzy(32) jest zespół skorelowanychmacierzywishartaw c.wnajprostszejwersji,zzaburzeniemrzędu1,macierzete mają postać[98]: W c =X X T +byy T, b R, (41) gdziex owymiarzen (T 1)jestodpowiednikiemmacierzyXzusuniętąpierwszą kolumną,ayjestwektoremogaussowskimrozkładzieskładowych.macierzew c mają spektrum dane generalnie przez rozkład Marczenki-Pastura, z wyjątkiem położenia największejwartościwłasnejλ 1,która-przyodpowiedniosilnymzaburzeniub-zostajesilnie odepchnięta odrozkładuwprawo.wgranicyt dlaω=bn[98,99]: λ 1 =ω+ ωq 1 ω 1, ω>1+1/ Q, (42) λ 1 =(1+1/ Q) 2, ω 1+1/ Q. (43) Zzależności(43)wynika,żedlamałychzaburzeńbspektrumwłasnemacierzyW c nie odbiegaodrozkładumarczenki-pastura.pojawieniesięoddalonejwartościwłasnejλ 1 wymagaprzekroczeniaprzezzaburzeniewartościprogowej1+1/ Q,coprzypomina przejście fazowe[99]. Wbardziejogólnymprzypadkupzaburzeń,wspektrumpojawiasię,opróczλ 1,dodatkowo p 1 oddalonych wartości własnych Informacja wzajemna w wielu wymiarach Zastosowanie do danych wielowymiarowych informacji wzajemnej, która jest dobrym narzędziem identyfikacji zależności statystycznych w przypadku dwu wymiarów, napotyka 30

41 na trudne do przezwyciężenia praktyczne trudności. Po pierwsze, w przypadku uogólnienia definicji(27), podział przestrzeni na komórki w wielu wymiarach powoduje, że rozsądneprzybliżeniewielowymiarowegorozkładup α1...α N (k 1,...,k N )wymagawielkichdługości sygnałów. Po drugie, brak wyników analitycznych dla odpowiedniego zespołu macierzy przypadkowych uniemożliwia podejście analogiczne do opisanego wyżej dla macierzy Wisharta. 3.2 Rynek akcji Jako pierwszy przykład praktycznego zastosowania metody macierzowej do identyfikacji zjawisk kolektywnych i ich wyodrębnienia z morza szumu posłuży rynek akcji. Przedmiotem analizy są ceny akcji spółek notowanych na głównych giełdach amerykańskich: NYSE i NASDAQ oraz na giełdzie we Frankfurcie(Deutsche Börse). Szczególy techniczne dotyczące notowań i wstępnej obróbki danych znajdują się w Dodatku(D.1.1 i D.1.2). Pierwsza grupa akcji obejmuje 1000 dużych spółek z rynku amerykańskiego. Głównym kryterium wyboru była kapitalizacja spółki w dniu oraz jej nieprzerwane notowanie w ciągu całego rozpatrywanego okresu, tj. od do Druga grupa akcji objemuje 30 spółek wchodzących w tym samym okresie w skład głównego indeksu giełdy frankfurckiej DAX(Deutscher Aktienindex). Indeks ten tworzony jest na bazie spółek o największej kapitalizacji i największym wolumenie obrotu spośród wszystkich notowanych na tym parkiecie Struktura empirycznej macierzy korelacji Z uwagi na silną niestacjonarność cen akcji, widoczną zwłaszcza w postaci trendów o różnym horyzoncie czasowym, standardowym podejściem jest rozpatrywanie fluktuacji logarytmówcen.niechp α (t i )będziecenąakcjispółkiαwchwilit i.stopęzwrotu(return) definiuje się jako: r t α(t i )=lnp α (t i ) lnp α (t i 1 ), t i t i 1 = t, (44) gdzie t jest odstępem czasowym próbkowania. Przykładowe szeregi czasowe stóp zwrotu o częstości próbkowania t = 15 min. przedstawia rys. 7. Własnosci statystyczne stóp zwrotu będą dokładniej omówione w rozdz. 6.1, w tym miejscu warto tylko zauważyć, że sygnały te charakteryzują się niegaussowskimi, leptokurtycznymi rozkładami gęstości prawdopodobieństwa. Na rysunku widoczne jest także przeplatanie się okresów laminarnego zachowania się cen i gwałtownych eksplozji nerwowej aktywności, gdy ceny podlegają dużym wahaniom. Takie zjawisko można często zaobserwować równolegle na wielu spółkach(szare pasy na rys. 7), co stanowi wstępną przesłankę świadczącą o występowaniu sprzężeń między ruchami cen akcji. Rys. 8 przedstawia rozkład elementów macierzy korelacji, skonstruowanej z szeregów czasowych stóp zwrotu(t = ) dla N = 1000 dużych spółek amerykańskich. Duży wymiar macierzy sprawia, że rozkład elementów jest stosunkowo gładki. Częstość próbkowania t, ustalona na 15 min., jest kompromisem między koniecznością dysponowania szeregami czasowymi o możliwie dobrej statystyce(duże T małe t), a jednocześnie o dobrym stosunku sygnału do szumu(co, jak zostanie wyjaśnione dalej, wymaga większych wartości t). Przedstawiony rozkład mocno odbiega od rozkładu Gaussa, przewidywanego dla macierzy przypadkowych z zespołu Wisharta. Jego maksimum jest przesunięte w 31

42 Rysunek7:Szeregiczasowezpoczątkowymi5000stópzwrotu( t=15min.)dlaprzykładowych spółek notowanych na NYSE(Coca-Cola, Philip Morris, Texas Instruments). Okresy o zwiększonej amplitudzie fluktuacji, równocześnie widoczne we wszystkich sygnałach, są wyróżnione szarymi, pionowymi pasami. stronędodatnichwartościześrednią C αβ 0,07,awidocznaasymetriasugerujedodatnią wartość współczynnika skośności. Taka postać rozkładu świadczy o dużej liczbie silnie sprzężonych stopni swobody układu. Prawe zbocze rozkładu wykazuje zanik wykładniczy. Spektrum wartości własnych C przedstawia rys. 9. Składa się ono z silnie odsuniętejnajwiększejwartościλ 1 84,3,zkilku( 10)następnychpojedynczychwartości, zktórychλ 2 =12,16,λ 3 =7,27iλ 4 =6,02orazniemalciągłegospektrummniejszych wartości ze środkiem masy w okolicy λ = 1. Obrazu całości dopełnia pojedyncza, najmniejszawartośćwłasnaλ ,22.TakastrukturaspektrumCmacharakteruniwersalny dla wszystkich rynków akcji, co zostało szeroko udokumentowane w literaturze (np.[100, 101, 102, 103, 104*]). Porównanie tego spektrum z granicznymi wartościami rozkładumarczenki-pastura(q 13,5;λ min =0,53;λ max =1,62)wskazuje,żewobszarze przewidywanym przez teorię macierzy przypadkowych znajduje się ok. 77% wartości własnych C. Charakter poszczególnych wartości własnych można lepiej określić, patrząc na rozkłady składowych odpowiednich wektorów własnych(rys. 10). Największa wartość własna λ 1 jeststowarzyszonazezdelokalizowanymwektorem,któregowszystkieskładowesądodatnie,a v α (1) =0,029.Oznaczatosilneefektywnezmniejszeniewymiarugłównego składnika macierzy C, którą można wobec tego zapisać jako sumę[90*]: C=C 1 +C, C 1 =b1, (45) gdzie 1 jest macierzą złożoną z samych 1. Taka postać C przypomina omawiany wcześniej przypadekskorelowanychmacierzywisharta(41).wartośćwłasnąλ 1 możnautożsamićz czynnikiem, działającym jednorodnie na wszystkie stopnie swobody układu i generującym ich globalne sprzężenie. W języku ekonometrii czynnik ten nazywa się składową rynkową (market factor) i traktuje jako siłę, w której zasięgu pozostają wszystkie spółki. Ta sytuacja przypomina znane z wielu dziedzin fizyki problemy wielociałowe, w których stosuje 32

43 p (C ij ) p (C ij ) C ij C ij Rysunek 8: Rozkład elementów macierzy korelacji dla 1000 dużych spółek amerykańskich i t=15min.doprawegozboczarozkładudopasowanezostałyfunkcjewykładniczey= ae βx zβ 22,0orazβ 17,3.Głównywykresmaośpionowąwskalilogarytmicznej, awstawka-wskaliliniowej. WISHART N = λ i Rysunek 9: Spektrum wartości własnych macierzy korelacji dla 1000 dużych spółek. Obszar zacieniowany odpowiada zakresowi wartości własnych macierzy losowych Wisharta zgodnie ze wzorem(33). 33

44 się przybliżenie pola średniego, co prowadzi do hamiltonianu o analogicznej strukturze macierzy jak w(45). W przypadku rynku akcji i jego najważniejszych stopni swobody(spółek o dużej kapitalizacji) wspomniana siła jest jednak przede wszystkim tworem matematycznym, ponieważ w istocie na te stopnie swobody nie działa żaden wypadkowy czynnik, a sprzężenia tworzą się spontanicznie pomiędzy poszczególnymi parami stopni na skutek poszczególnych decyzji inwestorów o kupnie bądź sprzedaży akcji(zob. też[105]). Składowa rynkowa jest zatem w tym wypadku tylko widocznym, emergentnym skutkiem samoorganizacji rynku, na którym globalna kolektywność tworzy się jako rezultat oddziaływań między elementami. Uwaga ta dotyczy zwłaszcza rynku amerykańskiego i innych największych rynków, które zachowują się stosunkowo niezależnie. Natomiast w przypadku mniejszych rynków, takich jak Warszawska GPW, które mają tendencję do naśladowania swoich dużych odpowiedników, istnieje oddziaływanie zewnętrzne i ono może do pewnego stopnia pełnić rolę rzeczywistego czynnika rządzącego zachowaniem takiego rynku jako całości (choć i ono nie jest w pełni tożsame ze składową rynkową, rozumianą jako najbardziej kolektywny stan własny macierzy korelacji). Globalnycharakterkorelacjizwiązanychzλ 1 bardzowyraźniewidaćnarys.11,gdzie wykreślonozależność1/i k ( współczynnikudziału )odk.istotnyprzyczynekdostanu własnegoodpowiadającegov (1) dajeokoło60%stopniswobody.wpraktyceoznaczato, żeryneknieewoluujeściślejakciałosztywne(1/i k =1000),zachowującpewnąmiękkość, niemniej w zerowym przybliżeniu można uznać, że tworzy jedną całość jako pojedynczy stopień swobody. Inne wektory własne stowarzyszone z wartościami własnymi spłeniającymi warunek λ k λ max niewykazujątakdużejdelokalizacji,choćnp.wprzypadkuv (2) jestonateżdość znaczna. W większości wektory te charakteryzują się małą liczbą istotnych składowych, co świadczy o stosunkowo małej liczbie stopni swobody, które wnoszą swój wkład. Z punktu widzenia rynku są to zazwyczaj spółki wchodzące w skład tego samego lub powiązanych ze sobą sektorów[102]. Są one wówczas silniej powiązane wewnątrz swojej grupy niż ze spółkami z zewnątrz. Na poziomie macierzy korelacji mamy do czynienia w przybliżeniu ze strukturą typu: C W+B, (46) gdzie B jest macierzą blokowo-diagonalną, a W macierzą Wisharta. Spektrum wartości własnych takiej macierzy ma postać spektrum opisywanego wzorem Marczenki-Pastura z nałożonymi oddalonymi wartościami własnymi w liczbie l, równej liczbie bloków w macierzy B, co odpowiada spektrum macierzy W z zaburzeniami l rzędów. Odpowiednie wektory własne mają w tym wypadku składowe, których rozkłady(rys. 10) są albo silnie asymetryczne, albo ich zbocza zanikają wolniej niż przewiduje rozkład Portera-Thomasa. Typowe wartości własne z rys. 9 zawierają się w obszarze dozwolonym przez RMT, jednakdopasowaniedoichrozkładuteoretycznejkrzywejmarczenki-pasturaρ W (λ)nie jest możliwe, co przedstawia rys. 12. Niezgodność z rozkładem(33) wynika z istnienia wieluwartościwłasnychwobszarzeλ λ max,któreefektywnie,zuwaginazachowanie śladuc,zabierająznacznączęśćwariancjiopisanejparametremσ 2 i ściskają głównączęśćspektrumempirycznegoρ C (λ).możnawtymzjawiskuwidziećpewnąanalogię do hakenowskiej zasady podporządkowania(podrozdz ), w której kolektywne mody stowarzyszoneztymiwartościamiwłasnymi,aległówniezλ 1,podporządkowująsobie pozostałe mody własne macierzy. OstatniągrupęwartościwłasnychCstanowiąwartościmniejszeniżλ min.związanez nimiwektorywłasnezawierająniewieledużychskładowych(maławartość1/i k narys.11), 34

45 a) 1 k = 1 k = 2 1 p (v ) 1 k = 3 k = 4 1 p (v ) v v b) 1 k = 5-30 k = p (v ) 1 k = k = p (v ) v v Rysunek 10: Rozkłady składowych wektorów własnych dla macierzy opartej na 1000 spółek amerykańskich i t = 15 min(histogramy). a) Wektory odpowiadające największymwartościomwłasnym1 k 4.b)Wektoryodpowiadającepozostałymwartościomwłasnym,wykraczającympozaλ max (5 k 30),wartościomzmorzaWisharta (900 k 101),typowymwartościommniejszymodλ min (995 k 970)orazprzykładowej, jednej z najmniejszych wartości własnych(k = 999). W każdym przypadku rozkładowi empirycznemu towarzyszy teoretyczny rozkład Portera-Thomasa(39). 35

46 / I k / I k k k Rysunek11:Współczynnikudziału1/I k dlawszystkichwektorówwłasnychmacierzyc opartejna1000spółek.wewstawcepokazanezostaływartości1/i k wskalipółlogarytmicznej dla wektorów odpowiadających największym wartościom własnym. Zacieniowanypasodpowiadaodchyleniustandardowemurozkładu1/I k wokółwartościśredniej 1/I k 334dlamacierzystworzonejzsurogatów. wskrajnychprzypadkach(najmniejszeλ k )tylkokilka.wektoryteopisująsilnekorelacje i antykorelacje pomiędzy parami i wewnątrz wąskich grup spółek. Strukturę korelacji między stopniami swobody, która prowadzi do macierzy danej przez (46), można wyrazić w postaci uproszczonego modelu[106], w którym(dla dowolnego t) stopa zwrotu spółki α wyraża się przez sumę 2 składników: r α (t i )=f lα (t i )+ǫ α (t i ), (47) gdzies lα iǫ α są,odpowiednio,komponentąsektorową(jeślispółkanależydosektora l α )ikomponentąindywidualną.obiekomponentysąwyrażoneprzezzmiennelosoweo wariancji danej wyrażeniami: var(s lα )=(1+(ε lα ) 2 ) 1, var(ǫ α )=(ε lα ) 2 (1+(ε lα ) 2 ) 1. (48) W bardziej subtelnej, hierarchicznej wersji tego modelu na każdy ze stopni swobody działa L czynników o różnej sile[107]: L r α (t i )= γ αl f l (t i )+η α ǫ α t i ), (49) l=1 gdzieγ αl określająsiłęczynnikal,różnądlaróżnychstopniswobodyα,η α = [1 Ll=1 γ 2 α l ] 1/2 jestsiłąskładowejindywidualnej,af αl iǫ α sązmiennymilosowymitypu i.i.d.. Model hierarchiczny jest bardziej realistyczny pod względem zgodności ze strukturą rynku, wyrażoną przez opisane powyżej własności empirycznej macierzy C. 36

47 2 1.5 ρ C (λ) ρ C (λ) 1 M.-P λ 0.5 λ λ Rysunek 12: Rozkład gęstości prawdopodobieństwa znalezienia wartości własnych empirycznej macierzy C dla 1000 spółek (histogram) wraz z dopasowanym rozkładem Marczenki-Pastura(liniaprzerywana).Wartościwłasnedlak 4znajdująsiępozaskalą wykresu.wstawka:analogicznyrozkładdlamacierzyc rand,zbudowanejzsurogatów Informacja maskowana szumem Jednym z praktycznych problemów, które pojawiają się w czasie analizy danych przy wykorzystaniu macierzy korelacji jest kwestia, czy ta część spektrum empirycznej macierzyc,którazawierasięwprzedzialeλ min λ λ max,macharakteruniwersalnyi można ją traktować jako szum, czy też jest w niej zawarta informacja o nietrywialnych korelacjach, obecnych w analizowanych danych. Jest to szczególnie istotne w przypadku rynków finansowych, gdzie poszczególne stany własne macierzy korelacji są traktowane jakomożliwerealizacjeportfelainwestycyjnegop k.któregostopazwrotudanajestprzez: P t k (t i)= N α=1 v (k) α r t α (t i), (50) gdziewagiodpowiadająułamkowikapitału,zainwestowanegowwalorα.ryzykop k określonejestprzezzwiązanąznimwartośćwłasnąλ k,zgodniezewzorem: Risk(P k )=var(p k )=[v (k) ] T Cv (k) =λ k. (51) Zgodnie z teorią optymalnego portfela[108], portfele minimalizujące ryzyko odpowiadają małym wartościom własnym, a te z punktu widzenia teorii macierzy przypadkowych nie niosą żadnej istotnej informacji. Za hipotezą o szumie przemawiają rozkłady składowych wektorówwłasnych,które-jakpokazujerys.10bdla101 k 900-sąbardzodobrze modelowane przez rozkład Portera-Thomasa. Wydajesięjednak,żewsytuacji,gdyspektrumCniemożebyćopisaneprzezrozkład Marczenki-Pastura, tak jak w bieżącym przypadku, morze Wisharta może zawierać coś więcej niż szum. Jedna z przesłanek bazuje na spostrzeżeniu, że szerokość spektrum 37

48 własnego macierzy W, dana wzorem Marczenki-Pastura, zależy od długości sygnału: im dłuższe sygnały są podstawą tworzenia macierzy danych M, tym węższy obszar morza Wisharta. W związku z tym, jeśli w tym obszarze istnieją zamaskowane przez szum wartości własne prawdziwej macierzy korelacji, to powinny one ujawniać się wraz z wydłużaniem czasu obserwacji. I rzeczywiście: prosta analiza, polegająca na rozpatrywaniu tego samego zbiorusygnałówodługościt,alepodzielonegonakrótszeoknaodługościt w T(dzięki czemumożnamanipulowaćparametremq w =T w /N),sugeruje,żeimwiększeQ w,tym więcej wartości własnych wyłania się z obszaru Wisharta[109*]. Jako przykład posłuży grupa N = 100 największych spółek amerykańskich i szeregiczasowestópzwrotunaskali t=5min.odługościt= niechwkażdym oknieoszerokościt w wyliczonazostaniemacierzc w,ajejspektrumwartościwłasnych niech zostanie uśrednione po wszystkich oknach. Takie uśrednione spektrum, choć nie jest identyczne, jest zbliżone do spektrum dla pełnych sygnałów o długości T. Wobec tego takiespektradlaróżnychwartościq w odpowiadająwprzybliżeniuspektrumdlapełnych sygnałów.traktująct w jakozmienną,możnaprześledzićliczbęwartościwłasnychpoza morzem Wisharta w zależności od długości okna. Aby uzyskać lepszą zgodność spektrum empirycznegozteoriąwyrażonąprzezzakres[λ min,λ max ],wskazanejestzastosowaniestandardowej procedury usuwającej z sygnałów składową związaną z najbardziej kolektywnym stanemwłasnymz 1,wyrażonymprzezsuperpozycjęoryginalnychszeregówczasowychr α (indeks t dla uproszczenia zapisu pominięto) w każdym oknie z osobna: Z 1 (t j )= N α=1 v (1) α r α(t j ), j=1,...t w. (52) Składową tę usuwa się poprzez dopasowanie jej metodą regresji do każdej z oryginalnych szeregów α: r α (t j )=a α +b α Z 1 (t j )+ε α (t j ), (53) gdziea α,b α toszukaneparametry,aε α jestsygnałemrezydualnym,ortogonalnymdostanu własnegoz 1.Nabazietychrezydualnychszeregówczasowychkonstruujesięrezydualną macierzkorelacjic w orzędzien 1,którejspektrumniezawieranajbardziejkolektywnej wartości własnej. Ponieważ to spektrum, uśrednione po wszystkich oknach, w dalszym ciągu silnie odbiega od spektrum macierzy Wisharta i dalej zawiera oddaloną wartość własną(odpowiadającąλ 2 macierzyc w ),procedurę(53)wartozastosowaćponownie, usuwająctymrazemstanwłasnyz 2.WefekcieotrzymujesięmacierzC w orzędzien 2, której spektrum, uśrednione po oknach, nie wykazuje już oddalonych wartości własnych z dużą szczeliną energetyczną. Rys. 13 przedstawia zależność liczby wartości własnych poza morzem Wisharta, czylispełniającychwarunek:λ k / [λ min,λ max ],odwartościparametruq w.widaćnanim, że liczba ta rośnie wraz ze wzrostem długości okna, kiedy coraz więcej wartości własnych opuszcza zakres spektrum w granicach Marczenki-Patura. Wynik ten potwierdza przypuszczenie, że morze Wisharta maskuje istnienie nieuniwersalnych stanów własnych macierzy korelacji C. Teoretycznym tego uzasadnieniem jest możliwość wyliczenia rozkładu wartości własnych estymatora prawdziwej macierzy korelacji, jeśli przyjmie się założenia co do postaci jej spektrum. Procedurę tę można określić jako ubieranie prawdziwej macierzy korelacji w szum[110, 111]. Można w związku z tym oczekiwać, że dopasowując założenia odnośnie spektrum teoretycznego do postaci spektrum empirycznej macierzy C, otrzyma się przybliżone spektrum prawdziwej macierzy korelacji. 38

49 k λ < λ min λ > λ max Q = T / N Rysunek 13: Wzajemne relacje między liczbą wartości własnych przefiltrowanej macierzy C w (szczegóływtekście)wobszarzewisharta(białepolasłupków),aliczbąwartości znajdujących się powyżej(ciemne pola u dołu) i poniżej tego obszaru(ciemne pola u góry)dlaróżnychwartościparametruq w =T w /NiustalonychN=100oraz t=5min. PełneszeregiczasowezostałypodzielonenaoknaodługościT w,awynikiuśrednionepo wszystkichoknach.wartośćmaksymalnaq w =406odpowiadasygnałompełnejdługości T w =T.Wartościwłasnezostałyuszeregowanezgodniezk Skale czasowe formowania sprzężeń Zaprezentowana powyżej dyskusja struktury stanów własnych macierzy korelacji i ich interpretacji dotyczyła sytuacji, w której szeregi czasowe stóp zwrotu były określone na konkretnej skali czasowej t = 15 min. Naturalnym rozszerzeniem tej analizy jest uzmiennienie t i określenie stabilności wyników względem tej zmiennej. Częstość próbkowania sygnału pełni istotną rolę, pozostając w stałej relacji do skal czasowych charakterystycznych dla układu(o ile takie skale istnieją), dlatego można oczekiwać istnienia zależności strukturycod t. Ruchy cen danego waloru, motywowane przez napływające na rynek informacje i ruchy cen innych aktywów, następują w przypadkowych momentach nadejścia zleceń kupna i sprzedaży. Same zlecenia także charakteryzują się przypadkowymi rozkładami ceny i wolumenu. Z tego względu na najkrótszych skalach czasowych musi dominować szum. W miarę upływu czasu ten obraz ulega jednak zmianie: inwestorzy zdążą już przyswoić informacje i zauważyć ruchy cen, mogą zatem podjąć odpowiednie decyzje co do zakupu bądź sprzedaży. Różni inwestorzy charakteryzują się przy tym różnym czasem reakcji. Najwięksi inwestorzy instytucjonalni zazwyczaj reagują szybciej, posiadając dostęp do danych lepszej jakości i wykorzystując automatyczne strategie i systemy transakcyjne. Umożliwia to podejmowanie decyzji w czasie rzędu ułamków sekund. Z kolei inwestorzy indywidualni reagują z większym opóźnieniem, z czasami od kilku sekund do kilku minut, anawetgodzinlubdni-jeślinieśledząnabieżącosytuacjinarynku.ponieważjednaknaj- 39

50 większe zlecenia, decydujące o kierunkach ruchu cen, składają inwestorzy instytucjonalni, można się spodziewać, że najistotniejsze sprzężenia między stopniami swobody będą się rozwijać na krótkich skalach czasowych, bliższych minutom niż dniom[112, 113*]. Spektra wartości własnych macierzy korelacji w funkcji t dla dwóch grup spółek: 100 spółek o największej kapitalizacji na rynku amerykańskim(grupa A) oraz 30 spółek wchodzących w skład niemieckiego indeksu DAX(grupa B) są przedstawione na rys. 14. Wobuprzypadkachwidocznajestprzedewszystkimsilnazależnośćλ 1 odskaliczasowej. Możnawtejzależnościwyróżnićdwareżimy:dlakrótkichskal, t<15min.wobu grupachspółekwidocznyjeststosunkowosilnyprzyrostλ 1 zewzrostemdługościskali, natomiast dla skal dłuższych t > 15 min., szybkość przyrostu wyraźnie się zmniejsza, bydla t 60min.(B)bądź t 240min.(A)osiągnąćpułapnasycenia.Dalszywzrost długościskaliniepowodujejużznaczącychzmianλ 1.Niepokazanatutaj,podobnaanaliza oparta o dane dzienne grup spółek wchodzących w skład indeksów DAX i nowojorskiego Dow Jones Industrial Average(DJIA) pokazała stabilność nasycenia do najdłuższej rozpatrywanej skali 16 dni handlowych. Obie grupy spółek różni położenie drugiej i kilku następnych wartości własnych C, które w przypadku grupy A systematycznie rosną wraz z t aż do najdłuższych rozpatrywanych skal, co sugeruje dalsze narastanie sprzężeń między podgrupami spółek po nasyceniuglobalnegosprzężeniacałejgrupy,opisywanegoprzezλ 1.Wprzypadkugrupy B taki efekt, o ile w ogóle występuje, jest znacznie słabszy- właściwie ograniczony tylko doλ 2,orozmiarzesytuującymjąwokolicyλ max.sugerujeto,żenajwiększespółkiniemieckie, zawarte w indeksie DAX, są silnie sprzężone jako całość, ale nie wykazują mocnej struktury sektorowej. Interesującą obserwacją jest znacznie silniejsze skorelowanie spółek z grupy B dla najkrótszych, subminutowych skal czasowych niż ma to miejsce ze spółkami z grupy A, co przejawiasięwwiększej szczelinieenergetycznej międzyλ 1 apodobnądlaobugrup pozostałączęściąspektrum-itowsytuacji,gdygrupabmaponadtrzykrotniemniej stopni swobody. Oznacza to, że sprzężenia pomiędzy spółkami z grupy B budują się szybciejniżpomiędzyspółkamizgrupya.wydajesię,żeźródłemtegozjawiskamożebyć podatność rynku niemieckiego na wpływ sytuacji na giełdach amerykańskich. W ten sposób inwestorzy na tym rynku sugerują się w większym stopniu jednym czynnikiem niż ich odpowiednicy o bardziej zdywersyfikowanej uwadze za oceanem. Prowadzi to do podejmowania przez nich w krótkim czasie podobnych decyzji w odniesieniu do wszystkich rodzajów akcji, bez sugerowania się niuansami bieżącej sytuacji na własnym rynku. Fakt silniejszego sprzężenia wsród akcji na giełdzie niemieckiej został także zaobserwowany w kontekście analizy stabilności korelacji w domenie czasowej[89]. Charakterwzrostuλ 1 ( t)możebyćdwojaki:stopniowywzrostsiłykolektywnego sprzężenia wszystkich stopni swobody lub pojawienie się szybko uformowanego kolektywnego rdzenia złożonego z małej grupy stopni, do których, w miarę upływu czasu, dołączają kolejne stopnie, windując wartość własną. W rozstrzygnięciu, która z tych możliwości jest bardziej prawdopodobna, pomaga rys. 15, na którym wykreślona została zależność 1/I 1 ( t)dlaa.zmianywspółczynnikamającharakterpowolnychwahańwokółwartości średniej 1/I 1 ( t) 83,zwyraźnymminimumdla1min.,wzrostemdla1< t<15 min. i lekkim monotonicznym spadkiem dla skal powyżej 15 min. Takie zachowanie współczynnika świadczy o globalnym sprzężeniu już na najkrótszych, sekundowych skalach czasu, a słaba zależność od t wskazuje w przypadku badanej grupy 100 największych spółek raczej na brak centralnego rdzenia, stopniowo agregującego pozostałe stopnie swobody. Niewielkiezmiany1/I 1 ( t)wynikająprawdopodobniezpewnejniewielkiejagregacjispółeknaskalach t 15,alezamaskowanychnaskalachnajkrótszychpoprzezistnienie 40

51 Rysunek 14: Spektrum wartości własnych macierzy C w funkcji skali czasowej t dla: a) 100 największych spółek z rynku amerykańskiego, b) dla 30 spółek wchodzących w skład niemieckiegoindeksudax.skale t=390min.(nowyjork)i t=510min.(frankfurt) są równe jednemu dniowi handlowemu na odpowiednich giełdach. Dla dłuższych skal ( t 30min.)spektrazostałyuśrednionepokilkurealizacjachsygnałów,przesuniętych wfazieoτ t,gdzieτ=1;2;...dobrzewidocznyjestefektnasyceniaλ 1 ( t).ciemny obszar u dołu wykresów oznacza obszar Wisharta. 41

52 1 / I N = , t [min.] Rysunek15:Współczynnikudziału1/I 1 wfunkcjiskaliczasowej tdla100spółeko największej kapitalizacji. silnych korelacji między spółkami dla nocnych stóp zwrotu(łączących cenę zamknięcia jednego dnia handlowego z ceną otwarcia dnia następnego). Wielkość bezwzględna tych stóp jest wprawdzie taka sama na różnych skalach, ale wielkość względna jest znacznie większa na krótszych i stąd też ich większy wkład we współczynniki Pearsona. Z drugiejstrony,naprawdopodobnenasycenie1/i 1 ( t)dladłuższychskalnakładasięwzrost siły korelacji wewnątrzsektorowych(widocznych na rys. 14), które relatywnie osłabiają korelacje globalne. Jest rzeczą znaną, że na każdym rynku istnieje silna hierarchia ważności spółek, a na górze tej hierarchii stoją spółki o największej kapitalizacji, na których wykonywany jest największy dzienny obrót. Można w związku z tym zadać pytanie, czy kapitalizacja ma wpływ na szybkość tworzenia się i nasycania sprzężeń między spółkami. Odpowiedź daje rys. 16, na którym zamieszczona została zależność siły globalnego sprzężenia, wyrażonego przezλ K i 1( t),odśredniejkapitalizacjik l spółekwchodzącychwskładgrupyl.wcelu porównania, do analizy wybrano równoważne liczebnie grupy z N = 30 spółkami, różniące się kapitalizacją co jeden rząd wielkości. Wykresy pokazują odwrotną zależność szybkościtworzeniasięsprzężeńodk i.zwyjątkiemnajwiększychfirm(k USD),dla którychλ 1 ( t)wykazujepoziomsaturacji 11przy t 60min.,pozostałegrupy,o systematyczniemniejszymλ 1 ( t),niewykazująwyraźnegonasyceniadlabadanychskal do 780 min. włącznie. Ślad, że takie zachowanie jest możliwe dla jeszcze większych t, widaćtylkowprzypadkugrupyzk USD,natomiastdwieostatniegrupyokapitalizacjiK USDiK USDcechująsięniezaburzoną,potęgowązależnością λ 1 ( t).ponadto,oileniewielkiefektkolektywnymożnazaobserwowaćdla t<1min. wprzypadkugrup1 3,otylegrupanajmniejszychspółekmawtymobszarzekorelacjestatystycznienieistotne.Porównującwartościλ 1 dladwóchskrajnychgrup,widać,że globalna kolektywność grupy 4 na skali t = 780 min.(2 dni) odpowiada kolektywności grupy1naskaliok.100s.biorącpoduwagę,żenagiełdzienysehandlowanesątak- 42

53 λ N = 30 ~ $ ~ $ ~ 10 9 $ ~ 10 8 $ λ max t [min] Rysunek 16: Największa wartość własna macierzy C w funkcji skali t dla kilku grup, z których każda składa się z 30 amerykańskich spółek o porównywalnej kapitalizacji(linie ciągłe). Linią przerywaną zaznaczona została górna granica rozkładu Marczenki-Pastura λ max. żeakcjespółekokapitalizacjinawet100-krotniemniejszejniżk 4 iprzyjmując,żedla nich obowiązuje podobna prawidłowość, daje to ogromny rozrzut szybkości tworzenia się sprzężeń wewnątrz grup o różnej kapitalizacji. Źródłem omawianego wzrostu siły sprzężenia między akcjami ze wzrostem t, zwanego efektem Eppsa[114], są w głównej mierze opóźnione korelacje pomiędzy akcjami różnych spółek. Jak pokazały niedawne analizy[115], za tym zjawiskiem stoi czynnik ludzki w postaci określonych horyzontów czasowych reakcji inwestorów na zdarzenia zachodzącenarynkuipozanim.choćzależnośćλ 1 odkapitalizacjimogłabysugerować,że powodem różnej szybkości budowania korelacji dla róznych grup spółek jest liczba transakcji zawieranych na walorach z danej grupy(akcje spółek o największej kapitalizacji są zarazem najbardziej płynne, podczas gdy małe spółki są tylko sporadycznie obiektem zainteresowania inwestorów)[113*, 116], to jednak późniejsze szczegółowe analizy dowiodły, żewpływpłynnościniejestduży[115].wtejsytuacji,różnicwwartościλ 1 dladużych i małych spółek nie można przypisać różnicom w szybkości upływu czasu, taktowanego transakcjami. Efekt Eppsa jest zjawiskiem, które ma swoją własną dynamikę w czasie. Zestawienie współczesnych skal czasowych, na których następuje pełne uformowanie się sprzężeń, z odpowiednimi skalami w danych sprzed kilkudziesięciu lat pokazuje, że współcześnie siła korelacjinatejsamejskaliczasujestwiększaniżwprzeszłości.ilustrujetorys.17,naktórym pokazano wartości współczynnika korelacji dla pary spółek F-GM w latach iwroku1971.skalaczasowa t=1min.wpóźniejszymokresieodpowiadaskali t=10 min. we wcześniejszym. Świadczy to o efektywnym przyśpieszeniu reakcji inwestorów na zdarzenia na rynku i na informacje z zewnątrz, jakie dokonało się na przestrzeni dzisięcioleci. Wydaje się to naturalne w świetle większego zaawansowania technicznego obecnych 43

54 0,6 F - GM 0,5 C ij ( t) 0,4 0,3 0,2 0, t [min] Rysunek 17: Współczynnik korelacji pomiędzy spółkami Ford(F) i General Motors(GM) wdwóchodległychodsiebieokresachczasu:1971i danez1971pochodząz pracy[114]. rynków akcji. Przedstawione powyżej wyniki sugerują, że im większa grupa spółek jest podstawą do tworzenia macierzy korelacji C, tym większa szansa na to, że wewnątrz grupy znajdą się spółki bardzo różniące się wielkością. W efekcie, przy ustalonej skali t, akcje największych spółek są silniej ze sobą sprzężone niż z akcjami mniejszych spółek i niż akcje mniejszych spółek między sobą. Może to prowadzić do słabszej globalnej kolektywności niż w sytuacji, gdy analiza obejmuje tylko spółki podobnej wielkości. Że tak może być wistocie,pokazujązależnościprzeskalowanegospektrumwartościwłasnychλ k /Niprzeskalowanegowspółczynnikaudziału1/(I 1 N)odliczbyNspółektworzącychmacierzC ( t=15min.,rys.18).danedobranotak,żeimwiększaliczban,tymmniejszakapitalizacja najmniejszych rozpatrywanych spółek. Przy N = 10 brane są pod uwagę tylko spółkiowartości>200mldusd,podczasgdyprzypełnymzbiorzen=1000spółek najmniejszeznichsąwartetylkook.700mlnusd(lokująsiępomiędzyk 3 ik 4 ). Rezultatyanalizywskazują,żedlaN 100wkażdymprzypadkumniejwięcej90% spółekwchodzidoglobalnegostanukolektywnegozwiązanegozλ 1,a1/(I 1 N)słabozależy odrozmiaruukładu.sytuacjazaczynasięszybkozmieniać,gdyn>100idlan=1000 współczynnik spada poniżej 60%. Z perspektywy dużego układu, rozważana wcześniej i odrzucona możliwość istnienia silnie sprzężonego rdzenia i słabiej związanych z nim peryferiów, tym razem jest zdolna wytłumaczyć uzyskane wyniki. Oba wyniki nie przeczą jednak sobie, ponieważ wcześniej rozważany układ składał się ze 100 spółek, a zatem był to obszar, gdzie wszystkie aktywa są silnie sprzężone. Na poziomie spektrum wartości własnych widoczny jest na rys. 18 monotoniczny spadekwartościλ 1 /Nz0,43dlaN=10do0,08dlaN=1000.Wyrażatofakt,żerynek składający się z dużej liczby spółek o różnej wielkości jest o wiele bardziej miękki niż względnie sztywny rdzeń zbudowany z niewielu dużych spółek. Ta miękkość prowadzi do 44

55 Rysunek18:Przeskalowanespektrawartościwłasnychλ k /N(drabinki)iprzeskalowany współczynnikudziału1/(i 1 N)(kwadraty)dlaróżnychwymiarówNmacierzyCprzy ustalonym t = 15 min. Wąski, ciemny obszar u dołu wykresu odpowiada macierzom przypadkowym Wisharta. większej różnorodności zachowań i większej dowolności w skupianiu się spółek w grona (sektory), bądź pozostawaniu na uboczu głównych składowych dynamiki rynku. Z tym wiąże się też szybkość przepływu informacji: wśród dużych spółek, stanowiących rdzeń, przepływa ona szybko, co powoduje szybkie tworzenie się sprzężeń, natomiast na peryferia dociera z dużym opóźnieniem i znacznie zaszumiona, stąd sprzężenia są słabsze i potrzeba długiego czasu, aby je w pełni zaobserwować. Duży rynek jest zatem strukturą, w której nie dominuje ani kolektywność, ani szum, leczobazjawiskapozostajązesobąwdynamicznejrównowadze.jakbyłaotymmowaw podrozdz. 1.3, jest to jedna z manifestacji złożoności. 3.3 Rynek walutowy Innym przykładem układu o wielu stopniach swobody wyrażonych w postaci szeregów czasowych, w którym można zastosować analizę macierzową, jest rynek walutowy. Analiza opiera się na dziennych notowaniach kursów wymiany 59 walut i 3 metali szlachetnych: złota, srebra i platyny, obejmujących okres 10 lat od do Zbiór walut obejmuje wszystkie liczące się waluty na świecie, a także część walut o mniejszym znaczeniu i pewną liczbę walut niewymienialnych. Spis rozważanych walut i szczegóły wstępnej obróbki danych znajdują się w Dodatku A(A.2.1). Uwzględnienie metali szlachetnych w analizie rynku walutowego wynika z dwóch przyczyn. Pierwsza z nich to historyczne koneksje tych metali, szczególnie złota i srebra, z systemem pieniężnym. Przez wiele stuleci w obiegu były monety zawierające określoną domieszkę złota i srebra, zastąpione później przez gwarantowaną przez banki centralne wymienność papierowego pieniądza na złoto w ustalonym stosunku, co było powszechną 45

56 praktykąwxixw.iwipoł.xxw.,apoprzezsystemzbrettonwoodsażdopoczątku lat 70-tych XX w. Mimo że współcześnie rządy wszystkich państw zarzuciły wymienialnośćwalutnarodowychnazłoto,to-zuwaginajegozgrubszastałezasobynaświeciejego wartość postrzegana jest jako stabilna i nie podlegająca inflacji, w związku z czym w okresach zawirowań gospodarczych złoto może pełnić rolę zastępczej waluty. Drugim powodem uwzględnienia metali szlachetnych w niniejszej analizie jest potrzeba posiadania punktu odniesienia dla światowego rynku właściwych walut, które- w przeciwieństwie do np. rynku akcji czy rynku towarowego, opartego na lokalnym pieniądzu- nie posiadają takiego naturalnego układu odniesienia Pełna wielowymiarowa struktura rynku Podobnie jak w przypadku cen akcji, kursy wymiany walut podlegają silnym trendom, co utrudnia badanie ich metodami statystycznymi. Z tego powodu znacznie wygodniejsze jest analizowanie ich fluktuacji. Jeśli kurs wymiany dwóch walut B i X zdefinuje się jako liczbę jednostek waluty X, które są równoważne jednostce waluty B, zwanej walutą bazową, to kurs ten można zapisać jako B/X. Jego logarytmiczna stopa zwrotu na skali czasowej t, w pełnej analogii do(44), ma postać: r t B/X(t i )=ln[b/x](t i ) ln[b/x](t i 1 ), t i t i 1 = t,,i=1,...,t. (54) MającdodyspozycjizestawN=62walut,możnaznichutworzyćN(N 1)=3782 kombinacji kursów wymiany, co przy trywialnej relacji X/Y(t i )= 1 Y/X(t i ) r t X/Y(t i )+ry/x(t t i )=0, (55) gdzie pominięto koszty transakcji, daje N(N 1)/2 = 1891 kursów wymiany unikalnych par walut. Długość szeregów czasowych w każdym przypadku jest taka sama i wynosi T = Na bazie tych szeregów, traktowanych jako stopnie swobody badanego rynku, możnautworzyćmacierzcowymiarzen(n 1) N(N 1),którejelementamisą współczynniki korelacji pomiędzy parami kursów wymiany. Od razu należy zwrócić uwagę, żerządtejmacierzyjestconajwyżejrównyn 1zuwaginaobowiązywanierelacjitrójkąta (25), która dla stóp zwrotu ma postać: r t X/Y (t i)+r t Y/Z (t i)+r t Z/X (t i)=0. (56) Rozkład elementów macierzy C przedstawiony został na rys. 19(symbole ciemniejsze). Rozkład ten w ewidentny sposób odbiega kształtem od rozkładu dla macierzy przypadkowej typu Wisharta, posiadając grube zbocza, rozpościerające się w całym dostępnym przedzialewartościwspółczynnikakorelacji 1 C αβ 1.Możnastądwywnioskować, że niektóre ze stopni swobody ewoluują w pełni koherentnie, tworząc efektywnie jeden stopień swobody układu. Inne z kolei wykazują sprzężenia ujemne i znajdują się w antyfazie. Ponieważ prowadzi to do dalszej redukcji rzędu macierzy, celem zmniejszenia, na tyle, na ile to możliwe, jej degeneracji, zbiór użytych walut został przejrzany pod kątem wyeliminowania walut, które są sztucznie powiązane przez własne banki centralne z innymi walutami i, jako takie, nie posiadają odrębnej dynamiki. W wyniku tego przeglądu, ze zbioru podstawowego wybrane zostały waluty niezależne i złoto, tworząc podzbiór 38 stopni swobody(zbiór I). Wśród wyeliminowanych walut znalazły się także płynne waluty, takie jak np. duńska korona(dkk), powiązana z euro poprzez mechanizm ERM2, 46

57 p (C XY ) waluty 38 walut niezal C XY Rysunek 19: Rozkład elementów macierzy korelacji C dla wszystkich N = 62 walut i N(N 1)/2 = 1891 wzajemnych kursów wymiany, definiujących rozmiar C(symbole ciemne),orazrozkładelementówmacierzyc ind,opartejnawalutachniezależnych(n= 38) i o wymiarze N(N 1)/2 = 703(symbole jasne). Szeregi czasowe, z których utworzono obie macierze, mają długość T = 2519 punktów. dolar hongkoński(hkd), zależny od USD poprzez tzw. system powiązanego kursu(linked exchange rate system), dolar singapurski(sgd), związany z koszykiem walut zewnętrznych i węgierski forint(huf) o ustalonym parytecie względem euro. MacierzkorelacjiC ind,wyliczonadlapodzbioruwalutniezależnych,posiadaelementy o rozkładzie przedstawionym na rys. 19(symbole jaśniejsze). W zasadniczej części rozkład ten pokrywa się z rozkładem dla pełnego zbioru walut, jednak zawiera znacznie mniej elementów ekstremalnych ±1, będących manifestacją silnych sprzężeń, obniżających rząd macierzy. Mimo to, w dalszym ciągu w układzie występuje pewna liczba silnie koherentnych stopni swobody i można spodziewać się zerowych wartości własnych Struktura rynku dla ustalonej waluty bazowej WobecsilnejdegeneracjimacierzyC ind,analizapełnegorynkumetodąmacierzowąjest niecelowa. Znacznie wygodniej jest analizować jego strukturę z punktu widzenia ustalonej waluty bazowej. Ustalenie B oznacza silną redukcję wymiarowości problemu, gdyż całkowita liczba rozpatrywanych jednocześnie stopni swobody B/X wynosi wtedy N 1 = 37 i taki też wymiar posiada odpowiednia macierz korelacji. Zmieniając wybór B, można otrzymaćcałąrodzinęn=38macierzyc B.Umożliwiatozbadanie,jakwyglądastruktura światowego rynku walutowego z punktu widzenia każdej z rozważanych walut ze zbioru I oraz- w szczególności- zidentyfikowanie kolektywnych składowych tego rynku[117*, 118*]. Możliwa jest też bardziej intuicyjna notacja: zamiast mówić o korelacjach pomiędzy kursami wymiany B/X i B/Y, można mówić o korelacjach między walutami X iyzpunktuwidzeniab. 47

58 Rozkłady elementów macierzowych dla kilku charakterystycznych przypadków wyboru B pokazano na rys. 19, uszeregowane względem rosnącej wartości średniej elementów CXY B.Różnicepomiędzywalutamibazowymisąbardzodużeizawierająsięwprzedziale między 0,16 dla B=USD a 0,85 dla ghańskiego cedi(b=ghs). Porównanie tych średnich zewskazaniamiwspółczynnikaudziału1/i1 Bdlanajbardziejkolektywnegowektorav(1) B, świadczy o silnej jego kolektywności dla walut, charakteryzujących się dużymi średnimi wartościamielementówmacierzowych1/i1 GHS 36,5isłabszejwprzeciwnymprzypadku 1/I1 USD 17, 3. Nie jest to wynik zaskakujący, ponieważ wybór waluty bazowej oznacza związanie z nią układu odniesienia. W związku z tym wybór waluty, która jest słabo związana z resztą rynku(np. GHS), sprawi, że rynek będzie się zachowywał jak silnie sprzężonacałośćodużejwartości CXY idużymwspółczynniku1/i B 1.Odwrotniebędzie B się przedstawiać sytuacja, jeśli za bazę wybierze się walutę o podstawowym znaczeniu dla rynku, np. B=USD. Z uwagi na fakt, że wiele krajów jest silnie powiązanych ekonomicznie ze Stanami Zjednoczonymi(Daleki Wschód, Ameryka Łacińska), ich waluty będą dość mocno związane z dolarem. Z punktu widzenia innych walut bazowych, takie waluty będą satelitami USD, ale jeśli za układ odniesienia przyjmie się właśnie tę walutę, to jej satelity staną się pozornie niezależne, czego skutkiem może być mała wartość średniego elementu macierzyc USD. Na rys. 20, obok walut ze zbioru I, znajduje się rozkład elementów macierzowych dla sztucznie utworzonej waluty rnd. Jej kurs wymiany względem USD składa się z przypadkowych fluktuacji o typowym rozkładzie stóp zwrotu(jest to przemieszany szereg czasowy USD/PLN, w którym zniszczono wszystkie korelacje względem innych walut). Dzięki takiej konstrukcji, waluta ta stanowi drugi, obok XAU, punkt odniesienia dla prawdziwych walut. Od złota różni się tym, że choć jej fluktuacje mają niezależny charakter, to jest mało prawdopodobne(zerowa autokorelacja), aby jej ewolucja względem innych walut przejawiała długotrwałe trendy. JeślispojrzysięnaspektrawłasneposzczególnychmacierzyC B,przedstawionena rys.21,wkażdymprzypadkuwidocznajestoddalonawartośćλ B 1 izwiązanaztymprzerwa energetyczna. W niektórych przypadkach można również zauważyć kolektywny charakter λ B 2 i,rzadko,kilkudalszychwartościwłasnych.zgodniezmodelowymiwłasnościamizespołu skorelowanych macierzy Wisharta oraz obserwacjami empirycznymi(np.[89, 102]), rozmiarλ B 1jestzwiązanyz CXY,cowidaćpoporównaniuzrys.20. B Podobnie jak średni element macierzowy, największa wartość własna opisuje stopień dekorelacji waluty bazowej w relacji do reszty rynku. Innymi słowy, przyjmując robocze założenie, że waluty centralne, posiadające satelitów, są walutami ważniejszymi od walut peryferyjnychzpunktuwidzeniazwiązkówzeświatowymrynkiem,możnarozmiarλ B 1 uznać za miarę znaczenia danej waluty B. Jest to o tyle racjonalne założenie, że waluty odosobnione w swojej dynamice, nawet jeśli są związane z dużą krajową gospodarką, nie pełnią istotnej roli jako atraktory światowego rynku, w związku z czym rynek mógłby równie dobrze funkcjonować bez ich udziału. Rys. 22 zawiera komplet informacji na temat największejwartościwłasnejmacierzyc B dlawszystkichmożliwychwyborówwaluty bazowej ze zbioru walut niezależnych I. Aby uczynić prezentację bardziej przejrzystą, waluty zostały pogrupowane w koszyki według stosowanego przez praktyków podziału według kryterium płynności. Koszyk A* zawiera waluty podstawowe o największej płynności,koszyka-walutyomniejszymznaczeniuniża*,alerównieżpłynne,koszykbwaluty o małej płynności, ale mimo to handel nimi jest bez przeszkód praktykowany, a koszyk C- waluty niepłynne oraz niewymienialne, na których handel odbywa się głównie w sposób pośredni, np. przez tzw. kontrakty bez dostawy(non-deliverable forwards). Wykres pokazuje, że wśród walut, oprócz stosowania kryterium płynności, można wy- 48

59 6 JPY GHS GBP 4 2 B P (CXY ) 6 XAU PLN EUR rnd CHF USD B CXY Rysunek 20: Rozkłady elementów macierzowych CB dla kilku przykładowych walut bazowych oraz dla sztucznej waluty rnd o przypadkowych fluktuacjach względem reszty rynku. W każdym przypadku zaznaczono wartość średnią elementów macierzy CB. λk GHS XAU rnd JPY PLN CHF EUR GBP 0 USD 10 waluta bazowa Rysunek 21: Spektra wartości własnych macierzy CB dla przykładowych walut bazowych, w tym: złota i sztucznej waluty rnd. 49

60 35 B λ TRY XAU IDR ISK ZAR BRL RUB GHS ZMK DZD r n d JPY NZD AUD CHF NOK,SEK EUR,CAD GBP USD PLN,KRW CZK MXN THB,PHP ILS TWD RON CLP EGP JMD COP FJD PKR PEN TND MAD 5 0 Koszyk A* Koszyk A Koszyk B Koszyk C Rysunek22:Największawartośćwłasnaλ B 1dlawszystkich38niezależnychwalutzezbioru I. Waluty zostały pogrupowane w koszyki według płynności(szczegóły w tekście). Im mniejszawartośćλ B 1,tymbardziejcentralnarolawalutyB.Sztucznawaluta rnd została zamieszczona jako odniesienie. różnić trzy główne grupy. Pierwszą stanowią waluty o małej przerwie energetycznej międzystanemk=1aresztąstanów,doktórychmożnazaliczyćprzedewszystkimusd,ale takżekilkapomniejszychwalut.wtejgrupieλ B 1 10.Drugagrupa,najliczniejsza,jest mieszaniną walut ze wszystkich koszyków, a jej cechą charakterystyczną, oprócz umiarkowanegozakresu12 λ B 1 22,jestto,żezawierawszystkie,opróczUSD,walutyz koszyka A*. Trzecia grupa obejmuje waluty z koszyków A-C, a wartość własna jest w tej grupieszczególnieduża:λ B Zastanawiając się nad umiejscowieniem poszczególnych walut na wykresie, należy zwrócićuwagę,żeniskie(λ USD 1 9, 2) położenie dolara amerykańskiego jest całkowicie zrozumiałe w świetle jego fundamentalnej roli w światowym systemie walutowym. Fakt podobnego położenia tajwańskiego dolara(twd) można wytłumaczyć przez silne związki polityczno-gospodarcze między Tajwanem a Stanami Zjednoczonymi, natomiast trudniejsze do interpretacji jest podobne położenie marokańskiego dirhama(mad) i tunezyjskiego dinara(tnd). W tym pierwszym przypadku słaba kolektywność rynku może wynikać z umiejscowienia MAD jako łącznika pomiędzy atraktorami euro i dolara(o których będzie mowa w podrozdz. 8.3), na skutek czego zyskuje on w ramach struktury korelacyjnej rynku o wiele ważniejszą pozycję niż wynika to z jego znaczenia międzynarodowego. Z kolei TND jest bardzo silnie sprzężony z MAD(przykładowa wartość elementu macierzowego:cmad,tnd USD 0, 82) i w ten sposób przejmuje wszystkie własności sąsiada. W grę mogą wchodzić także historyczne związki TND z dolarem(parytet do lat 70-tych XXw.). Naprzeciwległymkońcuzakresuzmiennościλ B 1rezydujątakiewaluty,którecechuje największe rozprzężenie z rynkiem. Należą do nich GHS, zambijska kwacha(zmk), algierski dinar(dzd), brazylijski real(brl) i turecka lira(try), których cechą wspólną 50

61 35 B λ 1 30 XAG XPT 25 ARS VEB 20 EUR HUF CYP SKK BGN XAF DKK USD MYR HKD SGD Koszyk A* Koszyk A Koszyk B Koszyk C TTD KWD SAR LBP LKR JOD INR AED BHD HNL CNY Rysunek23:Największawartośćwłasnaλ B 1 dlawalutsztuczniepowiązanychzinnymi walutami. Obszary zależności walut od USD i EUR zaznaczone są prostokątami. jestto,żeodpowiadaimwiększawartośćλ B 1 niżwprzypadkuzłota.oznaczato,żeposiadają one bardziej niezależną ewolucję wzgledem reszty rynku niż XAU, co na pierwszy rzut oka może przeczyć intuicji. Rzecz dotyczy jednak takich walut, które w analizowanym okresie przechodziły fazę hiperinflacji, co w pełni tłumaczy ich osobliwość. Ponadto wysokąwartośćλ B 1posiadająrosyjskirubel(RUB)iindonezyjskarupia(IDR),których waluty były w tym okresie silnie niestabilne, oraz islandzka korona(isk), której wartość uległa załamaniu w 2008 r. Ostatnią z walut o dużej niezależności ewolucji względem rynku światowego jest południowoafrykański rand(zar), którego dekorelacja wynika z silnych związków z rynkiem surowców, w tym ze samym złotem. Należy też zaznaczyć, że w tej strefie znajduje się także całkowicie sztuczna waluta rnd. Wobszarzepośrednichwartościλ B 1 znajdująsiępozostałewaluty,któreaniniewykazują patologicznej lub osobliwej dynamiki, ani nie dorównują znaczeniu USD. Można więc przyjąć, że ten obszar cechuje typowe, zdrowe waluty. Wśród nich, na stosunkowo niskimpoziomie,znajdujesięeuro(λ EUR 1 13, 0), brytyjski funt(gbp), szwajcarski frank (CHF) oraz, nieco wyżej, japoński jen(jpy) i polski złoty(pln). Aby uzupełnić obraz światowego rynku walutowego, na kolejnym rysunku(rys. 23) przedstawionoλ B 1 dlawalut,którenieznalazłysięwzbiorzei.sątowalutysztucznie powiązane z innymi walutami poprzez politykę monetarną banków centralnych, w związku z czym ich dynamika jest tylko odbiciem dynamiki walut nadrzędnych. Obliczenia wykonano dla pełnego zbioru N = 62 walut i metali szlachetnych. Aby uzyskać przybliżoną zgodność skali z rys. 22, uzyskane wartości własne przemnożono przez czynnik f = 37/61, równy stosunkowi liczebności zbioru I(minus waluta bazowa) do liczebności pelnego zbioru walut(minus waluta bazowa). Jak widać na wykresie, waluty takie dzielą się zasadniczo na dwie grupy: waluty powiązane z USD i powielające jego centralną pozycjęimałąwartośćλ USD 1, oraz powiązane z EUR i również dziedziczące jego własności. Jak wynika z rys. 21, oprócz modu kolektywnego, związanego z kondycją i miejscem 51

62 λk GHS XAU rnd JPY PLN CHF EUR GBP 0 USD 10 waluta bazowa Rysunek 24: Spektra wartości własnych dla tych samych walut bazowych B co na rys. 21, po odfiltrowaniu przyczynków od kursów wymiany B/USD i B/EUR. Obszar spektrum macierzy przypadkowych Wisharta został zacieniowany. waluty bazowej w strukturze rynku światowego, w przypadku niektórych walut bazowych spektra wartości własnych wykazują istnienie innych, słabszych sprzężeń między walutami. W celu określenia charakteru tych bardziej subtelnych sprzężeń, rekomendowaną procedurą jest usunięcie z oryginalnych danych takich składowych, które odpowiadają najsilniejszym źródłom kolektywności. Można to wykonać, stosując metodę dopasowania wyodrębnionej, kolektywnej składowej do oryginalnych szeregów czasowych, zgodnie ze wzorami (52) i (53). Zamiast jednak dokładnie powielać tę metodę i usuwać stan Z1B, B odpowiadający największej wartości własnej λb 1 macierzy C, tym razem usunięte zostaną kolejno dwa przyczynki od znanych a priori źródeł sprzężeń: USD i EUR. Bardziej precyzyjnie, od sygnału odpowiadającego każdemu kursowi wymiany B/X odjęty zostanie dopasowany przyczynek od sygnału odpowiadającego kursowi B/Y, gdzie, kolejno, Y=USD i Y=EUR: B B rx (tj ) = ax + bx ry (tj ) + εb (57) X (tj ). W sytuacji, gdy walutą bazową jest USD albo EUR, od sygnałów, z oczywistych względów, odejmowany jest tylko jeden przyczynek, tj., odpowiednio, USD/EUR albo EUR/USD. Spektra wartości własnych dla kilku wybranych walut bazowych, po przeprowadzeniu tej procedury i ponownym wyliczeniu macierzy w oparciu o sygnały rezydualne, przedstawia rys. 24. Globalny stan kolektywny został wyeliminowany we wszystkich przypadkach, co świadczy o jego związku z USD i EUR. Spektra rezydualne wykazują jedynie istnienie pojedynczego stanu o niewielkiej kolektywności. Odfiltrowanie pełne lub częściowe najbardziej kolektywnego stanu własnego pozwala na identyfikację subtelniejszej struktury sprzężeń pomiędzy walutami, prowadzących do struktury gronowej rynku. Można w tym celu zastosować metodę opisaną w pracy [119]. Metoda ta polega na usunięciu z macierzy (w tym wypadku macierzy rezydualnej, opartej na sygnałach εb X ) elementów, których wartość nie przekracza wartości progowej p. Następ52

63 USD CHF GBP JPY XAU GHS AUD AUD AUD AUD AUD AUD NZD NZD NZD NZD NZD NZD CAD CAD CAD CAD ZAR ZAR CHF CHF CHF DZD XAF XAF XAF MAD MAD MAD MAD MAD TND TND TND TND TND GBP GBP GBP NOK NOK NOK NOK NOK NOK SEK SEK SEK SEK SEK SEK CYP CYP CYP CZK DKK CZK CZK CZK CZK HUF HUF HUF HUF HUF HUF PLN PLN PLN PLN PLN PLN SKK SKK SKK SKK SKK SKK DKK DKK DKK USD CHF GBP JPY XAU GHS BRL BRL BRL CLP CNY CLP CLP MXN MXN MXN MXN CHF KRW KRW KRW JPY JPY JPY JPY SGD SGD SGD SGD THB THB THB KRW TWD TWD TWD TWD AED AED AED AED AED AED BHD BHD BHD BHD BHD BHD JOD JOD JOD JOD JOD JOD KWD KWD KWD KWD KWD KWD SAR SAR SAR SAR SAR SAR XAG XAG XAG XAG XAG XAU XAU XAU XAU XAU XPT XPT XPT XPT Tabela 1: Drugorzędna struktura klastrowa rynku walutowego złożonego z 62 walut dla 6 różnych walut bazowych(wymienionych u góry) po usunięciu przyczynków od kursów B/EUR i B/USD(szczegóły w tekście). nieuzmienniasięparametrpiprzechodzistopniowozjegowartościąod1do0,dlakażdej wartości po drodze zliczając liczbę gron w macierzy(za grono uważa się tutaj odosobnionągrupęwalut,jeśliłącząjeelementymacierzyc B XY p).wtensposóbotrzymuje sięzależnośćliczbylzidentyfikowanychgronodp.dlap=1:l=0,adlaodpowiednio małego p istnieje dokładnie jedno grono, obejmujący wszystkie waluty. Dla którejś z pośrednichwartościp=p c powinnodaćsięzaobserwowaćmaksimuml.wtakimwypadku, jeślistrukturagronowajeststabilnawniewielkimotoczeniup=p c,otrzymujesięnajbardziej subtelną strukturę sprzężeń. Uprzednie zastosowanie tej metody do rynku akcji przy t = 1 min. pozwoliło na zindetyfikowanie struktury sektorowej rynku pomimo bardzo dużego zaszumienia danych na tak krótkiej skali czasowej[120]. Stosująctęmetodęwgrupie38walut,poodfiltrowaniuprzyczynkówodUSDiEUR otrzymuje się czytelną strukturę sektorową rynku, w którym, dla każdej z 8 rozpatrywanych walut bazowych(rys. 24), można wyróżnić 6 małych grup sprzężonych walut: 1) AUD-CAD-NZD, 2) BRL-CLP-MXN, 3) CHF-JPY, 4) CZK-PLN, 5) NOK-SEK, 6) KRW-TWD. Cztery z tych grup mają charakter regionalny i odzwierciedlają podobieństwo gospodarek odpowiednich krajów, a jedna(nr 1) jest związana z handlem surowcami (niekiedy można do tej grupy dołączyć także ZAR). Tylko jedna grupa(chf-jpy) jest nieintuicyjna i jest prawdopodobnie związana ze strategiami inwestycyjnymi na kursach wymiany EUR/CHF i EUR/JPY w badanym okresie czasu. Jeśli podobną analizę przeprowadzić dla pełnego zbioru 62 walut, to struktura powiązań międzywalutowych wygląda dość podobnie(tab. 1). Wyniki te pozostają w zgodzie z wynikami innego rodzaju analiz dostępnymi w literaturze[121, 122, 123*]. Należy jednak podkreślić, że opisana struktura rynku ma charakter drugorzędny, i jest widoczna w pełni dopiero po usnięciu podstawowej struktury, w której istnieją dwa centra: USD i EUR z ich satelitami. 53

64 a) λ 1 (t) EUR USD t b) λ 1 (t) GHS JPY CHF GBP t Rysunek25:NajwiększawartośćwłasnamacierzyC B ind wfunkcjiczasudlawybranychwalut bazowych. Macierz była w każdym przypadku wyliczana w oknie o długości 3 miesięcy (T = 60 dni), przesuwanym wzdłuż sygnałów. 54

65 35 30 JPY JPY M USD, MEUR JPY M USD JPY M EUR t Rysunek 26: Zależność czasowa liczby walut silniej skorelowanych z USD niż z EUR (MUSD JPY)isilniejskorelowanychzEURniżzUSD(MJPY EUR )dlajpyjakowalutybazowej. Dla innych wyborów waluty bazowej wynik jest podobny Stabilność struktury rynku EmpirycznamacierzkorelacjiC B indjestniestabilna.jejstanywłasnezależąodokresu czasu, na podstawie którego macierz była tworzona. Wynika to z silnej niestacjonarności danych, u podstaw której leży elastyczność struktury rynku. W każdym momencie inne pary walut mogą cieszyć się zainteresowaniem inwestorów, panują inna sytuacja gospodarcza, banki centralne mogą podejmować decyzje odnośnie podwyższenia lub obniżenia poziomu stóp procentowych itd. Odbija się to na sile sprzężeń między różnymi parami walut, która fluktuuje w czasie. Nie dotyczy to wyłącznie rynku walutowego; podobną niestacjonarność sprzężeń można zaobserwować na innych rynkach finansowych[89, 102]. Prowadzi to do różnych postaci spektrów wartości własnych, różnych przerw energetycznychmiędzyλ B 1 apozostałymiwartościamiwłasnymi,przetasowańwstrukturzewektorów własnych, a co za tym idzie, także w strukturze sektorowej rynku. Z tego względu postać spektrów macierzy korelacji dla długich okresów czasu(tak jak w np. przypadku rys. 9 i 21) ma charakter statystyczny. Ilustruje to rys. 25, na którym przedstawiono zachowanie λ B 1(t)dlakilkuwybranychwalutbazowych.WtymwypadkumacierzeC B indbyływyliczane wprzesuwanymoknieorozmiarzeok.3miesięcy(t=60dnihandlowych). Z wykresów na rys. 25 wynika, że ewolucja korelacji międzywalutowych charakteryzuje się dwoma składowymi: szybkozmienną, o charakterze szumu, oraz wolnozmienną o charakterze trendu. Jest to widoczne w szczególności w przypadku reprezentacji rynku opartychoeurorazousd.przezpierwszedwalatapowprowadzeniueurobserwowanybyłwyraźnywzrostλ EUR 1 z poziomu ok. 15 do ponad 20, któremu towarzyszył horyzontalnytrendwλ USD 1.Sytuacjauległazmianienapoczątku2001r.,gdyrozpoczął się, trwający do 2007 r., spadkowy trend dla EUR, stowarzyszony ze słabszym, ale przeciwnym trendem dla USD w latach Oznacza to wzrost kolektywności ryn- 55

66 ku światowego, widzianego z pozycji USD, i spadek kolektywności, widziany z pozycji EUR. Takie przeciwstawne trendy dla tych dwóch walut bazowych można interpretować jako zmniejszanie się liczby walut silnie sprzężonych z USD i wzrost liczby walut silnie sprzężonych z EUR. Widać to dokładnie na rys. 26, gdzie pokazano liczby walut silniej skorelowanychzusd(eur)niżzeur(usd): MUSD B =#{X:CB USD,X >CB EUR,X }, (58) MEUR=#{X:C B USD,X<C B EUR,X}, B (59) dla przykładowej waluty bazowej(b=jpy). Wynik ten wskazuje na umocnienie się EUR w roli atraktora dla walut trzecich i osłabienie analogicznej roli USD w omawianym okresieczasu.podkoniectegookresu(lata )λ EUR 1 iλ USD 1 miały porównywalną wielkość i trudno określić, czy trend będzie kontynuowany. Rys. 25b pokazuje brak długoterminowych trendów w przypadku CHF i GBP i wyraźnie widoczny trend na JPY wlatach ,któryzwiększyłλ JPY 1 do wartości charakterystycznych dla walut o indywidualnej dynamice(jak GHS). Z omówionej macierzowej analizy danych z rynku walutowego wynika, że ma on skomplikowaną strukturę, wykazującą cechy hierarchiczności, zarówno na poziomie samych korelacji, poprzez obecność kolektywnego modu obejmującego w przypadku większości walut cały rynek oraz bardziej subtelnych korelacji obejmujących małe grupy walut, jak również na poziomie znaczenia poszczególnych walut, wyrażonego poprzez liczbę innych walut powiązanych z daną walutą. Zaobserwować można przy tym dwa rodzaje powiązań: sztuczne parytety wymiany, ustalone z powodów ekonomicznych przez banki centralne jednego z zainteresowanych państw, które prowadzą do oczywistych sprzężeń pomiędzy stopniami swobody rynku, oraz powiązania wynikające z samoorganizacji światowego rynku, które także prowadzą do sprzężeń, ale bardziej miękkich i nietrywialnych(jak w omówionym przypadku MAD), a także podlegających ciągłym modyfikacjom(będzie o tym szerzej mowa w podrozdz. 8.3). 56

67 4 POWTARZALNOŚĆ I ZMIENNOŚĆ Dynamika układu, która ma charakter regularny, jest nieefektywna z punktu widzenia zdolności układu do adaptacji. Regularność prowadzi do determinizmu reakcji na dane zaburzenie zewnętrzne, co wyklucza adaptowalność układu. Z kolei czysta przypadkowość jest nie mniej niekorzystna, ponieważ nie jest wtedy możliwe wypracowanie przez układ optymalnej odpowiedzi na dany rodzaj zaburzenia. Pożądanym rozwiązaniem, pozwalającym unikac obu pułapek, jest stan pośredni, znajdujący się na granicy regularności i chaosu[48]. Przedstawione w rozdz. 3 zastosowanie formalizmu macierzowego do identyfikacji sprzężeń między różnymi stopniami swobody nie wyczerpuje wszystkich możliwości wykorzystania tej metody w analizie danych. Mając do dyspozycji dane w postaci szeregów czasowych, które obejmują wiele równoważnych okresów czasu, można każdy z takich okresów potraktować jako osobny stopień swobody, nawet jeśli analizowane szeregi pochodzą od obserwabli związanej tylko z jednym fizycznym stopniem. Przedmiotem zainteresowania są w takim wypadku korelacje między zdarzeniami zachodzącymi w równoważnych momentach kolejnych okresów czasu[124*, 125*, 126*]. Można tą drogą identyfikować powtarzalne struktury lub wzorce aktywności układu, pozostające w sztywnej relacji względem początku każdego z sygnałów. Metoda ta jest przydatna np. w badaniach odpowiedzi układu na powtarzalne zaburzenie zewnętrzne, czy też w sytuacji, gdy ewolucja układu jest taktowana przez czynniki związane z jego wewnętrzną organizacją. 4.1 Rynek akcji Na rynku akcji podstawowym czynnikiem taktującym są sztywne godziny otwarcia i zamknięcia, które wyznaczają ramy każdego dnia handlowego. O ile nie we wszystkie dni rynek jest czynny, a tydzień, ze względu na święta, często zawiera różną liczbę dni handlowych, o tyle godziny pracy giełd są zazwyczaj niezmienne. Jedynie w razie bardzo gwałtownych załamań cen lub wydarzeń zagrażających bezpieczeństwu przepisy dopuszczają wstrzymanie obrotu. Dlatego też dzień handlowy stanowi wygodny do analizy, podstawowy okres czasu, w którym można obserwować powtarzalne charakterystyki aktywności rynku. Obserwablami, które dobrze wyrażają zachowanie rynku akcji jako całości są indeksy; są one związane z najbardziej kolektywnym aspektem ewolucji rynku. Przedmiotem obecnej analizy będą dwa podstawowe indeksy dla rynków amerykańskiego i niemieckiego: S&P500 i DAX. Oba mają charakter średnich cen akcji ważonych przez kapitalizację, odpowiednio, 500 i 30 największych spółek na tych rynkach. Szeregi czasowe są stopami zwroturd(t t j )naskali t=1min.,gdzieindeksd=1,...,nnumerujedni,aj=1,...,t kolejne minuty dnia handlowego. W przypadku S&P500 dane obejmują N = 390 dni handlowych, a w przypadku indeksu DAX N = 510 dni. Liczba dni handlowych została dostosowana do długości dnia handlowego wyrażonego w minutach, która w Nowym JorkuwynosiT=390min.,aweFrankfurcieT=510min.Dziękitemuwobuprzypadkach Q=T/N=1imożebyćstosowanywzórMarczenki-Pastura(33). NapodstawiedanychstworzonezostałymacierzekorelacjiC SP500 ic DAX,których elementy dane są rozkładami przedstawionymi na rys. 27. Oba rozkłady mają charakter leptokurtyczny,jednakrozkładelementówc DAX charakteryzujesięznaczniegrubszymi ogonami niżjegoodpowiednikdlac SP500.Świadczytooznaczniesilniejszychkorela- 57

68 10 0 S&P500 DAX p (C ij ) C ij Rysunek27:RozkładyelementówmacierzyC SP500 (symbolejasne)ic DAX (symboleciemne). cjach pomiędzy kolejnymi dniami handlowymi na rynku niemieckim. Strukturę spektrów wartościwłasnychobumacierzyprzedstawiarys.28.położenieλ SP iλ DAX potwierdza obserwację o silniejszym skorelowaniu danych z rynku niemieckiego, jednak równie duże różnice widoczne są w położeniu kolejnych wartości własnych: w przypadkuindeksuamerykańskiegotylkoλ SP500 2 jest wyraźnie oddzielona od obszaru Wisharta, podczas gdy w przypadku indeksu niemieckiego takich wartości jest 5. Zwraca uwagę dobra zgodność w obu przypadkach położenia pozostałych wartości własnych ze spektrum macierzyprzypadkowych:0 λ 4. Każda wartość własna jest związana ze niezależną składową ewolucji rynku, którą można nazwać składową główną lub sygnałem własnym macierzy, zdefiniowaną w analogiczny sposób do(52): N Zk idx (t j)= v (k) d r t d (t j), (60) d=1 gdzie idx odnosi się do konkretnego indeksu. Duża szczelina energetyczna pomiędzy największą wartością własną a resztą spektrum oznacza istnienie na obu rynkach dominującego wzorca dziennego, który ma podobne własności każdego dnia w ściśle określonych minutowych odcinkach czasu. Wygląd tego wzorca pokazują wykresy na rys. 29. W obu przypadkach sygnał własny dla k = 1 związany jest z fluktuacjami o dużej amplitudzie, które mają miejsce tuż po otwarciu rynku. Jest to znany efekt, związany z niepewnością co do kierunku, w którym podąży rynek danego dnia oraz z realizacją w krótkim czasie dużej liczbyróżnychzleceń.współczynnikudziału1/i1 SP ma znacznie niższą wartość niż1/i1 DAX 258, nawet biorąc poprawkę na mniejszą liczbę dni handlowych S&P500, co oznacza,żewiększaamplitudapoczątkowychfluktuacjiz1 DAX wynika z większej powtarzalności takiego wzorca na rynku niemieckim. Warto zwrócić uwagę, że stopy zwrotu w konkretnych dniach mogą mieć znak ujemny albo dodatni, natomiast ze względu na różne znaki odpowiednich składowych wektorów wlasnych, do sumy(60) wchodzą efektywnie z 58

69 WISHART S&P WISHART λ k DAX λ k Rysunek28:SpektrawartościwłasnychempirycznychmacierzyC SP500 ic DAX wrazz obszarem odpowiadającym spektrum macierzy przypadkowych Wisharta. Ze względu na skalę logarytmiczną, wykresy nie przedstawiają wszystkich małych wartości własnych i całego obszaru Wisharta[0, 4]. tym samym znakiem. Ponieważsygnałwłasnyzwiązanyzλ 1 cechuje,zdefinicji,największawariancja,ślad związanychznimdużychfluktuacjimożebyćwidocznywskładowychgłównychdlak>1. Abytoograniczyć,zoryginalnychszeregówczasowychusuniętazostałaskładowaZ1 idx (t j ) przypomocymetody(53).otrzymanewtensposóbnowemacierzekorelacjic SP500 i C DAX mają rząd N 1. Sygnały własne tych macierzy, odpowiadające kilku największym wartościomwłasnymλ k >λ max przedstawionesąnarys.30. Sygnały własne dla indeksu S&P500 pokazują(rys. 30a) istnienie silniejszych niż w innych okresach fluktuacji między godz a 10.40, przy czym czynnik wzbudzający te fluktuacje jest najsilniejszy dokładnie o lub tuż po, o czym przekonuje zachowanie sygnałudlak =1.Czynnikiemtymsąinformacjemakroekonomiczne,podawanewłaśnie w tym czasie przez rząd Stanów Zjednoczonych. Z punktu widzenia rynku mogą być one uważane za zewnętrzne zaburzenie, wybijające rynek ze stanu równowagi, co objawia się gwałtownymi ruchami cen, aż do momentu, w którym rynek osiągnie ponownie przybliżoną równowagę. Żaden z przedstawionych sygnałów własnych nie wskazuje na zdarzenia zachodzące w innych okresach czasu, co oznacza, że nie istnieją inne czynniki regularnie zaburzające ewolucję rynku amerykańskiego. Jeśli chodzi o amplitudę fluktuacji przedstawionych sygnałów własnych, to rośnie ona także pod koniec dnia handlowego, ale nie są z nią związane żadne wyraźne struktury, które zostałyby wyodrebnione w sygnałach własnych. Ten wzrost amplitudy fluktuacji pod koniec godzin otwarcia wiąże się z zamykaniem pozycji przez inwestorów, którzy nie chcą czekać do następnego dnia handlowego. Dla porównania, na dolnym wykresie rys. 30a został przedstawiony przykładowy sygnał własny dla wartości własnej z obszaru Wisharta. Nie wykazuje on żadnej struktury i, jak 59

70 Amplituda [x10-3 ] S&P DAX k = 1 k = Czas Rysunek29:Najsilniejszaskładowaewolucjirynkuamerykańskiego(Z1 SP500 )iniemieckiego (Z1 DAX ) w ciągu typowego dnia handlowego, odpowiadająca największej wartości własnej λ 1 odpowiedniejmacierzykorelacji. można oczekiwać, przypomina wyglądem szum. Sygnały własne dla indeksu DAX, pokazane na rys. 30b, mają bogatszą strukturę niż ich odpowiedniki dla S&P500. Dowodzi to, że na rynku niemieckim występuje więcej regularności niż na amerykańskim. Do najważniejszych zdarzeń należą te, pojawiające się dokładnie o godz i 16.00(informacje makroekonomiczne w USA, podawane o 8.30 i czasu lokalnego oraz informacje Europejskiego Banku Centralnego) oraz o (prawdopodobnie rownież związane z informacjami amerykańskimi o 10.30). Struktury o mniejszym znaczeniu pojawiają się o 9.15, 9.30 i i są związane z informacjami podawanymi w Europie i Niemczech. Źródło ostanich silnych fluktuacji o jest trudne do zidentyfikowania. Ponadto można zaobserwować efekt końca dnia- wzrost amplitudy fluktuacji w ostatniej godzinie handlu, podobnie jak ma to miejsce na rynku amerykańskim. Ogólnie rzecz biorąc, rynek niemiecki, wyrażony przez DAX, jest bardzo czuły na zmiany sytuacji na rynku amerykańskim, co odbija się na jego dziennych wzorcach aktywności. Przy identyfikacji powtarzalnych struktur w dziennej ewolucji stóp zwrotu nasuwa się pytanie, czy ich występowanie ma charakter periodyczny czy przypadkowy. Można to w przybliżeniuokreślić,rozważającskładowewektorawłasnegov (k),odpowiadającegokonkretnemusygnałowiwłasnemuz k.rys.31przedstawiaskładowewektorav (1) macierzy C DAX iprzykładowychwektorówwłasnychmacierzyc DAX.Wektordlak=1maskładowe, których moduł ma podobną wartość dla większości dni, co potwierdza wskazania współczynnikaudziału1/i 1,omówionewcześniej.Zkoleizdarzeniaopisywanesygnałami własnymik =1ik =2zrys.30sądobrzewidocznewzachowaniuindeksutylkow niektóredni,którymodpowiadajądużewartości v (k ) d.przypadekwektoradlak =3 jestpośredni.rzutokanawykresywskazuje,żeskładoweżadnegozwektorów1 k 3 nie wykazują jednak śladów periodyczności, co potwierdza też analiza fourierowska tych wektorów. Wyniki dla indeksu S&P500 są podobne do wyników dla indeksu DAX. Warto zaznaczyć, że struktury obserwowalne w sygnałach własnych na rys. 30 są trudno zauważalne w danych z pojedynczego dnia handlowego, gdyż są maskowane przez dominujący szum, podobnie jak nie są możliwe do zaobserwowania w sygnale uśrednio- 60

71 a) k * = 1 Amplituda [x10-3 ] k * = 2 k * = Czas k * = 115 b) k * = 1 Amplituda [x10-3 ] k * = 2 k * = 3 k * = k * = 5 k * = Czas Rysunek 30: Powtarzalne składowe dziennej aktywności rynku, związane ze składowymi głównymimacierzy:a)c SP500 orazb)c DAX dla kilku największych wartości własnych spoza obszaru Wisharta. Macierze te skonstruowano po usunięciu z oryginalnych danych składowychgłównychz1 SP500 iz1 DAX zgodnie z(53). Pokazana dla porównania składowa k =115,widocznanadolnymwykresiea),stanowiszumiprzypominazwykłąśrednią po sygnałach odpowiadających różnym dniom handlowym. 61

72 v (k) d k = 1 k * = 1 k * = 2 k * = Czas Rysunek31:Składowewektorav (1) macierzyc DAX iwybranychwektorówwłasnychmacierzyc DAX.Każdaskładowav (k ) d odpowiada jednemu dniowi d. nym po dużej liczbie dni ze względu na różne znaki sumowanych fluktuacji. Ślad tych struktur jest wprawdzie widoczny w tzw. trendzie dziennym zmienności(intraday volatility pattern), otrzymywanym przez uśrednienie szeregów czasowych modułów stóp zwrotu (lub przez wyliczenie wariancji stóp zwrotu w konkretnych chwilach dnia handlowego), nie pozwala jednak odróżnić, czy zdarzenia z różnych godzin są ze sobą pozwiązane, czy od siebie niezależne, ani nie pozwala stwierdzić, czy mają one charakter periodyczny. Powyższa analiza stóp zwrotu wysokiej częstości wewnątrz dni handlowych pokazuje, że na ewolucję rynku jako całości, wyrażonego przez indeks, można spojrzeć jako na superpozycję dużej liczby składowych związanych z dominującym szumem oraz z niewielkiej liczby składowych o większej regularności, zawierających charakterystyczne dla danego rynku powtarzalne wzorce aktywności, pojawiające się w prawie zawsze lub tylko w niektórych dniach handlowych. Wiążą się one przede wszystkim ze wzmocnieniem amplitudy fluktuacji wartości indeksu o ściśle określonych godzinach lub w konkretnych okresach, przy czym znak danej fluktuacji może być dowolny i zależny od sytuacji. Czynnikami sprawczymi istnienia tych składowych są zarówno zewnętrzne zaburzenia rynku w postaci napływu informacji ekonomicznych, jak i wewnętrzne własności dynamiki, związanej z samoorganizacją rynku(np. duża amplituda fluktuacji po otwarciu i, w mniejszym stopniu, przed zamknięciem). Ta koegzystencja szumu i bardziej regularnych zachowań jest odpowiednikiem w domenie czasowej współistnienia szumu i modów kolektywnych, związanych ze sprzężeniami wśród stopni swobody rynku. Z tego punktu widzenia oba efekty można uznać za odrębne manifestacje złożonej struktury i dynamiki tego układu. 4.2 Kora mózgowa: ośrodek wzroku Metodę identyfikacji struktur pozostających w stałej relacji czasowej względem usta- 62

73 lonej chwili odniesienia można zastosować także do danych, które pochodzą z pomiaru obserwabli podczas wielokrotnego powtarzania tego samego doświadczenia w tych samych warunkach. Jako ilustracja posłużą dane z neurobiologicznego eksperymentu kognitywnego, w którym badana była reakcja kory mózgowej na bodźce wizualne w postaci obrazów złożonych obiektów[127, 128*]. Osobie badanej wyświetlano zdjęcia przedmiotu należącegodojednejz5kategorii(ptaki,konie,kwiaty,krzesłaiciężarówki),aonamiałaza zadanie właściwie przyporządkować nazwę do obiektu. Pomiary polegały na rejestracji pola magnetycznego, pochodzącego od aktywności elektrycznej neuronów, na zewnątrz czaszki przy użyciu magnetoencefalografii(meg)[129, 130]. Szczegóły dotyczące eksperymentu oraz przygotowania danych zostały podane w Dodatku D.2.1. Złożony bodziec wizualny wyzwala aktywność wielu obszarów ośrodka wzroku, począwszy od obszarów pierwszorzędowych V1, odpowiedzialnych za wczesną identyfikację najbardziej elementarnych cech obserwowanych obiektów(takich jak położenie w ramach obszaru pola widzenia, orientacja przestrzenna, czy kolor), poprzez obszary wyższych rzędów V2-V5, przetwarzające bardziej złożone aspekty obrazów, w tym dokonujące funkcjonalnej integracji informacji z obszarów niższych rzędów, a skończywszy na ośrodkach asocjacyjnych, odpowiedzialnych za świadome rozpoznanie obrazu. W sumie, bodźce wzrokowe, jako na ogół bardziej złożone od bodźców słuchowych czy węchowych, aktywują bardzo duże obszary mózgu, złożone z wielu anatomicznie różnych części kory i nie tylko kory. Poszczególne obszary mają różne charakterystyczne czasy aktywacji, co jest związane z przebiegiem dróg, wzdłuż których następuje przetwarzanie informacji. O ile obszary V1 wzbudzają się automatycznie około 40 ms po początku bodźca, niezależnie od jego rodzaju, to wzbudzenia obszarów wyższych rzędów i skale czasowe tych wzbudzeń mogą już zależeć od konkretnych cech bodźca, sięgając kilkuset ms[131]. Zbliżona odpowiedź ośrodka wzroku pojawia się także po zakończeniu prezentacji bodźca. Wczesne wzbudzenia wiążą się z aktywnością obszarów analizujących podstawowe cechy obrazu, a późniejsze- z aktywnością obszarów asocjacyjnych ośrodka wzroku i szeregiem petli sprzężeń zwrotnych pomiędzy tymi obszarami a regionami niższego rzędu. W omawianym eksperymencie w każdej półkuli wyróżniono 28 obszarów zwiększonej elektrycznej aktywności kory w chwilach następujących po wyświetleniu poszczególnych obrazów. Sposród tych obszarów niektóre są szczególnie związane z przetwarzaniem złożonych bodźców, jak np. zakręt wrzecionowaty(zw), a niektóre zawierają obszary niższych rzędów(v1-v3)- np. tylna część bruzdy ostrogowej(tbo), do której wchodzą połączenia neuronowe z siatkówki. Celem niniejszej analizy jest identyfikacja czasów wzbudzeń wybranych obszarów względem momentu podania bodźca i rozróżnienie pomiędzy widocznymi w sygnałach wzorcami aktywności wzbudzanej przez bodźce. Jest to o tyle niestandardowe podejście do badań aktywności wzbudzonej, że w standardowym ujęciu odpowiedź ośrodka na podanie bodźca traktuje się jako deterministyczną, niezmienną w kolejnych jego powtórzeniach. Odpowiedź ta ma stosunkowo niewielką amplitudę w porównaniu do aktywności spontanicznej oraz aktywności innego rodzaju, związanej z równoczesnym przetwarzaniem informacji z innych źródeł niż źródło rozważane w doświadczeniu. To sprawia, że w sygnałach z pojedynczych prób oscylacje wzbudzone na ogół nie są widoczne. W związku z tym zazwyczaj ignoruje się konkretny przebieg sygnału zarejestrowanego w pojedynczej próbie i skupia się uwagę na sygnale będącym średnią po wielu próbach. Uśrednianie eliminuje całą aktywność, która ma charakter przypadkowy względem chwil podawania bodźców(a więc z tego punktu widzenia jest szumem) i pozostawia tylko składową pozostającą w stałej relacji czasowej do bodźców. Dzięki temu możliwe jest zobrazowanie graficzne deterministycznej odpowiedzi ośrodka jako wyraźnego ciągu oscylacji w sygnale średnim. Założenie o determinizmie wydaje się być jednak 63

74 Rysunek 32: Położenie analizowanych obszarów aktywności ośrodka wzroku: tylnej części bruzdy ostrogowej(tbo) i zakrętu wrzecionowatego(zw). Punkty wokół czaszki ilustrują rozmieszczenie detektorów MEG.(Źródło:[128*]) zbyt daleko idące, ponieważ są dowody, że w sygnałach z pojedynczych prób widoczna jest różnica w momentach wzbudzeń danego obszaru, nawet jeśli struktura oscylacji wzbudzonych wygląda w wielu przypadkach podobnie[132]. Uśrednianie po wielu próbach w takiej sytuacji prowadzi do rozmycia kształtu odpowiedzi i zmniejszenia jej amplitudy. Do analizy, na potrzeby niniejszego opracowania, w każdej półkuli wybrane zostały dwa wspomniane wyżej obszary, związane z przetwarzaniem bodźców wzrokowych: ZW i TBO. Ich położenie przestrzenne przedstawia rys. 32. Każdemu z tych obszarów i każdemu wyświetleniu obrazu odpowiada w rozpatrywanych danych sygnał, będący miarą siły aktywności obszaru: M(t)= J(r,t) J(r,t)d 3 r, (61) vol gdzie J(r, t) jest wektorem gęstości prądu pierwotnego(primary current) płynącego w neuronach, a obszarem całkowania jest objętość obszaru. Na każdą z kategorii obrazów wyświetlanych w doświadczeniu składa się od 26 do 29 szeregów czasowych. Aby polepszyć statystykę, wszystkie kategorie zostały potraktowane łącznie jako jedna kategoria obrazów przedmiotów złożonych. Jest to o tyle uprawnione, że o rozpatrywanych obszarach wiadomo, że wykazują podobną aktywność w czasie przetwarzania informacji dotyczących różnych złożonych przedmiotów[127]. W ten sposób do dyspozycjijestn=140sygnałówdlakażdegozobszarówwobupólkulach.sygnałyte można uznać za pojedyncze stopnie swobody p aktywności danego obszaru(p = 1,..., N). Inaczej niż w przypadku danych finansowych, sygnały będące zapisem eletromagnetycznej aktywności mózgu mają charakter oscylacji i nie wykazują trendów. Dzięki temu nie muszą być wstępnie detrendowane i do analizy macierzowej mogą być brane bezpośrednio wartości, a nie przyrosty. ZkażdymzsygnałówM p (t)powiązanazostałaskalaczasowawtensposób,żepoczątek wyświetlania obrazu wypada w chwili 0 ms. Pojedynczy szereg czasowy rozpoczyna sięwobectegowchwilit 1 = 100ms,akończywchwilit T =600ms.Wszystkieszeregi są równoważne sobie i mają długość T = 357. Wygląd przykładowych sygnałów zareje- 64

75 2 LP PP 1 ZW M p (t) [x10-3 T] TBO t [ms] t [ms] Rysunek 33: Sygnały pochodzące z zakrętu wrzecionowatego(zw) i bruzdy ostrogowej (TBO) w lewej(lp) i w prawej(pp) półkuli mózgu, zarejestrowane w pojedynczych próbach. Uwagę zwraca trudność w identyfikacji aktywności wzbudzonej przez bodźce. Na każdym wykresie zaznaczone są także sygnały uśrednione po 140 próbach(linie pogrubione).prezentacjaobrazuwkażdejpróbietrwałaodchwilit=0msdochwilit=500 ms. strowanych w pojedynczych próbach i odpowiadających aktywności każdego z 4 obszarów przedstawiarys.33(lewapółkula-lp,prawapółkula-pp).tylkowniektórychzprób widoczny jest wyraźny wzrost aktywności w ciągu pierwszych kilkuset ms po poczatku bodźca, gdy tymczasem w innych aktywność wzbudzona ginie pośród dominującej aktywności spontanicznej. Jak niewielką amplitudę ma aktywność wzbudzona widać w sygnałach średnich(grube ciemne linie na rysunku), gdzie w ciągu pierwszych 300 ms następuje tylko stosunkowo niewielki wzrost amplitudy w stosunku do tła, z wyraźniejszymi maksimami w okolicach i ms. Zaprezentowane na rysunku sygnały średnie potwierdzają wspomnianą powyżej wadę uśredniania: silne rozmycie czasu, w którym pojawia się aktywność wzbudzona. Z przebiegu krzywych nie wynika tym bardziej, czy oba maksima w sygnałach występują razem, czy też są to manifestacje tego samego potencjału, który w różnych próbach, na skutek różnego stanu mózgu, pojawia się w różnych chwilach czasu. W oparciu o zgromadzone dane można skonstruować macierze korelacji C o wymiarze N. Rozkłady elementów tych macierzy, inaczej niż w przypadku leptokurtycznych rozkładów dla macierzy finansowych, mają kształt lekko zdeformowanego rozkładu Gaussa z dłuższymdodatnimzboczem(współcz.skośności:0.2 γ 1 0.4)(rys.34).Asymetriama wpływnaniezerowąwartośćśredniąelementówc,ato-przezanalogiędorozkładóww zespole skorelowanych macierzy Wisharta(41)- pozwala oczekiwać obecności jednej lub kilku wartości własnych wykraczających poza obszar dozwolony dla spektrum macierzy 65

76 3 LP PP p(c ij ) p(c ij ) ZW TBO C ij C ij Rysunek 34: Rozkłady elementów wszystkich 4 macierzy korelacji dla dwóch obszarów (ZW,TBO) w każdej z półkul(lp,pp) wraz z rozkładem Gaussa, dopasowanym metodą najmniejszych kwadratów do danych. nieskorelowanych(q 2,55,codajeλ max 2,65przyσ TW 0,04).Istotnie,jakpokazują spektra wartości własnych na rys. 35, hipotezę, że C są macierzami z nieskorelowanego zespołu Wisharta, można odrzucić. Trzy z czterech macierzy posiadają spektra, w których można wyróżnić pojedynczą wartośćwłasnąλ 1 oddzielonąodresztywartościwłasnychwyraźnąprzerwąenergetyczną. Przerwa ta jest jednak znacznie mniejsza niż w przypadku rynków finansowych. Macierz dlatbowlewejpółkuliposiadadwieoddzielonewartościwłasne,przyczymλ 2 λ 3 > λ 1 λ 2.ZarównowprzypadkuTBO,jakiZW,międzypółkulamiwystępujepewna asymetria:obszaryprawostronnecharakteryzująsięwiększąwartościąλ 1. Narys.35zastanawiadużaliczbawartościwłasnychspełniającychwarunekλ k λ max +σ TW.Np.macierzdlalewegoTBOposiadaaż20wartościspełniającychtenwarunek. Sytuację wyjaśnia rys. 36, na którym widoczny jest przeskalowany rozkład gęstości ρ C (λ)=aρ C (λ)przya=2,5.toprzeskalowanieodpowiadarównoczesnemupodstawieniuwdanychempirycznychn =0,4NiT =N,takabyQ =1.Takzmodyfikowany rozkład może być z grubsza przybliżony przez rozkład Marczenki-Pastura dla Q = 1, co nie było możliwe dla nominalnych wartości N, T. Uzasadnienie tej operacji jest następujące.rozkładempirycznyniepasujedorozkładum.-p.dlaq=2,55(rys.36),ponieważ posiadadużowartościwpierwszejkomórcehistogramuorazwkomórkachpowyżejλ max, czego nie przewiduje teoria macierzy przypadkowych. Zmniejszenie wartości parametru Q do wartości granicznej dla obowiązywania rozkładu M.-P.(Q = 1) poprawia sytuację tylkonieznacznie.oiledużewartościwłasneλ k >4mogąbyćwynikiemistotnychkorelacji, o tyle duża liczba wartości w okolicach 0 sugeruje silną quasi-osobliwość macierzy C. Jej rządmusibyćefektywnieznaczniemniejszyniżwprzypadkun=t,gdyistniejedokładniejednazerowawartośćλ N.DalszeefektywnezmniejszenieNmożnauzyskaćtylko 66

77 25 λk ZW 20 TBO LP PP LP PP Rysunek 35: Spektra wartości własnych dla wszystkich 4 badanych obszarów ośrodka wzroku. Zakres dozwolony dla wartości własnych macierzy przypadkowych został zacieniowany. zmniejszając równocześnie T. Zamiast manipulować długością sygnałów, co prowadziłoby do zupełnie innego rozkładu ρc (λ), ten sam efekt na histogramie empirycznym można uzyskać, przeskalowując jego wysokość o stały czynnik a. Uzyskany wynik (główny wykres na rysunku) sugeruje, że analizowane sygnały mają mniejszą zawartość informacyjną niż wynika to z ich nominalnej długości. Przyczyną tego zjawiska jest autokorelacja sygnałów, sięgająca kilkudziesięciu ms, która jest konsekwencją obecności dominujących składowych o niskich częstościach. Efekt ten jest widoczny we wszystkich analizowanych przypadkach. Liczba stanów własnych C niosących informację jest więc trudna do precyzyjnego określenia. Można tylko bezpiecznie założyć, że takimi stanami są stany związane z wartościami mocno oddalonymi od zakresu Wisharta, co redukuje ich liczbę do kilku. Wzbudzenia, które powtarzają się w kolejnych próbach i które prowadzą do silnych korelacji między szeregami czasowymi, widocznych w spektrach na rys. 35, można zidentyfikować w sposób standardowy, tworząc składowe główne macierzy C: Zk (ti ) = N X vp(k) Mp (ti ). (62) p=1 W tym miejscu należy zwrócić uwagę, że analizowane sygnały odpowiadają całkowitej sile aktywności danego obszaru, w związku z czym wartości w poszczególnych chwilach nie posiadają znaku. Analiza sygnałów bez znaku metodą macierzy korelacji napotyka na pewną trudność, która wiąże się z procedurą liczenia współczynnika Pearsona (26), wymagającą normalizacji sygnału. To powoduje, że analizie korelacyjnej podlegają w istocie sygnały ze znakiem, stworzone przez odjęcie średniej. Nie stanowi to problemu 67

78 2 1.5 N * = 0,4 N ρ C (λ) 1 Q = 2,55 Q = λ Rysunek 36: Przykładowy, przemnożony przez czynnik 1/0, 4 = 2, 5 rozkład gęstości spektrumwartościwłasnychdlaobszarutbo (LP) wrazzteoretycznymrozkłademmarczenki- Pastura dla macierzy Wisharta przy parametrze Q = 2, 55(właściwym dla rozważanych danych) oraz przy Q = 1(szczegóły w tekście). Lepsza zgodnosć rozkładu teoretycznego w tym drugim przypadku świadczy o nadmiarowej informacji zawartej w danych(efektywnie krótszeszeregiczasowe:t eff T)naskutekistnieniaautokorelacji LP PP p(v p (k) ) 10 5 ZW 0 p(v p (k) ) TBO (k) v p (k) v p Rysunek37:Rozkładywspółczynnikówrozwinięciawektorówv (1) orazv (2) dlawszystkich analizowanych obszarów ośrodka wzroku. Na każdym wykresie pokazany został także teoretyczny rozkład Portera-Thomasa dla macierzy przypadkowych, który jednak nie jest optymalnym wytłumaczeniem rozkładów empirycznych. 68

79 dotąd, dopóki rozważane są tylko elementy macierzowe i wartości własne. Jednak procedura wymagająca użycia współczynników rozwinięcia wektorów własnych, jak np. metoda tworzenia składowych głównych, może dawać nieintuicyjne wyniki, ponieważ współczynniki rozwinięcia typowego wektora są zarówno ujemne, jak i dodatnie(rys. 37). Składowe główne(62)takżemogąwzwiązkuztymposiadaćwartościobuznaków,coniezgadza się z bezznakowością oryginalnych sygnałów. Co więcej, z uwagi na symetrię wektorów własnychwzględemzmianyznaku,okresówzujemnymiwartościamiz k (t)niemożnapo prostu zaniedbać jako niefizycznych. Wyjściem z sytuacji może być oddzielne rozważanie wewzorze(62)dodatnichwspółczynnikówv p (k),aoddzielneujemnychianalizaobuotrzy- manychtądrogąskładowychz k ±.Poniżejzastosowanezostaniejednakinnepodejście,w którymrozważanebędąpełnesumy(62),alewskładowychz k jakoistotnezostanąpotraktowane tylko takie zdarzenia, które mają dużą amplitudę- niezależnie od ich znaku. Z dużym prawdopodobieństwem takie duże oscylacje obu znaków wynikają z istnienia dużychoscylacjiworyginalnychsygnałachm p (t),nawetwtedy,gdyweszłyonedosumy ze znakiem ujemnym. Wygląd składowych głównych odpowiadających kilku największym wartościom własnym dla czterech obszarów przedstawiony został na rys. 38a(ZW) i 38b(TBO). Rzut oka na wykresy pozwala zauważyć, że otrzymana struktura wzbudzeń jest w każdym przypadku znacznie bardziej wyraźna od tej obserwowanej w sygnałach uśrednionych na rys. 33. Najistotniejsze wzbudzenia zaznaczone zostały strzałkami. SkładowaZ 1 zawieranajbardziejtypowywzórwzbudzeń,wniektórychfragmentach przypominający średnią z rys. 33(choć w istocie nią nie będący, o czym świadczą odpowiednie rozkłady współczynników rozwinięcia na rys. 37). Szczyt aktywności związanej czasowozbodźcemprzypadawoburegionachlewejpółkulinat 150ms,awprawej naok.10mspóźniej.wzwwobupółkulachdostrzecteżmożnaobecnośćwtórnego maksimum w chwili t = 230 ms, bez znacznego opóźnienia międzypółkulowego. Podobne maksimumniejestjużtaksilnewżadnymzregionówtbo,choćwsygnałachśrednich byłoonedobrzewidoczne.składowaz 2 zawierawzbudzeniapołożoneprzedewszystkim wpobliżut=230mswprawejpółkuliit=250mswlewej,choćsątakżewidoczne wzbudzeniawokolicacht=90 110msit=180msorazwciągupierwszychkilkudziesięciu ms po podaniu bodźca. Ponadto w składowych głównych widoczne są również inne, słabsze wzbudzenia, pojawiające się w różnych regionach w różnym czasie. Silniejsze są na ogół zdarzenia zachodzące w TBO, w szczególności w prawej półkuli. Poza tym wzbudzeniatbomająwyraźnąkomponentęokresową,widocznąwskładowychz 2,Z 3,Z 4 (LP)iZ 4 (PP).Wartojeszczeodnotowaćwzbudzeniamocnoopóźnione(t>500ms), widocznewz 3 dlazw (LP) iwz 6 dlatbo (PP).Mogąonebyćzwiązanezezniknięciem obrazu z wyświetlacza w chwili t = 500 ms i rozpoczęciem przetwarzania tej informacji przez ośrodek wzroku. IstnieniewzbudzeńwidocznychwskładowejZ 2,któreniesąwidocznewskładowejZ 1 lubsąsłabowidoczne(np.wzbudzenia230mswzw (PP) i250mswtbo (PP) ),wskazuje na pewną niezależność tych wzbudzeń. W tym sensie, że wzbudzenia te mogą czasem pojawiać się w próbach, czasem nie, albo pojawiać się w innych chwilach. Potwierdzają to ujemnewartościwspółczynnikówkorelacjipomiędzyskładowymiwektorówc(v (1),v (2) )w poszczególnych regionach, które przy odchyleniu standardowym rozkładu tego współczynnika(powszystkichparachwektorówv (k),v (k ),k k iwszystkichregionach)równym 0,007,wahająsięod-0,06(ZW (LP) )do-0,14(tbo (LP) ). Bogata struktura wzbudzeń widoczna na rys. 38 wskazuje, że we wzorcach aktywności badanych obszarów trudno mówić o pełnym determinizmie. Istnieje wprawdzie dominujący wzorzec aktywności z najsilniejszym wzbudzeniem, zachodzącym w dość dobrze 69

80 a) Z k (t) LP 153 ms 228 ms 256 ms k = 1 k = 2 PP 161 ms 232 ms k = 1 k = 2 0 Z k (t) k = 3 k = 4 k = 5 k = ms k = 3 k = 4 k = 5 k = 53 ZW t [ms] t [ms] Z k (t) Z k (t) b) LP 149 ms k = 3 k = 4 k = 53 k = 1 k = t [ms] PP 252 ms 15 ms 332 ms 469 ms 146 ms 113 ms 165 ms 233 ms 305 ms 248 ms k = 1 k = 2 k = 4 k = 5 k = 6 k = t [ms] TBO Rysunek38:SkładowegłówneZ k (t)związanezkilkomanajwiększymiwartościamiwłasnymiλ k orazztypowąwartościąześrodkaspektrumλ 53,któramożesłużyćjakosygnał odniesienia. a) Region ZW. b) Region TBO. Pionowe linie kropkowane oznaczają początek i koniec bodźca. 70

81 określonych ramach czasowych, jednak poza tym wzorcem istnieje wiele innych wzbudzeń, które widoczne są dopiero w wyższych składowych głównych, a zatem nie mogą mieć charakteru deterministycznego. Po pierwsze, wzbudzenie danego obszaru kory może w różnych próbach zachodzić z różnymi opóźnieniami względem momentu wyświetlenia obrazu, co sprawia, że wzbudzenia z części prób są przez procedurę numeryczną traktowane jako niezależne. Po drugie, część wzbudzeń może mieć wtórny charakter: mogą następować pod wpływem oddziaływania innych obszarów kory poprzez pętle sprzężeń zwrotnych z obszarów wyższego rzędu i oddziaływania wsobne. W związku z tym czas pojawienia się wzbudzeń może się zmieniać od próby do próby. Zachodzi to zwłaszcza w przypadku wyższych obszarów, związanych z przetwarzaniem bardziej skomplikowanych aspektów obrazu oraz z funkcjonalną integracją informacji(a oba regiony, TBO i ZW, zawierają takie obszary). Takie wzbudzenia wtórne lub przesunięcia w czasie podstawowego wzbudzenia danego obszaru(pochodzacego od aktywnych połączeń z obszarami niższego rzędu) mogą też zależeć od kontekstu, czyli globalnego stanu mózgu w momencie nadejścia bodźca. Stan ten zmienia się w sposób ciągły, a przyczynia się do tego także każdy kolejny bodziec, w związku z czym nie należy oczekiwać identycznych reakcji mózgu w poszczególnych próbach. Otrzymane wyniki mogą to potwierdzać. Są one także zgodne z jednym z paradygmatów złożoności, w którym względna stabilność układu(w obecnym kontekście jest to determinizm) jest stowarzyszona z jego elastycznością wyrażaną przez fluktuacje. Każda interpretacja wyników pomiaru aktywności danego regionu mózgu pod kątem selektywnie wybranego rodzaju aktywności dotyka też jednego z fundamentalnych problemów, jakim jest określenie, czy aktywność tła należy traktować jako szum, czy też mogą w niej być obecne istotne informacje, nierozerwalnie związane z charakterem aktywności badanego obszaru. Problem jest zarówno teoretyczny, jak i praktyczny. Na gruncie teoretycznym można zająć stanowisko, że skoro aktywność spontaniczna(rozumiejąc pod tym pojęciem wszystko poza aktywnością wzbudzoną przez bodziec) angażuje neurony tego samego obszaru, co aktywność wzbudzona, to siłą rzeczy oba rodzaje aktywności mogą interferować, a zatem aktywność spontaniczna przestaje być tylko tłem, stając się równoprawnym elementem dynamiki badanego obszaru. Z kolei praktyka pokazuje, że skoro aktywność wzbudzona nie jest identyczna w kolejnych powtórzeniach stymulacji, to pojawia się podstawowa trudność z oddzieleniem aktywności tła od aktywności będącej przedmiotem zainteresowania. Tradycyjne uśrednianie po wielu próbach nie jest w tym świetle właściwym rozwiązaniem, bo prowadzi do zaniedbania części istotnych, ale odbiegających od typowości zdarzeń, poprzez zaliczenie ich do tła. Jeszcze lepiej widać to w analizach korelacji między aktywnoscią różnych obszarów. W skrajnym przypadku, gdy w każdej z indywidualnych prób aktywność tych obszarów jest powiązana w czasie, ale momenty wzbudzeń są za każdym razem inne w przyjętej skali czasowej, inspekcja korelacji między sygnałami uśrednionymi błędnie wskaże brak korelacji. 71

82 5 ODDZIAŁYWANIA DALEKOZASIĘGOWE Bezpośrednie lub(najczęściej) pośrednie oddziaływania na odległość, objawiające się istnieniem korelacji między stanem oddalonych od siebie elementów, są typową cechą układów znajdujących się w pobliżu stanu krytycznego. Jednak także w przypadku takich układów złożonych, których krytyczność nie jest oczywista, ale które cechuje budowa hierarchiczna, można wyróżnić wieloelementowe podstruktury, z których każda tworzy funkcjonalnie oddzielny zespół stopni swobody. Oddzielność manifestuje się poprzez istnienie silniejszych oddziaływań wśród stopni wewnętrz zespołu niż pomiędzy zespołami. Przykładami, w odniesieniu do omówionych w rozdz. 3 i 4 układów, mogą być sektory rynku akcji, różne rynki, a w przypadku mózgu- funkcjonalnie wyspecjalizowane duże grupy neuronów o podobnej lokalizacji przestrzennej wewnątrz mózgu, wspólnie przetwarzające konkretną informację. Oddziaływania, które zachodzą pomiędzy tymi zespołami, sązdefinicjisłabszeniżwichwnętrzu,alemająrówniedużeznaczeniedlaukładujako całości, umożliwiając przepływ informacji między odległymi podstrukturami lub funkcjonalną integrację informacji rozproszonej. Takie dalekozasięgowe oddziaływania mogą być identyfikowane albo na poziomie całych podstruktur, albo na poziomie indywidualnych stopni swobody. W tym drugim przypadku analizę zależności między stopniami swobody różnych podukładów można przeprowadzić, stosując podejście macierzowe. W tej części pracy omówione zostaną zależności funkcjonalne między wybranymi podstrukturami kory mózgowej oraz sprzężenia pomiędzy dwoma odległymi geograficznie rynkami akcji. 5.1 Asymetryczna macierz korelacji Metodę macierzowej analizy korelacji w układzie N stopni swobody, opisaną w podrozdz. 3.1, można uogólnić na przypadek, gdy przedmiotem zainteresowania są dwa rozłączneukładyω 1,Ω 2,zktórychkażdymaNstopniswobody.NiechobserwableX α będą związanezkażdymzestopniswobodyαukładuω 1,aobserwableY β zkażdymzestopniβ układuω 2.Analogicznie,niech{x α (t i )}oraz{y β (t i )}będąszeregamiczasowymiwyników pomiarów odpowiednich obserwabli(i = 1,..., T). Dodatkowo można pozwolić, aby szeregizwiązanezukłademω 2 byłyprzesuniętewczasiewzględemswoichodpowiednikówz układuω 1 ointerwałτ=m t,gdziemjestliczbącałkowitą.rozważasięwówczasdwie macierze danych: X α,i = 1 σ α (x α (t i ) x α ) Y β,i (τ)= 1 σ β (y β (t i +τ) ȳ β ), (63) z których tworzy się rzeczywistą, asymetryczną macierz korelacji o wymiarze N N: C(τ)= 1 T X[Y(τ)]T. (64) Jej elementami, tak jak we wzorze(29), są współczynniki korelacji(26). Elementy diagonalneniemusząbyćjużjedynkami,atrc N.Wyznaczeniewartościiwektorów własnych wymaga rozwiązania równania własnego zależnego od τ: C(τ)v (k) (τ)=λ k (τ)v (k) (τ). (65) AsymetrycznośćC(τ)prowadzidowystąpieniazespolonychλ k (τ)iwspółczynnikówv (k) γ (τ), natomiast jej rzeczywistość sprawia, że zespolone wartości własne tworzą sprzężone pary, podobnie jak współczynniki rozwinięcia. Część rzeczywista spektrum jest związana 72

83 Rysunek39:Teoretycznyrozkładwartościwłasnychλ zmacierzyginoedlan=10 na płaszczyźnie zespolonej(69). Obszary najciemniejsze odpowiadają największej gęstości ρ G (z). z symetryczną częścią macierzy C(τ), a część urojona- z częścią antysymetryczną. Numeracjęwartościwłasnychokreślawarunek: λ k λ k+1,awsytuacjidwóchwartości sprzężonychokolejnościdecydujewarunekpomocniczy:imλ k >Imλ k+1. Z punktu widzenia teorii macierzy przypadkowych, właściwym zespołem odniesienia jest w tym wypadku zespół macierzy, będących iloczynem dwóch prostokątnych macierzy o wymiarze N T(odpowiedników macierzy X i Y) o gaussowskim rozkładzie elementów. Niestety, rozkład wartości własnych macierzy z takiego zespołu nie został jeszcze wyprowadzony w postaci zamkniętej formuły analitycznej jako funkcja parametru Q = T/N zwyjątkiemprzypadkuq=1[133].macierzetegotypudlaodpowiedniodużychni T mają jednak własności zbliżone do asymetrycznych macierzy ortogonalnych Ginibre (zespół GinOE)[134], dla którego analityczna postać spektrów wartości własnych jest znana. Dlatego też w pierwszym przybliżeniu ten zespół może stanowić punkt odniesienia dla macierzy empirycznych(64). Macierze GinOE G, będące uogólnieniem macierzy GOE, definiuje się poprzez gaussowski rozkład elementów: p(g)=(2π) N2 /2 exp[ Tr(GG T )], (66) gdziegmawymiarn N,awariancjarozkładuσ 2 =1.Spektrumwartościwłasnych takich macierzy ma skomplikowaną strukturę, złożoną z N L wartości zespolonych oraz L wartości rzeczywistych, przy czym wartość oczekiwana L posiada asymptotyczne zachowanie dane przez[135]: lim E(L)= N które dla skończonych N można przybliżyć wzorem: 2N π, (67) E(L)=1/2+ 2N π ( 1 3 8N 3 ) ). (68) 128N 2+O(N 3 73

84 Rozkładwartościwłasnychλ=λ x +iλ y napłaszczyźniezespolonejjestopisywanywyrażeniem[136, 137]: ρ G (λ)=ρ c G (λ)+δ(λ y)ρ r G (λ), (69) wktórym: ρ c G(λ)= 2 λ ( y 1 erf( 2 λy ) ) e 2λ2 y due u u N 2 2π λ x 2 Γ(N 1), (70) ρ r G(λ)= 1 due u u N 2 2π λ x 2 Γ(N 1) + (71) + 1 2π λ x N 1 e λ2 x /2 λx 0 due u2 /2 u N 2 Γ(N 1). Funkcja erf(x) we wzorze(70) oznacza gaussowską funkcję błędu. W granicy N powyższe wyrażenia upraszczają się, a wartości λ tworzą jednorodne koło na płaszczyźnie zespolonej oraz jednorodny odcinek na osi rzeczywistej[138, 139]: ρ c G (λ)=1 π Θ( N λ ), (72) ρ r G (λ)= 1 2π Θ( N λ x ), (73) gdzie Θ( ) jest funkcją Heaviside a. Przykładowy rozkład wartości własnych macierzy G przedstawiony jest na rys. 39. Macierze przypadkowe z zespołu asymetrycznych macierzy korelacji mają spektra, które dla małych Q są opisywane dodatkowo przez monotonicznie malejącąskładowąradialnąρ G (r)[133].dladużychqskładowatastajesięasymptotycznie jednorodna. Wyniki otrzymane z empirycznej macierzy korelacji można porównywać ze wskazaniami zespołu GinOE przy podstawieniu λ λ/σ, gdzie σ jest odchyleniem standardowym rozkładu elementów macierzy C(o ile rozkład ten nie odbiega bardzo od rozkładu Gaussa). 5.2 Kora mózgowa: ośrodek wzroku Ośrodek wzroku składa się z wielu funkcjonalnie odrębnych części, będących niezależnymi źródłami prądów. Części te są wzajemnie powiązane połączeniami neuronowymi, co sprawia, że ich wzbudzenia nie są od siebie niezależne. Mogą to być zarówno wzbudzenia równoczesne, co ma miejsce w przypadku, gdy dwa obszary mają podobne połączenia z innymi regionami, np. z obszarami niższego rzędu lub bezpośrednio z narządami zmysłów i wzbudzają się niezależnie w tym samym czasie, jak i wzbudzenia opóźnione, stowarzyszone z kierunkowym przepływem informacji pomiędzy obszarami. Jak pokazały rozważania w podrozdz. 4.2, wzbudzenia te nie mają charakteru deterministycznego względem momentu podania bodźca, niemniej, statystycznie, wzbudzenia w pewnych chwilach są bardziej prawdopodobne niż w innych. W tym kontekście pojawia się interesujące pytanie: czy momenty wzbudzeń konkretnych obszarów są powiązane z chwilą pojawienia się bodźca, czy raczej ze wzbudzeniami innych obszarów? Podstawą analizy będą dane z tego samego eksperymentu, co poprzednio(podrozdz. 4.2). Rozważane będą korelacje pomiędzy aktywnością wybranych par regionów. Tym razem do 74

85 Rysunek 40: Położenie ciała migdałowatego(cm). Punkty wokół czaszki ilustrują rozmieszczenie detektorów MEG.(Źródło:[128*]) analizowanych już obszarów: tylnej części bruzdy ostrogowej(tbo) i zakrętu wrzecionowatego(zw), znajdujących się w ośrodku wzroku i silnie aktywnych w czasie wyświetlania obrazów przedmiotów, dołączone zostanie ciało migdałowate(cm), o którym wiadomo, że odgrywa istotną rolę w przetwarzaniu informacji o uczuciach, w tym w rozpoznawaniu twarzy wyrażających uczucia, ale jest zlokalizowane poza ośrodkiem wzroku i nie bierze bezpośredniego udziału w analizowaniu bodźców wizualnych neutralnych uczuciowo, takich jak obrazy przedmiotów[140, 128*]. Wzbudzenia tego regionu nie powinny być zatem powiązane z aktywnością pozostałych analizowanych obszarów. Położenie CM w mózgu pokazuje rys. 40. Z uwagi na wielokrotne powtarzanie bodźców, podobnie jak w analizie wzbudzeń pojedynczych obszarów w podrozdz. 4.2, optymalnym podejściem jest powiązanie stopni swobody z sygnałami odpowiadającymi aktywności danego obszaru w pojedynczej próbie podania bodźca. Z dwóch rozłącznych zbiorów, liczących po N = 140 sygnałów ze wszystkichpróbpdladwóchobszarówxiy,tworzonesąmacierzedanychxiy.możliwość względnego opóźnienienia wzbudzeń tych obszarów jest uwzględniona poprzez wprowadzenieczasuopóźnieniaτizwiązaniegozsygnałamizobszaruy.oznaczato,żeτ=0 odpowiada równoczesnym sygnałom z obu regionów, τ > 0 odpowiada opóźnionym sygnałomzy,aτ <0odpowiadaopóźnionymsygnałomzX.DlaustalonejparyX,Y wyliczona zostaje macierz korelacji C(τ) i spektrum jej wartości własnych. Dla ustalonego τ, skorelowane wzbudzenia dwóch obszarów, powtarzalne w wielu próbach, powinny dawać podobny wkład do wszystkich lub do większości elementów macierzowych. Korelacje te będą zatem tworzyć składową symetryczną C(τ). Jeśli ta składowa dominuje,toλ 1 (τ) R.Wzwiązkuztym,zpunktuwidzeniatejanalizy,istotnesątylko sytuacje, w których największa wartość własna jest rzeczywista i oddalona od granic spektrummacierzyginoe.zespolonewartościλ 1 (τ),szczególnietezdużączęściąurojoną, nie są istotne i zostaną pominięte, ponieważ wiążą się z antysymetrycznymi składowymi macierzy, łączącymi korelacje w części prób z antykorelacjami w innej części prób. Identyfikacja wartości τ, przy której aktywność dwóch obszarów kory jest najsilniej skorelowana,jestmożliwapowyliczeniuzależnościfunkcyjnejλ 1 (τ).rys.41przedstawiajądlaobupółkulitrzechparobszarów:tbo-zw,tbo-cmizw-cmwramach jednejjednejpółkuliorazdlapołączeńmiędzypółkulowych:tbo (LP) -TBO (PP) izw (LP) - ZW (PP).Najbardziejcharakterystycznymwynikiemjestwybitnemaksimumλ 1 (τ)dla parytbo-zwwobupółkulach,przypadającedlaτ=2ms(lp)iτ= 2ms(PP). Wartość własna jest tutaj całkowicie rzeczywista, co oznacza niemal równoczesne silne wzbudzenia obu obszarów, zachodzące w większości prób w obu półkulach. Precyzyjna identyfikacja konkretnych wzbudzeń, odpowiedzialnych za te korelacje, nie jest możliwa, ponieważ podstawą analizy są tylko pełne sygnały, natomiast satysfakcjonujące popra- 75

86 Re λ 1 (t) Re λ 1 (t) TBO-ZW TBO-CM LP PP τ ZW,CM [ms] Re λ 1 (t) Re λ 1 (t) ZW-CM TBO (LP) -TBO (PP) ZW (LP) -ZW (PP) LP PP TBO ZW τ [ms] Rysunek41:Częśćrzeczywistanajwiększejwartościwłasnejλ 1 wfunkcjiczasuopóźnienia τ między parami obszarów w lewej(lp) i prawej(pp) półkuli(przesunięcie w czasie dotyczy zawsze drugiego obszaru tworzącego parę). Zacieniowany pas określa asymptotyczny (N )obszarmacierzyprzypadkowychginoe( λ x N),apoziomelinieprzerywaneoznaczająwartość,przyktórejρ r G(λ)=0.01ρ r G(0)dlawłaściwejwartościN=140. Wszystkieistotneobszarydodatnichwartościλ 1 powyżejliniiprzerywanychodpowiadają całkowicierzeczywistymwartościomλ 1. 76

87 4 TBO (LP) -ZW (LP) τ = 2 ms ZW (LP) -CM (LP) τ = 37 ms Im λ TBO (LP) -ZW (LP) τ = -123 ms ZW (LP) -CM (LP) τ = -120 ms Im λ Re λ Re λ Rysunek 42: Przykładowe spektra wartości własnych macierzy C(τ) na płaszczyźnie zespolonej. Na każdym z wykresów zacieniowane koło odpowiada obszarowi przewidywań teorii macierzy przypadkowych dla zespołu GinOE, a okrąg oznaczony linią przerywanąpunktom,dlaktórychρ c G(λ)=0.01ρ c G(0).Dużakoncentracjapunktówwcentrumwynika z własności asymetrycznych macierzy korelacji, których spektra dla małych Q = T/N odbiegają od radialnie jednorodnych spektrów macierzy GinOE. wienie czasowej zdolności rozdzielczej wymagałoby wzięcia odpowiednio krótkich okien i prowadziłoby do Q 1, mocno utrudniając interpretację struktury spektrów wartości własnych C. Po porównaniu z rys. 38 wydaje się, że swój wkład w obserwowane korelacje mają najsilniejsze wzbudzenia TBO i ZW, zachodzące w ms(lp) i ms (PP) po początku bodźca. Przesunięcia w czasie obu wzbudzeń są bowiem w przybliżeniu zgodne ze znakiem i wartościami niewielkich opóźnień, widocznych na rys. 41. Szerokość wierzchołków może zatem także być konsekwencją szerokości wierzchołków na rys. 38. Poza tymi centralnie położonymi wierzchołkami nie istnieją inne dodatnie maksima wpokazanymzakresie-200ms<τ<200ms.ujemnewartościλ 1 (τ)(czystorzeczywiste), wychodzące poza zakres macierzy GinOE, są związane z dominującymi dla danego τantykorelacjami.wnieposiadającychznakusygnałachm p (t)(wzór(61))antykorelacje odpowiadają wzbudzeniu jednego obszaru i wytłumieniu aktywności drugiego obszaru. Przy pewnych wartościach τ są one nieuniknione z uwagi na oscylacyjny charakter wzbudzeń.topowoduje,żezpunktuwidzeniatejanalizyantykorelacjedlaτ 0nieniosą istotnej informacji. Całkowicieodmiennycharaktermazależnośćλ 1 (τ)dladwóchpar,zawierającychcm. Największa wartość własna na ogół nie wykracza w tym wypadku poza zakres przewidywany dla macierzy GinOE, co oznacza brak ważnych korelacji między wzbudzeniami CM ipozostałychobszarówwobupółkulach.małowybitnewzniesieniaλ 1 (τ)ponadpoziom szumusąjedyniewidocznedla5ms<τ<45ms(zw-cm,lp)idla-95<τ<75ms (TBO-CM, PP). Najsilniejsze międzypółkulowe korelacje(obszary TBO i ZW) odpowidają wzbudze- 77

88 p(c ij ) 3 2 TBO-ZW (LP) τ = 2 ms ZW (LP) -ZW (PP) τ = 6 ms 1 p(c ij ) ZW-CM (LP) τ = 12 ms TBO-ZW (LP) τ = -123 ms C ij C ij Rysunek 43: Rozkłady diagonalnych(ciemny hstogram) i pozadiagonalnych(jasny histogram) elementów macierzy C(τ) dla kilku charakterystycznych sytuacji: macierz o dominującej składowej symetrycznej(u góry po lewej), macierz o słabej, choć widocznej składowej symetrycznej(u góry po prawej), macierz bez dominujących składowych(u dołu po lewej) oraz macierz o dominującej składowej antysymetrycznej(u dołu po prawej). Rozkłady zostały wyliczone w każdym przypadku z N elementów diagonalnych i N(N 1) pozadiagonalnych, co ma wpływ na gładkość rozkładów. niom,przesuniętymwzględemsiebieoodτ 70msdoτ 10ms,przyczymdlaZW dwagłównemaksimaλ 1 (τ)odpowiadająτ 50ms(wzbudzeniepojawiasięnajpierw wprawejpółkuli)iτ=5ms(wzbudzeniewprawejpółkuliniecoopóźnionewzględem wzbudzenia w lewej). W przypadku TBO nie ma dominującej wartości opóźnienia. Porównującwynikizrys.38,widać,żedlaZW,obserwowaneopóźnienieτ =5msjest najprawdopodobniej skutkiem skorelowania głównych wzbudzeń 151 ms(lp) i 161 ms (PP)oraz228ms(LP)i232ms(PP).Innewnioskiniesąmożliwezpowodudużego rozmycia wierzchołków na rys. 41. Przykładowy wygląd pełnych spektrów wartości własnych C(τ) dla ustalonego τ przedstawia rys. 42. Górne wykresy przedstawiają spektra dla sytuacji, gdy dominująca wartość własna jest rzeczywista. Wykres po lewej odpowiada silnie kolektywnej wartości własnej (maksimum korelacji między TBO i ZW na rys. 41), natomiast wykres po prawej odpowiadaλ 1 niewielewiększejniżprzewidywaniaginoe(maksimumkorelacjimiędzyzwi CM w lewej półkuli). Spektrum po lewej cechuje także silna asymetria względem punktu (0;0).Dolnewykresynarys.41reprezentująsytuacje,gdyReλ 1 0idominującaskładowamacierzyC(τ)jestantysymetryczna(polewej)orazgdyλ 1 niewykraczapozazakres GinOE i w danych nie można zidentyfikować żadnej informacji poza szumem(po prawej). We wszystkich czterech przypadkach duża liczba wartości własnych skupiona jest blisko punktu(0;0),comożewynikaćczęściowozfaktu,żeparametrq=2,55jestnatylemały, że widoczne są efekty skończoności próbki. Pozostaje to w zgodzie z przewidywaniami symulacji numerycznych dla zespołu asymetrycznych macierzy korelacji[133]. Ponadto 78

89 w grę może wchodzić efekt analogiczny do efektu opisanego w podrozdz. 4.2, gdzie za dużą koncentrację wartości własnych w okolicach 0 była odpowiedzialna autokorelacja sygnałów, silna również w przypadku obecnych danych. Otrzymawszy wyniki wskazujące jednoznacznie na istnienie zależności czasowych pomiędzy wzbudzeniami różnych regionów, można powrócić do kwestii determinizmu tych wzbudzeń względem czasu podania bodźca. Jeśli składowa deterministyczna jest silna, to w każdej kolejnej próbie dwa regiony będą wykazywać wzbudzenia w podobnych chwilach. W związku z tym niezależnie od tego, czy wylicza się współczynnik korelacji pomiędzysygnałamirównoległymiwczasie(elementydiagonalnec pp (τ)),czypomiędzy sygnałami, z ktorych każdy jest rejestrowany w innej próbie(elementy pozadiagonalne C pq (τ),p q),wartośćoczekiwanategowspółczynnikapowinnabyćtakasama.wynika to z postulowanej niezależności aktywności spontanicznej od momentów wyświetlania obrazów. Tymczasem rozkłady elementów macierzy empirycznych pokazują, że dla czasów opóźnień,przyktórychwystępujedużawartośćλ 1,pomiędzytypowymielementamidiagonalnymi i pozadiagonalnymi istnieje duża różnica wartości. Widać to na rys. 43, gdzie rozkład elementów diagonalnych w maksimum korelacji pomiędzy TBO i ZW(τ = 2 ms, lewy górny wykres) jest silnie przesunięty w stronę dodatnich korelacji względem rozkładu elementów pozadiagonalnych, skoncentrowanego w okolicach 0(choć wykazującego niewielką dodatnią skośność). Z drugiej strony, w pozostałych sytuacjach rozkłady mają podobną wartość pierwszego momentu, niezależnie czy pod uwagę weźmie się rozkład elementów diagonalnych, czy pozadiagonalnych. Co szczególnie interesujące, dotyczy to także macierzy dla regionów położonych w przeciwnych półkulach(prawy górny wykres), które wykazują korelacje wzbudzeń na rys. 41. Można zatem podejrzewać, że korelacje te są efektem niezależnych wzbudzeń odpowiednich obszarów w obu półkulach na skutek równoczesnej stymulacji obu części pola widzenia każdego oka i pokazują skorelowanie składowej powtarzalnej tych wzbudzeń. Składowe niedeterministyczne w tym przypadku nie ujawniają się(uśredniają się do zera). Dwa główne wnioski można wyciągnąć z zaprezentowanych wyników. Przede wszystkim pokazały one, że dwie części ośrodka wzroku: TBO i ZW, które obejmują, odpowiednio, obszary niższego i wyższego rzędu i biorą udział w przetwarzaniu informacji związanych z obrazami złożonych przedmiotów, wykazują skorelowaną aktywność po podaniu bodźca, przy czym korelacje są wyraźnie silniejsze w prawej półkuli. Opóźnienia między maksymalnymi wzbudzeniami obu regionów są małe, rzędu kilku milisekund, co wskazuje na duży udział bezpośredniego, monosynaptycznego przekazu informacji pomiędzy neuronamitboaneuronamizwwramachjednejpółkuli.wyniktenjestzgodnyzwynikami analizy tych samych danych przy użyciu informacji wzajemnej[128*], choć zdolność rozdzielcza obecnej metody jest mniejsza i nie można równie precyzyjnie zidentyfikować konkretnych wzbudzeń odpowiedzialnych za korelacje. Zgodnie z wiedzą o funkcji regionu CM, który nie bierze udziału w przetwarzaniu obrazów przedmiotów, także tutaj nie wykazuje on silnego skorelowania aktywności ani z TBO, ani z ZW. Ślady lekkich korelacji są wprawdzie widoczne, jednak są one za słabe, aby wyciągać na ich temat wiarygodne wnioski. Wyniki analizy pokazały również, że wzbudzenia danego regionu są powiązane silniej ze wzbudzeniami innych regionów niż z momentem podania bodźca. Jest to kolejny argument przeciwko deterministycznemu obrazowi pracy ośrodka wzroku. Wzbudzenia tego samego regionu w różnych próbach mają miejsce w różnych chwilach względem początku bodźca, ale mimo to można zaobserwować między regionami korelacje z konkretnym czasem opóźnienia. Oczywiście relacje czasowe, zarówno względem bodźca, jak i aktywności innych obszarów, mają charakter statystyczny i w pojedynczych próbach istnieje 79

90 Rysunek 44: Położenie źródeł pola wzbudzonych przez bodziec dźwiękowy w ośrodku słuchu w obu półkulach mózgu.(źródło:[143*]) rozrzutwzbudzeńnaobuskalachczasu.faktpołożeniatboizwwtejsamejpółkuliw obrębie jednego ośrodka powoduje, że oddziaływania między nimi można, w skali calego mózgu, uznać za oddziaływania średniego zasięgu. Zaobserwowane zostały także korelacje pomiędzy parami tych samych regionów, położonymi w różnych półkulach, jednak wyniki sugerują, że korelacje te wynikają z niezależnych wzbudzeń i nie mają związku z oddziaływaniami międzypółkulowymi. 5.3 Ośrodek słuchu: oddziaływania międzypółkulowe Pewne przesłanki o istnieniu funkcjonalnych zależności międzypółkulowych, a więc oddziaływań dalekiego zasięgu, można otrzymać, analizując dane z innego eksperymentu, w którym badana była aktywnosć ośrodka słuchu w czasie podawania bodźców dźwiękowych asymetrycznie do jednego ucha[124*]. Podobnie jak w przypadku ośrodka wzroku, podanie dźwięku wzbudza aktywność neuronów w pierwszorzędowych i drugorzędowych obszarach ośrodka słuchu, przy czym jednostronne podanie bodźca dźwiękowego wzbudza obszary słuchowe w obu półkulach. Położenie obszarów aktywnych przedstawia rys. 44. Wzbudzenia tych obszarów są źródłem pola magnetycznego, mierzalnego metodą MEG. Niewielka objętość sprawia, że każdy z obu ośrodków słuchu może być rozważany jako pojedyncze źródło pola. Szczegóły eksperymentu omówione są w Dodatku D.2.2. Każdej z uczestniczących osób dolewego(l),anastępnieprawego(p)uchapodanon=240powtórzeńtegosamego krótkiego tonu w dwóch seriach po 120, oddzielonych od siebie innym, długotrwałym zadaniem w celu przejściowej zmiany trybu pracy mózgu. Ponieważ wyniki z obu serii są zbliżone, w tej analizie wszystkie 240 prób będzie rozpatrywanych łącznie. Ze względu na nieduże jakościowe różnice w wynikach dla różnych osób, prezentacja wyników zostanie ograniczona do dwóch osób(jl i RB) o odmiennych cechach aktywności ośrodka słuchu. Pojedynczej próbie p, będącej zarazem stopniem swobody układu, odpowiadają dwa szeregiczasoweodługościt=1042,zktórychkażdyjestzwiązanyzjednąpółkulą.skala czasowa określona została w analogiczny sposób jak w przypadku eksperymentu kognitywnego, tzn. chwila t = 0 odpowiada początkowi bodźca. Szeregi czasowe obejmują okres odt 1 = 220msdot T =780ms.Wyglądsygnałówzpojedynczychpróborazsygnały 80

91 M p (t) [x10-13 T] LP PP JL RB t [ms] t [ms] Rysunek 45: Przykładowe sygnały z obu półkul(lp,pp) zarejestrowane w pojedynczych próbach(dźwięk podawany do prawego ucha) wraz z sygnałami uśrednionymi po wszystkich 240 próbach dla dwóch osób: JL i RB. W sygnałach średnich(linie pogrubione) widoczna jest składowa deterministyczna wzbudzeń. Jednostronne podanie bodźca wzbudza aktywność w obu półkulach. uśrednione po wszystkich próbach pokazuje dla obu półkul rys. 45. W sygnałach średnich widoczny jest charakterystyczny ciąg oscylacji z potencjałami P40m, N100m i P200m, które bywają trudne do zidentyfikowania w sygnałach z pojedynczych prób. Oba rodzaje sygnałów wykazują odmienne cechy pomiędzy osobami. Celem jest określenie relacji czasowych między wzbudzeniami w obu półkulach przy różnych stronach podania bodźca. Schemat analizy danych jest identyczny jak dla ośrodka wzroku w podrozdz W przypadku każdej osoby i warunku doświadczalnego(l, P) stworzona została międzypółkulowa macierz opóźnionych korelacji C(τ), a następnie wyliczonezostałojejspektrumdlaopóźnieńwzakresie-70ms τ 70ms.Kierunek opóźnienia wybrany został w ten sposób, że τ > 0 odpowiada wcześniejszemu wzbudzeniu ośrodka w lewej półkuli, a τ < 0 odpowiada wcześniejszemu wzbudzeniu ośrodka w prawej półkuli. Do analizy wybrane zostały dwa przedziały czasu w każdym z pojedynczych sygnałów: przedział ms(aw), w którym pojawia się wzbudzenie, i równoważny mu pod względem długości przedział odniesienia: ms(as), w którym można się spodziewać przede wszystkim aktywności nie związanej z bodźcem(spontanicznej). Zależność Reλ 1 (τ)dlawszystkichczterechwarunków:jl(l),jl(p),rb(l)irb(p)wobuprzedziałach została zobrazowana na rys. 46. Porównanie górnych i dolnych wykresów pozwala zauważyć, że korelacje międzypółkulowe są obecne przede wszystkim w przedziale AW(dużewartościReλ 1 (τ)),natomiastwprzedzialeasniewielkiekorelacje,onieporównywalnie słabszejsileniżwprzedzialeaw,widocznesątylkoujlprzywarunkup.dlarb(oba warunki) i dla warunku L u JL część rzeczywista największej wartości własnej przebywa w obszarze szumu GinOE(szary pas na wykresach) lub w bliskim jego sąsiedztwie. 81

92 40 L P Re λ 1 (τ) 20 0 L P AW Re λ 1 (τ) 20 0 AS -20 JL τ PP [ms] RB τ PP [ms] Rysunek 46: Część rzeczywista największej wartości własnej C(τ) w funkcji τ dla obu osób oraz obu warunków doświadczalnych: dźwięku podawanego do lewego ucha(linie ciągłe) i do prawego ucha(linie przerywane). Górne wykresy odpowiadają macierzom wyliczonym w oknie ms(aktywność wzbudzona, AW), natomiast dolne- w oknie ms(aktywność spontaniczna, AS). Szary pas odpowiada zakresowi spektrum macierzy przypadkowych GinOE o wariancji elementów zgodnej z wariancją elementów macierzyempirycznejcwobszarzeas(różnejdlajlirb). NajistotniejszymwynikiemjestzależnośćReλ 1 (τ)odstronystymulacji(przedziałaktywnościwzbudzonejaw):maksimareλ 1 (τ)sąprzesuniętewzględemτ=0irozsunięte w przeciwnych kierunkach. W przypadku JL wartość własna osiąga maksimum przy τ= 13ms,gdybodziecjestlewostronny,iprzyτ=6ms,gdybodziecjestprawotronny. WprzypadkuRBsątoopóźnienia:τ= 8ms(L)iτ=10ms(P).Znakitychopóźnień pokazują znany fakt[141, 142, 143*], że ośrodek położony w półkuli przeciwnej względem strony bodźca wzbudza się statystycznie od 5 do 15 ms wcześniej niż jego odpowiednik po tej samej stronie co bodziec. Jest to o tyle interesujące, że odległości pomiędzy uchem a oboma ośrodkami mogłyby sugerować odwrotną relację. Pomiędzy JL a RB widoczna jestponadtodużaróżnicawartościreλ 1 (τ)wmaksimum,cowiążesięprzedewszystkim z korzystniejszym stosunkiem amplitudy oscylacji niskich częstotliwości do wysokich częstotliwościujl(rys.45).dużaszerokośćwierzchołkówλ 1 (τ)wynikazeskorelowania sygnałów przede wszystkim w pasmie niskich częstotliwości, co jest zgodne z niską częstotliwością oscylacji związanych z aktywnością wzbudzoną. Rozkłady diagonalnych i pozadiagonalnych elementów macierzowych w maksimach λ 1 (τ),przedstawionenarys.47,różniąsięmiędzyosobami,przyczymróżnicesązgodnez różnicamiwwartościachλ 1 (τ)dlatychosób(macierzedlajlmająsilniejsząkomponentę rzędu 1, co przypomina przypadek symetrycznych, skorelowanych macierzy Wisharta ze wzoru(41)). Ponadto macierze dla JL posiadają silnie asymetryczny kształt, zarówno w przypadku elementów diagonalnych, jak i pozadiagonalnych. Mimo to dla obu stron stymulacji widoczna jest różnica w wartościach średnich pomiędzy diagonalą a resztą 82

93 3 L τ = -13 ms P τ = 6 ms p(c pq ) 2 1 JL 0 3 τ = -8 ms τ = 10 ms p(c pq ) 2 1 RB C pq C pq Rysunek 47: Rozkłady elementów macierzowych dla C(τ) przy wartościach τ, dla którychλ 1 (τ)osiągamaksimum.wykresygórneprzedstawiająwarunkil(polewej)ip (po prawej) dla JL, a wykresy dolne- dla RB. Ciemniejsze histogramy opisują rozkłady elementów diagonalnych, a jaśniejsze- elementów pozadiagonalnych. Pionowe linie kropkowane oznaczają wartości średnie odpowiednich elementów. elementów na korzyść elementów diagonalnych. W przypadku RB dostrzegalna różnica pomiędzy średnim elementem na diagonali i poza nią jest widoczna tylko dla bodźców podawanych prawostronnie, podczas gdy w drugim przypadku obie średnie są równe z dokładnością do błędu statystycznego. Interpretacja różnic pomiędzy rozkładami elementów diagonalnych i pozadiagonalnych jest podobna jak w przypadku danych z ośrodka wzroku: aktywność ośrodków słuchu JL jest silniej powiązana międzypółkulowo dla sygnałów rejestrowanych równocześnie niż dla sygnałów pochodzących z różnych prób. Oznacza to przede wszystkim, że oprócz składowej powtarzalnej w większości prób, w odpowiedzi ośrodka słuchu u JL istnieje także składowa idiosynkratyczna, różniąca się między próbami. Alternatywa w postaci skorelowania aktywności spontanicznej, mierzonej równocześnie w obu półkulach(co także mogłoby dawać wzmocnienie elementów diagonalnych i brak wpływu na elementy pozadiagonalne) nie może jednak wytłumaczyć obserwowanych różnic, ponieważ teoretycznie powinna ona, jako nie związana z bodźcami, dawać porównywalny efekt w przedziałach AWiAS.Tymczasemwidocznanarys.47różnicapomiędzy C pp i C pq,p q wprzedziale AW( 0.1) jest znacznie większa niż obliczona w przedziale AS dla różnych wartości τ ( 0,035±0,015,niepokazanenarysunku).Todowodzi,żeskorelowanieaktywności spontanicznej nie może w pełni wytłumaczyć różnic, obserwowanych na rys. 47 w rozkładach dla JL. Przypadek RB jest inny, tutaj różnice między średnimi po elementach diagonalnych i po elementach pozadiagonalnych są podobne w obu analizowanych przedziałach. Na podstawie przedstawionych wyników można postawić tezę, że aktywność wzbudzona przez pojedynczy dźwięk u JL nosi znamiona sprzężonej międzypółkulowo. Nie 83

94 da się wprawdzie rozstrzygnąć, czy sprzężenia między oboma ośrodkami słuchu są wynikiem bezpośredniego oddziaływania poprzez połączenia neuronowe między półkulami(za pośrednictwem ciała modzelowatego), czy są raczej wynikiem modelowania aktywności obu obszarów przez stan mózgu jako całości, który w każdej próbie może być inny. Jeśli słuszna jest ta druga możliwość, to oddziaływania miałyby charakter pośredni(choć też dalekozasięgowy). Którakolwiek z tych wersji jest bliższa prawdy, cechy wzbudzeń wymuszonych przez zewnętrzne bodźce u JL wskazują na złożony charakter tych wzbudzeń, łączący w sobie powtarzalność ze składowymi swoistymi dla indywidualnych prób, oraz na efektywne powiązania funkcjonalne między półkulami. Dynamika aktywności wzbudzonej u RB nie pozwala na identyfikację wszystkich tych elementów, co może być w pierwszym rzędzie skutkiem gorszego stosunku sygnału do szumu. 5.4 Rynek akcji: sprzężenie międzyrynkowe W przypadku rynków finansowych, w dobie elektronicznych systemów transakcyjnych i internetu, odległość może być uważana za pojęcie abstrakcyjne. Giełdy mają ciągle jednak charakter lokalny, w tym sensie, że akcje firm(w przeciwieństwie do walut) są z reguły notowane tylko na jednym parkiecie oraz że duża część powiązań handlowych i przychodów firm dotyczy rynku w regionie, gdzie zlokalizowana jest giełda. To sprawia, że poszczególne giełdy tworzą do pewnego stopnia oddzielne układy. W zwiazku z tym wszelkie zależności między dynamiką cen na różnych giełdach, zwłaszcza położonych w różnych regionach geograficznych, można uważać za oddziaływania dalekiego zasięgu. Na istnienie tego typu oddziaływań wskazują wcześniejsze wyniki, otrzymane dla danych dziennych, pokazujące istnienie jednego światowego rynku akcji, złożonego ze wszystkich ważniejszych rynków lokalnych[89, 88]. Analizy te, mając słabą zdolność rozdzielczą, nie były jednak w stanie wskazać skal czasowych, na których rozwijają się sprzężenia międzyrynkowe. Poprawa zdolności rozdzielczej w czasie wymaga wzięcia pod uwagę danych wysokiej częstości, a spodziewane czasy opóźnień między ruchami cen na rynkach wymagają danych rejestrowanych z sekundową dokładnością. Podstawą bieżącej analizy są dane transakcyjne, pochodzące z rynku niemieckiego i amerykańskiego, obejmujące dwa zbiory złożone z N = 30 spółek[144*]. Rynek amerykański reprezentują spółki, które w latach wchodziły w skład indeksu Dow Jones Industrial Average(DJIA, DJ), natomiast rynek niemiecki-spółkiwchodzącewtymsamymokresiewskładindeksudax30.pełnalista spółek znajduje się w Dodatku(D oraz D g). Na podstawie oryginalnych danych stworzone zostały szeregi czasowe logarytmicznych stóp zwrotu(44) dla różnych skalczasowychzprzedziału:3s t 2min.(Ograniczeniemaksymalnejrozdzielczości do3swynikazsekundowejdokładnościzapisuczasutransakcjiwbazietaq,zktórej pochodzą dane dla spółek amerykańskich.) Ze względu na różnicę stref czasowych, godziny otwarcia obu rynków pokrywały się w analizowanym okresie tylko w stosunkowo krótkim przedziale czasu pomiędzy a 17.00(do17września1999)ipomiędzy15.30a17.30(od20września1999),dlategorozpatrywane szeregi czasowe są ograniczone do tych przedziałów. Pod uwagę wzięte zostały tylko te dni, w których oba rynki były otwarte. Długość otrzymanych szeregów mieściła sięwgranicachodt= dla t=3sdot=23.850dla t=2min.dlakażdej skali czasowej t została utworzona rodzina międzyrynkowych macierzy korelacji: C(τ)=X DJ [Y DAX (τ)] T, (74) zawierających wyłącznie informacje o korelacjach międzyrynkowych bez informacji o ko- 84

95 3 t = 120 s t = 15 s 0.4 λ 1 (τ) λ 1 (τ) t = 3 s λ 1 (τ) τ DAX [min] Rysunek 48: Korelacje pomiędzy stopami zwrotu akcji spółek wchodzących w skład DJIA idax.modułydwóchnajwiększychwartościwłasnychλ 1 (słupki)iλ 2 (liniaciągła) przedstawione są dla wybranych skal czasowych t. τ > 0 oznacza względne opóźnienie rynkuniemieckiego,τ<0względneopóźnienierynkuamerykańskiego.sytuacja λ 1 (τ) > λ 2 (τ) odpowiadaczystorzeczywistymwartościomλ 1 (τ). relacjach wewnętrz każdego z rynków. Czas opóźnienia τ został stowarzyszony z szeregami czasowymi dla spółek niemieckich. Dla każdej jego wartości policzone zostało spektrum wartościwłasnychc(τ).zależność λ 1 (τ) dlakilkuwartości tprzedstawiarys.48. Wszystkie wykresy pokazują istnienie silnego sprzężenia pomiędzy grupami stopni swobodyzoburynków,przejawiającegosiędużymi,rzeczywistymiwartościamiλ 1 (τ), wykraczającymi daleko ponad obszar przypadkowych korelacji. Sprzężenie międzyrynkowe jest niemal natychmiastowe: przesunięcie maksimum wartości własnej względem τ = 0 jest widoczne dopiero przy rozdzielczości t = 15 s. Dane o częstotliwości próbkowania t = 3 s pokazują, że statystycznie istotne korelacje międzyrynkowe mają miejsce w zakresie-2 min τ 3min,przyczymsąonenajsilniejszedla-30s<τ<0s,adwawyraźne maksimasązlokalizowanewτ= 9siτ= 15s. Przesunięcie apogeum korelacji w stronę τ < 0 oznacza, że ta sama informacja statystycznie szybciej rozprzestrzenia się wśród spółek niemieckich niż amerykańskich. Z drugiejstrony,pamięćoniejzanikawolniejwgrupiespółekniemieckich,dlaktórychλ 1 osiąga poziom szumu dopiero po 3 min wobec 2 min dla spółek amerykańskich. Czasy te wyznaczają zarazem horyzont, przy którym oba rynki stają się efektywne ze względu na wspólnie dostępną informację i jej przepływ między nimi. Wewnątrz każdego z rynków pamięć również sięga 2-3 min, co pokazują ich własności autokorelacyjne. Zostałyonepokazanenarys.49poprzezzależnośćczasową λ 1 (τ),otrzymanądlamacierzy jednorynkowych: C DJ (τ)=x DJ [X DJ (τ)] T, C DAX (τ)=y DAX [Y DAX (τ)] T. (75) Wykresynarys.48pokazują,że λ 2 (τ) jestpraktyczniefunkcjąstałądlawszystkich rozpatrywanychskal t.spektrummacierzyc(τ)składasięzconajmniejn 1warto- 85

96 λ 1 (τ) 0.5 t = 15 s Dow Jones 30 DAX τ [min] Rysunek 49: Korelacje opóźnione wewnątrz jednego rynku, wyrażone przez największą wartość własną macierzy(75) dla spółek wchodzących w skład DJIA oraz w skład DAX. Funkcjęλ 1 (τ)możnatraktowaćwpierwszymprzybliżeniujakouogólnieniefunkcjikorelacji na przypadek wielu wymiarów. Parametr opóźnienia został ograniczony do τ > 0 ze względunasymetrię:c αβ (τ)=c βα ( τ).wartościλ 1 dlaτ=15s(opóźnienieojeden punkt szeregu) nie zostały pokazane z uwagi na ich obciążenie inherentnym artefaktem procedurynumerycznej.dlaτ 3minλ 1 (τ)przyjmujewartościrzeczywiste.obszar zacieniowany odpowiada zespołowi macierzy GinOE. ści własnych położonych w obszarze spektrum GinOE i z co najwyżej 1 wartości własnej poza tym obszarem. Dwa odmienne przypadki tego spektrum przedstawia rys. 50. Wyniki wskazują, że w analizowanym okresie czasu sprzężenie pomiędzy spółkami wchodzącymi w skład indeksów DJIA i DAX miało charakter jednoczynnikowy i- z perspektywy drugiego rynku- obie grupy spółek zachowywały się jak pojedyncze stopnie swobody. Spółki z jednego rynku były bardziej czułe na fakt przynależności danej spółki do innego rynku niż na profil jej działalności. Wniosek ten jest odmienny od wniosków płynących z analiz korelacji opóźnionych w ramach jednego rynku, w których widoczna jest struktura wieloczynnikowa[116, 133]. Szybsza dystrybucja informacji wśród spółek na rynku niemieckim, choć na pierwszy rzut oka mocno nieintuicyjna, jest zgodna z obserwacją poczynioną w podrozdz. 3.2 (rys. 14), że spółki DAX są stosunkowo silnie sprzężone już na krótkich skalach czasu, podczas gdy duże spółki amerykańskie cechuje na krótkich skalach bardziej indywidualna ewolucja. Zanim na skutek rozprzestrzenienia się informacji rozwinie się między nimi dostrzegalne sprzężenie, musi upłynąć pewien czas, od kilku do kilkudziesięciu sekund. Co ważne, efekt ten nie dotyczy tylko spółek z DJIA, notowanych na giełdzie NYSE, na której opóźnienia mogłyby powstawać ze względu na fizyczność handlu. Analogiczna analiza korelacji między rynkiem niemieckim a 30 spółkami o dużej kapitalizacji z elektronicznego rynku NASDAQ pokazała istnienie tego samego zjawiska maksymalnych korelacji dla τ<0.różnicąbyłatylkoznaczniemniejszawartośćλ 1 (τ)dlaustalonegoτwprzypadku rynku NASDAQ. Podobieństwo zachowania spółek z obu rynków amerykańskich wzglę- 86

97 Im λ k τ = 0 s τ = 300 s Re λ k Re λ k Rysunek 50: Spektra wartości własnych międzyrynkowej macierzy korelacji C(τ) dla t = 3s.Sytuacjejednejdużej,rzeczywistejwartościwłasnejλ 1 in 1wartościprzypadkowych (po lewej) oraz całkowicie przypadkowego spektrum(po prawej) stanowią dwa bieguny spotykanych spektrów dla różnych wartości parametru opóźnienia τ. Zacieniowane koło jest obszarem dopuszczalnym dla macierzy przypadkowych GinOE o takiej samej wariancji rozkładu elementów, jak w typowej macierzy empirycznej C(τ). dem rynku niemieckiego świadczy, że ma ono bardziej uniwersalny charakter dla giełd amerykańskich. 87

98 6 BRAK CHARAKTERYSTYCZNEJ SKALI Zależnościpotęgowe,którewiążąsięzeskalowaniemf(ax)=a β f(x),sącharakterystyczne dla układów przechodzących przez punkt krytyczny lub przebywających w jego pobliżu(podrozdz. 1.3). Szczególnie dotyczy to rozbieżnej potęgowo długości korelacji ξ(wzór(11)), co prowadzi do braku wyróżnionej skali oraz potęgowego zaniku funkcji korelacji i autokorelacji(wzór(12)). Ważnym aspektem krytyczności jest także potegowa zależność liczby zdarzeń od ich rozmiaru, której teoretycznym modelem jest zjawisko SOC. Ponadto skalowanie oznacza samopodobieństwo, które jest z kolei podstawą struktury fraktalnej, a ta jest często rozumiana jako jeden z wyznaczników złożoności(rozdz. 7). Z tego względu istnienie potęgowych relacji w danych empirycznych jest zawsze interesujące, gdyż może być przesłanką, wskazującą na możliwość złożonej natury procesów stojących za mierzonymi obserwablami. Przesłanką, ale nie dowodem, ponieważ zależności potęgowe bywają też efektem stosunkowo prostych procesów. W tym rozdziale omówione zostaną wyniki związane z zależnościami potęgowymi, spotykanymi w danych finansowych oraz w tekstach literackich. Zależności te należą do najważniejszych charakterystyk obu rodzajów danych. Oprócz samego skalowania istotne, a niekiedy nawet istotniejsze, są także odchylenia od niego, zwłaszcza w sytuacji, gdy skalowanie może nosić w sobie znamiona uniwersalności. Rozdział ten nie wyczerpuje jednak wszystkich poruszanych w pracy wyników dotyczących braku wyróżnionej skali, ponieważ w rozdz. 8 zostaną omówione własności sieci bezskalowych, co wymaga wprowadzenia odpowiedniego formalizmu. 6.1 Zależności potęgowe w danych finansowych Centralne twierdzenie graniczne i stabilność rozkładów Centralnetwierdzeniegranicznewjegoklasycznejpostacimówi,żejeśliX i,i=1,...,n sąniezależnymizmiennymilosowymioskończonejśredniejµiwariancjiσ 2,tozmienna X=X X n,poprzeskalowaniu:(x µn)/σ,marozkład,którywgranicyn jest równoważny w sensie miary rozkładowi normalnemu N(0, 1): lim P(u 1 x µn n σ n u u2 du 2)= exp( u 2 /2), (76) u 1 2π dlawszystkichskończonychu 1,u 2 [145].Jeśliwarunekistnieniadwóchpierwszychmomentówµ,σzmiennychX i niejestspełniony,torozkłademgranicznymdlazmiennejxnie jest rozkład Gaussa, lecz jeden z rozkładów należących do rodziny rozkładów stabilnych Lévy ego.rozkładytedanesąprzezfunkcjęcharakterystycznąˆl α,β (t)wpostaci[146]: ˆL α,β (t)=exp[iγt c t α (1+iβ t ω(t,α))], (77) t { tan(πα/2) α 1 ω(t,α)= (2/π)ln t α=1, gdzieγ R,c 0.Stałe0 α 2i 1 β 1definiują,odpowiednio,asymptotyczne zachowanie w granicy x ± i asymetrię rozkładu. Rozkłady Lévy ego nie posiadają postaci analitycznej w zmiennej x, lecz ważną ich własnością jest zanik potęgowy w granicy 88

99 dużych x: L α,β (x) 1 x 1+α x ±. (78) PrzypadkiemszczególnymrozkładuLévy egodlaβ=0iα=2jestrozkładgaussa. Rozkłady Lévy ego, choć pełnią ważną rolę w matematyce, są w zasadzie niefizyczne, ponieważ nie istnieją procesy( przeloty Lévy ego ), które dawałyby dane eksperymentalne o nieskończonych momentach. Rozkłady te mogą jednak dobrze przybliżać dane w pewnym zakresie x. Z tego względu wprowadzona została rodzina bardziej realistycznych obciętych rozkładów Lévy ego [147], w których ogony zwykłych rozkładów Lévy ego są w granicy dużych x tłumione, np. przez funkcję wykładniczą[148]: L tr α,β(x) c ± x 1+αe γ x, (79) gdzieγ>0,ac ± sąstałymizależnymiodznakux.ponieważrozkłady(79)posiadają skończoną wariancję, suma opisywanych przez nie zmiennych losowych ma rozkład zbieżny wgranicyn dorozkładugaussa.zbieżnośćtajesttymwolniejsza,immniejszą wartość posiada parametr tłumienia γ. Potęgowy zanik zboczy rozkładów, który bywa często obserwowany w danych empirycznych, nie musi być jednak związany z rozkładami faktycznie potęgowymi lub rozkładami Lévy ego. Zachowanie asymptotycznie potęgowe lub zachowanie przypominające potęgowe w pewnym skończonym zakresie x mogą przejawiać także inne rozkłady, wśród których do najczęściej spotykanych należą: rozkład lognormalny dany wzorem: p LN (x)= 1 x 2πσ 2exp[ [ln(x/x 0)] 2 2σ 2 ], (80) rozciągnięte funkcje wykładnicze(stretched exponentials)[149]: p SE (x)=ce (x/τ)β, (81) gdzie 0 < β < 1, oraz rozkłady q-gaussowskie, które zostaną omówione w dalszej części rozdziału Fakty stylizowane Charakterystyką o podstawowym znaczeniu dla rynków finansowych jest kształt rozkładów fluktuacji cen. Z teoretycznego punktu widzenia kształt rozkładu pozwala na wgląd w naturę procesów rządzących ewolucją rynku i stworzenie ich realistycznych modeli, natomiast w aspekcie praktycznym umożliwia oszacowanie ryzyka planowanych inwestycji. Wczesne analizy statystyczne danych, oparte na małych próbkach, legły u podstaw hipotezy o gaussowskim charakterze stóp zwrotu. Hipoteza ta znalazła rozwinięcie w pierwszym modelu ewolucji rynku, w którym cena podlegała błądzeniu przypadkowemu, a wartości stóp zwrotu na danej skali czasu t opisywały niezależne, identycznie rozłożone zmienne losowe o rozkładzie normalnym[150]. Zaproponowany kształt rozkładów był naturalną konsekwencją dużej liczby przypadkowych wstrząsów (taktowanych transakcjami), jakim podlega cena w ciągu odpowiednio długiego czasu t, i centralnego twierdzenia granicznego. Model gaussowski długo był obowiązującym modelem procesów zachodzących na rynkach finansowych i, z powodu swojej prostoty matematycznej, w niektórych aspektach jest stosowany do dziś(np. w teorii wyceny opcji Blacka-Scholesa[151]). 89

100 r α (t i ) 0,2 C IBM UK +20% 0,1 DD BA +10% +5% 0-5% -0,1-0,2 HWP BA BA GM IBM -10% -20% XII II IV VI VIII X XII II IV VI VIII X XII Rysunek 51: Szeregi czasowe stóp zwrotu 30 spółek wchodzących w skład indeksu DJIA (skala czasowa t = 5 min.). Ekstremalne zmiany cen zostały przypisane do odpowiednich spółek. Poziome linie wskazują zmiany cen o ±5%, ±10% i ±20%. Jednak, jak widać na rys. 51, w szeregach czasowych stóp zwrotu pojawiają się wartości, których przyjęcie przez zmienną losową o rozkładzie Gaussa byłoby mało prawdopodobne w próbce o takim rozmiarze. Stopy zwrotu są znacznie lepiej modelowane przez rozkłady leptokurtyczne. Okazało się także, że rozkłady odpowiadające stopom zwrotu dla różnych skal t posiadają podobny kształt[152]. Ponieważ dla stóp zwrotu zachodzi relacja: r N t (t i )= N 1 k=0 r t (t i +k t), (82) wyniki te mogły sugerować, że procesy stojące za fluktuacjami cen mają charakter procesów Lévy ego o rozkładach stabilnych. Wraz z dostępnością danych rejestrowanych elektronicznie z dużą częstotliwością, pojawiła się możliwość wglądu w bardziej odległe regiony rozkładów i weryfikacji hipotezy o ich stabilności. Rezultaty dla indeksu S&P500, otrzymane na bazie danych minutowych, pokazały, że rozkłady stóp zwrotu mają postać zbliżoną do rozkładów Lévy ego przede wszystkim w centralnej części, natomiast na peryferiach zanikają znacznie szybciej niż rozkłady stabilne[153]. Wynik ten stał się impulsem do wprowadzenia obciętych rozkładów Lévy ego(79) i stowarzyszonych z nimi procesów stochastycznych[147, 148]. Niestabilność rozkładów potwierdziły obszerne analizy amerykańskiego rynku akcji, które pokazały, że danecharakteryzująsięrozkładamiopotęgowymzanikuogonów:1/x 1+α zpodobnąwartościąparametruα 3dlawieluskalczasowychażdo t=16dni(handlowych)w przypadkuakcji[80]i t=4dniwprzypadkuindeksus&p500[81].wynikitezostały jakościowo potwierdzone z niewielkimi tylko różnicami ilościowymi dla kilku innych rynków akcji[154, 81, 155*, 156], rynku walutowego[82, 157] i rynków towarowych[79], co doprowadziło do próby uniwersalizacji tej cechy w postaci prawa skalowania odwrotnie sześciennego (inverse-cubic power law). Z kolei analizy bazujące na danych z niewielkich 90

101 α = 2,0 P ( r > x) US 100 DE 30 PL 45 USD/EUR JPY/GBP α = 3, N(0;1) α = 4,0 0, x Rysunek 52: Rozkłady skumulowane modułów znormalizowanych stóp zwrotu dla przykładowych zbiorów danych wysokiej częstości: 100 amerykańskich spółek o największej kapitalizacji(us 100, lata ), 30 niemieckich spółek wchodzących w skład indeksu DAX(DE 30, ), 45 dużych polskich spółek(pl 45, ) oraz kursów wymiany USD/EUR i JPY/GBP( ). Pierwszy zbiór danych odpowiada skali t=5min.,natomiastpozostałeskali t=1min.jakoodniesieniesłużyskumulowany rozkład Gaussa N(0; 1) i schematycznie zaznaczone skumulowane rozkłady potęgowe P(X>x)=1/x α. (Norwegia) lub bardziej egzotycznych(brazylia) rynków pokazują, że na tych rynkach kwestia powszechnego obowiązywania potęgowych zależności odwrotnie sześciennych jest mniej oczywista[158, 159, 160]. Co ciekawe, nie obserwuje się żadnych systematycznych prawidłowościpomiędzykształtemrozkładówwgranicydużychr t astopniemdojrzałości rynków. Rys. 52 przedstawia rozkłady stóp zwrotu na krótkich skalach t dla akcji spółek notowanych na trzech różnej wielkości rynkach i dla dwóch kursów wymiany walut. Z uwagi na jakościowo niezbyt istotne różnice w kształtach rozkładów dla stóp ujemnych i dodatnich, na rysunku przedstawiony został rozkład modułów. Dobrze widoczny jest potęgowy zanik zboczy wszystkich rozkładów, przy czym wykładnik potęgi waha się między α 2, 8 (spółkiamerykańskie)aα 3,8(kursJPY/GBP).Zuwaginaprezentacjęwynikóww postaci rozkładów skumulowanych, indeks nachylenia α można bezpośrednio porównać z parametrem asymptotycznego zachowania zboczy rozkładów Lévy ego, danym przez wzór (78). Nachylenie zboczy nie ma charakteru stabilnego w sensie Lévy ego(α > 2), jest jednak mocno leptokurtyczne. Źródło pochodzenia peryferyjnie potęgowych rozkładów stóp zwrotu, obserwowanych na wielu rynkach, nie zostało ciągle do końca wyjaśnione. Próby znalezienia przyczyn wskazywały, że zjawisko to jest wynikiem nieliniowych oddziaływań pomiędzy inwestorami o różnych strategiach i horyzontach działania[161], konsekwencją potęgowych rozkładów wolumenu i napływu dużych zleceń przy pierwiastkowej zależności stopy zwrotu od wiel- 91

102 10-1 p LN (x) p SE (x) p(x) l α (x) l tr α (x) p(x) ,01 0, x x Rysunek 53: Rozkład modułów znormalizowanych stóp zwrotu dla 100 amerykańskich spółek o największej kapitalizacji( t = 5 min.) wraz z dopasowanymi do niego rozkładami:lognormalnymp LN (x),rozciągnietymwykładniczymp SE (x),potęgowyml α (x) iobciętympotęgowyml α(x). tr Zakres x, w którym przeprowadzone zostało dopasowanie, jest wyróżniony brakiem zacieniowania. kości wolumenu[162], czy potęgowych rozkładów fluktuacji płynności, wyrażanych przez obecność znacznych luk cenowych w arkuszu zleceń z limitem.(w takim wypadku nawet pojedyncza, niewielka transakcja może usunąć barierę w postaci zleceń ekranujących lukę od najlepszej ceny, otworzyć lukę i, w konsekwencji, spowodować duży skok najlepszej ceny w kierunku zgodnym z kierunkiem nierównowagi w wolumenie zleceń[163]). Ostatnio pojawiła się koncepcja, że potęgowe rozkłady są związane z indywidualnymi strategiami ograniczania ryzyka przez dużych, instytucjonalnych inwestorów, stosujących dźwignię finansową[164]. Trzeba mimo wszystko wziąć jednak pod uwagę, że potęgowy charakter zaniku rozkładów stóp zwrotu może być pozorny i być w istocie tylko przybliżeniem prawdziwego zachowaniawpostaci:s(x)/x α 1/x α,jeślis(x)jestwolnozmiennąfunkcjądladużych x. Sytuację tę ilustruje rys. 53, na którym empiryczny rozkład prawdopodobieństwa dla stóp zwrotu 100 największych amerykańskich spółek przy t = 5 min. został przybliżony różnymi rozkładami: lognormalnym(wzór(80)), rozciągniętą funkcją wykładniczą (81), rozkładem potęgowym i obciętym rozkładem potęgowym(odpowiednikiem obciętego rozkładu Lévy ego(79) dla α poza obszarem stabilności). Jak pokazują wykresy, poza rozciągniętą funkcją wykładniczą, która najsłabiej modeluje wyniki empiryczne, pozostałe rozkłady spełniają swoją rolę i- przynajmniej wizualnie- żaden z nich nie mógłby zostać odrzucony jako hipoteza zerowa w obszarze objętym dopasowaniem. To samo dotyczy rozkładów q-gaussowskich, które będą omawiane w dalszej części tego podrozdziału (rys.61). Brak charakterystycznej skali mógłby sugerować istnienie korelacji długozasięgowych w następujących po sobie stopach zwrotu, jednak dane empiryczne nie potwierdzają ich 92

103 10 0 C aut (τ) 10-1 DAX S&P γ = 0, szum τ [min] Rysunek54:FunkcjaautokorelacjiC aut (τ)stópzwrotuindeksudaxnaskali t=3s (danezlat )iindeksus&p500naskali t=1min.(danezlat ).do pierwszej z tych zależności dopasowana została funkcja wykładnicza a exp γτ. OdchyleniestandardoweC aut (τ)dlakorelacjiprzypadkowychwyznaczapoziomszumu. istnienia.funkcjaautokorelacjic aut (τ)zanikawtymprzypadkubardzoszybko,pokilku minutach osiągając poziom szumu. Efekt ten prezentuje rys. 54 dla indeksów: S&P500 i DAX. W tym drugim przypadku indeks został zrekonstruowany z szeregów czasowych cen akcji o rozdzielczości t = 3 s, co umożliwiło uzyskanie próbki, wystarczającej do dopasowania do wyników funkcji wykładniczej a exp( γx) z γ = 0, 45. Funkcja ta dobrze oddajezachowaniec aut (τ)wzakresieopóźnieńodok.30sdo4-5min.dlas&p500 czas zupełnego zaniku autokorelacji jest podobny, przy czym z uwagi na dłuższą skalę czasową stóp zwrotu( t = 1 min.), obarczoną mniejszym szumem, siła autokorelacji jest początkowo większa niż dla indeksu DAX(na tej samej, minutowej skali obie zależności są podobne). Wynik ten można porównać z autokorelacją wielowymiarową dla spółek wchodzących w skład indeksów DJIA i DAX, przedstawioną w podrozdz. 5.4 na rys. 49. W świetle tych własności stóp zwrotu, bardzo powolna zbieżność ich rozkładów na dużych skalach czasowych t do rozkładu Gaussa jest zjawiskiem skomplikowanym. Rozkłady te nie są stabilne nawet na bardzo krótkich skalach czasowych, rzędu 1 minuty i krótszych,a-zgodniezwynikamiprac[80,81]-ichkształtniezmieniasiędoskalczasowychrzędudni,gdziestopyzwrotusąsumąnawetkilkutysięcystópzwrotudla t=1 min. Wobec braku liniowych korelacji długozasięgowych w stopach zwrotu, odpowiedzialność za słabą zbieżność spada na korelacje nieliniowe oraz na efekty mikroskopowe. Długa pamięć, nieobecna w stopach zwrotu, charakteryzuje natomiast szeregi czasowe zmienności(volatility),zdefiniowanejjakomodułstópzwrotu:v t (t i )= r t (t i ) (zmiennośćchwilowa)lubjakoichodchyleniestandardowe:v t (j)=σ j (r t )(zmiennośćśrednia) woknachjodługościt w 1(j=1,...,T/T w ).Funkcjęautokorelacjizmiennościchwilowej dla przykładowych szeregów czasowych USD/EUR i S&P500 przedstawia rys. 55. ZanikC aut (τ)madlaobuszeregówpostaćpotęgowąτ β zwykładnikiemβ 0,3,cojest 93

104 Rysunek55:FunkcjaautokorelacjiC aut (τ)zmiennościchwilowejdlaindeksus&p500i kursu wymiany USD/EUR( t = 1 min.) po usunięciu trendów dziennych. Linie przerywaneoznaczajądopasowanąfunkcjępotęgowąτ δ.wstawka:tosamodlas&p500,alew skali liniowej. Widoczne są regiony ujemnej autokorelacji. wartością typową dla zmienności i w niewielkim tylko stopniu zależną od rynku, z którego pochodzą dane[165, 81, 166]. Oba szeregi czasowe zostały częściowo pozbawione trendu dziennego,którytworzysilneoscylacjec aut (τ)ookresie1dniahandlowego,maskujące zachowanie potęgowe(ślad tego trendu jest nadal widoczny). Dla S&P500 skalowanie potęgowec aut (τ)załamujesiępook.2500min.(7dnihandl.),podczasgdydlazmienności USD/EUR po 1 dniu(1440 min.) pierwotna zależność przechodzi w nieco wolniejszy zanik, by załamać się o rząd wielkości później niż dla S&P500. Dla dużych wartości τ funkcja autokorelacji zmienia znak na ujemny, po czym wykonuje powolne oscylacje(wstawka na rys.55). Długa pamięć wiąże się bezpośrednio z efektem klasteryzacji zmienności, wspomnianym już w podrozdz Ceny mają tendencję do gwałtownych ruchów, jeśli w okresie bezpośrednio poprzedzającym daną chwilę czasu ruchy te były już gwałtowne i do małych ruchów, jeśli wcześniej ruchy też były małe. Jeśli rozpatruje się sygnał będący zapisem fluktuacji ceny(rys. 7 na str. 32), to jest to sygnał silnie niestacjonarny: okresy spokojnego zachowania o małych fluktuacjach są naprzemienne z okresami nerwowości o dużych fluktuacjach. Źródłem klasteryzacji może być fakt, że ceny aktywów nie odzwierciedlają wyłącznie napływającej na rynek informacji, lecz także nieliniowe procesy związane z podejmowaniem decyzji przez inwestorów i stosowaniem przez nich różnych strategii inwestycyjnych(np.[164]). Informacja napływa bowiem na rynek stosunkowo rzadko w porównaniu do częstotliwości, z jaką zawierane są transakcje i z jaką następują zmiany cen. Może być ona zatem absorbowana przez rynek w sposób kaskadowy, przechodząc od długich skal czasowych, typowych dla częstotliwości podawania komunikatów, do krótkich skal czasowych, typowych dla handlu[82]. Jest w tym pewne podobieństwo do turbulencji, w której energia z dużych skal jest transportowana do mniejszych i tam rozpraszana, ale 94

105 analogii tej nie można traktować zbyt dosłownie[167, 168]. Warto w tym miejscu zauważyć, że dane finansowe nie posiadają symetrii odwrócenia czasu. Jest to m.in. widoczne w postaci wpływu historycznej zmienności na długich skalach czasu na współczesną zmienność na krótkich skalach[169]. Oprócz zmienności, potęgowe zachowanie funkcji autokorelacji obserwuje się w przypadku wielu innych obserwabli(podrozdz. 2.3), jednak szczególne znaczenie dla zrozumienia natury procesów rządzących ewolucją rynku ma długa pamięć w wielkościach związanych z mikroskopową strukturą rynku: pamięć w wielkości i rodzaju napływających na rynek zleceń[71, 170]. Wynika ona, jak się przypuszcza, z istnienia bardzo dużych zleceń, które z konieczności są dzielone na mniejsze i realizowane stopniowo przez wiele godzinlubdni[72,66].mogłobysięwydawać,żewtensposóbprzezdługiokresczasu, kiedy takie duże zlecenia są realizowane, rynek nie powinien posiadać symetrii podaży i popytu i powinien ewoluować w kierunku wyznaczonym przez dane zlecenie. Tak więc informacja napływająca na rynek mogłaby mieć wpływ na ruch ceny waloru tak długo, jak długo trwałby proces absorpcji zleceń zainicjowanych tą informacją. Stwarzałoby to istotny margines nierównowagi, co stoi w sprzeczności z hipotezą efektywnego rynku. Dokładne analizy pokazują jednak, że rynek potrafi dostosować się do presji nierównowagowej, przeciwdziałając jej skutkom poprzez manipulowanie płynnością[71]. W ten sposób, na drodze adaptacji, rynek samoistnie zapewnia sobie efektywność(pomijając trwającą najwyżej kilka minut autokorelację w stopach zwrotu) Wpływ kolektywnych sprzężeń na rozkłady stóp zwrotu Jednym z interesujących efektów widocznych w rozkładach fluktuacji danych finansowych jest podobieństwo rozkładów stóp zwrotu akcji pojedynczych spółek i indeksów, będących ważonymi sumami cen akcji wielu spółek. Ze względu na fakt, że rozkłady stóp zwrotu akcji nie mają charakteru stabilnego, w przypadku indeksów centralne twierdzenie graniczne powinno prowadzić do rozkładów bliskich rozkładowi Gaussa. Tak się jednak nie dzieje i nawet dla silnie peryferyjnych części rozkładów, w szerokim zakresie skal czasowych t, zanik zboczy ma tę samą postać funkcji potęgowej z tym samym wykładnikiem w obu przypadkach[81, 171*]. Brak zbieżności oznacza w tej sytuacji niespełnienie założenia o niezależności sumowanych przyrostów cen różnych akcji. Istotnie, jak pokazują wynikiomówionewpodrozdz.3.2,ruchycenakcjiróżnychspółeksąnaogółzesobą skorelowane, tworząc całą hierarchię sprzężeń w ramach jednego rynku. Usunięcie tych sprzężeń poprzez niezależną randomizację danych odpowiadających różnym spółkom powoduje wyraźną poprawę zbieżności[81]. Do tego zagadnienia można podejść także od innej strony, zadając pytanie, jak zmienia się kształt rozkładów fluktuacji indeksu, gdy zmienia się siła sprzężenia między akcjami wchodzącymi w jego skład[171*]. Aby na nie odpowiedzieć, można wykorzystać fakt niestabilności korelacji między akcjami. Jak pokazały badania oparte na macierzy korelacji, korelacje w ramach ustalonej grupy spółek zmieniają się bardzo silnie w czasie. Średnie korelacjewruchomymoknieczasowym,wyrażoneprzeznajwiększąwartośćwłasnąλ 1 (t), fluktuująpomiędzyniemalcałkowitymbrakiemsprzężenia(λ 1 λ max,gdzieλ max jest górnym ograniczeniem spektrum macierzy przypadkowych Wisharta) a niemal sztywnym rynkiem(λ 1 N,gdzieNjestliczbąspółek).Zaobserwowanazostałateżprawidłowość, że spadki są bardziej kolektywne niż wzrosty[172]. Niestabilność korelacji widoczna jest także w przypadku rynku walutowego na rys. 25(str. 54), gdzie największa wartość własna wykazuje szczególnie silne wahania dla GHS i JPY jako walut bazowych. 95

106 α = 2,0 P ( r > x) ζ S = 0,95 (A) ζ W = 0,05 (A) ζ S = 0,95 (I) ζ W = 0,05 (I) 0, x Rysunek 56: Skumulowane rozkłady modułów znormalizowanych stóp zwrotu indeksu DAXiakcji30spółekwchodzącychwjegoskładzpodziałemnaokresysilnegoζ 0,5 isłabegoζ 0,5sprzężeniamiędzyakcjami.Danezlat dlaskaliczasowej t = 5 min. Do rozkładów empirycznych dopasowane zostały zależności potęgowe y=1/x α.ukośnaliniaprzerywanaoznaczaskumulowanyrozkładpotęgowyonachyleniu granicznym dla rozkładów Lévy ego. SzeregiczasowestópzwrotudlaN=30spółekwchodzącychwskładindeksuDAX podzielonezostałynarozłączneoknaw j odługościt w =30(j=1,...,T/T w ).Doanalizy wybrane zostały szeregi na skali t = 5 min., na której średnie korelacje między spółkami są już dość dobrze rozwinięte(rys. 14 na str. 41). Długość każdego z szeregów czasowych wynosiłat=53.847,codałoliczbęokienn w =T/T w =1794.Wkażdymzokienwyliczona została macierz korelacji i jej spektrum własne. Z uwagi na zainteresowanie indeksem, opisującym uśrednione zachowanie grupy wszystkich 30 spółek, analiza została ograniczonadonajwiększejwartościwłasnejλ 1 (w j ).Siłakorelacjizostałasparametryzowanaprzez wartość ζ, zdefiniowaną wyrażeniem: ζ= #{j:λ 1(w j )<Λ} n w, (83) gdzieλjestprogiemdyskryminującymwartościλ 1 (w j ).Parametrζokreślawięcułamek wszystkich okien, dla których największa wartość własna macierzy korelacji jest mniejsza odustalonegoprogu.wybierająckonkretnewartościζ S =0,95iζ W =0,05jakodefinicje, odpowiednio, silnych i słabych sprzężeń między spółkami, można określić stowarzyszone znimiwartościprogoweλ S iλ W,anastępniewyselekcjonowaćokna,którespełniają te kryteria. Ostatnim etapem jest wyliczenie rozkładów stóp zwrotu akcji spółek i stóp zwrotu samego indeksu DAX w wybranych zbiorach okien. W ten sposób otrzymuje się osobne rozkłady dla okresów o silnym i słabym sprzężeniu rynku. Przedstawia je rys. 56. Rozkłady modułów stóp zwrotu dla firm pokazują brak jakościowej różnicy pomiędzy okresami kolektywnej ewolucji i okresami, w których dominuje szum. Z kolei widoczna na 96

107 (α = 1,4) P ( r > x) α = 2, DAX α = 4, x Rysunek 57: Rozkłady skumulowane modułów znormalizowanych stóp zwrotu indeksu DAX w wybranych okresach dnia handlowego. Dane z lat dla skali czasowej t = 1 min. Do rozkładów empirycznych dopasowane zostały zależności potęgowe y = 1/x α. wykresie różnica ilościowa jest na tyle mała, że w pierwszym przybliżeniu można stwierdzić, że rozkład dla firm jest niezmienniczy ze względu na siłę sprzężenia. Odmiennie przedstawia się sprawa kształtu rozkładów dla modułów stóp zwrotu indeksu. W oknach o silnych korelacjach zbocze rozkładu jest znacznie grubsze niż w oknach o słabych korelacjach, gdzie zanik jest prawie gaussowski. Próbki, na podstawie których stworzone zostałyobarozkłady,byłynatylemałe(t =2670punktów),żedopasowywaniefunkcji potęgowej do zbocza rozkładu dla okien o silnych korelacjach nie ma sensu, jednak porównanie z pokazaną na wykresie funkcja potęgowa z α = 2(wykładnik graniczny dla rozkładów stabilnych) wskazuje, że rozkład ten w przypadku większej próbki mógłby mieć postać obciętego rozkładu Lévy ego. Podobny wynik uzyskuje się dla stóp zwrotu na innychskalachczasowych t.sugerujeto,że-zpunktuwidzeniaindeksu-ewolucjaw czasie ma złożony charakter i można w niej wyróżnić przeplatające się fazy, gdy do głosu dochodzą procesy o odmiennych własnościach statystycznych. Pojawianie się i przejmowanie dominującej roli przez różne procesy jest zapewne w znacznym stopniu samo w sobie procesem stochastycznym(na tej samej zasadzie jak zmienność), jednak nie można pominąć tutaj elementu powtarzalności. W podrozdz. 4.1 omówione zostało istnienie pewnych charakterystycznych okresów dnia handlowego, gdy rynek zachowuje się inaczej niż w pozostałym czasie. W przypadku rynku niemieckiego jest to np. otoczenie godz , gdy rynek reaguje na informacje płynące z Ameryki. Jeśli wybrać z każdego dnia handlowego krótki przedział czasu i wyliczyć rozkład stóp zwrotu indeksu w tych przedziałach oraz w przedziałach odniesienia np , to rozkłady te będą mocno się różnić. Widać to na rys. 57. Gdyby przedział w otoczeniu zawęzić jeszcze bardziej, to można byłoby się spodziewać jeszcze większej różnicy, jednak próbka byłaby wtedy znacznie mniejsza i wyniki obarczone większym błędem. 97

108 6.1.4 Przyśpieszenie ewolucji rynków W pracach[80, 81], opartych na bazach zawierających dane z lat (o wysokiej częstotliwości) i z lat (notowania dzienne), pokazano, że rozkłady stóp zwrotu charakteryzowane są przez zbocza o zaniku potęgowym z wykładnikiem α 3 w szerokimzakresieskalczasowychod1min.dokilkunastudnihandlowychdlafirmido 4 dni dla indeksu S&P500. Rozpatrywanie łączne danych stosunkowo niedawnych i bardziej odległych w czasie było jednak błędem metodologicznym, związanym z przyjęciem założenia o niezmienności własności statystycznych danych finansowych w czasie. Intuicja podpowiada natomiast, że rozwój i samoorganizacja rynków, zachodzące na przestrzeni dekad ich funkcjonowania, postęp technologiczny, wzrost wolumenu obrotów i liczby inwestorów, wreszcie postępująca globalizacja świata finansów nie mogą pozostawać bez echa w naturze danych. Przykładem niech będzie częstotliwość dokonywania transakcji. Kilkadziesiąt lat temu, w epoce przed rozpowszechnieniem elektronicznych platform transakcyjnych, skala czasowa rzędu minuty należała do bardzo krótkich. Inwestorzy instytucjonalni, odpowiedzialni za większość obrotów na giełdach, mogli w takim czasie dokonać najwyżej kilku transakcji. Obecnie tacy inwestorzy mają dostęp do systemów, gwarantujących przeprowadzenie transakcji w czasie rzędu milisekund. Z tej perspektywy skala 1 minuty może być uważana za bardzo długi czas, w którym dokonanych może zostać kilka-kilkanaście tysięcy transakcji. Powinno to prowadzić do skrócenia efektów pamięci we wszelkiego rodzaju danych. Rzeczywiście, porównując czas zaniku autokorelacji stóp zwrotu w przypadku tego samego indeksu S&P500 widać, że o ile czas ten wynosił średnio ok.15-20minutwdanychzlat [81,166],otylewlatach jużtylko 4 min.(rys. 54). Skrócenie czasu korelacji opóźnionych między akcjami z tego samego rynku zostało również zaobserwowane[116]. Zjawisko przyśpieszenia jest również widoczne w rozkładach stóp zwrotu akcji[173*, 174*]. Rys. 58 przedstawia skumulowane rozkłady modułów stóp zwrotu dla 100 największych spółek amerykańskich w oparciu o dane z lat Bardzo dobrze widoczne jest zmniejszanie grubości zbocza rozkładów wraz ze wzrostem t. Jeśli przyjąć założenie o potęgowym zaniku zboczy rozkładów, to wykładnik potęgi wzrasta stopniowo od α 2,8dla t=4min.doα 4,5dla t=780min.(2dnihandlowe).dlatejgrupy spółek zbieżność jest zatem widoczna już od krótkich skal czasowych. Badana grupa spółek obejmuje jednak spółki o największej płynności, gdzie liczba transakcji sięgała w tym czasie średnio kilkudziesięciu tysięcy dziennie. Spółki takie może cechować inna dynamika niż spółki mniej płynne, ale bardziej typowe dla całego rynku. Analiza rozszerzona, obejmująca1000spółekokapitalizacjiod <K α < USD,pokazała,żezależność potęgowa typu odwrotnie sześciennego, obserwowana dla najkrótszych skal czasowych, w latach załamywała się dla skal czasowych rzędu kilkudziesięciu minut. Podobny wynik otrzymany został dla spółek niemieckich, należących do indeksu DAX[173*]. W przypadku indeksów załamanie następuje jeszcze szybciej i efekt postępującej zbieżności dorozkładugaussawidocznyjestjużdla t=16min.[174*]. Inaczej wygląda zachowanie rozkładów stóp zwrotu dla 100 spółek o małej kapitalizacji (1, <K α < )imałejpłynności(spisfirmwdodatkud f)),coprzedstawia rys.59.dla t<780min.rozkładytesąniezmienniczewzględem t,aichzboczamożna przybliżyć funkcją potęgową o wykładniku α = 3, 35. Wynik ten wskazuje, że szybkość zbieżności do rozkładu Gaussa ma związek z płynnością akcji, która wiąże się z kolei z liczbą zawartych transakcji. Potwierdzają to inne wyniki, zgodnie z którymi kształt rozkładów stóp zwrotu dla ustalonej skali czasowej t jest taki sam jak kształt rozkładów stóp zwrotu dla interwałów czasu o zmiennej długości, wyznaczanej przez ustaloną liczbę 98

109 α = 3,0 P ( r t > x) min. 16 min. 60 min. 240 min. 780 min K α > 3*10 10 USD 0, x Rysunek 58: Rozkłady skumulowane modułów znormalizowanych stóp zwrotu 100 amerykańskich spółek o największej kapitalizacji dla różnych skal czasowych t. Dane z lat Widoczny jest zanik ogona rozkładu ze wzrostem t. Przerywane linie oznaczająskumulowanerozkłady:gaussan(0;1)ipotęgowyp(x>x)=1/x α P ( r t > x) min. 16 min. 60 min. 240 min. 780 min. α = 3, K α < 3*10 8 USD 0, x Rysunek 59: Skumulowane rozkłady modułów znormalizowanych stóp zwrotu 100 małych amerykańskichspółekokapitalizacjizzakresu1, <K α < USD.Danezlat dla różnych skal czasowych t. Ogony rozkładów nie wykazują równie silnego zaniku ze wzrostem t, jak w przypadku rozkładów z rys. 58. Przerywane linie oznaczająskumulowanerozkłady:gaussan(0;1)ipotęgowyp(x>x)=1/x α onachyleniu zgodnym z nachyleniem rozkładu empirycznego dla t = 16 min. 99

110 10-1 K α > 3*10 10 $ K α < 3*10 8 $ σ r ( t) β = 0,54 β = 0,59 β = 0,66 β = 0, t [min] t [min] Rysunek 60: Zależność odchylenia standardowego od skali czasowej dla szeregów czasowych stóp zwrotu indeksów, będących sumą cen akcji 100 spółek o największej kapitalizacji(po lewej) i 100 spółek o małej kapitalizacji(po prawej). Do wyników empirycznych dopasowanezostałyzależnościpotęgowe t β.wartośćwykładnikaβ>0,5oznaczasuperdyfuzję. Krzyżyki wskazują punkty zmiany reżimu skalowania. transakcji[163]. To oznacza, że gdy częstotliwość transakcji spada, ten sam typ rozkładu zaczyna obowiązywać dla dłuższych skal czasowych t. Ponieważ obrót akcjami spółek o mniejszej kapitalizacji jest rzadszy niż akcjami dużych spółek, prowadzi to do efektu widocznegonarys.58i59. Niezależnym testem otrzymanych wyników jest zależność odchylenia standardowego stópzwrotuodskaliczasowej:σ r ( t).wtymwypadkudanymibyłyszeregiczasowestóp zwrotu dwóch indeksów, stworzonych jako sumy cen akcji spółek wchodzących w skład rozpatrywanych grup. Rezultaty przedstawione zostały na wykresach na rys. 60. Położenie punktów wzdłuż odcinków prostych wskazuje, że jest to zależność typu dyfuzyjnego: σ r ( t) t β, (84) gdzie β określa rodzaj dyfuzji. W obu przypadkach można wyróżnić dwa obszary skalowaniapotęgowego,przyczymwkażdymobszarzeβ>0,5,cooznaczadyfuzjęanomalną -superdyfuzję.dlakrótkichskal( t 10min.)indeksdużychfirmjestsilniejsuperdyfuzyjny niż dłuższych skal, gdzie wartość wykładnika β = 0, 54 jest bliska normalnej dyfuzji. W przypadku małych firm sytuacja jest odwrotna: dla dłuższych skal proces jest bardziej anomalny niż dla krótkich. Przejście anomalnej dyfuzji w dyfuzję w przybliżeniu normalnąwokolicy t=10min.dladużychspółekibrakpodobnegoprzejściaażdo t = 780 min. dla małych spółek jest zgodny z zachowaniem odpowiednich rozkładów stóp zwrotu Rynek akcji jako układ nieekstensywny Istnienie zależności statystycznych w danych finansowych, w tym zwłaszcza korelacji długiego zasięgu, sprawia, że klasyczna termostatyka i termodynamika, oparte na założeniu o braku takich korelacji, nie wystarczają do opisu dynamiki rynków finansowych. Korelacje i długa pamięć są natomiast uwzględnione w termodynamice nieekstensywnej, 100

111 c * P ( r t > x) min. 8 min. 16 min. 30 min. 60 min. 120 min. 240 min. 390 min. 780 min. q = 1,53 q = 1,49 q = 1, q = 1,34 q = 1,36 q = 1,38 q = 1,41 q = 1,45 q = 1, x Rysunek 61: Rozkłady skumulowane modułów znormalizowanych stóp zwrotu na różnych skalach t dla 100 amerykańskich spółek o największej kapitalizacji wraz z dopasowanymi do nich skumulowanymi rozkładami q-gaussowskimi. Przy każdym dopasowanym rozkładzie podana jest wartość parametru Tsallisa q. Każdy z rozkładów został przemnożony przez stały czynnik c celem lepszej wizualizacji. której fundamentem jest pojęcie entropii nieekstensywnej[175]: 1 [p(x)] q dx S q =k B, (85) q 1 gdziep(x)jestrozkłademprawdopodobieństwa,ak B jeststałąboltzmanna.rodziną rozkładów, która maksymalizuje entropię(85) dla 0 < q < 3, przy warunkach: x [p(x)]q [p(x)]q dx dx=µ q, (x µ q ) 2 ([p(x)] q [p(x)]q dx dx=σ2 q, (86) jest rodzina rozkładów q-gaussowskich w postaci(z dokładnością do stałej normalizacyjnej)[176]: G q (x) exp q [ B q (x µ q ) 2 ], (87) gdzie: exp q x=[1+(1 q)x] 1 1 q, Bq =[(3 q)σ 2 q ] 1. (88) W przypadku niezależnych zmiennych losowych, atraktorami tych rozkładów są rozkład Gaussa(dla1<q<5/3)lubrozkładyLévy ego(q>5/3),natomiastwprzypadku skorelowanych zmiennych losowych(a przynajmniej pewnej ich klasy) cech atraktorów nabierają rozkłady q-gaussowskie. Sformułowane zostało nawet odpowiednie uogólnienie centralnego twierdzenia granicznego[177, 178]. Różnice pomiędzy ujemnymi i dodatnimi zboczami rozkładów stóp zwrotu, choć istnieją([179,155*]),sąnatylemałe,żenarys.61obiestronypokazanezostałyłącznie jako skumulowane rozkłady modułów. Z wykresu można wyciągnąć dwa istotne wnioski. 101

112 Po pierwsze, wydaje się, że rozkłady q-gaussowskie najlepiej modelują kształt rozkładów empirycznych spośród wszystkich rozważanych dotąd rozkładów, zarówno w obszarze centralnym, jak i peryferyjnym. Po drugie, zbieżność rozkładów empirycznych manifestuje się zmniejszaniem wartości q ze wzrostem t. Choć wykres przedstawia rozkłady stóp zwrotu dla akcji, podobne wyniki otrzymane zostały także dla indeksów[174*, 155*] Stanowi to ważną przesłankę, przemawiającą za słusznością opisu danych finansowych w języku termodynamiki nieekstensywnej. 6.2 Prawo Zipfa i język naturalny Osobną, często spotykaną grupę relacji typu potęgowego tworzą rozkłady uporządkowane według rangi wartości zmiennej losowej. Ranga definiuje hierarchię, w której większym wartościom przypisuje się wyższą rangę niż wartościom mniejszym. Jeśli{x} jest T-elementowymzbioremwartościzmiennejlosowejX,todlakażdego1 R Tzachodzi relacja:x R 1 x R x R+1,gdzieRjestrangąelementux R.Uporządkowaniewartości zmiennej losowej według rangi ma ścisły związek z rozkładem skumulowanym P(X > x) tej zmiennej: TP(X>x R ) R, (89) gdzie oznacza część całkowitą liczby. Najbardziej znanym przykładem zależności potęgowej tego typu jest hiperboliczna zależność liczby wystąpień(częstotliwości) F danego słowa w próbce tekstu od jego rangi, po uporządkowaniu słów według malejącej liczby wystąpień. Pierwsze wzmianki o tej zależności pojawiły się w pracach[180, 181], jednak dopiero G.K. Zipf w[182] podszedł do zagadnienia w sposób systematyczny i przeprowadził analizy w oparciu o kilka różnych języków. Jego badania pokazały, że zależność F(R) ma charakter uniwersalny dla języków naturalnych, co usprawiedliwia nadanie jej rangi prawa. W szerszym kontekście nazwę prawa Zipfa rozciąga się na wszelkie w przybliżeniu hiperboliczne zależności potęgowe, gdzie jedną ze zmiennych jest ranga. Wymienić tu można zależność liczby miast od rangi ich populacji[183], liczby trzęsień ziemi od rangi momentu sejsmicznego[29], firm od rangi wielkości[184], publikacji naukowych od rangi liczby cytowań[185] i wiele innych[28] Lingwistyczne prawo Zipfa Prawo Zipfa w klasycznej formie dane jest wzorem[182, 186]: F(R)= A Rβ, β 1, (90) gdzieajeststałąempirycznąotypowejwartościa 0.1T.Częstoprawotojestwyrażane także w postaci tzw. odwrotnego prawa Zipfa[187]: I(F)= A F β, β 2, (91) wktórymi(f)oznaczaliczbęsłówoczęstotliwościf.wykładnikiwobuwersjachprawa Zipfasązwiązane:β=1/(β 1). Pochodzenie skalowania potęgowego w F(R) i I(F) jest przedmiotem sporów. Oryginalna idea Zipfa wiąże skalowanie z zasadą najmniejszego wysiłku[183]. W późniejszym ujęciu teorii informacji można tę zasadę wyrazić jako optymalizację transferu informacji 102

113 między mówcą(źródłem) a słuchaczem(odbiorcą). Każda z tych dwóch osób podejmuje charakterystyczny dla siebie wysiłek: mówca koduje informację za pomocą słów, a odbiorca ją dekoduje. Mówca dąży w związku z tym do wyrażenia informacji w najprostszy dla siebie sposób, czyli używając jak najmniejszej liczby różnych słów. Z drugiej strony, odbiorca, którego wysiłek polega na odnalezieniu właściwego odwzorowania słów na pojęcia, oczekuje możliwie najprecyzyjniejszego komunikatu przy użyciu jednoznacznych słów. Ponieważ oczekiwania te są sprzeczne, efektywny przekaz informacji wymaga znalezienia kompromisu pomiędzy tymi skrajnościami. Formalne ujęcie problemu optymalizacji zakłada, że koszt użycia słowa o randze R jestdanyprzezs(r) log k R,gdziekjestdługościąsłowa.(Podpojęciemsłowa,tutaj i w dalszej części pracy, rozumie się konkretny ciąg znaków zakończony spacją.) Jeśli prawdopodobieństwo tego słowa w języku wynosi p(r), to średni koszt na słowo i średnia zawartość informacyjna słowa są równe, odpowiednio: S= R p(r)s(r), H= R p(r)lnp(r), (92) gdzie H jest entropią informacyjną(1). Optymalizacja polega w tym wypadku na minimalizacjiwielkości S/Hzewzględunarozkładprawdopodobieństwap(R).Wjejwyniku otrzymuje się zależność typu(90)[186, 188]. W rezultacie optymalizacji najczęściej używane powinny być słowa najkrótsze, a najrzadziej- najdłuższe. W rzeczywistym języku także obserwuje się tego typu prawidłowość. Warto zauważyć, że silne odstępstwa od prawa Zipfa charakteryzują niektóre niestandardowe warunki pracy mózgu(schizofrenia, okres wczesnodziecięcy, pole walki), w którychzamiastminimalizacji S/H,pojawiasiętendencjadominimalizacji Sbezwzględu na zawartość informacyjną lub maksymalizacji H bez względu na koszt. Z rozważań teoretycznych wynika, że zakres zmienności wykładnika nie powinien przekraczać przedziału0,7 β 1,67[189].Zbytmaławartośćβwiążesięzwielkąliczbąsłówomałej częstotliwości występowania, co wymaga zaangażowania dużych zasobów umysłu mówcy. Z kolei duża wartość β oznacza skąpy rozmiar słownika bądź też zapętlenie się mówcy w jednym wąskim temacie. W obu przypadkach prowadzi to do wystąpienia trudności po stronie słuchacza. Powyższe ujęcie optymalizacyjne zakłada podstawową rolę procesów samoorganizacji języka w genezie prawa Zipfa. Hipoteza ta poddawana jest jednak ostrej krytyce, ponieważ jest możliwe wytłumaczenie skalowania potęgowego częstotliwości słów bez odwoływania się do samoorganizacji, a jedynie do zwykłych procesów stochastycznych. Pierwszą grupą procesów, które w efekcie mogą dawać rozkłady potęgowe typu Zipfa, są inspirowane ekologią procesy Yule a-simona[26, 190]. Są one wersją procesów typu uprzywilejowanego przyłączania(preferential attachment). Operują one na poziomie całych słów. Zakłada się w nich, że w każdej chwili czasu do tekstu dodawane jest nowe słowo z prawdopodobieństwem ψ lub jedno z dotychczasowych słów z prawdopodobieństwem 1 ψ, przy czym prawdopodobieństwoη(r )dodaniadotychczasowegosłowaorandzer (określonejwistniejącymfragmencietekstu)jestrównef(r )/ R F(R ).WtedydlaF(R ) 1zachodzi związek(90). Drugą grupę procesów stanowią procesy najniższego poziomu struktury języka, działające na znakach, noszące wspólną nazwę piszącej małpy lub przerywnikowej ciszy (intermittent silence)[191, 192]. W najprosztszym sformułowaniu tego modelu, każdemu znakowi(literze) nadaje się jednakowe prawdopodobieństwo θ =(1 φ)/n, gdzie φ jest prawdopodobieństwem uderzenia w spację, a n jest liczbą znaków w alfabecie. PrawdopodobieństwopojawieniasięsłowaorandzeR=n k,gdziekjestdługościąsłowa,jest 103

114 wtedy równe: ( ) k ( 1 φ 1 φ p(r)=φ =φ n n ) logn R =φr log k (1 φ) 1, (93) codajerelację(90)popodstawieniuβ=1 log k (1 φ).dlastosunkowomałejwartościφ zachodzi:β 1,cozgadzasię,przynajmniejwprzybliżeniu,zwartościamiempirycznymi β dla niektórych języków. W świetle powyższych wyników może rodzić się wątpliwość, czy prawo Zipfa zawiera jakąkolwiek istotną informację o języku naturalnym. Traktowanie tworzenia słów i tekstów jako procesu stochastycznego ma jednak słabą stronę, ponieważ zaniedbuje się wówczas fakt, że teksty wygenerowane losowo nie posiadają wszystkich cech statystycznych tekstów napisanych w języku naturalnym. Dotyczy to np. rozkładu długości słów, które w tekstach małpiego języka mogą być dowolnie długie, tymczasem w naturze długość słów jest ograniczona do co najwyżej kilkudziesięciu znaków(wyjątkami są sytuacje, gdy autorzy ze względów stylistycznych tworzą słowa o nietypowej długości, ale zdarza się to stosunkowo rzadko). Jeśli na procedurę generującą losowy ciąg znaków nałoży się typowe dla języka naturalnego ograniczenia długości słów, otrzymana zależność F(R) nie będzie już zgodna z prawem Zipfa[193]. Teksty napisane w językach naturalnych można także odróżnić od tekstów losowych, analizując entropię informacyjną rozkładów I(F)[187]. Ponadto model odniesień symbolicznych(odwzorowań obiektów na słowa) z wbudowanym rozkładem Zipfa pokazuje, że rozkład ten może ułatwiać powstawanie składni jako metody łączenia odległych obiektów[194]. W natłoku sprzecznych argumentów wydaje się więc, że o ile prawo Zipfa jako zależność statystyczna niekoniecznie musiało wyewoluować na skutek samoorganizacji języka(choć nie można tego wykluczyć), o tyle jego istnienie mogło być katalizatorem formowania języka jako efektywnego narzędzia komunikacji Odstępstwa od jednorodnego prawa Zipfa Mimo swojej sławy, prawo Zipfa obowiązuje tylko w stosunkowo wąskim zakresie R. Klasyczną zależność Zipfa dla tekstu literackiego przedstawia wykres na rys. 62, sporządzony na podstawie angielskiego oryginału Ulissesa. Tekst ma długość T = słów, a liczba różnych słów wynosi V = Do rozkładu empirycznego dopasowanazostałafunkcjapotęgowa(90).dobrzeprzybliżaonadanedla11 R 4400 (6 F(R) 2500)zwykładnikiemβ=1,03,typowymdlajęzykaangielskiego.Poza tymzakresem,zwłaszczadlarangr 10,zachowaniedanychewidentnieodbiegaodjednorodnego prawa potęgowego. To odstępstwo dla małych R można modelować za pomocą zmodyfikowanej relacji(90): A F(R)= (R+C) β, (94) wyrażającej tzw. prawo Zipfa-Mandelbrota[186]. Dla stosunkowo dużych rang R > 4400 zgodność danych z funkcją potęgową o wykładniku 1,03 stopniowo pogarsza się, ponieważ liczbasłówoczęstotliwościf(r)<6stajesięmniejszaniżwynikałobytozprzewidywań rozkładu potęgowego. Niezgodność z prawem Zipfa w przypadku rzadszych słów jest cechą typową, spotykaną w większości długich tekstów. Jednak dla pojedynczych tekstów statystyka F w tym zakresie rang jest słaba, a maksymalna ranga słowa jest ograniczona przez długość tekstu T,coutrudniaanalizę.WglądwzachowaniefunkcjiF(R)wobszarzerzadkichsłówjest 104

115 Rysunek 62: Zależność F(R) częstotliwości występowania słowa od jego rangi dla oryginalnego, angielskiego tekstu Ulissesa J. Joyce a. Do danych dopasowana została funkcja potęgowa(90) z wykładnikiem β = 1, 03(ukośna linia przerywana). Pionowe linie wyznaczajągranicezgodnościdanychempirycznychzprawemzipfa(11 R 4400). możliwy po rozszerzeniu analizy na korpusy, złożone z wielu tekstów. W ekstremalnych przypadkach korpusy pozwalają na osiągnięcie rang porównywalnych z całkowitą liczbą słów używanych w danym języku. Analizy przeprowadzone na tego typu zbiorach zawierających teksty w języku angielskim pokazują, że dla R > 5000(około) relacja potęgowa widocznadlamniejszychrangzβ 1 =1,05,dlawiększychrangzałamujesięistopniowo przechodziwinnąrelacjępotęgowązwykładnikiemβ 2 =2,3[195,196].Wujęciuleksykalnym istnienie tych dwóch odmiennych reżimów potęgowych tłumaczy się jako skutek podziału słownictwa na wspólny dla wszystkich jego użytkowników rdzeń, złożony z kilku tysięcy słów zrozumiałych dla wszystkich i powszechnie używanych, oraz na słownictwo rzadsze, np. specjalistyczne, stosowane sporadycznie lub tylko w pojedynczych utworach. Ponadto w pojedynczych utworach istnieje pewna ciągłość akcji, która sprawia, że jedne słowa występują częściej niż inne nie z powodu ogólnych własności języka, ale z powodu wyboru uwarunkowań związanych z treścią książki czy innej publikacji. Przykładem są np. imiona i nazwiska bohaterów książki, które w konkretnym utworze pojawiają się często i mająmałąwartośćr,agdyteksttenumieścisięwdużymzbiorzetypukorpusukilkuset lubkilkutysięcyksiążek,toteimionainazwiskaprzesunąsięnawykresiezipfadalekow stronę dużych R. To także może być czynnikiem, powodującym załamanie się skalowania typu 1/R w korpusie. Zależność F(R) z dwoma obszarami skalowania potęgowego można opisać za pomocą jednego równania poprzez uogólnienie prawa Zipfa-Mandelbrota na poziomie różniczkowym[195]. Postać(94) jest rozwiązaniem równania: df(r) dr = a[f(r)]µ, (95) przyµ=1+1/β.dodającdoprawejstronytegorównaniadodatkowyczłon,otrzymuje 105

116 Rysunek 63: Zależność F(R) dla angielskiej i polskiej wersji Ulissesa J. Joyce a, oryginalnego, polskiego tekstu Lalki B. Prusa oraz angielskiego tekstu Finnegans Wake J. Joyce a. Do danych dopasowane zostały zależności potęgowe, opisywane przez wykładniki β. W przypadku F.W. nie jest możliwe dopasowanie jednej funkcji potęgowej, dlatego rozkładtencharakteryzujądwiewartości:β 1,β 2. się równanie: df(r) dr =b[f(r)]ν (a b)[f(r)] µ, (96) którego rozwiązanie ma, w zależności od wartości F(R), dwa różne zachowania: { F(R) ((µ 1)aR) 1/(1 µ) dla F(R) (a/b 1) 1/(ν µ), F(R) ((ν 1)aR) 1/(1 ν) dla F(R) (a/b 1) 1/(ν µ). (97) Odmienne zasady gramatyczne cechujące język polski są dobrze widoczne na poziomie samych słów, które są silniej odmienne niż słowa angielskie. Typowy rzeczownik ma w języku polskim form fleksyjnych, typowy czasownik- ponad 30 form, podczas gdy wjęzykuangielskimsąto,odpowiednio,2i3formy.częśćformjestużywanaczęsto, jednak znacznie większa część rzadziej, w związku z czym można oczekiwać, że w polskich tekstach względna liczba rzadkich słów jest większa niż w tekstach angielskich. Rzeczywiście, jak wskazuje analiza korpusu polskojęzycznych tekstów literackich, w tym wypadku prawozipfaobowiązujezwykładnikiemβ PL =0,94[197]wobecβ EN =1,05.Różnice między częstotliwością słów w polskim i angielskim są doskonale widoczne, jeśli porówna sięrozkładyf(r)dlategosamegotekstuwdwóchjęzykach.rys.63przedstawiatodla Ulissesa w wersji oryginalnej i w polskim tłumaczeniu M. Słomczyńskiego[198], gdzie β=0,93.polskawersjajestkrótsza(t= ),ale,wzwiązkuzmniejszymwykładnikiem, jest bogatsza w słowa(v = ). Warto odnotować duży zakres zgodności F(R) z funkcją potęgową dla wersji polskiej, a także nadreprezentację słów występujących 1-, 2- i 3-krotnie w porównaniu z funkcją potęgową. Narys.63przedstawionyzostałrównieżrozkładF(R)dla Lalki B.Prusa-tekstu o porównywalnej do Ulissesa długości(t = ), choć mniejszej liczbie różnych 106

117 słów(v =37.520).Wtymprzypadkuwykładnikβ=0,99posiadadośćdużąwartość wporównaniudoβ PL,codotyczyzresztącałejprozytegoautora[197].DladużychR rozkład F(R) zachowuje się tak, jak dla oryginału Ulissesa, odchylając się od zależności potęgowej w dół. Jako ostatni przykład posłuży inna powieść J. Joyce a: Finnegans Wake. W odróżnieniu od pozostałych omawianych tu tekstów, wykres F(R) nie wykazuje w tym wypadku charakteru potęgowego dla szerokiego zakresu rang, lecz dwa węższe zakresy, osobno dla 20<R<200zwyjątkowodużymwykładnikiemβ 1 =1,25iosobnodlaR>500, zestosunkowoniewielkim(jaknajęzykangielski)wykładnikiemβ 2 =0,90. Finnegans Wake to eksperymentalne dzieło o wyjątkowo skomplikowanej strukturze i słownictwie czerpiącym z wielu języków. Osobliwością Finnegans Wake jest narracja w zamierzeniu naśladująca marzenia senne i stan z pogranicza snu i jawy, przez co cały tekst napisany został w konwencji strumienia świadomości. Nietypowa stylistyka utworu przekłada się na nietrywialne własności statystyczne. Można tu wobec tego zaobserwować, jak większa niż normalnie złożoność utworu manifestuje się nie tyle w potęgowym zaniku F(R) wyrażonym przez prawo Zipfa, ale raczej w odstępstwach od niego Podział na części mowy i lematyzacja W klasycznej analizie Zipfa słowa traktowane są jako ciągi liter nie posiadające znaczenia ani nie pełniące żadnych konkretnych funkcji w wypowiedzi. Język w rozumieniu takiej analizy jest amorficzny: po losowym przemieszaniu słów lub po przypisaniu ich do niewłaściwych części mowy rozkład F(R) pozostaje bez zmian, choć tekst traci zupełnie sens. W rzeczywistości jest inaczej: język ma strukturę, słowa nie mogą być dowolnie mieszane i nie może być zmieniana ich rola gramatyczna. Nośnikiem informacji są bowiem nie tylko same słowa, ale także kontekst, w jakim są umieszczone. Kontekst słowu zapewniają zarówno znaczenia sąsiednich słów, jak i struktury gramatyczne, w które te słowa zostały wprzęgnięte. Ważną rolę odgrywa tu między innymi przypisanie słów do poszczególnych części mowy jako podstawowa charakterystyka funkcji, jaką pełnią lub mogą pełnić w zdaniu. Najprostszym rodzajem analizy uwzględniającej gramatyczną niejednorodność języka jest analiza rozkładów F(R) dla słów w ramach różnych części mowy. Oczywiście, podejście to ma sens tylko w odniesieniu do klas otwartych, w których liczba słów jest wystarczająca do stwierdzenia, czy rozkłady mają charakter potęgowy. Dwa teksty w oryginalnych wersjach: Ulisses i Lalka zostały poddane procedurze przypisania wszystkim słowom właściwej dla nich części mowy. Z powodu większej trudności w oznaczaniu słów angielskich, bardziej elastycznych jeśli chodzi o pełnioną funkcję, w tekście Ulissesa wyróżnione zostały tylko dwie klasy: rzeczowniki i czasowniki, a wszystkie pozostałe części mowy zostały potraktowane jako jedna połączona klasa. W Lalce wszystkie podstawowe klasy zostały całkowicie rozróżnione. Zależność częstotliwości słów od rangi dla różnych klas w obu tekstach przedstawia rys. 64. W przeciwieństwie do pełnego zbioru słów, pojedyncze części mowy nie wykazują czytelnych zależności potęgowych w żadnym z tych dwóch tekstów. Spośród wszystkich klas tylko czasowniki posiadają rozkłady, które mogą przypominać rozkłady potęgowe w przeważającej części zakresu R. Jest to widoczne szczególnie dla Ulissesa, ale także w Lalce to właśnie czasowniki są najbliższe zachowaniu potęgowemu. W przypadku pozostałych klas takiego efektu nie obserwuje się. Podobnie jak w przypadku przymiotników i przysłówków w Ulissesie, dla których przybliżone, nie pokazane na wykresie rozkłady otrzymane zostały poprzez wybranie z pełnej 107

118 tabeli rangowej słów, które zazwyczaj pełnią role jednej z tych dwóch części mowy. Fakt, że indywidualne klasy słów nie tworzą rozkładu potęgowego, a tworzy go kompletny zbiór słów, jest wyrazem ich zróżnicowania gramatycznego. Zmniejszanie się nachyleniawykresówf(r)wrazzezmniejszaniemsięrnarys.64wskazujenasłabąreprezentację tych klas w obszarze małych wartości R w zestawieniu wszystkich słów bez podziału na klasy. Istotnie, najczęściej używanymi słowami są słowa reprezentujące klasy zamknięte(przyimki, zaimki, spójniki, a w języku angielskim także przedimki) i to głównie one zajmują miejsca o niskich wartościach R. Z kolei przedstawicieli klas zamkniętych praktycznieniespotykasięwobszarzer>200,arozłożeniesłównależącychdoklas otwartych jest tam mniej więcej jednorodne. Stąd w przypadku pokazanych na wykresie klas otwartych odstępstwa od zależności potęgowej dla małych R i lepsza zgodność z taką zależnością dla dużych wartości R. Niejednorodna pod względem reprezentacji różnych klas struktura rozkładu F(R) dla pełnego zbioru słów jest wynikiem wewnętrznej organizacji języka, w którym słowa najczęściej używane nie stanowią odniesień dla obiektów (te są domeną słów z klas otwartych), a jedynie pełnią rolę czysto gramatyczną. Interesujący jest w tym kontekście przypadek czasowników, których rozkłady rangowe w obu tekstach mają zachowanie najbardziej zbliżone do potęgowego. Można to zinterpretować dwojako. Po pierwsze, czasowniki pełnią w wypowiedzi rolę dualną: większość jest stowarzyszona z konkretnymi czynnościami, jednak wąska grupa czasowników może pełnić też funkcję gramatyczną, tracąc odniesienie do realnych czynności. Przykładem mogą być wyrażenia: będzie pisać, został napisany i will write, have been written, w których czasowniki być, zostać i will, have, be niosą wyłącznie informację o kategoriach gramatycznych czasu i strony, a nie o właściwej czynności, do której odnosi się każde z przytoczonych wyrażeń. Ta dualność sprawia, że wśród najczęstszych słów występują także czasowniki, co przeciwdziała spłaszczaniu się wykresu F(R) dla tej części mowy. Po drugie, nie można wykluczyć, że częstotliwość występowania czasowników, jako klasy odnoszącej się bezpośrednio do czynności, także odzwierciedla zasadę optymalizacji kosztu działania, ale nie na poziomie przekazu informacji, ale samych czynności. Z tego punktu widzenia, częstotliwość wykonywania przez człowieka różnych działań może być opisywana przez rozkład potęgowy, a ta naturalna własność mogłaby być przenoszona na teksty. Jest to oczywiście postulat spekulatywny, jednak, intuicyjnie, idea optymalizacji liczby wykonywanych przez człowieka czynności pod kątem wysiłku/kosztu wydaje się uzasadniona(jest w tym także echo fizycznej zasady najmniejszego działania, której konsekwencją są równania Lagrange a). Drugą, po istnieniu części mowy, manifestacją gramatyki na poziomie słów są formy fleksyjne, znacznie zwiększające liczbę słów, będących symbolicznym odniesieniem do tego samego obiektu. Ten brak wzajemnej jednoznaczności między obiektami i ich reprezentacją leksykalną można ograniczyć, zastępując słowa będące formami pochodnymi przez odpowiednie lematy(formy podstawowe), tj. bezokoliczniki w przypadku czasowników oraz mianowniki liczby pojedynczej w przypadku rzeczowników, przymiotników itd. Podobnie jak oznaczenie części mowy, procedura lematyzacji została przeprowadzona dla oryginału Ulissesa i dla Lalki, a następnie, na bazie tak przetworzonych tekstów, stworzone zostały rozkłady częstotliwości występowania lematów. Porównanie rozkładów dla lematów z rozkładami dla słów pokazane jest na rys. 65. Rozkład lematów w tekście polskim różni się od rozkładu słów w całym zakresie rang, przy czym największa różnica jestwidocznadlarzadkichsłów.wzakresie10<r<1500rozkładskalujesiępotęgowo zwykładnikiemβ (L) 1 =1,03>β,natomiastdlaR>2000widocznyjestdrugiobszar przybliżonegoskalowaniazβ (L) 2 = 1, 52. W Ulissesie także występuje ugięcie rozkładu dladużychr,jednakwzakresierang7 R<1000jegozachowanienieróżnisięodza- 108

119 Rysunek 64: Zależność częstotliwości występowania słowa od jego rangi w ramach jednej częścimowydla Ulissesa J.Joyce a(ugóry)i Lalki B.Prusa(udołu).Wprzypadku Ulissesa oznaczone zostały tylko rzeczowniki i czasowniki. Linie przerywane oznaczają zależności potęgowe charakterystyczne dla pełnych tekstów bez podziału na klasy słów. 109

120 Rysunek 65: Zależność F(R) dla słów(formy odmienione, S) i lematów(formy podstawowe,l)dla Ulissesa J.Joyce a(ugóry)i Lalki B.Prusa(udołu).Linieprzerywane oznaczajązależnościpotęgowezwykładnikamiβ (L) 1,β (L) 2, dopasowane do rozkładu dla lematów. 110

121 chowaniarozkładudlasłówβ (L) 1 =β.drugizakresskalowaniapotęgowegodlar>1000 niemajednaktakdużegowykładnikajakwprzypadku Lalki iwynosiβ (L) 2 =1,17. Pojawienie się drugiego zakresu skalowania dla lematów nie jest zaskakujące, ponieważ liczba rzadko używanych lematów jest mniejsza od liczby rzadko używanych słów(duża część takich słów to formy fleksyjne). Lepiej rozbudowana fleksja polska tłumaczy też większąwartośćwykładnikaβ (L) 2 dla Lalki. Interesujący jest fakt wydłużania się zakresu rang, dla którego, po uwzględnieniu odmiany, obowiązuje skalowanie typu Zipfa. Ponieważ można założyć, że zależność F(R) dla lematów jest bardziej pierwotna językowo(najpierw mogły pojawić się nazwy pojęć, a potem dopiero ich formy pochodne), jest możliwe, że w miarę ewolucji język modyfikował swoją strukturę tak, aby zbliżać się coraz bardziej do optimum w postaci jednorodnej funkcji potęgowej. Niezależnie od tego, innym ciekawym zagadnieniem, które wiąże się z potęgowym charakterem F(R) dla lematów, jest problem, czy skalowanie dotyczy tylko lematów, czy może także obiektów, do których odnoszą się te lematy. Udzielenie odpowiedzi nie jest jednak możliwe na bazie analizy statystycznej lematów, ponieważ ich odwzorowanie na obiekty nie jest wzajemnie jednoznaczne. Potrzebna byłaby do tego analiza kontekstowa znaczeń wszystkich lematów w tekstach, co jest bardzo obszernym i trudnym zadaniem. Jednak wartym realizacji w przyszłości, ponieważ pozwoliłoby to przenieść rozważania z poziomu lingwistycznego na poziom neurobiologiczny, czyli tam, gdzie język naprawdę się tworzy. Drobną, ale istotną przesłanką, że obiekty także mogą podlegać prawom potęgowym, jest fakt, że w języku chińskim prawo Zipfa nie obowiązuje dla pojedynczych ideogramów, będących odpowiednikami morfemów, ale dla ich złożeń (n-gramów), które reprezentują nieco wyższy poziom hierarchiczny niż pojedyncze słowa w językach europejskich, a które są rzeczywistym nośnikiem pojęć w języku chińskim[199]. Jeśli na język naturalny spojrzeć z perspektywy jego funkcjonalności, to łatwo można dostrzec w nim elementy organizacyjne, zgodne z duchem koncepcji HOT. Złożoność silnie zoptymalizowanych układów tego typu ma na celu umożliwienie im przetrwania i niezakłóconego funkcjonowania pomimo wystąpienia przypadkowej awarii, błędu lub innego nieoczekiwanego zdarzenia. Podobnie jest w przypadku języka, którego złożoność także rosła równolegle z koniecznością niezawodnej wymiany coraz bardziej skomplikowanych informacji. W przypadku języka awaria oznacza niemożność zakodowania bądź odkodowania potrzebnej informacji. Jest ona tym większa, im mniej informacji na dany temat można zawrzeć w przekazie w stosunku do obszerności i znaczenia tematu. Tolerancja w tym kontekście oznacza więc zdolność języka do wyrażenia jak największej różnorodności zagadnień i temu też musi służyć optymalizacja jego struktury. Przykładem takiej optymalizacji jest zasada minimalnego wysiłku, sformalizowana przez Mandelbrota, i prowadząca w rezultacie do lingwistycznego prawa Zipfa. Z drugiej strony, nie jest to jedyny możliwy sposób optymalizacji i dlatego spojrzenie na język naturalny z punktu widzenia HOT mogłoby być w przyszłości inspirujące. 111

122 7 FRAKTALNOŚĆ I MULTIFRAKTALNOŚĆ Fraktale, jako obiekty o skomplikowanej geometrii, są często intuicyjnie uznawane za obiekty złożone, a wymiar fraktalny bywa niekiedy traktowany jako miara złożoności. Istnienie struktur o charakterze fraktalnym w układach naturalnych traktuje się zazwyczaj jako manifestację złożonej, nieliniowej natury procesów, które leżą u podstaw tych struktur. Do generatorów takich struktur zaliczyć można m.in. zjawiska krytyczne, samoorganizację w stanie krytycznym, procesy o charakterze kaskad multiplikatywnych, czy wzajemne sprzężenie dwóch lub więcej odmiennych procesów, jak np. w zjawisku agregacji ograniczonej przez dyfuzję czy w procesach modelujących krajobraz, opartych na stymulowaniu dyfuzyjnej erozji skał przez zespół nieliniowych procesów o charakterze atmosferycznym i geologicznym[29]. Ponadto, omawiane w podrozdz. 6.1 procesy Lévy ego o zboczach zanikających asymptotycznie potęgowo(wzór(78)) oraz inne procesy niezmiennicze względem skali są w naturalny sposób związane ze strukturą hierarchiczną i fraktalnością. Patrząc z geometrycznego punktu widzenia, jeśli w procesie typu błądzenia przypadkowego prawdopodobieństwo wykonania długiego skoku będzie znacznie większe niż w klasycznym ruchu Browna o gaussowskim rozkładzie fluktuacji, to trajektoria cząstki będzie składała się z dłuższych okresów pobytu w obszarach o niewielkim promieniu oraz nagłych przelotów w odległe obszary przestrzeni. Z uwagi na potęgowy kształt rozkładów długości skoków, odpowiednie powiększenie jednego z małych obszarów długiego pobytu cząstki da obraz podobny do całości- analogicznie, jak ma to miejsce w przypadku fragmentu fraktala po przeskalowaniu. Klasyczne ruchy Browna także mogą być uważane za procesy fraktalne, jednak nie tworzą one wyraźnej struktury hierarchicznej, jak ma to miejsce np. w przypadku wspomnianych przelotów Lévy ego. Jeśli zamiast obiektów geometrycznych rozpatruje się sygnały, konieczne staje się, oczywiście, uogólnienie pojęcia fraktala na fraktale statystyczne. W takim przypadku nie wymaga się dokładnej niezmienniczości kształtu sygnału względem przekształcenia afinicznego, lecz raczej niezmienniczości jego własności statystycznych, tzn. oczekuje się, że fragment sygnału w krótkim oknie czasowym będzie posiadać(po odpowiednim przeskalowaniu) te same własności, co cały sygnał lub jego fragment w dłuższym oknie. Wśród obiektów i sygnałów fraktalnych szczególne miejsce zajmują multifraktale, czyli fraktale z niejednorodnym rozkładem miary, w których własności skalowania są określone tylko lokalnie[200, 201]. Opis takich obiektów przy pomocy jednego wymiaru fraktalnego jest niepełny i konieczne jest wobec tego stosowanie całej rodziny wymiarów, z których każdy opisuje podzbiór zawierający tylko jeden rodzaj osobliwości. Intuicyjnie, multifraktale stanowią najbardziej złożone obiekty wśród fraktali. 7.1 Fraktale i formalizm multifraktalny Podstawową ilościową charakterystyką obiektów fraktalnych jest wymiar pojemnościowy. Niech Φ będzie zbiorem punktów, będących nośnikiem miary o gęstości µ, zanurzonym wr d iniechlbędziepokryciemφd-wymiarowąsiatkązkomórkamiobokul.wymiar pojemnościowy α jest wtedy zdefiniowany przez: α=limsup l 0 ln n(l) lnl, (98) gdzie n(l) jest liczbą komórek L o niezerowej masie miary. Wymiar α wystarcza do opisu 112

123 fraktala o jednorodnej gęstości µ(monofraktala). W przypadku miary µ(x) rozłożonej niejednorodnie na Φ, sam wymiar pojemnościowy nie wystarcza do pełnego opisu obiektu(multifraktala) i dlatego wprowadza się rodzinę wymiarów uogólnionych Rényi ego D q [202].Niechµ l (k)będziemasąk-tegooczkasiatkiliniechfunkcjarozdziałuz q (l) będziezdefiniowanajakosumamomentówrzęduq : n(l) Z q (l)= [µ l (k)] q. (99) k=1 Wtedy dla zbiorów fraktalnych zachodzi związek: Z q (l) l τ(q ), τ(q )=(q 1)D q. (100) WprzypadkumultifraktalnegozbioruΦ,D q jestmonotoniczniemalejącąfunkcjąq,natomiastwprzypadkumonofraktala:d q =α,gdzieα D 0 jestwymiarempojemnościowym zbioruφ.liczban α (l)komórek,wktórychzbiórpunktówmawymiarα,danajestprzez gdzief(α)id q sązwiązanetransformacjąlegendre a: Wzięciepochodnejwzoru(102)dajezależnośćα(q ): N α (l) l f(α), (101) f(α)=q α (q 1)D q. (102) α(q )= d dq (q 1)D q. (103) Azatem,znającD q możnawyliczyćpostaćfunkcjif(α).dlazbiorówmonofraktalnych f(α)=d 0 =αiwówczasf(α)składasięzpojedynczegopunktu,natomiastdlazbiorów multifraktalnychf(α)jestparabolązmaksimumdlaα(q ) q =0.Funkcjaf(α)nosinazwę spektrum osobliwości. WprzypadkusygnałówocharakterzefraktalnymmetodaliczeniawymiarówD q oparta na funkcji rozdziału(99) nie może zostać efektywnie zastosowana z uwagi na niestacjonarność sygnałów. Jedno z możliwych podejść, będące podstawą analizy fluktuacji detrendowanych(detrended fluctuation analysis, DFA), polega na włączeniu do formalizmuprocedurydetrendującej[203].niechx(t i )będzieszeregiemczasowymodługościt, ay(t j )jegoprofilem,zdefiniowanymjako: j Y(t j )= i ) x), x= i=1(x(t 1 T T x(t i ). (104) i=1 Jeślisjestdługościąsegmentu(skalą),toszeregmożezostaćpodzielonynaM s = T/s rozłącznych segmentów. Dzieląc go na segmenty i zaczynając podział niezależnie od początkuiodkońcaszeregu,otrzymasięwsumie2m s segmentów.usunięcietrenduw segmencieνpoleganalokalnymdopasowaniudoprofiluy(t j )wielomianówχ (k) ν (t j )ozadanymstopniuk,anastępnieichodjęciuody(t j ).Wariancjarezydualnegoszeregujest wtedydlaν=1,...,m s równa: F 2 (ν,s)= 1 s [Y((ν 1)s+i) χ (k) ν (t i )] 2 (105) si=1 113

124 ianalogiczniedlaν=m s +1,...,2M s.nabaziewariancji(105)otrzymujesięfunkcję fluktuacji: F q (s)= 1 { 2Ms } 1/q [F 2 (ν,s)] q /2, (106) 2M s ν=1 będącąodpowiednikiemfunkcjirozdziału(99).wstandardowejmetodziedfaq =2, natomiastwjejwersjimultifraktalnej(mfdfa)dopuszczasię,żeq R[204]. Gdy szereg czasowy ma strukturę fraktalną, funkcja fluktuacji wykazuje zachowanie potęgowe: F q (s) s h(q ). (107) Wykładnikh(q )jestwtedyodpowiednikiemwykładnikaτ(q )wewzorze(100)ijestz nim związany zależnością[204]: τ(q )=q h(q ) 1. (108) Dlaq =2zachodzirelacja:h(2) H,gdzieHjestwykładnikiemHursta,służącym do detekcji autokorelacji o potęgowym zaniku. Jeśli badany sygnał jest monofraktalny, todlakażdegoq zachodzirównośćh(q )=H.Znająch(q )możnawyliczyćspektrum osobliwości f(α), jeśli zastosuje się związki: α(q )=h(q )+q dh(q ) dq, f(α)=q (α(q ) h(q ))+1. (109) α można utożsamić z indeksem Höldera, będącym ilościową miarą lokalnej nieregularności funkcji. W związku z tym wartość f(α) można zinterpretować jako wymiar fraktalny zbioru osobliwości z indeksem Höldera równym α. Ponieważ procedura MFDFA zakłada ciągłość czasu, w przypadku szeregów czasowych nośnik miary ma wymiar 1. W konsekwencjif(α)wswoimmaksimum(dlaq =0)takżemawartość1. WpraktycemetodęMFDFAstosujesięwtensposób,żedlaustalonejwartościq wyliczasięf q (s)wdużymzakresieskals,anastępnienawykresieposzukujesięliniowej zależnościlnf q odlns.współczynniknachyleniajestwtedyrównywykładnikowih(ze wzoru(107)).powtarzająctodlawieluwartościq,otrzymujesięrodzinęwykładników h(q ),zktórychwyliczasięαif(α).zewzględunaskończonądługośćszeregówczasowych, sygnały tworzone przez procesy monofraktalne nie dają punktowego spektrum f(α), lecz stosunkowo wąską parabolę, dlatego właściwa interpretacja empirycznego spektrum wymaga ostrożności. MFDFA nie jest jedynym narzędziem wykorzystywanym w analizie multifraktalnej szeregów czasowych. Przykładem często stosowanej, konkurencyjnej procedury jest metoda maksimów modułow transformaty falkowej(wavelet transform modulus maxima, WTMM), oparta na detekcji skalowania potęgowego współczynników rozwinięcia falkowego[205]. Dokładne porównanie obu metod, WTMM i MFDFA, pokazuje jednak, że ta druga jest bardziej uniwersalna, jeśli chodzi o wiarygodność wyników pod kątem rodzaju badanych sygnałów, ich długości i stabilności ze względu na dobór wewnętrznych parametrów procedury[206*]. Kształt spektrum f(α) jest często traktowany jako wskaźnik stopnia złożoności sygnału fraktalnego lub fraktala geometrycznego. Jako miara ilościowa służy wtedy zakres zmiennościαwustalonychgranicachzmiennościq : α=α max α min =α(q min) α(q max). (110) 114

125 Uzasadnieniem stosowania takiej miary jest fakt, że im większa wartość α, tym większa różnorodność fraktali wchodzących w skład badanego multifraktala. 7.2 Multifraktalny charakter danych finansowych Od czasu wprowadzenia pojęcia multifraktalności[202, 200], własność ta została odkryta empirycznie w danych pochodzących z wielu różnych układów. Wśród najbardziej charakterystycznych przykładów można wymienić własności miary harmonicznej w procesach agregacji ograniczonej przez dyfuzję[207], rozkłady potencjału w przepływie płynów przez porowate medium[208] i rozkłady pola prędkości w turbulencji[209, 210], rozmieszczenie galaktyk i ich gromad[211], procesy rządzące zmianami klimatycznymi[212], rytmem serca[213], i wiele innych. Multifraktalność została także odkryta w danych z rynków finansowych i wydaje się być ich stosunkowo powszechną własnością. Cechę multiskalowania posiadają stopy zwrotu kursów wymiany walut[214, 215], cen akcji i wartości indeksów giełdowych[216, 217] oraz cen towarów[218]. Taką własność posiadają także czasy pomiędzy kolejnymi transakcjami[219*, 220, 221], zmienność[222] i wolumen obrotów[223]. Pochodzenie multifraktalności danych finansowych nie zostało jak dotąd całkowicie wyjaśnione. Według obecnego, częściowego stanu wiedzy na ten temat, multifraktalność ma swoje źródło na poziomie mikroskopowej aktywności rynku: fluktuacji wolumenu i płynności[223]. Na poziomie bardziej abstrakcyjnym multifraktalność jest związana z procesami typu kaskad multiplikatywnych, których najprostsza forma może w przypadku stóp zwrotu na skali czasowej t mieć postać[224]: r t (t)=σ t (t)ε(t), σ u t (t)=w u σ t (t), (111) gdziew u zależytylkoodczynnikaskalującegou<1,σ t (t)jestzmiennościązależnąod czasu, a ε(t) jest szumem typu gaussowskiego. Procesy tego typu są w stanie odtworzyć wiele z empirycznych własności danych finansowych. Przykładem modelu, który wykorzystuje kaskady multiplikatywne, jest multifraktalny model stóp zwrotu(multifractal model of asset returns, MMAR)[225]. Zakłada on deformację rzeczywistego czasu, którego jednostajny upływ nie oddaje dobrze zmian aktywności transakcyjnej, i zastąpienie go multifraktalnym czasem θ(t), który lepiej wyraża to, co dzieje się na rynku. Według modelu MMAR, ewolucja w czasie rzeczywistym logarytmu ceny jest procesem, będącym odpowiednikiemułamkowegoruchubrownab H zwykładnikiemhurstah,alezachodzącymwczasiemultifraktalnym:lnp(t)=b H [θ(t)].procesyopartenamodelummarz późniejszymi rozszerzeniami[226, 227] należą, obok multifraktalnego błądzenia przypadkowego[228], do najbardziej obiecujących narzędzi modelowania rzeczywistej dynamiki rynku, pozwalając odtworzyć najważniejsze fakty stylizowane danych empirycznych Multiskalowanie na rynku walutowym i rynkach akcji Rysunki przedstawiają wyniki analiz różnych typów danych, pochodzących z rynków akcji i rynku walutowego, przy użyciu metody MFDFA. Wielkościami, które najlepiejobrazująwłasnościfraktalnedanychsąfunkcjefluktuacjif q (s),wyliczonedlaróżnychwartościparametrurényi egoq,orazspektraosobliwościf(α).zachowaniefunkcji fluktuacji przy zmianie s pozwala na stwierdzenie, czy zależność funkcji od skali ma postać potęgową(107)i,jeślitak,towjakimzakresies.zkoleipostaćspektrumf(α)pozwala okreslić, przynajmniej w przybliżeniu, czy dane są mono-, czy multifraktalne. 115

126 10-2 F q (s) 10-3 CHF / JPY USD / EUR s [min] s [min] f (α) CHF / JPY GBP / CHF GBP / USD USD / EUR α Rysunek 66:Ugóry:Funkcje fluktuacjif q (s)dlaszeregów czasowych stóp zwrotu CHF/JPYiUSD/EUR( 3 q 3).Pionoweliniewyznaczajągranicezakresuskal s, dla których zostało wyliczone spektrum f(α). U dołu: Spektrum osobliwości f(α) dla par: CHF/JPY, GBP/CHF, GBP/USD, USD/EUR(dane z lat , t = 1 min., T=1, ). Fluktuacje stóp zwrotu kursów wymiany głównych walut(dane D.1.4) mają ewidentnie multifraktalny charakter(rys. 66), przy czym z przedstawionych par walutowych najsilniej multifraktalna(w sensie szerokości spektrum) jest para GBP/USD( α = 0, 17), a najsłabiej-parausd/eur( α=0,06).wprzypadkutejdrugiejparywyniktenmoże nieco zaskakiwać, ponieważ jest to najczęściej obracany rodzaj aktywów finansowych na świecie i, jako taki, mógłby posiadać najbardziej złożone własności fraktalne. Z drugiej jednak strony, powszechność obrótu parą USD/EUR prowadzi do silnej tendencji do uśrednienia wszystkich indywidualnych składowych dynamiki, które w innym wypadku mogłyby prowadzić do bardziej skomplikowanej struktury danych. W odróżnieniu od danych walutowych, szeregi czasowe stóp zwrotu dla akcji prezentują większą rozmaitość własności fraktalnych, które są cechą indywidualną konkretnych spółek.jakpokazujerys.67,możnawyróżnićkilkatypówzachowańfunkcjif q (s).fraktalny charakter danych jest najlepiej widoczny w przypadku tych spółek, dla których istniejejedenszerokizakresskalzpotęgowązależnościąf q (s).przykładowewynikitego typu przedstawiają górne wykresy, otrzymane dla amerykańskich spółek: Bank One i First Union Bank(FTU). Spektra osobliwości dla 10 spółek o podobnym typie skalowania przedstawia rys. 68. Funkcje fluktuacji dla drugiej grupy spółek nie posiadają już tak jednorodnej zależności potęgowej, ale mimo to w węższych zakresach s skalowanie jest wyraźnie widoczne, choć ma różną postać. Tę grupę reprezentują Dell i bank Merrill Lynch(MER, środkowy rząd wykresów na rys. 67). Z kolei istnieje także duża grupa firm, dlaktórychf q (s)niemajączytelnegocharakterupotęgowego,anależądonich,znajdujące się na dolnych wykresach, Automatic Data Processing(AUD) i Exxon Mobil(XON). W przypadku tej pierwszej firmy możliwe byłoby mówienie o przybliżonej monofraktal- 116

127 I I 10-2 I I 10-3 ONE FTU F q (s) I II DELL I II MER AUD s XON s Rysunek67:FunkcjefluktuacjiF q (s)dlastópzwrotu( t=5min.)akcjiwybranych spółekamerykańskichodużejkapitalizacji(danezlat , 3 q 3).Ugóry: spółki,dlaktórychf q (s)posiadająjedenzakresskalowaniapotęgowego(i)oszerokości 2dekad.Wśrodku:spółki,dlaktórychF q (s)posiadajądwaprzedziałyskalowania(i,ii). Udołu:spółki,dlaktórychF q (s)niewykazujązależnościpotęgowej. nościdanychwzakresies>1000min.żadnazwymienionychgrupniedominujewśród analizowanych spółek, co uniemożliwia prezentację wyników typowych dla całego rynku. Na własności fraktalne danych ma wpływ m.in. kapitalizacja spółek oraz częstotliwość obrotuichakcjami[220].różnicewzachowaniuf q (s)wróżnychzakresachskalwiążąsię z ogólnymi własnościami rynku, innymi na krótkich skalach czasowych(gdzie dominują efekty związane z wewnętrzną dynamiką rynku i jego składowych) i innymi na długich skalach(na których uwidaczniają się wpływy zewnętrzne)[229]. Kolejnym typem danych są stopy zwrotu indeksów giełdowych. Analizie poddane zostały dwa indeksy: S&P500 i DAX, które reprezentują dwa duże, dobrze rozwinięte rynki. Szeregi czasowe stóp zwrotu dla t = 1 min., obejmujące lata (dane D oraz D.1.2.2), miały długość T = (S&P500) i T = (DAX). Wyniki zostały zobrazowane na rys. 69. Oba indeksy wykazują istnienie dwóch osobnych zakresów s, w którychzależnośćf q (s)jestwprzybliżeniupotęgowa.zakresijestzwiązanyzbogatszym spektrumwykładnikówh(q )i,cozatymidzie,zszerszymspektrumf(α).spektrumto maporównywalnąszerokośćdlaobuindeksów: α 0,35(S&P500)i α 0,30(DAX). Drugi obszar skalowania, przypadający na pośredni zakres skal i sięgający s = min., jeststowarzyszonyzuboższymzbioremosobliwości: α 0,15(S&P500)i α 0,13 (DAX), choć także porównywalnym w obu przypadkach. Wszystkie spektra f(α) mają maksima przesunięte w stronę α > 0, 5, natomiast ich wykładniki Hursta są bliskie wartości dla klasycznego nieskorelowanego szumu gaussowskiego: H = 0, 50 ± 0, 01. Wynik ten jest w zgodzie z ogólną obserwacją, że rynki dojrzałe charakteryzują się wartościami H w pobliżu 0,5, w przeciwieństwie do rynków wschodzących, których indeksy wykazują persystencję[216]. 117

128 f (α) α Rysunek 68: Spektra osobliwości f(α) dla stóp zwrotu akcji przykładowych amerykańskich spółekopojedynczymdługimzakresiezależnościpotęgowej( 3 q 3) II II F q (s) 10-3 I I 10-4 DAX S&P s [min] s [min] f (α) DAX (I) DAX (II) S&P500 (I) S&P500 (II) α Rysunek69:Ugóry:FunkcjefluktuacjiF q (s)dlaszeregówczasowychstópzwrotuindeksówdaxis&p500wlatach ( 3 q 3).Pionoweliniewyznaczajągranice zakresówskals,dlaktórychwystępujązależnościpotęgowef q (s).udołu:spektraosobliwości f(α) obliczone dla tych samych indeksów w obszarach I(linie przerywane) i II (linie ciągłe). 118

129 10-2 hossa bessa F q (s) s [min] s [min] f (α) hossa bessa α Rysunek70:FunkcjefluktuacjiF q (s)(ugóry)ispektraosobliwościf(α)(udołu)dlastóp zwrotuindeksudaxwokresiewzrostówispadków( 3 q 3).Pionoweliniewyznaczajągranicezakresuskals,dlaktórychzachowaniewykresówF q (s)wobuprzedziałach czasu jest różne. Odpowiednie spektra f(α) wyliczone w tych przedziałach zostały przedstawione na dolnym wykresie. Wstawki na górnych wykresach przedstawiają indeks DAX w okresie II-X 1998(jasna linia) oraz wybrany do analizy okres hossy lub bessy(ciemna linia). Własności multifraktalne stóp zwrotu nie są stałe w czasie i, podobnie jak własności wielu innych miar statystycznych, odzwierciedlają niestacjonarność ewolucji rynku. Efektem, który może stanowić przykład takiej niestacjonarności, jest zależność zachowania funkcjif q (s)odfazyewolucji.rys.70pokazujewynikianalizymfdfadlastópzwrotu indeksu DAX w równoważnych pod względem długości okresach hossy i bessy w 1998 r. Funkcje fluktuacji mają w obu przypadkach podobne zachowanie dla małych i dużych skal s,natomiastróżnicawidocznajestdlaskalpośrednich(150min.<s<1200min.dla hossyi80min.<s<1300min.dlabessy),gdzienachylenief q (s)jestniecomniejsze wokresiehossy.potwierdzajątowartościwykładnikahursta:h=0,43±0,01(hossa) ih=0,47±0,01(bessa).wynikten,świadczący,żebadanyindekswokresiespadków jest mniej antypersystentny niż w okresie wzrostów, jest zgodny z wynikami innej analizy, pokazującej, że prawdopodobieństwo zachowań persystentnych w czasie bessy jest większeniżwczasiehossy[230*].zuwaginafakt,żeokresyspadkówiwzrostów,rozumianych jako lokalny trend, zdarzają się na wszystkich skalach czasowych, od okresów krótszych niż jeden dzień, do okresów wieloletnich, można się spodziewać, że własności danych różnią się między okresami wzrostów i spadków na wszystkich skalach czasu. Z tego punktu widzenia, stopy zwrotu charakteryzują się skomplikowaną dynamiką, złożoną z przeplatających się składowych o odmiennych cechach fraktalnych- a to wyraża samą istotę multifraktalności. 119

130 7.2.2 Mikroskopowe przyrosty cen i czasy międzytransakcyjne Dotychczasomówioneprzykładydotyczyłyszeregówczasowychstópzwrotur t (t i ) dla ceny p(t), która miała charakter funkcji z ciągłym lub periodycznym argumentem. W rzeczywistości problem jest bardziej złożony, ponieważ cena jest znana tylko w chwilach transakcji, a pomiędzy nimi jest nieokreślona(podrozdz. 2.3). Transakcje zachodzą w przypadkowych chwilach, w związku z czym czas rynkowy ma efektywnie charakter dyskretnej zmiennej losowej. Ewolucję ceny konkretnego waloru można zatem przedstawić jako złożenie dwóch procesów stochastycznych: czasu i ceny. Co ciekawe, oba te procesy mają charakter multifraktalny[219*, 220]. Ilustruje to rys. 71, na którym pokazane zostały przykładowe wyniki analizy multifraktalnej logarytmicznych przyrostów cen: ln p ν (i)=lnp ν (t i ) lnp ν (t i 1 ) (112) orazczasówmiędzytransakcyjnych: t i =t i t i 1,gdzieinumerujekolejnetransakcje, zawarte na akcjach spółki ν. W przeciwieństwie do stóp zwrotu, zdefiniowanych wzorem (44) na str. 31, gdzie cena jest próbkowana co ustalony interwał czasu t, przyrosty czasu t i sąterazzmienną.górnyiśrodkowyrządwykresówprzedstawiająfunkcjef q (s) otrzymanedlaszeregówczasowych,odpowiednio,{ ln p ν }i{ t i },dwóchtypowychspółek niemieckich: Deutsche Telekom i VIAG.(Dane dla rynku amerykańskiego nie mogą zostać omówione z uwagi na ich słabą rozdzielczość w czasie.) Skalowanie potęgowe wykresówniejestwprawdzieidealne,jednakpokazująonezależnośćwykładnikówh(q )od q.wyliczonenaichpodstawiespektraosobliwościf(α)majądlaoburodzajówdanych charakter multifraktalny, przy czym różne jest położenie i szerokość krzywych. Spektra dlacensązlokalizowanewpobliżuα=0,5,awykładnikihursta(h 0,48dlaDTE ih 0,46dlaVIA)wskazująnabraksilnychdługozasięgowychkorelacjiwsygnałach i obecność jedynie śladu antypersystencji. Inny charakter mają spektra dla czasów międzytransakcyjnych, których szerokość α jest większa niż dla cen i są one przesunięte w stronędużychwartościα.różnicemiędzywynikamidlaceniczasówsązwiązanezodmienną naturą obu procesów. Fluktuacje cen są procesem ze znakiem, podczas gdy upływ czasumożebyćtylkododatni.ponadtoszeregi{ t i }posiadająsilnekorelacjeczasowe, copokazujewykładnikhursta:h 0,83dlaDTEiH 0,70dlaVIA.Zgodniezeznaną zależnością: β=2(1 H), (113) wiążącąhzwykładnikiempotęgowegozanikufunkcjiautokorelacjic(τ) τ β,wprzypadku tych i innych, nie pokazanych tutaj, spółek, czasy międzytransakcyjne charakteryzują się długą pamięcią, podobnie jak omawiana w podrozdz. 6.2 zmienność. Szeregi{ ln p ν }i{ t i }sąniezależneodsiebieliniowo,jednakwykazujązależności statystycznewyższychrzędów(np.między{ t i }a{ ln p ν }).Dlategoteżmultifraktalność czasu może wpływać na istnienie multifraktalności w ruchach ceny, choć jest mało prawdopodobne, aby było to jedyne źródło tej drugiej. Można więc powiedzieć, że- do pewnego stopnia- dynamika ceny akcji ma postać funkcji fraktalnej, określonej na fraktalnej dziedzinie. Napotyka się w tym miejscu na dość poważny problem braku właściwego narzędzia do analizy tego typu danych. Istniejące metody analizy multifraktalnej, jak MFDFA, WTMM i inne, albo milcząco zakładają jednorodność upływu czasu między pomiarami, albo na ten aspekt nie zwracają w ogóle uwagi, co w obu przypadkach prowadzi do niemożności pełnego ilościowego opisania rzeczywistej dynamiki układu bez uciekania się do nierealistycznych założeń o naturze danych. 120

131 10-1 DTE VIA F q (s) 10-2 cena F q (s) , czas f (α) 0,9 0,8 cena czas 0,7 0,2 0,4 0,6 0,8 1,0 1,2 α Rysunek71:FunkcjefluktuacjiF q (s)dlaszeregówczasowychprzyrostówceny(ugóry)i czasów między kolejnymi transakcjami(w środku) oraz odpowiednie spektra osobliwości f(α)(u dołu) dla akcji przykładowych spółek z rynku niemieckiego: DTE(T = ) i VIA(T = ). Pionowe linie wyznaczają granice zakresu skal s, dla których wyliczone zostały spektra f(α) Źródła multifraktalności Aby odpowiedzieć na pytanie, jaka własność danych finansowych jest rzeczywistym źródłem ich multifraktalności, należy przede wszystkim zauważyć, że multifraktalność jest zjawiskiem nieliniowym, dlatego jej źródłem nie mogą być jakiekolwiek korelacje liniowe. Możliwą przyczyną multifraktalności są natomiast nieliniowe korelacje stóp zwrotu(np. długa pamięć w zmienności, ujemne korelacje krzyżowe pomiędzy zmiennością w danej chwili i znakiem późniejszych stóp zwrotu, korelacje wyższych rzędów itp.), które w danych finansowych są powszechne i silne. Procesy o gaussowskim rozkładzie fluktuacji(np. przyrosty w ułamkowym ruchu Browna) charakteryzują się monofraktalnym spektrum f(α). Jeśli jednak rozkłady fluktuacji w jakimś procesie mają charakter leptokurtyczny, wtedy jego spektrum osobliwości może nie być monofraktalem. Ma to np. miejsce w przypadku przelotów Lévy ego o fluktuacjach opisywanych rozkładami stabilnymi[231] oraz obciętych przelotów Lévy ego(79), których spektraf(α)sąasymptotyczniebifraktalne[232]iskładająsięzdwóchpunktów:(0;0)i (1/α L ;1),gdzieα L jestparametremstabilnościrozkładulévy ego(78). W przypadku danych empirycznych z rynków finansowych, wskazanie, czy za szerokie spektra f(α) odpowiedzialne są korelacje, czy leptokurtyczne zbocza rozkładów, jest w literaturze przedmiotem kontrowersji. Typowe podejście polega na zmierzeniu, przy ustalonymzakresiezmiennościq,szerokości α,zdefiniowanejwzorem(110),dlaspektrum otrzymanego z oryginalnych danych oraz z danych przemieszanych losowo(surogatów), w których zniszczone zostały wszystkie korelacje czasowe. W tym drugim wypadku, jeśli f(α) wykazuje kształt multifraktalny, to multifraktalność pochodzi od rozkładów. Nato- 121

132 10-2 II II F q (s) 10-3 I I 10-4 DAX surogaty s [min] s [min] 1.0 f (α) DAX (I) surogaty (I) DAX (II) surogaty (II) α Rysunek72:FunkcjefluktuacjiF q (s)(ugóry)ispektraosobliwościf(α)(udołu)dla stóp zwrotu indeksu DAX oraz dla szeregów przemieszanych losowo(dane z lat , t=15s, 3 q 3).FunkcjeF q (s)dlasurogatówodpowiadają5niezależnym ich realizacjom. Pionowe linie wyznaczają granice zakresów skal s, dla których występuje przybliżoneskalowaniepotęgowef q (s). miast różnica między obiema szerokościami może zostać przypisana wpływowi korelacji. Pierwszy wynik dla danych dziennych, pochodzących z rynku akcji i rynku towarowego, wskazywał, że głównym źródłem multiskalowania szeregów czasowych stóp zwrotu jest niegaussowskość ich rozkładów, a korelacje odgrywają tylko drugorzędną rolę[218]. Późniejsza analiza danych wysokiej częstości z rynków akcji przyniosła tymczasem wynik odwrotny i to korelacje zostały uznane za podstawowe źródło multifraktalności stóp zwrotu[233*]. Te dwa przeciwstawne rezultaty skłoniły różnych autorów do badań opartych o dane z innych rynków, jednak badania te nie przyniosły rozstrzygnięcia problemu[174*, 234, 235, 236, 237], choć duża grupa autorów wskazywała na rozkłady jako główny czynnik sprawczy. Sporna kwestia może jednak zostać rozstrzygnięta, jeśli weźmie się pod uwagę, że rozkłady stóp zwrotu nie są ani stabilne w sensie uogólnionego centralnego twierdzenia granicznego, ani rozkłady zsumowanych stóp nie są szybko zbieżne do rozkładu normalnego. Postać tych rozkładów ma charakter pośredni i sprzyja raczej powolnej zbieżności (podrozdz.6.2).tooznacza,żefunkcjafluktuacjif q (s)ispektraf(α)mogąodzwierciedlać charakter zbieżności i zachowywać się odmiennie w różnych zakresach skal s[238*]. Jako przykład ilustrujący to spostrzeżenie posłuży szereg czasowy stóp zwrotu indeksu DAX dla t = 15 s, obejmujący notowania z lat (Dodatek D.1.1.2). Szereg ten ma długość T = , co umożliwia wiarygodną statystycznie analizę dla stosunkowo dużegozakresuskals RodzinęfunkcjiF q (s)wyliczonychdlategoszereguprzedstawiarys.72(wykresugóry po lewej). Widoczne są dwa obszary skalowania potęgowego tych funkcji: pierwszy, persystentnyobszar(h=0,63)odpowiadas<60min.,natomiastdrugiobszar,pozbawiony 122

133 F q (s) q=1.5 q=1.6 F q (s) q=1.65 q= s s Rysunek73:FunkcjefluktuacjiF q (s),q [ 4;4]dlasztucznychszeregówczasowycho rozkładzie q-gaussowskim z różnymi wartościami parametru q i o jednakowej długości T=10 6.Pionowelinienawykresachwskazujązmianęreżimuskalowaniapotęgowegoz asymptotycznie multifraktalnego(l-ctg) na asymptotycznie monofraktalny(ctg). efektówpamięci(h=0,50),odpowiadas>60min.spektraf(α)wobuprzypadkach wykazują multiskalowanie, widoczne na dolnym wykresie tego samego rysunku, przy czym w obszarze I różnorodność osobliwości( α 0, 33) jest znacznie większa niż w obszarzeii( α 0,14).Poprawejstronieugórynarys.72przedstawionezostałyfunkcje F q (s)dlaszeregówczasowychsurogatów,otrzymanychzoryginalnychdanychpoprzez ich losowe przemieszanie. Dotychczasowy obszar I nie wykazuje już jednolitego skalowaniapotęgowegoiztrudnościąmożnawyróżnićwnimniewielkizakresskal12min.<s< 120min.,wktórymdaneskalująsięmultifraktalnie( α 0,19).Wporównaniudo oryginalnych danych, obszar II całkowicie utracił własności multifraktalne i stał się w dobrym przybliżeniu monofraktalny( α 0, 015). Zgodnie z oczekiwaniem, w całym zakresie rozpatrywanych skal s dane nie mają korelacji(h = 0, 50). Stosując standardową interpretację tych wyników, w obszarze I multifraktalność oryginalnych danych pochodzi głównie od korelacji czasowych, choć wkład od grubych ogonów jest także istotny, natomiast w obszarze II jedynym źródłem multifraktalności są korelacje. W celu lepszego zrozumienia, skąd bierze się ślad multifraktalności w obszarze I w surogatach, warto rozważyć modelowe dane o znanych własnościach statystycznych. Doskonale do tego nadają się szeregi czasowe, których wartości odpowiadają niezależnym zmiennym losowymorozkładzieq-gaussowskimg q (x)(wzór(87)nastr.101).założenieoniezależności zmiennych jest kluczowe, ponieważ rozkłady q-gaussowskie nie są wówczas stabilne ze względu na splot. Zmieniając wartość parametru Tsallisa q można otrzymać rozkłady o różnej szybkości zaniku ogonów i odpowiednie zmienne losowe, podlegające różnym wersjom centralnego twierdzenia granicznego(ctg). W przypadku q < 5/3 atraktorem dlarozkładówg q (x)jestklasycznyrozkładgaussa(będącyszczególnymprzypadkiem rozkładu q-gaussowskiego dla q = 1), natomiast dla q > 5/3 atraktorami są właściwe 123

134 T = 10 6 T = 10 5 T = 10 4 CTG L-CTG α q Rysunek 74: Szerokość α spektrów osobliwości f(α) dla sztucznych szeregów czasowych o rozkładzie q-gaussowskim z różnymi wartościami parametru q i o różnej długości T. Krzywa oznaczona linią przerywaną dla q > 5/3 pokazuje teoretyczną wartość α = 1/α L dlarozkładówstabilnych.dlaq<5/3analogicznawartość α=0.wskaźniki błędów przy każdym z punktów na wykresie pokazują odchylenie standardowe wartości α obliczone z 5 niezależnych realizacji tego samego szeregu czasowego. Pionowa linia w q = 5/3 symbolizuje zmianę reżimu asymptotycznej zbieżności rozkładów z reżimu Gaussa (CTG) na reżim Lévy ego(l-ctg). rozkłady stabilne Lévy ego, przy czym właściwość jest określona przez związek: α L = 3 q q 1. (114) Na rys. 73 pokazane zostały funkcje fluktuacji dla przykładowych szeregów czasowych o jednakowejdługościt =10 6,różniącychsięwartościąq.Wrazzjejwzrostemrozkłady danych charakteryzują się coraz łagodniej opadającymi zboczami. Gdy q = 1, 5, w praktyczniepełnymzakresiepokazanychskalswykresf q (s)mapostaćmonofraktalną. Jedynie dla najkrótszych skal(s < 100) widoczny jest ślad większej różnorodności wartościwykładnikówh(q ).Naprzeciwległymbiegunieznajdujesięwykresdlaq=1,7, gdzie w ogóle nie występuje obszar monofraktalny, a w całym zakresie skal widoczne jest zachowaniemultifraktalneh(q ).Tawartośćparametruqodpowiadajużobszarowi,w którym obowiązuje uogólniona wersja centralnego twierdzenia granicznego(l-ctg), w którejzmienneorozkładzieg q (x)sązbieżnedozmiennejorozkładziestabilnymlévy ego. Przechodzącnarysunkupomiędzyq=1,5aq=1,7,widać,jakpionowalinia,symbolizująca zmianę reżimu skalowania i przejście z domeny L-CTG(na lewo od linii) do domeny CTG(na prawo od linii), stopniowo przesuwa się z lewego krańca zakresu skal na prawy kraniec i tam znika. Efekt ten jest jeszcze lepiej widoczny na rys. 74, na którym została przedstawiona zależność funkcyjna α(q) dla szeregów o różnej długości T. W przypadku najdłuższychszeregów(t =10 6 )rysunektenilustrujezapomocąinnejmiaryto,cozostało 124

135 już zaprezentowane na rys. 73, jednak lepiej unaocznia wpływ słabej zbieżności z CTG i L-CTG na spektra f(α). W reżimie CTG teoretyczne spektrum osobliwości powinno miećasymptotycznieszerokość α=0.dlat=10 6 jesttowprzybliżeniuspełnione dlaq 1,5,natomiastdlanajkrótszychrozpatrywanychsygnałówodługościT=10 4 -tylkodlaq 1,3.Podążającwstronęq=5/3różnicamiędzystanemfaktycznym a wartością asymptotyczną systematycznie powiększa się, tym silniej, im krótszy sygnał jest analizowany. W przypadku szeregu czasowego stóp zwrotu indeksu DAX, którego spektrum f(α) zostało narysowane na rys. 72, dane empiryczne najlepiej oddaje rozkład q-gaussowski z q 1, 6. Dla tej wartości parametru spektrum dla danych modelowych przewiduje α 0,13±0,08,cozgadzasięzszerokościąodpowiedniegospektrumdla surogatów indeksu DAX na rys. 72, równą 0,19. IstnieniedwóchobszarówskalowaniapotęgowegofunkcjiF q (s)nawykresachnarys.73 dlaq=1,6iq=1,65sprawia,żedopasowaniejednejzależnościpotęgowejjestniemożliweipojawiasięwzwiązkuztymdowolnośćwyboruobszaru,wktórymwyliczanejest f(α).narys.72taniejednoznacznośćzostaławzakresie1,55 q 1,65zobrazowana przez dwie konkurencyjne wartości α(z wyjątkiem szeregów o najmniejszej długości, dlaktórychprzejściemiędzydwomaobszaramijestpłynneiwykładnikh(q )zostałwyliczony tylko orientacyjnie). W obszarze reżimu L-CTG szerokość α jest również większa niż przewidywana teoretycznie, jednak różnica maleje wraz z oddalaniem się od punktu q=5/3. Płynie stąd wniosek, że w otoczeniu punktu zmiany reżimu zbieżności z CTG na L-CTG należy zachować szczególną ostrożność w interpretacji wyników, ponieważ nie istnieje a priori kryterium, które pozwoliłoby wybrać jeden z obszarów skalowania funkcji F q (s).rozpatrującsurogatydanychempirycznych,którychrozkładmożebyćprzybliżony przez rozkład q-gaussowski z q należącym do tego otoczenia, ale posiadające zbyt małą długość, aby możliwe było osiągnięcie zakresu skal umożliwiających zaobserwowanie reżimu monofraktalnego, obserwator mógłby wyciągnąć wniosek, że surogaty mają charakter multifraktalny. Tymczasem efekt ten jest ograniczony tylko do widocznego zakresu skal, powyżej których, w zakresie skal niedostępnych w przypadku krótkich szeregów czasowych,zachowanief q (s)stajesiędiametralnieinne.wzależnościodpodejścia,interpretacja takiego wyniku może być odmienna. Jeśli istotne jest zachowanie asymptotyczne danych, wówczas otrzymane dla krótkich skal multiskalowanie może zostać uznane za pozorne, a prawdziwą multifraktalność można przypisać korelacjom. Natomiast w sytuacji, gdy dopuszcza się rozróżnienie między własnościami danych na krótkich i długich skalach, multiskalowanie surogatów można uznać za fakt. Powyższe podejście jest mniej restrykcyjne niż wnioski, zawarte w innych pracach, wktórychfaktwystąpieniamultiskalowaniawfunkcjifluktuacjif q (s)wprzypadku procesów z założenia monofraktalnych, został uznany za pozorny i wprowadzający w błąd[239, 240]. 7.3 Bańki spekulacyjne jako zjawiska krytyczne Dyskretna niezmienniczość względem skali Koncepcja dyskretnej niezmienniczości względem skali jest uogólnieniem pojęcia ciągłej niezmienniczości, omawianej w rozdz. 6. W tym wypadku układ przechodzi w samego siebietylkopoprzeskalowaniugoprzezczynnikλ n odyskretnychwartościachλ 1,λ 2,..., 125

136 danychprzez:λ n =λ n.dlaobserwablif(x)zachodziwtedyrelacja: f(λ n x)=λ α n f(x)=λnα f(x), (115) gdzieλ=λ 1 jestuprzywilejowanymczynnikiemskalującym.wprowadzeniedoopisu układuczynnikaλiskalpochodnychλ n łamiesymetriębrakucharakterystycznejskali. Czynnik ten definiuje kaskadę, rozpoczynającą się zazwyczaj największą możliwą skalą, o wielkości porównywalnej z rozmiarem układu, lub najmniejszą skalą, porównywalną z rozmiarem mikroskopowych elementów tworzących układ. Rozwiązanie równania(115) nie ogranicza się do funkcji potęgowej i może przyjmować także bardziej ogólną postać, gdzie zależność potęgowa jest modulowana przez dowolną funkcję okresową P(ϕ(x)), której argument ϕ(x) ma okres 1[241]: f(x)=cx β P ( ) lnx. (116) lnλ Rozwinięcie powyższego wyrażenia w szereg Fouriera, nałożenie warunku, że rozwiązanie ma być rzeczywiste i ograniczenie rozwiązania do dominującej składowej pierwszego rzędu, prowadzi do funkcji: f (1) (x)=cx β [1+acos(2π lnx +φ)]. (117) lnλ Zestrukturyf (1) (x)wynika,żenaczęśćcharakteryzującąsięciągłąniezmienniczością względem skali nakładają się oscylacje logperiodyczne, okresowe w ln x. Pojęcie dyskretnej niezmienniczości względem skali bezpośrednio można odnieść do obiektów fraktalnych, w których samopodobieństwo także wymaga zmiany skali o konkretną wartość czynnika skalującego[241]. Niech Φ będzie fraktalem, który tworzy się poprzez kolejne iteracje procedury generującej, a L jego pokryciem siatką komórek o boku l. Jeśli n(l) jest liczbą niepustych komórek pokrycia L, to lokalny wymiar fraktalny, zależny od l, dany jest wzorem: D(l)= lnn(l). (118) lnl W granicy l 0 powyższy wzór przechodzi w definicje wymiaru pojemnościowego(98). Zmniejszając w sposób ciągły rozmiar komórek pokrycia, wymiar D(l) wykonuje oscylacje, rosnąc skokowo za każdym razem, gdy l staje się porównywalny z rozmiarem szczegółów k- tej iteracji procedury tworzącej Φ, i zmniejszając się pomiędzy skokami, gdy n(l) pozostaje stałe, a rośnie wartość ln(1/l). To periodyczne zachowanie wymiaru D(l) można opisać, dopuszczając uogólnienie wymiaru fraktalnego: D k =D+ 2πki lnl, (119) gdzie D jest wymiarem pojemnościowym Φ. W ten sposób wymiar fraktalny obiektu, będący wykładnikiem potęgowej zależności n(l) od l, staje się wielkością zespoloną. Tak jak zwykłe zależności potęgowe z wykładnikami rzeczywistymi są charakterystyczne dla zjawisk krytycznych w układach, gdzie obowiązuje symetria ciągłej niezmienniczości względem skalowania, tak zależności z wykładnikami zespolonymi pojawiają się w układach ze złamaną symetrią, dyskretnie niezmienniczych względem skali. Zmienna x jest w obu tych wypadkach odległością wartości parametru kontrolnego od punktu krytycznego. Łamanie symetrii ciągłej niezmienniczości względem skali może pojawiać się jako efekt wielu procesów, wśród których naturalne, naczelne miejsce zajmują procesy hierarchiczne, 126

137 w tym kaskady, tworzące fraktalny charakter układu. Zachowanie obserwabli opisywane przez rozwiązania zawierające oscylacje logperiodyczne(117) zaobserwowano m.in. w turbulencji, w agregacji ograniczonej przez dyfuzję, w tworzeniu się pęknięć i wstępnych wstrząsów sejsmicznych[241] Oscylacje logperiodyczne jako element dynamiki rynków finansowych Hipoteza o występowaniu zjawiska dyskretnej niezmienniczości względem skali na rynkach finansowych pojawiła się po spostrzeżeniu, że wielkie krachy finansowe, prowadzące do gwałtownego spadku wartości wskaźników(indeksów giełdowych i cen) o kilkadziesiąt procent w ciągu kilku dni, przypominają gwałtowną relaksację naprężeń w uskokach tektonicznych w czasie silnych trzęsień ziemi. Trzęsienia ziemi bywają poprzedzone oscylacjami logperiodycznymi pewnych obserwabli(np. koncentracji jonów określonego typu w wodzie), stąd naturalne zainteresowanie poszukiwaniem tego rodzaju symptomów w danych finansowych[242, 243]. Rolę zmiennej x ze wzoru(117) pełni tutaj odległość w czasieodmomentukrachu:x= t t c.tooznacza,żeczaspodelgadyskretnemuskalowaniu z uprzywilejowanym czynnikiem skalującym λ. Ponieważ trend w obserwabli przy t<t c jestwzrostowy,zachodziwarunek:β<0.wchwilit=t c pojawiasięosobliwość. Przezanalogiędozjawiskkrytycznychczast c nosinazwęczasukrytycznego,choćnie ma całkowitej pewności, czy zjawiska zachodzące wówczas na rynku mają rzeczywiście charakterkrytyczny.mimotomożnaprzyjąć,żewchwilit c zachodzipewnegorodzaju przejście fazowe: ze stanu o mniej więcej zachowanej symetrii podaży i popytu(z niewielką tylko przewagą tego drugiego, co stopniowo podnosi ceny), rynek, spontanicznie łamiąc symetrię, przechodzi do stanu, w którym pojawia się duża przewaga podaży. Jak do tej pory nie wskazano źródła istnienia tego typu niezmienniczości na rynku finansowym. Jedną z możliwych przyczyn jest hierarchiczna organizacja globalnego rynku, tj. zarówno w podziale na poszczególne regiony geograficzne, kraje, giełdy, sektory, podsektory itd., ale również w hierarchii wielkości inwestorów i sum pieniędzy, jakimi obracają. Procesy hierarchiczne są jedną z przyczyn dyskretnej niezmienniczości względem skali i logperiodycznych oscylacji w różnych układach fizycznych, więc uzasadnia to rozważanie tej hipotezy[243]. Dodatkowym argumentem jest tutaj fraktalna struktura dynamiki rynków: ewolucja indeksu w krótkim okresie czasu, po odpowiednim przeskalowaniu osi, jest nieodróżnialna gołym okiem od ewolucji w długim okresie[244]. To z kolei oznacza, że zdarzenia, które z punktu widzenia długoterminowej ewolucji rynku są szumem, na krótkich skalach czasu mogą być uważane za mini-krachy. Jeśli krachy utożsamić z pęknięciem baniek spekulacyjnych, to bańki przez cały czas pojawiają się i pękają na różnych skalach. Ewolucja każdej z baniek, stopniowe jej nadbudowywanie się na normalnej, zdrowej ewolucji obserwabli, ma swoją dramaturgię w postaci trendu i dekorujących go oscylacji logperiodycznych. W tym kontekście całą ewolucję rynku można opisać poprzez ciąg takich baniek, których oscylacje są bańkami na niższym poziomie hierarchii, a te z kolei także mają swoje podstruktury o charakterze lokalnych baniek na jeszcze niższym poziomie organizacji[244]. Ilustruje to rys. 75, na którym ewolucja indeksu S&P500 w latach została przedstawiona jako hierarchia struktur o charakterze logperiodycznym. Mechanizm prowadzący do pojawienia się oscylacji logperiodycznych, choć ciągle nieznany, musi być powiązany z mechanizmem powstawania baniek spekulacyjnych. Te powstają jako wynik stadnych zachowań inwestorów, którzy naśladują decyzje inwestycyjne swojego otoczenia, przy czym niekoniecznie są to zachowania irracjonalne[65]. Jeśli naśladownictwo staje się motywem działania coraz większej grupy inwestorów, to z po- 127

138 S&P S&P t c = t c = t c = IV VII X I IV VII X I IV VII X I IV VII t Rysunek 75: Ewolucja indeksu S&P500 w latach Do danych dopasowane zostały zwalniające funkcje logperiodyczne(117) o czynniku skalującym λ = 2 i oscylacjach typu cos x, tworzące razem 3-poziomową strukturę hierarchiczną. ziomu indywidualnych preferencji dla tej strategii inwestycyjnej, zachowanie to zamienia się w preferencję kolektywną. Rynek jako całość staje się wrażliwy na zaburzenia, a co za tym idzie, przejście z jednej fazy(wzrosty) w drugą(spadki) staje się coraz bardziej prawdopodobne. Jeśli na to nałoży się wspomnianą wyżej strukturę hierarchiczną, to można otrzymać oscylacje logperiodyczne wskaźników rynkowych[245, 246]. Jeśli przyjąć, że zgodność danych empirycznych z modelem opartym na dyskretnej niezmienniczości względem skali nie jest przypadkowa, to nasuwa się wniosek, że w ewolucji obserwabli finansowych istnieją niezwykle silne, wręcz dominujące, składowe deterministyczne o różnym czasie trwania. Ich występowanie oznacza, że traktowanie ceny jako martyngału nie jest uprawnione, a to z kolei stoi w jaskrawej sprzeczności z hipotezą wydajnego rynku. Problem staje się jeszcze bardziej skomplikowany, jeśli weźmie się pod uwagę, że trendy, będące nośnikiem oscylacji, bywają wieloletnie. Co więcej, pojawiły się sugestie, że cała ewolucja gospodarcza świata(lub tylko Stanów Zjednoczonych, zależnie od punktu widzenia) na przestrzeni ostatnich 200 lat, wyrażona przez(częściowo zrekonstruowaną wstecz) ewolucję indeksu S&P500, ma charakter pojedynczego trendu z oscylacjami typu logperiodycznego, prowadzącymi do osobliwości w ciągu najbliższego półwiecza[247, 248]. Trudno wyobrazić sobie, że kolejne pokolenia inwestorów poprzez swoje, ograniczone w czasie, decyzje konsekwentnie budują tę samą bańkę. Dlatego też, jeśli słuszna jest hipoteza o trwającym dwa stulecia trendzie, zjawisko to musi mieć głębszy mechanizm niż tylko długofalowo skorelowane operacje giełdowe i wiązać się z fundamentalnymi prawami szeroko rozumianej ekonomii. Warto w tym miejscu zwrócić uwagę na rys. 76, na którym pokazana została długoterminowa ewolucja podstawowej stopy referencyjnej Banku Rezerwy Federalnej(Fed Prime Rate) z czytelnymi oscylacjami o charakterze logperiodycznym. Wykres ten może stanowić wskazówkę, że dyskretna 128

139 20% FED PRIME RATE 10% FPR 5% 3% 2% 1% t Rysunek 76: Wartość podstawowej stopy referencyjnej Banku Rezerwy Federalnej i dopasowane do danych funkcje logperiodyczne(117) o przyśpieszających i zwalniających oscylacjachzλ=2.wobuprzypadkacht c niezmienniczość względem skali jest głębiej zakorzeniona w mechanizmach gospodarczych niż tylko poprzez rynek akcji Potencjał prognostyczny modelu logperiodycznego Logperiodyczny model ewolucji rynków finansowych, jeśli jest ostrożnie stosowany, okazuje się zaskakująco dobrym narzędziem do przewidywania ruchów indeksów giełdowych i cen towarów[249, 250*, 251*]. Dotychczasowa praktyka pokazała, że wartość użytkowa modelu przewyższa wszystkie znane do tej pory metody analizy fundamentalnej i technicznej, pozwalając wyznaczyć momenty odwrócenia trendów ze stosunkowo niewielkim błędemczasowym,zależnymod t t c.tasamapraktykapokazałajednak,żestosowanie modelu jako systemu automatycznego, bez uwzględnienia skomplikowanej natury rynków, może prowadzić do katastrofalnych w skutkach błędów[252]. Model, oparty na rozwiązaniu(117), ma w wersji przystosowanej do analizy danych finansowych postać 7-parametrową[243]. Kluczowym parametrem jest czynnik skalujący λ, określający szybkość zagęszczania się oscylacji. Jego wartość liczbowa λ 2 ma charakter postulatu, popartego rozległymi obserwacjami empirycznymi[244, 248] oraz odniesieniem do podobnej wartości λ = 2 w innych zjawiskach fizycznych[241]. Ustalenie wartości tego parametru jest fundamentem użyteczności modelu logperiodycznego w prognozowaniu ewolucji rynków. Jeśli wartość λ miałaby być parametrem swobodnym i być dopasowywana do konkretnej sytuacji[65], to wartość użytkowa modelu byłaby wątpliwa. Układ minimów-maksimów w przebiegu danego wskaźnika może być bardzo mylący, ponieważ nie wszystkie zdarzenia na rynku wynikają z długofalowej, wewnętrznej jego ewolucji. Znaczna część wahnięć wskaźników jest skutkiem nieoczekiwanych impulsów zewnętrznych, które mogą, ale wcale nie muszą, wpływać modyfikująco na długofalowe składowe dynamiki. Ustalenie wartości parametru skalującego pozwala w takiej sytuacji na pominięcie niektórych struktur widocznych w danych, jeśli nie pasują one do zakła- 129

140 ROPA BRENT cena [USD] t c = VII X I IV VII X I IV VII X t ZLOTO 900 cena [USD] t c = I II III IV V VI VII VIII IX X XI XII I II III IV V VI t Rysunek 77: Cena baryłki ropy brent(u góry) i uncji złota(u dołu) na giełdzie londyńskiej wrazzdopasowanąfunkcjąlogperiodyczną(117)zλ=2.dlaropyczaskrytycznyt c zgodził się z datą wystąpienia maksimum ceny i odwrócenia trendu, natomiast dla złota odwrócenie trendu nastąpiło 7 dni handlowych wcześniej(szary pionowy pas). Pionowe strzałki na obu wykresach wskazują daty wykonania prognoz. 130

141 danego scenariusza. Tymczasem w przypadku dopasowywania modelu ze swobodnym λ, występowanie wielu struktur w danych może prowadzić do niejednoznaczności wyboru wartości parametrów i, tym samym, zwiększa ryzyko błedów. Przewidywanie bazuje technicznie na wyznaczeniu przybliżonego położenia przyszłych ekstremówoscylacji(coodpowiadaustaleniufazyφw(117))iczasukrytycznegot c dzięki zidentyfikowaniu dwóch kolejnych minimów w danych historycznych, a następnie ekstrapolacji przebiegu funkcji(117) lub jej alternatywnych wariantów w przyszłość. Niesprecyzowany rodzaj funkcji okresowej, nakładającej się na funkcję potęgową we wzorze(116), pozwala na dowolność wyboru konkretnego kształtu oscylacji i lepsze dopasowanie modelu do danych[248]. Rys. 77 przedstawia przykłady skutecznego zastosowania modelu do określenia chwil odwrócenia trendów, widocznych w cenie baryłki ropy brent i uncji złota. Co warto odnotować, w przypadku złota dokładność prognozy wyniosła 6 dni handlowych, natomiast w przypadku ropy brent udało się uzyskać idealną zgodność przewidywań z rzeczywistymzachowaniemrynku.niewielkie,kilkudnioweróżnicemiędzydatąt c adatą rzeczywistej zmiany trendu są naturalną konsekwencją wrażliwości rynku na zaburzenia w pobliżu punktu krytycznego. 131

142 8 REPREZENTACJA SIECIOWA UKŁADÓW ZŁOŻONYCH Podstawą struktury układów złożonych są oddziaływania między ich elementami składowymi. Charakter tych oddziaływań jest specyficzny dla konkretnego układu, co w dużym stopniu utrudnia analizę pod kątem uniwersalności praw rządzących powstawaniem takich układów i ich budową. Ogromną zaletą formalizmu sieciowego jest umożliwienie opisu diametralnie różnych układów w tym samym języku abstrakcyjnych grafów, dzięki czemu możliwe stało się dostrzeżenie wcześniej niewidocznych wspólnych cech wielu układów złożonych. Podstawą formalizmu jest pojęcie węzłów, które utożsamia się z pojedynczymi elementami strukturalnymi lub funkcjonalnymi układu, oraz pojęcie krawędzi, które symbolizują fizyczne oddziaływania lub inne związki pomiędzy parami węzłów. W ten sposób, obok układów o oczywistej strukturze sieciowej, jak systemy transportowe, systemy telekomunikacyjne, czy World Wide Web, analizowane są również układy, których reprezentacje sieciowe mają charakter bardziej abstrakcyjny, np. metabolizm żywej komórki, układ odpornościowy, rynki finansowe itd. Koncepcje wywodzące się z teorii sieci pozwoliły na lepsze zrozumienie mechanizmów rozwoju układów złożonych, przystosowywania do zmieniających się warunków, a także samoorganizacji struktury pod kątem stabilności, w tym odporności na zagrożenia zewnętrzne. Podejście sieciowe do zjawiska złożoności okazało się tak użyteczne, że niektórzy wręcz uważają badania sieci za klucz do zrozumienia zasad funkcjonowania układów złożonych[253]. W niniejszym rozdziale przedyskutowane zostaną własności sieciowych reprezentacji rynków akcji i rynku walutowego. Warto zaznaczyć, że formalizm sieci złożonych zastosowany został z powodzeniem także w odniesieniu do mózgu i języka 8.1 Formalizm i podstawowe własności sieci złożonych Miary opisujące własności sieci SiećzłożonazNwęzłówiEkrawędzijestwpełnizdefiniowana,wprzypadkusieci binarnej,przezmacierzsąsiedztwaa,którejelementamiω ij (i,j=1,...,n)sąliczby0 lub 1, określające istnienie lub nieistnienie krawędzi łączącej węzły i, j N(przy czym i,j1=e),awprzypadkusieciważonejprzezmacierzwagω,którejelementamisąwagi krawędzi(ω ij R).JeśliwsiecibinarnejL ij jestdługościąnajkrótszegopołączeniamiędzy węzłami i, j wyrażoną liczbą pośrednich krawędzi lub węzłów, to charakterystyczna długość ścieżki: 1 L= L ij, (120) N(N 1) i,j N i j jest miarą zwartości sieci. Im większa wartość L, tym węzły są bardziej rozproszone. W przypadkusieciważonejl ij możnazastąpićsumąwagpośrednichkrawędzi. W zależności od miejsca węzłów w strukturze sieci, mają one różne znaczenie. Znaczenie węzła może być określone na wiele sposobów, ale najczęściej jest ono wyrażone przez krotnośćwęzłak i (liczbękrawędzi,którełączągozinnymiwęzłami)lubjegocentralność (betweenness)b i,danąwzorem: b i = j,k N,j k n i (j,k) n(j,k), (121) 132

143 gdzien i (j,k)jestliczbąnajkrótszychścieżekpomiędzywęzłamij,k,któreprzechodzą przez węzeł i, a n(j, k) jest całkowitą liczbą najkrótszych ścieżek pomiędzy j i k. Usunięcie węzła o dużej centralności powoduje znaczne pogorszenie efektywności działania sieci, dlatego wielkość ta jest dość intuicyjną miarą znaczenia węzłów. Topologię sieci binarnej w otoczeniu węzła i charakteryzuje lokalny współczynnik gronowania(clusteringcoefficient)g i,któryokreślailorazrzeczywistejliczbykrawędziw podsieci, składającej się z węzła i oraz wszystkich jego najbliższych sąsiadów, i maksymalnej możliwej liczby krawędzi w tej podsieci. Globalną topologię charakteryzuje średnia zewspółczynnikówg i,wziętapowszystkichwęzłachi N,czyliśredniwspółczynnikgronowania Γ: Γ= 1 g i = 1 j,la ij a jl a li N N k i (k i 1). (122) i Wprzypadkusieciważonychrolękrotnościk i przejmujesiławęzłas i,będącasumąwag odchodzącychodniegokrawędzi.zaodległośćl ij możezostaćwtymprzypadkuuznana suma wag wzięta wzdłuż najkrótszej ścieżki łączącej te węzły lub inna funkcja tych wag; charakterystyczna długość ścieżki L jest wówczas wyliczana analogicznie jak(120). Współczynnik gronowania dla sieci ważonej ma postać[254]: Γ= 1 N i 1 k i (k i 1) i ( ω ij ω jl ω li ) 1/3, ω m,n = j,l ω mn max m,n (ω mn). (123) Duża wartość współczynnika gronowania, zarówno w wersji binarnej, jak i z wagami, jest cechą charakterystyczną sieci o dużej liczbie trójkątów, tj. struktur(motywów), w których z istnienia krawędzi i-j oraz i-l wynika istnienie krawędzi j-l Sieci bezskalowe Zainteresowanie sieciowymi reprezentacjami układów złożonych wzięło swój początek z odkrycia, że topologia sieci World Wide Web jest niezgodna z paradygmatem sieci o przypadkowych połączeniach, który przewidywał poissonowski rozkład liczby odnośników k, kierujących z danego dokumentu do innych dokumentów w sieci(i vice versa): P(k)= e λ λ k, λ=n k! ( N 1 k ) p k (1 p) N 1 k, (124) gdzie p jest prawdopodobieństwem połączenia każdej pary węzłów. Tymczasem w rzeczywistości rozkład ten ma charakter potęgowy[255]: P(k) k γ, γ in 2,1,γ out 2,45. (125) Podobną bezskalową topologię odkryto równocześnie w sieciach społecznych, opisujących współpracę aktorów w filmach(γ 2, 3)[27] i cytowania publikacji naukowych (γ 3)[185], co stało się podstawą do wysunięcia hipotezy o uniwersalności tej cechy w sieciach reprezentujących układy rzeczywiste[27]. Późniejsze badania potwierdziły powszechną obecność tego typu struktury w sieciach o, przynajmniej nominalnie, bardzo różnym charakterze. Obok wspomnianych już typów sieci, bezskalowość zidentyfikowano między innymi w strukturze Internetu(rozumianego jako fizyczne łącza), w sieciach połączeń lotniczych i lotnisk, sieci kontaktów seksualnych, w schemacie rozprzestrzeniania się wirusów i w wielu innych układach[256]. Wśród nich są zarówno sieci o krawędziach ukierunkowanych, jak i pozbawionych kierunku. Z punktu widzenia tematyki tej pracy 133

144 należy jeszcze wspomnieć o pomyślnym zastosowaniu formalizmu grafów do sieci połączeń funkcjonalnych w mózgu[?] i do map sąsiedztwa słów w tekstach literackich[]. W obu przypadkach struktura sieci okazała się być także bezskalowa. Rozpowszechnienie tej konkretnej architektury sieci nie jest przypadkowe, ponieważ sieci bezskalowe charakteryzują się dwoma cechami o fundamentalnym znaczeniu dla efektywności funkcjonowania opartych na nich układów. Po pierwsze, jak pokazały symulacje komputerowe, sieci o potęgowym rozkładzie połączeń są stosunkowo odporne na przypadkowe uszkodzenia/usunięcie węzłów. Większość węzłów w sieci tego typu ma małą krotność i w związku z tym niewielkie znaczenie strategiczne, dzięki czemu wyeliminowanie nawet 80% z nich nie musi oznaczać całkowitej dezintegracji pozostałej części sieci(co zdarza się natomiast w sieciach o przypadkowych połączeniach już po usunięciu średnio ok. 30% węzłów)[258]. Wprawdzie sieci bezskalowe są stosunkowo wrażliwe na uszkodzeniawęzłówcentralnychodużymk i,aleichmałaliczbasprawia,żewtypowychwarunkach, przy braku skoordynowanych ataków na sieć, ich uszkodzenie jest mało prawdopodobne. Po drugie, dzięki optymalnej gęstości połączeń między węzłami, sieci bezskalowe są ekonomiczne. Niewielka charakterystyczna długość ścieżki L sprzyja szybkiemu przepływowi informacji, natomiast silna redukcja liczby krawędzi pozwala na ograniczenie wykorzystania zasobów i wyeliminowanie groźby hiperwrażliwości na fluktuacje, typowej dla gęsto połączonych sieci. Optymalizacja liczby połączeń jest charakterystyczną cechą ogólniejszej klasy tzw. sieci małego świata[259, 260], których podklasą są sieci bezskalowe. Sieci małego świata cechuje duża wartość współczynnika gronowania Γ przy powolnym wzroście Lzliczbąwęzłówsieci,conajwyżejL(N) O(lnN). Z kolei ważną podgrupę sieci bezskalowych tworzą sieci hierarchiczne, w których węzły grupują się w grona, które same są elementami składowymi formacji wyższych rzędów, a te- jeszcze wyższych. Podstawową własnością sieci hierarchicznych jest skalowanie zależności współczynnika gronowania Γ od liczby węzłów o k połączeniach, które powoduje, że węzły o małej krotności posiadają połączenia wewnatrz grona, a tylko nieliczne węzły o relatywnie dużej krotności(węzły centralne) odpowiadają za połączenia z węzłami należącymi do innych gron. Procesem, który jest najczęściej wskazywany jako mechanizm powstawania sieci bezskalowych, jest uprzywilejowane przyłączanie[27]. W procesie tym w każdym kroku n dosiecizłożonejzn n 1 węzłówdodawanyjestnowywęzełzustalonąliczbąpołączeńl, przy czym prawdopodobieństwo µ(i), że nowy węzeł będzie połączony z istniejącym już węzłemi,jestproporcjonalnedokrotnościtegowęzła:µ(i) k i.wtensposóbprocedura przyłączania,startującawkroku1zsiecipoczątkowejon 0 węzłachil 0 krawędziach,po nkrokachdoprowadzadosieci,składającejsięzn 0 +nwęzłówil 0 +lnkrawędzi.jeśli liczba n jest odpowiednio duża, to rozkład krotności węzłów ma postać potęgową typu (125). Choć rozkład potęgowy jest konsekwencją szczególnej, liniowej zależności prawdopodobieństwaµ(i)odk i iprzeztoγ=3jestjedynymmożliwymwynikiem,toprzez odpowiednie modyfikacje procedury przyłączania można uzyskać także inne wartości wykładnika γ, pokrywające się z wartościami empirycznymi[27] Dendrogramy MST Sieci, które nie zawierają cykli, są dendrogramami. W tym wypadku dla każdej pary węzłów istnieje tylko jedna ścieżka, która je łączy. Szczególnym typem dendrogramu jest minimalne drzewo rozpinające(minimum spanning tree, MST), które charakteryzuje się najmniejszą możliwą sumą wag krawędzi spośród wszystkich możliwych do utworze- 134

145 nia dendrogramów rozpiętych na danym zbiorze węzłów. Dendrogram MST tworzy się w oparciuosiećważonązwagami{ω ij }.Istniejekilkaalgorytmówjegokonstrukcji,alepod kątem zagadnień dyskutowanych w tej pracy najbardziej użytecznym jest algorytm opierający się na macierzy korelacji i macierzy odległości, utożsamionej z macierzą wag[261]. Niech sieć będzie zdefiniowana w ten sposób, że każdy jej węzłeł i jest szeregiem czasowym{x i }stowarzyszonymzjakąśobserwabląx i,akażdakrawędźłączącawęzłyi-j mawagęrównąwspółczynnikowikorelacjic ij pomiędzy{x i }a{x j }.Krawędzietakiejsieci sąpozbawionekierunku.ponieważwspółczynnikic ij niespełniająwarunkówmetryki, wprowadzasiępojęcieodległościmiędzywęzłowejd ij : d ij = 2(1 C ij ), (126) którajestmetryką[261].zewzględunawłasnościwspółczynnikakorelacji:0 d ij 2, przyczymdlaidentycznychsygnałówd ij =0,adlasygnałówniezależnychd ij = 2. Algorytm tworzenia MST opiera się w tym wypadku na uszeregowaniu wszystkich krawędziwzględemrosnącejodległościd ij iłączeniuparwęzłówpocząwszyodnajbliższych. Jeśliobawęzłydanejparymająjużpołączeniezinnymwęzłem,wówczaswęzłytenie są łączone krawedzią. Procedurę kontynuuje się aż do momentu, gdy żaden z węzłów nie pozostajeodosobniony.pełnydendrogrammstskładasięwięcznwęzłówie=n 1 krawędzi. Dendrogramy MST mogą posiadać różną topologię w zależności od własności układu węzłów, na których są rozpięte. Topolgię MST można opisać za pomocą niektórych miar, wprowadzonych w podrozdz Charakterystyczna długość ścieżki ma identyczną postać jakw(120),zatowzórnacentralnośćwęzłaiznaczniesięupraszcza: b i = j,l i δ i (j,l) (N 1)(N 2). (127) gdzieδ i (j,l)=1gdywęzełileżynaścieżcepomiędzywęzłamijil,orazδ i (j,l)= 0 w przeciwnym wypadku. Gdy węzeł i jest centrum dendrogramu i ma połączenia ze wszystkimiinnymiwęzłami,wówczasb i =1,natomiastjeśliijestwęzłemperyferyjnymi makrotnośćk i =1,wtedyb i = Rynek akcji jako sieć Struktura rynków finansowych, rozumianych jako abstrakcyjne układy oddziałujących ze sobą aktywów, może zostać przedstawiona w reprezentacji sieci ważonej, w której węzłami są poszczególne aktywa, a krawędziami są wartości miary statystycznej, np. współczynnika korelacji, wyrażającej zależności między obserwablami związanymi z tymi aktywami (cenami, stopami zwrotu, zmiennością itp.)[261, 262]. Tak skonstruowana sieć jest pełna, tzn.posiadawszystkiekrawędzie(e=n 2 N),ponieważjestmałoprawdopodobne,aby dlajakiejśparyaktywówi,jwspółczynnikkorelacjic ij przyjąłdokładniezerowąwartość. Jedną z zalet podejścia sieciowego jest możliwość przedstawienia w zwarty sposób struktury rynku w formie graficznej. Przykładem będzie rynek amerykański, z którego pochodzą szeregi czasowe stóp zwrotu dla akcji 1000 spółek o dużej kapitalizacji, analizowane wcześniej(podrozdz. 3.2) przy pomocy formalizmu macierzowego. Mimo że korelacje między akcjami o różnym poziomie kapitalizacji osiągają pełną siłę dopiero na skalach dłuższych od skali dziennej, to wybrana skala czasowa t = 15 min. odpowiada już korelacjom, które są w pełni identyfikowalne metodami statystycznymi(podrozdz.3.2,[112,113*,263]).zuwaginadużąliczbękrawędzi(e 10 6 ),niemożliwajest 135

146 Rysunek 78: Binarny dendrogram MST oparty na korelacjach pomiędzy stopami zwrotu ( t = 15 min.) 1000 amerykańskich spółek o dużej kapitalizacji. Długość krawędzi między węzłami nie ma znaczenia, a ich przecięcia są artefaktem wizualizacyjnym. SCH JPM MER MWD DOW CMB TXN AXP C FBF SLB BAC ARC INTC FTU BK LOW WFC AA CHV TX YHOO QWST AOL COX MSFT FNM EMC MOT SUNW WCOM QCOM CSCO LU ORCL AMGN IBM T CCU HWP DELL GTW CPQ HD XON EDS MMM BA AHP GCI CBS AIG ONE EMR MMC GLW JNJ ALD F FRE MO KO DIS KMB PNU LLY GE ABT EK G AUD UMG WMT MTC MDT UTX BUD ENE TWX CA VIAB MCD DD PEP CMCS CCL AT PG GTE CL USW BLS BEL GM DH MRK BMY PFE SGP SBC Rysunek 79: Dendrogram MST dla 100 amerykańskich spółek o największej kapitalizacji. Długość krawędzi nie niesie żadnej informacji, natomiast grubość jest proporcjonalna do odpowiednichwagω ij. 136

147 1.0 b i GE C CHV HD MER MWD UN TAR MTA ONE XON CSCO 0.2 PWJ LU BCE SLB BK GTE PNC ING i Rysunek 80: Centralność węzłów w sieci złożonej z akcji 1000 spółek o dużej kapitalizacji. graficzna wizualizacja pełnej sieci; do tego celu wygodniejsza jest jej reprezentacja minimalna w postaci drzewa MST, przedstawionego na rys. 78. Topologia drzewa wskazuje, że sieć ma silnie scentralizowany charakter z głównym węzłem(general Electric) o krotnościk GE =228idwomadrugorzędnymicentramiokrotnościachk C =75(Citigroup) ik CSCO =61(Cisco).Podobniejakwprzypadkuinnychsieciodużejcentralizacji,na rysunku widoczna jest duża liczba peryferyjnych węzłów o krotności 1. W celu określenia położenia konkretnych spółek, z pełnego ich zbioru wybranych zostało 100 największych i na bazie korelacji między nimi powstało mniejsze drzewo MST, widoczne na rys. 79. Struktura grafu oddaje najistotniejsze cechy dużego drzewa z rys. 78 i pokazuje, że ewolucjastópzwrotuge,cicscomacharakterśredniejdladużychgrupspółek,anawet całych rynków(ge dla NYSE, CSCO dla NASDAQ). Rolę centrów ewolucji spółki te zawdzięczają kapitalizacji, która należy do największych wśród spółek o podobnym profilu działalności. Miejsce danej spółki w rynkowej hierarchii znaczenia można wyrazić poprzez wartość jejwspółczynnikacentralnościb i,danegowprzypadkumstwzorem(127).rys.80prezentuje wartości tego współczynnika dla wszystkich 1000 spółek tworzących sieć. Wynika z niego, że znaczenie głównych węzłów w strukturze drzewa jest znacznie większe niż wynikałoby to z ich krotności: przez GE przechodzi 90,5% ścieżek łączących pary węzłów, przezcponad38%,przezcscoponad29%,awięcejniż10%ścieżekprzechodzitakże przezlu,un,ing,one,mwd,xonichv.(jeślistworzysiędlab i wykresrangowy typuzipfa,towdużymzakresierang:b i (R) e 0,036R.) Dzięki dużej centralizacji, drzewo MST na rys. 78 ma zwarty kształt, w wyniku czego długości ścieżek pomiędzy losowo wybranymi węzłami są z reguły niewielkie. Aby prześledzić zachowanie charakterystycznej długości ścieżki L w zależności od liczby węzłów N, policzona została wartość L dla drzew, składających się z różnej liczby węzłów. Do analizy wzięte zostały dane dla rosnącej liczby spółek, począwszy od 10 firm o największej kapitalizacji, aż do pełnego zbioru 1000 firm. Wartości liczbowe przedstawia tab

148 N L(N) 0,91 0,98 1,30 1,31 1,34 1,99 2,43 2,88 3,28 lnn 2,30 3,22 3,91 4,31 4,60 5,52 6,21 6,62 6,91 Tabela 2: Charakterystyczna długość ścieżki w drzewach MST dla różnej liczby N spółek wporównaniudowartościlnn P(x > k) k Rysunek 81: Rozkład skumulowany krotności węzłów sieci dla 1000 spółek o dużej kapitalizacji z rynku amerykańskiego. Do danych dopasowana została funkcja potęgowa z wykładnikiemγ=1,24±0,05.brakzgodnościdanychzmodelempokazuje,żesiećnie ma charakteru bezskalowego. Wynik pokazuje, że L(N) < ln N, co jest zachowaniem spotykanym zarówno w sieciach małego świata, jak i w sieciach o dużej centralizacji. Jednak ze względu na niewielką średniąwartośćwag C ij =0,07,współczynnikgronowaniadlatejsiecijesttakżeniezbyt duży Γ=0,06,coróżnianalizowanąsiećodmodelowychsiecimałegoświata. Dendrogram MST dla rozpatrywanego zbioru spółek nie ma typowej struktury sieci bezskalowej. Pokazuje to wykres na rys. 81, na którym przedstawiony jest skumulowany rozkład liczby węzłów o danej krotności k. W środkowej części rozkładu zauważalna jest tendencja do układania się węzłów w przybliżeniu wzdłuż funkcji potęgowej z wykładnikiemγ=1,24±0,05.jednakżepozatączęściąrozkładwęzłówprezentujecechętypową dla sieci silnie scentralizowanych: węzły najbardziej centralne i najbardziej peryferyjne odchylają końce rozkładu w kierunku powyżej linii skalowania. A zatem sieć złożona z 1000 spółek ujawnia nałożone na siebie dwie struktury: bezskalową, cechującą węzły o umiarkowanej krotności oraz silnie scentralizowaną, reprezentowaną przez pozostałe węzły. Rozważana sieć nie jest więc ani siecią bezskalową, ani siecią małego świata w ścisłym tych słów znaczeniu. Wykazuje jednak pewne cechy sieci obu tych rodzajów. Wydaje się w związku z tym, że wnioski z innej analizy topologii sieci skonstruowanej dla rynku akcji[264], sugerujące, że sieć ta ma- w dużym zakresie krotności węzłów- charakter 138

149 Rysunek 82: Drzewo MST dla 1000 spółek po usunięciu najbardziej kolektywnego stanu własnego macierzy korelacji( czynnika rynkowego ). bezskalowy, należy uznać za zbyt daleko idące. Omawianą sieć można łatwo pozbawić scentralizowanej struktury, odfiltrowując, przy pomocy procedury opisanej w podrozdz. 3.2(wzór(53)), najbardziej kolektywny stan własnymacierzykorelacji,związanyzjejnajwiększąwartościąwłasnąλ 1.Stworzonywten sposób rezydualny dendrogram MST przedstawiony jest na rys. 82. Ma on diametralnie różną topologię od swojego odpowiednika z rys. 78, przypominającą w większym stopniu topologięsieciprzypadkowych.węzłemznajwiększąliczbąkrawędzi(k AEP =65)jestterazspółkaAmericanElectricPower(AEP)oumiarkowanejkapitalizacjiK AEP =6, USD, choć największe znaczenie w strukturze drzewa, wyrażone przez centralność, zachowałaspółkage(b GE =0,65).Inaczejniżdlaoryginalnegodrzewa,wprzypadku drzewarezydualnegowęzłyzajmującekolejnelokatymajązbliżonąwartośćb i.poodfiltrowaniu czynnika rynkowego sieć utraciła więc dotychczasową topologię i obecnie L=16,3 ln1000.wartojednakdodać,żetasiećrezydualnaniejeststrictesieciąo topologii sieci przypadkowej, o czym świadczy stosunkowo duża liczba węzłów o znacznej krotności. Ten wynik potwierdza obserwację z podrozdz. 3.2, gdzie rezydualna macierz korelacji posiadała w dalszym ciągu wartości własne wykraczające poza obszar macierzy przypadkowych(rys. 13 na str. 39). Cechą charakterystyczną drzewa przedstawionego na rys. 82 jest dobrze widoczna struktura gronowa. Grona tworzą grupy spółek silniej skorelowanych między sobą niż z resztą rynku. Taką strukturę sektorową można zidentyfikować, stosując metodę filtracji elementów macierzy korelacji o wartościach poniżej ustalonego progu p[119](metoda ta została już zastosowana do rynku walutowego w podrozdz. 3.3). Na bazie pozostałych, niezerowych elementów można utworzyć małe, rozłączne sieci mocno powiązanych ze sobą węzłów, odpowiadających spółkom o podobnym profilu działalności. Pocedura ta jest 139

Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu rubidowego

Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu rubidowego Prof. dr hab. Jan Mostowski Instytut Fizyki PAN Warszawa Warszawa, 15 listopada 2010 r. Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu

Bardziej szczegółowo

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej

Bardziej szczegółowo

Obliczenia inspirowane Naturą

Obliczenia inspirowane Naturą Obliczenia inspirowane Naturą Wykład 02 Jarosław Miszczak IITiS PAN Gliwice 06/10/2016 1 / 31 Czego dowiedzieliśmy się na poprzednim wykładzie? 1... 2... 3... 2 / 31 1 2 3 3 / 31 to jeden z pierwszych

Bardziej szczegółowo

Wykład 2. Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova)

Wykład 2. Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova) Wykład 2 Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova) 1. Procesy Markova: definicja 2. Równanie Chapmana-Kołmogorowa-Smoluchowskiego 3. Przykład dyfuzji w kapilarze

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą

Bardziej szczegółowo

Algorytm genetyczny (genetic algorithm)-

Algorytm genetyczny (genetic algorithm)- Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie

Bardziej szczegółowo

Modelowanie wieloskalowe. Automaty Komórkowe - podstawy

Modelowanie wieloskalowe. Automaty Komórkowe - podstawy Modelowanie wieloskalowe Automaty Komórkowe - podstawy Dr hab. inż. Łukasz Madej Katedra Informatyki Stosowanej i Modelowania Wydział Inżynierii Metali i Informatyki Przemysłowej Budynek B5 p. 716 lmadej@agh.edu.pl

Bardziej szczegółowo

Efekty kształcenia dla kierunku studiów CHEMIA studia pierwszego stopnia profil ogólnoakademicki

Efekty kształcenia dla kierunku studiów CHEMIA studia pierwszego stopnia profil ogólnoakademicki Załącznik nr 1 Efekty kształcenia dla kierunku studiów CHEMIA studia pierwszego stopnia profil ogólnoakademicki Umiejscowienie kierunku w obszarze kształcenia Kierunek studiów chemia należy do obszaru

Bardziej szczegółowo

CZYM SĄ OBLICZENIA NAT A URALNE?

CZYM SĄ OBLICZENIA NAT A URALNE? CZYM SĄ OBLICZENIA NATURALNE? Co to znaczy obliczać (to compute)? Co to znaczy obliczać (to compute)? wykonywać operacje na liczbach? (komputer = maszyna licząca) wyznaczać wartości pewnych funkcji? (program

Bardziej szczegółowo

ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI

ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI 1 ĆWICZENIE 15 BADANIE WZMACNIACZY MOCY MAŁEJ CZĘSTOTLIWOŚCI 15.1. CEL ĆWICZENIA Celem ćwiczenia jest poznanie podstawowych właściwości wzmacniaczy mocy małej częstotliwości oraz przyswojenie umiejętności

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Bardziej szczegółowo

Jednowymiarowa mechanika kwantowa Rozpraszanie na potencjale Na początek rozważmy najprostszy przypadek: próg potencjału

Jednowymiarowa mechanika kwantowa Rozpraszanie na potencjale Na początek rozważmy najprostszy przypadek: próg potencjału Fizyka 2 Wykład 4 1 Jednowymiarowa mechanika kwantowa Rozpraszanie na potencjale Na początek rozważmy najprostszy przypadek: próg potencjału Niezależne od czasu równanie Schödingera ma postać: 2 d ( x)

Bardziej szczegółowo

WIEDZA T1P_W06. K_W01 ma podstawową wiedzę o zarządzaniu jako nauce, jej miejscu w systemie nauk i relacjach do innych nauk;

WIEDZA T1P_W06. K_W01 ma podstawową wiedzę o zarządzaniu jako nauce, jej miejscu w systemie nauk i relacjach do innych nauk; SYMBOL Efekty kształcenia dla kierunku studiów: inżynieria zarządzania; Po ukończeniu studiów pierwszego stopnia na kierunku inżynieria zarządzania, absolwent: Odniesienie do obszarowych efektów kształcenia

Bardziej szczegółowo

Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1

Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność obliczeń równoległych Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność Przy rozważaniu wydajności przetwarzania (obliczeń, komunikacji itp.) często pojawia się pojęcie skalowalności

Bardziej szczegółowo

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania Prognozowanie i Symulacje. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Szeregi czasowe 1 Szeregi czasowe 2 3 Szeregi czasowe Definicja 1 Szereg czasowy jest to proces stochastyczny z czasem dyskretnym

Bardziej szczegółowo

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH Transport, studia I stopnia rok akademicki 2012/2013 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Adam Wosatko Ewa Pabisek Pojęcie

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a

Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji

Bardziej szczegółowo

Twierdzenie 2: Własności pola wskazujące na istnienie orbit

Twierdzenie 2: Własności pola wskazujące na istnienie orbit Cykle graniczne Dotychczas zajmowaliśmy się głównie znajdowaniem i badaniem stabilności punktów stacjonarnych. Wiele ciekawych procesów ma naturę cykliczną. Umiemy już sobie poradzić z cyklicznością występującą

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. dr inż. Paweł Pełczyński

Modelowanie i obliczenia techniczne. dr inż. Paweł Pełczyński Modelowanie i obliczenia techniczne dr inż. Paweł Pełczyński ppelczynski@swspiz.pl Literatura Z. Fortuna, B. Macukow, J. Wąsowski: Metody numeryczne, WNT Warszawa, 2005. J. Awrejcewicz: Matematyczne modelowanie

Bardziej szczegółowo

166 Wstęp do statystyki matematycznej

166 Wstęp do statystyki matematycznej 166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej

Bardziej szczegółowo

Wykład FIZYKA I. 5. Energia, praca, moc. http://www.if.pwr.wroc.pl/~wozniak/fizyka1.html. Dr hab. inż. Władysław Artur Woźniak

Wykład FIZYKA I. 5. Energia, praca, moc. http://www.if.pwr.wroc.pl/~wozniak/fizyka1.html. Dr hab. inż. Władysław Artur Woźniak Wykład FIZYKA I 5. Energia, praca, moc Dr hab. inż. Władysław Artur Woźniak Instytut Fizyki Politechniki Wrocławskiej http://www.if.pwr.wroc.pl/~wozniak/fizyka1.html ENERGIA, PRACA, MOC Siła to wielkość

Bardziej szczegółowo

Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych

Mechatronika i inteligentne systemy produkcyjne. Modelowanie systemów mechatronicznych Platformy przetwarzania danych Mechatronika i inteligentne systemy produkcyjne Modelowanie systemów mechatronicznych Platformy przetwarzania danych 1 Sterowanie procesem oparte na jego modelu u 1 (t) System rzeczywisty x(t) y(t) Tworzenie

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

INSTRUKCJA DO ĆWICZENIA NR 7

INSTRUKCJA DO ĆWICZENIA NR 7 KATEDRA MECHANIKI STOSOWANEJ Wydział Mechaniczny POLITECHNIKA LUBELSKA INSTRUKCJA DO ĆWICZENIA NR 7 PRZEDMIOT TEMAT OPRACOWAŁ LABORATORIUM MODELOWANIA Przykładowe analizy danych: przebiegi czasowe, portrety

Bardziej szczegółowo

J. Szantyr Wyklad nr 6 Przepływy laminarne i turbulentne

J. Szantyr Wyklad nr 6 Przepływy laminarne i turbulentne J. Szantyr Wyklad nr 6 Przepływy laminarne i turbulentne Zjawisko występowania dwóch różnych rodzajów przepływów, czyli laminarnego i turbulentnego, odkrył Osborne Reynolds (1842 1912) w swoim znanym eksperymencie

Bardziej szczegółowo

określone Uchwałą Senatu Uniwersytetu Kazimierza Wielkiego Nr 156/2012/2013 z dnia 25 września 2013 r.

określone Uchwałą Senatu Uniwersytetu Kazimierza Wielkiego Nr 156/2012/2013 z dnia 25 września 2013 r. Załącznik Nr 5.1 do Uchwały Nr 156/2012/2013 Senatu UKW z dnia 25 września 2013 r. EFEKTY KSZTAŁCENIA określone Uchwałą Senatu Uniwersytetu Kazimierza Wielkiego Nr 156/2012/2013 z dnia 25 września 2013

Bardziej szczegółowo

Metody badań w naukach ekonomicznych

Metody badań w naukach ekonomicznych Metody badań w naukach ekonomicznych Tomasz Poskrobko Metodyka badań naukowych Metody badań ilościowe jakościowe eksperymentalne Metody badań ilościowe jakościowe eksperymentalne Metody ilościowe metody

Bardziej szczegółowo

Tadeusz Lesiak. Dynamika punktu materialnego: Praca i energia; zasada zachowania energii

Tadeusz Lesiak. Dynamika punktu materialnego: Praca i energia; zasada zachowania energii Mechanika klasyczna Tadeusz Lesiak Wykład nr 4 Dynamika punktu materialnego: Praca i energia; zasada zachowania energii Energia i praca T. Lesiak Mechanika klasyczna 2 Praca Praca (W) wykonana przez stałą

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

M T E O T D O ZI Z E E A LG L O G R O Y R TM

M T E O T D O ZI Z E E A LG L O G R O Y R TM O ALGORYTMACH I METODZIE ALGORYTMICZNEJ Czym jest algorytm? Czym jest algorytm? przepis schemat zestaw reguł [ ] program ALGORYTM (objaśnienie ogólne) Algorytm Pojęcie o rodowodzie matematycznym, oznaczające

Bardziej szczegółowo

Usługi środowiska w świetle bezpieczeństwa ekologicznego

Usługi środowiska w świetle bezpieczeństwa ekologicznego Artur Michałowski ZMN przy Komitecie Prognoz Polska 2000 Plus PAN Konferencja naukowa Zrównoważony rozwój w polityce spójności w latach 2014-2020. Istota, znaczenie oraz zakres monitorowania Augustów 3-4

Bardziej szczegółowo

Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl

Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl Komputerowe Systemy Przemysłowe: Modelowanie - UML Arkadiusz Banasik arkadiusz.banasik@polsl.pl Plan prezentacji Wprowadzenie UML Diagram przypadków użycia Diagram klas Podsumowanie Wprowadzenie Języki

Bardziej szczegółowo

Szczegółowe wymagania edukacyjne na poszczególne oceny śródroczne i roczne z przedmiotu: FIZYKA. Nauczyciel przedmiotu: Marzena Kozłowska

Szczegółowe wymagania edukacyjne na poszczególne oceny śródroczne i roczne z przedmiotu: FIZYKA. Nauczyciel przedmiotu: Marzena Kozłowska Szczegółowe wymagania edukacyjne na poszczególne oceny śródroczne i roczne z przedmiotu: FIZYKA Nauczyciel przedmiotu: Marzena Kozłowska Szczegółowe wymagania edukacyjne zostały sporządzone z wykorzystaniem

Bardziej szczegółowo

Aparaty słuchowe Hi-Fi z Multiphysics Modeling

Aparaty słuchowe Hi-Fi z Multiphysics Modeling Aparaty słuchowe Hi-Fi z Multiphysics Modeling POLITECHNIKA POZNAŃSKA Wydział Budowy Maszyn i Zarządzania Mechanika i Budowa Maszyn Technologia Przetwarzania Materiałów Prowadzący: dr hab. Tomasz Stręk

Bardziej szczegółowo

Hierarchical Cont-Bouchaud model

Hierarchical Cont-Bouchaud model Hierarchical Cont-Bouchaud model inż. Robert Paluch dr inż. Krzysztof Suchecki prof. dr hab. inż. Janusz Hołyst Pracownia Fizyki w Ekonomii i Naukach Społecznych Wydział Fizyki Politechniki Warszawskiej

Bardziej szczegółowo

Wykład 8 i 9. Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna

Wykład 8 i 9. Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna Wykład 8 i 9 Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna dr hab. Agata Fronczak, prof. PW Wydział Fizyki, Politechnika Warszawska 1 stycznia 2017 dr hab. A. Fronczak (Wydział Fizyki PW)

Bardziej szczegółowo

TEORIA PASMOWA CIAŁ STAŁYCH

TEORIA PASMOWA CIAŁ STAŁYCH TEORIA PASMOWA CIAŁ STAŁYCH Skolektywizowane elektrony w metalu Weźmy pod uwagę pewną ilość atomów jakiegoś metalu, np. sodu. Pojedynczy atom sodu zawiera 11 elektronów o konfiguracji 1s 2 2s 2 2p 6 3s

Bardziej szczegółowo

Matematyka dyskretna dla informatyków

Matematyka dyskretna dla informatyków Matematyka dyskretna dla informatyków Część I: Elementy kombinatoryki Jerzy Jaworski Zbigniew Palka Jerzy Szymański Uniwersytet im. Adama Mickiewicza Poznań 2007 4 Zależności rekurencyjne Wiele zależności

Bardziej szczegółowo

Ewolucjonizm NEODARWINIZM. Dr Jacek Francikowski Uniwersyteckie Towarzystwo Naukowe Uniwersytet Śląski w Katowicach

Ewolucjonizm NEODARWINIZM. Dr Jacek Francikowski Uniwersyteckie Towarzystwo Naukowe Uniwersytet Śląski w Katowicach Ewolucjonizm NEODARWINIZM Dr Jacek Francikowski Uniwersyteckie Towarzystwo Naukowe Uniwersytet Śląski w Katowicach Główne paradygmaty biologii Wspólne początki życia Komórka jako podstawowo jednostka funkcjonalna

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Faza Określania Wymagań

Faza Określania Wymagań Faza Określania Wymagań Celem tej fazy jest dokładne określenie wymagań klienta wobec tworzonego systemu. W tej fazie dokonywana jest zamiana celów klienta na konkretne wymagania zapewniające osiągnięcie

Bardziej szczegółowo

Efekt motyla i dziwne atraktory

Efekt motyla i dziwne atraktory O układzie Lorenza Wydział Matematyki i Informatyki Uniwersytet Mikołaja kopernika Toruń, 3 grudnia 2009 Spis treści 1 Wprowadzenie Wyjaśnienie pojęć 2 O dziwnych atraktorach 3 Wyjaśnienie pojęć Dowolny

Bardziej szczegółowo

Wymagania edukacyjne z matematyki w klasie III gimnazjum

Wymagania edukacyjne z matematyki w klasie III gimnazjum Wymagania edukacyjne z matematyki w klasie III gimnazjum - nie potrafi konstrukcyjnie podzielić odcinka - nie potrafi konstruować figur jednokładnych - nie zna pojęcia skali - nie rozpoznaje figur jednokładnych

Bardziej szczegółowo

JAKIEGO RODZAJU NAUKĄ JEST

JAKIEGO RODZAJU NAUKĄ JEST JAKIEGO RODZAJU NAUKĄ JEST INFORMATYKA? Computer Science czy Informatyka? Computer Science czy Informatyka? RACZEJ COMPUTER SCIENCE bo: dziedzina ta zaistniała na dobre wraz z wynalezieniem komputerów

Bardziej szczegółowo

Opinia o pracy doktorskiej pt. On active disturbance rejection in robotic motion control autorstwa mgr inż. Rafała Madońskiego

Opinia o pracy doktorskiej pt. On active disturbance rejection in robotic motion control autorstwa mgr inż. Rafała Madońskiego Prof. dr hab. inż. Tadeusz Uhl Katedra Robotyki i Mechatroniki Akademia Górniczo Hutnicza Al. Mickiewicza 30 30-059 Kraków Kraków 09.06.2016 Opinia o pracy doktorskiej pt. On active disturbance rejection

Bardziej szczegółowo

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa. W rozdziale tym zajmiemy się dokładniej badaniem stabilności rozwiązań równania różniczkowego. Pojęcie stabilności w

Bardziej szczegółowo

Sposoby prezentacji problemów w statystyce

Sposoby prezentacji problemów w statystyce S t r o n a 1 Dr Anna Rybak Instytut Informatyki Uniwersytet w Białymstoku Sposoby prezentacji problemów w statystyce Wprowadzenie W artykule zostaną zaprezentowane podstawowe zagadnienia z zakresu statystyki

Bardziej szczegółowo

Fizyka statystyczna Teoria Ginzburga-Landaua w średnim polu. P. F. Góra

Fizyka statystyczna Teoria Ginzburga-Landaua w średnim polu. P. F. Góra Fizyka statystyczna Teoria Ginzburga-Landaua w średnim polu P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2015 Parametr porzadku W niskich temperaturach układy występuja w fazach, które łamia symetrię

Bardziej szczegółowo

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów

Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów Stochastyczna dynamika z opóźnieniem czasowym w grach ewolucyjnych oraz modelach ekspresji i regulacji genów Jacek Miękisz Instytut Matematyki Stosowanej i Mechaniki Uniwersytet Warszawski Warszawa 14

Bardziej szczegółowo

17. 17. Modele materiałów

17. 17. Modele materiałów 7. MODELE MATERIAŁÓW 7. 7. Modele materiałów 7.. Wprowadzenie Podstawowym modelem w mechanice jest model ośrodka ciągłego. Przyjmuje się, że materia wypełnia przestrzeń w sposób ciągły. Możliwe jest wyznaczenie

Bardziej szczegółowo

FIZYKA A NAUKI SPOŁECZNE KILKA PROBLEMÓW DO WYJAŚNIENIA

FIZYKA A NAUKI SPOŁECZNE KILKA PROBLEMÓW DO WYJAŚNIENIA Prof. UEK dr hab. Czesław Mesjasz Uniwersytet Ekonomiczny w Krakowie mesjaszc@ae.krakow.pl FIZYKA A NAUKI SPOŁECZNE KILKA PROBLEMÓW DO WYJAŚNIENIA Interdyscyplinarne Seminarium: Matematyka i fizyka w socjologii

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

SPOŁECZNE UWARUNKOWANIA INNOWACYJNOŚCI. dr Jagoda Mrzygłocka- Chojnacka

SPOŁECZNE UWARUNKOWANIA INNOWACYJNOŚCI. dr Jagoda Mrzygłocka- Chojnacka SPOŁECZNE UWARUNKOWANIA INNOWACYJNOŚCI dr Jagoda Mrzygłocka- Chojnacka PYTANIE O INNOWACYJNOŚĆ Pytanie o innowacyjność jest pytaniem o warunki powstawania innowacji oraz ich upowszechnienia. Innowacyjność

Bardziej szczegółowo

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań. Analiza stabilności rozwiązań stanowi ważną część jakościowej teorii równań różniczkowych. Jej istotą jest poszukiwanie odpowiedzi

Bardziej szczegółowo

Etapy modelowania ekonometrycznego

Etapy modelowania ekonometrycznego Etapy modelowania ekonometrycznego jest podstawowym narzędziem badawczym, jakim posługuje się ekonometria. Stanowi on matematyczno-statystyczną formę zapisu prawidłowości statystycznej w zakresie rozkładu,

Bardziej szczegółowo

Szkła specjalne Przejście szkliste i jego termodynamika Wykład 5. Ryszard J. Barczyński, 2017 Materiały edukacyjne do użytku wewnętrznego

Szkła specjalne Przejście szkliste i jego termodynamika Wykład 5. Ryszard J. Barczyński, 2017 Materiały edukacyjne do użytku wewnętrznego Szkła specjalne Przejście szkliste i jego termodynamika Wykład 5 Ryszard J. Barczyński, 2017 Materiały edukacyjne do użytku wewnętrznego Czy przejście szkliste jest termodynamicznym przejściem fazowym?

Bardziej szczegółowo

ALGORYTMY GENETYCZNE (wykład + ćwiczenia)

ALGORYTMY GENETYCZNE (wykład + ćwiczenia) ALGORYTMY GENETYCZNE (wykład + ćwiczenia) Prof. dr hab. Krzysztof Dems Treści programowe: 1. Metody rozwiązywania problemów matematycznych i informatycznych.. Elementarny algorytm genetyczny: definicja

Bardziej szczegółowo

Badania marketingowe. Omówione zagadnienia

Badania marketingowe. Omówione zagadnienia Społeczna Wyższa Szkoła Przedsiębiorczości i Zarządzania kierunek: Zarządzanie Badania marketingowe Wykład 6 Opracowanie: dr Joanna Krygier 1 Omówione zagadnienia Rodzaje badań bezpośrednich Porównanie

Bardziej szczegółowo

Dlaczego nie wystarczają liczby wymierne

Dlaczego nie wystarczają liczby wymierne Dlaczego nie wystarczają liczby wymierne Analiza zajmuje się problemami, w których pojawia się przejście graniczne. Przykładami takich problemów w matematyce bądź fizyce mogą być: 1. Pojęcie prędkości

Bardziej szczegółowo

Teoria kinetyczno cząsteczkowa

Teoria kinetyczno cząsteczkowa Teoria kinetyczno cząsteczkowa Założenie Gaz składa się z wielkiej liczby cząstek znajdujących się w ciągłym, chaotycznym ruchu i doznających zderzeń (dwucząstkowych) Cel: Wyprowadzić obserwowane (makroskopowe)

Bardziej szczegółowo

WYMAGANIA EDUKACYJNE Z MATEMATYKI 2016/2017 (zakres podstawowy) klasa 3abc

WYMAGANIA EDUKACYJNE Z MATEMATYKI 2016/2017 (zakres podstawowy) klasa 3abc WYMAGANIA EDUKACYJNE Z MATEMATYKI 2016/2017 (zakres podstawowy) klasa 3abc 1, Ciągi zna definicję ciągu (ciągu liczbowego); potrafi wyznaczyć dowolny wyraz ciągu liczbowego określonego wzorem ogólnym;

Bardziej szczegółowo

biologia rozwoju/bezkręgowce: taksonomia, bezkręgowce: morfologia funkcjonalna i filogeneza i biologia rozwoju mikologia systematyczna

biologia rozwoju/bezkręgowce: taksonomia, bezkręgowce: morfologia funkcjonalna i filogeneza i biologia rozwoju mikologia systematyczna matematyka chemia ogólna i nieorganiczna chemia organiczna biologia roślin podstawy statystyki botanika systematyczna botanika zajęcia terenowe bezkręgowce: morfologia funkcjonalna i biologia rozwoju/bezkręgowce:

Bardziej szczegółowo

POMIAR TEMPERATURY CURIE FERROMAGNETYKÓW

POMIAR TEMPERATURY CURIE FERROMAGNETYKÓW Ćwiczenie 65 POMIAR TEMPERATURY CURIE FERROMAGNETYKÓW 65.1. Wiadomości ogólne Pole magnetyczne można opisać za pomocą wektora indukcji magnetycznej B lub natężenia pola magnetycznego H. W jednorodnym ośrodku

Bardziej szczegółowo

WIEDZA. Ma podstawową wiedzę niezbędną do rozumienia ekonomicznych i innych pozatechnicznych uwarunkowań działalności inżynierskiej.

WIEDZA. Ma podstawową wiedzę niezbędną do rozumienia ekonomicznych i innych pozatechnicznych uwarunkowań działalności inżynierskiej. Efekty kształcenia dla kierunku: LOGISTYKA Wydział: ORGANIZACJI I ZARZĄDZANIA nazwa kierunku studiów: Logistyka poziom kształcenia: studia I stopnia profil kształcenia: ogólnoakademicki symbol K1A_W01

Bardziej szczegółowo

STRESZCZENIE. rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne.

STRESZCZENIE. rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne. STRESZCZENIE rozprawy doktorskiej pt. Zmienne jakościowe w procesie wyceny wartości rynkowej nieruchomości. Ujęcie statystyczne. Zasadniczym czynnikiem stanowiącym motywację dla podjętych w pracy rozważań

Bardziej szczegółowo

Studia I stopnia kierunek: chemia Załącznik nr 3

Studia I stopnia kierunek: chemia Załącznik nr 3 Studia I stopnia kierunek: chemia Załącznik nr 3 Matryca efektów kształcenia określa relacje między efektami kształcenia zdefiniowanymi dla programu kształcenia (efektami kierunkowymi) i efektami kształcenia

Bardziej szczegółowo

Ćwiczenie M-2 Pomiar przyśpieszenia ziemskiego za pomocą wahadła rewersyjnego Cel ćwiczenia: II. Przyrządy: III. Literatura: IV. Wstęp. l Rys.

Ćwiczenie M-2 Pomiar przyśpieszenia ziemskiego za pomocą wahadła rewersyjnego Cel ćwiczenia: II. Przyrządy: III. Literatura: IV. Wstęp. l Rys. Ćwiczenie M- Pomiar przyśpieszenia ziemskiego za pomocą wahadła rewersyjnego. Cel ćwiczenia: pomiar przyśpieszenia ziemskiego przy pomocy wahadła fizycznego.. Przyrządy: wahadło rewersyjne, elektroniczny

Bardziej szczegółowo

Teoria grawitacji. Grzegorz Hoppe (PhD)

Teoria grawitacji. Grzegorz Hoppe (PhD) Teoria grawitacji Grzegorz Hoppe (PhD) Oddziaływanie grawitacyjne nie zostało dotychczas poprawnie opisane i pozostaje jednym z nie odkrytych oddziaływań. Autor uważa, że oddziaływanie to jest w rzeczywistości

Bardziej szczegółowo

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy ewolucyjne NAZEWNICTWO Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne

Bardziej szczegółowo

Program MC. Obliczyć radialną funkcję korelacji. Zrobić jej wykres. Odczytać z wykresu wartość radialnej funkcji korelacji w punkcie r=

Program MC. Obliczyć radialną funkcję korelacji. Zrobić jej wykres. Odczytać z wykresu wartość radialnej funkcji korelacji w punkcie r= Program MC Napisać program symulujący twarde kule w zespole kanonicznym. Dla N > 100 twardych kul. Gęstość liczbowa 0.1 < N/V < 0.4. Zrobić obliczenia dla 2,3 różnych wartości gęstości. Obliczyć radialną

Bardziej szczegółowo

posiada podstawową wiedzę o instytucjonalnych uwarunkowaniach polityki społecznej.

posiada podstawową wiedzę o instytucjonalnych uwarunkowaniach polityki społecznej. Efekty kształcenia dla kierunku POLITYKA SPOŁECZNA studia pierwszego stopnia profil ogólnoakademicki Forma studiów: stacjonarne i niestacjonarne Wydział Ekonomii Uniwersytetu Ekonomicznego w Poznaniu Umiejscowienie

Bardziej szczegółowo

1. Potęgi. Logarytmy. Funkcja wykładnicza

1. Potęgi. Logarytmy. Funkcja wykładnicza 1. Potęgi. Logarytmy. Funkcja wykładnicza Tematyka zajęć: WYMAGANIA EDUKACYJNE NA POSZCZEGÓLNE OCENY KL. 3 POZIOM PODSTAWOWY Potęga o wykładniku rzeczywistym powtórzenie Funkcja wykładnicza i jej własności

Bardziej szczegółowo

Problemy i rozwiązania

Problemy i rozwiązania Problemy i rozwiązania Znakomita większość układów, które badamy liczy sobie co najmniej mol cząsteczek >> 10 23 Typowy krok czasowy symulacji to 10-15 s natomiast zjawiska, które zachodzą wokół nas trwają

Bardziej szczegółowo

Najprostszy schemat blokowy

Najprostszy schemat blokowy Definicje Modelowanie i symulacja Modelowanie zastosowanie określonej metodologii do stworzenia i weryfikacji modelu dla danego układu rzeczywistego Symulacja zastosowanie symulatora, w którym zaimplementowano

Bardziej szczegółowo

- prędkość masy wynikająca z innych procesów, np. adwekcji, naprężeń itd.

- prędkość masy wynikająca z innych procesów, np. adwekcji, naprężeń itd. 4. Równania dyfuzji 4.1. Prawo zachowania masy cd. Równanie dyfuzji jest prostą konsekwencją prawa zachowania masy, a właściwie to jest to prawo zachowania masy zapisane dla procesu dyfuzji i uwzględniające

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Analiza ilościowa w przetwarzaniu równoległym

Analiza ilościowa w przetwarzaniu równoległym Komputery i Systemy Równoległe Jędrzej Ułasiewicz 1 Analiza ilościowa w przetwarzaniu równoległym 10. Analiza ilościowa w przetwarzaniu równoległym...2 10.1 Kryteria efektywności przetwarzania równoległego...2

Bardziej szczegółowo

Pojęcia to. porównanie trzech sposobów ujmowania pojęć. Monika Marczak IP, UAM

Pojęcia to. porównanie trzech sposobów ujmowania pojęć. Monika Marczak IP, UAM Pojęcia to. porównanie trzech sposobów ujmowania pojęć Monika Marczak IP, UAM Takiego zwierzęcia nie ma?????????? Jeśli brakuje umysłowej reprezentacji pewnego fragmentu rzeczywistości, fragment ten dla

Bardziej szczegółowo

BIOTERMODYNAMIKA. PODSTAWY BIOENERGETYKI I TERMOKINETYKI

BIOTERMODYNAMIKA. PODSTAWY BIOENERGETYKI I TERMOKINETYKI BIOTERMODYNAMIKA. PODSTAWY BIOENERGETYKI I TERMOKINETYKI Rozdział 7 BIOTERMODYNAMIKA 7.1. Wstęp Feliks Jaroszyk Biotermodynamika jest dyscypliną naukową, wykorzystującą rozważania termodynamiki fenomenologicznej

Bardziej szczegółowo

DYNAMIKA SIŁA I JEJ CECHY

DYNAMIKA SIŁA I JEJ CECHY DYNAMIKA SIŁA I JEJ CECHY Wielkość wektorowa to wielkość fizyczna mająca cztery cechy: wartość liczbowa punkt przyłożenia (jest początkiem wektora, zaznaczamy na rysunku np. kropką) kierunek (to linia

Bardziej szczegółowo

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań Raport 1/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych z zastosowaniem

Bardziej szczegółowo

Opis kierunkowych efektów kształcenia w obszarze nauk przyrodniczych na I stopniu kierunku BIOLOGIA

Opis kierunkowych efektów kształcenia w obszarze nauk przyrodniczych na I stopniu kierunku BIOLOGIA Opis kierunkowych efektów kształcenia w obszarze nauk przyrodniczych na I stopniu kierunku BIOLOGIA Umiejscowienie kierunku w obszarze kształcenia Kierunek studiów BIOLOGIA o profilu ogólnoakademickim

Bardziej szczegółowo

Definicje. Najprostszy schemat blokowy. Schemat dokładniejszy

Definicje. Najprostszy schemat blokowy. Schemat dokładniejszy Definicje owanie i symulacja owanie zastosowanie określonej metodologii do stworzenia i weryfikacji modelu dla danego rzeczywistego Symulacja zastosowanie symulatora, w którym zaimplementowano model, do

Bardziej szczegółowo

Wstęp do fizyki statystycznej: krytyczność i przejścia fazowe. Katarzyna Sznajd-Weron

Wstęp do fizyki statystycznej: krytyczność i przejścia fazowe. Katarzyna Sznajd-Weron Wstęp do fizyki statystycznej: krytyczność i przejścia fazowe Katarzyna Sznajd-Weron Co to jest fizyka statystyczna? Termodynamika poziom makroskopowy Fizyka statystyczna poziom mikroskopowy Marcin Weron

Bardziej szczegółowo

KULTURA JAKO ZMIENNA WEWNĘTRZNA. związek efektywności i kultury organizacyjnej

KULTURA JAKO ZMIENNA WEWNĘTRZNA. związek efektywności i kultury organizacyjnej KULTURA JAKO ZMIENNA NIEZALEŻNA - narodowe style zarządzania - podobieństwa i różnice w sposobie zarządzania w różnych krajach związek efektywności i kultury narodowej Oprac. na podst. Smircich (1983).

Bardziej szczegółowo

Feynmana wykłady z fizyki. [T.] 1.1, Mechanika, szczególna teoria względności / R. P. Feynman, R. B. Leighton, M. Sands. wyd. 7.

Feynmana wykłady z fizyki. [T.] 1.1, Mechanika, szczególna teoria względności / R. P. Feynman, R. B. Leighton, M. Sands. wyd. 7. Feynmana wykłady z fizyki. [T.] 1.1, Mechanika, szczególna teoria względności / R. P. Feynman, R. B. Leighton, M. Sands. wyd. 7. Warszawa, 2014 Spis treści Spis rzeczy części 2 tomu I O Richardzie P. Feynmanie

Bardziej szczegółowo

Układ RLC z diodą. Zadanie: Nazwisko i imię: Nr. albumu: Grzegorz Graczyk. Nazwisko i imię: Nr. albumu:

Układ RLC z diodą. Zadanie: Nazwisko i imię: Nr. albumu: Grzegorz Graczyk. Nazwisko i imię: Nr. albumu: Politechnika Łódzka TIMS Kierunek: Informatyka rok akademicki: 2009/2010 sem. 3. grupa II Zadanie: Układ z diodą Termin: 5 I 2010 Nr. albumu: 150875 Nazwisko i imię: Grzegorz Graczyk Nr. albumu: 151021

Bardziej szczegółowo

Elementy rachunku różniczkowego i całkowego

Elementy rachunku różniczkowego i całkowego Elementy rachunku różniczkowego i całkowego W paragrafie tym podane zostaną elementarne wiadomości na temat rachunku różniczkowego i całkowego oraz przykłady jego zastosowania w fizyce. Małymi literami

Bardziej szczegółowo

przetworzonego sygnału

przetworzonego sygnału Synteza falek ortogonalnych na podstawie oceny przetworzonego sygnału Instytut Informatyki Politechnika Łódzka 28 lutego 2012 Plan prezentacji 1 Sformułowanie problemu 2 3 4 Historia przekształcenia falkowego

Bardziej szczegółowo

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia Informacja w perspektywie obliczeniowej Informacje, liczby i obliczenia Cztery punkty odniesienia (dla pojęcia informacji) ŚWIAT ontologia fizyka UMYSŁ psychologia epistemologia JĘZYK lingwistyka nauki

Bardziej szczegółowo

Modele cyklu ekonomicznego

Modele cyklu ekonomicznego Prezentacja licencjacka pod kierunkiem dr Sławomira Michalika 03/06/2013 Obserwacje rozwiniętych gospodarek wolnorynkowych wykazują, że nie występują w nich stany stacjonarne, typowe są natomiast pewne

Bardziej szczegółowo

Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron

Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron Zagadka na początek wykładu Diagram fazowy wody w powiększeniu, problem metastabilności aktualny (Nature, 2011) Niższa temperatura topnienia

Bardziej szczegółowo

ĆWICZENIE 3. Farmakokinetyka nieliniowa i jej konsekwencje terapeutyczne na podstawie zmian stężenia fenytoiny w osoczu krwi

ĆWICZENIE 3. Farmakokinetyka nieliniowa i jej konsekwencje terapeutyczne na podstawie zmian stężenia fenytoiny w osoczu krwi ĆWICZENIE 3 Farmakokinetyka nieliniowa i jej konsekwencje terapeutyczne na podstawie zmian stężenia fenytoiny w osoczu krwi Celem ćwiczenia jest wyznaczenie podstawowych parametrów charakteryzujących kinetykę

Bardziej szczegółowo

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:

Bardziej szczegółowo

Nauki reinżynieryjne. Marcin Miłkowski. Zakład Logiki i Kognitywistyki. IFiS PAN

Nauki reinżynieryjne. Marcin Miłkowski. Zakład Logiki i Kognitywistyki. IFiS PAN Nauki reinżynieryjne Marcin Miłkowski Zakład Logiki i Kognitywistyki IFiS PAN Plan Natura z punktu widzenia konstruktora Heurystyka reinżynierii Wyjaśnianie mechanistyczne Mechanizmy w naturze i technice

Bardziej szczegółowo

Tomasz Tobiasz PLAN WYNIKOWY (zakres podstawowy)

Tomasz Tobiasz PLAN WYNIKOWY (zakres podstawowy) Tomasz Tobiasz PLAN WYNIKOWY (zakres podstawowy) klasa 3. PAZDRO Plan jest wykazem wiadomości i umiejętności, jakie powinien mieć uczeń ubiegający się o określone oceny na poszczególnych etapach edukacji

Bardziej szczegółowo

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32 Analiza i projektowanie oprogramowania Analiza i projektowanie oprogramowania 1/32 Analiza i projektowanie oprogramowania 2/32 Cel analizy Celem fazy określania wymagań jest udzielenie odpowiedzi na pytanie:

Bardziej szczegółowo

Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych)

Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych) Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych) Funkcja uwikłana (równanie nieliniowe) jest to funkcja, która nie jest przedstawiona jawnym przepisem, wzorem wyrażającym zależność wartości

Bardziej szczegółowo

Voter model on Sierpiński fractals Model głosujący na fraktalach Sierpińskiego

Voter model on Sierpiński fractals Model głosujący na fraktalach Sierpińskiego Voter model on Sierpiński fractals Model głosujący na fraktalach Sierpińskiego Krzysztof Suchecki Janusz A. Hołyst Wydział Fizyki Politechniki Warszawskiej Plan Model głosujący : definicja i własności

Bardziej szczegółowo