Rola informatyki w naukach ekonomicznych i społecznych Innowacje i implikacje interdyscyplinarne. redakcja ZBIGNIEW E. ZIELIŃSKI

Wielkość: px
Rozpocząć pokaz od strony:

Download "Rola informatyki w naukach ekonomicznych i społecznych Innowacje i implikacje interdyscyplinarne. redakcja ZBIGNIEW E. ZIELIŃSKI"

Transkrypt

1 Rola informatyki w naukach ekonomicznych i społecznych Innowacje i implikacje interdyscyplinarne redakcja ZBIGNIEW E. ZIELIŃSKI Wydawnictwo Wyższej Szkoły Handlowej Kielce 2012

2 Publikacja wydrukowana została zgodnie z materiałem dostarczonym przez Autorów. Wydawca nie ponosi odpowiedzialności za treść, formę i styl artykułów. Komitet Naukowy prof. dr hab. Janusz Lewandowski prof. dr hab. Krzysztof Grysa dr hab. Wiesław Dziubdziela, prof. WSH Redaktor Naczelny prof. zw. dr hab. Tadeusz Grabiński Redaktor Recenzji dr hab. Wiesław Dziubdziela, prof. WSH Recenzenci prof. zw. dr hab. Tadeusz Grabiński prof. dr hab. Krzysztof Grysa prof. nadzw. dr hab. inż. Wacław Gierulski prof. dr hab. Ewa Grzegorzewska Ramocka prof. dr hab. Mieczysław Muraszkiewicz prof. dr hab. Dariusz Adamczak prof. dr hab. Artur Maciąg doc. dr Danuta Mokrosińska dr inż. Edward Wiszniowski dr Katarzyna Bocheńska Włostowska dr Dariusz Żak Redakcja dr Zbigniew E. Zieliński mgr inż. Jarosław Kościelecki mgr Katarzyna Baziuk mgr inż. Artur Janus mgr Urszula Słowik mgr Anna Kukla mgr Piotr Sidor Wydawca publikacji Wyższa Szkoła Handlowa im. B. Markowskiego w Kielcach Projekt PITWIN Portal innowacyjnego Transferu Wiedzy w Nauce ul. Peryferyjna 15, Kielce Copyright by Wyższa Szkoła Handlowa, Kielce 2012 ISSN X Nakład 300 egz. Publikacja została wydana w ramach realizacji projektu PITWIN Portal Innowacyjnego Transferu Wiedzy w Nauce. Publikacja jest współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego. Publikacja jest dystrybuowana bezpłatnie dla osób, które zarejestrują się na stronie internetowej projektu (dostępna także w wersji elektronicznej).

3 Spis treści Wstęp... 5 Część I Technologie informacyjne E learning 1. dr inż. Marlena Plebańska Tworzenie e szkoleń na podstawie scenariuszy mgr Olga Łodyga E learning w szkole (oczekiwania a rzeczywistość) Nowe technologie informacyjne 3. dr Wojciech Pokojski, dr Paulina Pokojska Ocena umiejętności studentów w zakresie wyszukiwania informacji przestrzennej w Internecie dr Artur Borcuch Społeczeństwo bezgotówkowe środowisko występowania cyfrowego pieniądza dr Bruno Jacobfeuerborn A Knowledge Concocter to Sustain Innovation Propensity dr Bruno Jacobfeuerborn, prof. dr hab. Mieczysław Muraszkiewicz ICT and Big Data as a Game Changer dr Szczepan Paszkiel Zastosowanie BCI w kontekście neuromarketingu internetowego w korelacji z algorytmami Hubs&Authorities oraz PageRank mgr Rafał Guzowski Konwergencja mediów jako naturalne przejście do przyszłości mgr Michał Widlak Zagrożenia związane z zastosowaniem bankowości elektronicznej mgr Justyna Sikora Telepraca o walorach i pułapkach elastycznego zatrudnienia Część II Ekonomia i nauki społeczne Ekonomia 11. dr Mirosław Zajdel Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) dr Cezary Szyjko Modelowanie rynku gazu w Polsce i UE: trendy, wyzwania, innowacje mgr Agata Gniadkowska Decyzja o dywidendach a koszty agencji mgr Anna Pobrotyn Podstawowe czynności bankowe na przykładzie oddziału banku PEKAO S.A. w Opatowie mgr Dorota Bloch Ściągalność podatków w krajach Unii Europejskiej mgr Dorotach Bloch Podatkowe problemy Grecji mgr Gabriela Gurgul Płynność banków komercyjnych w okresie globalnych zawirowań finansowych mgr Katarzyna Szortyka Harmonizacja CIT w krajach Unii Europejskiej Analizy ilościowe 19. dr Przemysław Kowalik Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne do postaci liniowej mgr Karolina Klimańska Poziom życia w Polsce i w 19 krajach G20. Część 3.: Analiza korelacji między poziomem życia ludności i poziomem rozwoju gospodarczego w Polsce i w 19 krajach G mgr Michał Mierzwa Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) na przykładzie badania ankietowego studentów UE Katowice

4 Zarządzanie 22. dr Bogumiła Smolorz Ewolucja w marketingowym podejściu do klienta Nauki społeczne 23. dr Krzysztof Czubocha Age Discrimination in the Context of Globalization, Modernization and the Labor Market dr Krzysztof Czubocha Problem współistnienia kultur w zachodnich państwach członkowskich Unii Europejskiej (UE) (dylematy wielokulturowości) dr Paulina Forma The Internet in the Young Generation s Life in Students Opinion (Future Teachers) Opinia dr hab. Wiesław Dziubdziela, prof. WSH

5 Wstęp Minister Nauki i Szkolnictwa Wyższego Barbara Kurdycka, chce by przedsiębiorstwa mogły dobrowolnie odpisywać 1 proc. podatku na rzecz wybranej instytucji naukowej, co miałoby wesprzeć rozwój polskiej nauki 1. Istotą tego pomysłu jest to, iż polska gospodarka coraz mocniej stawia na innowacje i nowe technologie, by móc się dalej rozwijać i być konkurencyjnym na światowym rynku. Jednak obok samych firm współpracujących z polskimi uczelniami czy instytutami naukowymi ważne są także działania wspierające rozwój e administracji. Niestety z jednej strony zauważyć można anulowanie przetargu na blankiety e dowodu przez Ministerstwo Spraw Wewnętrznych (powodem brak środków), z drugiej zaś w tym roku padł rekord wysłanych deklaracji PIT przez internet (złożyło ich 2,1 mln podatników), co dowodzi, iż młodzi Polacy doceniają (prawie 53% rozliczających się stanowiły osoby w wieku lat), a przede wszystkim ufają medium komunikacyjnemu, jakim jest globalna sieć. W tej sytuacji zastanawiająca jest konkluzja, na jaką się zdobył minister Administracji i Cyfryzacji Michał Boni po kilku miesiącach prac, iż wypracowano jasne wyobrażenie, jak powinna wyglądać cyfryzacja w Polsce: Celem cyfryzacji jest doprowadzenie do tego, by ludzie korzystali z Internetu, by czuli, że to ma sens. To z tego powodu prowadzimy projekty informatyczne, dzięki którym administracja będzie działać sprawniej. 2 Wydaje się, że bez wielomiesięcznych prac ministerstwa można dojść do podobnego wniosku z tą różnicą, że duża część społeczeństwa na co dzień korzysta i docenia walory sieci internet. Jedno jest pewne, czytelnicy i autorzy naszego czasopisma są świadomymi i aktywnymi użytkownikami internetu, tworzącymi wartościowe treści i prowadzącymi własne badania naukowe. Serdecznie zapraszamy do lektury najnowszego wydania zeszytu Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne, który jest dziesiątym numerem naszego czasopisma. Bieżący numer wydawnictwa PITWIN Portal Innowacyjnego Transferu Wiedzy w Nauce to urozmaicony zbiór artykułów obejmujący zagadnienia związane z nowymi technologiami, a także ekonomią, analizami ilościowymi, marketingiem i naukami społecznymi. Numer otwierają dwa artykuły dotyczące e learningu, opracowane przez praktyków zajmujących się od lat problematyką e nauczania. Dużą część czasopisma została poświęcona działowi Nowe technologie informacyjne, do którego zakwalifikowało się osiem artykułów. Polecamy również zapoznać się z kolejnym działem Ekonomia i Nauki społeczne jest to piętnaście prac z zakresu analiz ilościowych, ekonomii, zarządzania czy nauk społecznych. Zachęcam do lektury wszystkich w tym numerze opracowań, mając nadzieję, iż różnorodność tematów pozwoli Czytelnikom znaleźć interesujący dla siebie temat. Równocześnie chciałbym poinformować o zbliżającej się IV Ogólnopolskiej Konferencji Naukowej realizowanej przez Wyższą Szkołę Handlową im. Bolesława Markowskiego w Kielcach w ramach projektu PITWIN, która odbędzie się 13 września 2012 roku w siedzibie uczelni. Więcej informacji o konferencji znajdą Państwo na stronie: Koordynator Projektu Kierownik Portalu dr Zbigniew E. Zieliński 1 2

6

7 Część I Technologie informacyjne

8

9 Marlena Plebańska Marlena Plebańska * Tworzenie e szkoleń na podstawie scenariuszy Streszczenie: Artykuł opisuje realizację koncepcji tworzenia e szkoleń na podstawie scenariuszy. W artykule przedstawiono koncepcje budowy szkoleń e learningowych w oparciu o program i scenariusz bazująca na standardach ECC (ang. E learning Courseware Certification), opracowanych przez Certification Standards Committee (Komitet ds. Standardów) prowadzony przez American Society for Training and Development (ASTD). Omówiono budowę przykładowych scenariuszy e szkoleń oraz rozwiązania użyte przy ich tworzeniu. Przedstawiono przykładowe programy oraz scenariusze zrealizowane w ramach projektu e Akademia Przyszłości skierowanego do grupy ,00 uczniów gimnazjów na teranie całej Polski. Słowa kluczowe: e learning, kształcenia na odległość, scenariusz e szkolenia, e szkolenie 1. Wstęp Współczesne otoczenie edukacyjne wyznacza nowe formy oraz metody przekazu, a także wyznacza poziom multimedialności e szkoleń. Trudno znaleźć dziś dziedzinę życia, sektor gospodarki czy poziom kształcenia niewspierany e learningowo czy blended learningowo. Przedsiębiorstwa, uczelnie, szkoły, a także instytucje publiczne chętnie korzystają z multimedialnych form kształcenia. Wraz z rozpowszechnieniem e learningu wzrosły również oczekiwania użytkowników e szkoleń. Treści przedstawione w statycznej formie tekstowej są zarówno mało efektowne, jak i mało efektywne. Użytkownicy oczekują optymalizacji formy multimedialnej szkoleń pozwalającej na efektywną oraz ciekawą, angażującą użytkownika edukację. Mnogość zastosowań szkoleń e learning niesie za sobą potrzebę standaryzacji sposobu opracowywania treści e szkoleń. Jednym ze sposobów tworzenia multimedialnej treści ukierunkowanej na realizację określonych celów dydaktycznych jest opracowywanie e szkolenia na podstawie scenariusza. Niniejszy artykuł prezentuje metodologię tworzenia e szkoleń na podstawie scenariuszy. Ponadto artykuł zawiera praktyczne przykłady wykorzystania opisanej metody zastosowane w projekcie e Akademia Przyszłości, projekcie skierowanym do tysięcy gimnazjalistów, w którym na podstawie scenariuszy powstało ponad 160 e szkoleń. 2. Tworzenie scenariusza e szkolenia Metodyka tworzenia szkoleń e learning pochodzi z Australii oraz Stanów Zjednoczonych Ameryki, gdzie opracowanych i przetestowanych zostało szereg różnego typu szkoleń e learning dla różnych środowisk zawodowych, jak również różnych typów instytucji. Na bazie tych doświadczeń powstał standard ECC (ang. E learning Courseware Certification) opracowane przez Certification Standards Committee (Komitet ds. Standardów), który to komitet prowadzony jest przez American Society for Training and Development (ASTD). * Marlena Plebańska jest doktorem nauk ekonomicznych, absolwentką Politechniki Warszawskiej oraz Szkoły Głównej Handlowej. Jest ekspertem w zakresie e learningu i autorką wielu publikacji w zakresie kształcenia na odległość. Od 12 lat jest inspiratorem, projektantem i strategiem rozwiązań e learningowych w wielu polskich przedsiębiorstwach, a także kierownikiem i konsultantem projektów e learningowych oraz aktywnym trenerem i wykładowcą. 9

10 Tworzenie e szkoleń na podstawie scenariuszy Standard ten służy badaniu jakości kursów e learningowych. Jego głównym celem jest sprawdzanie, czy przy tworzeniu materiałów e learningowych stosowano się do najlepszych praktyk przekładania celów szkoleniowych na zawartość e szkoleń. Zgodnie z założeniami ECC, szkolenia e learningowe powinny spełniać kryteria określone w następujących standardach : standardu interfejsu, standardu kompatybilności, standardu jakości składu, standardu projektowania edukacyjnego Poniżej wymienione zostały oraz krótko scharakteryzowane główne obszary poszczególnych grup standardów. Standardy ECC interfejsu 1. Orientacja e szkolenie w sposób przejrzysty pozwala zorientować się osobie szkolonej, w której części e szkolenia znajduje się w danej chwili. 2. Funkcja śledzenia e szkolenie w sposób przejrzysty i spójny pozwala zorientować się osobie szkolonej o wynikach, jakie osiągnęła w modułach, lekcjach czy innych jednostkach e szkolenia. 3. Funkcje nawigacyjne e szkolenie pozwala uruchomić proces szkolenia, zakończyć go, przejść do następnego i poprzedniego elementu procesu lub wejść na poziom nadrzędny. 4. Opcje nawigacyjne e szkolenie pozwala osobie szkolonej w sposób typowy i jasno opisany przejść z dowolnego miejsca szkolenia w dowolnie wybrane, do innego modułu, do innej lekcji czy ekranu e szkolenia. 5. Wsparcie operacyjne e szkolenie zapewnia osobie szkolonej: wielopoziomowe wsparcie w posługiwaniu się warstwą nawigacyjną przy użyciu pliku pomocy, wsparcie wirtualnych mentorów oraz uczy funkcji wyszukiwania odpowiedzi na najczęściej pojawiające się problemy. Standard ECC kompatybilności 1. Instalacja oraz wstępne uruchomienie e szkolenia e szkolenie instaluje się i uruchamia w satysfakcjonującym czasie oraz satysfakcjonującej liczbie kroków, a także instaluje i uruchamia wszelkie niezbędne komponenty. 2. Konfiguracja e szkolenie umożliwia zapisanie niezbędnych danych osobowych bez konieczności wsparcia IT. 3. Kolejne uruchomienie e szkolenia kolejne uruchomienie e szkolenia prowadzi osobę szkoloną w miejsce startowe lub w to, w którym skończyła poprzednią sesję, przechowując pełen raport z poprzedniej sesji. 4. Proces usuwania e szkolenia ze środowiska proces usuwania e szkolenia oraz skojarzonych z nim dodatkowych programów może być przeprowadzony bez konieczności wsparcia IT. Standardy ECC jakości składu 1. Czytelność tekstu i grafiki e szkolenie korzysta z czytelnych czcionek o ściśle zdefiniowanych parametrach oraz ekranach w standardowej rozdzielczości. W kursie unika się nieczytelnych zestawień kolorystycznych. 2. Formatowanie i spójność wewnętrzna e szkolenie posługuje się właściwym językiem. Treść e szkolenia jest poprawnie i spójnie sformatowana, a sposób prezentacji nie zakłóca procesu nauczania. 10

11 Marlena Plebańska Standardy ECC projektowania edukacyjnego 1. Artykulacja celu e szkolenia w e szkoleniu zdefiniowano cele, jakie należy osiągnąć w wyniku jego realizacji, jak również określono grupę docelową i zakres materiału. 2. Założenia szkoleniowe definicja wiedzy i umiejętności, które zostaną pozyskane w wyniku realizacji e szkolenia; również wiedza lub umiejętności wstępne wymagane do rozpoczęcia nauki. 3. Spójność celów i założeń z treścią e szkolenia treść e szkolenia jest wystarczająca do przekazania wiedzy na dany temat, na danym poziomie, oraz jest spójna ze zdefiniowanymi celami i założeniami e szkolenia. 4. Prezentacja, demonstracja i stosowanie e szkolenie wykorzystuje zróżnicowane metody wsparcia osiąganych celów szkoleniowych. Dobór metod oraz form edukacyjnych jest ściśle powiązany z metodyką e szkolenia. 5. Ćwiczenie ze sprzężeniem zwrotnym e szkolenie zawiera ćwiczenia i umożliwia ocenę poprawności ich wykonania. Kurs pozwala na popełnianie błędów i wyciąganie z nich wniosków. 6. Techniki angażowania osoby szkolonej e szkolenie dostarcza zróżnicowanych technik angażowania osoby szkolonej, m.in. poprzez celowe zwiększenie doświadczenia edukacyjnego. 7. Testy oceniające jakość pozyskanej wiedzy mierzona jest za pomocą testów. Wynik testu udostępniany jest osobie szkolonej. Test jest adekwatny do przekazanej treści i ściśle powiązany z celami szkoleniowymi. Pytania testowe są jasno zdefiniowane. Jeśli e szkolenie zawiera większą liczbę testów, nie są one takie same. Bazując na przedstawionych powyżej standardach, instytucje opracowujące e szkolenia stworzyły standard scenariusza e szkolenia, którego zastosowanie gwarantuje zachowanie jakości e szkolenia. Scenariusz e szkolenia to dokument opisujący poszczególne ekrany e szkolenia. Dokument ten może być tworzony z użyciem różnego typu oprogramowania, np. Microsoft Word, Power Point, Microsoft Excel. Najczęściej jednak scenariusze e szkoleń tworzone są w formie dokumentu tekstowego. Niezależnie od typu oprogramowania, w jakim tworzymy scenariusz e szkolenia, uwzględniamy w nim zestaw stałych elementów, zgodnie z którymi opisujemy w scenariuszu każdy z ekranów e szkolenia. Główne elementy scenariusza e szkolenia to: tytuły ekranu e szkolenia, numer ekranu e szkolenia, opis elementów tekstowych ekranu, opis elementów graficznych ekranu, opis elementów dźwiękowych ekranu, opis interakcji na ekranie, opis elementów animowanych na ekranie, uwagi dla realizatorów. Zgodnie z tym opisem, w scenariuszu opisywane są wszystkie ekrany e szkolenia. Wskazane powyżej elementy opisu ekranu w scenariuszu mogą być rozmieszczone w dowolnym układzie graficznym oraz dowolnej kolejności (przykłady scenariusza zostały opisane w dalszej części artykułu). Czynnością poprzedzającą stworzenie scenariusza e szkolenia jest opracowanie programu e szkolenia. Program e szkolenia jest chronologicznym spisem wszystkich modułów, lekcji oraz ekranów e szkolenia opisanych w strukturze tabelarycznej. Aby opracować program e szkolenia, należy wykonać następujące czynności: 1. Analiza grupy docelowej uczestników e szkolenia. 2. Określenie celu głównego e szkolenia/określenie celów szczegółowych e szkolenia/ określenie celów cząstkowych e szkolenia. 3. Utworzenie programu e szkolenia. 4. Określenie ćwiczeń w e szkoleniu. 11

12 Tworzenie e szkoleń na podstawie scenariuszy 5. Określenie formy multimedialnej poszczególnych części e szkolenia. 6. Utworzenie e testu. Poniższa tabela prezentuje czynności, które należy wykonać na poszczególnych etapach tworzenia e szkoleń. Tabela 1. Czynności na poszczególnych etapach tworzenia e szkoleń Lp. Etap Działania na poszczególnych etapach. 1 Analiza grupy docelowej Charakterystyka: uczestników e szkolenia wiek, liczba osób, rozproszenie terytorialne, kompetencje IT, doświadczenie w korzystaniu z e szkoleń, czas na szkolenie, specyfikacja stacji roboczych, jakimi dysponują potencjalni uczestnicy e szkolenia, zakres e szkolenia. 2 Określenie celów: określenie celu głównego e szkolenia, głównego/ szczegółowych/ podział celu głównego na cele szczegółowe odpowiadające celom modułów lub lekcji w zależności od ilości materiału, cząstkowych e szkolenia podział celów szczegółowych na cele cząstkowe odpowiadające lekcjom lub ekranom, w wypadku, kiedy cele cząstkowe odpowiadają lekcjom podział celów cząstkowych na cele operacyjne odpowiadające ekranom. 3 Utworzenie programu e szkolenia utworzenie programu e szkolenia, pokazującego podział materiału e szkolenia wynikający z podziału na cele 4 Określenie ćwiczeń w wkomponowanie w program e szkolenia ćwiczeń samosprawdzających e szkoleniu 5 Określenie formy multimedialnej określenie optymalnej formy multimedialnej dla każdego ekranu odpowiadającego celowi danego ekranu poszczególnych etapów e szkolenia 6 Utworzenie e testu utworzenie e testu odpowiadającego zawartości merytorycznej e szkolenia Źródło: E learning, Tajniki edukacji na odległość M. Plebańska CH. Beck, 2011 W czasie opracowywania e szkolenia szczególną uwagę należy zwrócić na sposób podziału treści w e szkoleniu, wychodząc od celu głównego do celów szczegółowych, celów cząstkowych, a wreszcie celów operacyjnych. Poniższe schematy ilustrują podział treści e szkolenia na cele. Pierwszy schemat prezentuje dwupoziomowy podział treści e szkolenia na: lekcje, ekrany. Drugi schemat prezentuje podział treści w e szkoleniu trzypoziomowym na: moduły, lekcje, ekrany. Podział na poziomy uzależniony jest od ilości materiału merytorycznego objętego e szkoleniem. 12

13 Marlena Plebańska Rysunek 1. Schemat e szkolenia dwupoziomowego Źródło: E learning, Tajniki edukacji na odległość M. Plebańska CH. Beck, 2011 Rysunek 2. Schemat e szkolenia trzypoziomowego Źródło: E learning, Tajniki edukacji na odległość M. Plebańska CH.Beck, 2011 Ćwiczenia wkomponowujemy w podzieloną na ekrany odpowiadające poszczególnym celom treść, a następnie dla każdego ekranu określamy formę multimedialną, która w optymalny sposób pozwoli spełnić postawiony przez danym ekranem e szkolenia cel. Należy pamiętać, iż z poziomu ekranu możemy stosować również podekrany. które nie tylko zoptymalizują przekaz treści, ale również uatrakcyjnią przekaz wiedzy. 3. Przykładowy program e szkolenia Podstawą do stworzenia scenariusza e szkolenia jest utworzenie programu e szkolenia. Podobnie jak w przypadku scenariuszy e szkoleń, również i programy mogą przyjmować różną 13

14 Tworzenie e szkoleń na podstawie scenariuszy formę opisu. Poniższy schemat prezentuje przykładowy schemat opisu programu e szkolenia. Zgodnie z podanym przykładem na poziomie programu dla każdego ekranu opisywany jest: tytuł ekranu, cel, jaki dany ekran ma spełnić, zakres ekranu, forma multimedialna ekranu, przewidywane dla danego ekranu formy wsparcia. Rysunek 3. Schemat programu e szkolenia Źródło: opracowanie własne Sposób konstrukcji programu może być dowolny, uzależniony od wewnętrznych potrzeb oraz oczekiwań organizacji tworzącej e szkolenia. Niezależnie jednak od formy opisu czy poziomu szczegółowości opisu poszczególnych elementów programu, powinien on być czytelny dla osób tworzących na jego podstawie scenariusz oraz dla realizatora technicznego e szkolenia. Poniższy przykład (Rysunek 4) prezentuje przykładowy program kilku ekranów e szkolenia. Lp. EKRAN CEL TREŚĆ FORMA Lekcja 1. Poznanie historii herbaty 1 E2 Nabycie wiedzy, kiedy i gdzie zaczęto uprawiać herbatę. 14 w jakich regionach/krajach zaczęto uprawiać herbatę, kiedy zaczęto uprawiać herbatę, kto uprawiał herbatę, w jaki sposób uprawiano herbatę. E3 Kto i kiedy odkrył herbatę dla Europy kto i w jakich okolicznościach odkrył herbatę, jak i kiedy herbata trafiła do Europy. E4 Sprawdzenie wiedzy z lekcji pierwszej Pytania Quiz Lekcja 2. Przyswojenie sobie wiedzy na temat najlepszych gatunków herbaty E6 E7 E8 Nabycie wiedzy, jakie są najlepsze gatunki herbaty Nabycie wiedzy o miejscach uprawy najlepszych gatunków herbaty Nabycie wiedzy o tym, czym charakteryzują się najlepsze gatunki herbaty wymienienie najlepszych gatunków herbaty. opis regionów, opis warunków naturalnych (aura, gleby), sposoby uprawiania. opis wyglądu, aromatu oraz smaku najlepszych gatunków herbaty. E9 Sprawdzenie wiedzy z lekcji drugiej Pytania Quiz Lekcja 3 Przyswojenie sobie wiedzy na temat parzenia herbaty E11 Nabycie wiedzy o kulturze parzenia herbaty w Anglii Tekst, film animowany Tekst, film animowany Treść, grafika Film dokumentalny z lektorem Tekst, zdjęcia opis sposobu parzenia herbaty. Film dokumentalny z lektorem

15 Marlena Plebańska E12 E13 E14 Nabycie wiedzy o kulturze parzenia herbaty w Chinach Nabycie wiedzy o kulturze parzenia herbaty w Japonii Nabycie wiedzy o kulturze parzenia herbaty w Rosji opis sposobu parzenia herbaty. Film dokumentalny z lektorem opis sposobu parzenia herbaty. Film dokumentalny z lektorem opis sposobu parzenia herbaty. Film dokumentalny z lektorem E15 Sprawdzenie wiedzy z lekcji trzeciej Pytania Quiz Rysunek 4. Przykład programu e szkolenia Źródło: opracowanie własne 4. Przykładowy scenariusz e szkolenia Scenariusz e szkolenia tworzymy na podstawie opracowanego uprzednio programu e szkolenia jest on dokładnym opisem każdego z ekranów z uwzględnieniem osadzenia ekranu w strukturze e szkolenia, celów oraz formy multimedialnej przypisanej danemu ekranowi. Jak już wcześniej wspomniano, scenariusz e szkolenia może przyjmować różne formy opisu. Opis ten z kolei może przyjmować różne formy szczegółowości. Poniższe schematy prezentują przykładowe scenariusze. Pierwszy schemat (Rysunek 5) prezentuje tabelaryczny układ scenariusza e szkolenia uwzględniający wyraźny podział opisu poszczególnych elementów ekranu, takich jak opis treści, grafiki, teksty czytanego przez lektora czy szczegółowych uwag dla realizatora. Ekran wiedzy Tytuł modułu INFORMACJE WPROWADZAJĄCE Tytuł lekcji SOKI Numer ekranu 1 Treść ekranu Chcielibyśmy serdecznie zachęcić Państwa do spożywania naturalnych soków ze świeżych owoców i warzyw. O tym, że soki szczególnie te świeżo wyciskane są bardzo zdrowe, już nikogo nie trzeba przekonywać. Rozmaite soki mają wpływ na nasze zdrowie to też wiemy, jednak zazwyczaj nie zdajemy sobie sprawy, że kolor również ma znaczenie. Kolor soku zależy od substancji odżywczych oraz witamin i minerałów w nich zawartych. Soki można mieszać ze sobą, uzyskując zaskakujące efekty zdrowotne. Zalecenia mówią o wypijaniu dwóch szklanek świeżego soku z owoców lub warzyw każdego dnia. Plan szkolenia: a/ powstanie soków b/ rodzaje soków c/ produkcja Elementy graficzne i/lub multimedialne ZDJĘCIE OWOCÓW I WARZYW 15

16 Tworzenie e szkoleń na podstawie scenariuszy Opis interakcji na ekranie Pop up( podekran) z tekstem Czy wiesz, że istnieją soki poprawiające stan zdrowia psychicznego i zdrowia fizycznego? Tekst czytany przez lektora Zdrowe odżywianie, leczenie dolegliwości oraz profilaktyczne zażywanie naturalnych soków znane i praktykowane jest już na całym świecie jeśli jeszcze tego nie robicie to najwyższa pora, abyście również Wy przyłączyli się do ludzi spożywających zdrowe i świeże soki! Uwagi dla realizatora Schematy graficzne przedstawione w scenariuszu stanowią inspirację dla grafika. Proszę o wykonanie wizualizacji graficznych. Rysunek 5. Przykład scenariusza ekranu e szkolenia Źródło: opracowanie własne Kolejny przykład pochodzący z projektu e Akademia Przyszłości (Schemat 1) scenariusza prezentuje opis ekranu w formie scenek stanowiących kompozycje poszczególnych ekranów. Układ opisu scenariusza jest ściśle związany z techniczną formą realizacji poszczególnych ekranów. W związku z tym, w przypadku realizacji ekranów w formie animowanych scen, przedstawiona poniżej forma opisu jest czytelna, intuicyjna oraz łatwa w interpretacji dla realizatora technologicznego e szkolenia. 1. EKRAN Tytuł: Ruch wirowy istota i konsekwencje [1] Awatarka: Czy jest coś jeszcze, o czym powinnam wiedzieć, na temat ruchu wirowego Ziemi? Już zauważyłam, że jest to źródło wielu ważnych zjawisk, jakie mają miejsce na naszej planecie. Dymek z wypowiedzią Awatara znika. [2]Awatar: Warto również pamiętać o sile Coriolisa (efekcie Coriolisa), występującej w obracających się układach odniesienia, jak w przypadku wirującej Ziemi. Dymek z wypowiedzią Awatara znika. [3]Awatar: W wyniku działania siły Coriolisa odchyleniu ulega kierunek poruszania się ciał. I tak, poruszające się obiekty na półkuli północnej odchylają się w prawo, a te na południowej w lewo. Dymek z wypowiedzią Awatara znika. W czasie, gdy Awatar wypowiada swoją kwestię, na ekranie pojawia się animacja prezentująca działanie siły Coriolisa, przygotowana przez informatyka. Jest to obracająca się wokół własnej osi kula ziemska z zaznaczonymi odchyleniami. Podobnie jak na rysunku 2. Rysunek 2 Schemat 1. Przykładowy opis scenariusza ekranu e szkolenia Źródło: Projekt e Akademia Przyszłości 16

17 Marlena Plebańska Podsumowanie Na podstawie przedstawionych powyżej schematów ekranów oraz ich scenariuszy możemy wnioskować, iż utworzenie scenariusza to proces długotrwały i pracochłonny, jednak opracowywanie treści do e szkoleń w odpowiednio zestandaryzowanej formie pozwala na wykonanie e szkolenia, w którym każdy element spełnia określony cel dydaktyczny, a forma przekazu multimedialnego jest ściśle dostosowana do potrzeb odbiorcy szkolenia, zaś sposób konstrukcji scenariusza e szkolenia uzależniony jest od potrzeb i oczekiwań organizacji tworzącej i realizującej e szkolenie. Tworzenie szkoleń e learningowych na podstawie scenariuszy jako metoda porządkująca oraz strukturyzująca pracę nad scenariuszem od wielu lat znajduje uznanie w środowisku biznesowym, wykorzystywana jest przez firmy e learningowe, korporacje oraz duże projekty realizujące projekty e szkoleń w setkach czy tysiącach e szkoleń opartych na scenariuszach. Pozwala na strukturyzacje pracy, równoległą pracę kilku specjalistów pracujących nad tworzeniem e szkolenia, a przede wszystkim pracę z zachowaniem standaryzacji oraz powtarzalnej jakości produktów e learningowych. Bibliografia 1. Plebańska M., Charakterystyka nauczania na odległość. W M. P. A. Okońska Walkowicz, O kompetencjach kluczowych, e learningu i metodzie projektów, WSiP. Warszawa, Plebańska M, E Learning, Tajniki edukacji na odległość, CH Beck, Warszawa Plebańska M, Informatyka Gospodarcza, CH Beck, Warszawa Stecyk A., abc elearningu. System LAMS, Difin, Warszawa, Hyla M., Przewodnik po e learningu, Wolters Kluwer Polska Kraków, Clarke A., e learning. Nauka na odległość.: Wydawnictwa Komunikacji i Łączności, Warszawa, E Learning Creation on the Basis of Drafts The following article describes the realization of draft based e learning courses. What is more, it presents the ideas for e learning training courses creation based on ECC (E learning Courseware Certification) programme and script standards. The above mentioned criteria were drew up by the Certification Standards Committee which is led by ASTD the American Society for Training and Development. The model structure of the e training courses drafts and the solutions used in their creation were discussed. The presented demonstrational programmes and scenarios were accomplished as a part of the E Future Academy project pointed at the group of Polish gymnasium students. Keywords: e learning, distance education, e training course draft, e training course 17

18 E learning w szkole (oczekiwania a rzeczywistość) Olga Łodyga * E learning w szkole (oczekiwania a rzeczywistość) Streszczenie: Celem artykułu jest przedstawienie praktycznych aspektów zdalnej edukacji w szkole. Artykuł jest próbą odpowiedzi na pytania: Czy narzędzia e learningu można skutecznie wykorzystywać w edukacji szkolnej? Jakie są oczekiwania uczniów i nauczycieli w zakresie e learningu? Podstawą udzielenia odpowiedzi na powyższe pytania są badania przeprowadzone wśród uczniów klas pierwszych szkół gimnazjalnych i ponadgimnazjalnych oraz nauczycieli z tych szkół. Słowa kluczowe: e learning, platforma supermemo.net Wprowadzenie Nowe technologie komunikacyjne oraz Internet uzyskały istotne znaczenie w życiu współczesnego człowieka. W wyniku wzrostu znaczenia Internetu nastąpiły zmiany w modelu życia oraz strukturze społecznej. Dotyczy to zarówno życia prywatnego, jak również sfery zawodowej. Powstały społeczności wirtualne, których uczestnicy większość kontaktów społecznych realizują w przestrzeni internetowej. W wyniku tego przestrzeń internetowa staje się dla niektórych ludzi bardziej realna niż świat rzeczywisty. Internet stanowi medium komunikacji w życiu zawodowym i prywatnym, źródło rozrywki oraz miejsce uczestnictwa w życiu społecznym. W związku z tym mówimy o powstaniu społeczeństwa informacyjnego. Wraz z tymi zmianami zwiększyło się także znaczenie Internetu w obszarze edukacji 1. Jednocześnie warto zwrócić uwagę na fakt, że tradycyjna szkoła nie jest już w stanie sprostać zadaniom do których została powołana. Przekazywanie wiedzy oraz komunikacja nauczyciela z uczniami często odbywa się w sposób niedostosowany do oczekiwań uczestników procesu kształcenia. Nowe możliwości związane z rozwojem Internetu wpłynęły na powstanie innowacyjnych metod również w zakresie edukacji. Przykładem tego jest e learning, czyli forma kształcenia na odległość, polegająca na komunikacji nauczyciela z uczniami z zastosowaniem sieci komputerowych 2. E learning umożliwia naukę w dowolnym miejscu i czasie oraz w sposób dogodny dla uczestników procesu kształcenia. Dzięki rozwojowi internetu można korzystać z szerokich zasobów * Autorka od 2004 roku zajmuje się zdalną edukacją (tutor, autor kontentu, dydaktyk medialny, kierownik projektów). Obecnie kieruje projektem Uczeń online realizowanym przez SuperMemo World w Poznaniu. Opublikowała 4 przewodniki dla studentów oraz ponad 30 artykułów w publikacjach recenzowanych. 1 Łodyga O., Nowe technologie komunikacyjne w kontekście rozwoju zawodowego człowieka.. [w:] Wielkowymiarowość poradnictwa w życiu człowieka. Wybrane obszary. Pod red. naukową D. Kukli, USKW, Warszawa 2009, s. 319; Łodyga O., Rynek pracy w kontekście rozwoju Internetu. [w:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne. 2/2009, t.1, Redaktor Z. E. Zieliński, WSH im. B. Markowskiego, Kielce 2009, s. 186; Łodyga O., Socjologiczne aspekty kształcenia przez Internet. [w:] Informatyka w globalnym świecie. Redakcja naukowa J. Kisielnicki, PJWSTK, Warszawa 2006, s. 139; Łodyga O., Usługi internetowe a rozwój społeczeństwa informacyjnego. [w:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne. t.1, Redaktor Z. E. Zieliński, WSH im. B. Markowskiego, Kielce 2010, s Łodyga O., E learning w zarządzaniu zasobami ludzkimi. [w:] Technologie informacyjne w zarządzaniu. WSEI w Warszawie, Warszawa 2006, s

19 Olga Łodyga materiałów edukacyjnych, sięgać do nowych i wydajnych technologii przekazu informacji oraz obniżać koszty kształcenia 3. E learning rozumiany jako, sposób przekazywania wiedzy, wykorzystujący szeroki zestaw różnych technologii informatycznych i środków przekazu multimedialnego 4 stanowi doskonałą odpowiedź na oczekiwania współczesnego człowieka żyjącego w społeczeństwie informacyjnym. Biorąc pod uwagę powyższe aspekty można przyjąć założenie, że narzędzia zdalnej edukacji mogłyby zająć znaczące miejsce z obszarze edukacji szkolnej i edukacji ustawicznej. Kurs Hier und da na platformie supermemo.net jako przykład skuteczności nauki języków obcych w szkole wspomaganej kursem internetowym Platforma supermemo.net jest autorskim rozwiązaniem firmy SuperMemo World sp. z o.o. w Poznaniu, łączącym w sobie podstawowe elementy niezbędne do nauki on line wraz z algorytmem powtórek SuperMemo. Jest to jeden z niewielu tak łatwo skalowalnych systemów e learningowych, umożliwiający obsługę nawet kilku tysięcy użytkowników na standardowych konfiguracjach serwerowych 5. SuperMemo jest techniką szybkiej nauki opartą na obliczaniu optymalnych odstępów pomiędzy powtórkami materiału. Podstawowym założeniem metody SuperMemo jest systematyczne powtarzanie materiału. Nawet 10 minut nauki dziennie pozwala opanować, aż 500 nowych słówek w ciągu miesiąca, przy średnim poziomie skuteczności zapamiętywania bliskim 95%. Dzięki zaawansowanym matematycznie algorytmom SuperMemo tworzy idealny plan powtórek dostosowany do każdego użytkownika, uwzględniając przy tym indywidualny potencjał ucznia, poziom trudności materiału i założony poziom retencji 6. W przeprowadzonych badaniach wzięło udział 691 uczniów z 26 szkół ponadgimnazjalnych z pięciu województw: łódzkiego, małopolskiego, mazowieckiego, śląskiego i wielkopolskiego. Badania przeprowadzono w roku szkolnym 2008/2009. Uczniowie, którzy rozpoczęli naukę języka niemieckiego z podręcznika Hier und da 1, otrzymali możliwość korzystania z kursu internetowego przygotowanego dla tego podręcznika. Kurs został umieszczony na platformie supermemo.net. Wyniki uzyskane przez uczniów z grupy badanej zostały porównane z wynikami uczniów z grupy kontrolnej. Badania były realizowane przez Wydawnictwo Szkolne PWN w Warszawie oraz SuperMemo World Sp. z o.o. w Poznaniu. Celem badań było sprawdzenie czy uczniowie klas pierwszych szkół ponadgimnazjalnych uczący się języka niemieckiego z podręcznika Hier und da 1 oraz dodatkowo korzystający z kursu internetowego uzyskają wyższe wyniki z testów (w zakresie opanowania materiału leksykalnego) niż uczniowie uczący się z tego samego podręcznika, ale niekorzystający z kursu internetowego. Efekty wsparcia tradycyjnej nauki kursem na platformie zostały posumowane przez dwa końcowe testy sprawdzające opanowanie materiału z podręcznika Hier und da 1. Te same testy przeprowadzono w dwóch grupach: W grupie badanej uczniowie klas pierwszych ponadgimnazjalnych z 26 szkół z województw: łódzkiego, małopolskiego, mazowieckiego, śląskiego oraz wielkopolskiego, uczący się z podręcznika Hier und da 1 oraz dodatkowo uczestniczący w kursie internetowym. Należy podkreślić, że uczestnictwo w kursie internetowym nie było obowiązkowe, dlatego część uczniów z tych klas nie korzystała z platformy, jednak mieli taką możliwość oraz świadomość celów dydaktycznych z tym związanych; 3 Łodyga O., E learning w kształceniu zawodowym. [w:] VI Konferencja Uniwersytet Wirtualny: model narzędzia praktyka. Wydawnictwo PJWSTK, Warszawa 2007, s Leksykon e nauczania. Pod red. R. Tadeusiewicza, R. S. Chorasia, R. Rudowskiego. Wydawnictwo WSHE w Łodzi, Łódź 2007, s learning_dla_firm, [ ]. 6 [ ]. 19

20 E learning w szkole (oczekiwania a rzeczywistość) W grupie kontrolnej uczniowie klas pierwszych ponadgimnazjalnych z 32 szkół z tych samych województw, uczący się z podręcznika Hier und da 1, którzy nie otrzymali oferty uczestnictwa w kursie internetowym i nie korzystali z niego. Test nr 1 przeprowadzono w grudniu 2008 r., w grupie badanej było 673 uczniów. Natomiast grupa kontrolna liczyła 632 uczniów. Maksymalna liczba punktów do zdobycia z testu nr 1 wynosiła 64 punkty. Średnia liczba uzyskanych punktów przez wszystkich uczniów z grupy badanej (bez względu na to czy korzystali z kursu internetowego czy nie) wyniósł 49,89. Natomiast w grupie kontrolnej średni wynik uzyskany z testu nr 1 to 47,80 punktów. Wyniki uzyskane z testu nr 1 nie dają informacji na temat wpływu korzystania z kursu internetowego na wyniki uczniów, gdyż uczniowie korzystali wówczas z kursu internetowego około 2 miesięcy. Test nr 2 przeprowadzono w maju i czerwcu 2009 r. 7 Grupa badana liczyła 488 uczniów, a grupa kontrolna 490 uczniów. Maksymalna liczba punktów do zdobycia w teście nr Średni wynik uzyskany przez uczniów z całej grupy badanej (zarówno uczestniczący jak i nieuczestniczący w kursie internetowym) 41,49 punktów. Grupa kontrolna uzyskała średni wynik 39,40 punktów. Wyniki z test nr 2 można traktować jako informację dotyczącą tego, czy istnieje zależność pomiędzy uczestnictwem w kursie internetowym, a poziomem opanowania materiału przez uczniów. W czasie rozwiązywania testu nr 2 uczniowie uczestniczący w kursie internetowym pracowali na platformie supermemo.net co najmniej 7 miesięcy. Biorąc pod uwagę wyniki uczniów uzyskane z testu nr 2 oraz ich pracę z kursem na platformie warto zwrócić uwagę na takie czynniki jak: na procent przerobienia treści kursu internetowego oraz regularność powtórek (średnia częstotliwość pełnego wykonania powtórek zadanych przez system). Uczniowie korzystający z kursu internetowego, którzy przerobili min. 50% materiału oraz pracowali z kursem internetowym co najmniej 1 raz w miesiącu uzyskali z testu nr 2 średni wynik 52,21 punktów (Wykres 1). Ich wyniki były wyższe o ponad 10 punktów niż średni wynik z grupy badanej (41,49) oraz średni wynik grupy kontrolnej (39,40). Biorąc pod uwagę wyniki uczniów, którzy pracowali systematycznie z kursem na platformie supermemo.net, tj. korzystali z kursu internetowego przynajmniej 1 raz w tygodniu stwierdzono, że ich wynik (średnio 54,85) był o 32% lepszy od średniej z całej grupy badanej (41,49) a o 39% lepszy od średniej z grupy kontrolnej (39,40). 1x/miesiąc 52,21 2x/miesiąc 52,88 3x/miesiąc 53,44 1x/tydzień 54,85 2x/tydzień 55,84 50,00 51,00 52,00 53,00 54,00 55,00 56,00 57,00 Wykres 1. Liczba punktów uzyskana przez uczniów z grupy badanej z testu nr 2 (którzy przerobili minimum 50% materiału) według regularności powtórek 7 Test przeprowadzany był po zakończeniu przez nauczycieli nauki z 4 rozdziału podręcznika Hier und da 1, dlatego szkoły mogły przeprowadzać test w różnych terminach (w zależności od tempa realizacji materiału przez nauczyciela). 20

21 Olga Łodyga W przypadku 295 uczniów wyniki obydwu testów udało się jednoznacznie powiązać z identyfikatorem użytkownika na platformie supermemo.net. W związku z tym na ich przykładzie można dokonać analizy zależności dynamiki wyników uzyskanych z dwóch testach od poziomu aktywności tych uczniów w zakresie pracy z kursem na platformie. W celu analizy wyników uzyskanych przez uczniów z obu testów dokonano porównania ocen percentylowych uzyskanych z testu nr 1 i testu nr 2, czyli ocen opartych na względnej pozycji uczniów w grupie. W tym celu zestawiono oceny przydzielone poszczególnym uczniom na podstawie pozycji w całej badanej grupie po dwóch testach (na początku eksperymentu po teście nr 1), a następnie zweryfikowano pozycję ucznia po teście nr 2 (na koniec eksperymentu). Przykładowo uczeń otrzymał w teście nr 1 ocenę 60%, gdy jego wynik był lepszy od wyników 60% koleżanek i kolegów w całej badanej grupie. Jeżeli ten sam uczeń na teście nr 2 miał wynik lepszy od wyników 80% swoich koleżanek i kolegów to odnotowywał dodatni wynik +20% pomiędzy testem nr 1 i 2. Co oznacza poprawę pozycji na tle grupy. Natomiast gdyby ten sam uczeń w teście nr 2 był lepszy tylko od 40% swoich koleżanek i kolegów, jego postęp między testami byłby ujemny i wynosiłby 20%, co oznaczałoby spadek jego pozycji na tle badanej grupy. Zauważono dodatnią korelację pomiędzy aktywnością ucznia na platformie, a uzyskanym wynikiem percentylowym osiągniętym po dwóch testach. Średni wynik w całej grupie badanej wyniósł 1,44%. Natomiast w grupie uczniów, którzy pracowali na platformie co najmniej 1 raz w miesiącu oraz przerobili min. 50% kursu odnotowano wynik dodatni (Wykres 2). W szczególności, uczniowie, którzy pracowali systematycznie z kursem czyli wykonywali wszystkie zadane im przez SuperMemo powtórki przynajmniej 1 raz w tygodniu, poprawili swoje pozycje na tle grupy o 5,92%. Zyskany wynik świadczy o tym, że poprawili oni swoją pozycję w rankingu kosztem pozostałych uczniów (uczniów z grupy kontrolnej oraz grupy badanej, którzy nie korzystali z kursu internetowego). 1x/miesiąc 0,79% 2x/miesiąc 2,84% 3x/miesiąc 3,44% 1x/tydzień 5,92% 2x/tydzień 12,16% 0% 2% 4% 6% 8% 10% 12% 14% Wykres 2. Zmiana oceny procentowej po dwóch testach (uczniowie, którzy przerobili minimum 50% materiału) Wyniki testu końcowego pokazały, że uczniowie korzystający z kursu internetowego uzyskali przeciętnie o 39% lepszy rezultat mierzony liczbą uzyskanych punktów z testu nr 2 od średniej w grupie kontrolnej, a o 32% lepszy w porównaniu ze średnią w grupie badanej. Ponadto, uczniowie korzystający z platformy supermemo.net wyraźnie poprawili swoje wyniki percentylowe (pozycję na liście rankingowej) na tle pozostałych uczniów (różnica oceny procentowej pomiędzy pierwszym i drugim testem), co potwierdza skuteczności nauki z wykorzystaniem kursu internetowego SuperMemo. 21

22 E learning w szkole (oczekiwania a rzeczywistość) W kontekście uzyskanych wyników warto podkreślić, iż zastosowanie narzędzi e edukacji w szkole może rozwiązać problemy w zakresie indywidualizacji nauczania, dodatkowych konwersacji z lektorem, ćwiczeń z zakresu wymowy i gramatyki, zajęć w małych grupach. Biorąc pod uwagę wyniki powyższych badań można przyjąć założenie, że narzędzia zdalnej edukacji mogą zająć znaczące miejsce z obszarze edukacji. Wspomaganie nauki w szkole zajęciami na platformie zdalnej edukacji może stanowić formę uzupełnienia procesu kształcenia i motywowania uczniów w procesie edukacji. Ponadto warto zwrócić uwagę na określenie oczekiwań uczniów w tym zakresie oraz analizę stanu e learningu w szkole. Wykorzystanie narzędzi e learningu w szkole analiza stanu rzeczywistego Analiza dokonana na podstawie badań przeprowadzonych wśród uczniów i nauczycieli pozwoliła na wstępne określenie stanu wykorzystania narzędzi e learningu w polskiej szkole. Istotne kwestie to: w jaki sposób postrzegany jest e learning przez uczniów i nauczycieli, sposób wykorzystania narzędzi ICT w procesie edukacji oraz oczekiwania uczniów i nauczycieli w tym zakresie. W przeprowadzonych badaniach wzięło udział 706 uczniów klas pierwszych uczestniczących w projekcie Uczeń online z 50 szkół w całej Polsce 8 : gimnazja (443 uczniów) i szkoły ponadgimnazjalne (263 uczniów) oraz 50 nauczycieli z tych szkół. Badania przeprowadzono w okresie styczeń marzec 2011r. Jedynie 9% uczniów potwierdza iż, wykorzystywało e learning w czasie nauki, co może świadczyć o tradycyjnym podejściu do nauki w szkole (Wykres 3). Jest to o wiele mniejszy odsetek osób niż w przypadku nauczycieli, którzy częściej deklarowali wykorzystanie narzędzi e learningu w pracy z uczniami (Wykres 4). 9% 91% tak nie Wykres 3. Korzystanie z e learningu przez uczniów w szkole 8 Lokalizacja szkół: [ ]. 22

23 Olga Łodyga 34% 66% tak nie Wykres 4. Wykorzystanie z e learningu przez nauczycieli podczas pracy z uczniami Zauważamy rozbieżność pomiędzy wynikami badań dotyczących wykorzystania narzędzi zdalnej edukacji w szkole wśród uczniów i nauczycieli (Wykresy 3 i 4). Rozbieżności mogą wynikać z faktu, że w badaniach uczestniczyli uczniowie pierwszych klas, a także z innego rozumienia pojęcia e learning przez uczniów i nauczycieli. Nauczyciele za e learning uznawali np. wykorzystanie Internetu do udostępniania materiałów dydaktycznych, co dla uczniów nie było przykładem nauki zdalnej, a jedynie jedną z form komunikacji z nauczycielem. Wśród nauczycieli, którzy zadeklarowali doświadczenie w e learningu (33 osoby), najwięcej osób wskazywało, że było to wykorzystywanie platformy do pracy z młodzieżą np. do zadawania i sprawdzania dodatkowych zadań domowych oraz monitorowani postępów w nauce on line. Kolejnym sposobem wykorzystania e learningu przez nauczycieli, był udział w projektach oraz w szkoleniach skierowany do nich wykorzystujący platformę internetową np. kursy organizowane przez Okręgowe Komisje Egzaminacyjne. Na trzecim miejscu nauczyciele wskazywali wykorzystanie istniejących materiałów edukacyjnych umieszczonych na platformach edukacyjnych typu scholaris.pl. Nauczyciele wykorzystywali dostępne ćwiczenia interaktywne jako urozmaicenie zajęć prowadzonych tradycyjną metodą (Wykres 5). Z powyższego zestawienia wynika, iż nauczyciele dosyć szeroko definiują pojęcie e edukacji. wykorzystywanie platformy funkcjonującej 1 inne 3 udział w szkoleniach wykorzystujacych e 5 wykorzystywanie interaktywnych udział w projektach wykorzystujących e korzystanie z platformy e learningowej do Wykres 5. Doświadczenie nauczycieli z e learningiem (w pytaniu można było wybrać więcej niż jedną odpowiedź) 23

24 E learning w szkole (oczekiwania a rzeczywistość) umieszczanie treści lub plików w sieci nauka zdalna, e learning zakupy czytanie lub pisanie bloga czaty czytanie lub pisanie inne TV on line granie w gry sieciowe poszukiwanie informacji o produktach lub wymian plików aktywność na forach internetowych radio on line sprawdzanie poczty poszukiwanie informacji potrzebnych do nauki przeglądanie portali internetowych portale społecznościowe komunikacja np. GG, Skype 2,06 2,45 2,45 2,27 2,59 2,81 2,86 2,90 2,96 2,97 3,05 3,21 3,76 3,86 4,05 4,07 4,25 Wykres 6. Rodzaje aktywności uczniów w Internecie (średnia ocen na podstawie skali 1 5, gdzie 1 nigdy, 5 bardzo często) W jaki sposób uczniowie korzystają z internetu? Odpowiedź na to pytanie daje informacje na temat rodzajów aktywności uczniów w sieci (Wykres 6). Poza funkcją społecznościową internet wykorzystywany jest do przeglądania portali internetowych, sprawdzania poczty, poszukiwaniu materiałów do nauki, aktywności na forach, wymianie plików, słuchaniu radia, itd. Zdecydowanie najrzadziej uczniowie z badanej grupy wykorzystywali dotychczas internet do nauki on line, zakupów, czytaniu lub pisaniu bloga, czy umieszczaniu własnych treści i plików w sieci. inne 3 animacje flash 257 pliki audio 298 filmy 410 zdjęcia 588 Wykres 7. Jakie multimedia uczniowie chcieliby używać do tworzenia kursów na platformie supermemo.net Jakie multimedia uczniowie chcieliby użyć do tworzenia kursów na platformie supermemo.net? Odpowiedź na to pytanie może dać informacje na temat, tego jak uczniowie 24

25 Olga Łodyga postrzegają e learning. Uczniowie zapytani o pliki multimedialne, jakie chcieliby zamieszczać w kursach tworzonych w ramach projektu Uczeń online (Wykres 7) wskazali w pierwszej kolejności zdjęcia. Kolejne multimedia, których chcieliby użyć uczniowie w kursach, to filmy i pliki audio oraz animacje flash. Wybory dokonane przez uczniów mogą świadczyć o tym, że uczniom z badanej grupy e learning nie kojarzy się z zastosowaniem rozwiniętych materiałów multimedialnych. Podsumowanie Narzędzia e edukacji stwarzają nowe możliwości w zakresie stosowania innowacyjnych metod kształcenia w szkole. W szczególności warto zwrócić uwagę na następujące aspekty dotyczące zdalnej edukacji: Życie w społeczeństwie informacyjnym spowodowało, że komputery wkroczyły w różne obszary naszej aktywności życiowej; Edukacja jako jeden z ważnych obszarów naszego życia podlega wielu zmianom i przeobrażeniom; Popularyzacja komputerów i narzędzi ICT spowodowała zwiększenie znaczenia mediów elektronicznych w edukacji; E learning oraz blended learning zyskują coraz większe znaczenie na różnych poziomach kształcenia; Badania potwierdzają skuteczność e edukacji w kształceniu, jednym z przykładów są badania przeprowadzone wśród uczniów szkół średnich dotyczące wykorzystania internetowego kursu Hier und da; Szkoła jako podstawowe ogniwo edukacji formalnej podlega zmianom i proces kształcenia powinien ewaluować tak, aby został dostosowany do oczekiwań i możliwości współczesnej młodzieży; Badania stanu e edukacji w szkołach uczestniczących w projekcie Uczeń online ujawniły istnienie rozbieżności pomiędzy oczekiwaniami uczniów a rzeczywistością edukacyjną w szkołach; Przyszłość e learningu w edukacji szkolnej i akademickiej zależy zarówno od uwarunkowań formalnych stworzonych przez władze oświatowe, jak również od działań nauczycieli zaangażowanych w rozwijanie nowych form przekazywania wiedzy. Bibliografia 1. Leksykon e nauczania. Pod red. R. Tadeusiewicza, R. S. Chorasia, R. Rudowskiego. Wydawnictwo WSHE w Łodzi, Łódź Łodyga O.: E learning w kształceniu zawodowym. [w:] VI Konferencja Uniwersytet Wirtualny: model narzędzia praktyka. Wydawnictwo PJWSTK, Warszawa Łodyga O.: E learning w zarządzaniu zasobami ludzkimi. [w:] Technologie informacyjne w zarządzaniu. WSEI w Warszawie, Warszawa Łodyga O.: Nowe technologie komunikacyjne w kontekście rozwoju zawodowego człowieka. [w:] Wielkowymiarowość poradnictwa w życiu człowieka. Wybrane obszary. Pod red. naukową D. Kukli, USKW, Warszawa Łodyga O.: Rynek pracy w kontekście rozwoju Internetu. [w:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne. 2/2009, t.1, Redaktor Z. E. Zieliński, WSH im. B. Markowskiego, Kielce Łodyga O.: Socjologiczne aspekty kształcenia przez Internet. [w:] Informatyka w globalnym świecie. Redakcja naukowa J. Kisielnicki, PJWSTK, Warszawa Łodyga O.: Usługi internetowe a rozwój społeczeństwa informacyjnego. [w:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne. t.1, Redaktor Z. E. Zieliński, WSH im. B. Markowskiego, Kielce

26 E learning w szkole (oczekiwania a rzeczywistość) Netografia 1. learning_dla_firm 2. The E learning in Schools the Expectations and the Reality The aim of this paper is to present the practical aspects of the distance education in schools. There are two questions to be answered: Can the e learning tools be applied successfully in school education? What are the teachers and students' expectations in the field of the e learning? The answers to the above inquiries are based on the surveys conducted among 12 and 15 year old students, as well as the teachers from the same schools. Keywords: e learning, supermemo.net platform 26

27 Wojciech Pokojski, Paulina Pokojska Wojciech Pokojski * Paulina Pokojska ** Ocena umiejętności studentów w zakresie wyszukiwania informacji przestrzennej w Internecie Streszczenie: Internet w ostatnich latach stał się dla wielu osób głównym źródłem informacji. W internetowych serwisach informacyjnych, przeglądarkach i elektronicznych książkach telefonicznych przybywa narzędzi, dostarczających użytkownikom możliwości pozyskania informacji przestrzennej. W artykule przedstawiono wyniki badań poświęconych umiejętnościom studentów wyszukiwania informacji przestrzennej w internecie. Badania, przeprowadzone wśród studentów kilku szkół wyższych, doprowadziły do wniosku, że pomimo szerokiego dostępu do narzędzi wyszukiwania informacji przestrzennej, umiejętności pozyskania informacji tego typu są niewystarczające. Słowa kluczowe: informacja przestrzenna, wyszukiwarki internetowe, geoprzeglądarki Wstęp Rozwój Internetu, rozwój technologii cyfrowych, w tym coraz większa powszechność nawigacji samochodowej i turystycznej, przy jednoczesnym spadku ich cen, oraz wprowadzanie dyrektyw unijnych w zakresie udostępniania informacji przestrzennej spowodowały wzrost zainteresowania informacją przestrzenną. W serwisach informacyjnych, na stronach urzędów i stronach prywatnych jest zamieszczanych coraz więcej map. Początkowo mapy miały charakter statyczny. Najczęściej były to pliki graficzne zapisane w formacie.jpg, osadzone w kodzie html. Mapy te często prezentowały lokalizację firmy, trasę dojazdu, podział administracyjny (województwa, powiatu), itp. Kolejnym etapem rozwoju map w sieci było ich wprowadzenie jako elementu uzupełniającego i wzbogacającego internetowe książki telefoniczne, jako dodatku do wyszukiwarek internetowych oraz wreszcie jako najważniejszego elementu w portalach specjalnie zaprojektowanych do publikacji map. Wraz z pojawieniem się ogólnodostępnych serwisów mapowych obejmujących niemal całą kulę ziemską, dla użytkowników otworzyły się nowe możliwości wyszukiwania informacji przestrzennej. Przeglądarki map W połowie lat 90., wraz z pojawieniem się przeglądarki mapowej Map Viewer firmy Xerox Corporation 1, rozpoczęła się era informacji przestrzennej w sieci. Początkowo rozwój geoprzeglądarek był ograniczony słabą przepustowością ogólnie dostępnych łącz, jednak od kilku * dr Wojciech Pokojski Adiunkt w Pracowni Edukacji Komputerowej Wydziału Geografii i Studiów Regionalnych Uniwersytetu Warszawskiego, wykładowca GIS na kierunku geografia, zajmuje się problematyką Systemów Informacji Geograficznej i technologii informacyjnych. ** dr Paulina Pokojska Adiunkt w Pracowni Edukacji Komputerowej Wydziału Geografii i Studiów Regionalnych Uniwersytetu Warszawskiego. Prowadzi zajęcia z zakresu Systemów Informacji Geograficznej oraz Systemów Informacji Przestrzennej. Główny nurt zainteresowań obejmuje analizy i modelowanie zmienności czasowo przestrzennej procesów zachodzących w środowisku przyrodniczym. 1 Dragicevic S., The potential of Web based GIS. Journal of Geographical Systems 6(2), 2004, s

28 Ocena umiejętności studentów w zakresie wyszukiwania informacji przestrzennej w Internecie lat stał się swoistą wizytówką technologii geoinformacyjnych dla użytkowników internetu 2. Obecnie Internet dostarcza wielu rozmaitych narzędzi wyszukiwania informacji przestrzennej. Przykładami wyszukiwawczych serwisów internetowych, korzystających z map elektronicznych, są Panorama Firm i Polskie Książki Telefoniczne. Obydwa serwisy pozwalają na wyszukanie lokalizacji firm oraz wyznaczanie tras przejazdu. Podobną rolę spełnia wyszukiwarka geoprzestrzenna map24 (http://map24.interia.pl). Kolejną grupą narzędzi są tzw. lokalizatory internetowe. Są one wyszukiwarkami, działającymi w oparciu o mapy elektroniczne i połączone z nimi bazy danych teleadresowych. Przykładowymi lokalizatorami są Zumi, docelu.pl, gdzie.org, Lokalizator internetowy Emapi.pl posiada, oprócz podstawowych funkcji jak wyszukiwanie lokalizacji, wyznaczanie trasy z punktu A do punktu B, wiele dodatkowych możliwości, takich jak wytyczanie trasy na podstawie podanych kodów pocztowych ora ciekawe dodatki, jak moduł utrudnień na drogach. Z kolei Google udostępnia geoprzeglądarkę Mapy Google (Google Maps). Oprócz wymienionych powyżej usług, materiały kartograficzne pozostające w gestii jednostek samorządu terytorialnego oraz urzędów administracji publicznej i instytucji naukowych, są udostępniane w postaci systemów informacji terenowej, geoportali oraz internetowych planów miast. Tworzeniem i udostępnianiem danych przestrzennych w Internecie, w dobie rozwoju sieci Web 2.0, zajmuje się również społeczność internetowa. Jako flagowe projekty tego nurtu należy wymienić OpenStreetMap i Wikimapię. Badania dotyczące informacji przestrzennej Dotychczasowe badania wykazały zróżnicowanie stopnia znajomości serwisów zawierających mapy i umiejętności korzystania z nich wśród studentów. W badaniach prowadzonych w 2007 roku wśród studentów kierunków Geografia i Administracja celem była ocena wiedzy i umiejętności praktycznych w zakresie korzystania z geoprzeglądarek i wirtualnych globusów. Jak wykazały te badania, z różnych map elektronicznych dostępnych w sieci, korzystało wówczas 98% studentów geografii i 65% studentów administracji publicznej 3. Uszczegółowienie badań wykazało, że z geoprzeglądarki mapowej Google Maps korzystało ponad 82% studentów geografii i 35% studentów administracji. Z wirtualnego globusa Google Earth korzystało 96% studentów geografii i 35% studentów administracji. Badania, przeprowadzone w 2009 roku, miały na celu ponowne sprawdzenie stanu wiedzy studentów kierunków geograficznych i niegeograficznych w zakresie korzystania z lokalizatorów internetowych i wirtualnych globusów. Badania ankietowe wykazały znajomość serwisu Mapy Google wśród wszystkich ankietowanych studentów geografii, wśród 88% studentów ochrony środowiska i 58% studentów pedagogiki i nauk politycznych (badania niepublikowane). Wyniki uzyskane w latach 2007 i 2009, oraz dalszy intensywny rozwój źródeł informacji przestrzennej, skłoniły autorów opracowania do przeprowadzenia kolejnych badań wśród studentów, dla których, z racji wybranego kierunku studiów informacja geograficzna jest istotnym elementem. Charakterystyka grupy badawczej Badania przeprowadzono wśród 60 studentów I roku studiów zaocznych Akademii Humanistycznej im. Aleksandra Gieysztora w Pułtusku na kierunkach administracja publiczna, politologia oraz we Wszechnicy Polskiej, Szkole Wyższej Towarzystwa Wiedzy Powszechnej na kierunkach administracja publiczna i bezpieczeństwo narodowe. 2 Rzeszewski M., Jasiewicz J., WebGIS od map w internecie do geoprzetwarzania. [w:] Z. Zwoliński Z. (red.), GIS platforma integracyjna w geografii, Bogucki Wyd. Naukowe, Poznań s Pokojska P., Pokojski W., Virtual globes and electronic map services evaluation of their applications by students of geography and non geography faculties, [w:] W. Wilk (red.), Global changes: their regional and global aspects, Warsaw University, Warszawa s

29 Wojciech Pokojski, Paulina Pokojska Badanie przeprowadzono w komputerowych salach dydaktycznych, wyposażonych w łącza internetowe. Ankietowani podczas badania mieli możliwość korzystania z przeglądarki internetowej. Zadania miały na celu sprawdzenie umiejętności wyszukania informacji geograficznej oraz uzyskanie informacji na temat narzędzi, z których studenci korzystają wyszukując informacje przestrzenne. Charakterystyka kwestionariusza W celach badawczych skonstruowano kwestionariusz, w którym studenci byli proszeni o podanie informacji geograficznych o charakterze przestrzennym, taki jak np. odległość między wybranymi obiektami geograficznymi czy powierzchnia wybranych obszarów. Zadania były tak sformułowane, że w celu udzielenia prawidłowej, dokładnej odpowiedzi na pytanie należało wykorzystać interaktywne mapy i geoprzeglądarki, wyposażone w narzędzia pomiaru odległości, powierzchni oraz wyznaczania tras przejazdu. Analizą objęto nie tylko poprawność udzielonych odpowiedzi, ale także źródła, z których pozyskano te informacje. Takie podejście pozwoliło poznać sposoby wyszukiwania informacji geograficznych przez studentów. Interesujące było także sprawdzenie, czy internauci biernie powielają informacje błędne, które niestety czasami występują na stronach internetowych. Sformułowano kilka pytań badawczych : Z jakich narzędzi studenci korzystają najczęściej wyszukując informacje w Internecie? Czy studenci wykorzystują strony internetowe i aplikacje prezentujące informacje przestrzenną w celu wyszukania odpowiedzi dotyczącej odległości czy trasy dojazdu? Czy studenci potrafią prawidłowo wykorzystać narzędzia pomiaru odległości, powierzchni i wyznaczania trasy przejazdu? Który serwis geoprzestrzenny jest najpopularniejszy? Postawiono tezę, że najczęściej wykorzystywanym serwisem geoprzestrzennym jest serwis Mapy Google. Test składał się z 6 otwartych pytań, na które studenci mieli udzielić szczegółowych odpowiedzi wraz z podaniem źródła internetowego, z którego zaczerpnęli odpowiedź. Żadne z pytań nie zawierało podpowiedzi, gdzie wyszukać odpowiedzi, a pytania były na tyle szczegółowe, że w nie pozwalały udzielić dokładnej odpowiedzi z głowy. Zadania dotyczyły kolejno: podania długości i szerokości geograficznej Warszawy, odległości między wschodnim krańcem Płw. Helskiego a ujściem Wisły w Świbnie, wyznaczenia połączenia drogowego między określonymi miejscami w Warszawie i Ciechanowie, podania nazw miast, przez które przepływa Drwęca, podania powierzchni Zatoki Gdańskiej, podania nazw powiatów, graniczących z Ukrainą oraz podania nazw rzeki uchodzących do Wisły na odcinku między Sandomierzem a Warszawą. Autorzy w trakcie opracowywania testu sprawdzili możliwe źródła tych informacji w sieci. Każdą z tych informacji można wyszukać na kilka sposobów, niemniej jest w sieci kilka narzędzi, które pozwalają zrobić to szybko i bezbłędnie. Wyniki badań Położenie Na pytanie jaka jest długość i szerokość geograficzna Warszawy wszyscy ankietowani odpowiedzieli prawidłowo. Do wyszukania tej informacji większość studentów wykorzystała wyszukiwarkę Google, wpisując w polu wyszukiwania hasło długość i szerokość geograficzna Warszawy lub położenie geograficzne Warszawy. Ponad 80% osób poprzez wyszukiwarkę Google wyszukało strony internetowe, na których były podane współrzędne Warszawy: 42% skorzystało ze strony 12% z Wikipedii, 10% ze strony Zaledwie 7% osób odczytało współrzędne geograficzne z mapy. 29

30 Ocena umiejętności studentów w zakresie wyszukiwania informacji przestrzennej w Internecie Odległości Pytanie o odległość między wschodnim krańcem Płw. Helskiego a ujściem Wisły w Świbnie sprawiło ankietowanym dużo trudności. Odległość ta wynosi ok. 30 km w linii prostej. Za prawidłową odpowiedź uznawano wartości z przedziału od 25 do 35 km. Prawidłową odległość podało zaledwie 17% ankietowanych, posługując się najczęściej wyszukiwarkami przestrzennymi Mapy Google i mapy.szukacz.pl. Studenci wykorzystali narzędzia do pomiaru odległości lub orientacyjnie oceniali odległość, korzystając z podziałki liniowej na mapie. Około 22% ankietowanych podało wartości odpowiadające przybliżonej odległości drogowej miasta Hel do miejscowości położonych najbliżej ujścia Wisły, korzystając z narzędzi wyznaczania trasy przejazdu. 13% osób udzieliło nieprawidłowej odpowiedzi, w tym trzy osoby podały wartość 712 km, co odpowiada odległości drogowej pomiędzy miastami Hel i Wisła, mimo, że w ankiecie zapytano o ujście rzeki Wisły. Aż 43% osób nie udzieliło odpowiedzi na to pytanie, w tym 52% stanowili studenci bezpieczeństwa narodowego. Znacznie lepiej z tym zadaniem poradzili sobie studenci nauk politycznych (29% studentów nauk politycznych nie udzieliło odpowiedzi, zatem mniejszy odsetek, niż wśród studentów bezpieczeństwa narodowego). Prawidłowe udzielenie odpowiedzi nie było skorelowane z geograficznym przygotowaniem, którego miarą był wybór geografii na egzaminie maturalnym. Trasa przejazdu Trasę przejazdu miedzy dwoma wskazanymi adresami (miasto, ulica) wyznaczyło 88% z różnym stopniem szczegółowości 88% ankietowanych. 12% ankietowanych nie udzieliło odpowiedzi na to pytanie. Prawidłowe, szczegółowe wyznaczenie trasy wymagało podania pięciu lub sześciu numerów dróg. 35% osób wyszukało zaledwie jeden lub dwa numery dróg łączących podane adresy, 23% osób podało trzy numery dróg, 18% cztery numery, a zaledwie 12% podało pięć lub sześć numerów dróg, tym samym szczegółowo opisując trasę do pokonania. Ponad połowa (57%) ankietowanych wykorzystała serwis mapy.google.pl. Z wyszukiwarek przestrzennych i bazujących na mapie Google skorzystały trzy osoby. W 15% przypadków ankietowani skorzystali z wyszukiwarki przestrzennej Zumi. Najszczegółowiej trasę wyznaczali studenci bezpieczeństwa, bardzo słaba umiejętnością wyznaczenia trasy wykazali się studenci nauk politycznych. Położenie miast Ankietowani mieli za zadanie sprawdzić, przez które miasta przepływa Drwęca. W pełni prawidłowej odpowiedzi udzieliło 58% ankietowanych. Ponad połowa ankietowanych, którzy udzielili prawidłowej odpowiedzi, jako źródło informacji podała zasoby encyklopedii Wikipedia. Zaledwie 20% osób, które udzieliło prawidłowej odpowiedzi, samodzielnie policzyło liczbę miast położonych nad Drwęcą skorzystali oni z serwisu Mapy Google. Sześć osób korzystających z Wikipedii, błędnie podało zawyżoną liczbę miast nad Drwęcą, mylnie uwzględniając miasta położone w całym jej dorzeczu. Najczęściej błędną odpowiedź podawały osoby, które wykorzystały jako źródło informacji mapy znajdujące się na lokalnych stronach internetowych. Pytanie o liczbę miast wykazało, że ankietowani wolą korzystać z informacji geograficznych podanych w formie tekstowej i często nieumiejętnie posługują się mapami, nie umiejąc odczytać informacji zawartych na mapach. Z zadaniem tym lepiej poradziły sobie osoby, które zdawały geografię na maturze: poprawnej odpowiedzi udzieliło 80% osób zdających maturę z geografii i 51% osób, które nie zdawały matury z geografii. Lepiej na to pytanie odpowiadali studenci bezpieczeństwa narodowego i nauk politycznych (61% i 64% poprawnych odpowiedzi), słabiej studenci administracji (47% studentów tego kierunku udzieliło poprawnej odpowiedzi). 30

31 Wojciech Pokojski, Paulina Pokojska Powierzchnia Kolejne pytanie dotyczyło powierzchni Zatoki Gdańskiej. 52% ankietowanych udzieliło odpowiedzi poprawnej (6300 km 2 ), podając jako źródło tej informacji albo stronę internetową (81% osób) albo stronę (19% osób). 5% ankietowanych podało mniejszą powierzchnię (5134 km 2 ), również uznawaną przez niektóre źródła za poprawną i którą także uznaliśmy za prawidłową. Niemal 17% ankietowanych podało błędną powierzchnię Zatoki Gdańskiej rzędu 364 km 2, podając jako źródło stronę internetową omyłkowo jednak odczytywali oni tam powierzchnię Zatoki Puckiej. Pozostałe 31% ankietowanych podało inne, również niepoprawne powierzchnie zatoki. Wśród wszystkich ankietowanych osób, prawidłową odpowiedź częściej (73%) podawały osoby zdające maturę z geografii; wśród osób wybierających inne przedmioty na maturze prawidłowych odpowiedzi było mniej (53%). Dużo więcej poprawnych odpowiedzi udzielili studenci nauk politycznych (86%) i administracji (73%) niż studenci bezpieczeństwa narodowego (35%). Powiaty graniczne W kolejnym pytaniu należało podać nazwy powiatów, które graniczą z Ukrainą. Spodziewano się, że ankietowani, aby uzyskać odpowiedź na to pytanie, wykorzystają jako źródło informacji któryś z serwisów mapowych. Odnalezienie takiej informacji w dokumentach tekstowych jest trudne w opisach towarzyszących liście wyników wyszukiwania nie ma takiej informacji. Wyszukanie informacji utrudnia także fakt, że Mapa Google nie zawiera podziału administracyjnego Polski. Wskutek wymienionych trudności prawidłowej odpowiedzi udzieliło tylko 18% ankietowanych. Za źródło informacji posłużyło im opracowanie GUS, poświęcone charakterystyce pogranicza polsko ukraińskiego (jest to plik.pdf zawierający mapę). Najwięcej ankietowanych (25%) wymieniło zaledwie nazwy czterech powiatów graniczących z Ukrainą, podając jako źródło informacji opracowanie w formacie publikacji elektronicznej (pdf) Urzędu Statystycznego w Rzeszowie, dotyczące charakterystyki województwa podkarpackiego. Wiek, płeć i deklarowane zainteresowania geografią nie okazały się istotne w skuteczności wyszukania tej informacji. Ponownie okazało się, że jeśli żądana informacja nie jest dostępna poprzez proste zapytanie w wyszukiwarce internetowej, to większość osób ma problemy ze zdobyciem poszukiwanej informacji przestrzennej. Podsumowanie Zaledwie 3% ankietowanych udzieliło prawidłowej odpowiedzi na wszystkie pytania (tab. 1). 10% udzieliło pięciu poprawnych odpowiedzi, 20% osób odpowiedziało prawidłowo na cztery pytania. Najwięcej, bo 35% osób udzieliło poprawnej odpowiedzi tylko na dwa pytania. Zatem niemal 70% ankietowanych udzieliło prawidłowej odpowiedzi na co najwyżej trzy pytania. Tabela 1. Struktura odpowiedzi na pytania kwestionariuszowe. Liczba poprawnych odpowiedzi Liczba respondentów Udział procentowy respondentów 1 3 5% % % % % 6 2 3% Źródło: opracowanie własne 31

32 Ocena umiejętności studentów w zakresie wyszukiwania informacji przestrzennej w Internecie Osoby które udzieliły od 4 do 6 prawidłowych odpowiedzi to częściej mężczyźni (42% wszystkich ankietowanych mężczyzn), rzadziej kobiety (28% wszystkich ankietowanych kobiet). Najlepiej w ankiecie wypadli studenci bezpieczeństwa narodowego (42% osób z tej grupy odpowiedziało prawidłowo na więcej niż 3 pytania), najsłabiej studenci nauk politycznych (tylko 14% osób odpowiedziało na więcej niż 3 pytania). Wyniki testu wykazują, że wiedza zdobyta podczas nauki do matury z geografii ma niewielki wpływ na umiejętności wyszukiwania informacji przestrzennej w Internecie istotna statystycznie zależność między liczbą udzielanych odpowiedzi a deklaracją o wyborze geografii jako przedmiotu maturalnego zaistniała jedynie przy odpowiedziach na dwa spośród siedmiu pytań. Większy wpływ na liczbę prawidłowych odpowiedzi ma natomiast kierunek studiów. Studenci bezpieczeństwa narodowego potraktowali ankietę zadaniowo, lepiej wypadli zadaniach, w których należało dokonać pomiaru odległości/powierzchni lub wyznaczyć trasę. Studenci nauk politycznych najlepiej wypadli w zadaniach polegających na umiejętności wyszukiwania informacji tekstowej w sieci, a słabiej w zadaniach wymagających wyznaczenia trasy i dokonania pomiaru odległości. Odpowiedź na pytania badawcze Przeprowadzone badania wykazały, że wśród studentów wybranych kierunków najbardziej popularnym sposobem wyszukiwania informacji jest wpisanie zapytania w wyszukiwarce Google. Wszyscy studenci potrafią wyszukiwać informacje zapisane i udostępniane w postaci tekstu, a w większość potrafi wyznaczyć trasę przejazdu korzystając z aplikacji internetowych. Trasę przejazdu miedzy dwoma miejscowościami potrafiło wyznaczyć w sposób, który można uznać za zadowalający, 53% ankietowanych, a 35% robiła to nieporadnie. Umiejętność wyszukiwania informacji przestrzennych z wykorzystaniem mapy nie jest zadowalająca. Studenci, szukając informacji o charakterze przestrzennym, bardzo rzadko biorą pod uwagę mapę. Niepokoją fakty, że jedynie 7% osób odczytało współrzędne geograficzne Warszawy z mapy, że prawidłowe odległości (drogowa i najkrótsza) między krańcem Płw. Helskiego a ujściem Wisły podało zaledwie 17% ankietowanych. Na pytanie o miasta zlokalizowane nad Drwęcą odpowiedziało wprawdzie prawidłowo 58% osób, jednak z tej grupy tylko 1/5 policzyła miasta na mapie, a pozostałe osoby wykorzystały opracowanie tekstowe zamieszczone w Wikipedii. Na pytanie o nazwy powiatów graniczących z Ukrainą poprawnie odpowiedziało tylko 18% ankietowanych. Najwięcej trudności wywołują pytania, na które nie można uzyskać odpowiedzi poprzez wpisanie odpowiedniej frazy w wyszukiwarce Google, a na które odpowiedzi należy szukać na mapach. Studenci, zniechęceni porażką przy wyszukaniu informacji w wyszukiwarce Google, nie podejmują prób wykorzystania alternatywnych narzędzi. Przed nauczycielami Technologii informacyjnej i Informatyki stoi nowe zadanie wykształcenie w uczniach i studentach umiejętności wyszukiwania informacji w Internecie, zwłaszcza informacji przestrzennej, by definiowana przez J.M. Morbitzera 4 edukacja wspierana komputerowo stała się faktem. W podstawie programowej dla liceum ogólnokształcącego, profilowanego i technikum dla przedmiotu geografia 5 zapisano zalecenie zapewnienia uczniom dostępu do różnorodnych źródeł informacji geograficznej, ze szczególnym uwzględnieniem materiałów kartograficznych i korzystanie z różnorodnych źródeł informacji geograficznej. W programach nauczania geografii w gimnazjum, powstałych po 2008 roku, uwzględniono potrzebę korzystania z serwisu Mapy 4 Morbitzer J., Edukacja wspierana komputerowo a humanistyczne wartości pedagogiki, Wydawnictwo Naukowe Akademii Pedagogicznej, Kraków Podstawa programowa kształcenia ogólnego dla liceów ogólnokształcących, liceów profilowanych, techników, uzupełniających liceów ogólnokształcących i techników uzupełniających, [ ]. 32

33 Wojciech Pokojski, Paulina Pokojska Google: w programie autorstwa Ewy Tuz 6 wymagania edukacyjne obejmują korzystanie z różnych źródeł informacji geograficznej w tym z serwisu Mapy Google. W programie nauczania Geografia w gimnazjum autorstwa Teresy Sadoń Osowieckiej 7 wspomniano o nabyciu umiejętności identyfikacji obiektów geograficznych poprzez wykorzystanie w tym celu serwisu Mapy Google. Według badań Ordnance Survey od 70% do 80% decyzji podejmowanych na wszystkich szczeblach zarządzania w administracji publicznej ma związek z przestrzenią geograficzną. Umiejętność korzystania z informacji przestrzennej jest zatem przydatna nie tylko osobom zawodowo związanym z informacją przestrzenną i na każdym etapie kształcenia należy zadbać o jej rozwijanie u uczniów i studentów. Bibliografia 1. Dragicevic S., The potential of Web based GIS. Journal of Geographical Systems 6(2), Morbitzer J., Edukacja wspierana komputerowo a humanistyczne wartości pedagogiki, Wydawnictwo Naukowe Akademii Pedagogicznej, Kraków Podstawa programowa kształcenia ogólnego dla liceów ogólnokształcących, liceów profilowanych, techników, uzupełniających liceów ogólnokształcących i techników uzupełniających, [ ]. 4. Pokojska P., Pokojski W., Virtual globes and electronic map services evaluation of their applications by students of geography and non geography faculties, [w:] W. Wilk (red.), Global changes: their regional and global aspects, Warsaw University, Warszawa Rzeszewski M., Jasiewicz J., WebGIS od map w internecie do geoprzetwarzania. [w:] Z. Zwoliński Z. (red.), GIS platforma integracyjna w geografii, Bogucki Wyd. Naukowe, Poznań Sadoń Osowiecka T., Geografia w gimnazjum, program nauczania, 0692b6431c1.pdf, [ ] 7. Tuz E. M., Program nauczania geografii dla gimnazjum, geografii.../download.html, [ ]. The Assessment of Students Abilities within the Scope of the Spatial Information Browsing on the Internet The Internet has become the main source of the information in recent years. In the online news bulletins, browsers and electronic phone books the number of tools providing users with the possibilities of gaining the spatial information grows very quickly. The research results were dedicated to students spatial information browsing abilities on the Internet. The studies conducted among university and college students have led to the conclusion that despite of the broad access to the spatial information tools, the abilities of gaining such information are insufficient. Keywords: spatial information, Internet browsers, geo browsers 6 Tuz E. M., Program nauczania geografii dla gimnazjum, [ ]. 7 Sadoń Osowiecka T., Geografia w gimnazjum, program nauczania, [ ] 33

34 Społeczeństwo bezgotówkowe środowisko występowania cyfrowego pieniądza Artur Borcuch * Społeczeństwo bezgotówkowe środowisko występowania cyfrowego pieniądza Streszczenie: W społeczeństwie bezgotówkowym pieniądz występuje wyłącznie w formie cyfrowej. Taka forma pieniądza wymaga od każdej osoby posiadania rachunku bankowego oraz elektronicznego instrumentu dokonywania/przyjmowania płatności elektronicznej. Społeczeństwo bezgotówkowe przynosi szereg korzyści dla gospodarki: ograniczenie funkcjonowania szarej strefy czy obniżenie kosztów cyrkulacji pieniądza. Z drugiej strony w takim społeczeństwie osoba musi pogodzić się z utratą anonimowości (szczególnie w sferze pieniądza). Celem niniejszego artykułu jest podjęcie rozważań na temat charakteru społeczeństwa bezgotówkowego i jego lokalizacji w relacji do społeczeństwa informacyjnego. Słowa kluczowe: społeczeństwo bezgotówkowe, pieniądz cyfrowy, społeczeństwo informacyjne Wstęp Społeczeństwo bezgotówkowe to nowy wymiar społeczeństwa, w którym pieniądz ma wyłącznie postać cyfrową. Istnienie takiego społeczeństwa polega na tym, że banknoty i monety przestają być prawnym środkiem dokonywania płatności. Społeczeństwo bezgotówkowe wymaga pełnej (całkowitej) informatyzacji oraz elektronizacji społeczeństwa. Celem niniejszego artykułu jest podjęcie rozważań na temat charakteru społeczeństwa bezgotówkowego i jego lokalizacji w relacji do społeczeństwa informacyjnego. Ważne pytanie, jakie pojawia się w tym względzie jest następujące: czy społeczeństwo bezgotówkowe można uznać za nową formę w rozwoju społeczeństw, czy może stanowi ono uzupełnienie/dopełnienie społeczeństwa informacyjnego? Pewne utrudnienie w odpowiedzi na niniejsze pytanie stanowi "bezgotówkowość" społeczeństwa, która sugeruje jego proweniencję ekonomiczną. Lokalizacja społeczeństwa bezgotówkowego Próba zaprezentowania idei społeczeństwa bezgotówkowego wymaga uznanych i określonych obecnie form społeczeństw. Niewątpliwie, najbliżej jest w tym względzie do koncepcji społeczeństwa informacyjnego, które (najprościej rzecz ujmując), jest wysoce zależne od informacji 1. Społeczeństwo informacyjne to społeczeństwo, w którym informacja jest intensywnie wykorzystywana w życiu ekonomicznym, społecznym, kulturalnym i politycznym. To także społeczeństwo posiadające bogate środki komunikacji i przetwarzania informacji będące podstawą tworzenia większości dochodu narodowego oraz zapewniające źródło utrzymania dla większości ludzi 2. Społeczeństwo informacyjne jest również określane mianem cyfrowej gospodarki czy trzeciej fali 3. * dr nauk ekonomicznych. Pracownik w Instytucie Zarządzania, Wydziału Zarządzania i Administracji Uniwersytetu Jana Kochanowskiego w Kielcach. Autor prac dotyczących zagadnień e płatności, społeczeństwa informacyjnego, systemów płatności wysokokwotowych i detalicznych oraz wykluczenia finansowego. 1 Mutula S. M., Digital Economies: SMEs and E Readiness, Business Science Reference, Hershey New York 2009, s Krzysztofek K., Szczepański M., Zrozumieć rozwój. Od społeczeństw tradycyjnych do informacyjnych, Wydawnictwo Uniwersytetu Śląskiego, Śląsk 2002, s Goldfinger C., Intangible Economy and Electronic Money [w:] The future of money, OECD, Paris 2002, s

35 Artur Borcuch Społeczeństwo informacyjne rewolucja cyfrowa rewolucja gospodarcza rewolucja społeczna Rysunek 1. "Rewolucje" w wymiarze społeczeństwa informacyjnego Źródło: opracowanie własne na podstawie: F. Ruzic, Electronic Signature: The Core Legislation Category in Digital Economy [w:] Global Economy: Impacts, Influences, and Challenges, ed. H. S. Kehal, V. P. Singh, Idea Group Publishing, Hershey, London, Melbourne, Singapore 2005, s. 99. Społeczeństwo informacyjne jest efektem szeroko rozumianej rewolucji, jaka miała miejsce w wymiarze cyfrowym, gospodarczym oraz społecznym. Z perspektywy społeczeństwa bezgotówkowego można uznać, że wszystkie te elementy wpisują się w fundament jego funkcjonowania. Próba stworzenia ram społeczeństwa bezgotówkowego Społeczeństwo bezgotówkowe wymaga odpowiedniej i zaawansowanej technologicznie infrastruktury. Oprócz tego niezbędny jest ciągły dostęp do energii elektrycznej. Potrzebne są również "światłowody", którymi można przesyłać odpowiednie dane na temat realizowanych transakcji (dostęp do internetu). Niezbędne są w końcu urządzenia komputery stacjonarne, laptopy, tablety, smartfony oraz karty płatnicze 4. Tabela 1. Infrastrukturalne elementy społeczeństwa bezgotówkowego 1. Bezawaryjne dostarczanie energii elektrycznej 2. Infrastruktura 2a. Łącza przewodowe (np. światłowody) 2b. Łącza bezprzewodowe 3. Dostęp do internetu 4. Urządzenia elektroniczne za pomocą których można dokonywać płatności: komputer stacjonarny; laptop; tablet; smartfon; karta płatnicza Źródło: opracowanie własne Brak dostępu do energii elektrycznej, czy awaria systemów informatycznych stanowi przeszkodę w sprawnym i prawidłowym funkcjonowaniu społeczeństwa bezgotówkowego. Co roku zdarzają się przypadki awarii systemów bankowości online, które co prawda zazwyczaj trwają kilka godzin, lecz zawsze inicjują dyskusję na temat stopnia digitalizacji pieniądza. Istotną przeszkodę w rozwoju społeczeństwa bezgotówkowego stanowią zagrożenia kataklizmów czy wojen. "Elektronika" zawsze może się popsuć, zaś systemy informatyczne mogą być obiektem różnego rodzaju ataków hakerskich jak i fizycznych (popsucie serwera, lub jego odłączenie). Przekazywanie pieniądza papierowego czy monet w takich warunkach jest dużo bezpieczniejsze i stanowi poważny argument w rękach sceptyków elektronizacji gospodarki. 4 Knapp A., The Perils of a Cashless Society, perils ofa cashless society/ z dn

36 Społeczeństwo bezgotówkowe środowisko występowania cyfrowego pieniądza Można w związku z powyższym twierdzić, że idea społeczeństwa bezgotówkowego sprawdzi się w warunkach stabilności gospodarczej i militarnej. Przykładem rozwiniętych gospodarek w zakresie elektronicznych form płatności są Japonia, Korea Południowa i Singapur. W Europie coraz częściej mówi się o Szwecji, gdzie płatności elektroniczne mają być jedyną formą dokonywania zapłaty. Można dodać, iż innowacyjność w zakresie implementowania nowoczesnych form płatności powtarza się, ponieważ to właśnie w Szwecji po raz pierwszy wprowadzono banknoty (1661 rok). Obecnie, w większości miast tego kraju, w środkach publicznego transportu nie jest akceptowana gotówka. Biletami są zatem karty przedpłacone lub specjalne smsy zapisane w telefonach komórkowych. W Szwecji są również miasta, w których banki nie przyjmują/wydają gotówki. Problemem, jaki wyłania się w tym względzie jest to kwestia starszych osób, mieszkających na wsiach, które nie posiadają kart kredytowych, a nawet jeśli posiadają to nie potrafią ich użyć do wypłaty gotówki. W zakresie elektronicznych instrumentów płatniczych warto zaznaczyć, że w Szwecji niektóre z kościołów (Carl Gustaf Church w Karlshamn) zainstalowały w budynkach czytniki kart płatniczych, aby wierni mogli w taki sposób oferować datki. Elektronizacja pieniądza w Szwecji sprawiła również, że liczba napadów na banki spadła z 110 w 2008 roku do 16 w roku Z drugiej strony liczba przestępstw cyfrowych (skomputeryzowanych przypadków oszustw np. skimming) wzrosła z 3304 w 2000 roku do w 2011 roku 5. Idei społeczeństwa bezgotówkowego nie można analizować z pominięciem interesariuszy. Tutaj intersariuszami będą: producenci energii elektrycznej, operatorzy sieci telefonii komórkowej, dostawcy Internetu, banki, organizacje kartowe, centra rozliczeniowe, producenci odpowiedniego sprzętu komputerowego. Głównymi "interesariuszami" w społeczeństwie bezgotówkowym są jednak klienci i sprzedawcy. I w tym względzie trzeba odnotować, że większość z infrastruktury obiegu pieniądza jest poza kontrolą handlowców. Nie mogą oni bowiem kontrolować energii elektrycznej; nie są w stanie sprawdzić, czy anteny telefonii komórkowej działają sprawnie; nie mają możliwości sprawdzenia, czy komputery banków działają sprawnie. Przewagą gotówki w tym względzie jest argument, że jedyną infrastrukturą jest chęć sprzedania danego towaru/usługi przez sprzedawcę. Jeżeli klient posiada gotówkę, transakcja jest realizowana 6. Społeczeństwo bezgotówkowe przynosi szereg korzyści dla gospodarki. Jedną z nich jest ograniczenie funkcjonowania szarej strefy. Inna z kolei oznacza eliminację kosztów związanych z obrotem pieniądza gotówkowego. Następna powoduje wyeliminowanie napadów na banki. Z drugiej strony trzeba jednak pamiętać, że społeczeństwo niezmiernie ceni sobie anonimowość, a w szczególności jeżeli chodzi o sferę pieniądza. Ta bariera w powstaniu społeczeństwa bezgotówkowego jest szczególnie istotna. 5 Sweden Edges Closer To Becoming Cashless Society, money paper coin_n_ html z dn Knapp A., op. cit. 36

37 Artur Borcuch Tabela 2. Korzyści i koszty społeczeństwa bezgotówkowego Korzyści społeczeństwa bezgotówkowego Koszty społeczeństwa bezgotówkowego Ograniczanie funkcjonowania szarej strefy Rezygnacja z anonimowych transakcji (oraz anonimowego pieniądza) Eliminacja kosztów związanych z obrotem pieniądza Wzrost ataków hakerskich na banki internetowe gotówkowego Wyeliminowanie napadów na fizyczne oddziały Koszty urządzeń elektronicznych pozwalających na banków dokonywanie płatności Włączenie cyfrowe (społeczeństwo informacyjne) Koszty dostępu do Internetu Włączenie finansowe (społeczeństwo ubankowione) Transparentność gospodarki Źródło: opracowanie własne Powstanie społeczeństwa bezgotówkowego wymaga całkowitej informatyzacji zarówno w społeczeństwie, jak i gospodarce. Oznacza to, że wszyscy obywatele danego kraju, jak również wszystkie przedsiębiorstwa handlowo usługowe (prywatny sektor finansowy) oraz urzędy (publiczny sektor finansowy) muszą posiadać elektroniczne instrumenty dokonywania/przyjmowania płatności. Pojawia się jednak ważne pytanie: czy (przy spełnieniu warunków infrastrukturalnych) trzeba "zmusić" społeczeństwo do przejścia od pieniądza gotówkowego do pieniądza bezgotówkowego np. poprzez wprowadzenie odpowiednich regulacji prawnych? Czy może lepszym rozwiązaniem jest zdobywanie zaufania społeczeństwa i nastawienie się na wieloletni proces przechodzenia z jednej sfery do drugiej. "Terapia szokowa" w zakresie przejścia z gotówki do pieniądza cyfrowego jeszcze nigdzie nie została zrealizowana. Z kolei proces stopniowego wypierania banknotów i monet przez płatności elektroniczne odbywa się w wielu krajach na świecie (np. Szwecja, Japonia). W tym miejscu można zauważyć, jak ważną staje się instytucja zaufania. Na zakorzenienie pieniądza w "glebie" zaufania wskazuje m.in. N. Dodd, który zachęca do mówienia nie tyle o pieniądzu, ile o sieciach pieniężnych, co, jego zdaniem, lepiej podkreśla społeczny charakter pieniądza 7 (można to potraktować jako pieniądz transakcyjny). Obecnie w wielu krajach mówi się o braku zaufania do pieniądza mającego wyłączenie postać cyfrową. Wiele osób obawia się, że elektronika się popsuje, że rozliczenia elektroniczne zostaną źle zaksięgowane, lub że nie ma odpowiedniej infrastruktury do płacenia pieniądzem posiadającym formę elektroniczną. 7 Górniak J., My i nasze pieniądze. Studium postaw wobec pieniądza, Wydawnictwo Aureus, Kraków 2000, s

38 Społeczeństwo bezgotówkowe środowisko występowania cyfrowego pieniądza Rysunek 2. Przepływ pieniądza w społeczeństwie bezgotówkowym Źródło: opracowanie własne W wymiarze społeczeństwa bezgotówkowego na uwagę zasługują następujące kategorie społeczne: osoby starsze, szczególnie mieszkające w małych miasteczkach, i we wsiach; dzieci do 13 roku życia 8 ; osoby wykluczone społecznie i wykluczone finansowo (osoby bezdomne, osoby niepełnosprawne). Szczególne miejsce w niniejszej klasyfikacji zajmuje kategoria dzieci w wieku do 13 lat. Jak wiadomo, po urodzeniu każda osoba ma nadany numer PESEL. Interesującym pomysłem w tym względzie byłoby określenie, że numer PESEL byłby równocześnie numerem rachunku bankowego danym osobie na całe życie. W konsekwencji implikowałoby to obligatoryjność posiadania konta bankowego przez wszystkich obywateli danego państwa. Pomysł taki stawia jednak wiele pytań. W którym banku taki rachunek miałby się znajdować? Kto byłby obciążony kosztami jego prowadzenia? Pewnym rozwiązaniem byłyby ustawowe regulacje, że osoba w wieku do 13 lat miałaby darmowe i standaryzowane konto w zakresie podstawowych usług bankowych. Takie konto bankowe byłoby sponsorowane przez Skarb Państwa. Z kolei standaryzacja rachunku w zakresie usług i kosztów oznaczałaby dowolność w wyborze banku, w którym założony byłby taki rachunek. Trzeba również pamiętać o edukacji finansowej. Takie działania wymusiłyby edukację w zakresie usług finansowych już w przedszkolu. Oznacza to, że następne pokolenia byłyby zdygitalizowane i ubankowione całkowicie. Podsumowanie Najprościej rzecz ujmując, społeczeństwo bezgotówkowe to takie, w którym nie istnieje pieniądz gotówkowy. Społeczeństwo bezgotówkowe opiera się wyłącznie na pieniądzu cyfrowym co oznacza, że nie może ono funkcjonować bez serwerów, komputerów, laptopów, tabletów, telefonów komórkowych czy mikroprocesorowych kart płatniczych. Społeczeństwo bezgotówkowe stanowi dopełnienie społeczeństwa informacyjnego z punktu widzenia ekonomii i finansów. Przeszkodą w powstaniu społeczeństwa bezgotówkowego jest rozróżnienie na sektor publiczny, gdzie nie ma miejsca na anonimowość rozliczeń 8 W Polsce, większość banków pozwala na zakładanie rachunków bankowych osobom, które skończyły 13 lat (za zgodą rodziców). 38

39 Artur Borcuch i rozrachunków, oraz sektor prywatny gdzie obowiązuje ochrona danych osobowych. W tym względzie, społeczeństwo bezgotówkowe to takie, które w imię pełnej transparentności działań w gospodarce, rezygnuje z ochrony danych osobowych. Bibliografia 1. Goldfinger C., Intangible Economy and Electronic Money [w:] The future of money, OECD, Paris Górniak J., My i nasze pieniądze. Studium postaw wobec pieniądza, Wydawnictwo Aureus, Kraków Knapp A., The Perils of a Cashless Society, perils of a cashless society/ z dn Krzysztofek K., Szczepański M., Zrozumieć rozwój. Od społeczeństw tradycyjnych do informacyjnych, Wydawnictwo Uniwersytetu Śląskiego, Śląsk Mutula S. M., Digital Economies: SMEs and E Readiness, Business Science Reference, Hershey New York Sweden Edges Closer To Becoming Cashless Society, cashless money papercoin_n_ html z dn Cashless Society the Digital Money Environment Occurrence Money as a digital content entirely appears in cashless society. That kind of money requires a current account from every person or having an electronic equipment in order to make/accept digital payments. A number of benefits to economy is provided by the so called cashless society. Limitation of the grey economy or reduction of money circulation costs are some of them. On the other hand, in such society one has to reconcile to a loss of anonymity, especially in the aspect of money. The purpose of this article is to make an analysis of the nature of the cashless society, and its comparison with the information society. Keywords: Cashless society, digital money, information society 39

40 A Knowledge Concocter to Sustain Innovation Propensity Bruno Jacobfeuerborn * A Knowledge Concocter to Sustain Innovation Propensity Abstract: Innovation propensity seems to be a condition sine qua non for maintaining durable innovativeness. But is propensity also a sufficient condition to innovate or it has to be supported, in one way or another? If so, the next question comes along: Can the innovation propensity of both individuals and organizations be boosted, and which are the necessary means and measures to do so, if any? This paper attempts to provide a draft answer to these questions mainly focusing on knowledge based facilities and ICT methodologies, solutions, and tools that can significantly empower innovativeness. The paper identifies these knowledge intensive facilities that can support innovativeness of individuals and organizations, respectively, then, it configures these facilities in a consistent framework constituting an ecosystem of open innovation based on knowledge that we dub Knowledge Concocter. The paper will be concluded by a short case study of the BRAMA Lab operating at the Warsaw University of Technology where elements of such a concocter were implemented. Keywords: innovation, open innovation, innovation propensity, knowledge concocter, ICT Introduction Innovation Propensity For decades questions similar to the following ones have been asked by executives, managers, engineers, researchers, and scholars: How to make innovation ordinary? How to get it ingrained in one s comportment and organizational tissue? In Ars Amatoria Ovid told us: Nothing is stronger than habit. Indeed, habits are well rooted in a human nature being particularly durable and difficult to change; they are the carriers and entrenchments of human conservatism and reluctance to change. Most humans are unconsciously victimized by instinctive mental habits and social constraints and restrictions that defeat the will to create and creativity itself. Innovation however requires creativity and openness, readiness to change, acceptance of failures, and above all to get rid of the tyranny of common sense. Innovation is about the will to explore new territories and set up paths to them, while remembering that There are no old roads to new directions as a certain commercial slogan reads. Observation and experience prompt us that there is merely a small faction of people and organizations that by their nature and modus operandi are predestinated and are willing to engage in innovation those who exhibit an innovation propensity. The objective of this paper is to determine some knowledge based means and ways, mainly through exploiting information and communications technologies (ICT), towards strengthening this propensity. Today we are aware of the fact that in many cases innovation can be vital and sometimes a critical element of survival strategies for companies and organizations without which they risk to get marginalized and/or become obsolete, as it happened to dinosaurs that missed the evolutionary opportunity to survive in the changing environment. Innovation can be born in a private setting, which was a typical case in the past, before the wide realization that innovation can provide agents operating in a marketplace or in a public sphere of a society a sharp comparative or competitive advantage. More often than as an individual venture these days innovation is born in multifaceted environments, where the minds of technologists, managers, * Deutsche Telekom AG, Germany, online.de 40

41 Bruno Jacobfeuerborn researchers, and marketing specialists interested and motivated to seek innovative solutions meet. Such an agora of minds aimed at conceiving and devising innovation has become a common approach to innovation in the corporate world. In spite of various reservations, mainly concerned with the imperative to preserve exclusivity and competitiveness, such joint efforts sometimes take form of so called Open Innovation, according to the model introduced in (Chesbrough, 2003). This model assumes that for making them competitive and sustainable internal innovative ideas, concepts and prototypes generated in a company need to be challenged by and combined with the external ones, as well as, that internal and external research resources and paths to market should be fused and jointly exploited. The realm of the Blue Ocean (Kim, 2005), a metaphor of untapped market spaces to be conquered by innovators, offers extraordinary gains and development opportunities for those entrepreneurs and companies that are ready to take risks to seize and exploit new niches, to create, capture and capitalize new demands. The cases of such innovative products and services as iphone, ipad, AppStore, or Kindle speak for themselves in favour of adopting Blue Ocean strategies. The Latin word innovare that is the root from which the term innovation was coined, means the following: to renew or change. There is a great deal of approaches to and definitions of innovativeness and innovation. It is beyond the scope of this paper to present, discuss and evaluate them. The reader can find a short yet comprehensive note on innovation at: and an inspiring summary of definitions of innovation at: blog/25 definitions of innovation. Also a visit to the website where internauts update an existing list of innovation definitions can turn out stimulating: ion. A brief note on the notion of innovation can also be found in (Jacobfeuerborn, 2010a). Our definition of innovation refers to its etymological roots, i.e. innovation leads to a new product, service or process that, however, can include already existing components, or it is an old product, service or process that is significantly renewed or improved. A generic lifecycle of technological or business innovation can be depicted as follows: Concept generation Research Business case Prototype Logistics & Financial Support IPR Embedding in company s business processes Full fledged development Production First is the generation of an innovative concept. It may happen as a consequence of planned brainstorming sessions or just as an ad hoc idea, which is followed by research aimed at checking out and verifying whether the concept is really new and seems to be feasible. Should the concept examination be positive then a business case to check out the economic aspect of the concept is made. Again, after a positive business case a prototype is developed for further examination of the concept. This is a crucial moment in which a selected group of customers who signed non disclosure agreements could be got involved in the innovation development process. Positive results of the prototype testing and evaluation pave the way to the business stages that are associated with mobilizing funds and setting up logistics for launching production, protecting intellectual property rights (IPR) of the innovation, and transforming the prototype into a fullfledged product, and eventually starting its regular productions. Obviously actual innovation lifecycles are typically more complex than the above generic model; in particular, they include loops to reiterate certain stages of the development. The readers interested in innovation models are referred to surveys (Dubberly Design Office, 2006; Tidd, 2006), and the books (Allen, 2007; Greenhalgh, 2010); Von Hippel, 2005). Let us also recall a well aimed and witty look at the relationship between research, knowledge and innovation proposed by the 3M company, which reads: Research is the transformation of money into knowledge. Innovation is the transformation of knowledge back into money. It is worth mentioning that a common perception limits the notion of innovation to technological artefacts or business solutions while neglecting or perhaps even not being aware of social innovation. This is a surprising fact since the world we live in is replete with the cases of social innovation that in fact define and propel our social, cultural and political environment. 41

42 A Knowledge Concocter to Sustain Innovation Propensity Roughly, social innovation is a collection of ideas, concepts, measures and law regulations aimed at developing, improving and strengthening civil society in its private and public spheres by providing better working and living conditions, education, health, and security. Examples of social innovations are everywhere, starting with parliamentary democracy, to human rights, to ombudsman, to scholar system, to charity, to hospices, to rooftop gardens, to microfinance, and so on, and so forth. The reader can find insightful definitions and analysis as well as inspiring reallife examples of social innovation in the books (Ahrweiler, 2010; Goldsmith, 2010). Letting alone a discussion on which factors are at the core of innovation and lead to a sound and implementable innovative idea or concept, be they opportunities, serendipity, propensity, or something else, we tilt to see innovation as a combination of modicums of each of all the factors. Needless to say that the necessity of each factor to occur, or the level of its contribution to an innovation cannot be determined prior to achieving the final result. There is however no doubt that most of these factors have a common denominator that underpins and links them up this factor is knowledge. Without knowledge opportunities can be neither recognized, nor evaluated, nor created; serendipity cases can be missed or overlooked due to a lack of a brooder context that, as a rule, is determined by specific and general knowledge; and propensity alone without a solid knowledge background can only spring enthusiasm yet will not provide a reliable platform for conceptualizing and experimenting towards innovative solutions, and consequently can even snuff the enthusiasm itself. Although knowledge and information are not synonymous with each other for knowledge is a more general term yet for the sake of simplifying the present discourse and following colloquial patterns, further on we shall consider them mutually equivalent. Broadly speaking knowledge is everything what we know and what we are aware of, whether its origins are in science or just common sense, good and bad practices and experiences. Given the history of scientific discovery, invention, and innovation, we can add to the semantic scope of knowledge also what might be dubbed a surge of intuition, which is something that we are not aware of knowing it and which spontaneously may come along and help innovate. Official science does not recognize intuition part of its acknowledged methodological corpus but since innovativeness enjoys the status of art or craft rather than a rigid scientific procedure, we allow us for treating intuition on an equal footing with other triggering forces of innovativeness. Towards this end, we have a firm backing by being in line with Carl G. Jung who in his The Red Book that he considered the most important feat of his outcome, claimed that belief and intuition should not be put aside in cognitive endeavors (Jung, 2009). In this paper the same attitude will be adopted for propensity in the context of innovation. What is then innovation propensity? Propensity as such is an innate inclination, proclivity and disposition for something or someone. Typically it is a feature of one s character, a predisposition or predilection to adhere to certain circles, activities and/or endeavors. Propensity can be inborn and often is part of a talent, or it can be developed and ingrained in one s comportment as a result of upbringing or training. Propensity in order to be fulfilled needs to be accompanied by the will to make things happen and often by curiosity and the spirit of adventure. These are actually the features that innovativeness badly needs, i.e. the readiness to take risk, to accept that failure is an option and that the way to Tipperary may be long. Innovation propensity is a permanent, well rooted ability to look at the world through such lenses that can reconfigure the existing stuff in order to provide a better or new value, it is seeking originality and novelty and to think and act independently of the surrounding legacy and authoritative sources. At the first glance one can attribute innovation propensity to humans only, but we enhance this concept by including also teams and organizations. Metaphorically speaking what causes some people to engage in innovation ventures is an innovation gene that resides in their DNAs, whereas while referring to organizations we would rather think in terms of innovation memes, rather than genes, which might be infused into their culture. Undoubtedly such companies as Apple, Amazon or Cisco have inculcated the innovation memes in their business models and processes and thereby have developed this innovation propensity attitude. Now the 42

43 Bruno Jacobfeuerborn question arises: Can the innovation propensity of both individuals and organizations be boosted, and if so, which are the necessary means and measures to do so? Unquestionably, ICT has become a leading enabler of innovation and the mainspring of its empowerment. Therefore, in this paper we attempt to provide a draft answer to this question mainly focusing on knowledge based facilities and ICT methodologies, solutions, and tools. In the next two chapters we shall identify the knowledge intensive facilities that can support innovation of individuals and SMEs, and large companies and organizations, respectively, then we configure them in a consistent framework constituting an open innovation ecosystem based on knowledge, which we dub Knowledge Concocter. The paper will be concluded by a short case study of the BRAMA Lab operating at Warsaw University of Technology where elements of such an ecosystems have been implemented. Supporting Innovation Propensity of Individuals and SMEs A lot has been said and written on the transformative forces of the world and what the present and prospective worlds will look like. In particular, non stop efforts are made to model and predict the evolution (or sometimes a disruption) of economy and living conditions. Here we do not have any intent to add anything to those deliberations. Nevertheless we recall that in (Jacobfeuerborn, 2011) we have argued that in the new economy that is to a growing extent relaying on the internet, communication, easy and cheap ubiquitous access to information resources and digital services not only large high tech companies can succeed in organizing and coaching projects aimed at generating innovative solutions. Also individuals and small and medium enterprises (SMEs) can become generators of innovation provided that they will feature a knowledge intensive attitude, and what we discuss in this paper, innovation propensity. We called such pro innovative agents entrepreneurs of a new type. This new generation of entrepreneurs, many of whom are digital native and for whom the cyberspace is a natural environment, knows how to organize life and business on digital platforms and benefit from what Thomas Friedman called the flat world (Friedman, 2007). This powerful metaphor tells us how the machinery of the globalized world works, what are the trends, challenges, opportunities and pitfalls of the shrinking world without boundaries and without communication delays. He argues that thanks to digital technologies and convergence of media, as well as, deregulations within economies smaller entrepreneurs are not on a lost position while competing with corporate giants. On the contrary, owing to their mobility, adaptability and flexibility, dynamism, and risktaking attitudes they have good cards to play the innovation game. The careers of Bill Gates, Jeff Bezos, or Michael Dell are paragons of how an innovative concept and initiative can start in a small setting and develop fast towards a successful global business. Incidentally, in (Friedman, 2007) he recommended apropos challenges that the present American economy faces the following: "Now that foreigners can do left brain work cheaper, we in the U.S. must do right brain work better", which can be interpreted as follows: as the right brain side of the human brain is instrumental when it comes to creativity, visualization, and intuition one has to seek the competitive and comparative advantages in freshness, novelties, originality, and uniqueness, simply, in innovation. Long before Thomas Friedman, i.e. in the 30s of the previous century, Joseph Schumpeter, an Austrian economist, coined another robust metaphor capturing the crux of innovativeness. He associated the spirit of entrepreneurship with creativity, willingness and ability to undertake innovate projects. According to him the work on innovation included something what he dubbed creative destruction, meaning the replacement of old dysfunctional structures, including obsolete enterprises, with the new ones. He thought that this ability was only accessible to people with certain qualities (Schumpeter, 1934). We do agree with Schumpeter s opinion whose views after a long period of being overshadowed by John Maynard Keynes theories have again become current and respected, which is bluntly reflected by the following assertion expressed by exsecretaries of the U.S Department of Treasury: The economy of the future is likely to be 43

44 A Knowledge Concocter to Sustain Innovation Propensity 'Schumpeterian (DeLong, 2001). Looking from today s perspective it seems that this opinion proved justified. Now we discuss what we consider certain qualities regarding innovation propensity. Proinnovation qualities can be structured in three groups, namely: Knowledge. In the frame of our discourse knowledge is not limited to scientific or engineering knowledge that is directly related to the subject of the innovation exercise at hand, but it also includes broader knowledge that determines the context of the innovation; here we do not exclude common sense knowledge and good practices that are not catalogued in scientific or technical books and papers but are practiced and bring expected results. Creativity is a weird phenomenon that has not been fully investigated and explained by contemporary science (psychology, neurology) but undoubtedly it is at the core of human intelligence. The number of definition of creativity can be really discouraging and lead to serious doubts whether this notion is cognizable at all. From (Meusburger, 2009) we can learn that the literature that deals with creativity includes over a hundred different definitions. Here we follow what we found in (Mumford, 2003): Over the course of the last decade, however, we seem to have reached a general agreement that creativity involves the production of novel, useful products. Noteworthy, this short characterization of creativity very well corresponds to our definition of innovation given in the previous chapter. On the margin of the paper we emphasize that one should not mix up creativity with literacy for they are inherently different concepts. Prowess is an exceptional ability to address challenges and tackle problems. It is a special kind of courage, even at the verge of bravery, pushing one to take risk and persistently struggle to reach the planned objectives. Let us come back for a while to creativity for we consider it the central component of innovation propensity. It brings up novelty and a new look at the old stuff as a result of thinking differently. The latter phrase think different seems to be the essence of creativity. Incidentally, it was the adage of late Steve Jobs and his company. His approach to creativity included also the words: Stay hungry, Stay foolish! that he borrowed from The Whole Earth Catalog and quoted during his moving Commencement Address in 2005 at the Stanford University. Creativeness encompasses two types of skills, i.e. cognitive and behavioural. Cognitive skills are mainly about associations, meaning finding congruencies between different, sometimes generically remote objects or facts and using imagination for connecting them in the mind. Behavioural skills are as follows: (i) to painstakingly observe and infer from the pool of facts related to the area of the innovation exercise; (ii) to network with experts, practitioners, scholars, and customers to collect data and information; (iii) to ask question and challenge the answers and existing solutions; and (iv) to experiment and prototyping, and (v) perseverance, not giving up. The two latter points are of paramount importance as innovativeness is very much about doing, not only thinking. Theodore Levitt, editor of the Harvard Business Review, was credited to say: Creativity is thinking up new things. Innovation is doing new things. This is why although a lot of people are creative, they are however not innovative since the road from thinking to doing is certainly not straightforward. In (Jacobfeuerborn, 2011) among the features characterizing a new generation of entrepreneurs the following attributes are mentioned: internet savviness and information and media literate (mainly thanks to her/his digital nativeness), knowledge intensiveness (i.e. consciously making decisions mainly based on retrieved, accumulated and evaluated knowledge and best practices), global reach, self reliance and self driven, cooperativeness, risk taking and challenge driven, ethical (socially sensitive and responsible), awareness of environmental issues and its impact on society and business. We are convinced that these should also be elements of innovation propensity. This is how we can establish a nexus between innovativeness, in particular innovation propensity and a new wave of entrepreneurship. Incidentally, the new generation of entrepreneurs who are now mushrooming throughout the world, in both developed and 44

45 Bruno Jacobfeuerborn developing countries is bound to become a new middle class within what David Audretsch dubbed an entrepreneurial society (Audretsch, 2007). Innovativeness may be an in born feature of some humans, but corporate and also governmental leaderships have already understood and acknowledged that rather than to wait for innovative individuals and teams to emerge, a better strategy is to trigger, train and foster those people and initiatives that have an innovation potential. This approach can be significantly supported by various ICT facilities. Now we show how ICT can boost innovation propensity at the level of individuals and SMEs. Fig. 1 summarizes the ICT facilities that individual innovators or entrepreneurs of a new type or SMEs can use to sustain their innovation ventures. In the innovation kit one can find social networking (e.g. Facebook or LinkedIn) whose potential for supporting innovativeness is still not fully recognized and understood. The reader is referred to (Morzy, 2009) where an analysis of social networking useful for entrepreneurs and innovators can be found. Noteworthy, the phenomenon of crowdsourcing to acquire knowledge and solutions from unknown people can be observed among entrepreneurs as a part of innovation exercises for a few years (Surowiecki, 2005). Web 2.0 offers an array of varied facilities and tools that can be used for boosting innovativeness and support innovation ventures. Entrepreneurs of a new type, be they individuals or SMEs, know how to benefit from blogs, wikis, podcasts, advanced e mail services, synchronized calendars and organizers, communicators, voice over IP telephony (e.g. Skype), RSS services (Really Simple Syndication) to be constantly updated and carry out innovation projects. Putting aside the critique of brainstorming as a tool for triggering and sustaining innovation we claim that it is still a useful and efficient technique that can be supported by ICT tools such as mind maps to draft, memorize and quickly share ideas and concepts. It should be noted that brainstorming can be organized in form of online brainstorming rooms. Needles to argue that work on innovation require among other tasks at least a modicum of business intelligence, including a look at existing patents and other items protected by intellectual property rights. There are many ICT tools to facilitate this task starting with specialized search engines and ending with intelligent boots (small programs working as robots) to search and retrieve relevant information from the internet. e Learning is a quick, flexible and affordable means to acquire knowledge and skills and to provide awareness (Jacobfeuerborn, 2010b; Palloff, 2009). Owing to the diversity of e learning platforms and the ways training can be organized be it synchronous or asynchronous mode, learning supported by a teacher or fully based on a computer program e learning becomes one of the major educational facility for entrepreneurs of a new type, individual and SME innovators. A relatively new opportunity for affordable prototyping and experimenting are virtual labs and remote instrumentation (Davoli, 2010) that can significantly simplify and speed up the process of setting up a prototype of the innovative idea. To this end, an emerging technology of 3D printing can also be used for establishing models and/or prototypes of the constructed products (Roebuck, 2011). In addition to standard fixedlines connectivity to the internet, the innovation kit for individual and SME innovators has obviously to include various wireless facilities and devices in order to smoothly and seamlessly organize the teamwork regardless of place and time. Here cloud computing has to be mentioned. This is a new way of making use of computer facilities and applications, which is legitimately 45

46 A Knowledge Concocter to Sustain Innovation Propensity considered a breakthrough in the ICT realm (Sosinsky, 2011). Computers and telecommunication facilities, user s data and software applications are placed in a virtual site, in a cloud, that is accessible 24h/7 by means of the stationary or mobile internet. This new mode of exploiting ICT facilities and resources can be used by innovators as a platform for their innovation exercises as well as a generator of new innovative business models (Rosenberg, 2010). Let us close this brief presentation of the ICT based innovation toolkit by a remark that most ICT tools that can sustain innovativeness can be found in a public domain as open source applications. Identifying and cataloguing such tools deserves a substantive project and paper. Knowledge Concocter for Open Innovation In the previous chapter we briefly surveyed the ICT based knowledge intensive facilities that can be instrumental in innovative ventures of individuals and small size agents. Large companies or organizations need towards this end more sophisticated facilities. Let us now take a look at a collection of facilities and services that lend themselves to boost innovation propensity and sustain innovativeness of large agents. In large production or service environments innovation propensity is embedded in the structure and business processes of the company or organization. Typically, yet by far not always, it is a substantive unit or a team where innovation is made. Here we emblematically dub such a unit Innovation Factory as it is supposed to be the site where innovative solutions and products are manufactured. Fig.2 schematically displays the knowledge intensive facilities of the innovation factory to be tapped into while carrying out innovation projects. In addition to the facilities concisely presented in the previous chapter, which in the case of large agents are as a rule more sophisticated and more powerful, there are four other components to boost and sustain innovation, namely: In house Knowledge Resources. Companies and organizations, especially the large ones, are true treasuries of digital information and knowledge that take different forms and are accessed via multiple channels. An incomplete list of knowledge assets might include the following: company internal legal regulations, maps and descriptions of internal business processes, organization structure and information flow charts, staff and collaborators rosters, internal repositories (reports, memos, notes for file, etc.), thematic databases, warehouses, computer application programs, archives. All these facilities are maintained by means of software tools specific for a particular entity, for instance domestic databases are typically implemented as relational or objectrelational database systems or warehouses running on commercial platforms such as 46

47 Bruno Jacobfeuerborn Oracle or DB2, business oriented applications supporting human resources management or accounting also employ commercial packages, e.g. SAP. Customer Relationship Management System (CRM). In (Gray, 2001) the following concise definition of CRM can be found: CRM involves all of the corporate functions (marketing, manufacturing, customer services, field sales, and field service) required to contact customers directly or indirectly. It is a widely employed methodology in the corporate world and supported by many commercial software packages (see review.toptenreviews.com). A survey of CRM methodologies and a proposal of a CRM architecture focused on informational aspects can be found in (Jacobfeuerborn, 2005). Customer Experience Management System (CEM). This methodology was introduced and defined by E. Schmitt as follows: The process of strategically managing a customer s entire experience with a product or a company (Schmitt, 2003). In (Jacobfeuerborn, 2009) the CEM approach was further elaborated as a process oriented satisfaction concept aimed at establishing wide and rich interactive relations with customers. It includes not only the product and functionality, but also lifestyle, aesthetics, and social aspects such as prestige, networking, etc. Our experience is that in order for CEM to provide an added value it has to be seamlessly embedded in the company culture and be a unification platform of the company s business processes. Hot Line & Help Desk. This facility is particularly important to keep the daily operation running smoothly and to learn problems dogging the staff. Also, Hot Line is a valuable source of feedback information about the company and its products or services since it provides the company with customers opinions, complains, and requirements. Today, both Hot Line and Help Desk need advanced ICT tools to support their operations. There are many tools towards this end; a survey of popular help desk software can be found at Noteworthy, the composition of knowledge intensive facilities employed on digital platforms given above is neither exhaustive nor all its components are always present in particular innovation units in companies or organizations. In the first chapter we mentioned the concept of open innovation as a new approach to organize and execute innovation projects. The major principle of this approach is that different types of stakeholders are putting and working together in such projects (Chesbrough, 2006). A non exhaustive list of the stakeholders types is as follows: Entrepreneurs, including SMEs, start ups, business angels, and venture capitalists. Corporations, which are large companies, often operating regionally or globally. Government regulators. Potential technology adopters and downstream producers who are supposed to use the technology. Non Governmental Organizations (NGO), environmental and other special interest organizations. Prospective consumers. Fig.3a summarizes the relationships occurring between the stakeholders. They and their assets that they make available for innovation projects constitute an Open Innovation Ecosystem. A diversity of stakeholders while each of them contributes specific knowledge, experience, expertise, and tangible assets fuels and propels innovation exercises leading to better outcomes than a single company could achieve. Now, if we superimpose the concept of innovation factory (Fig. 2) on the concept of open innovation ecosystem (the diamond in Fig. 3a), we get as a result what we dub a Knowledge Concocter of Open Innovation (Fig. 3b). The term concocter is a palpable reference to the fact that innovativeness as we present it in this paper happens by putting together different actors exhibiting innovation propensity and fusing diverse knowledge resources and ICT devices for obtaining a new useful value. 47

48 A Knowledge Concocter to Sustain Innovation Propensity Implementing open innovation patterns is daunting yet rewarding a task. The author could experience that during the establishment of the innovation ecosystem at the BRAMA laboratory placed at the Warsaw University of Technology. BRAMA has been devised not only as a test bed for specific technological solutions but also as a platform for developing, experimenting, and testing various innovation frameworks. Its origins go back to the year of 2006 when the Faculty of Electronics and Information Technology along with Polska Telefonia Cyfrowa (now T Mobile Poland) set it up as an open innovation shop, including two NGOs. One is the Polish emobility Technology Platform, that associates about 45 information technology and mobile technology companies. The Platform helps the government identify mobile technology research agendas for Poland, and to assist companies, especially SMEs, to develop and place in the market innovative products and services based on mobile technologies. Another NGO is the Mobile Open Society through wireless Technology Foundation, program.org, that operates in Eastern and Central Europe to support democracy, open society, and free market economy by means of mobile technologies. BRAMA cooperates with numerous local and foreign companies, research laboratories, and universities and hosts and coaches various awareness events addressed mainly to students and young entrepreneurs. BRAMA has provided its founders with significant experiences on open innovation and on how to efficiently establish a nexus between academia, industry, and NGOs. Details on this innovative ecosystem can be found in (Muraszkiewicz, 2011) and/or by visiting the laboratory website at Summary Innovation propensity is like a raw diamond in the world of glamour, the object that has already its value but in principle is useless. It becomes valuable after giving it finishing touches, a brilliant cut. This paper claims that ICT based knowledge intensive methodologies and tools can provide some finishing touches and help transform predispositions and proclivities towards innovation into professional, well organized sustainable processes and commitments. This conjecture applies to both small entities such as individual entrepreneurs and/or SMEs, as well as, to large companies and organizations. In the latter case innovation could be organized as an open shop to increase creativity and unleash synergy between stakeholders. References 1. Ahrweiler, P. (editor) (2010). Innovation in Complex Social Systems, 1 edition, Routledge. 2. Allen, T.J., Henn, G.W. (2007). The Organization and Architecture of Innovation. Managing the Flow of Technology. Elsevier. 3. Audretsch, D.S. (2007). The Entrepreneurial Society. Oxford University Press US. 48

49 Bruno Jacobfeuerborn 4. Chesbrough, H. (2003). Open Innovation: The New Imperative for Creating and Profiting from Technology. Harvard Business School Press. 5. Chesbrough H., Vanhaverbereke W., West J. (eds)(2006). Open Innovation. Researching a New paradigm. Oxford University Press. 6. Davoli, F. et al. (eds) (2010). Remote Instrumentation and Virtual Laboratories: Service Architecture and Networking, 1st edition, Springer. 7. DeLong, J.B., Summers, L.H. (2001). The New Economy : Background, Questions and Speculations. Federal Reserve Bank of Kansas City Economic Review (Fourth Quarter 2001), pp (Originally presented at the Jackson Hole Conference of the Kansas City Federal Reserve Bank, August 2001.) 8. Dubberly Design Office (2006). Innovation. [Retrieved: ]. content/uploads/ 2008/06/ddo_book_innovation.pdf. 9. Friedman, T.F. (2007). The World Is Flat 3.0: A Brief History of the Twenty first Century. Picador/Farrar, Straus and Giroux. 10. Gray P., Byun J. (2001). Customer Relationship Management, Report of Univ. of California, Center for Research on Information Technology and Organizations. 11. Goldsmith, S., Georges, G. Burke, T.G., The Power of Social Innovation: How Civic Entrepreneurs Ignite Community Networks for Good. Jossey Bass. 12. Greenhalgh, Ch., Rogers, M. (2010). Innovation, Intellectual Property, and Economic Growth. Princeton University Press. 13. Jung, C.G. (2009). The Red Book. W. W. Norton & Company; 1st edition. 14. Kim, Ch.W., Marbougne, R. (2005). Blue Ocean Strategy: How to Create Uncontested Market Space and Make Competition Irrelevant. Harvard Business Review Press, 1 edition. 15. Von Hippel, E. (2005). Democratizing Innovation. The MIT Press. 16. Jacobfeuerborn, B. (2005). Information systems for boosting competence and management in high tech organizations, MOST Press. 17. Jacobfeuerborn, B. (2009). From Customer Experience to Customer Involvement Management. [in:] Customer Experience Management. Informational Approach to Driving User Centricity. Warsaw: MOST Press, IINiSB Uniwersytet Warszawski, p Jacobfeuerborn, B. (2010a). A Generic Informational Model of Innovation for a High Tech Companies. [in:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne, Wydawnictwo Wyższej Szkoły Handlowej, Kielce, p Jacobfeuerborn, B. (2010b). e learning Platforms Evaluation Dilemmas, Edukacja, 2 (110), p Jacobfeuerborn, B. (2011). ICT Tools for Supporting Innovation and Entrepreneurship, [in:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne, Wydawnictwo Wyższej Szkoły Handlowej, Kielce. 21. Meusburger, P. (2009). Milieus of Creativity: The Role of Places, Environments and Spatial Contexts. [in:] Meusburger, P., Funke, J. and Wunder, E. Milieus of Creativity: An Interdisciplinary Approach to Spatiality of Creativity. Springer. 22. Morzy, M. (2009). Mining Social Driven Data. Wydawnictwo Politechniki Poznańskiej, series Rozprawy nr Mumford, M. D. (2003). Where have we been, where are we going? Taking stock in creativity research. Creativity Research Journal, no 15, p Muraszkiewicz M. (2011). Techniki mobilne, edukacja i przedsiębiorczość, Studium przypadku Laboratorium BRAMA. [in:] Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne, Wydawnictwo Wyższej Szkoły Handlowej, Kielce, p Palloff, R.M., Pratt, K. (2009). Building Online Learning Communities: Effective Strategies for the Virtual Classroom, 2 nd edition, Jossey Bass. 26. Roebuck, K. (2011). 3D Printing: High impact Emerging Technology What You Need to Know: Definitions, Adoptions, Impact, Benefits, Maturity, Vendors. Tebbo. 49

50 A Knowledge Concocter to Sustain Innovation Propensity 27. Rosenberg, J. (2010). The Cloud at Your Service, Manning Publications. 28. Schmitt, B. (2003). Customer Experience Management: A Revolutionary Approach to Connecting with Your Customers. Wiley. 29. Schumpeter, J. (1934). The Theory of Economic Development, Harvard University Press, Boston. (translation of "Theorie der Wirtschaftlichen Entwicklung", 1912). 30. Sosinsky, B. (2011). Cloud Computing Bible. Wiley. 31. Surowiecki, J. (2005). The Wisdom of Crowds. Anchor. 32. Tidd, J (2006). Innovation Models. Imperial College London. Integrator Wiedzy na rzecz wspierania postaw pro innowacyjnych Pro innowacyjne postawy są warunkiem koniecznym w działaniach na rzecz utrzymania trwałej innowacyjności. Ale czy takie postawy są także warunkiem wystarczającym, czy też wymagają dodatkowego wsparcia? Jeśli tak, to pojawia się pytanie: czy postawy pro innowacyjne osób i organizacji można w ogóle wspierać i jakie są w tym celu potrzebne metody i środki. W artykule przedstawiono wstępną odpowiedź na te pytania, koncentrując się przede wszystkim na rozwiązaniach opartych na wiedzy i technikach informacyjnych i komunikacyjnych, które mogą skutecznie wspomagać innowacyjność. Podano także przykłady konkretnych metod i narzędzi oraz pokazano jak można je skonfigurować w postaci ekosystemu otwartej innowacyjności zarówno dla osób, jak i organizacji. System ten nazwano Integratorem Wiedzy (Knowledge Concocter). W zakończeniu artykułu znajduje się krótki studium przypadku, którym jest Laboratorium BRAMA działające w Politechnice Warszawskiej, gdzie elementy ekosystemu wiedzy zostały zaimplementowane. Słowa kluczowe: innowacje, otwarte innowacje, techniki informacyjne i komunikacyjne (ICT) pro innowacyjność, integrator wiedzy, 50

51 Bruno Jacobfeuerborn, Mieczyslaw Muraszkiewicz Bruno Jacobfeuerborn * Mieczyslaw Muraszkiewicz ** ICT and Big Data as a Game Changer Abstract: Big datasets have become a topic of interest not only to ICT and information science researchers but also to practitioners, managers, decision makers, and knowledge workers. The reason is that such datasets can include hidden but useful knowledge that could be exploited in scientific research, marketing, health, governance, defence and other areas. The tern big data is usually understood as a very large set of data that owing to its gigantic size measured in petabytes and more slips away from currently available data processing facilities. Big data, if combined with new deep data analysis techniques exploiting inference mechanisms embedded in data and text mining algorithms and with new ICT technologies such as grid computing and cloud computing, can become a game changer in many areas of human activities. The paper presents two areas, namely scientific research and governance, where big datasets can cause deep changes by offering insight and innovative solutions. We shall close the paper by sketching a curriculum of an introductory course on data science (that includes big data) and by mentioning a few data science research topics. Keywords: bid data, data science, data mining, scientific research, governance, information and communications technologies (ICT). Introduction One of the keys to understanding civilizations and their evolutions is to learn about the origins and use of their knowledge. Where the knowledge is taken from? How is it acquired, stored, processed and disseminated, and whether and how it is put in practice? This paper puts forward a hypothesis that we are on the verge of a new development stage since new robust methods of producing knowledge are emerging. These methods exploit two facilities, namely big datasets and information and communications technologies (ICT). We are well familiar with the latter since they have been around for decades and have already been contributing to dramatic changes in our work and lifestyle, whereas the former is a new phenomenon that has come along recently as a result of a tremendous growth of networks and networking, and advances in data storage technologies. Today s overwhelming networks and large ICT installations generate and amass gigantic amounts of data, for instance a typical countrywide telecommunications network generates hundreds of terabytes per day, physics experiments at CERN where a Large Hadron Collider is installed generate a petabyte, or so, of data every second, Google processes every day thousands of petabytes, the US Library of Congress stored 235 terabytes as of April 2011, and 15 out of 17 sectors in the US economy have more data stored per company than the Library of Congress (McKinsey, 2011), and the IBM company started building a data storage of 120 petabytes in the year of 2011 (Simonite, 2011). Note: terabyte bytes; petabyte bytes; Exabyte The seminal sentence "All men by nature desire to know" opens Aristotle s Metaphysics (Aristotle, 350 B.C.E.). Having read it the immediate question that comes to mind is as follows: From where can men acquire knowledge? In the same opening paragraph Aristotle renders the * Deutsche Telekom AG, Germany, online.de ** Faculty of Electronics and Information Technology, Warsaw University of Technology, Poland, 51

52 ICT and Big Data as a Game Changer answer: Experience is knowledge of individuals. Individual experience gained every day along with an oral transmission of a generalized experience through generations was indeed the major source of knowledge over centuries. The Enlightenment and scientific revolution that put emphasis on collecting raw real world data, as a first stage of scientific investigation, have dramatically changed the situation. This is how natural sciences such as biology, chemistry, geology, physics and other disciplines have approached problems of their interest since the16th and 17th century. Francis Bacon s new methodology of science and knowledge, empiricism, that relayed on observation, collection of data, and experimenting, along with accepting induction as a legal inference method for scientific endeavours can be characterized as data centric. Indeed, innate concepts, a priori assertions based on tradition, intuition or revelations could not be accepted as knowledge until they were verified and confirmed by rigorously organized experiments and the data the experiments yielded. Baconian science posits that theories that are meant to be the models of reality are derived from the analysis and generalization of the collected data and observations, or if the models are established as intellectual hypothesis, they must be verified through experiments producing data that in turn have to be examined and scrutinized (Bacon, 1620). This Baconian paradigm is presently applied not only in the scientific realm but also in a modified and less rigorous form in other domains such as marketing, politics or governance to learn social preferences and moods. Yet not so long ago, the trouble with the Baconian approach was that we did not have enough data to draw conclusions and build up models, or on the contrary, which is a more recent stage, there was too much data for a man or even a team to grasp it and discover patterns and regularities. Obviously the second case seems to be simpler to deal with, especially when large computers are available to crunch data, but paradoxically that was not the case until the last decade of the previous century when new opportunities came along owing to the increase in computer power, proliferation of the internet and proprietary networks, and emergence of new data analysis techniques such as data and text mining. The structure of this paper is as follows. In the next chapter we shall take a look at a silent revolution that led from databases to big dataset, and then we shall present two areas, namely scientific research and governance, where big datasets can cause deep changes by offering insight and triggering innovative solutions. We selected these domains out of many others because they are particularly important for the society. Science, by means of technologies it triggered, has an overwhelming impact on the material culture that significantly determines our standard of living, while governance regulates and governs communities and societies by providing authority, decision making, and execution to serve the realization of societal goals. We shall close the paper by sketching a curriculum of an introductory course on data science (that includes big data) and by mentioning a few data science research topics. A Leap from Databases to Big Data Collecting and storing data and information has always been a multifold activity. Its history is closely associated with the history of alphabets and scriptures and then in the course of time with archives and libraries. The art of information storage, selection, indexing and retrieval had been developed long before the advent of computers, proof of which were for instance the Alexandrian Library and the Library of Pergamum or the development of classification systems such as Dewey Decimal System or Universal Decimal Classification. Computers equipped with large memories however have rendered the disciplines of information processing and information systems a new uncanny dimension owing to their speed, vast memories, and high reliability. The history of ICT, that begun in the 40s of the past century, revolves around two major notions, namely programs (algorithms) and data. The former is often associated with Donald Knuth, the author of four seminal volumes of The Art of Computer Programming, who is an emblematic figure when it comes to programming. The area of data until the 60s of the previous century was overshadowed by the focus on algorithms and programming. Computers were mainly very fast calculators dealing with numerical problems. Computing of that time was, so to say, program centric to the extent that often data was just embedded in programs. That was the IBM 52

53 Bruno Jacobfeuerborn, Mieczyslaw Muraszkiewicz Company that changed the architecture of computers so that they could smartly deal also with non numerical data by introducing the notion of a byte an eight bits sequence to store alphanumeric characters. Since then computers could leave military installations and academia and enter banks, insurance companies, airlines, libraries, administration, etc. Yet one serious problem occurred, namely these domains of applications, as opposed to numeric processing chiefly executed for scientific or military purposes, required tools for defining structures and managing large repositories of data, something that ICT of that time did not have in its arsenal. That was the challenge with which researchers and companies had to wrestle. The result of many efforts to tackle the problem was the solution that is known under the name Database Management System (DBMS), and which opens the period of data centric computing. In the 1960s Charles Bachman of General Electrics was probably the first who developed the first DBMS that was dubbed IDS (Integrated Data Store). Insofar as programs can be considered a computer representation of algorithms and a facility to execute them, DBMSs can be considered the tools to structure volumes of data for processing them on computer platforms and provide a standardized retrieval language to make information searching possible for non ICT specialists, laymen looking for information without learning the arcane of computer machinery. A glimpse at the 60s reveals that the first DBMSs that enjoyed commercial success were those that based on a hierarchical model of data (IMS) and on a network model of data (CODASYL). At the turn of the 60s and 70s a counterpart of Donald Knuth came along on the stage of databases. Edgar F. Codd of IBM came out with a concept of a relational model for managing and sharing datasets, in which data was structured in tables (Codd, 1970). This idea, originally considered a theoretical toy without any impact on the fast growing area of DBMSs, turned out in the next decades the most successful commercial solution that lasts till today. Well known commercial examples of relational DBMS packages that are widely used for implementing and managing large dataset and information systems based on them are Oracle (by Oracle), DB2 (by IBM), or MS SQL (by Microsoft), whereas when it comes to open source DBMS systems users typically refer to MySQL or PostgreSQL. The decade of the 90s of the past century brought a new pattern for organizing and managing datasets that relayed on the object oriented methodology resulting in object oriented database management systems, and then a hybridization of relational and object oriented models. Noteworthy, a special type of database management systems are data warehouses that can store very large sets of aggregated data and perform various operations on them aimed at supporting online analytical processing and decision making. The present database management systems can handle large datasets of the size measured in terabytes; however, they are not suitable for dealing with even larger datasets, so called big data, measured in petabytes and more, and having a loose structure or being multimedia data. The reader can find short database history at: A transition from program centric approach to data centric approach, to database management systems and now to big data can be perceived as a silent revolution within ICT. There have neither been clashes nor trumpets while passing from one stage to another; the process has unfolded smoothly and quietly. However, an unagitated drift to big data should not mislead us that it is just a quantitative evolution of data managing technology. In fact, it is a qualitative leap that adds a real time dimension to data processing and inferential opportunities to massive datasets. The latter is of paramount importance since it allows one for generating knowledge and thereby transforming computers linked with high performance data acquisition systems into epistemic machines. To recap: We are entering the period of Big Data Management Systems that will become partners of humans in their cognitive endeavors in terms of data acquisition, classification, interpretation and reasoning. What is then the big data? Big datasets have become a topic of interest not only to ICT and information science and computer engineering researchers but also to practitioners, managers, decision makers, and knowledge workers. The reason is that such datasets can include hidden but useful knowledge that could be exploited in scientific research, marketing, health, governance, defense and other areas. The tern big data is usually understood as a very large set of data that 53

54 ICT and Big Data as a Game Changer owing to its gigantic size, measured in petabytes and more, slips away from currently available data processing facilities and methodologies. In other words the big dataset is the one whose size is part of the problem to be resolved; apart from other features, be it a messy format or data incompleteness, the dataset size itself makes access to and use of the data difficult and costly. A similar definition we can find in (McKinsey, 2011): Big data refers to datasets whose size is beyond the ability of typical database software tools to capture, store, manage, and analyze. Note that both definitions include an aspect of subjectivity since they do not specify the size of the dataset in absolute terms, assuming that the term big is relative to the current stage of technology and may change upwards as technology changes over time. It may also depend on the domain; for instance big data for CERN physicists is much bigger than big data for Wal Mart dealers. In (IDG, 2011) emphasis is made on the fact that big data is not a thing, it is rather an activity that benefits from various ICT methodologies and technologies: Big data technologies describe a new generation of technologies and architectures, designed to economically extract value from very large volumes of a wide variety of data, by enabling high velocity capture, discovery, and/or analysis. Given such phenomena as cloud computing, explosion of social media and social networking like Facebook, Flickr, Myspace, Twitter, Groupon, AppStore, or Foursquare we can readily agree with this definition as it takes into account the dynamics of data. The amount of data acquired, kept and processed increases at a tremendously high pace (see Fig. 1). Today large amounts of data are pervasively generated, especially within the technology sector. Spectacular examples are such services as MapQuest for driving directions and maps, GoogleEarth, to get zoomable satellite images; and TripAdvisor, that offers recommendations on hotels, restaurants, and flight connections. The problem is not only a growing volume of the data but also the velocity of the process. The data is continuously generated by a myriad of various chemical and biological sensors, RFID tags, surveillance cameras, telescopes, meteorological devices, magnetic resonance imaging devices, and diverse specialized networks, and last but not least by individuals who use smartphones, laptops, netbooks, tablets, cameras, websites, etc. The digital universe is flooded by so many endless torrents of data disparate in format and nature that data storing, structuring, indexing, retrieval, maintenance, and deep analysis are difficult, time and cost consuming tasks. Thus, one could ask the question: Is this unceasing stream of data an intrusion on one s world, something to be reduced or avoided, or on the contrary, the wealth of data is an opportunity that can be exploited to play a useful role? Most likely the answer is that both situations are possible depending on the situational and time 54

55 Bruno Jacobfeuerborn, Mieczyslaw Muraszkiewicz context. For an individual bombed by information from every corner the data abundance might be oppressive, but for companies or large sectors of the economy it could be a source of wealth. Apropos the latter, in (McKinsey, 2011) one can find the following estimate: if US health care could use big data creatively and effectively to drive efficiency and quality, we estimate that the potential value from data in the sector could be more than $300 billion in value every year, two thirds of which would be in the form of reducing national health care expenditures by about 8 percent. In the private sector, we estimate, for example, that a retailer using big data to the full has the potential to increase its operating margin by more than 60 percent. Big Data Transformative Potential Two Cases Big data, if combined with new deep data analysis techniques exploiting inference mechanisms and with new ICT technologies such as grid computing and cloud computing, can become a game changer in many areas of human activities thanks to its transformative potential. Below we take a closer look at two domains where the advent of big data already initiated discussions and practical undertakings. These two domains are scientific research and governance; both are of paramount importance to societies and the future of mankind. Science by means of technology will deliver new robust artefacts, but it will be to a significant degree up to the governance whether sensible and wise use of them will be made. Scientific research The old dream of western science has always been to automate reasoning in a way to make it kind of intellectual calculus. Aristotle s logic opened the door to fulfil this dream. Raymundus Lullus, a medieval Franciscan tertiary and philosopher, constructed even a machine to support the argument aimed at converting Muslims to the Christian faith. Logicians of the 19 th and 20 th centuries managed to define mathematical logic so that operating on symbols only, without referring to their meanings, it could represent and propel an inference process based on deduction. Mathematical logic, owing to its syntactic skewing, looked like a Holly Grail for computer science and its part dealing with reasoning, i.e. artificial intelligence, to ultimately engage computers in intellectual exercises. Unfortunately, this hope was falsified because inference trees can be very large, going beyond the performance capabilities of the past and contemporary computers let alone the limits resulting from Goedel s Incompleteness Theorem. Another hope was invested in statistics that usually involves a lot of relatively simple computing of numeric data whose structure is not complex and therefore is no issue for modern computers. But only with difficulty statistics can help model human reasoning by means of such methods like regression analysis or Bayesian inference. The strength of statistics is to verify hypotheses that anyway need to be formulated by humans. Even though statistical computations can operate on large datasets it is hardly epistemic machinery. The light in the tunnel started blinking at the turn of the 80 s and 90s of the past century with the advent of data mining and knowledge discovery. Metaphorically speaking, data mining was born in a supermarket shopping basket. The managers of the supermarkets wanted to optimize supply of commodities given customers habits, store space, money flow, and other business factors. Since the number of customers and goods was very large they invited computer specialists to resolve their multidimensional optimization problems. Since then data mining has made its name and become a large and important branch of computer science. It has developed its specific methodologies and techniques aimed at, as a humorous definition of data mining reads: Torturing the data until it confesses. A more serious definition of data mining is that it is a process of automatically extracting meaningful, useful, previously unknown and ultimately comprehensible knowledge from sets of data, usually from large databases. The reader interested in data mining definitions, potential and foundations, as well as, in specific techniques to discover trends, correlations, associations, and patterns hidden in data is referred to (Han, 2011). 55

56 ICT and Big Data as a Game Changer The essence of data mining, as opposed to statistics, is to generate hypotheses from large datasets that can then be evaluated by humans, including their verification by statisticians. This is why data mining is so much appreciated by disparate groups of computer users, be they banks, insurance companies, sociologists, physicists, demographists, telecommunications operators, shopping networks, etc. Now, when data mining can be applied to big data, it seems that a new, qualitative change in making science is coming. Chris Anderson issued an alluring and provocative claim that "The data deluge makes scientific method obsolete" (Bollier, 2010). The argument to support this assertion might roughly go as follows. Science is very much about constructing models of the real world, which are the result of intellectual efforts towards generalizations based on data collected through observations or experiments. These models are merely certain hypotheses about the investigated world, subject to further constant verifications. Yet nowadays, when we have at our disposal powerful data mining inference software running on robust computers equipped with vast data storages capable to store big data, machines can generate such hypotheses, even more efficiently than humans. Should we agree with Chris Anderson, we have to admit that computers that are able to concocting hypotheses and then to verify them will bring science into everyday life, debunking its arcane. This, of course, would have led to changing the scientific paradigm that rules contemporary science and to changing the position science occupies in the social system. So, the following upshot picture emerges: Greek science founded on Platonic transcendent ideas and deduction, then Baconian science based on empirical facts and allowing induction but still made by humans, and now big data, statistics, and data mining for automatic generating models of the world trace the evolutionary line of the methodology for making science. Governance In a nutshell, the term governance can be defined as everything what governments, their administrations and local administrations do, or are supposed to do, for ensuring smooth functioning of communities/societies in compliance with the established law. Noteworthy, this term is also used in the corporate and institutional world in a similar sense, yet with more focus on management. Here we are interested in governance in a public sector. The time after the year of 2008 is replete with the narratives (usually based on verified facts) of various crises such as energy shortages, financial turmoil, demographic shifts, climate change, terrorism, security, pollution, local conflicts, social inequalities, or e exclusion. The lessons learnt, especially while coping with the financial downturn, is that, as opposed to extreme liberal opinions, governments still have a crucial role to play even to the extent that they may become the last resort in efforts to fix problems. Having said that, the issue is that most contemporary governments and administrations are still organized according to the industrial age organizational models and patterns, which are based on hierarchy and command and control mechanisms, and are not prepared to face present and future complex and daunting challenges. Over the 90s of the past century it was noticed that the internet could address some of these challenges and to create and develop new social facilities towards public good and thereby boost governance. This is how the idea of e government was developed and a vast bunch of promises and expectations raised. However, except for a few cases the expectations have not been met. It seems that the major reason is that administrations have hardly transformed their structures and modus operandi according to the models that could fit and be compatible with, on the one hand side, the very nature of ICT that prefers distributed, decentralized and fastprocesses solutions, and on the second hand side, with a societies shift towards knowledge and network based societies characterized by flatter structures and straightforward processes. There is thus no doubt that present administration models need to be transformed into new models. These new models have to be founded on open e platforms, interoperability and active participation of citizens. People have the right to see and access the data, documents and proceedings of governments. They should have the possibility to scrutinize and participate in administrative processes. The relationship citizen administration has to be at least symmetric, or 56

57 Bruno Jacobfeuerborn, Mieczyslaw Muraszkiewicz even more advantageous to citizens, since the citizens are those who are the owners of lion s share of public data and their taxes pay for the administration functioning. Undoubtedly, these are the pre requisites of modern democracy that cannot be neglected. To make them happen we have to establish and operate administration ecosystems based on ICT collaborative and distributed platforms including governmental administrations, local administrations, NGOs and other institutions for managing and sharing information and contributing to decision making. This is exactly the idea of open government. More information on topics related to open government, including experiences of the U.S. government that has taken a lead in this area, the reader can find in (Lathrop, 2010). Let us take into account two facts, namely: (i) the U.S. government stored at least 848 petabytes of data in 2009 (McKinsey, 2011); and (ii) in the same year President Barack Obama issued a memorandum on transparency and open government that reads: My Administration is committed to creating an unprecedented level of openness in Government. We will work together to ensure the public trust and establish a system of transparency, public participation, and collaboration. Openness will strengthen our democracy and promote efficiency and effectiveness in Government (Obama, 2009). This coincidence is not accidental; on the contrary, it is a realization of the belief that open government solutions can boost governance, and that big data supports both of them. The study by (McKinsey, 2011) clearly supports the opinion that big data can boost the efficiency of governance in public sector, in particular, it gives an interesting estimate regarding governance: In the developed economies of Europe, we estimate that government administration could save more than 100 billion ($149 billion) in operational efficiency improvements alone by using big data. This estimate does not include big data levers that could reduce fraud, errors, and tax gaps. Big data in the context of open government is a multifold matter. It ranges from the problems of managing distributed and heterogeneous information facilities such as large open data repositories, factual data bases and knowledge bases including inference mechanisms, to the problems of dealing with semantics of the data and information, to the questions of incomplete information and discovering new knowledge and integrating it with existing resources, to deep analysis of social networks and utilizing mechanisms such as collaborative filtering, and crowd sourcing, and eventually to supporting decision making. Above we signalled the possibility that big data could enhance or even change the scientific research paradigm. A similar question arises regarding governance and open government: Can open government along with big data change the social and political paradigm? A working conjecture to answer this question might be that open government supported by big data can actually set down the foundation for a transition from representative democracy to participatory democracy that is considered a more advanced form of democracy, which offers all the members of the society the opportunity to directly contribute to decision making. Anyway, if the final answer to this question is in the affirmative, more inquiries can be posed immediately. We left them to the reader; however one question due to its top importance has to be mention here: What are ethical implications of big data in governance, especially in terms of security, privacy and targeting people without their knowledge? Big Data Curriculum and Research Agenda Towards Data Science Richard Hamming s agenda for computer science and engineering development was long time ago formulated as follows: The purpose of computing is insight, not numbers (Hamming, 1962). This ambitious statement means that the ultimate goal of ICT efforts is to make computers epistemic machines that will be able to carry out cognitive exercises including various forms of reasoning. Given that access to and processing of big data becomes feasible, now the question is: How to transform this data into knowledge? Or, to put it bluntly: What and how can we take away from the oceans of data overfilling our databases and information systems? 57

58 ICT and Big Data as a Game Changer Actually, instead of discussing the notion of big data we should rather discuss a more ambitious topic, i.e. the foundations of data science. The term data science probably came along for the first time in the year of 2009 (Harris, 2011). As of the date of this writing, Wikipedia does not include an article on data science, which indicates at least two facts, namely: (i) data science is a new area of activity whose scope is still undetermined; (ii) this scope is subject to contentious discussions. So far in the science realm we have been dealing with information science whose major focus is information and knowledge. Information science is about developing the understanding and knowledge on how to collect, classify, manipulate, store, retrieve and disseminate any type of information by means of any medium. But data and information are the terms of different meanings. Data is mainly devoid of semantics, whereas information carries a meaning. Awareness of this fact is the case among statisticians whose bread and butter are diverse operations on data, often, if there is no such a need, without entering upon any interpretations of what is calculated. The data science, however, since its purpose is to produce knowledge from data has to take into consideration also semantic aspects and go beyond the horizon traced by statistics. We understand data science as a set of methodologies, algorithms and conceptual tools, mainly borrowed from ICT, statistics, and cognitivism, for mining and distilling knowledge from (big) data. Below is a proposal of a draft curriculum of an introduction to data science. 1. Definitions of data, information, and knowledge. 2. Data structures and databases. 3. Elements of logics and non standard inference mechanisms for big data. 4. Assorted methods of knowledge representation. 5. Elements of machine learning and artificial intelligence. 6. Methods of browsing and retrieval of big data, with a focus on methods to fast delivery of the retrieved hits. 7. Methods and tools to create metadata. 8. Data integration. 9. Deep data analysis: statistics and data mining technologies. 10. Architecture of scalable big data systems. 11. Cloud computing; methods of physical storage of big data; virtualization technologies for sharing processing power and memory. 12. Security and privacy within big data infrastructures. 13. Big data and analytics trends. 14. Big data case studies (e.g. social networking, governance, marketing, health). Noteworthy, the curriculum includes serious research topics, e.g. non standard inference mechanisms for big data, methods and tools to create metadata, data integration, architecture of scalable big data systems, and security and privacy within big data infrastructures. It is beyond the assumed scope of this paper to discuss the items of the proposed curriculum; nevertheless it is believed that the curriculum can provide the reader with the intended character of the course on data science. It could be organized as a two semester course of 60 hours in class, along with 60 hours hands on work on projects for graduate students (the second level of university education according to the Bologna scheme). The assumption is that students: (i) have an understanding of statistics and data mining; (ii) are familiar with database management systems; (iii) are fluent in programming (e.g. in Java, C++). Perhaps, it may be justified, depending on the audience, to start the course with big data case studies (above mentioned as the last item) in a way it is being done on MBA courses. As a digression from the main topic of our discussion let us make two remarks. The first one is that over the first years of the data mining presence in the realm of computer science, there was a kind of tension between statisticians and data miners; the former attempted to discredit data mining on the ground that data mining had no solid theoretical foundations. This attitude, probably having something to do with competitiveness, now has vanished and a serene cohabitation of both methodologies aimed at deep data analysis can be seen. Statistics and data 58

59 Bruno Jacobfeuerborn, Mieczyslaw Muraszkiewicz mining go hand in hand when it comes to serious deep data analysis problems. The second remark refers to the famous bon mot popularized by Mark Twain There are three kinds of lies: lies, damned lies, and statistics. Without any risk we can enhance this saying to include data mining. Indeed, a full version of the humorous definition of data mining quoted in the previous chapter reads: Torturing the data until it confesses and if you torture it enough, you can get it to confess to anything. Adherents and users of data science weaponry that, as we pointed out above, considerably taps into statistics and data mining should take this warning into account and to not accept any attempts to dress up the intellectual fraud with data science. Summary How people perceive the world and change it in large measure depend on what they know about the world and on their beliefs and desires. In the space of centuries, since the civilization of Mesopotamia, to Egypt, to Greece, to Rome, and to modernity knowledge related operations were reserved to human minds. Only recently, first by means of simple calculators and then by means of computers some intellectual technologies got automated, especially since the 40s of the past century and later on. Over the last three decades we have been witnessing a tremendous increase in computer power, storage capacities, and new ICT methodologies. Altogether we found ourselves in a new place as far as computers could be integrated with men s life. This paper argues that big data along with other available computer based techniques determines the stage of the ICT evolution on which it can significantly help people to tackle complex matters of knowledge in a new way. Perhaps, we have reached the point where it is legitimate to use the Kuhnian expression of a paradigm shift (Kuhn, 1996), and apply it not only to ICT but also to other domains, in particular to science. Towards this end, let us again quote Chris Anderson s opinion: We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let algorithms find patterns where science cannot (Bollier, 2010). This controversial and thought provoking opinion closes this paper, but it can also serve as an opening to further stimulating discussions. References 1. Aristotle (350 B.C.E.). Metaphysics. Retrieved 29 March 2012 at: 2. Bacon, F. (1620). The New Organon or True Directions Concerning the Interpretation of Nature. Retrieved 29 March 2012 at: 3. Bollier, D. (2010). The Promise and Peril of Big Data. The Aspen Institute. 4. Codd, E.F. (1970). A Relational Model of Data for Large Shared Data Banks. Communications of the ACM vol.13, no 6, pp Hamming, R. (1962). Numerical Methods for Scientists and Engineers. McGraw Hill. 6. Han, J., Kamber, M., Pei, J. (2011). Data Mining: Concepts and Techniques. Morgan Kaufmann, 3rd edition. 7. Harris, H. (2011). Data Science: a literature review. Retrieved on 29 March 2012 at: 8. science a literature review.html 9. IDC (2011). Extracting Value from Chaos. IDC Report by J. Gantz and D. Reinsel. Retrieved 29 March 2012 at: 10. Kuhn, T. S. (1996). The Structure of Scientific Revolutions. University Of Chicago Press, 3rd edition. 11. Lathrop, D., Ruma, L. (2010). Open Government: Collaboration, Transparency, and Participation in Practice. O'Reilly Media. 12. McKinsey & Company (2011). Big data: The next frontier for innovation, competition, and productivity, Report by McKinsey Global Institute. Retrieved 29 March 2012 at: 59

60 ICT and Big Data as a Game Changer 13. rch/technology%20and%20innovation/big%20data/mgi_big_data_full_report.ashx 14. Obama, B. (2009). Transparency and Open Government. Memorandum for the Heads of Executive Departments and Agencies. Retrieved 29 March 2012 at: 15. Simonite, T. (2011). IBM Builds Biggest Data Drive Ever. MIT Technology Review. Retrieved 29 March 2012 at: Acknowledgements This work was supported by the National Centre for Research and Development (NCBiR) under Grant No. SP/I/1/77065/10 devoted to the Strategic scientific research and experimental development program: Interdisciplinary System for Interactive Scientific and Scientific Technical Information". Ogromne zbiory danych i ICT jako techniki przełomu Ogromne zbiory danych stały się przedmiotem zainteresowania nie tylko informatyków i badaczy nauki o informacji, ale także praktyków, menedżerów, decydentów i pracowników wiedzy. Powodem tego jest to, że takie zbiory mogą zawierać ukrytą, acz pożyteczną wiedzę, która można by wykorzystać w badaniach naukowych, marketingu, w służbie zdrowia, administracji, obronności i innych dziedzinach. Termin ogromne zbiory danych zwykle odnosi się do bardzo dużych zasobów danych, liczonych w peta bajtach, tak dużych, że wymykają się istniejącym obecnie narzędziom informatycznym. Bardzo ogromne zbiory danych w połączeniu z technikami głębokiej analizy danych takimi, jak eksploracja danych i tekstów, korzystających z różnych mechanizmów wnioskowania oraz nowych technik ICT takich, jak przetwarzanie gridowe i przetwarzanie w chmurze mogą dokonać przełomu w rozwoju wielu dziedzin. Artykuł przedstawia dwie dziedziny badania naukowe i rządzenie (ang. governance) gdzie ogromne zbiory danych i ICT mogą okazać się szczególnie pożyteczne oraz zawiera szkicową propozycje kursu akademickiego w zakresie nauki o danych (która obejmuje ogromne zbiory danych) oraz sygnalizuje tematy badań z tego obszaru. Słowa kluczowe: ogromne zbiory danych, nauka o danych, eksploracja danych, badania naukowe, rządzenie, techniki informacyjne i komunikacyjne (ICT) 60

61 Szczepan Paszkiel Szczepan Paszkiel Zastosowanie BCI w kontekście neuromarketingu internetowego w korelacji z algorytmami Hubs&Authorities oraz PageRank Streszczenie: W dobie dzisiejszej technologii standardowy marketing internetowy zastępowany jest poprzez neuromarketing. W tym celu konieczne jest zastosowanie technologii opartej na interfejsach mózg komputer z angielskiego BCI Brain Computer Interfaces. Dzięki nim możliwe jest zaimplementowanie mechanizmów mających na celu akwizycję sygnału opartego na analizie wzajemnych korelacji neuronów w mózgu internauty. Doskonałym uzupełnieniem tego typu analiz mogą być algorytmy Hubs&Authorities oraz PageRank, które wartościują strony www w sieci Internet w zakresie ich ważności, autorytatywności, koncentratywności etc. Niniejszy artykuł omawia wyżej wymienione mechanizmy w całościowym ujęciu tejże problematyki. Zaproponowany został także modułowy system promocji witryn w sieci Internet. Słowa kluczowe: Hubs&Authorities, PageRank, BCI, neuromarketing internetowy Wprowadzenie W sieci Internet można spotkać obecnie miliony, a nawet miliardy stron internetowych. Ich liczba z roku na rok rośnie, co implikuje pośrednio rozwój nowoczesnych technologii, wzrost liczby centrów przetwarzania danych, rozwój gospodarczy świata etc. Istotnym jest więc czynnik odpowiedniego ulokowania strony internetowej w przestrzeni wirtualnej. Im znajduje się ona wyżej w wynikach eksploracji wyszukiwarek internetowych oraz linkuje do niej duża liczba wartościowych stron www tym lepiej. Wyżej wymienione zależności wynikają z efektywnego prowadzenia w globalnej sieci Internet działań marketingowych. Do algorytmów wartościujących witryny internetowe zaliczyć możemy: PageRank oraz w kontekście autorytatywności i koncentratywności Hubs&Authoritites. Doskonałym ich uzupełnieniem w celu budowy nowoczesnego systemu promocji witryn w sieci Internet może być neuromarketing internetowy. Rysunek 1 przedstawia ogólną architekturę systemu promocji witryn WWW w sieci Internet. Rysunek 1. Architektura systemu promocji witryn www w sieci Internet. Źródło: opracowanie własne Doktor inżynier w dyscyplinie Automatyka i Robotyka, specjalność: cybernetyka, sterowanie ruchem, inteligentne systemy. Aktualnie pracuje jako asystent w Instytucie Automatyki i Informatyki Politechniki Opolskiej. Prowadzi badania naukowe w zakresie Brain Computer Interfaces oraz neuromarketingu. Autor kilkudziesięciu publikacji naukowych, w tym w języku angielskim. Prelegent na kilkudziesięciu konferencjach naukowych w tym międzynarodowych. Laureat wielu konkursów. Absolwent dwóch kierunków studiów: Informatyki oraz Zarządzania i inżynierii produkcji. 61

62 Zastosowanie BCI w kontekście neuromarketingu internetowego w korelacji z algorytmami ( ) Brain Computer Interfaces Dzięki rozwiązaniom płynącym z technologii interfejsów mózg komputer (ang. Brain Computer Interfaces) jesteśmy w stanie sterować różnymi aplikacjami bądź też urządzeniami [1]. W związku z szybkim rozwojem urządzeń do sterowania przy użyciu tej technologii w tym firmy Emotiv Inc. oraz NeuroSky, na rynku dostępna jest coraz większa gama produktów. W tym także dla naukowców zajmujących się analizą i klasyfikacją sygnałów elektroencefalograficznych na potrzeby badań naukowych. Technologia BCI sprawdza się także doskonale w zakresie identyfikacji reakcji człowieka na poszczególne formy prezentowanej reklamy w tym reklamy banerowej, a także konkretnego ulokowania na stronie poszczególnych komponentów witryny. Dlatego też może być z powodzeniem wykorzystana w korelacji z algorytmami Hubs&Authorities oraz PageRank jako narzędzie do wspomagania procesu promocji witryn w sieci Web i zwiększania efektywności przekazywanych przez nie informacji. Stosowanie interfejsów BCI jest możliwe w praktyce, ponieważ mózg człowieka składa się z bardzo dużej liczby neuronów, które znajdują się we wzajemnej korelacji między sobą. To dzięki neuronom i oddziaływaniom, jakie pomiędzy nimi zachodzą jesteśmy w stanie myśleć i wykonywać określone czynności. Neurony mogą przyjmować potencjał spoczynkowy 70mV oraz potencjał pobudzenia w granicy +50mV. Każdy neuron składa się z aksonu oraz dendrytów. Większość aksonów otoczona jest osłonkami, tzw. otoczką mielinową. Co pewien odcinek występuje przerwa w osłonie, która tworzy przewężenie Ranviera, spełniające funkcję elementu przyspieszającego w procesie przewodzenia impulsów nerwowych wzdłuż aksonów [2]. Wykorzystując urządzenie, jakim jest Emotiv EPOC Neuroheadset możliwe jest pobieranie, a następnie analizowanie impulsów, które występują pomiędzy poszczególnymi neuronami z wykorzystaniem napisanego w tym celu autorskiego oprogramowania w środowisku JAVA. Neuromarketing internetowy Twórcą standardowego neuromarketingu jest prof. Gerry Zaltman, który pod koniec 1998 roku wraz z zespołem badaczy zaczął analizować mózgi konsumentów, używając do tego celu rezonansu magnetycznego. Prowadzone badania naukowe dowiodły, że znaczna część konsumenckich zachowań i preferencji ma swoje źródło w podświadomości. Aktualnie badania tego typu prowadzone są także przy wykorzystaniu elektroencefalografu. Wyniki prowadzonych eksperymentów powinny być statystycznie wiarygodne, dlatego testy powinno przeprowadzać się na jak największej grupie osób. W przypadku neuromarketingu internetowego musi to być grupa kilkunastu internautów. Badania naukowe udowodniły, że niektóre obszary mózgu są aktywowane podczas potencjalnych strat, natomiast inne podczas potencjalnych zysków [3]. W badaniu prezentowano konsumentom na ekranie komputera produkty za pomocą banerów reklamowych na stronach www, które w założeniu mogli kupić. Pojawiało się wtedy pobudzenie obszarów związanych z odczuwaniem przyjemności. Kiedy cena produktu była zbyt wysoka, aktywowany był inny obszar mózgu, zaś obszar związany z oceną zysków i strat był deaktywowany. Takie obserwacje pozwalają przewidzieć, kiedy zostanie podjęta decyzja o zakupie. Badania nad mózgiem człowieka, jako jeden z wielu instytutów na świecie prowadzi Social Cognitive Neuroscience Laboratory w Caltech. Laboratorium to przekazuje wytwórniom filmowym Hollywood informacje odnośnie tworzenia zwiastunów filmów w taki sposób, żeby wywoływały najbardziej pożądane reakcje w mózgu odbiorców. Podobne doświadczenia związane z emocjami dającymi się zobrazować na podstawie badań mózgu wykorzystywane są przez specjalistów od marketingu z Lieberman Research Worldwide podczas oceny programów TV i opakowań produktów. Podczas badań w ramach, neuromarketingu pojawiają się jednak zarzuty natury etycznej. Kreuje się obraz manipulanckich korporacji, które zmuszają klienta za pomocą wyrafinowanej techniki do dokonywania zakupów. Obrońcy mówią jednak, że zastosowanie tych technik nie jest bezpośrednim wpływaniem na mózg, ile odczytywaniem jego stanu aktualnego związanego 62

63 Szczepan Paszkiel z pobudzeniem, bądź też jego brakiem w zetknięciu z określonym towarem lub przekazem medialnym na przykład w postaci banera reklamowego na stronie www. Niezaprzeczalne jest jednak stwierdzenie, że technika ta pozwoli precyzyjnie zmierzyć efekt reklamy, przez co stanie się ona bardziej skuteczna. Powyższą metodę można z powodzeniem zastosować również w aspekcie badania witryn WWW w sieci Internet, pod kątem ich użyteczności. Algorytm Hubs&Authoritites Uzupełnieniem działań prowadzonych w ramach neuromarketingu internetowego może być algorytm H&A Hubs&Authorities. Wyżej wymieniony algorytm ma szczegółowe znaczenie w aspekcie określania ważności witryn WWW. Klasyfikuje on strony internetowe ze względu na ich koncentratywność, czyli Hubs oraz autorytatywność Authorities. Strony koncentratywne to takie które zawierają wiele linków do stron autorytatywnych. Strony autorytatywne to natomiast witryny do których linkuje wiele stron koncentratorów. Algorytm H&A składa się z dwóch modułów, takich jak moduł próbkowania oraz moduł propagacji. Moduł próbkowania używany jest do gromadzenia odpowiedniej ilości witryn WWW na bazie których dokonywany będzie proces określenia ich ważności oraz autorytatywności, za pomocą modułu propogacji. W algorytmie H&A mamy do czynienia z trzema fazami realizacji: fazą konstrukcji zbioru początkowego, fazą ekspansji oraz propagacji wag. Algorytm H&A podobnie jak PageRank wykorzystuje macierzowy sposób odzwierciedlenia połączeń pomiędzy podstronami. Podstawowa różnica pomiędzy macierzami w algorytmach polega na tym, że w przypadku macierzy dla algorytmu H&A nie można określić jej mianem stochastycznej, implikuje to konieczność wprowadzenia współczynników skalujących (α, β). W wyżej wymienionej macierzy do każdego linku przypisana jest wartość 1. Nie analizuje się na tym etapie szczegółowości działania algorytmu ile następników, czy też poprzedników posiada dana witryna internetowa. W związku z powyższym dany element macierzy można zdefiniować jako X[i,j]=1, w przypadku kiedy strona i posiada link do strony j, lub jako X[i,j]=0 gdy połączenie nie występuje. Dla poprawnego działania algorytmu konieczne jest także określenie wektorów autorytatywności oraz koncentratywności. W ich przypadku i ty element określa stopień zarówno autorytatywności jak i koncentratywności dla i tej witryny. Można zatem zdefiniować iż koncentratywność jest sumą autorytatywności wszystkich stron, z którymi dana strona linkuje w iloczynie ze współczynnikiem skalującym alfa. Z kolei autorytatywność jest sumą koncentratywności wszystkich stron, z którymi dane strony linkują w iloczynie ze współczynnikiem skalującym beta. Algorytm PageRank Algorytm PageRank to miara wartościowania stron www w sieci Internet opracowana przez firmę Google i używana do lokowania witryn na konkretnych pozycjach w wynikach wyszukiwania pod konkretnymi hasłami. Algorytm swoje początki datuje na rok 1998, kiedy to jego twórcy byli jeszcze studentami Uniwersytetu Stanforda w USA. Założenie algorytmu bezpośrednio koreluje ze stwierdzeniem, że wraz z jakością tekstów (na przykład: artykułów, prac naukowych), zwiększa się ilość zewnętrznych opracowań, które do niego się odwołują. Twórcy przełożyli tę zależność na grunt sieci Internet. I tak jeśli na daną witrynę www w sieci Internet linkuje strona o wysokim PageRank u, ma to zdecydowanie większe znaczenie niż gdy do tej samej witryny prowadzą linki, ale ze stron o niskim lub zerowym współczynniku PageRank. Idea działania algorytmu PageRank, opiera się na konstrukcji macierzy stochastycznej Y sieci Web, gdzie konieczne jest ponumerowanie stron. I tak strona n ta będzie odpowiadać n temu wierszowi i n tej kolumnie w wyżej wymienionej macierzy. Na rysunku 2 przedstawiono przykładową strukturę sieci Web, składającą się z trzech stron: A, B, C oraz macierz stochastyczną Y adekwatną dla wyżej wymienionej. Wypełnienie poszczególnych pozycji w macierzy następuje zgodnie z poniższym opisem. 63

64 Zastosowanie BCI w kontekście neuromarketingu internetowego w korelacji z algorytmami ( ) Aby określić prawdopodobieństwo przejścia ze strony n tej na stronę m tą konieczne jest określenie Y[n,m]. Wartość ta może być równa zeru, wówczas nie ma przejścia pomiędzy danymi stronami lub większa od zera, określona przez liczbę linków do innych stron w sieci, wówczas Y[n,m]=1/k, gdzie k to ilość stron do których dana strona WWW posiada linki, w tym do jej samej. Obliczanie ważności danej witryny internetowej polega na wymnażaniu wektora PageRank strony WWW przez macierz stochastyczną Y. i ta składowa wektora PageRank określa prawdopodobieństwo, że w danej chwili czasu znajdujemy się właśnie na niej. Podsumowując można stwierdzić, że dana witryna WWW w sieci jest ważna wówczas gdy występuje duże prawdopodobieństwo odwiedzenia jej. A B C Y = 1/2 1/2 0 1/ /2 0 Rysunek 2. Przykładowa struktura połączeń pomiędzy stronami w sieci Internet wraz z macierzą Y. Źródło: opracowanie własne Istotnym jest jednak fakt, że w przypadku algorytmu PageRank mogą wystąpić problemy na etapie jego działania, które określa się mianem pajęczej pułapki oraz ślepej uliczki. Doprowadzają one często to błędnego oszacowania wartości danych witryn w sieci Web. Problemy te jednak wykrywa i uwzględnia algorytm PageRank. Modułowy system promocji witryn w sieci Internet Modułowy system promocji witryn w sieci Internet składa się z połączenia algorytmów wartościujących witryny WWW w aspekcie ich wyszukiwania w połączeniu z wnioskami płynącymi z analizy neuromarketingowej. Promocja strony w sieci Web opiera się w uogólnieniu na jej odpowiednim wypozycjonowaniu w wyszukiwarce [4]. Aktualnie jak wynika z badań, odpowiednio wysoka lokata w popularnej wyszukiwarce przynosi bardzo dobre wyniki w zakresie zysków płynących ze sprzedaży reklamowanych na niej produktów. Nie mniej jednak z punktu widzenia promocji witryny istotny jest także aspekt związany z jej użytecznością i optymalizacją interfejsu na potrzeby internauty. W tym celu konieczne jest odpowiednie określenie jakości witryny pod kątem jej ergonomiczności. Poprzez założenie na głowę internauty słuchawek z przymocowanymi do nich elektrodami aktywnymi mierzącymi potencjał elektryczny na powierzchni głowy, a następnie poprzez przeprowadzenie odpowiedniego procesu filtracji i analizy jesteśmy w stanie określić, jakie są reakcje mózgu osoby badanej na poszczególne formy między innymi ułożenia przycisków nawigacyjnych na danej witrynie. Z rysunku 1 zamieszczonego we wprowadzeniu do niniejszego artykułu wynika, że moduł odpowiedzialny za analizę reakcji internauty na prezentowaną mu witrynę internetową, działa w pętli sprzężenia zwrotnego. Możliwe jest więc kilkakrotne analizowanie zmian wprowadzonych w serwisie i poddanie ich ocenie poprzez ponowne przedstawienie witryny osobie uczestniczącej w badaniu. Do momentu uzyskania satysfakcjonujących wyników w sygnale elektroencefalograficznym, charakterystycznych dla entuzjastycznej opinii o danej stronie internetowej. Badanie w praktyce należy wykonać na grupie co najmniej kilkunastu osób dla zapewnienia poprawności jej działania. 64

65 Szczepan Paszkiel Podsumowując w dobie dzisiejszej rzeczywistości i analizie wskaźników definiujących sukces witryny w sieci w kontekście jej odwiedzalności, oprócz samego aspektu jej użyteczności i dopasowania do internautów nie sposób jest pominąć wpływu pozycji w wyszukiwarkach, tych że stron. Dlatego też w modułowym systemie zaimplementowano również algorytmy PageRank oraz H&A, opisane szczegółowo w powyższych punktach niniejszego artykułu. Bibliografia 1. Dudek Z. T.: Interfejs BCI próba przełamania bariery pomiędzy człowiekiem a komputerem, Przegląd Telekomunikacyjny i Wiadomości Telekomunikacyjne, nr: 7/ Wolański N.: Rozwój biologiczny człowieka. Podstawy auksologii, gerontologii i promocji zdrowia, Warszawa 2005, s Pfurtsheller G., da Silva F. L.: Handbook of Electronencephalography and Clinical Neurophysiology, Revised Series. Elsevier Science B.V., Schewe K., Thalheim B.: Conceptual modelling of web information systems, Data & Knowledge Engineering Vol.54, 2005, s The Use of BCI for the Internet Neuromarketing with a Correlation to the Hubs&Authorities and the PageRank Algorithms Nowadays, the standard Internet marketing is replaced by the neuromarketing. For this reason, it is necessary to use the technology based on the Brain Computer Interfaces (BCI). There is a possibility to implement mechanisms to charge the signal based on the analysis of mutual neurons correlation in the web user s brain. The perfect supplements of such analyses are the Hubs&Authorities and the PageRank algorithms which assess websites in the Internet in terms of their validity, authoritativeness, hubs etc. The mechanisms mentioned above are presented from the complete perspective. A module system for neuromarketing analyses is also shown in the paper. Keywords: Hubs&Authorities, PageRank, Brain Computer Interfaces, the Internet neuromarketing 65

66 Konwergencja mediów jako naturalne przejście do przyszłości Rafał Guzowski * Konwergencja mediów jako naturalne przejście do przyszłości Streszczenie: Autor w niniejszym artykule przedstawia ogólne ramy konwergencji jaka zachodzi w świecie mediów. Wskazuje również rolę użytkownika odbiorcy, który w ostateczności nie pozostaje niemym obserwatorem, a czynnym aktorem procesu przejścia do przyszłości mediów. Słowa kluczowe: konwergencja, konwergencja mediów, nowe media Wstęp Dużo łatwiej jest opisywać zjawiska i przed nimi przestrzegać, niż trafnie przewidzieć, dokąd one prowadzą 1. Epoka multimedialnej sieci globalnej, jaka rozpoczęła się na początku lat 70 ubiegłego wieku, czyli od pojawienia się zalążków internetu, trwa do chwili obecnej. Rozwój mediów, zmiany zachodzące w społeczeństwie, wzrost podmiotowości obywatelskiej i w ostateczności rozwój społeczeństwa informacyjnego wspiera proces konwergencji mediów, a co za tym idzie również rozwój technologii. Warunkiem condicio sine qua non dla współczesnego człowieka jest wypasiony telefon komórkowy (który) zawiera ( ) wiele mediów w jednym: radio, aparat foto, kamerę wideo, odtwarzacz muzyki, dyktafon, internet, TV, telegraf, , wideokonferencję, łączność satelitarną, zegarek, kalendarz, notes, i Bóg wie co jeszcze 2. Jak stwierdza Tomasz Goban Klas jesteśmy świadkami eksplozji i implozji mediów. Medium! Quo vadis? Do procesu konwergencji mediów, czyli łączenia się np. głosu z danymi, integracji sieci lokalnych z bardziej rozległymi, a szerzej uzupełnianiu się i wzajemnym przenikaniu telekomunikacji, multimediów i informatyki zdążyliśmy się przyzwyczaić. Jesteśmy świadkami nieustającego i niczym nieskrępowanego zjawiska współdziałania nowych elementów rzeczywistości. Słowo konwergencja pojawia się coraz częściej jako określenie procesów zachodzących we współczesnych mediach, informatyce i telekomunikacji. Definiuje się tym mianem upodobnianie urządzeń, które zaczynają pełnić podobne funkcje, choć pierwotnie nie były ze sobą technicznie spokrewnione 3. Jak zauważył przytoczony już w niniejszym opracowaniu Tomasz Goban Klas, w 1979 roku Nicholas Negroponte rozpoczął popularyzację pojęcia konwergencji 4. Negroponte twierdził, że «wszystkie technologie komunikacyjne dotyka łączna metamorfoza, dzięki której mogą być zrozumiane właściwie tylko wówczas gdy traktujemy je jako * Autor jest absolwentem Wydziału Nauk Społecznych Uniwersytetu Śląskiego w Katowicach. Specjalizuje się w ewolucji społeczeństwa byłego Rybnickiego Okręgu Węglowego od społeczeństwa postindustrialnego ku społeczeństwa informacyjnego, oraz jakością polityki informacyjnej prowadzonej przez instytucje społeczne. Doktorant Wydziału Nauk Społecznych Uniwersytetu Śląskiego w Katowicach. Autor kilku publikacji naukowych, których tematyka dotyczyła m. in. zarządzania informacją w sytuacjach kryzysowych, polityką informacyjną, wykluczeniem cyfrowym oraz cyfryzacją społeczeństwa. 1 G. Ritzer, Siedzimy nigdzie, pijemy nic, źródło: swiecie niczego, dost.: T. Goban Klas, Społeczeństwo medialne, Wyd. WsiP, Warszawa 2005, s T. Goban Klas, Media i komunikowanie społeczne, Kraków 1999, s Ibidem, s

67 Rafał Guzowski jeden obiekt» 5. Jak słusznie zauważył McLuchan w 1967 roku: zadaniem (ówczesnych wtrącenie autora) nowych środków przekazu jest dostarczenie odbiorcy pełni doznań zmysłowych poprzez połączenie wrażeń słuchowych, dotykowych i wizualnych, a więc stworzenie sytuacji pozwalającej na zaangażowanie się w przekaz 6. Warto w tym miejscu odnotować kilka istotnych faktów. Bowiem już w połowie lat 70 tych były technologiczne możliwości magazynowania informacji i komunikowania ich przez sieć, a używane przez odbiorców technologie dostępu do informacji czy rozrywki mogły być transmitowane 7. Już wtedy Ithiel de Sola Pool podjął się zdefiniowania tzw. konwergencji trybów (convergence of modes); sygnalizował wówczas, że dokonuje się zacieranie granic między mediami, a nawet między komunikacją miejsce do miejsce: np. poczta, telefon i telegraf a nawet komunikacją masową (prasa, radio, telewizja) 8. Pojedyncze środki fizyczne mogą to być przewody, kable czy fale mogą dostarczać usługi, które w przeszłości były dostarczane odrębnymi drogami. I odwrotnie, serwis, który był dostarczany w przeszłości przez jedno z mediów może być to nadawanie, prasa lub telefon mogą być teraz dostarczane na kilka różnych fizycznych sposobów 9. W tym miejscu, wydaje się istotne, aby przywołać pogląd reprezentowany przez Piotra Sienkiewicza i Tomasza Goban Klas w książce Społeczeństwo informacyjne: Szanse, zagrożenia, wyzwania. Zdaniem przywołanych autorów media masowe (kanały telewizyjne czy stacje) początkowo nie były liczne, cechowały je bowiem liczne, narodowe audytoria. Co prawda brakowało w procesie komunikacji sprzężenia zwrotnego, jednak dominował w nich ogromny stopień zorganizowania i profesjonalizmu 10. Media masowe ulegają transformacji w nowym informacyjnym środowisku. Na metaforycznej infostradzie następują zmiany w ruchu: tradycyjne mass media nie są jedynymi uczestnikami ruchu, wiele z nich «zjeżdża» z drogi, a dołączają do nich nowe media, nowi uczestnicy i powstają nowe formy przekazów 11. To, że media ewoluują nikogo nie powinno dziwić, poniższa tabela pokazuje różnicę między mediami wczoraj, a jutro. Tabela 1. Media dawne i nowe Media Dawniej W nieodległej przyszłości Sprzężenie zwrotne z odbiorcami powolne, niezróżnicowane szybkie, dokładne Środki przekazu masowe, nieliczne liczne, zintegrowane, specjalistyczne Kanały analogowe cyfrowe Przekazy homogenizowane, jednolite spersonalizowane, specjalistyczne Nadawcy korporacje medialne, użytkownicy jako źródła informacji profesjonaliści Technika dystrybucji technologia skomplikowana i kosztowna wydawnictwa biurkowe, strony www Źródło: T. Goban Klas, P. Sienkiewicz, Społeczeństwo informacyjne: Szanse, zagrożenia, wyzwania, Wyd. Fundacji Postępu Telekomunikacji, Kraków 1999, s Ibidem 6 cyt. za: K. Loska, Dziedzictwo McLuhana między nowoczesnością a ponowoczesnością, Wyd. RABID, Kraków 2001, s R. Gordon, Digital Journalism: Emerging Media and the Changing Horizons of Journalism, Lanham 2003, [w:] Online Journalism Review, dostęp: (tłumaczenie własne) 8 I. De Sola Pool, Technologies of Freedom, Cambridge, MA 1983 oraz Appelgren E., Media Convergence and Digital News Services, s. 7, dostęp: (tłumaczenie własne) 9 ibidem 10 T. Goban Klas, P. Sienkiewicz, Społeczeństwo informacyjne: Szanse, zagrożenia, wyzwania, Wyd. Fundacji Postępu Telekomunikacji, Kraków 1999, s Ibidem 67

68 Konwergencja mediów jako naturalne przejście do przyszłości «Ucyfrowienie» mediów przynosi wiele istotnych korzyści. Jakość transmisji ulega radykalnej poprawie, bowiem mniej jest zakłóceń. Przez kompresję sygnału można zwiększyć pojemność kanału, gdy znajdzie się sposób na zmniejszenie liczny bitów potrzebnych do zakodowania przekazu. Możliwy jest także przekaz jednego komunikatu w wielu kanałach, np. jego równoczesna transmisja i zapis. Można dorzucić dodatkową informację, tak iż kanał staje się integralny, zachowuje się inaczej w zależności od przekazywanej treści, może też akceptować informacje od użytkownika. Przykładem jest sterowanie nagraniem magnetowidowym przez zawarty w programie telewizyjnym sygnał 12. Mimo, że konwergencja mediów jest nieodwracalnym elementem naszej rzeczywistości, są również krytycy tego zjawiska. O zmianach zachodzących w obrębie telewizji, a ogólniej środków masowego przekazu tak wyraził się Ubmerto Eco: Dawno, dawno temu była sobie paleotelewizja, produkowana w Rzymie albo w Mediolanie na potrzeby wszystkich widzów; opowiadała ona o inauguracjach z udziałem ministrów i pilnowała, aby odbiorcy dowiadywali się jedynie o sprawach niewinnych, nawet za cenę kłamstw. Obecnie, za sprawą powiększającej się liczby kanałów, prywatyzacji oraz wprowadzania nowych elektronicznych diabelstw, żyjemy w epoce neotelewizji. [ ] Podstawową cechą neo TV jest to, że mówi ona coraz mniej o świecie zewnętrznym (w przeciwieństwie do tego, co robiła lub udawała, że robi paleotelewizja). [ ] Pomimo wielu wątpliwości jedno jest pewne: neo TV istnieje. Jest prawdziwa, ponieważ z pewnością jest wymysłem telewizyjnym 13. Obecnie nowe media wykorzystują różne sposoby scalania środków technicznych do przekazywania różnych treści. Jak już zostało wcześniej zasygnalizowane konwergencja w wielkim uproszczeniu ma za podstawowe zadanie łączyć technologię, informatykę wraz z informacją choćby na polu przekazu informacji. Rysunek 1. Nowe media Źródło: content/uploads/2011/09/nowe media1 1024x640.jpg Łączenie się mediów jest naturalnym efektem cyfrowej rewolucji i scalania się różnych sektorów rynku. Zdaniem Franciszka Kamińskiego głównymi siłami konwergencji są: internet, e business, rozwój aplikacji informatycznych i multimedialnych oraz rozwój technik informatycznych skutkujących wzrostem mocy obliczeniowej komputerów i laptopów wespół ze spadkiem ich cen detalicznych 14. Jak wyjaśnia Kamiński, konwergencja techniczna jest elementem wytworzenia oraz udostępnienia produktów towarów o zbliżonych parametrach i cechach użytkowych. To również prowadzenie tradycyjnej działalności gospodarczej w obrębie 12 Ibidem, s U. Eco, Podziemni bogowie, Wyd. Czytelnik, Warszawa 2007, s F. Kamiński, Konwergencja w obszarze komunikacji elektronicznej, [w:] Przegląd telekomunikacyjny, 1/2000, s

69 Rafał Guzowski telekomunikacji, mediów informatycznych czy informatyki przy użyciu mediów elektronicznych, np.: 15 wydawanie prasy drukowanej dostępna jest ona także w postaci elektronicznej; produkcja i rozpowszechnianie programu radiowego przy użyciu nadajnika naziemnego możliwość odbioru programu za pomocą internetu; produkcja i rozpowszechnianie programu telewizyjnego przy użyciu nadajnika naziemnego możliwość odbioru programu za pomocą internetu; Powyższe stwierdzenia zdają się znaleźć swoje odzwierciedlenie w materiale Konwergencja mediów trafia «pod strzechy» Tomasza Szetyńskiego, bowiem jak napisał w 2005 roku: Pojawiło się nowe pojęcie: Cyfrowa konwergencja, oznaczająca proces łączenia wielu różnych technologii, którego celem jest wzajemna wymiana danych i szybka komunikacja pomiędzy urządzeniami cyfrowymi. Konwergencja cyfrowa jest zjawiskiem, pewną ideą projektowania, dzięki której urządzenia, które istnieją od lat, zostają wyposażane w nowe funkcje i nabierają nowego znaczenia dla człowieka. Wyobraźmy sobie np. cyfrowy aparat fotograficzny i telewizor 16. Oddziaływanie konwergencji mediów Jak już wcześniej zostało wykazane, konwergencja mediów jest nieustającym procesem o zakończeniu którego nie można w żaden sposób mówić. Warto zaznaczyć, że Unia Europejska przywiązuje istotne znaczenie do tego procesu, a to ze względu na to, że ma on istotny wpływ na budowanie i umacnianie społeczeństwa informacyjnego 17. Tabela 2. Opis głównych cech charakterystycznych dla różnych odmian konwergencji na podst.: Założenia strategiczne do nowej ustawy o mediach elektronicznych, [w:] Studium w ramach projektu PHARE PL 2001/IB/OT01, Typ Konwergencja przemysłowa Konwergencja rynków Konwergencja prawna Konwergencja administracyjna i regulacyjna Charakterystyka Fuzja przedsiębiorstw, które dotychczas działały na różnych polach. Zachodzi, aby działania rozpocząć integrację technologii oraz produkcji sprzętu dla stworzenia sieci oraz odbioru jej zawartości. Zachodzi dzięki powstaniu usług nowego typu oraz pojawianiu się nowych powiązań pomiędzy partnerami w dostarczaniu usług konsumentom Unifikacja lub zbliżenie przepisów różnych dziedzin komunikowania (co nie jest równoznaczne ze scaleniem przepisów regulujących telekomunikację vs radiofonię) Odchodzenie od obowiązujących, resortowych podziałów struktur administracji i regulacji medialnej, czego celem jest tworzenie nowych struktur multidyscyplinarnych które są zdolne objąć swoim zakresem działania scalające gałęzi mediów elektronicznych, łączności i gospodarki, są również zdolne do formułowania polityki oraz programu działania wobec społeczeństwa informacyjnego Źródło: dostęp: , s Ibidem, s T. Szetyński, Konwergencja mediów trafia «pod strzechy», źródło: dostęp: Por. Komisja Europejska. Zielona Księga Konwergencja telekomunikacji, mediów i różnych sektorów technologii informacji oraz jej implikacje dla regulacji prawnych, (w:) Przegląd Powszechny. Wokół Współczesności, nr 9/10, s. 15 (jest to polski przekład Green Paper on the Convergence of the Telecommunications, Media and Information Technology Sectors, and the Implications For Regulation. Towards an Information Society Approach COM(97)623 Brussels: European Commission, 3 December 1997). 69

70 Konwergencja mediów jako naturalne przejście do przyszłości Jak już wcześniej zostało wspomniane, obecnie każdy z użytkowników nowych mediów jest mimowolnym świadkiem zmian zachodzących na polu radiofonii i telewizji. Elementami jakie składają się na ten proces, zdaniem autora, bez wątpienia są: 18 Zmiany techniczne, które wynikają z procesu cyfryzacji tworzące nowe sposoby produkcji oraz rozpowszechniania treści medialnych oraz z czasem upowszechniania usług multimedialnych, interaktywnych i VOD (dostępne na życzenie) ogólnie usługi społeczeństwa informacyjnego. W tym przypadku można powiedzieć, że zachodzą jednocześnie rewolucje techniczne: przejście z techniki analogowej na cyfrową oraz z techniki cyfrowej na informatyczną. Obie rewolucje prowadzą z kolei do konwergencji owocującej zasadniczymi zmianami w sposobie funkcjonowania mediów oraz odbioru ich zawartości, a jednocześnie do wzrostu ilości przedsiębiorstw rynkowych oraz podmiotów o innym charakterze zdolnych upowszechniać treści w skali masowej lub globalnej; Zmiany rynkowe, których efektem jest rosnąca koncentracja czy również globalizacja przedsiębiorstw, które przekształcają się w machiny medialne (wielkie podmioty gospodarcze. Zmiany te również oznaczają rosnącą integrację przedsiębiorstw medialnych z gospodarką (poprzez oferowanie dodatkowych usług, np. pośredniczenie między użytkownikiem, a usługami czy handlem). Trzecim elementem jaki doświadczyć możemy to powstanie łańcucha tworzenia wartości w mediach oraz rosnące gospodarcze znaczenie sektora medialnego jako pracodawcy. Czwartym i ostatnim elementem zmian rynkowych to powstawanie nowych źródeł finansowania mediów (audiotele, SMS, VOD) oraz jednoczesny udział w generowanych w ten sposób przychodach; Zmiany wzorów użytkownika mediów, całkowicie przenoszące kontrolę nad tym procesem na użytkownika oraz powodujące narastającą indywidualizację oferty medialnej i sposobu korzystania z niej; Zmiany prawa medialnego oraz sposobu regulacji oraz nadzoru mediów w tym: a) Rozwój ustawodawstwa ukierunkowanego na regulację nowych zjawisk wynikających z konwergencji (przechodzenie od pionowego do poziomego technologicznie neutralnego modelu regulacji zawartości i infrastruktury; b) Rosnące znaczenie różnych form samoregulacji nadawców i dostawców usług i treści; c) Rosnące znaczenie prawa międzynarodowego w wyniku integracji międzynarodowej oraz globalizacji mediów. W tym miejscu warto, zdaniem autora, przytoczyć jedno ze sformułowań, jakie pojawiło się w Strategii Państwa Polskiego w dziedzinie mediów elektronicznych na lata Otóż autorzy stwierdzają jednoznacznie, że Proces konwergencji technologicznej, jakiemu podlegają media elektroniczne, umożliwi powszechne dostarczanie społeczeństwu, a także praktycznie nieograniczone gromadzenie, przetwarzanie, przekazywanie i użytkowanie informacji, która w koncepcji Społeczeństwa Informacyjnego stanowi jeden z podstawowych zasobów produkcyjnych (obok surowców, kapitału i pracy) Założenia strategiczne do nowej ustawy o mediach elektronicznych, [w:] Studium w ramach projektu PHARE PL 2001/IB/OT01, Źródło: dostęp: , s Strategia Państwa Polskiego w dziedzinie mediów elektronicznych na lata , Tekst opracowany przez KRRiT w celu przedstawienia Prezesowi Rady Ministrów na podstawie art. 6 ust. 2 ustawy o radiofonii i telewizji i przyjęty przez Międzyresortowy Zespół do spraw Strategii Rozwoju Radiofonii i Telewizji w dniu 26 sierpnia 2005 r., Krajowa Rada Radiofonii i Telewizji Warszawa, sierpień 2005 r., źródło: 70

71 Rafał Guzowski Zawartość mediów i ich użytkownicy w dobie konwergencji Z punktu widzenia producenta, zajmującego się zawodowo produkcją programu etc., konwergencja jest procesem naturalnym odgórnym, któremu należy się podporządkować. Zobowiązuje go producenta do zastosowania odpowiedniej strategii, która zakłada podjęcie działań. Na poziomie konkretnych jednostek przekazu konwergencja zawartości polega na zbieżności formy lub treści danych przekazów medialnych. Adekwatnym przykładem jest konwergencja retoryczna, która podlega transformacji, zmianie gatunków w wyniku zbieżności starszych elementów w nowych rozwiązaniach 20. Autor niniejszego artykułu pragnie wyraźnie podkreślić, że Anders Fagerjord w sposób wyczerpujący przedstawił model konwergencji retorycznej skupia się przede wszystkim na istnieniu czterech zmiennych tekstu, które niezależnie od siebie mogą być zmieniane: system znaków, tryb bycia, kanwa (tj. rozmiar i rozkład tekstu w przestrzeni i czasie), dystrybucja. Istotne jest to, iż konwergencja retoryczna zachodzi w momencie kompilacji różnych form i urządzeń, które dotychczas były wykorzystywane w pojedynczych mediach 21. Tabela 3. Trzy etapy rozwoju telewizji na podst.: H. Galperin, F. Bar, The Regulation of Interactive Television in the United States and the European Union, Federal Communications Law Journal, Vol. 55 (2002), Number 1, s. 12 (tłumaczenie własne) Oferta Model biznesowy Strategia kontroli Model regulacyjny Telewizja tradycyjna Telewizja wielokanałowa Telewizja interaktywna Rozpowszechnianie nielicznych programów Reklama adresowana do masowego odbiorcy i/lub abonament Państwowa własność widma, koncesje Instytucje zaufania publicznego (public trustee) Rozpowszechnianie wielu programów Reklama adresowana do masowego odbiorcy, abonament, pay TV Integracja produkcji zawartości i dystrybucji Instytucje zaufania publicznego i ograniczona regulacja usług Udostępnianie wielu programów i usług dodatkowych w systemach interaktywnych Reklama adresowana do grup docelowych, pay TV, opłaty transakcyjne za usługi dodatkowe, mikropłatności Kontrola dostępu i własność standardów technicznych Obecnie nieznany Zważywszy na zaanonsowane w niniejszym opracowaniu zagadnienia, można uznać zdaniem autora, że konwergencja nie tylko wpływa na zawartość mediów, czy relację między konsumentami wespół z producentami, czy na strukturę firmy, ale co równie istotne ma ona wpływ na sposób wykonywania samej pracy. M. Deuze wskazuje, że te wcześniej wymienione elementy wpisują się w proces tworzenia zawartości wielu platform medialnych. Proces produkcji dostęp: , s. D/24 20 T. Storsul, A. Fagerjord, Digitization and Media Convergence [hasło], [w:] The International Encyclopedia of Communication, ed. W. Donsbach, g _chunk_g _ss39 1, dostęp: A. Fagerjord, Four Axes of Rhetorical Convergence, Dichtung Digital, nr 4, vol. 30, fagerjord.htm,

72 Konwergencja mediów jako naturalne przejście do przyszłości programu i jego opakowania wiąże się z multikompetencyjnością. Produkcja (czy potocznie robienie telewizji) nie jest tym samym, czym było jeszcze kilka lat temu 22. Z punktu odbiorcy konwergencja również dotyka szerokorozumianą kulturę. Henry Jenkins w Kulturze konwergencji. Zderzenie starych i nowych mediów prezentuje stanowisko, iż człowiek współczesny żyje w ukształtowanym przez media otoczeniu. Massmedia wrosły one już do tego stopnia w naszą codzienność, że stanowią integralną część współczesnego świata. Jako konwergencję rozumiem przepływ treści pomiędzy różnymi platformami medialnymi, współpracę różnych przemysłów medialnych oraz migracyjne zachowania odbiorców mediów, którzy dotrą niemal wszędzie, poszukując takiej rozrywki, na jaką mają ochotę. [ ] Konwergencja reprezentuje raczej zmianę kulturową, polegająca na zachęcaniu konsumentów do wyszukiwania nowych informacji i tworzenia połączeń pomiędzy treściami rozproszonymi w różnych środkach przekazu. [ ] Konwergencja zachodzi w umysłach pojedynczych konsumentów i poprzez ich społeczne interakcje z innymi konsumentami 23. Warto w tym miejscu zwrócić uwagę, iż proces konwergencji również wymaga od użytkownika medium odpowiednich zachowań i reakcji na dostarczane bodźce. W dobie konwergencji mediów uczestnictwo użytkowników stało się centralnym problemem ideologicznym: strażnicy tradycji starają się zachować kontrolę nad treściami kulturowymi, podczas gdy inne grupy fani, zwolennicy swobód obywatelskich, chrześcijański ruch rozeznania duchowego starają się wyposażyć konsumentów w umiejętności potrzebne do konstruowania własnej kultury 24. Wnioski W Polsce obecnie jesteśmy świadkami wejścia konwergencji w fazę intensyfikacji. Cechą charakterystyczną dla tej chwili jest to, iż grupy medialne coraz częściej i na coraz szerszą skalę stosują strategie konwergencyjne, które są odpowiedzią na realne potrzeby użytkowników. Oczywiście kroki podejmowane w ramach strategii są w głównej mierze na przewidywanych i co ważne oczekiwanych wpływach. Zbigniew Bauer wskazuje, że jest to proces transformujący całość kultury. ( ) Konwergencja nie jest jednak czymś swoistym, dokonuje się w efekcie ludzkich działań, decyzji, określania celów, oceny efektów ( ) jest zjawiskiem społecznym odpowiada na to, co w społeczeństwie i ze społeczeństwem się dzieje 25. Bibliografia 1. Bauer Z., Dziennikarstwo wobec nowych mediów. Historia, teoria, praktyka, Kraków 2009, 2. Eco U., Podziemni bogowie, Wyd. Czytelnik, Warszawa 2007, 3. Galperin H., Bar F., The Regulation of Interactive Television in the United States and the European Union, Federal Communications Law Journal, Vol. 55 (2002), Number 1, (tłumaczenie własne) 4. Goban Klas T., Media i komunikowanie społeczne, Kraków 1999, 5. Goban Klas T., Sienkiewicz P., Społeczeństwo informacyjne: Szanse, zagrożenia, wyzwania, Wyd. Fundacji Postępu Telekomunikacji, Kraków 1999, 6. Goban Klas T., Społeczeństwo medialne, Wyd. WsiP, Warszawa 2005, 7. Jenkins H., Kultura konwergencji. Zderzenie starych i nowych mediów, WAiPWarszawa 2007, 8. Kamiński F., Konwergencja w obszarze komunikacji elektronicznej, [w:] Przegląd telekomunikacyjny, 1/2000, 9. Loska K., Dziedzictwo McLuhana między nowoczesnością a ponowoczesnością, Wyd. RABID, Kraków 2001, 22 M. Deuze, Media Industries, Work, and Life, European Journal of Communication Vol. 24 (2009), nr 4, s. 472, [dostęp: ], 23 Jenkins H., Kultura konwergencji. Zderzenie starych i nowych mediów, WAiP Warszawa 2007, s Ibidem, s Bauer Z., Dziennikarstwo wobec nowych mediów. Historia, teoria, praktyka, Kraków 2009, s

73 Rafał Guzowski 10. Por. Komisja Europejska. Zielona Księga Konwergencja telekomunikacji, mediów i różnych sektorów technologii informacji oraz jej implikacje dla regulacji prawnych, (w:) Przegląd Powszechny. Wokół Współczesności, nr 9/10, s. 15 (jest to polski przekład Green Paper on the Convergence of the Telecommunications, Media and Information Technology Sectors, and the Implications For Regulation. Towards an Information Society Approach COM(97)623 Brussels: European Commission, 3 December 1997). Netografia 1. De Sola Pool I., Technologies of Freedom, Cambridge, MA 1983 oraz Appelgren E., Media Convergence and Digital News Services, s. 7, dostęp: (tłumaczenie własne) 2. Fagerjord A., Four Axes of Rhetorical Convergence, Dichtung Digital, nr 4, vol. 30, digital.org/2003/4 fagerjord.htm, Gordon R., Digital Journalism: Emerging Media and the Changing Horizons of Journalism, Lanham 2003, [w:] Online Journalism Review, dostęp: (tłumaczenie własne) 4. M. Deuze, Media Industries, Work, and Life, European Journal of Communication Vol. 24 (2009), nr 4, s. 472, [dostęp: ], 5. Ritzer G., Siedzimy nigdzie, pijemy nic, źródło: swiecieniczego.read, dostęp: Strategia Państwa Polskiego w dziedzinie mediów elektronicznych na lata , Krajowa Rada Radiofonii i Telewizji Warszawa, sierpień 2005 r., źródło: dostęp: , 7. Szetyński T., Konwergencja mediów trafia «pod strzechy», źródło: dostęp: T. Storsul, A. Fagerjord, Digitization and Media Convergence [hasło], [w:] The International Encyclopedia of Communication, ed. W. Donsbach, g _chunk_g _ss39 1, dostęp: Założenia strategiczne do nowej ustawy o mediach elektronicznych, [w:] Studium w ramach projektu PHARE PL 2001/IB/OT01, Źródło: dostęp: , The Media Convergence as a Natural "Transition to the Future" The general framework of the convergence that takes place in the world of media is presented in this article. The role of the user and the recipient who does not remain a silent observer as a last resort but an active actor in the process of the media s "transition to the future" is stated in the paper, as well. Keywords: convergence, media convergence, new media 73

74 Zagrożenia związane z zastosowaniem bankowości elektronicznej Michał Widlak * Zagrożenia związane z zastosowaniem bankowości elektronicznej Streszczenie: W artykule zaprezentowano zagadnienia systemów informatycznych wspierających bankowość elektroniczną. Zasadniczym celem pracy jest przedstawienie w jaki sposób społeczeństwo obdarza zaufaniem nowoczesne kanały bankowe. W pierwszej części tekstu opisano świadomość informacyjną jako rozwój społeczeństwa informacyjnego. Adaptacja nowoczesnej technologii, która jest wykorzystywana w różnych aspektach naszego życia. Następnie omówiono charakterystykę i klasyfikacje nowoczesnych kanałów bankowych. Kolejno zaprezentowano zagrożenia wynikające z zastosowania nowoczesnej technologii w bankowości. W ostatniej części artykułu przedstawiono badania pilotażowe dotyczące kanałów bankowych z jakich społeczeństwo obecnie korzysta i jaka jest ich wiedza dotycząca zagrożeń. Słowa kluczowe: bankowość elektroniczna, bankowość mobilna, internet 1. Świadomość informatyczna Zmiany systemowe dokonane w Polsce w ostatnich latach, spowodowały otwarcie się Polski na świat i olbrzymi postęp, jaki zaistniał w sposobie przekazywania informacji. Społeczeństwo cały czas się uczy i ewoluuje, jego następstwem jest nastanie po społeczeństwie przemysłowym społeczeństwa informacyjnego korzystającego z technologii teleinformatycznych, a przede wszystkim z globalnej sieci Internet. W ostatnich latach wręcz na naszych oczach postęp techniki w dziedzinie technologii teleinformatycznych jest zadziwiający. W bardzo szybkim tempie została rozpowszechniona sieć internetowa, który obejmuje swoim zasięgiem większość regionów w Polsce, a możemy z niej korzystać w domach prywatnych, instytucjach, szkołach, w miejscach pracy, a także za pośrednictwem punktów hot spotów gdzie zazwyczaj są udostępnione w najbardziej uczęszczanych obszarach turystycznych danego regionu, oraz w centrach handlowych. Z każdym rokiem liczba internautów ciągle się powiększa, w roku 2006 r. odsetek gospodarstw domowych posiadający szerokopasmowy dostęp do internetu w Polsce wynosił ogółem 21,5%, a w 2010 roku już 56,8% 1. W przeciągu czterech lat ekspansja wykorzystywania sieci globalnej wzrosła o ponad sto procent. Obecnie powstaje coraz więcej małych pod względem rozmiarów nośników do wykorzystywania sieci mobilnej. Konkludując rynek usług coraz bardziej się powiększa, przez wprowadzanie nowych gadżetów mobilnych, ale rośnie także rynek zbytu, co ułatwia nam korzystanie z informacji w rożnych obszarach geograficznych. Tak szybka adaptacja nowej technologii teleinformatycznej dała impuls do zaistnienia społeczeństwa informacyjnego. Jest to bardzo korzystne zjawisko, które optymalnie wykorzystane, może i powinno się przyczynić się do szybkiego rozwoju gospodarczego, lepszego komfortu życia społeczeństwa poprzez wykorzystanie wiedzy spersonalizowanej, skodyfikowanej i ugruntowanej. Kluczowe znaczenie w gospodarce odgrywa produkt cyfrowy i usługa cyfrowa. Kraje w których nie uda się nadążyć za przemianami może grozić wykluczenie cyfrowe. Trzeba upatrywać w tych przemianach szansy, bo przyszłość leży w rozwoju gospodarki opartej na wiedzy. * Autor artykułu jest doktorantem na Uniwersytecie Ekonomicznym w Krakowie na Wydziale Zarządzania. Jego zainteresowania dotyczą tematyki wykorzystania zintegrowanych systemów informatycznych w oświacie, oraz bezpieczeństwa danych. 1 Źródło: GUS, Społeczeństwo informacyjne w Polsce[online] Warszawa 2010, [ ] 74

75 Michał Widlak Tabela 1. Cele wykorzystania Internetu w sprawach prywatnych. Cele korzystania z Internetu Korzystanie z poczty elektronicznej Wykorzystywanie informacji o towarach usługach Udział w chatach i forach dyskusyjnych Czytanie i pobieranie czasopism on line Granie w gry, pobieranie plików z grami, muzyką, filmami Szukanie informacji dotyczących zdrowia Słuchanie radia i oglądanie TV On Line % ogółem % osób korzystających z Internetu 27,2 32,0 38,0 45,0 47,8 67,7 72,5 77,5 80,9 81,3 24,7 27,3 32,6 28,7 39,2 61,4 61,9 66,5 51,6 66,7 17,7 25,9 30,7 14,6 32,2 44,2 58,6 62,5 26,2 54,8 16,1 15,0 18,8 18,0 17,4 17,9 33,9 38,3 32,3 29,6 16,2 17,3 12,4 19,8 22,0 40,4 39,1 25,2 49,6 37,3 10,9 12,8 18,6 22,4 25,3 27,2 28,9 38,0 40,2 43,1 9,8 12,8 18,0 18,9 22,0 24,4 28,9 36,7 33,9 37,5 Korzystanie z usług bankowych 9,1 12,8 17,1 21,2 25,3 22,7 29,0 35,0 38,2 43,0 Telefonowanie przez Internet, odbywanie wideokonferencji Korzystanie z serwisów poświęconych turystce Pobieranie programów komputerowych 8,0 10,1 14,8 19,9 20,0 19,9 23,0 30,2 35,8 34,1 10,7 11,4 14,0 14,3 17,4 26,7 25,9 28,6 25,8 29,6 11,7 11,9 12,5 16,1 16,5 29,1 27,0 25,4 29,0 28,1 Szukanie pracy, wysyłanie ofert 7,2 7,2 8,2 9,1 10,4 17,9 16,3 16,6 16,3 17,7 Sprzedawanie towarów np. na aukcjach 5,2 4,9 6,7 5,8 7,9 11,1 11,0 13,7 10,3 13,4 Źródło: GUS, Społeczeństwo informacyjne w Polsce[ online] Warszawa 2010, [ ] Według badania najczęściej internet jest wykorzystywany w celach prywatnych do wysyłania i odbierania poczty elektronicznej. W 2010 r., aż 39,2% populacji wykorzystywało informacje o towarach i usługach. Z usług bankowych korzysta aż 25,3% populacji, jest to od 2006 roku znaczący wzrost aż o 16,2%. Analizując pod kontem % osób korzystających z internetu w 2006 i 2010 r., największy wzrost zanotowały usługi bankowe aż 20,3% i wyszukiwanie informacji dotyczących zdrowia 15,9. Jest to spowodowane większą informacją o bankowości elektronicznej, a zarazem posiada wymiar ekonomizacji. Duże znaczenie ma wykorzystanie telefonii VOIP, oraz video konferencji, co nie jest także bez znaczenia do zmniejszenia kosztów w przedsiębiorstwie jak i szybkości działania, możliwości komunikacji globalnej bez straty czasu i kosztów. 2. Nowoczesne kanały dystrybucji usług bankowych. Polski rynek bankowy, który pod koniec XX wieku rozpoczął dokonywanie alokacji w przestrzeni elektronicznych transakcji bankowych. W obecnym czasie coraz bardziej można zauważyć, że zanika linia między rynkiem krajowym, a zagranicznym. Jest to zasługa nowych technologii i umów międzynarodowych, które zaowocowały rynkiem globalnym. 75

76 Zagrożenia związane z zastosowaniem bankowości elektronicznej Trudno jednoznacznie zdefiniować formułe bankowości elektronicznej ponieważ ciągle się rozwija o nowe sposoby dokonywania transakcji. Według J. Stryczyńskiego, T. Zarzyckiego, są to wszelkie rozwiązania biznesowe i technologiczne pozwalające na interakcję banku i jego klientów wykorzystując narzędzia technologiczne, które pozwalają na przekazywanie danych za pomocą internetu bądź przez inne kanały elektroniczne 2. Kolejna definicja bankowości elektronicznej to wszelkie urządzenia, oparte na wdrożonych elektronicznie urządzeniach telekomunikacyjnych, a także świadczenie usług bankowych na odległość, które pozwalają klientowi na korzystanie z usług we własnym przedsiębiorstwie lub we własnym gospodarstwie domowym. Usługi takie mogą być stosowane z wykorzystaniem sieci bezprzewodowych WI FI, dla laptopów czy telefonów komórkowych i innych urządzeń korzystających z takiej formy transmisji danych 3. Bankowość elektroniczna jest usługą oferowaną przez banki umożliwiającą klientom dostęp do ich rachunków, w celu dokonywania transakcji, sprawdzania salda konta, dokonywania dyspozycji doładowania komórki na kartę, za pomocą narzędzi mobilnych i bankomatów. Banki w zależności od udostępnionych form transakcji i posiadanego oprogramowania pozwalają na sprawdzanie stanu konta, historii dokonywanych transakcji, wnioskowanie o stałe zlecenia, dokonywanie transakcji na rachunkach, zakładanie lokat. Bankowość elektroniczna sprowadza się nie tylko do wyjścia naprzeciw klientom, ale także zmniejszenia kosztów operacyjnych, zachowań behawioralnych oraz marketingu. Nowoczesne kanały bankowe możemy podzielić na: Home Banking Jest to usługa bankowa dokonywana przez Internet z wykorzystaniem modemu, oraz odpowiedniego oprogramowania. Rodzaj tej usługi jest bardzo zbliżony do bankowości internetowej, z tym, że jest kierowana dla bardziej zaawansowanych użytkowników np. firm korporacyjnych, którym zależy na bardziej rozbudowanych systemach bankowości 4. Bankowość internetowa Jest kanałem który umożliwia kontakt z bankiem za pośrednictwem internetu, bez ograniczeń czasowych. Jednym z ważniejszych aspektów takiej formy bankowości jest możliwość dokonywania wszelkich operacji bankowych bez względu na miejsce i czas. Wymaga jedynie połączenia do sieci globalnej i przeglądarki. Każdy klient chce być traktowany z szacunkiem, nie czekać w kolejkach po wypłatę gotówki lub innych operacji bankowych. Innym aspektem jest to, że bankowość internetowa zmniejsza koszty operacyjne, przez co banki posiadają dodatkową formę konkurencyjności, a także ułatwienie monitorowania transakcji. Bankowość mobilna jest ogółem form usług udostępnionych przez banki w celu wykonywania transakcji bankowych. Przeznaczona dla urządzeń mobilnych takich jak telefony komórkowe oraz tabletów, z których można korzystać bez względu na miejsce, czas jeśli posiadają dostęp do internetu. Większość operatorów komórkowych obecnie udostępnia pakiety transmisji danych w celu łączenia się przez internet i zmniejszeniu kosztów. Bankowość mobilna pozwala na wykonywanie operacji pasywnych, które nie zmieniają stanu rachunku bankowego (podgląd salda rachunku, zastrzeganie kart, informacje o stanie konta) i aktywnych które pozwalają na dokonanie operacji bankowych i zmianę salda rachunku bankowego (Obsługa lokat, zlecenia stałe itp.) 5. Bankowość TV cyfrowa jest to usługa udostępniająca dostęp do rachunku bankowego poprzez cyfrową telewizję. Początkowo dostęp do tej usługi był adaptowany za pomocą telegazety poprzez wybór odpowiedniego kanału, który umożliwiał dostęp do salda oraz historii rachunku. Obecnie rozwój technologii informacyjno komunikacyjnej pozwala użytkownikowi na 2 Stryczyński J., Zarzycki T., Bank ery gospodarki elektronicznej, "Bank" 2000, nr 9, str Kosiński B., Bank organizacja i zarządzanie. [w:] Bankowość. Podręcznik akademicki (red. W.L. Jaworski, Z. Zawadzka). Poltext, Warszawa 2001, s Wroński P., Bankowość elektroniczna dla firm, CEDEWU, Warszawa 2004, str Gospodarowicza A.,Bankowość elektroniczna, PWE, Warszawa 2005, str.30 76

77 Michał Widlak dokonywanie usług interaktywnych, czyli ingerowanie za pomocą pilota w treść wyświetlaną na ekranie telewizora, co pozwala na dokonywanie przelewów stałych Zagrożenia w bankowości internetowej Wprowadzenie przez banki nowych technologii jak bankowość elektroniczna, której formy są poszerzane o nowe kanały jak bankowość mobilna a także o nowe produkty wiąże się też z nieufnością klientów do zmian i nowej technologii. Jest to uzasadnione brakiem zaufania do nowych form przekazu swoich pieniędzy jak i pojawieniem się wraz z bankowością elektroniczną zagrożeń wynikających z wykorzystania narzędzi informatycznych w operacjach bankowych. Zagrożenia które wywołują utratę danych lub dochodzi do zapożyczenia tożsamości w celu wyłudzenia pieniędzy wynika z pewnych luk w zabezpieczeniach banku, a także z zewnętrznych czynników które leżą po stronie klienta. Takie przypadki występują w zdalnej transakcji elektronicznej. Poniżej w tabeli nr 1 przedstawia się podział zagrożeń wynikających ze strony banku jak i klienta oraz jak eliminować ryzyko w transakcjach elektronicznych. Bank Eliminacja możliwość obejścia systemu uwierzytelnienia Ochrona poufności z zaszyfrowanymi hasłami Klient Ochrona poufności hasła, w tym również jednorazowych haseł Ochrona antywirusowa Ochrona poufności jednorazowych haseł Ochrona integralności operacji komputerowych Ochrona integralności logów Ograniczenie dostępu do komputera Zabezpieczenie bezprzewodowego dostępu do Internetu Źródło: Laskowski P., Zabezpieczenie elektronicznych operacji bankowych [online], PWSZ w Chełmie, [ ] 7 Wprowadzenie odpowiednich zabezpieczeń takich jak zastosowanie procedur uwierzytelniania poprzez hasło lub generowanie haseł jednorazowych zwiększa szanse, iż konta bankowe są lepiej chronione. Zwrócić trzeba uwagę na ciągłe pojawianie się nowszych metod włamań do systemu co wiążę się z ciągłą aktualizacją systemu bankowego przed intruzami. Jednym z nowych narzędzi pozwalających na dokonywanie transakcji są usługi mobilne, które pozwalają na dokonywanie płatności przez komórkę bez względu na czas i geolokalizację naszego położenia. Ataki typu phishing, mają na celu wyłudzenie ważnych danych osobistych np. haseł do karty płatniczej przez podszywanie się pod daną instytucje. Polega to na przedstawieniu za pośrednictwem witryny internetowej lub a formularza przypominającego ten prawdziwy w celu przechwycenia hasła i dokonania operacji bez wiedzy zainteresowanego. Innym sposobem naruszenia bezpieczeństwa jest wykorzystywanie spamu z treścią szkodliwą, która zawiera aplikacje i ma za zadanie przekazywać dane o komputerze na komputer spamera. Wiele osób korzystając z wielu usług np. bankowych, giełdowych, poczty elektronicznej posiada jedno hasło do wszystkich usług. Jest to spowodowane wygodą bo nikt nie chce pamiętać 6 Gurgul G., Znaczenie elektronicznych kanałów dystrybucji usług bankowych na światowym rynku finansowym [online], SCENO, [ ] 7 Laskowski P., Zabezpieczenie elektronicznych operacji bankowych[online], PWSZ w Chełmie [ ] 77

78 Zagrożenia związane z zastosowaniem bankowości elektronicznej wielu haseł i loginów, co powoduje, że jeśli ktoś zdobędzie nasze hasło, ma całkowity dostęp do wszystkich naszych usług 8. Ważnym zagrożeniem są błędy proceduralne dotyczące dostępu do kopii zapasowych danych, kto powinien posiadać uprawienia i gdzie powinna taka kopia się znajdować. W dzisiejszych czasach są tworzone kopie zapasowe za pośrednictwem sieci lokalnej i serwerów. Jest to zdecydowanie dobra forma zbierania informacji i archiwizowania, ale wiąże się to z ryzykiem. Gdy serwer zostanie zaatakowany przez hakerów, i zapora firewall a zostanie pokonana to wszystkie komputery mogą zostać zaatakowane, co wywoła przestój w pracy na kilka albo kilkanaście godzin. Programy antywirusowe zazwyczaj są wyposażone w zaporę firewall a, która ma odpierać ataki hakerów, próbujących złamać zabezpieczenia na naszej jednostce komputerowej. Ważne jest aby zaopatrzyć naszą wirtualną maszynę w program antywirusowy wraz z zaporą ogniową, a ponadto dokonywać aktualizacji bazy wirusowej w celu wyeliminowania ataków szkodliwych programów. Osoby korzystający z sieci Wi Fi powinny zaopatrzyć się w program chroniący sieć bezprzewodową poprzez szyfrowanie strumienia danych w celu zmniejszenia ryzyka przechwycenia ważnych danych. 4. Obawy społeczeństwa przed korzystaniem z usług bankowości elektronicznej Postęp technologiczny spowodował w ostatnich latach przyśpieszenie stopy wzrostu gospodarczego oraz poprawienie jakości pracy w krajach wysoko rozwiniętych. Nie ominęło to także sektora bankowego, który udostępnia nowoczesne kanały bankowe. W celu zbadania opinii społeczeństwa z zakresu wdrożeń nowoczesnej technologii i otwierania usług mobilnych pozwalających na dokonywanie operacji pasywnych jak i aktywnych przeprowadzono badania pilotażowe. Każdy człowiek chce chronić swoje oszczędności, korzystając z dostępnych form transakcji bankowych i wybiera takie kanały bankowe które jego zdaniem są najbezpieczniejsze. Ankieta została przeprowadzona na 100 osobach w formie ankiet elektronicznych i papierowych w proporcjach 50:50. Badania mają na celu wskazanie w jakim stopniu społeczeństwo wykorzystuje nowoczesne technologie w bankowości Brak zaufania Brak swobodnego dostępu do Internetu Preferowanie osobistej wizyty w banku Wykres 1. Przyczyny niekorzystania z bankowości elektronicznej Źródło: badania własne Z badań wynika, że 27 % ankietowanych nie korzysta z bankowości elektronicznej, podając przyczynę: brak zaufania 14%, brak swobodnego dostępu do Internetu 6%, preferowanie osobistej wizyty w banku 7%. Natomiast 73% ankietowanych korzysta z bankowości elektronicznej i najczęściej korzysta za pośrednictwem internetu z przelewów bankowych, aż 67%, sprawdzanie salda konta 67%, sprawdzanie historii operacji 58%, zlecenia stałe 29% ankietowanych. 8 Wawrzyniak D., Ryzyko informatyczne w działalności bankowej, [w:] Zastosowania rozwiązań informatycznych w bankach spółdzielczych, A. Gospodarowicz, Prace Naukowe AE we Wrocławiu Wrocław, s

79 Michał Widlak Zlecenia stałe 29 Sprawdzanie historii operacji 58 Sprawdzanie salda 67 Przelewów bankowych Wykres 2. Usługi najczęściej wykorzystywane w bankowości elektronicznej Źródło: badania własne Wśród dostępnych form płatności elektronicznej największe zaufanie wzbudza osobista wizyta w banku oraz bankowość internetowa. Natomiast zerowym poparciem cieszy się zaufanie do kanału bankowego udostępnionego za pomocą telewizji, a użytkowanie kanałów bankowych przez telefon komórkowy wskazało 2% ankietowanych. Na pytania dotyczące przestrzegania procedur bezpieczeństwa swoich komputerów w celu eliminacji zagrożeń 54% ankietowanych odpowiedziało, iż używa programu antywirusowego, natomiast, 46% nie korzysta z tej formy zabezpieczenia komputera. 43% osób dokonuje aktualizacji systemów operacyjnych, natomiast, 46% nie dokonuje aktualizacji oprogramowania komputerów na którym dokonują transakcji operacyjnych na swoich kontach bankowych. Brak aktualizowania systemów operacyjnych oraz programów antywirusowych zwiększa zagrożenie przejęcia tożsamości i dokonanie nieuprawnionych transakcji bankowych. Badania zostały przeprowadzone na rożnych grupach wiekowych. 22% ankietowanych miało wiek z przedziału: lat, 54% badanych było w wieku lat, 19% ankiet pochodzi od osób mający wiek z przedziału lat, a 5% ankietowanych posiada wiek powyżej 65 roku życia. Podsumowanie Rozwój społeczeństwa informacyjnego spowodował pojawianie się nowych technologii, także w sektorze bankowym. Z biegiem lat liczba ludności korzystającej z bankowości elektronicznej będzie rosła. Systemy informatyczne wpływają zdecydowanie na zmniejszenie kosztów w obsłudze klientów, poprzez oszczędność czasu. Wynika to z zastosowania programów do przeprowadzania transakcji, czyli z automatyzowania po części biura obsługi klientów, a zastąpienie nim np. bankomatów czy wpłato matów oraz całkowicie elektronicznych banków. Jest to zmniejszenie kosztów osobowych i jednostkowych, ponieważ koszt operacji bankowej wykorzystującej elektroniczne narzędzia jest zdecydowanie tańszy niż w oddziałach bankowych. Ponadto każdy klient, chce być obsługiwany z należytym szacunkiem i nie stać w kolejkach, a obsługa przez elektroniczne kanały bankowe udostępnia takie rozwiązanie. Konkludując ważnym aspektem w bankowości elektronicznej jest przestrzeganie podstawowych zasad bezpieczeństwa narzędzi na których wykonujemy operacje bankowe. Bibliografia 1. Gospodarowicza A., Bankowość elektroniczna, PWE, Warszawa 2005, s Kosiński B., Bank organizacja i zarządzanie. [w:] Bankowość. Podręcznik akademicki (red. W.L. Jaworski, Z. Zawadzka). Poltext, Warszawa 2001, s Stryczyński J., Zarzycki T., Bank ery gospodarki elektronicznej, "Bank" 2000, nr 9, str

80 Zagrożenia związane z zastosowaniem bankowości elektronicznej 4. Wawrzyniak D., Ryzyko informatyczne w działalności bankowej, [w:] Zastosowania rozwiązań informatycznych w bankach spółdzielczych, A. Gospodarowicz, Prace Naukowe AE we Wrocławiu Wrocław, s Wroński p., Bankowość elektroniczna dla firm, CEDEWU, Warszawa 2004, s Gurgul G., Znaczenie elektronicznych kanałów dystrybucji usług bankowych na światowym rynku finansowym [online], SCENO, [ ] 7. GUS, Społeczeństwo informacyjne w Polsce[online] Warszawa 2010, [ ] 8. Laskowski P., Zabezpieczenie elektronicznych operacji bankowych[online], PWSZ w Chełmie [ ] The Risks Associated with the Use of Electronic Banking The issues of information systems supporting the e banking were presented in this article. The demonstration of methods of the modern society bestowing trust on the modern banking channels is the main purpose of this piece. In the first part of the article information awareness was depicted as the information society development. The new technology adaptation, the description and the classification of the modern bank channels, the threats resulting from the new bank technology were acknowledged as well. In the final part of the paper the pilot studies concerning the use of the bank channels were introduced. Keywords: electronic banking, mobile banking, the Internet 80

81 Justyna Sikora Justyna Sikora Telepraca o walorach i pułapkach elastycznego zatrudnienia Streszczenie: We współczesnym świecie coraz większego znaczenia w sferze zatrudnienia nabiera kategoria elastyczności. Możliwość swobodnego regulowania czasu, doboru miejsca pracy są dużym ułatwieniem zarówno dla pracownika, jak i pracodawcy. Jedną z form elastycznego zatrudniania, która sprzyja takim rozwiązaniom jest telepraca. W artykule przedstawiono zasady organizowania telepracy, a także możliwości i zagrożenia, jakie niesie ten rodzaj współpracy z punktu widzenia pracownika oraz pracodawcy i jego firmy. Zaakcentowana została również konieczność szerszego podejmowania badań w tym zakresie oraz włączania wiedzy na temat telepracy do systemu współczesnej edukacji zawodowej. Słowa kluczowe: telepraca, rozwój zawodowy, elastyczność Wstęp Praca zawodowa jest jedną z podstawowych form działalności człowieka. Pełnienie roli zawodowej zgodnie z indywidualnymi predyspozycjami i zamiłowaniami stanowi ogromne źródło satysfakcji w różnych wymiarach: osobowym dzięki pracy człowiek może się rozwijać, stawać się człowiekiem rozumnym, odpowiedzialnym, wolnym i godnym, poznawczym praca staje się źródłem rozwoju zdolności poznawczych, pozwala na aktywny i twórczy udział w rozwoju nauki i techniki, kulturowym człowiek poprzez pracę tworzy kulturę a jednocześnie praca pozwala na integrację człowieka fizycznie, psychicznie, społecznie i kulturowo, społecznym praca jest nośnikiem relacji społecznych, jest wartością pożądaną przez różne kręgi społeczne, jest wykonywana ze względu na drugiego człowieka i dla drugiego człowieka, ekonomicznym praca stanowi źródło środków do życia i powiększania stanu posiadania dóbr materialnych 1. Jeszcze do niedawna wybrany zawód wytyczał niemal całożyciową ścieżkę rozwoju, dając jednocześnie poczucie bezpieczeństwa i stabilizacji. We współczesnym świecie znaczenie, charakter i formy pracy ulegają zmianom. Dostosowywanie się do nowych wymagań, rozwiązań organizacyjnych w miejscu pracy a nawet konieczność przekwalifikowania się jest na dzisiejszym rynku pracy czymś naturalnym. Co więcej, jak przekonuje D. Barney, w coraz większym stopniu pozostawanie w tym samym zawodzie lub w tej samej firmie przez dłuższy czas traktowane jest jako brak inicjatywy, kreatywności, ambicji i przedsiębiorczości a nie jako sukces. Żaden zawód nie jest miejscem przeznaczenia ( ) 2. W tym kontekście szczególnego znaczenia nabiera kategoria elastyczności jako warunku bezpieczeństwa. Samodzielność, twórczość i swoboda w działaniu Autorka jest pracownikiem Zakładu Pedagogiki Ogólnej i Metodologii Badań w Instytucie Pedagogiki i Psychologii Uniwersytetu Jana Kochanowskiego w Kielcach. Interesuje się zagadnieniami związanymi z rozwojem zawodowym: jego istotą, uwarunkowaniami, czynnikami utrudniającymi ze szczególnym uwzględnieniem obszaru środowiska akademickiego. 1 Chałas K., Aksjologiczne wymiary pracy ludzkiej zarys zagadnienia, [w:] Furmanek W. (red.), Praca człowieka jako kategoria współczesnej pedagogiki, UR, Rzeszów Warszawa 2007, s Barney D., Społeczeństwo sieci, Sic!, Warszawa 2008, s

82 Telepraca o walorach i pułapkach elastycznego zatrudnienia stają się coraz częściej pożądane zarówno w życiu prywatnym, jak i zawodowym 3. Takiemu spostrzeganiu świata sprzyja rozwój współczesnych technologii, bowiem wraz z nowoczesnymi metodami komunikacji pojawiają się nowe formy aktywności człowieka zarówno w zakresie organizacji czasu wolnego, jak i pracy, nauki. Dzięki wykorzystaniu internetu nie limitują one miejsca i czasu ich podejmowania. Jedną z takich form elastycznego zatrudniania jest telepraca. 1. Istota telepracy Terminu telepraca po raz pierwszy użył J.M. Nilles w 1976 r. na określenie każdego rodzaju zastępowania podróży związanych z pracą techniką informacyjną (np. telekomunikacją i komputerami); przemieszczanie pracy do pracowników zamiast pracowników do pracy 4. Według definicji opracowanej przez Komisję Europejską telepraca to metoda organizowania i wykonywania pracy, w której pracownik pracuje poza miejscem pracy pracodawcy przez znaczną część swojego czasu pracy, dostarczając do pracodawcy wyniki (rezultaty) pracy przy wykorzystaniu technologii informacyjnych oraz technologii przekazywania danych, zwłaszcza internetu 5. Telepracę charakteryzuje więc trwały charakter dyslokacji przestrzennej, zastosowanie technologii teleinformatycznych wraz z towarzyszącą im dyslokacją czasową 6. Dyslokacja przestrzenna oznacza wykonywanie pracy poza siedzibą przedsiębiorstwa. Wśród najczęściej wymienianych w literaturze miejsc świadczenia telepracy znajdują się: dom przez prowadzącego działalność gospodarczą lub pracownika; może to być praca wyłącznie domowa, kiedy 100% czasu pracy pracownik spędza w biurze zorganizowanym w domu bądź przemienna, kiedy pracownik dzieli swój czas pracy na dom i inną siedzibę firmy; telecentra nowocześnie zorganizowane biura wyposażone w środki techniczne umożliwiające szybki dostęp do Internetu, telefonii, faksu, wideokonferencji. Może być zarządzane przez jednego pracodawcę bądź współdzielone przez wielu pracodawców 7 ; telechatka jest to rodzaj telecentrum znajdujący się na terenach oddalonych od centrów urbanistycznych pozwalający na tworzenie miejsc pracy w mniejszych i gorzej zinformatyzowanych regionach 8. Mieszczą się one najczęściej w opuszczonych szkołach, wiejskich chatach lub pomieszczeniach gospodarczych przystosowanych na telecentra. Telechatki spełniają także funkcję społeczno wychowawczą, organizując lokalną społeczność na rynku pracy 9 ; telewioska jest rozwinięciem koncepcji telechatki i stanowi system połączonych ze sobą na danym obszarze telechatek 10 ; biura satelitarne (odrębne oddziały, oddalone od głównej siedziby firmy, ale mające z nią stały kontakt elektroniczny) 11 ; telepraca mobilna (nomadyczna) pracownik nie ma głównego miejsca pracy, swoje zadania wykonuje w podróży lub u odbiorców czy klientów 12 ; 3 Por. opis pokolenia sieci dokonany przez: Tapscott D., Cyfrowa dorosłość: jak pokolenie sieci zmienia nasz świat? Wyd. Akademickie i Profesjonalne, Warszawa Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy wykorzystania nowych technologii informacyjnych na rynku pracy: prognozy i perspektywy, UR, Rzeszów 2011, s Tamże, s Wyciślak S., Dysfunkcje telepracy [online]., [ ]. 7 Furmanek W., Zarys humanistycznej teorii pracy, IBE, Warszawa 2006, s Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt., s Wiśniewski J., Zatrudnianie pracowników w formie telepracy, TN Dom Organizatora, Toruń 2007, s Tamże. 11 Kramek Z., Pedagogika pracy wobec problematyki telenauczania i telepracy, [w:] Furmanek W. (red.), Praca człowieka jako kategoria współczesnej pedagogiki, UR, Rzeszów Warszawa 2007, Kraus, A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt., s

83 Justyna Sikora telepraca tzw. zamorska praca wykracza poza granice kraju, wykonywana może być na całym świecie 13. Z kolei dyslokacja czasowa odnosi się do warunków zatrudnienia, w ramach których płatna praca nie jest ograniczona do kryteriów ośmiogodzinnego tygodnia pracy. Czas pracy reguluje sobie sam pracownik bądź ustalany jest on z pracodawcą zgodnie z preferencjami obydwu stron. 2. Zasady telepracy W 2002 r. podpisane zostało Europejskie Ramowe Porozumienie w Sprawie Telepracy regulujące zasady telepracy w ramach stosunku pracy. Należą do nich: 1. Zasada dobrowolnego charakteru telepracy prawo jej przyjęcia, odrzucenia i zmiany dotyczy zarówno pracodawcy, jak i pracownika; 2. Zasada pisemnej informacji pracodawca ma obowiązek informowania na piśmie pracowników o obowiązujących w w zakładzie pracy porozumieniach zbiorowych, opis pracy, jaką ma wykonywać, sposób rozliczania pracy, miejsce telepracownika w strukturze organizacyjnej firmy; 3. Zasada jednakowych warunków zatrudnienia oparta na założeniu równouprawnienia telepracownika z pracownikami stacjonarnymi; 4. Zasada niezmiennego statusu zatrudnienia. W przypadku zmiany statusu świadczenia pracy zarówno pracodawca, jak i pracownik mają możliwość ją przyjąć bądź odrzucić; 5. Zasada monitorowania telepracownika podstawowym kryterium tej zasady powinien być szacunek dla prywatności telepracownika; 6. Zasada ochrony danych. Odpowiedzialność za zapewnienie ochrony danych oraz za dostarczenie informacji o przepisach i zasadach dotyczących ochrony danych spoczywa na pracodawcy, natomiast pracownik zobowiązany jest do przestrzegania obowiązujących przepisów; 7. Zasada odpowiedzialności dotyczy zarówno pracodawcy, który ma zapewnić ochronę danych osobowych, ponosić koszty naprawy czy wymiany sprzętu, jak i pracownika, który powinien dbać o wykorzystywany sprzęt i nie gromadzić lub rozpowszechniać nielegalnych treści; 8. Zasada wyposażenia miejsca pracy. Obowiązkiem pracodawcy jest dostarczenie, zainstalowanie i utrzymanie sprzętu koniecznego do wykonywania telepracy bądź pokrycia kosztów wykorzystywania przez telepracownika własnego sprzętu; 9. Zasada o zdrowiu i bezpieczeństwie. Pracodawca powinien dbać o zapewnienie odpowiednich warunków pracy niezagrażających zdrowiu i życiu pracowników. Jego zadaniem jest również dostarczanie wiedzy o obowiązujących przepisach z zakresu bezpieczeństwa i higieny pracy, zaś telepracownik ponosi odpowiedzialność za ich przestrzeganie; 10. Zasada organizacji pracy. Zarówno obciążenie pracą, jak i kryteria wydajności powinny być równe z tymi, które obowiązują pracowników tradycyjnych. Pracodawca powinien również podejmować działania zapobiegające izolacji pracowników umożliwiając im spotkania z innymi pracownikami, udostępniając informacje o wewnętrznym życiu firmy; 11. Zasada szkolenia pracowników powinny być one dostępne w równym stopniu wszystkim pracownikom firmy. Telepracownicy powinni mieć możliwość podnoszenia swoich kwalifikacji, pełnego rozwoju; 12. Zasada uprawnień wynikających z porozumień zbiorowych. Telepracownicy mają prawo do zrzeszania się w reprezentacjach pracowników, do kontaktowania się z przedstawicielami organizacji pracowniczych Tamże. 83

84 Telepraca o walorach i pułapkach elastycznego zatrudnienia W polskim prawie pierwszą regulacją dotyczącą telepracy są przepisy Kodeksu Pracy, które weszły w życie w 2007 r. Zgodnie z artykułem 67 5 praca może być wykonywana regularnie poza zakładem pracy, z wykorzystaniem środków komunikacji elektronicznej ( 1), a telepracownikiem jest pracownik, który wykonuje pracę w warunkach określonych w 1 i przekazuje pracodawcy wyniki pracy, w szczególności za pośrednictwem środków komunikacji elektronicznej ( 2) 15. Niestety wiele kwestii związanych z zatrudnieniem w formie telepracy nie znalazło odzwierciedlenia w przepisach, a część z nich może być interpretowana wieloznacznie, bądź wręcz jako ją utrudniająca (np. kwestie bezpieczeństwa i higieny pracy). Niektóre z zaprezentowanych form organizowania telepracy (np. telechatki) przestały działać wraz z zakończeniem projektów i wyczerpaniem funduszy przyznanych na ich tworzenie. Dlatego niezbędne wydaje się doprecyzowanie przepisów a także podejmowanie szerszych badań obrazujących rzeczywiste funkcjonowanie poszczególnych form telepracy. 3. Telepraca szkic zysków i strat dla pracownika i pracodawcy Telepraca jest formą zatrudnienia, która zarówno dla pracownika, jak i pracodawcy przynosi wiele korzyści. W literaturze z omawianego zakresu można znaleźć szereg zalet telepracy dla zatrudniającego. Są to przede wszystkim: 1. Znaczące oszczędności w kosztach utrzymania infrastruktury firmy dzięki np. zmniejszeniu nakładów związanych z urządzaniem biur, brakiem konieczności zatrudniania personelu sprzątającego, ochrony; 2. Wzrost produktywności pracowników; 3. Racjonalność wykorzystania czasu pracy; 4. Możliwość zatrudniania ludzi o bardzo wąskich kompetencjach zawodowych, wysokiej klasy specjalistów, którzy mogliby być niedostępni w tradycyjny sposób; 5. Zatrudnianie pracowników w różnych miejscach; 6. Elastyczność w organizowaniu pracy; 7. Poprawa wizerunku firmy (jako nowoczesnej, społecznie zaangażowanej); 8. Ograniczenie absencji chorobowych; 9. Zmniejszenie konfliktów międzyludzkich; 10. Zmniejszenie rotacji pracowników; 11. Zabezpieczenie nagłych wypadków; 12. Redukcja godzin nadliczbowych, zapłata za uzyskane efekty, a nie za czas pracy 16. Rozwój telepracy przyczynić się może do zwiększania szans na pracę grup szczególnie zagrożonych bezrobociem młodzieży, kobiet (zwłaszcza młodych matek), niepełnosprawnych oraz mieszkańców małych miast i wsi. Biorąc pod uwagę argumenty przemawiające za wyborem takiej formy zatrudnienia przez pracownika warto rozważyć: 1. Elastyczność świadczonej pracy. Pracownik ma możliwość samodzielnego regulowania czasu i miejsca pracy, podejmowania wielu kontraktów jednocześnie, co wpływa również korzystnie na jego sytuację finansową. 2. Możliwość dostosowania pracy do stylu życia prywatnego. Ponieważ większość obowiązków nie wymaga obecności w biurze pracownik może swobodnie dopasować godziny pracy tak, aby połączyć pracę zawodową np. z opieką nad dziećmi. 3. Wyższa wydajność. Dzięki możliwości dostosowania planu dnia do rytmu pracy, rezygnacji z dojazdów, braku czynników utrudniających koncentrację na zadaniu (np. konfliktów ze 14 Gwoździcka Piotrowska M., Telepraca jako nowa forma aktywizacji zawodowej podstawowe założenia prawne, Problemy Profesjologii 2010, nr 1, s Kodeks Pracy stan prawny na dzień 28 lipca 2011 r., [online] [ ]. 16 Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt., s

85 Justyna Sikora współpracownikami, otrzymywania dodatkowych zadań) telepracownik może skupić się na efektywnym wypełnianiu swoich obowiązków. 4. Brak zależności miejscowej. W przypadku np. zmiany siedziby firmy czy przeprowadzki pracownika istnieje możliwość utrzymania stanowiska bez utraty więzi z rodziną lub kontaktu z firmą. 5. Wzrost odpowiedzialności pracownika za wynik, proces; 6. Dostęp do najnowszych technologii teleinformatycznych; 7. Ograniczenie czasu i kosztów dojazdy do pracy 17. Niestety zdalny charakter pracy niesie za sobą również niebezpieczeństwa zarówno dla pracodawców, jak i dla pracowników oraz ich rodzin. Paradoksalnie, to co dla niektórych jest zaletą telepracy dla innych może stać się zagrożeniem. Dlatego decyzja o podjęciu takiej formy zatrudnienia powinna być poprzedzona wnikliwą analizą zarówno korzyści, jak i strat, które mogą się pojawić. Ze strony telepracownika niezwykle istotna jest również świadomość własnych możliwości i ograniczeń i umiejętność ich zbilansowania przy podejmowaniu decyzji. Do najczęściej wymienianych wad telepracy z punktu widzenia pracownika można zaliczyć: 1. Możliwość wystąpienia u pracownika poczucia izolacji i osamotnienia. Praca w tradycyjnym rozumieniu nasycona jest całą gamą komunikatów werbalnych i niewerbalnych (słów, gestów, emocji), które telepracownik w dużym zakresie może mieć ograniczone. Zubożony o te aspekty może stopniowo wycofywać się z kontaktów społecznych, odczuwać brak wsparcia, odrzucenie, samotność 18. Brak bezpośrednich interakcji ze współpracownikami i pracodawcą może być także przyczyną trudności w mobilizacji i motywowaniu się do pracy. 2. Utrudniona socjalizacja w zakresie ról zawodowych. Ograniczone kontakty z pracodawcą i współpracownikami zmniejszają możliwość wymiany wiedzy i doświadczeń. Często reakcje na działanie telepracownika są odroczone, nie ma bezpośredniej informacji zwrotnej o jakości pracy, edukacyjny wpływ kierownika jest zredukowany Trudności z rozdzieleniem pracy od życia osobistego. Przenikanie się w takim zakresie sfery zawodowej i prywatnej może doprowadzić do chaosu w funkcjonowaniu całej rodziny. Dzieje się tak zwłaszcza wtedy, gdy telepraca odbywa się w domu. Problem ten może wynikać m.in. z niższego wartościowania pracy w domu przez pozostałych członków rodziny i obciążania dodatkowymi obowiązkami telepracownika. 4. Mniejsza możliwość awansu wynikająca z faktu przebywania poza biurem. Telepracownik ma mniejsze szanse na wykazanie się dodatkowymi osiągnięciami, nie jest widoczny w takim stopniu jak inni, ma ograniczony wpływ na współpracowników, pracodawcę, sytuacje, zdarzenia we właściwej siedzibie firmy. 5. Stagnacja. Odizolowanie pracownika może powodować niepełne poczucie przynależności do firmy i w konsekwencji brak zainteresowania zarówno rozwojem osobistym, jak i rozwojem firmy jako całości. Pracownik taki rzemieślniczo wypełnia swoje obowiązki nie troszcząc się o nowe, wyższe jakości. W przypadku pracy w domu postawa ta może wynikać także z braku określonego wachlarza zachowań związanych z przygotowaniem się do wyjścia do pracy (np. odpowiedni strój, fryzura, makijaż) i funkcjonowaniem w niej opartym na bezpośrednich kontaktach z innymi ludźmi. 1. Dezorganizacja w pracy. Brak rutyny i jasno określonych zasad działania dają poczucie wolności, które w rzeczywistości może być bardzo złudne. Przy braku silnej dyscypliny wewnętrznej ze strony telepracownika może pojawić się chaos w działaniu; 2. Dłuższy dzień pracy. Nieustalony czas pracy może powodować nielimitowane wykonywanie obowiązków zawodowych sprzyjające pracoholizmowi. Aby uzyskać określony wynik telepracownik często rezygnuje z przerw, co nie pozostaje bez znaczenia dla higieny pracy 17 Tamże, s van Dijk J., Społeczne aspekty nowych mediów, WN PWN, Warszawa 2010, s Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt., s

86 Telepraca o walorach i pułapkach elastycznego zatrudnienia umysłowej. Kontakt z pracodawcą czy współpracownikami o różnych (nieustalonych ściśle) porach dnia sprawiają, iż obowiązki zawodowe wypełniają niemal całą dobę. Uzależnienie od pracy ogranicza człowieka tylko do konkretnej działalności, czyni go niezdolnym do aktywności społecznej, do zauważania potrzeb innych, empatii, wywiązywania się z obowiązków innych niż praca zawodowa 20 ; 3. Siecioholizm. Zbyt długie godziny pracy, zachwianie równowagi między życiem prywatnym a zawodowym mogą prowadzić do uzależnienia od technologii teleinformatycznych 21 ; 4. Brak dostępu do niektórych zasobów (informacji, sprzętu). Również z punktu widzenia pracodawcy praca zdalna niesie pewne utrudnienia: 1. Trudności w oszacowaniu rzeczywistych kosztów związanych z wdrożeniem i utrzymaniem stanowisk telepracowników. Koszty początkowe wynikające z konieczności zorganizowania stanowiska pracy każdemu pracownikowi mogą być wysokie, a jednoznaczne oszacowanie skali oszczędności niezwykle trudne; 2. Nadzór nad pracownikami. Brak umiejętności oceny efektywności pracowników wynikający z trudności znalezienia adekwatnych wskaźników pomiaru, odległość utrudniająca bieżącą kontrolę mogą powodować konieczność wprowadzenia dość uciążliwych dla obu stron mechanizmów kontroli i nadzoru; 3. Bezpieczeństwo i poufność informacji istnieje ryzyko utraty lub niewłaściwego wykorzystania danych stąd potrzeba dużej dozy zaufania w kontaktach z telepracownikiem; 4. Trudności w zarządzaniu ludźmi związane z monitorowaniem postępów i motywowaniem pracowników 22. Przedstawione bariery mogą zniechęcać obydwie strony do nawiązania współpracy w oparciu o zdalną pracę. Warto zauważyć, iż część z tych utrudnień nie jest specyficzna jedynie dla telepracy, bowiem mogą się one pojawić również podczas współpracy w tradycyjnym rozumieniu. Podjęcie decyzji wymaga zatem każdorazowo analizy zysków i strat zarówno dla pracownika, jak i pracodawcy. Obecnie podejmowanych jest coraz więcej akcji informacyjnych i propagujących telepracę jako elastyczną formę zatrudnienia. Należą do nich m.in.: szkolenia Telepraca nowa forma organizacji pracy w przedsiębiorstwach realizowane na zlecenie Polskiej Agencji Rozwoju Przedsiębiorczości ( ), Flexcore wielopłaszczyznowa promocja elastycznego rozwoju zawodowego ( ), Telepraca z perspektywami (2011), czy społecznościowa grupa współpracy Telepraca w ramach programu aktywizacji zawodowej eurokobieta. Pomimo tego typu działań w Polsce telepraca jest jeszcze zjawiskiem marginalnym. Z badań przeprowadzonych w 2008 r. wynika, że jedynie 3,5% firm stosuje tę formę zatrudnienia 23. M. Pawłowska na podstawie analizy wybranych badań wskazała na najczęściej wymienianie bariery wprowadzenia telepracy z perspektywy potencjalnych oraz aktualnych telepracowników: niepodpisywanie przez telepracodawców umów o pracę; brak poczucia bezpieczeństwa, zapewnienia regularnych dochodów; ograniczone oferty pracy dostępne są jedynie prace niskopłatne, nieciekawe, mało prestiżowe; telepracodawcy uważają telepracowników za pracowników gorszej kategorii, nie ufają im, czasami starają się ich oszukać nie wypłacając albo opóźniając wypłacenie telepracownikom należności; duża obawa przed utratą kontaktów międzyludzkich, przed izolacją społeczną, przyzwyczajenie do tradycyjnej metody pracy w siedzibie pracodawcy, która jest postrzegana jako bardziej naturalna niż telepraca. 20 Furmanek W., Zarys... dz. cyt., s Wyciślak S., Dysfunkcje telepracy... dz. cyt. 22 Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt., s Tamże, s

87 Justyna Sikora Z kolei w opiniach telepracodawców najpoważniejsze bariery rozwoju telepracy to : brak zaufania do pracownika, z którym pracodawca kontaktuje się sporadycznie, nad którego procesem pracy ma tylko ograniczoną kontrolę; unikanie podpisywania umowy o pracę z uwagi na chęć obniżenia kosztów pracy oraz wspomniany powyżej brak zaufania 24. Bariery te mogą wynikać głównie z faktu, iż telepraca nie jest powszechnie stosowaną formą zatrudnienia. Lęk przed nieznanym, niejasne przepisy, stereotypowe podejście do pracy w domu potęgują niechęć do pracy zdalnej. Poszerzanie wiedzy na ten temat jest więc warunkiem koniecznym do dostrzeżenia zalet telepracy i jej rozwoju na polskim rynku pracy. 4. Telepracownik pożądany Praca w formie zdalnej przeznaczona jest dla wybranych grup zawodowych. W chwili obecnej branże, w których najczęściej zatrudniani są telepracownicy to: konsulting; przetwarzanie danych komputerowych; usługi finansowe/księgowość; badania; programowanie komputerowe; sprzedaż/marketing; wolne zawody (architekci, projektanci, księgowi, tłumacze, archiwiści, naukowcy, korektorzy tekstów, redaktorzy); zarządzanie firmą i zasobami ludzkimi; call centers 25. Oprócz kompetencji merytorycznych, komunikacyjnych oraz znajomości nowoczesnych systemów teleinformatycznych bardzo ważne są predyspozycje osobowościowe telepracownika. Szczególnie pożądane cechy i zdolności kandydata do zdalnej pracy to: obowiązkowość, samodzielność, wysoka motywacja, samozdyscyplinowanie, ukierunkowanie na wynik, umiejętności organizacji pracy, hierarchizowania zadań, odpowiedzialność, lojalność, odporność psychiczna. Zakończenie Telepraca przynosi wiele możliwości zarówno dla rozwoju jednostkowego, jak i społecznego. Może być źródłem satysfakcji, ale niewłaściwie zorganizowana powoduje poważne konsekwencje. Praca w domu, duża doza samodzielności, swobody stają się często bardzo złudne i niosą za sobą wiele pułapek (np. pracoholizm, siecioholizm, depresję, marazm). Taki charakter pracy wymaga niezwykłej dojrzałości od pracownika. Nie jest to z pewnością forma optymalnego zatrudnienia dla młodego człowieka dopiero rozpoczynającego swoją karierę zawodową. Jak zauważa W. Furmanek przygotowanie wychowanków do świadczenia telepracy wymaga rozwinięcia wielu nowych, dotychczas sporadycznie występujących w procesach edukacyjnych 24 Pawłowska M., Perspektywy rozwoju telepracy w Polsce [online], E mentor 2009, nr 3(30), [ ]. 25 Kraus A., Kasprzyk B., Chorób R., Innowacyjne formy... dz. cyt.., s

88 Telepraca o walorach i pułapkach elastycznego zatrudnienia kompetencji zawodowych 26. Konieczne jest więc podejmowanie szerszych interdyscyplinarnych badań dotyczących telepracy i jej wpływu na człowieka. Niezbędne staje się również wzbogacenie warsztatu pracy współczesnych pedagogów, zwłaszcza doradców zawodowych, w wiedzę o specyfice tego typu pracy, możliwościach i zagrożeniach, jakie ze sobą niesie oraz włączenie tych zagadnień do systemu współczesnej edukacji zawodowej. Bibliografia 1. Barney D., Społeczeństwo sieci, Sic! Warszawa Chałas K., Aksjologiczne wymiary pracy ludzkiej zarys zagadnienia, [w:] Furmanek W. (red.), Praca człowieka jako kategoria współczesnej pedagogiki, UR, Rzeszów Warszawa Furmanek W., Zarys humanistycznej teorii pracy, IBE, Warszawa Gwoździcka Piotrowska M., Telepraca jako nowa forma aktywizacji zawodowej podstawowe założenia prawne, Problemy Profesjologii 2010, nr Kramek Z., Pedagogika pracy wobec problematyki telenauczania i telepracy, [w:] Furmanek W. (red.), Praca człowieka jako kategoria współczesnej pedagogiki, UR, Rzeszów Warszawa Kraus, A., Kasprzyk B., Chorób R., Innowacyjne formy wykorzystania nowych technologii informacyjnych na rynku pracy: prognozy i perspektywy, UR, Rzeszów Tapscott D., Cyfrowa dorosłość: jak pokolenie sieci zmienia nasz świat?, Wyd. Akademickie i Profesjonalne, Warszawa Wiśniewski J., Zatrudnianie pracowników w formie telepracy. TN Dom Organizatora, Toruń van Dijk J., Społeczne aspekty nowych mediów, WN PWN, Warszawa Netografia 1. Kodeks Pracy stan prawny na dzień 28 lipca 2011 r., 2. Pawłowska M., Perspektywy rozwoju telepracy w Polsce [online], E mentor 2009, nr 3(30). 3. Wyciślak S., Dysfunkcje telepracy [online], Telework Advantages and Disadvantages of Telecommuting Nowadays flexibility is a more and more common category on the work market. The possibility of regulation time and place of work brings a lot of advantages for both employee and employer. One of the forms of flexible work is telework or telecommuting as it is also called. The rules of telework, possibilities and difficulties which are associated with this kind of cooperation both for employer and for employee are presented in the article. The necessity for broader research as well as the need to include the knowledge concerning telecommuting in the modern professional development system were emphasized in the paper. Keywords: telecommuting, vocational development, flexibility 26 Furmanek W., Zarys humanistycznej dz. cyt., s

89 Część II Ekonomia i nauki społeczne

90

91 Mirosław Zajdel Mirosław Zajdel * Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) Streszczenie: Opracowanie jest pewną próbą zasygnalizowania wybranych problemów (i uwarunkowań) dotyczących koncepcji rozwoju i instytucji go wspierających w łódzkiej gospodarce (Łodzi i regionu). Stanowi to pewną podstawę do prowadzenia kolejnych rozważań z tego zakresu. Zapewne działalność różnych instytucji promujących aktywność ekonomiczną stwarza szanse na zwiększanie konkurencyjności i innowacyjności lokalnej gospodarki. Słowa kluczowe: rozwój gospodarczy, gospodarka lokalna 1. Uwagi wstępne Zapoczątkowana w końcu 1989 r. polska transformacja systemowa, w kierunku regulacji rynkowej, przyniosła wiele przekształceń tak w skali ogólnokrajowej, jak i regionalnej (i lokalnej). Zasadniczym celem tego artykułu jest więc scharakteryzowanie m.in. głównych zagadnień (problemów) odnośnie koncepcji rozwoju gospodarki woj. łódzkiego. To opracowanie miałoby przyczynić się w pewnym stopniu do lepszego zrozumienia analizowanych zagadnień, dotyczących łódzkiej gospodarki. Równocześnie warto nadmienić, iż proces rozwoju społeczno ekonomicznego Łodzi i regionu jest zjawiskiem długotrwałym, będącym w fazie kontynuacji. Przy tym proces polskich przemian systemowych ma także wpływ na funkcjonowanie i rozwój łódzkiej gospodarki (Łodzi i regionu). Definiując pojęcie rozwoju gospodarczego Encyklopedia Biznesu, przyjmuje, iż są to (...) procesy składające się na ogólny wzrost zamożności społeczeństwa i jakościową poprawę jego warunków życia 1. M. Klamut 2 uważa z kolei, iż rozwój gospodarczy, to proces tworzenia i powiększania rzeczywistych rozmiarów społecznego produktu (wzrost gospodarczy) wraz z towarzyszącymi mu przemianami instytucji ekonomicznych i stosunków ekonomicznych (z uwzględnieniem przemian strukturalnych). Natomiast według I. Pietrzyk 3, do najistotniejszych czynników powodzenia rozwoju lokalnego zalicza się m.in.: istnienie skutecznego przywództwa (local leadership) inspirującego decydentów, zdolnego do zmobilizowania członków zbiorowości lokalnej; szerokie współuczestnictwo wszystkich kategorii ludności w podejmowanych działaniach; zdefiniowanie jasnych zasad kierunkowych oraz precyzyjną ocenę celów (tzw. audyt strategiczny) przed ich ostatecznym przyjęciem; zaufanie i konsens oraz współpracę i partnerstwo publiczno prywatne; wyczulenie na tożsamość kulturową i strukturę społeczno polityczną regionu; uwzględnienie potrzeby ciągłego dostrajania" działań do ewoluującego otoczenia i nowych zmian strukturalnych. * dr Mirosław Zajdel absolwent Wydziału Ekonomiczno Socjologicznego UŁ. Od 1992 r. pracownik Katedry Polityki Ekonomicznej Uniwersytetu Łódzkiego. Od 1999 r. jest adiunktem w tej jednostce naukowej. Autor publikacji głównie z tematyki zatrudnieniowej, rynku pracy i zagadnień regionalnych (zwłaszcza odnośnie łódzkiej gospodarki). 1 Encyklopedia Biznesu, pod red. W. Pomykało, Fundacja Innowacja, Warszawa 1995, t. 2, s Winiarski B. (red.), Polityka gospodarcza, Wydawnictwo Naukowe PWN, Warszawa 2006, s Pietrzyk I., Polityka regionalna Unii Europejskiej i regiony w państwach członkowskich, PWN, Warszawa 2000, s

92 Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) Warto także stwierdzić, iż Łódź jest jeszcze w pewnej mierze tradycyjnym miastem przemysłowym o monokulturowym charakterze gospodarki, jednakże wciąż dążącym do dywersyfikacji swojej bazy ekonomicznej. W 2010 r. powierzchnia Łodzi stanowiła ok. 0,1% obszaru Polski. Miasto to absorbowało jednak prawie 2% mieszkańców kraju, ok. 2% pracujących, 1,8% bezrobotnych oraz ok. 2% produkcji sprzedanej polskiego przemysłu 4. Zaletami Łodzi są: jej centralna lokalizacja, rozrastająca się infrastruktura komunikacyjna oraz dostęp do doświadczonej, wykwalifikowanej i dobrze wykształconej kadry. W Łodzi stopniowo rozwijają się nowe branże, dotychczas nieutożsamiane z miastem: centra usług biznesowych (BPO i IT), produkcja AGD i przemysł elektroniczny 5. Wiąże się to z koniecznością pełnienia funkcji miasta emitora, wysyłającego sygnały i dobra oraz usługi na zewnątrz, przy jednoczesnym występowaniu pod adresem regionu z szeroką ofertą gospodarczą, kulturalną, edukacyjną, zdrowotną, itp. 6. Natomiast województwo łódzkie stanowiło do 1998 r. integralną część Makroregionu Środkowego. Zajmowało (od 1975 r. do 1998 r.) ok. 0,5% ogólnej powierzchni Polski, będąc w tym czasie najmniejszym ze względu na obszar, województwem (spośród 49 ciu) w kraju. Od r. na skutek reformy administracyjnej państwa 7, nowe województwo łódzkie ma powierzchnię km 2 (5,8% powierzchni kraju, co daje 9 miejsce), na obszarze tym znajduje się 177 gmin (18 miejskich, 24 miejsko wiejskich oraz 135 wiejskich). Region koncentruje 6,7% ludności kraju tj. 2,53 mln osób (ok. 64% mieszkańców woj. to ludność miejska) dane za 2010 r. 8. Łódzkie w 2008 r. wytworzyło 79,5 mld zł Produktu Krajowego Brutto, co stanowi 6,2% PKB w Polsce. Obecnie województwo jest regionem funkcjonalnym Łodzi, powstałym na styku historycznych prowincji Polski 9. Województwo łódzkie ma w pewnej mierze charakter przemysłowo rolniczy (dąży jednak do rozwoju funkcji usługowych i to jest coraz bardziej zauważalne m.in. w rosnącym udziale zatrudnienia w sektorze III), ze znaczącą rolą przemysłu lekkiego 10 (zwłaszcza w Łodzi stolicy woj.), który stara się unowocześniać, a jego udział w produkcji krajowej ocenia się na około 30%. Innymi rozwiniętymi gałęziami przemysłu województwa są przemysł elektroenergetyczny, elektromaszynowy, chemiczny, materiałów budowlanych i spożywczy. Region jest znacznie zdominowany przez przemysły tradycyjne, wymagające dalszej restrukturyzacji, skupione głównie w obszarze Łódzkiej Aglomeracji Miejskiej i rejonie Bełchatowa. Coraz bardziej stymuluje się także rozwój nowoczesnych dziedzin gospodarki (opartych na wiedzy), np. klaster AGD i IT, logistyka, nowoczesne usługi rynkowe i nierynkowe. Zgodnie z rankingiem z 2008 r. Instytutu Badań nad Gospodarką Rynkową pt. Atrakcyjność inwestycyjna województw i podregionów Polski 11, omawiany region zaliczono do grupy średnio atrakcyjnych (klasa B). Głównym atutem województwa łódzkiego jest niski koszt pracy i brak innych poważnych, za wyjątkiem niskiego poziomu rozwoju infrastruktury gospodarczej, problemów w zakresie atrakcyjności inwestycyjnej. Według tego rankingu omawiany region skwalifikowano ogólnie na 7 miejscu (spośród 16) pod względem atrakcyjności inwestycyjnej. 4 Sytuacja społeczno gospodarcza Łodzi w 2010 r., US, Łódź, luty 2011 oraz Bussines Guide Łódź 2010/2011, Wydawnictwo Hamal, Łódź Por. Rynek pracy w Łodzi 2010, Randstad, UMŁ, Łódź 2010, s. 2 i nast. 6 Zob. Liszewski S., Łódź centrum nowego regionu, [w:] Społeczno ekonomiczne problemy Aglomeracji Łódzkiej, pod red. W. Michalskiego, RCSS Biuro Rozwoju Regionalnego w Łodzi, PTG Oddział w Łodzi, Łódź 1999, s Ustawa o wprowadzeniu zasadniczego trójstopniowego podziału terytorialnego państwa z r. (Dz. U. nr 96, poz. 603 z 1998r.). 8 Zob. Rocznik statystyczny województwa łódzkiego 2011, US, Łódź Por. Krajewski S., Perspektywy restrukturyzacji woj. łódzkiego,[w:] Wzrost gospodarczy, restrukturyzacja i rynek pracy w Polsce, ujęcie teoretyczne i praktyczne, Katedra Ekonomii UŁ, Łódź 2000, s Szerzej zob. Rogut A. Barwy włókiennictwa. Potencjał przemysłu włókienniczo odzieżowego w województwie łódzkim, SWSPIZ, Łódź, 2007, s Atrakcyjność inwestycyjna województw i podregionów Polski 2008, pod red. T. Kalinowskiego, IBnGR, Gdańsk,

93 Mirosław Zajdel Przy tym zauważmy w tym kontekście, iż trzeba rozwijać i uwzględniać w strategiach rozwojowych koncepcję uczącego się regionu, która jest jedną z konstrukcji teoretycznych, jak i aplikacyjnych, uznających dominującą rolę innowacyjności technologicznej, organizacyjnej, marketingowej za kluczowy czynnik rozwoju regionalnego. Na tej podstawie R. Florida 12 upowszechnił pojęcie uczącego się regionu, którego głównym inspiratorem i stymulatorem rozwoju jest permanentna innowacja i umiejętność akceptacji do zmieniających się uwarunkowań rynkowych. Stanowi to swoiste przeciwstawienie się podejściu regionu masowej produkcji okresu fordowskiego. W takich warunkach zadaniem podmiotów polityki regionalnej jest stymulowanie wszystkich czynników odpowiedzialnych za rozwój nauki, badań, doskonalenie kadr i aplikowanie wysokiej techniki w przedsiębiorstwach uczącego się regionu (co może korzystnie wpływać m.in. na jakość zasobów pracy). Publicznym sposobem na wsparcie prywatnego sektora innowacyjnego jest tworzenie regionalnego systemu innowacji, obejmującego instytucje publiczne i prywatne, działające w partnerskiej sieci współpracy między ośrodkami nauki, instytucjami eksperckimi i podmiotami gospodarczymi temu celowi służą m.in. regionalne centra innowacji i parki naukowe. Tego typu kwestie należałoby także rozpatrywać w kontekście stymulowania rozwoju łódzkiej gospodarki. 2. Wybrane koncepcje odnośnie rozwoju łódzkiej gospodarki Omawiając niektóre aspekty dotyczące rozwoju łódzkiej gospodarki można odnotować, iż mają tu miejsce inicjatywy pomocne dla promowania rozwoju społeczno gospodarczego Łodzi i regionu. Mamy m.in. do czynienia z działaniami różnorodnych ośrodków przedsiębiorczości i innowacji (skoncentrujemy się tylko na wybranych ze względu na zakres opracowania). Pierwsze tego typu inicjatywy wspierające rozwój i transformację łódzkiej gospodarki pojawiły się w 1991 roku. Kluczowymi przedsięwzięciami w rozpatrywanym obszarze są m.in. 13 : 1. Fundacja Inkubator funkcjonuje od października 1992 roku. Fundatorami były: Urząd Miasta Łodzi i ŁARR. 2. Istotną rolę od 1992 r w inicjowaniu rozwoju infrastruktury przedsiębiorczości i transferu technologii w Łodzi i regionie odegrała Łódzka Agencja Rozwoju Regionalnego. 3. Fundacja Rozwoju Przedsiębiorczości funkcjonuje od stycznia 1991 r. Jest jednym z pierwszych polskich (edukacyjnych) ośrodków m.in. promowania przedsiębiorczości oraz kształcenia menadżerów. 4. Fundacja na Rzecz Restrukturyzacji Regionu Łódzkiego utworzona w 1993 r. podejmuje działania których celem jest wspieranie procesów restrukturyzacji i rozwoju przedsiębiorczości. 5. Fundacja Edukacyjna Przedsiębiorczości utworzona w 1991 r. prowadzi szeroka działalność szkoleniową i wydawniczą promująca prywatną przedsiębiorczość. Z pomocy fundacji w formie stypendiów i grantów skorzystało kilka tysięcy studentów w dziedzinie biznesu. 6. Fundusz Mikro wypracował pewną formułę udzielania mini pożyczek dla małych firm. 7. Międzynarodowa Fundacja Kobiet propagująca idee przedsiębiorczości wśród kobiet oraz oferująca pomoc doradczą i konsultingową, w tym szkolenia i seminaria. 8. Doniosłą rolę w promocji przedsiębiorczości i zwiększaniu aktywności ekonomicznej regionu odgrywa Łódzka Specjalna Strefa Ekonomiczna. Łódzka Specjalna Strefa Ekonomiczna (ŁSSE) 12 Por Florida R., Towards the learning region, Futures 1995, vol. 27 no. 5 oraz Florida R., Toward the learning region, [w:] The Learning Region. Fundations, State of the Art, Future, edited by R. Ruten, F. Boekema; Edward Elgar Publishing, Cheltenham UK, Northampton MA, USA, 2007, s Szerzej odnośnie tej problematyki zob.: Matusiak K.B., Marszałkowska M., Nowakowska A., Lokalne systemy produkcyjne Łodzi, Ostrołęki i Torunia (charakterystyka wybranych cech), [w:] Zewnętrzne determinanty rozwoju innowacyjnych firm, pod red. K.B. Matusiaka, E. Stawasz, A. Jewtuchowicz, Katedra Ekonomii UŁ, Łódź 2001, s. 106 i nast. 93

94 Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) ustanowiona została na mocy Rozporządzenia Rady Ministrów z dn r. 14. Czas trwania strefy określono na 20 lat. Co pozwala na trwałe związanie się inwestorów ze strefą, umożliwiając długofalowe planowanie inwestycji, rozwój firm i osiąganie przez nie korzyści wynikających z funkcjonowania w strefie. Zarząd strefy podejmuje szeroką współpracę z instytucjami z otoczenia strefy, czego przykładem może być podpisane r. porozumienie o współpracy pomiędzy ŁSSE a Wojewódzkim Urzędem Pracy. Na mocy porozumienia, jego strony zobowiązują się m.in.: do informowania o formach pracy i aktualnych możliwościach finansowania programów rynku pracy w tym w szczególności szkoleń przy współpracy z pracodawcami 15. Współpraca ta zapewnia m.in. refundacje części wynagrodzeń zatrudnionych absolwentów w ramach prac interwencyjnych, uzyskanie ulg i preferencji podatkowych lub pożyczek na utworzenie miejsc pracy dla niepełnosprawnych. Inwestorzy działający w ŁSSE korzystają z pomocy publicznej: na wspieranie nowych inwestycji, na tworzenie nowych miejsc pracy 16. Łódzką SSE początkowo utworzono na gruntach położonych na terenach miast: Ozorkowa, Zgierza, Łodzi oraz gminy Pabianice i gminy Ksawerów. Rozproszenie jest pochodną położenia terenów zaoferowanych przez gminy do zagospodarowania w ramach SSE. Obecnie składa się z 16 podstref usytuowanych na terenie miast i gmin woj. łódzkiego. Wydano ogółem 70 zezwoleń na działalność. W 2005 r. nakłady inwestycyjne wyniosły 3,35 mld zł. W 62% to kapitał zagraniczny, a w 38% polski. Utworzono 2,3 tys. miejsc pracy, a w 2007 r. 5,2 tys. W 2006 r. ŁSSE obchodziła jubileusz 10 cio lecia istnienia. W końcu 2007 r. było zaangażowanych w strefie osób, zaś w 2008 r Jej ustanowienie jest pewnym sposobem na zwiększenie aktywności gospodarczej i zmniejszenie ciągle dość wysokiego poziomu bezrobocia oraz na zmiany strukturalne w gospodarce, odchodzącej od monokulturowego charakteru ( związanego od lat z przemysłem lekkim). Nadmienić także wypada, iż z opracowania Łódź w liczbach , wynika, iż w 2000 r. było w Łodzi 1189 spółek z kapitałem zagranicznym (zaś w 2008 r i 1637), 19 przedsiębiorstw zagranicznych drobnej wytwórczości (zaś 16 w 2008 r. i 2009 r.) oraz 60 przedstawicielstw firm zagranicznych (59 w 2008 r. i 57 w 2009 r.). Kapitał zagraniczny zainwestowany w łódzkiej gospodarce w latach , wyniósł odpowiednio: 659 mln euro (i 726 mln euro zaplanowane w 2000 r.) oraz 2792 mln euro w 2008 r. (i 1053 mln euro zadeklarowanych), zaś w 2009 r mln euro (i 1024 mln euro deklarowanych). Przy tym struktura inwestycji zagranicznych według kraju pochodzenia (w okresie ) kształtowała się następująco: USA (20,5%), Francja (19,6%), Niemcy (17,0%), Wielka Brytania (14,9%), Australia (5,8%), Austria (5,1%), Włochy (4,8%), Szwecja (4,3%), Holandia (1,7%), Norwegia (1,4%), inne (3,8%). Interesujące kwestie zawiera również Strategia rozwoju klastra w Łodzi na lata Ma ona na celu zwiększenie potencjału rozwojowego Łodzi i regionu. Klaster łódzki jest siecią współpracy oraz powiązań między lokalnymi firmami i otoczeniem instytucjonalnym, jednostkami naukowo badawczymi, szkołami, samorządem gospodarczym zawodowym oraz instytucjami wspierania biznesu (m.in. profesjonalna obsługa dużych inwestorów). Poprzez działania aktywnie wspierające rozwój branż priorytetowych planuje się kształtować warunki dla utworzenia około 40 tysięcy do 2015 r. Branże podstawowe (priorytetowe) dla rozwoju klastra w Łodzi to: centra zaplecza biznesowego, sektor logistyczny, przemysł AGD. 14 Dz. U. 1997, nr 46, poz Porozumienie o współpracy pomiędzy służbami zatrudnienia województwa łódzkiego i Łódzką Specjalną strefą Ekonomiczną S.A., z dnia r., Łódź. 16 Szerzej na ten temat zob.: Łódzka Specjalna Strefa Ekonomiczna S.A. Inwestuj z nami, Łódź 2005, s. 6 i nast. 17 Łódź w liczbach 2010, Urząd Miasta, US, Łódź 2010, s Strategia rozwoju klastra w Łodzi na lata , UMŁ, Łódź 2005, s. 1 i nast. 94

95 Mirosław Zajdel Według Diagnozy strategicznej Łodzi 19 (omówimy tu najważniejsze kwestie) do zewnętrznych szans rozwoju Łodzi zaliczono m.in.: duże zainteresowanie rozwojem sieci szybkich kolei w Europie i Polsce, rozwój krajowej drogowej i kolejowej sieci komunikacyjnej, druga fala środków unijnych, w tym przeznaczonych na zrównoważony rozwój, pogłębiająca się konwergencja w skali globalnej szansą dla miast europejskich, rosnąca na świecie rola gospodarki opartej na wiedzy, kreatywności i innowacyjności, rosnąca rola miast centrów aglomeracyjnych, skupiających kompetencje metropolitalne, utrzymanie przez miasta funkcji centrów targowo konferencyjnych, rosnąca w gospodarce Polski i Europy rola turystyki: biznesowej, konferencyjnej, eventowej, edukacyjnej i kulturalno rozrywkowej. wzrastająca mobilność mieszkańców Polski pobudzająca popyt na łódzkie usługi metropolitalne, w tym komunikację zbiorową, rosnące zainteresowanie rozbudową funkcji logistycznych w okolicach Łodzi; popyt m.in. na łódzką produkcję AGD, przemiany w stronę jakościowego i elastycznego modelu nauczania, przyjęte przez łódzkie szkoły i uczelnie wyższe, wzrost roli pracy zdalnej ( na odległość ). Do wewnętrznych szans dla Łodzi zaliczono, zaś m.in.: wzrost atrakcyjności i funkcjonalności Łodzi dla klientów wewnętrznych (mieszkańcy i inwestorzy) i zewnętrznych (inwestorzy, goście, turyści), w tym, np.: o szeroka rewitalizacja oraz poprawa jakości przestrzeni publicznej, o uporządkowanie planistyczne i prawno własnościowe miasta, o poprawa efektywności zarządzania miastem i spółkami komunalnymi, o budowa miasta przyjaznego dla mieszkańców, wzrost popytu na usługi komunalne oferowane przez Łódź w ramach aglomeracji, Jednakże do zewnętrznych zagrożeń dla Łodzi zakwalifikować można by m.in. : niekorzystne tendencje demograficzne w Polsce, zagrażające miastom o nikłym kapitale społecznym i znajdującym się w złej sytuacji ekonomicznej, większa, niż w Łodzi, dynamika pozytywnych zmian w miastach konkurencyjnych przechodzenie miast na strategie aktywnego pozyskiwania mieszkańców z zewnątrz, dominacja w Unii Europejskiej zwrotnych instrumentów finansowania rozwoju, kryzys finansów państwa w efekcie brak poprawy infrastruktury drogowej i kolejowej; płatne autostrady wokół Łodzi, pewna niechęć do współpracy gmin ościennych w ramach łódzkiego obszaru metropolitalnego. Natomiast wewnętrzne zagrożenia dla Łodzi to m.in.: utrwalająca się niechęć mieszkańców do współpracy i wspólnego rozwiązywania problemów, rosnące zatomizowanie i nastawienie na wewnętrzną rywalizację łódzkiego społeczeństwa, świata biznesu i nauki, przekroczenie przez miasto ostrożnościowych progów zadłużenia, odpływ wykwalifikowanej kadry do miast i gmin oferujących lepsze warunki życia, brak kompleksowej realizacji polityki zrównoważonego rozwoju, słabnące zainteresowanie ofertą łódzkich szkół wyższych. Przy tym na uwagę zasługują wnioski końcowe omawianej analizy SWOT. Wynika z nich (niestety), iż silne strony Łodzi mogą tylko w niewielkim stopniu wzmacniać szanse zewnętrzne miasta, nie są one w stanie samodzielnie zredukować zagrożeń stojących przed miastem. 19 Strategia zintegrowanego rozwoju Łodzi Projekt, Diagnoza strategiczna Łodzi. Synteza, Biuro Strategii, Partnerstwa i Funduszy Oddział Strategii Rozwoju Miasta, UMŁ, Łódź

96 Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) Zagrożenia można zredukować poprzez skuteczniejszą promocję miasta. Można też próbować, dysponując obecnym potencjałem, w wolniejszym tempie tracić dystans do miast konkurencyjnych. Poza tym pojawia się tu potrzeba strategii konkurencyjnej, która winna skupiać się na eliminowaniu oraz minimalizowaniu wewnętrznych słabości, aby w przyszłości lepiej wykorzystać szanse płynące z otoczenia i sprawniej wykorzystać okazje zewnętrzne. Metodami działania w tym kierunku, mogą być takie jak: wykorzystanie szans przy jednoczesnym zmniejszeniu lub poprawieniu niedociągnięć wewnętrznych; zwiększenie produktywności (efektywności); obniżanie kosztów; pozyskiwanie nowych kompetencji; poszukiwanie partnerów do współpracy. Nadmieńmy przy tym, iż Strategia zintegrowanego rozwoju Łodzi 2020+oparta jest na dwóch filarach i swoistym fundamencie (Rysunek 1). Rysunek 1. Zintegrowana strategia rozwoju miasta Łodzi (istota) Źródło: Strategia zintegrowanego rozwoju Łodzi Projekt, Biuro Partnerstwa i Funduszy Oddział Strategii Rozwoju Miasta, UMŁ, Łódź 2011, s. 10. W kontekście prowadzonych rozważań odnośnie koncepcji (i inicjatyw) wspierających rozwój regionu łódzkiego, można także zauważyć, iż w 2006 r. przygotowano zaktualizowaną "Strategię rozwoju województwa łódzkiego na lata " 20. Przedstawimy tu pokrótce najistotniejsze jej założenia. Zatem stwierdza się w niej, iż strategia rozwoju jako ogólna wizja ma charakter długookresowy. W kontekście doświadczeń restrukturyzacyjnych krajów OECD oraz lokalnych uwarunkowań społeczno ekonomicznych przyjęto opcję polegającą na łączeniu elementów rozwoju zewnętrznego i wewnętrznego. Przy czym rozwój oparty na dynamice wewnętrznej regionu uznano za istotniejszy. Wymaga to maksymalnej mobilizacji własnych sił przy 20 Strategia rozwoju województwa łódzkiego na lata , Departament Polityki Regionalnej Urzędu Marszałkowskiego, Łódź 2006, s

97 Mirosław Zajdel równoczesnym zwiększaniu atrakcyjności województwa dla zewnętrznych inwestorów (w tym zagranicznych). Cel główny, do którego dąży społeczność regionalna, nazwany został misją, określającą przyszłość regionu. Jest on traktowany jako swoista deklaracja intencji władz, dotycząca kierunków przyszłego rozwoju. Celem tym jest podniesienie atrakcyjności woj. łódzkiego w strukturze regionalnej Polski i Europy jako obszaru sprzyjającego zamieszkaniu ludzi i gospodarce oraz dążenie do budowy jedności strukturalnej regionu przy zachowaniu różnorodności jego miejsc 21. Osiąganie pożądanych przemian określonych w misji, przy aktualnym stanie i tendencjach rozwojowych województwa, wymaga zdaniem twórców omawianej strategii skoncentrowania wysiłków na wielu problemach. Najistotniejsze z nich zidentyfikowano w trzech strategicznych dla regionu sferach: 1. społecznej, w której głównym celem jest wzrost ogólnego poziomu cywilizacyjnego województwa, 2. ekonomicznej, w której głównym celem jest poprawa pozycji konkurencyjnej gospodarki województwa, 3. funkcjonalno przestrzennej, w której głównym celem jest stworzenie rzeczywistego regionu społeczno ekonomicznego posiadającego własną podmiotowość kulturową i gospodarczą. Trzeba nadmienić także, iż zgodnie z analizą SWOT województwa łódzkiego 22 (z tymi kwestiami na ogół można się zgodzić) do szans zaliczono: Integrację z UE; Możliwość korzystania ze środków pomocowych UE; Napływ kapitału zagranicznego; Realizację programu budowy autostrad; Możliwość wykorzystania istniejących lotnisk; Wzrost wykształcenia i kwalifikacji zawodowych, w szczególności ludzi młodych; Realizację idei społeczeństwa informacyjnego; Utrzymywanie preferencyjnego kredytowania rolnictwa i jego otoczenia; Potencjalne warunki naturalne dla rozwoju turystyki specjalistycznej ekoagroturystyki. Zagrożeniami zaś dla gospodarki woj. łódzkiego są: Niski udział dochodów własnych JST i ich zadłużenie; Postępujące rozwarstwienie ekonomiczne społeczeństwa; Wysoki (i stale) rosnący poziom bezrobocia w województwie; Niska opłacalność produkcji rolniczej; Odpływ wysoko wyspecjalizowanej kadry do ośrodków gospodarczo silniejszych; Wysoki poziom cen usług teleinformacyjnych i teletransmisyjnych; Struktura demograficzna. W myśl oceny ekspertów 23 jest wysoce wskazany w woj. dynamiczny rozwój usług opartych na wiedzy oraz przemysłów wysokich technologii. Realny jednak w dłuższej perspektywie (po 2010 r.). Komponuje się ona również z założeniami Krajowej strategii rozwoju regionalnego (oczywiście można tu nadmienić, iż są to pewne założenia docelowe ). Poza tym swoistym (oby przejściowym) utrudnieniem w funkcjonowaniu regionu łódzkiego mogą (i nadal są) problemy związane z procesem jego integracji przestrzennej. Odbywa się ona drogą preorientacji w układach zarządzania, komunikacji, ciążeń usługowo zaopatrzeniowych itp. 21 Por. tamże. 22 Zob. Program rozwoju województwa łódzkiego komponent regionalny ZPORR, 24 lutego 2004, s Por. Regionalna strategia innowacji: foresight regionalny, Prace Instytutu EEDRI, Łódź 2004, nr 1, s Zob. Krajowa strategia rozwoju regionalnego Projekt, Ministerstwo Rozwoju Regionalnego, Warszawa, wrzesień 2009, s

98 Koncepcje rozwoju gospodarczego Łodzi i regionu (wybrane problemy) Poza tym pewne zagrożenia zewnętrzne dla lokalnej gospodarki mogą powstać w przypadku negatywnych czynników koniunkturalnych o zasięgu ponadregionalnym. Jednakże zgodnie z projektem "Aktualizacji strategii rozwoju województwa łódzkiego na lata " 25, rozpatrywane województwo ma szansę m.in.: stworzyć duopol Łódź Warszawa, zlokalizować nowe lotnisko, utworzyć szybkie połączenia kolejowe (np. ze stolicą) oraz II transeuropejski korytarz transportowy. 3. Podsumowanie Konkludując stwierdzono, iż rozwój łódzkiej gospodarki (Łodzi i regionu) niesie z sobą wiele różnorodnych problemów i kontrowersji. Uwzględniając jego złożoność i wielopłaszczyznowość, w opracowaniu przedstawiono jedynie główne aspekty, dotyczące społeczno ekonomicznych koncepcji rozwoju woj. łódzkiego. Należy zaznaczyć, iż dla prawidłowego funkcjonowania analizowanego regionu muszą być tworzone pragmatyczne oraz kompleksowe warunki implementacji polityki strukturalnej i intraregionalnej w powiązaniu z polityką makroekonomiczną, przez stosowne lokalno regionalne instytucje. Bibliografia 1. Aktualizacja strategii rozwoju województwa łódzkiego na lata Projekt, Urząd Marszałkowski, Łódź Atrakcyjność inwestycyjna województw i podregionów Polski 2008, pod red. T. Kalinowskiego, IbnGR, Gdańsk Business Guide Łódź 2010/2011, Hamal Books, Łódź Dz. U. 1997, nr 46, poz Encyklopedia Biznesu, pod red. W. Pomykało, Fundacja Innowacja, Warszawa Florida R., Towards the learning region, Futures 1995, vol. 27 no. 5 oraz R. Florida, Toward the learning region, [w:] The Learning Region. Fundations, State of the Art, Future, edited by R. Ruten, F. Boekema; Edward Elgar Publishing, Cheltenham UK, Northampton MA, USA, Krajewski S., Perspektywy restrukturyzacji woj. łódzkiego,[w:] Wzrost gospodarczy, restrukturyzacja i rynek pracy w Polsce, ujęcie teoretyczne i praktyczne, Katedra Ekonomii UŁ, Łódź Krajowa strategia rozwoju regionalnego Projekt, Ministerstwo Rozwoju Regionalnego, Warszawa, wrzesień Liszewski S., Łódź centrum nowego regionu, [w:] Społeczno ekonomiczne problemy Aglomeracji Łódzkiej, pod red. W. Michalskiego, RCSS Biuro Rozwoju Regionalnego w Łodzi, PTG Oddział w Łodzi, Łódź Łódzka Specjalna Strefa Ekonomiczna S.A. Inwestuj z nami, Łódź Łódź w liczbach 2010, Urząd Miasta, US, Łódź Matusiak K.B., Marszałkowska M., Nowakowska A., Lokalne systemy produkcyjne Łodzi, Ostrołęki i Torunia (charakterystyka wybranych cech), [w:] Zewnętrzne determinanty rozwoju innowacyjnych firm, pod red. K.B. Matusiaka, E. Stawasz, A. Jewtuchowicz, Katedra Ekonomii UŁ, Łódź 2001, s. 106 i nast. 13. Pietrzyk I., Polityka regionalna Unii Europejskiej i regiony w państwach członkowskich, PWN, Warszawa Porozumienie o współpracy pomiędzy służbami zatrudnienia województwa łódzkiego i Łódzką Specjalną strefą Ekonomiczną S.A., z dnia r., Łódź. 25 Aktualizacja strategii rozwoju województwa łódzkiego na lata Projekt, Urząd Marszałkowski, Łódź

99 Mirosław Zajdel 15. Program rozwoju województwa łódzkiego komponent regionalny ZPORR, 24 lutego Regionalna strategia innowacji: foresight regionalny, Prace Instytutu EEDRI, Łódź 2004, nr Rocznik statystyczny województwa łódzkiego 2011, US, Łódź Rogut A., Barwy włókiennictwa. Potencjał przemysłu włókienniczo odzieżowego w województwie łódzkim, SWSPIZ, Łódź, Rynek pracy w Łodzi 2010, Randstad, UMŁ, Łódź 2010, s. 2 i nast. 20. Strategia rozwoju klastra w Łodzi na lata , UMŁ, Łódź Strategia rozwoju województwa łódzkiego na lata , Departament Polityki Regionalnej Urzędu Marszałkowskiego, Łódź Strategia zintegrowanego rozwoju Łodzi Projekt, Biuro Partnerstwa i Funduszy Oddział Strategii Rozwoju Miasta, UMŁ, Łódź Strategia zintegrowanego rozwoju Łodzi Projekt, Diagnoza strategiczna Łodzi. Synteza, Biuro Strategii, Partnerstwa i Funduszy Oddział Strategii Rozwoju Miasta, UMŁ, Łódź Sytuacja społeczno gospodarcza Łodzi w 2010 r., US, Łódź, luty Ustawa o wprowadzeniu zasadniczego trójstopniowego podziału terytorialnego państwa z r. (Dz. U. nr 96, poz. 603 z 1998r.). 26. Winiarski B. (red.), Polityka gospodarcza, Wydawnictwo Naukowe PWN, Warszawa The Conceptions of the Economic Development of Łódź and its Region (the Selected Problems) The paper is an attempt to draw attention to selected problems concerning the conceptions of development and its supporting institutions in the Łódź economy. It would seem advisable to continue the research in this field. The activity of different institutions that are promoting the economic activity, form the chances of enhancing the competitiveness and innovativeness of the local economy (Łódź and its region). Keywords: economic development, local economy 99

100 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Cezary Tomasz Szyjko * Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Streszczenie: W ostatnim czasie doszło do radykalnych zmian w funkcjonowaniu europejskiego rynku gazu ziemnego. Zmiany związane są z postępującą globalizacją gospodarki, upowszechnieniem wykorzystania gazu ziemnego oraz zmianami legislacyjnymi na rynkach gazu. Docelowo Polskę czeka pełna liberalizacja rynku gazu ziemnego. Priorytetem Polski jest poszukiwanie własnych źródeł energii, uruchomienie terminalu LNG w Świnoujściu i budowa połączenia gazowego Północ Południe. Jakie są szanse na realizację tych projektów? Czy znajdą się środki na ich sfinansowanie? Publikacja analizuje kluczowe kwestie warunkujące tworzenie konkurencyjnego rynku gazu w Polsce, w tym problemy związane z rozdziałem monopolistów, utrudnionym dostępem stron trzecich do infrastruktury oraz nadużywaniem pozycji rynkowej w sektorze energetycznym. Słowa kluczowe: innowacyjność gospodarki, liberalizacja rynku paliw, transfer technologii, nowe prawo gazowe, konkurencyjność jednolitego rynku UE Wprowadzenie Gaz rewolucjonizuje mapę energetyczną globu. Rosnące znaczenie gazu, zarówno na świecie, jak i w Polsce, jest wiodącym tematem najnowszego raportu "Energy Predictions 2012" przygotowanego przez Deloitte, którego autorzy wskazują najważniejsze trendy w rozwoju energetyki światowej 1. Gaz to jedno z najważniejszych zagadnień w gospodarce globalnej jak i w Polsce. Analizy oparte na światowych modelach rynku gazu pokazują, że średnia roczna stopa wzrostu popytu na gaz na świecie wyniesie 19% do 2030 r. W Unii Europejskiej będzie to wzrost na poziomie ok. 14%, natomiast w Polsce w tym okresie może być jeszcze wyższy nawet do 37%. Pozycja Polski na regionalnej mapie energetycznej ulegnie więc poważnym transformacjom, a istotnym elementem tej przemiany będzie gaz 2. Najbliższe 10 lat będzie należeć do gazu. Na globalnym rynku paliwowym nastąpiły diametralne zmiany. Niepewność cen oraz względy ekologiczne zmuszają do zastanowienia się nad wyborem najbardziej racjonalnego rodzaju paliwa. Gaz jest paliwem przyjaznym dla środowiska a dzięki wprowadzaniu coraz to nowych technologii, łatwości obsługi z punktu widzenia użytkownika oraz jego ogólnej dostępności może trafić do każdego odbiorcy. Prognozy Międzynarodowej Agencji Energii (MAE) do 2030 r. przewidują zużycie gazu w UE na poziomie 600 mld m 3, czyli o ponad 70 mld m 3 więcej niż obecnie. Jednocześnie MAE szacuje, że wydobycie * Dr nauk prawnych. Autor jest adiunktem Uniwersytetu Jana Kochanowskiego w Kielcach. Od 6 lat zajmuje się problematyką liberalizacji rynku energii w UE. Jego zainteresowania dotyczą tematyki nowych alternatywnych źródeł energii w kontekście bezpieczeństwa energetycznego Polski. Ma na swoim koncie liczne prace i publikacje książkowe. 1 Rok 2012 r. to ważna rocznica dla polskiego przemysłu naftowego. 190 lat temu na świat przyszedł Ignacy Łukasiewicz, pionier wydobycia nafty i twórca pierwszej rafinerii na świecie. Łukasiewicz był również pionierem społecznej odpowiedzialności w biznesie. Nie na darmo mówiono, iż wszystkie drogi w Zachodniej Małopolsce brukowane były guldenami Łukasiewicza, a pracownicy szybów naftowych nazywali swego szefa ojcem Ignacym. 2 [ ] 100

101 Cezary Tomasz Szyjko własne gazu w UE spadnie w tym okresie o ok. 100mld m3. Oznacza to wzrost importu oraz wzrost cen 3. Na całym świecie trwa nowe gazowe szaleństwo. Gaz ziemny pozostaje wiodącą technologią XXI wieku, a jego udział w mix ie energetycznym UE będzie się zwiększał. Wielka gazowa gorączka dotarła do Polski. Coraz większą popularność zdobywa dziś w Polsce paliwo niekonwencjonalne, jakim jest gaz uwięziony w skałach ilastych czyli w tzw. łupkach. W ostatnich latach gaz z łupków stał się nadzieją dla Polski na poprawienie bilansu energetycznego i uniezależnienie się od importu gazu lub przynajmniej znaczące jego zmniejszenie. Polska jest obecnie jednym z najbardziej atrakcyjnych rynków poszukiwań złóż gazu ziemnego w łupkach, w Europie 4. Gaz z łupków jest dla Polski szansą, ale i wyzwaniem, z uwagi na skomplikowane warunki złożowe, które wymagają nowoczesnej technologii, specjalistycznej wiedzy i doświadczenia. Książka analizuje bariery, które musi pokonać Polska, aby urealnić wydobycie gazu: technologiczne, społeczne, finansowe, środowiskowe i prawno administracyjne. Europa to drugi największy rynek gazu ziemnego na świecie, a jej zapotrzebowanie na gaz, zwłaszcza jako surowca do produkcji energii, ciągle wzrasta. W świetle burzliwych wydarzeń w Afryce Płn. i Japonii geopolityka nabiera nowego sensu, bo będzie coraz częściej kojarzyć się z geologią i zasobami węglowodorów. Rynek energetyczny w UE zmienia się dynamicznie. Europejska geopolityka gazowa jest w okresie bezprecedensowych przemian. Rada UE zdecydowała, że do roku 2015 nie ma być wysp energetycznych: Europę połączy innowacyjna infrastruktura gazowa w postaci interkonektorów i zbiorników magazynowania, a na obrzeżach kontynentu wyrosną terminale LNG 5. Celem jest zwiększenie bezpieczeństwa energetycznego poprzez uniezależnienie się od dostawców zewnętrznych. Rysunek 1. Scenariusze wzrostu zapotrzebowania na gaz w Polsce. Źródło: [ ] 3 Chadan J., Wywiad z Prezesem Zarządu GAZ SYSTEM, Nowa Energia 2012, nr 1(25), s Zobacz: Szyjko C.T., Wyzwania prawno ekonomicze zarządzania rynkiem gazu w Polsce, Dwumiesięcznik Zarządzanie i Edukacja 2010, nr 73, Zeszyty Naukowe Szkoły Wyższej im. Bogdana Jańskiego, Warszawa. s ISSN X. 5 Szyjko C.T., Nowa europejska strategia rozwoju infrastruktury energetycznej, Nowa Energia, nr 2(20)/2011 s ISSN

102 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Gaz jako nośnik energii Polska infrastruktura gazowa jest w stanie powolnej degradacji. Prawie nie inwestowaliśmy w nią od czasu zmiany systemu politycznego, czyli od ponad 20 lat. Dlatego też nasze elektrownie, sieci przesyłowe i dystrybucyjne są zdekapitalizowane w ponad 70%. Można to w pewnym stopniu zrozumieć i nawet usprawiedliwić, ale na pewno nie można takiej sytuacji w nieskończoność ignorować. Potrzeby są ogromne: do 2030 roku w samą tylko elektroenergetykę musimy zainwestować około 100 mld. euro 6. Jeśli dołożyć do tego inwestycje w gazownictwo, ciepłownictwo i transport, suma ta urasta do gigantycznej kwoty 320 mld. euro. Jest to ogromny wysiłek dla kraju i trudny do wykonania jako Project finance lub ze źródeł bezpośrednich (inwestycje mogłyby być finansowane bezpośrednio z przychodów inwestorów poprzez tzw. błękitne certyfikaty) 7. Z informacji prasowych i przekazywanych oficjalnie do Komisji Europejskiej wynika, że w Polsce trwa największy w historii naszej energetyki boom inwestycyjny. W budowie jest ponad MW mocy wytwórczych. Planowanych jest dalsze MW, w tym 6000 MW w elektrowniach atomowych. Rozwija się budowa kolejnych linii elektroenergetycznych, a do roku 2014 ma powstać europejski rynek energetyczny, w którym ma uczestniczyć Polska, co ma uzasadniać próby dalszej konsolidacji. Np. nakłady inwestycyjne PGNiG w 2012 roku wyniosą ponad 5 mld zł, z czego ok. 1,1 mld zł spółka zamierza zainwestować w poszukiwanie gazu łupkowego. Prognozy mówią o 5,3 bln m 3, jednak trzeba je potwierdzić. Przedsiębiorstwa energetyczne obawiają się konsekwencji kryzysu gospodarczego. Intensywna konkurencja zmusza przedsiębiorstwa do ciągłego rozwoju oraz bieżącej obserwacji i ograniczania kosztów działalności. Przejrzysty obraz rzeczywistości oraz szybkość reakcji i działania stanowią o jakości i efektywności zarządzania. Realizacja tego zadania wymaga poszerzenia zakresu działania rynku poprzez wprowadzenie rynku zdolności wytwórczych oraz komercjalizację inwestycji w sieci przesyłowe. Nowe inwestycje gazowe będą zdeterminowane polityką energetyczną Unii Europejskiej, mającą na celu: ograniczenie emisji, budowę europejskiego rynku energii i zwiększenie wykorzystania odnawialnych źródeł energii. Gaz ziemny jest nośnikiem energetycznym, którego rola w gospodarce światowej stale wzrasta. Powodem jest nie tylko jego dostępność, ale przede wszystkim wspomniane wcześniej cenne właściwości z punktu widzenia ochrony środowiska. Ponadto gaz ziemny ma doskonałe właściwości palne. Spala się, pobierając tlen z atmosfery (wytwarzające się spaliny nie zawierają popiołów), a powstały w wyniku spalania dwutlenek węgla i para wodna nie są szkodliwe dla ludzi i środowiska. Walory gazu to powszechność, łatwość i wygoda transportu (gazociągami, tankowcami/gazowcami w postaci LNG), łatwość sterowania i automatyzacji procesu spalania oraz, co chyba najważniejsze, możliwość osiągnięcia wyższych wskaźników sprawności energetycznej w porównaniu z urządzeniami zasilanymi innymi paliwami 8. Reasumując, gaz ziemny to idealne paliwo w energetyce. Wynika to głównie z: stałej jakości i niezmiennego składu surowca; możliwości uniknięcia magazynowania surowca (do pewnego stopnia); wysokiej wartości opałowej; zwiększenia sprawności układu nawet do 85%; obniżenia wydatków związanych z ochroną środowiska, w związku z mniejszą emisją SO2 i braku odpadów 9. 6 Dane Stowarzyszenia na rzecz Efektywności ETA oraz Społecznej Rady Narodowego Programu Redukcji Emisji, strona: [ ] 7 wnioski z debaty: Plan Marshalla dla infrastruktury. Naświetlajmy problem póki jeszcze możemy, Warszawa Sikora A., Strategiczne aspekty inwestycji opartych o gaz ziemny, wystąpienie na konferencji Rynek gazu w Polsce, , [ ] 9 Ibidem. 102

103 Cezary Tomasz Szyjko Rysunek 2. Emisja CO2 przy spalaniu różnych paliw kopalnych w celu wyprodukowania 1 kwh energii elektrycznej (1kg = 2.2 funta). Źródło: [ ] Wyznania globalizacji Świat zmienił się. Europa zjednoczyła się, poszerzyła i pogłębiła. Globalizacja przyspieszyła wymianę i rozwój technologii oraz pozwoliła na wejście na scenę nowych podmiotów konkurujących w obszarze energetyki. Postawiło to świat przed podwójnym wyzwaniem: rozwijać w sposób jeszcze bardziej zdecydowany umiejętności w sektorach o dużej wartości dodanej oraz prowadzić politykę ułatwiającą przedsiębiorstwom europejskim udział w nowych możliwościach, jakie oferują innowacyjne ośrodki wzrostu gospodarczego. Szok związany z kryzysem finansowym i gospodarczym uderzył we wszystkie sektory gospodarki. Osłabił zarówno przedsiębiorców jak i pracowników; zmniejszył siłę nabywczą milionów konsumentów. Energetyka jest służebna w stosunku do całej gospodarki, a więc zmiany w sektorze będą miały wpływ na uwarunkowania makroekonomiczne. Zmiany w sektorze energetycznym wiążą się oczywiście z ryzykami ekonomiczno technologicznymi. O konkurencyjności branży energii decydują dwa elementy poprawiające konkurencyjność: zmniejszenie kosztów, w tym kosztów sieci oraz poziom obsługi klienta, a więc konkurencyjność sprzedaży i jakości usług. Energetyka przyszłości będzie wywierać coraz większy wpływ na klienta. Dywersyfikacja dróg i źródeł zaopatrzenia w gaz ma zasadnicze znaczenie dla bezpieczeństwa energetycznego świata, i poszczególnych państw członkowskich. Bezpieczeństwo energetyczne jest elementem bezpieczeństwa ekonomicznego państwa. Rozumiane jest ono jako stan braku zagrożenia przerwaniem dostaw paliw i energii. Stan ten zapewnia dywersyfikacja źródeł dostaw importowanych paliw (w przypadku Polski ropy naftowej i gazu ziemnego), co pozwala na ciągłą pracę systemu energetycznego kraju, w sytuacji przerwania dostaw z jednego źródła. Bezpieczeństwo energetyczne państwa wymaga nie tylko rozproszenia źródeł zużywanych surowców energetycznych, ale również tworzenia zapasów, które można uruchomić w stanie kryzysu. 103

104 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Rysunek 3. Globalna produkcja i konsumpcja paliw z podziałem na regiony. Źródło: BP Statistical Review of World Energy Wzrost danych wymusza na firmach energetycznych wdrażanie nowych rozwiązań teleinformatycznych. Możliwości sieci są nie do ocenienia. Aby skutecznie zarządzać sektorem i sprawnie analizować dane, konieczne są inteligentne systemy, dające możliwość skutecznego zarządzania infrastrukturą, w oparciu o lokalne rozproszone źródła, co będzie przemianą rewolucyjną np. w przypadku potencjalnego black out u. Wypadnięcie źródła rozproszonego nie ma znaczenia dla funkcjonowania całej sieci i wyklucza ryzyko black out u. W energetyce najważniejsze są koszty i stałość zasilania, bowiem jego zachwianie ma wpływ na kondycję gospodarki. Inteligentne sieci minimalizują to ryzyko. Technologie smart będą coraz tańsze, Polska od strony technologicznej jest gotowa ale systemy rozliczeniowe nie są zintegrowane i nie ma teraz takiej konieczności. Odczuwalny efekt pojawi się w momencie masowego wdrożenia w gospodarstwach domowych, które zużywają energię na poziomie 25% w skali Polski. Czynnik popytowy będzie miał coraz większe znaczenie, bo ceny energii będą rosły. Prawdopodobnie Polsce uda się wdrożyć te technologie do roku 2016, ale związane jest to z wdrożeniem szerokopasmowego Internetu w Polsce, który jest silnym narzędziem wsparcia dla budowy sieci inteligentnych. Szerokopasmowy dostęp do Internetu jest dziś równie ważny, jak infrastruktura drogowa, kolejowa czy telekomunikacyjna. Ma bezpośredni wpływ na rozwój poszczególnych regionów, ale również przekłada się na wysokość PKB. 104

105 Cezary Tomasz Szyjko Rysunek 4. Światowa konsumpcja pierwotna z podziałem na rodzaje paliw. Źródło: BP Statistical Review of World Energy Integracja energetyczna Europy UE potrzebuje w pełni funkcjonującego, połączonego i zintegrowanego wewnętrznego rynku energii. Rynek gazu zarówno w Polsce, jak i w UE czeka gruntowna przebudowa. Jednym z podstawowych celów tych zmian jest pełna liberalizacja sektora energetycznego. W związku z przyspieszonym rozwojem gospodarki światowej szybko wzrasta zapotrzebowanie na energię, ale równocześnie trwa walka ze wzrostem emisji gazów cieplarnianych. To sprzyja wzrostowi zapotrzebowania na stary, dobry gaz ziemny jako z jednej strony ekologiczne paliwo, a z drugiej, jako doskonały surowiec do produkcji energii elektrycznej. Struktura polskiego rynku gazu ziemnego będzie odgrywała coraz większą rolę dla rozwoju prac, związanych z gazem niekonwencjonalnym, z którym Polska wiąże wielkie nadzieje. Zastanawiając się nad stanem gazownictwa w Europie i konsekwencjami, wynikającymi z tego dla europejskiej energetyki teraz i w przyszłości, analizujemy tło historyczne narodzin światowego gazownictwa oraz w szczególności omawiamy strukturę polskiego gazownictwa w okresie jego narodzin. Bez wątpienia pokłosiem ponad 100 letniego okresu zaborów (czasu ważnych przemian przemysłowych) są różne problemy, związane z kształtowaniem modelu rynku gazu w Europie Środkowo Wschodniej. Przez wiele lat polityka energetyczna nie była priorytetem integrujących się państw kiedy tworzono Wspólnotę Europejską, nie zastanawiano się nad tym problemem. Ramy instytucjonalne stworzono tylko dla sektora węglowego (Europejska Wspólnota Węgla i Stali) oraz dla sektora energii atomowej (Europejska Wspólnota Energii Atomowej). Dopiero w 1964 r. państwa członkowskie Wspólnoty Europejskiej podpisały protokół w sprawie podjęcia kroków w stronę wspólnej polityki energetycznej, a na jego podstawie Rada UE opracowała w 1969 r. jej wstępne podstawy. W wyniku pogłębiającego się kryzysu energetycznego, 17 grudnia 1973 r. Rada UE powołała do życia Komitet Energetyczny, którego zadaniem było przygotowanie dla Komisji Europejskiej projektów uchwał w zakresie polityki energetycznej oraz kontrolowanie wprowadzania w życie przez państwa członkowskie środków polityki energetycznej, wypracowanych przez WE Szyjko C.T., Przyszłość UE, [w:] Europa po zimnej wojnie. Wybrane problemy; (red.) K.Malak; Wyd. Akademii Świętokrzyskiej, Piotrków Tryb. 2006, s

106 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Tabela 1. Dokumenty prawne III Pakietu Energetycznego. Regulacja EC 713/2009 z 13 lipca 2009 ustanawiająca Agencję ds. Współpracy Regulatorów Energii (ACER); Regulacja EC 714/2009 z 13 lipca 2009 o warunkach dostępu do sieci związanych z transgraniczną wymianą energii elektrycznej; Regulacja EC 715/2009 z 13 lipca 2009 o warunkach dostępu do sieci przesyłowych gazu ziemnego; Dyrektywa 2009/72/EC z 13 lipca 2009 dotycząca wspólnych zasad dla wewnętrznego rynku energii elektrycznej; Dyrektywa 2009/73/EC z 13 lipca 2009 dotycząca wspólnych zasad dla wewnętrznego rynku gazu ziemnego 11. Źródło: opracowanie własne Dopiero w listopadzie 1983 r. Rada Ministrów Gospodarki Energetycznej przyznała Wspólnocie pełnomocnictwo do prowadzenia samodzielnej polityki energetycznej. Następnie Komisja WE w raporcie Rynek wewnętrzny energii (maj 1988 r.) ujęła w formie programu szereg inicjatyw, w tym liberalizację europejskiego rynku energetycznego, zwłaszcza w sektorze węgla i elektryczności. Zrozumiano, że w celu wzmocnienia polityki energetycznej należy usprawnić współpracę między krajami członkowskimi UE oraz korelacje między polityką wewnętrzną i zewnętrzną. Przy rozwijaniu wspólnej polityki energetycznej zaczęto uwzględniać bezpieczeństwo, potrzeby i interesy energetyczne państw członkowskich 12. Idea nowej polityki energetycznej zrodziła się na skutek kryzysu gazowego z 2006 r. 1 stycznia 2006 r. Rosja wstrzymała dostawy gazu ziemnego na Ukrainę, co było wynikiem sporu między tymi krajami, dotyczącego ceny gazu oraz opłat tranzytowych. Pomimo, że został szybko zażegnany (4 stycznia 2006 r. wznowiono dostawy) to kraje Unii Europejskiej odnotowały zmniejszenie rosyjskich dostaw. Od 3 marca 2011 r. powinna następować w Polsce implementacja III Pakietu Energetycznego Unii Europejskiej, który ma zabezpieczyć przyszłość energetyczną Europy oraz wprowadza w życie unijne przepisy zapewniające większą konkurencję na europejskim rynku 13. Regulacja prawna rynku gazowego jest formą przeciwdziałania negatywnym skutkom istnienia rynków silnie zdominowanych, zaś jej podstawowymi celami efektywność gospodarowania oraz ochrona interesów odbiorców ci Pakiet Energetyczny wszedł w życie z dniem 3 marca 2011 roku. Niestety do dnia dzisiejszego nie wszedł on w Polsce w pełnym zakresie. 12 Kausch K., Europe and Russia, Beyond Energy, and russia beondenergy [ ] 13 The third legislative package for an internal EU gas and electricity market: 2 Dyrektywy: 2009/73/EC, 2009/72/EC; 3 Rozporządzenia: 715/2009, 714/2009, ACER 713/2009). 106

107 Cezary Tomasz Szyjko Rysunek 5. Europejski model energii Źródło: [ ] Modernizacja infrastruktury Planowana obecnie infrastruktura energetyczna musi być zgodna z długoterminowymi decyzjami politycznymi po obu stronach. W celu koordynowania i optymalizacji rozwoju sieci, na skalę całego kontynentu, konieczna jest nowa strategia UE wobec Rosji. Całkowicie wyposażony w połączenia międzysystemowe rynek europejski, zwiększy bezpieczeństwo dostaw i pomoże ustabilizować ceny dla konsumentów, zapewniając dostawy energii elektrycznej i gazu do miejsc, w których są one potrzebne. Przede wszystkim zintegrowana infrastruktura europejska zapewni europejskim obywatelom i przedsiębiorstwom dostęp do źródeł energii po przystępnych cenach. To z kolei będzie miało pozytywny wpływ na realizacje celu polityki europejskiej na 2020 r., zakładającego utrzymanie silnej, zdywersyfikowanej i konkurencyjnej bazy przemysłowej w Europie. Zarówno Europa, jak i Rosja potrzebują w pełni funkcjonującego, połączonego i zintegrowanego wewnętrznego rynku energii gazu i ropy naftowej. Reasumując, w kwestiach energetycznych Rosja potrzebuje Europy dokładnie w takim samym stopniu, jak Europa Rosji. Innymi słowy, w sektorze energetycznym udzielamy sobie wzajemnego wsparcia. Podstawą współpracy powinien stać się Trzeci Europejski Pakiet Energetyczny, ale należałoby wypracować nową metodę strategicznego zarządzania zasobami energetycznymi i infrastrukturą, na podstawie klarownych zasad, oraz wskazania narzędzi, mających zapewnić terminową realizację, szybsze zatwierdzanie, lepszą alokację kosztów i ukierunkowanie finansowania, w celu wzmożenia dwustronnych inwestycji prywatnych. W UE istnieje pilna potrzeba rozbudowy istniejących pojemności magazynowych. Wynika ona z zaprezentowanych zmian prawnych oraz nieuchronnej liberalizacji rynku. W Polsce znajduje się wiele struktur geologicznych, które można wykorzystać do budowy, zarówno dużych, jak i niewielkich, lokalnych podziemnych magazynów gazu (PMG). Szacunkowe obliczenia pokazują, że ceny, które mogłyby być oferowane przez komercyjne PMG w Polsce, będą konkurencyjne na 107

108 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje rynku europejskim, pod warunkiem zapewnienia wykorzystania zainstalowanych pojemności czynnych. Podziemne magazyny z pewnością opłacą się polskiej gospodarce. Pomimo zmian i liberalizacji rynku gazowego w Europie rośnie znaczenie PMG jako gwarancji zapewnienia tego bezpieczeństwa. Obecnie nie ma kraju, który by nie posiadał PMG lub nie budował nowych. Większość państw w Unii Europejskiej jest uzależniona od importu gazu ziemnego i zmuszona do utrzymywania zapasów i tworzenia magazynów strategicznych na wypadek technicznych lub politycznych trudności z dostawami gazu. Dostęp do usług magazynowania gazu ziemnego ma kluczowe znaczenie w dzisiejszych czasach, a podziemne magazyny gazu odgrywają bardzo ważną rolę w systemie przesyłu i dystrybucji gazu ziemnego. W najbliższej przyszłości bezpieczeństwo energetyczne Unii będzie zależeć od strategicznych inwestycji w innowacyjne instalacje magazynowe. Znaczenie PMG będzie rosło jako kluczowego elementu europejskiego systemu gazowniczego, optymalizującego jego pracę, zapewniającego równoważenie sezonowych wahań popytu oraz będących zabezpieczeniem, w przypadku nagłego przerwania dostaw. PMG mogą być traktowane jako strategiczne narzędzie zwiększające bezpieczeństwo energetyczne państw lub mogą być przedsięwzięciami komercyjnymi, które muszą zapewnić zwrot poniesionych nakładów i przynieść zysk z tytułu opłat, pobieranych za magazynowanie. W państwach, w których znaczna część gazu pochodzi z importu, powinny znajdować się zarówno magazyny strategiczne, jak i komercyjne. Wydaje się, że należy rozważyć również różne sposoby finansowania PMG, w zależności od ich funkcji, w tym udział państwa w kosztach utrzymania, wymaganych prawem rezerw strategicznych. Rysunek 6. Zasoby i wydobycie gazu w Polsce. 108

109 Cezary Tomasz Szyjko Wnioski dla Polski Nowe Prawo Gazowe zmienia reguły rządzące sektorem, dostosowuje polskie regulacje do wymagań Trzeciego Pakietu Energetycznego i rozporządzenia o bezpieczeństwie dostaw oraz tworzy ramy prawne dla procesu uwolnienia rynku gazu. Nowa ustawa likwiduje koncesje na obrót gazem i wprowadza nowy system koncesji na sprzedaż gazu. Wprowadza możliwość handlu gazem ziemnym w tzw. wirtualnym punkcie, tworząc ramy prawne dla rynku tradingu gazowego i handlu nadwyżkami gazu. Zmienia modele głównych umów, stosowanych na rynku gazowniczym, uelastycznia zasady kształtowania taryf, wprowadza system upustów cenowych dla odbiorców wrażliwych, nakłada nowe obowiązki na operatorów systemowych i na nowo rozdziela uprawnienia nadzorcze i regulacyjne nad rynkiem gazu. Projekt ustawy Prawo gazowe jest dopiero na początkowym etapie prac legislacyjnych. Pozwoli to zapewne na wyeliminowanie oczywistych omyłek, występujących w projekcie, takich jak np. brak wskazania, iż sprzedaż awaryjna dotyczy tylko sytuacji, gdy dotychczasowy sprzedawca zaprzestał sprzedaży, z przyczyn nieleżących po stronie odbiorcy (a nie np. z powodu zadłużenia odbiorcy). Inne rozwiązania, takie jak konstrukcja umowy kompleksowej, przewidująca, iż odbiorca będzie miał zawarte co najmniej dwie umowy (tj. umowę zawierającą postanowienia umowy sprzedaży i innych umów oraz odrębną umowę z operatorem) są co najmniej kontrowersyjne i wymagają analizy co do zasadności przyjętego rozwiązania. Również proponowany sposób zmiany sprzedawcy, wymagający składania wypowiedzenia umowy do operatora, musi budzić zdziwienie. Trzeba mieć jednak nadzieję, że szeroko przeprowadzane konsultacje społeczne i żywe zainteresowanie całego sektora, pozwolą na wypracowanie rozwiązań, które rozpoczną cywilizowany rozwój rynku gazu ziemnego w Polsce. Tabela 2. Nowe ramy prawne. Źródło: K.Radzewicz, [ ] Bez skutecznego oddzielenia sieci od działalności w zakresie produkcji i dostaw, istnieje ryzyko dyskryminacji nie tylko w zakresie eksploatacji sieci, ale także w zakresie środków, zachęcających przedsiębiorstwa zintegrowane pionowo, do dokonywania stosownych inwestycji w swoje sieci. Skuteczny rozdział może zostać zapewniony jedynie poprzez wyeliminowanie środków, zachęcających przedsiębiorstwa zintegrowane pionowo, do stosowania dyskryminacji wobec konkurentów, w odniesieniu do dostępu do sieci oraz w zakresie inwestycji. Rozdział własności który należy rozumieć jako wyznaczenie właściciela sieci na operatora systemu i zachowanie jego niezależności od wszelkich interesów związanych z dostawami i produkcją, jest wyraźnie skutecznym i stabilnym sposobem na rozwiązanie nieodłącznego konfliktu interesów oraz zapewnienie bezpieczeństwa dostaw. 109

110 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje Zgodnie z zasadami rozdziału własności, państwa członkowskie powinny być zobowiązane do zapewnienia, aby ta sama osoba lub te same osoby, nie były uprawnione do sprawowania kontroli nad przedsiębiorstwem produkującym lub dostarczającym gaz i jednocześnie do sprawowania kontroli, lub wykonywania jakichkolwiek praw, względem operatora systemu przesyłowego. Każdy system rozdziału powinien skutecznie eliminować wszelkie konflikty interesów między producentami, dostawcami i operatorami systemów przesyłowych, aby stworzyć zachęty do niezbędnych inwestycji i zagwarantować dostęp nowych podmiotów, wchodzących na rynek w ramach przejrzystego i skutecznego systemu regulacyjnego, i nie powinien tworzyć zbyt kosztownego systemu regulacyjnego, dla krajowych organów regulacyjnych. związanych z dostawami i produkcją. Kolejnym krokiem, który ma ułatwić wchodzenie na polski rynek nowych podmiotów, zainteresowanych prowadzeniem obrotu gazem z zagranicy oraz wsparciem dla funkcjonujących na polskim rynku prywatnych firm gazowych, prowadzących już taką działalność w Polsce, dotychczas na niewielką skalę, jest istotna nowelizacja ustawy z 16 lutego 2007 roku o zapasach ropy naftowej i gazu ziemnego... jaką przyjął parlament RP w ostatnim dniu swojej VI kadencji, tj r. Zgłaszane są postulaty, aby w miejsce zapisów utrzymywania zapasów obowiązkowych, a także skomplikowanych warunków magazynowania poza granicami Polski, ponownie rozważyć koncepcję zapasów strategicznych, których obowiązek utrzymania spoczywałby na organach naszego państwa, zaś ich uruchamianie, związane z uniknięciem zagrożenia bezpieczeństwa gazoenergetycznego, obejmowałoby wszystkich odbiorców. W celu obniżenia kosztów dla budżetu państwa każde przedsiębiorstwo sprzedające gaz miałoby obowiązek np. uwzględniać opłatę za bezpieczeństwo, którą finansowałby odbiorca. Pomysł taki wynika z preambuły rozporządzenia Unii Europejskiej z 20 października 2010 roku w sprawie środków, zapewniających bezpieczeństwo dostaw gazu, tzw. SOS. Prawo gazowe przewiduje utrzymanie administracyjnej regulacji cen gazu ziemnego (poprzez obowiązek przedkładania taryf lub metodologii do zatwierdzenia przez Prezesa URE), co może budzić istotne wątpliwości, co do zgodności nowych przepisów, z prawem Unii Europejskiej 14. Pozostają zatem aktualne wszystkie zastrzeżenia, sformułowane wobec Polski przez Komisję Europejską, w uzasadnionej opinii z 6 kwietnia 2011 r., dotyczące naruszenia przez Polskę przepisów Dyrektywy 2009/73, w związku z utrzymywaniem regulowanych cen gazu ziemnego. Co więcej, ponieważ Projekt Prawa gazowego wprowadza osobny mechanizm ochrony odbiorców wrażliwych, przed zbyt wysokimi cenami gazu, strona polska nie będzie już mogła argumentować, że ceny regulowane są niezbędne 15. Podsumowanie Biorąc pod uwagę rozwój gospodarczy Europy, technologia gazu łupkowego jest technologią przejściową, uzupełnieniem innych czystych źródeł. Wydobycie gazu łupkowego jest projektem długoletnim i potrzebującym społecznego dialogu oraz poparcia władz samorządowych. Najwięcej kontrowersji będą wzbudzać kwestie środowiskowe i skład substancji chemicznych w płynie szczelinowania. Eksploatacja gazu oczywiście wpływa na środowisko, ale wydaje się, że ten poziom ingerencji dopuszczalny. Podstawą sukcesu jest edukacja społeczeństwa. Pożądane jest tu zaangażowanie państwa w usuwanie wspomnianych barier i stworzenie jak najlepszych warunków do inwestowania, na przykład opracowanie systemu zachęt finansowych dla przyszłych inwestorów, wydobywających gaz niekonwencjonalny w Polsce, podobnie jak miało to miejsce w USA Bigaj W., kancelaria GWJ Gramza, Wawrzynowicz, Jenerowicz Sp.k., wypowiedź na Konferencji r. [ ] 15 Ibidem. 16 Zobacz: U.S. Energy Information Administration, Drilling Sideways: A Review of Horizontal Well Technology and Its Domestic Application, DOE/EIA TR 0565,

111 Cezary Tomasz Szyjko Potrzebna jest ogólnokrajowa kampania, która podniesie świadomość społeczeństwa oraz uzupełni wiedzę w zakresie energii z łupków. Ten sektor potrzebuje prostych i transparentnych regulacji prawnych, przyjaznych dla inwestorów. Obecnie trwa proces nowelizacji polskiego Prawa górniczego i geologicznego. Bez dobrego prawa Polska nie będzie w stanie wykorzystać potencjału gazu łupkowego. Pojawienie się nowego sektora, na podobieństwo sektora finansowego, uzasadnia powołanie do życia nawet instytucji, regulującej warunki bezpieczeństwa i efektywności tego sektora, na wzór np. Komisji Nadzoru Finansowego. Polską opinię publiczną czeka jeszcze wiele debat na temat optymalnego i zrównoważonego wykorzystania naszych zasobów łupkowych. Ważne, aby nie była to dyskusja o Yeti, a debata o poprawie konkurencyjności, zwiększeniu naszego bezpieczeństwa klimatyczno energetycznego. Rysunek 7. Planowany rozwój infrastruktury importowej, przesyłowej i PMG. W szybkim tempie muszą nastąpić zmiany w rozporządzeniach w sprawie zasad funkcjonowania rynku, tak aby uwzględniały zmiany kształtu tego rynku. Reasumując, bez szybkiego uchwalenia prawa gazowego najlepiej połączonego z ustawą o zapasach i równoległego przyjęcia zmienionych kluczowych rozporządzeń: taryfowego i systemowego, a następnie możliwie szybko zmienionych instrukcji ruchu i eksploatacji sieci ogromnie trudno będzie liberalizować polski rynek gazu ziemnego. Przeanalizowane projekty nowelizacji prawa energetycznego są jedynie próbą zarysowania całokształtu zmian, dokonujących się nieprzerwanie w polskim sektorze gazowym. Trzeba mieć jednak nadzieję, że szeroko przeprowadzane konsultacje społeczne jak i żywe zainteresowanie całego sektora pozwolą na wypracowanie rozwiązań, które rozpoczną rozwój rynku gazu ziemnego w Polsce 17. Wydaje się, że docelowa struktura, zarówno systemów inteligentnego opomiarowania, jak i rynku opomiarowania, powinna być przedmiotem dalszych dyskusji. Celowe jest też wdrażanie pilotaży o dużej skali testujących różne warianty rozwiązań. Jest ważne aby sektor gazowniczy wypracował własny, najbardziej odpowiadający interesom branży i naszych indywidualnych 17 Przystański R., kancelaria WKB Wierciński, Kwieciński, Baehr Sp. k., wypowiedź na Konferencji r. [ ] 111

112 Modelowanie rynku gazu w UE: trendy, wyzwania, innowacje odbiorców gazu, model inteligentnego opomiarowania i struktury rynku opomiarowania z uwzględnieniem i poszanowaniem działań już realizowanych przez innych uczestników rynku. Decyzje dotyczące rozwoju sieci inteligentnych powinny zostać skorelowane z innymi ważnymi dla sektora elektroenergetycznego decyzjami. W planach i debatach politycznych dotyczących inteligentnych sieci należy uwzględnić skutki cenotwórcze wdrażanych rozwiązań oraz ich wpływ na bezpieczeństwo energetyczne kraju. Nowa pozycja gazu została zauważona i uwzględniona w procesach gospodarczych. Konsolidacja rynków gazu jest nieunikniona. Obecnie nie ma europejskiego rynku handlu gazem, bo nie ma też technicznych możliwości do efektywnego i elastycznego transportu gazu pomiędzy krajami europejskimi. W dzisiejszych warunkach ceny ustala główny dostawca gazu do Europy 18. Polska ma szanse sprawnego funkcjonowania na integrującym się europejskim rynku gazu. Do tego potrzebna jest infrastruktura energetyczna sprawnie obsługująca całą Europę 19. Polska może i powinna być ważnym partnerem na europejskim rynku gazu, a polska gazowa infrastruktura przesyłowa powinna służyć całej Europie. Rysunek 8. Terminal LNG w Świnoujściu w budowie. Źródło: [ ] Bibliografia 1. Bigaj W., kancelaria GWJ Gramza, Wawrzynowicz, Jenerowicz Sp.k., wypowiedź na Konferencji r. [ ] 2. Conclusions on energy, European Council on , PCE 026/11, pełny tekst na: [ ]Chadan J., Wywiad z Prezesem Zarządu GAZ SYSTEM, Nowa Energia 2012, nr 1(25). 3. Kausch K., Europe and Russia, Beyond Energy, andrussia beond energy [ ] 18 Chadan J., Wywiad.. op.cit. 19 Onichimowski G., Wywiad z Prezesem Zarządu Towarowej Giełdy Energii, Nowa Energia 2012, nr 1(25), s

113 Cezary Tomasz Szyjko 4. Komunikat Komisji do PE, Rady, EKE S i Komitetu Rregionów: Priorytety w odniesieniu do infrastruktury energetycznej na 2020r. i w dalszej perspektywie plan działania na rzecz zintegrowanej europejskiej sieci energetycznej, KOM(2010) 677 wersja ostateczna. Materiały z debaty pt.: LIBERALIZM CZY LESEFERYZM?, , Muzeum Gazownictwa, Warszawa. [ ] 5. Matkowski A., wystąpienie na IV edycji międzynarodowej konferencji CEE GAS SUMMIT "Polska a światowy rynek gazu", Warszawa , [ ] 6. Onichimowski G., Wywiad z Prezesem Zarządu Towarowej Giełdy Energii, Nowa Energia 2012, nr 1(25). 7. Przystański R., kancelaria WKB Wierciński, Kwieciński, Baehr Sp. k., wypowiedź na Konferencji r. [ ] 8. Rozporządzenie Parlamentu Europejskiego i Rady (UE) NR 994/2010 z dnia 20 października 2010 r. w sprawie środków zapewniających bezpieczeństwo dostaw gazu ziemnego i uchylenia dyrektywy Rady 2004/67/WE. 9. Sikora A., Strategiczne aspekty inwestycji opartych o gaz ziemny, wystąpienie na konferencji Rynek gazu w Polsce, , [ ] 10. Szyjko C.T., Zmiana priorytetów energetycznych w regionach, Europejski Doradca Samorządowy. Fundusze Inwestycje Finansowanie, Kwartalnik polskich samorządów i przedsiębiorstw komunalnych, nr. 3(18), Warszawa Szyjko C.T., Liberalizacja polskiego rynku gazu a dokończenie budowy jednolitego rynku UE, Wiadomości Naftowe i Gazownicze czasopismo naukowo techniczne, nr 6(158), Kraków Szyjko C.T., Rosija i Evropa: energosoyuz ili energokonflikt? [in:] Navstrecu Evropie/Towards Europe (red.) A.A.Kassianova, Tomsk State University, Tomsk Szyjko C.T., Priorytety gazowo naftowego dialogu UE Rosja w okresie Polskiej Prezydencji, Wiadomości Naftowe i Gazownicze, nr 7(158), Kraków Szyjko C.T., Wyzwania prawno ekonomicze zarządzania rynkiem gazu w Polsce, Dwumiesięcznik Zarządzanie i Edukacja, nr 73, Zeszyty Naukowe Szkoły Wyższej im. Bogdana Jańskiego, Warszawa Szyjko C.T., Przyszłość UE, Europa po zimnej wojnie. Wybrane problemy; (red.) K.Malak; Wyd. Akademii Świętokrzyskiej, Piotrków Tryb U.S. Energy Information Administration, Drilling Sideways: A Review of Horizontal Well Technology and Its Domestic Application, DOE/EIA TR 0565, Wojtowicz R., Dywersyfikacja dostaw gazu dla Polski a wymienność paliw wymagania prawne odnośnie jakości gazów rozprowadzanych w kraju praz możliwe kierunki dywersyfikacji, Wiadomości Naftowe i Gazownicze nr 1(53), Kraków The EU Gas Market Modeling: the Tendencies, the Challenges and the Innovations Recently, the radical changes have been made within functioning of the European natural gas market. These changes are connected with thriving global economy, the natural gas usage popularization and the legislation changes in gas markets. The natural gas is meant to have the complete liberalization in Poland. The own energy sources quest, the terminal opening in the LNG in Świnoujście and the North South gas connection construction are Poland s priorities. What are the chances of such projects realization? Will the funds be found for its finance? The essential issues conditioning the competing gas market creation in Poland, including problems concerning the monopolists partition, the hindered third party access to the infrastructure and the market abuse in the energy sector are analyzed in the paper. Keywords: economy innovation, fuel market liberalization, technology transfer, new gas law, EU homogeneous market competitiveness 113

114 Decyzja o dywidendach a koszty agencji Agata Gniadkowska * Decyzja o dywidendach a koszty agencji Streszczenie: W artykule zaprezentowano rezultaty badania dotyczącego zależności pomiędzy występowaniem w firmie kosztów agencji, a decyzją o wypłacie dywidendy lub podniesieniu już istniejącej. Badanie przeprowadzono dla spółek notowanych na Warszawskiej Giełdzie Papierów Wartościowych. Uzyskane rezultaty wskazują na istnienie istotnej statystycznie relacji pomiędzy występowaniem w spółce kosztów agencji a decyzjami o wypłacie dywidendy. Słowa kluczowe: polityka dywidendy, teoria kosztów agencji Wstęp Długoterminowy sukces każdej spółki zależy od dobrej strategii, właściwego zarządzania, aktywów o wysokiej wartości, istnienia popytu na jej produkty i usługi oraz dostępu do kapitału inwestycyjnego. Dostęp do kapitału zależy od wielu czynników, jednak niewielu inwestorów zaangażuje istotne środki w firmę 1, która nie posiada stabilnej struktury zarządzania. Zarząd i kierownictwo muszą odpowiadać przed akcjonariuszami za wyniki działalności spółki i administrowanie jej majątkiem. Odpowiedzialność kierownictwa firmy rozumiemy jako sposób, w jaki osoby odpowiadające za bieżące zarządzanie przedsiębiorstwem rozliczają się z realizacji swoich obowiązków przed akcjonariuszami i innymi podmiotami zapewniającymi spółce środki na prowadzenie działalności. Drugim istotnym zagadnieniem jest polityka informacyjna dotyczy bowiem sposobu, w jaki władze spółki informują innych zainteresowanych (tzn. akcjonariuszy, potencjalnych inwestorów, pracowników, instytucje nadzoru i inne strony zainteresowane sprawami spółki) o podejmowanych przez siebie działaniach. Jednak dobre realizowanie tych założeń dotyczących kierowania firmą musi być poparte działaniami, które są zbieżne dla wszystkich, albo chociaż dla większości interesariuszy. Jeżeli te założone cele są różne, to powstaje wtedy sprzeczność interesów pomiędzy poszczególnymi zainteresowanymi grupami. Tak zaczynają rodzić się w organizacji konflikty, które próbuje wyjaśnić teoria agencji. Każdy konflikt generuje także jakieś koszty związane z jego rozwiązaniem. Obecnie w teorii agencji rozróżnia się trzy rodzaje kosztów: kapitału własnego, wolnej gotówki i długu. Podstawowa teza rozprawy brzmi: koszty agencji w istotny sposób wpływają na decyzję podejmowaną przez Walne Zgromadzenie Akcjonariuszy dotyczącą wypłaty dywidendy. W małej firmie, gdzie istnieje rozdzielenie własności od zarządzania problemy dotyczące agencji występują również w takim samym stopniu jak w dużych korporacjach. Właściciele jednak często tego nie dostrzegają lub nie traktują tego w skali problemu. Badanie, które przedstawiono jest wzorowane na badaniu, jakie przeprowadzili Kelly Brunarski, Yvette Harman i James B. Kehr 2 dla rynku amerykańskiego. Sprawdzali oni jakie * Autorka jest pracownikiem Uniwersytetu Łódzkiego, Wydziału Ekonomiczno Socjologicznego. Od kilku lat zajmuję się problematyką związaną z rynkiem kapitałowym. Jej główne zainteresowania dotyczą płynności akcji na Giełdzie Papierów Wartościowych w Warszawie i jej wpływu na oczekiwaną przez inwestorów stopę zwrotu. 1 W dalszej części pracy słowa: spółka, przedsiębiorstwo i firma będą używane jako synonimy. 2 Brunarski K., Harman Y., Kehr J., Agency costs and the dividend decision, Corporate Ownership & Control, Virtus InterPress

115 Agata Gniadkowska zachodzą zależności pomiędzy występowaniem w firmie kosztów agencji, a decyzją o wypłacie specjalnej dywidendy lub podniesieniu już istniejącej. Rezultaty ich pracy zostały opublikowane w artykule pt. Agency costs and the dividend decision. Próba jaka została wybrana do przeprowadzenia tego typu badania opierała się na spółkach, których akcje są notowane na Warszawskiej Giełdzie Papierów Wartościowych. Wybrane spółki w latach chociaż jeden raz w tym okresie zdecydowały się na wypłatę dywidendy. 1. Cel badania Jednym ze sposobów rozwiązania konfliktów pojawiających się pomiędzy właścicielami a managerami jest polityka dywidendy. Badania empiryczne dotyczące tego problemu, a w szczególności decyzji o wypłacie dywidendy są prowadzone przez wielu badaczy dla rynków wysokorozwiniętych. W swoich pracach udowadniali oni relacje zachodzące pomiędzy kosztami agencji i wypłacanymi w spółkach akcyjnych dywidendami. Badanie przeprowadzone w tej pracy będzie wzorowane na badaniu jakie zaprezentowali Kelly Brunarski, Yvette Harman i James B. Kehr dla rynku amerykańskiego. Celem przedmiotowego badania jest pokazanie zależności zachodzącej pomiędzy decyzją podejmowaną przez akcjonariuszy, czy wypłacić w danym roku dywidendę, czy nie, a kosztami agencji jakie występują w spółkach. Występowanie w spółce kosztów agencji jest bardzo trudne do bezpośredniej obserwacji empirycznej. W badaniu przyjęto założenie, iż zmienną reprezentatywną dla tych kosztów jest udział akcjonariuszy instytucjonalnych. Posiadając znaczy udział w akcjonariacie są oni świadomi występowania kosztów agencji wynikających z konfliktu pomiędzy właścicielami a zarządzającymi. Jednocześnie dążą do pomniejszenia tych kosztów. Jednym z takich kroków jest zmniejszenie strumienia Cash Flow pozostającego do dyspozycji managerów spółki przez wypłatę dywidendy. Z tego też względu zgodnie z wynikiem niektórych badań w spółkach z większościowym udziałem akcjonariuszy instytucjonalnych częściej podejmuje się decyzje o wypłacie dywidendy aniżeli w pozostałych spółkach 3. Udział akcjonariuszy instytucjonalnych nie jest oczywiście jedynym czynnikiem, który może być reprezentatywny dla występowania kosztów agencji, ale ze względu na możliwość kompletowania danych dla celów badań empirycznych, mogłyby być użyte informacje na temat powiązań pomiędzy inwestorami prywatnymi a członkami zarządu, jednak danych na ten temat nie udało się zebrać dla całego zbioru badanych spółek. Badanie przeprowadzone jest w szerszym kontekście, przy uwzględnieniu takich czynników jak: zyskowność, wielkość spółki oraz koszty agencji, które mogą wpływać na decyzję o wypłacie dywidendy. Zmienne niezależne użyte do badania to: logarytm naturalny liczony z przychodów ze sprzedaży danej spółki, odzwierciedlający wielkość analizowanej spółki, stosunek sumy kosztów sprzedaży, kosztów zarządu i pozostałych kosztów operacyjnych do wielkości aktywów spółki, ROA wskaźnik ten jest wyznacznikiem ogólnej zdolności aktywów przedsiębiorstwa do generowania zysku, czyli podpowiada, jak efektywnie kadra kierownicza gospodaruje posiadanym majątkiem, 3 Guo W., Ni J., Institutional ownership and firm s dividend policy, Corporate Ownership & Control; Winter 2008, Vol. 5 Issue 2, str , 9p. 115

116 Decyzja o dywidendach a koszty agencji ROE wskaźnik ten jest jednym z najważniejszych wskaźników z punktu widzenia właściciela. Stopa zwrotu z kapitału własnego nazywana jest często rentownością kapitałów własnych. Wskazuje on bowiem procentowo zarobek właścicieli firmy, EPS przedstawiający jaka część zysku netto wypracowanego przez spółkę przypada na jedną wyemitowaną akcję, wielkość udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki. Przeprowadzone estymacje mają głównie na celu pokazanie zależności pomiędzy decyzją: czy wypłacić, czy nie wypłacać dywidendy, a kosztami agencji w spółce. Do opisania wpływu zysku na decyzje o wypłacie dywidendy przeanalizowano wpływ trzech wskaźników, ponieważ każdy z nich odnosi się do innego aspektu prezentującego możliwości sprawnego zarządzania spółką przez managerów. W różnych badaniach przeprowadzonych dla dobrze rozwiniętych rynków uwzględnia się tylko po jednym z wyżej wymienionych wskaźników 4, natomiast w przypadku rynku rozwijającego się obserwacja dokonana na podstawie tylko jednego wskaźnika mogłaby nie dać jednoznacznych rozwiązań, szczególnie, że badania przeprowadzone dla poszczególnych wskaźników dają różne wyniki. Na zakończenie policzono współczynnik korelacji, pokazujący, czy istnieje jakakolwiek zależność pomiędzy stopą wypłaty dywidendy, a wielkością udziału akcjonariuszy instytucjonalnych w akcjonariacie danej spółki. W Polsce firmy stosunkowo rzadko decydują się na wypłatę części wypracowanego zysku jako dywidendę dla akcjonariuszy. Może to być wynikiem tego, że w spółce występują koszty agencji. Te koszty uwidocznione są zwłaszcza w spółkach, w których inwestorem posiadającym większościowy pakiet akcji jest instytucja, np. fundusz inwestycyjny, bank, czy Skarb Państwa. W tego typu spółkach akcjonariusze powinni dążyć do wypłaty części zysku w postaci dywidend, natomiast odwrotna sytuacja będzie w spółkach, w których akcjonariat jest rozproszony pomiędzy prywatnych inwestorów. W spółkach, gdzie większość akcji znajduje się w rękach kilku prywatnych akcjonariuszy, koszty agencji są mniejsze, ponieważ często osoby prywatne zasiadają w Radzie Nadzorczej danej spółki albo zajmują stanowiska w Zarządzie. W spółkach z większościowym udziałem prywatnych akcjonariuszy większa część zysku powinna być zatrzymywana, a wypłata dywidendy nie powinna być zjawiskiem częstym i pożądanym, gdyż ci akcjonariusze wchodzący w skład organów kontrolnych lub zarządzających daną spółką mogą uzyskać większe wynagrodzenie uzależnione od rozwoju firmy niż wielkość możliwej do wypłacenia dywidendy. Dość regularny sposób wypłacania dywidendy prezentują jedynie duże spółki, w których większościowy udział miał lub obecnie jeszcze ma Skarb Państwa, jednak nawet one czasem nie mają prawidłowo określonej polityki dywidendy na przyszłe lata. Zależność pomiędzy decyzją podejmowaną przez akcjonariuszy spółki, czy wypłacić w danym roku dywidendę czy nie, a kosztami agencji jakie występują w spółkach zostanie zbadana poprzez konstrukcję modelu ekonometrycznego. Paramenty jego zostaną oszacowane z zastosowaniem Klasycznej Metody Najmniejszych Kwadratów. 2. Źródło danych i dobór próby badawczej W trakcie kompletowania materiału badawczego pojawiły się pewne trudności związane z ograniczeniami w dostępie do danych. W Polsce spółki notowane na Giełdzie Papierów Wartościowych w Warszawie nie mają obowiązku podawania danych dotyczących powiązań rodzinnych pomiędzy akcjonariuszami danej spółki oraz akcjonariuszami a członkami zarządu. Dlatego próba jaka została wybrana do przeprowadzenie tego typu badania obejmuje 98 spółek, których akcje są notowane na Warszawskiej Giełdzie Papierów Wartościowych i w latach choć jeden raz w tym okresie zdecydowały się na wypłatę dywidendy. W badanym okresie 4 Gunay Y., Ozkian A., New insights on the importance of agency costs of corporate debt maturity decision, Applied Financial Economic Letters, 2005,1. 116

117 Agata Gniadkowska uzyskano obserwacje. Poszczególne spółki w tym czasie mogą występować kilkakrotnie. Spowodowane jest to zmianami w wysokości wypłaty dywidendy w kolejnych latach. Dana spółka w jednym okresie może występować w zbiorze spółek, które podniosły dywidendę, w kolejnym roku w zbiorze spółek obniżających wysokość wypłat, a w następnych latach w zbiorze spółek o stałej wysokości oferowanej dywidendy. Do analizy zostały włączone także lata, w których spółki nie wypłacały dywidendy. Dane liczbowe, wykorzystane do wykonania modelu pochodziły z trzech głównych źródeł.: dane o wysokości wypłacanej dywidendy pochodziły z ekonomicznych serwisów internetowych: i dane dotyczące wskaźników rynkowych pochodziły ze statystyk publikowanych przez Giełdę Papierów Wartościowych w Warszawie, dane pochodzące ze sprawozdań finansowych pochodziły z bazy danych NOTORIA. 3. Relacja ceny akcji na ogłoszenie decyzji o wypłacie dywidendy Procedura wypłaty dywidendy jest bardzo złożoną. Dla akcjonariuszy w całej tej procedurze najważniejsze są trzy daty: dzień deklaracji dywidendy (D) dzień ustalenia prawa do poboru dywidendy (Pp) dzień wypłaty dywidendy (W) Walne zgromadzenie akcjonariuszy podejmuje decyzje o wypłacie dywidendy w dniu D. Podczas tego zebrania ustalany jest także dzień wypłaty dywidendy (W) i dzień ustalenia prawa poboru tej dywidendy (Pp). Według regulacji obowiązujących na GPW w Warszawie pomiędzy dniem deklaracji dywidendy i dniem ustalenia prawa do poboru dywidendy powinno upłynąć co najmniej dwa tygodnie. Jest to związane z przepływem informacji odnośnie dywidendy ze spółki do zainteresowanych akcjonariuszy. Podanie w/w dat przez Walne Zgromadzenie Akcjonariuszy jest ważne nie tylko dla właścicieli akcji danej spółki, ale także dla akcjonariuszy innych spółek oraz potencjalnych inwestorów. Akcjonariusz posiadający akcje w dniu ustalenia prawa do poboru dywidendy jest uprawniony do otrzymania tej dywidendy pomimo sprzedania swoich akcji przed dniem wypłaty dywidendy. Natomiast inwestor kupujący akcje po tym dniu musi się liczyć z tym, że nie otrzyma od tych akcji dywidendy za ubiegły rok. Dlatego w dniu następującym po dniu wypłaty dywidendy cena akcji powinna obniżyć się o wysokość dywidendy, przy założeniu pozostałych czynników niezmienionych. W teorii finansów jest prowadzone wiele polemik na temat dokładnej wartości o jaką obniża się cena akcji w następnym dniu po dniu wypłaty dywidendy. Nie ma co do tego zgodności ekonomistów, jednak spadek ceny akcji jest zazwyczaj niższy niż kwota wypłaconej dywidendy, gdyż może być to spowodowane występowania podatku dochodowego. 6 W tabeli 1 przedstawiono zestawienie tego co działo się z dywidendami spółek w danej próbie w podziale na poszczególne lata badanego okresu. 5 Powinno być 98*6 = 588 obserwacji, jednak niektóre spółki zadebiutowały na GPW w Warszawie np. w 2003, dlatego dla takich spółek obserwacje obejmowały tylko 3 lata. 6 Gajdka J., Zarządzanie Finansowe, tom 1 i 2, Fundacja Rozwoju Rachunkowości w Polsce, Warszawa 1998., str

118 Decyzja o dywidendach a koszty agencji Tabela 1. Zmiana dywidendy w poszczególnych latach Razem Dywidenda wzrosła Dywidenda spadła Dywidenda bez zmian Razem Źródło: opracowanie własne Z powyższego zestawienia wynika, że najwięcej jest spółek, w których dywidenda wzrosła. Tylko w 2002 r. było więcej spółek, w których dywidenda spadła w stosunku do spółek podnoszących dywidendę. W kolejnych latach można zaobserwować wzrost ilości spółek, które wypłacały dywidendę niezależnie od jej wysokości. Podział spółek na te, w których zwiększyły, zmniejszyły lub pozostawiły dywidendę bez zmian został uzupełniony o stopy zwrotu z akcji tych spółek w poszczególnych dniach w dniu deklaracji dywidendy, 2 dni przed dniem deklaracji, 1 dzień przed dniem deklaracji, 1 dzień po dniu deklaracji i 2 dni po dniu deklaracji. Stopy zwrotu z akcji w tych dniach zostały porównane ze stopami zwrotu z indeksu giełdowego. Indeksem, który został wykorzystany do porównania jest Warszawski Indeks Giełdowy. Warszawski Indeks Giełdowy obejmuje wszystkie spółki rynku podstawowego notowane na nim na koniec poprzedniego kwartału. Wyniki zostały przedstawione w Tabeli 2. Tabela 2. Zamiana stopy zwrotu z akcji w porównaniu do WIG u w okresie dwóch dni przed i po dniu wypłaty dywidendy Dzień stopa zwrotu z akcji >=od stopy zwrotu z WIG stopa zwrotu z akcji <od stopy Minimum Mediana Maksimum zwrotu z WIG średnia z WIG w porównaniu do średniej z akcji A: Wszystkie firmy n= ,23% 0,00% 12,30% 0,41% ,20% 0,00% 11,21% 0,10% ,00% 0,00% 30,07% 0,54% ,02% 0,00% 22,44% 0,10% ,93% 0,00% 74,10% 0,88% B: Firmy, które zwiększyły wypłacana dywidendę n= ,23% 0,00% 12,30% 0,30% ,00% 0,00% 7,18% 0,12% ,05% 0,00% 30,07% 0,54% ,98% 0,00% 22,44% 0,30% ,26% 0,00% 74,10% 1,66% C: Firmy, które zmniejszyły wypłacana dywidendę n= ,89% 0,00% 12,30% 0,39% ,63% 0,00% 11,21% 0,16% ,00% 0,77% 30,07% 0,83% ,02% 0,00% 21,22% 0,42% ,08% 0,00% 21,60% 1,07% 118

119 Agata Gniadkowska D: Firmy, które nie zmieniły wysokości wypłacanej dywidendy n= ,25% 0,00% 5,15% 0,24% ,20% 0,00% 9,95% 0,28% ,91% 0,00% 5,23% 0,23% ,84% 0,00% 9,95% 0,61% ,93% 0,00% 6,76% 0,08% Źródło: opracowanie własne Część A Tabeli 2 przedstawia zestawienie wszystkich spółek niezależnie od tego co działo się z dywidendą. Wynika z tego, że na dzień przed i w dniu deklaracji dywidendy było więcej spółek, których stopa zwrotu była wyższa niż stopa zwrotu z WIG u, natomiast w pozostałych analizowanych daniach spółki miały niższą stopę zwrotu niż stopa zwrotu z indeksu rynkowego. Mediana w całym tym okresie 5 dni wyniosła zero. Natomiast średnia wartość stopy zwrotu z akcji tylko na dwa dni dniem deklaracji dywidendy była mniejsza niż stopa zwrotu z WIG, a w pozostałych dniach wartości były większe od stóp zwrotu z indeksu rynkowego. Część B Tabeli 2 przedstawia zestawienie firm, które zwiększyły wypłaconą dywidendę. Wynika z tego, że na dzień przed, w dniu deklaracji dywidendy, dzień po i dwa dni po dniu deklaracji dywidendy było więcej spółek, których stopa zwrotu była wyższa niż stopa zwrotu z WIG u, natomiast w dwa dni przed dniem deklaracji dywidendy spółki miały niższą stopę zwrotu niż stopa zwrotu z indeksu rynkowego Mediana w całym tym okresie 5 dni wyniosła zero. Natomiast średnia wartość stopy zwrotu z akcji tylko na dwa dni dniem deklaracji dywidendy była mniejsza niż stopa zwrotu z WIG, a w pozostałych dniach wartości były większe od stóp zwrotu z indeksu rynkowego. Część C Tabeli 2 przedstawia zestawienie firm, które zmniejszyły wypłaconą dywidendę. Wynika z tego, że w dniu deklaracji dywidendy i dzień po dniu deklaracji dywidendy było więcej spółek, których stopa zwrotu była wyższa niż stopa zwrotu z WIG u, natomiast w pozostałych dniach spółki miały niższe stopy zwrotu z akcji niż stopy zwrotu z indeksu rynkowego. Mediana tylko w dniu deklaracji dywidendy przyjęła wartość dodatnią równą 0,77%, natomiast w pozostałych dniach wynosiła zero. Średnia wartość stopy zwrotu z akcji tylko na dwa dni dniem deklaracji dywidendy była mniejsza niż stopa zwrotu z WIG, a w pozostałych dniach wartości były większe od stóp zwrotu z indeksu rynkowego. Część D Tabeli 2 przedstawia zestawienie firm, które nie zmieniły wypłacanej dywidendy. Wynika z tego, że w dniu deklaracji dywidendy i dwa dni po dniu deklaracji dywidendy było więcej spółek, których stopa zwrotu była wyższa niż stopa zwrotu z WIG u, natomiast w pozostałych analizowanych daniach spółki miały niższą stopę zwrotu z akcji niż stopy zwrotu z indeksu rynkowego. Mediana w całym tym okresie 5 dni wyniosła zero. Natomiast średnia wartość stopy zwrotu z akcji tylko w dniu deklaracji dywidendy była większa niż stopa zwrotu z WIG, a w pozostałych dniach wartości były mniejsze od stóp zwrotu z indeksu rynkowego. Z tabeli 2 wynika, że w dniu wypłaty dywidendy było więcej spółek, których stopa zwrotu była wyższa niż stopa zwrotu z WIG u. Natomiast średnia wartość stopy zwrotu z akcji tylko w dniu deklaracji dywidendy była większa niż stopa zwrotu z WIG, a w pozostałych dniach wartości były mniejsze od stóp zwrotu z indeksu rynkowego. Mediana w całym okresie wynosi 0,00%, niezależnie od grupy badanych firm. Zebrane dane pozwalają zaobserwować, iż niezależnie od wielkości wypłacanej dywidendy stopa zwrotu z akcji była wyższa niż stopa zwrotu z indeksu rynkowego, co potwierdza pozytywną reakcje inwestorów na informacje o wypłacie dywidendy. Tylko w przypadku spółek, które pozostawiły wielkość wypłat na tym samym poziome co w roku poprzednim, reakcja inwestorów nie była, aż tak pozytywna, ponieważ tylko w dniu deklaracji stopa zwrotu z akcji była wyższa niż stopa zwrotu z indeksu rynkowego, natomiast w pozostałych dniach stopa zwrotu z akcji była niższa niż stopa zwrotu z WIG u. 119

120 Decyzja o dywidendach a koszty agencji 4. Badanie empiryczne zależności pomiędzy polityką dywidendy a kosztami agencji Celem przedmiotowego badania jest pokazanie zależności zachodzącej pomiędzy decyzją podejmowaną przez akcjonariuszy, czy wypłacić w danym roku dywidendę, czy nie, a kosztami agencji jakie występują w spółkach, reprezentowaną przez zmienną pokazującą wielkość udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki. Przeanalizowana została również teza: stopa wzrostu dywidendy a koszty agencji Zapis modelu w postaci równania liniowego: Y i = α 0 + α 1x 1 + α 2x 2 + α 3x 3 + α 4x 4 + α 5x 5 + α 6x 6 + E i gdzie: zmienna zależna zmienna, której kształtowanie objaśniane jest przez model ekonometryczny za pomocą funkcyjnego zapisu zależności W modelu 1: Y zmienna przyjmująca wartość 1, gdy spółka w danym roku zdecydowała się wypłacić dywidendę, natomiast w pozostałych latach wartość 0. W modelu 2: Y 1 stopa wzrostu wypłaty dywidendy. zmienne niezależne zmienne, które pozwalają na objaśnienie w modelu kształtowania się poszczególnych zmiennych endogenicznych, ale same nie są przedmiotem analizy modelu. x 1 logarytm naturalny liczony z przychodów ze sprzedaży danej spółki, odzwierciedlający wielkość analizowanej spółki; x 2 obrazuje stosunek sumy kosztów sprzedaży, kosztów zarządu i pozostałych kosztów operacyjnych do wielkości aktywów spółki; x 3 EPS przedstawia jaka część zysku netto wypracowanego przez daną spółkę przypada na jedną wyemitowana akcję; x 4 pokazuje wielkość udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki x 5 ROE stopa zwrotu z kapitału własnego; x 6 ROA stopa zwrotu z aktywów; parametry równania α 0, α 1 ; α 2 ; α 3 ; α 4 ; α 5 ; α 6 ; ; reszta równania E i Zestaw zmiennych objaśniających pozostał taki sam dla wszystkich przeprowadzonych obliczeń Szacowanie parametrów modelu Parametry obu modeli zostały oszacowane przy użyciu Klasycznej Metody Najmniejszych Kwadratów (MNK). Spełnia on wszystkie warunki, by móc zastosować MNK: liczba wszystkich obserwacji (502) jest większa od liczby szacowanych parametrów (7) zmienne objaśniające są nielosowe wektory macierzy X są liniowo niezależne det (XTX) 0 7 Zatem oszacowany model 1 tą metodą można zapisać: y = 0, ,0287 * (x 1 ) 0,4544 * (x 2 ) 1,0535 * (x 3 ) 0,1850 * (x 4 ) + 0,0777 * (x 5 ) + 1,1261 * (x 6 ) 7 Łapińska Sobczyk N., Ekonometria, Wydawnictwo Uniwersytetu Łódzkiego, Łódź 1990, str

121 Agata Gniadkowska Oszacowany model 2 tą metodą można zapisać: Y 1 = 1, ,1009 * (x 1 ) + 0,5488 * (x 2 ) 2,9543 * (x 3 ) + 1,4364 * (x 4 ) 0,2571 * (x 5 ) + 2,1918 * (x 6 ) 5.2. Wpływ zmiennych objaśniających na zmienną objaśnianą (test t Studenta) Wpływ zmiennych objaśniających na zmienną endogeniczną może być istotny bądź nieistotny. Fakt ten stwierdzamy poprzez zastosowanie testu t Studenta i na jego podstawie dokonamy weryfikacji hipotez zerowych dotyczących parametrów modelu. Aby ocenić istotność wpływu zmiennej x i na zmienną y t, weryfikujemy hipotezę: H 0 : α j = 0 dany parametr jest istotnie równy zero, zatem nie ma on wpływu na zmienną objaśniającą, więc jest nieistotny w modelu. Przy hipotezie alternatywnej: H 1 : α j 0 dany parametr jest istotnie różny od zera, zatem ma on wpływ na zmienną objaśniającą, więc jest istotny w modelu. Przyjmujemy poziom istotności równy 0,1. Wartość krytyczna t α na tym poziomie istotności przy n k = 495 stopniach swobody wynosi 1,6474. Wyniki uzyskane dla modelu 1: t(α 0 ) 1,709791>1,6474 t(α 1 ) 2,203296>1,6474 t(α 2 ) 3,808182>1,6474 t(α 3 ) 1,77749>1,6474 t(α 4 ) 1,921841>1,6474 t(α 5 ) 0,453811<1,6474 t(α 6 ) 3,377709>1,6474 Jak widać większość parametrów modelu 1 znajduje się w obszarze odrzucenia hipotezy H 0 na rzecz hipotezy alternatywnej H 1, zatem parametry te są istotnie różne od zera i zmienne objaśniające istotnie wpływają na zmienną objaśnianą. Natomiast w obszarze odrzucenia hipotezy alternatywnej H 1 znajduje się parametr α 5, zatem nie jest on istotnie różny od zera i zmienna objaśniająca istotnie nie wpływa na zmienną objaśnianą. Obserwacje potwierdzają istotny wpływ zmiany logarytmu naturalnego z przychodów ze sprzedaży danej spółki, odzwierciedlający wielkość analizowanej spółki, ROA będącego wyznacznikiem ogólnej zdolności aktywów przedsiębiorstwa do generowania zysku, czyli odpowiada, jak efektywnie kadra kierownicza gospodaruje posiadanym majątkiem, EPS ukazujący zyskowność spółki, udziału akcjonariuszy instytucjonalnych w całości akcjonariatu spółki oraz sumy kosztów sprzedaży, kosztów zarządu i pozostałych kosztów operacyjnych do wielkości aktywów spółki na ustalanie, czy spółka w danym roku wypłaci dywidendę. Natomiast bez wpływu na ustalanie, czy spółka w danym roku wypłaci dywidendę ma ROE stopa zwrotu z kapitału własnego nazywana jest często rentownością kapitałów własnych, wskazująca procentowo zarobek właścicieli firmy. 121

122 Decyzja o dywidendach a koszty agencji Wyniki uzyskane dla modelu 2: t(α 0 ) 0,867 < 1, t(α 1 ) 0,635 < 1,6474 t(α 2 ) 0,377 < 1,6474 t(α 3 ) 0,408 < 1,6474 t(α 4 ) 1,222 < 1,6474 t(α 5 ) 0,123 < 1,6474 t(α 6 ) 0,538 < 1,6474 Z powyższych obliczeń wynika, że w modelu 2 wszystkie zmienne objaśniające znajdują się w obszarze odrzucenia H 1 na rzecz hipotezy H 0, zatem wszystkie parametry nie są istotnie różne od zera i zmienne te nie wpływają istotnie na zmienną objaśnianą. Jak wynika z powyższych obliczeń, zmienna reprezentująca koszty agencji ma istotny wpływ na decyzję WZA, czy wypłacić, czy nie wypłacić dywidendy. Natomiast nie ma ona żadnego wpływu na wysokość deklarowanych wypłat. Zmienne reprezentujące zyskowność i wielkość spółki także wywierają istotny wpływ na decyzje o wypłacie dywidendy, a znikomy wpływ na wysokość wypłat. Tylko rentowność kapitałów własnych wskazująca procentowo zarobek właścicieli firmy nie ma żadnego znaczenia w decyzjach o wypłacie dywidendy Korelacja pomiędzy stopą wypłaty dywidendy, a wielkością udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki W poprzednio przeprowadzonych analizach sprawdzana była teza, iż koszty agencji istotnie wpływają na decyzje o wypłacie dywidendy. Wynikało z nich, że jest to zmienna w sposób istotny wpływająca na decyzję, czy dywidendę wypłacić, jednak nie jest istotnie wpływająca na stopę wzrostu dywidendy. Ze względu na otrzymane rezultaty wymienionych analiz dodatkowo przeprowadzono badanie, czy istnieje zależność pomiędzy stopą dywidendy, a udziałem inwestorów instytucjonalnych w akcjonariacie spółki. W tym celu wyliczono współczynnik korelacji liniowej Pearsona określający poziom zależności liniowej między zmiennymi losowymi. Współczynnik korelacji pomiędzy stopą wypłaty dywidendy a wielkością udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki jest dodatni i przyjmuje wartość 0,0464. Oznacza to, że im wyższy jest udział akcjonariuszy instytucjonalnych w całości akcjonariatu spółki tym wyższa będzie stopa wypłaty dywidendy. Współczynnik ten jest jednak bardzo niskiej wartości, co pokazuje niewielką zależność pomiędzy badanymi cechami Interpretacja wyników Dla sprawdzenia jaki wpływ na decyzje Walnego Zgromadzenia o wypłacie dywidendy mają występujące w spółce koszty agencji zostały przeprowadzone estymacje dotyczące powyższych modeli. Oszacowanie parametrów modeli pozwoliły zaobserwować, że tylko model 1 w niewielkim stopniu wyjaśnia badane zjawisko. W tym przypadku istotne znaczenie mają podejmowane przez Walne Zgromadzenie decyzje o wypłacie dywidendy, które są podporządkowane czynnikowi losowemu, który stanowi w tym przypadku charakter i interesy akcjonariuszy lub osób ich reprezentujących. W analizowanym przypadku średnie błędy parametrów nie są zbyt duże, co pokazuje dokładność oszacowania. W modelu 1 większość parametrów znajduje się w obszarze odrzucenia hipotezy alternatywnej H 0 na rzecz hipotezy alternatywnej H 1, zatem parametry te są istotnie różne od zera

123 Agata Gniadkowska i zmienne objaśniające istotnie wpływają na zmienną objaśnianą. Z wykonanych obliczeń wynika, że występowanie w spółce kosztów agencji reprezentowanych w modelu jako udziału akcjonariuszy instytucjonalnych w całości akcjonariatu spółki ma wpływ na podejmowaną decyzje o wypłacie dywidendy. Natomiast w modelu 2 wszystkie zmienne objaśniające znajdują się w obszarze odrzucenia H 1 na rzecz hipotezy H 0, zatem wszystkie parametry nie są istotnie różne od zera i zmienne te nie wpływają istotnie na zmienną objaśnianą. Dlatego też występowanie w spółce kosztów agencji reprezentowanych w modelach jako udziału akcjonariuszy instytucjonalnych w całości akcjonariatu spółki nie ma wpływu na podejmowaną decyzje o wysokości wypłaty dywidendy. Dodatkowo policzenie współczynnika korelacji pomiędzy stopą wypłaty dywidendy a wielkością udziału akcjonariuszy instytucjonalnych w całym akcjonariacie danej spółki pokazało istnienie dodatniej zależności pomiędzy badanymi cechami. Jednak jak wynika z przeprowadzonych obliczeń udało się udowodnić postawioną tezę, że istnieje związek pomiędzy kosztami agencji, reprezentowanymi przez udział akcjonariuszy instytucjonalnych w całości akcjonariatu spółki, a decyzją o wypłacie dywidendy. Jednak związek ten dotyczy tylko decyzji czy spółka wypłaca czy nie wypłaca dywidendy, natomiast nie dotyczy on decyzji o jej wysokości. Należy zauważyć, że zmienna ta uznana za najbardziej związaną z kosztami agencji nie jest jednak równoważna tym kosztom. Tak więc do uzyskanych wyników należy podchodzić z rezerwą, jednak przedmiotowe badanie jest jednym z pierwszych badań ukazujących związek pomiędzy kosztami agencji a polityką dywidendy przeprowadzone dla polskich spółek. Zakończenie Teoria agencji ma szerokie zastosowanie w wyjaśnianiu związków typu agent pryncypał, takich jak: pracodawca pracownik, prawnik klient, nabywca dostawca i inne. Paradygmat teorii zawiera dokładnie określone założenia, które są poprzedzone dedukcją i matematycznym dowodem. Teoria pryncypała agenta jest uniwersalna. Teoria ta wskazuje, który kontrakt jest najbardziej efektywny na różnych poziomach niechęci do ryzyka, niepewności wyniku, informacji. Prosty model zakłada konflikt celów pomiędzy pryncypałem i agentem, łatwo mierzalny wynik oraz agenta, który jest bardziej niechętny ryzyku niż pryncypał, gdyż nie może zdywersyfikować zatrudnienia, a pryncypał może zdywersyfikować inwestycje, więc jest neutralny wobec ryzyka. Związki agencji są obecne na każdym poziomie organizacyjnym; występują w przypadku wszystkich przedsięwzięć wymagających współpracy podmiotów takich jak: przedsiębiorstwa, szkoły wyższe, instytucje administracji publicznej, związki zawodowe, czy rynki nieruchomości. Niemniej jednak w literaturze największe zainteresowanie wzbudzają konflikty w obrębie przedsiębiorstw występujące między managerem a udziałowcem oraz między udziałowcem, a kredytodawcą. Występowanie w spółce kosztów agencji jest bardzo trudne do bezpośredniej obserwacji empirycznej. W badaniu przyjęto założenie, iż zmienną reprezentatywną dla tych kosztów jest udział akcjonariuszy instytucjonalnych. Jednak jest to tylko niewielki fragment analizujący zagadnienie dotyczące kosztów agencji. Podsumowując wykonane badanie należy się odnieść do jego sensowności i celowości. Wartości statystyki t wykazały, że zmienne prezentujące koszty agencji są istotne tylko w modelu 1, gdzie sprawdzane było, czy spółka wypłaca, czy nie wypłaca dywidendy. Natomiast w pozostałych modelach zmienna reprezentująca koszty agencji nie wpływała istotnie na wysokość wypłaty dywidendy. Z powyższych obserwacji wynika, iż nie możemy stwierdzić istnienia dokładnej zależności pomiędzy, tym jaką decyzje podejmie Walne Zgromadzenie Akcjonariuszy odnośnie wypłaty dywidendy, a istnieniem w analizowanych spółkach kosztów agencji. Badania te nie pokazują także wszystkich zależności zachodzących pomiędzy decyzją o wypłacie dywidendy, a tym kto posiada większościowy pakiet akcji danego przedsiębiorstwa. Mogło to być spowodowane także 123

124 Decyzja o dywidendach a koszty agencji trudnościami w uzyskaniu kompleksowych danych obrazujących koszty agencji występującymi w spółce, które można byłoby wykorzystać do przeprowadzenia tego badania. W Polsce zjawisko kosztów agencji jest mało znane i dopiero na etapie wstępnych analiz, dlatego badanie, które zostało przedstawione w tej pracy zostanie kontynuowane przy uwzględnieniu innych zmiennych określających koszty agencji. Bibliografia 1. Amir B., Haugen R., Senbet L., Agency Problems and Financial Contracting, Prentice Hall, New Jersey Brigham E., Zarządzanie Finansowe, tom 1 i 2, PWE, Warszawa Brunarski K., Harman Y.,. Kehr J., Agency costs and the dividend decision, Corporate Ownership & Control, Virtus InterPress Fama E. F., Babiak H., Dividend Policy: An Empirical Analysis., Journal of American Statistical Association 48, str , (1968). 5. Fama E. F., French K. R., Disappearing Dividends: Changing Firm Characteristics or Lower Propensity to Pay?, Journal of Financial Economics 60, str. 3 43, (2001). 6. Gajdka J., Teoria i struktura kapitału i ich aplikacja w warunkach polskich, Wydawnictwo Uniwersytetu Łódzkiego, Łódź Gajdka J., Zarządzanie Finansowe, tom 1 i 2, Fundacja Rozwoju Rachunkowości w Polsce, Warszawa Griffin R. W., Podstawy zarządzania organizacją, PWN, Warszawa Jensen M. C., Agency Costs of Free Cash Flow, Corporate Finance, and Takeovers., American Economic Review 76, str , (1986). 10. Jensen M. C., Meckling W. H., Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure., Journal of Financial Economics 3,str , (1976). 11. Jensen M. C., Meckling W., Theory of the firm: Managerial behavior, agency cost and ownership structure, Journal of Financial Economics 3, , Masłowska Pietrzak K., Finanse menedżerskie, PWE, Warszawa Merton M., Modigliani F., Dividend policy, growth and valuation of shares, Journal of business, 1961, October. 14. Yimaz G., Ozkian A., New insights on the importance of agency costs of corporate debt maturity decision, Applied Financial Economic Letters, 2005,1. The Dividends Decision and the Agency Costs The results of research concerning relations between the agency costs occurrence in the company and dividend payment decision or increasing the already existing one were presented in the article. The study was conducted for the Warsaw Stock Exchange (WSE) listed companies. Acquired outcomes indicate that the essential relations between the appearance of agency costs in a company and dividend payment decisions is to be found. Keywords: dividend policy, Agency Costs theory 124

125 Anna Pobrotyn Anna Pobrotyn * Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie Streszczenie: Artykuł zawiera informacje na temat działania banku komercyjnego. Zostały omówione operacje bankowe i depozytowe oraz ich rodzaje. W artykule opisano również rodzaje rachunków bankowych, służących osobom prawnym, fizycznym, podmiotom gospodarczym oraz jednostkom organizacyjnym nieposiadające osobowości prawnej. W końcowej części artykułu opisano historię Oddziału Banku PEKAO S.A w Opatowie jak również przestawiono produkty oszczędnościowe tego banku. Słowa kluczowe: bank komercyjny, operacje bankowe, operacje depozytowe, rachunki bankowe, produkty oszczędnościowe Wstęp Czynności bankowe to tzw. operacje jest to specyficzna forma działalności usługowej, której przedmiotem są przede wszystkim pieniądze, realizowane przez Bank jako instytucję finansową. Jedną z formą instytucji bankowej w Polsce są banki komercyjne. Według danych Komisji Nadzoru Finansowego, na koniec miesiąca lutego 2012 r., w Polsce funkcjonowało 47 banków komercyjnych i 573 banki spółdzielcze. We współczesnym systemie bankowym, bank komercyjny jest przedsiębiorstwem, którego przedmiotem działalności jest obrót pieniądza. W warunkach gospodarki rynkowej banki musza realizować dwa główne cele: dążenie do maksymalizacji zysku, zapewnienie bezpieczeństwa środków deponentów. Bank komercyjny pełni trzy podstawowe funkcje: kredytową, pieniężną, lokacyjną. Funkcja kredytowa banku komercyjnego urzeczywistnia się poprzez udzielanie osobom fizycznym i prawnym pożyczek i kredytów. Kolejna funkcja pieniężna realizowana jest dzięki tworzeniu przez banki komercyjne zdecentralizowanego pieniądza bankowego. Banki zaczęły przyjmować pieniądze na depozyty. Bankier musiały zwrócić te same monety, które przyjął do depozytu. Wówczas opłaty składał zlecający przechowanie środków pieniężnych. Bankierzy zaczęli używać tych środków pieniężnych do udzielania pożyczek. Depozyt regularny przekształcił się w depozyt nieregularny. W przypadku używania złożonych środków pieniężnych do udzielania pożyczek, depozyty zostały oprocentowane, bankier płacił składającemu depozyt. Bank w oparciu o przyjęte depozyty udzielał pożyczek i w ten sposób wykształciła się kolejna funkcja banku funkcja finansowania. Pieniądz gotówkowy dominował do XVIII w. Wówczas zaczęto wprowadzać pieniądz papierowy, który z czasem wyparł pieniądz monetarny. Ten z kolei jest wypierany przez pieniądz bankowy Funkcja lokacyjna banku komercyjnego realizowana jest poprzez przyjmowanie i lokalizowanie pieniądza rezerwowego i oszczędnościowego. Każdy bank, aby dobrze prosperować winien być konkurencyjny. Konkurencja polega natomiast na zdobywaniu klientów, stosowaniu przez bank korzystnego oprocentowania jak * Absolwentka Akademii Humanistyczno Ekonomicznej w Łodzi na kierunku zarządzanie, specjalność zarządzanie firmą. 125

126 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie i prowizji, ale także na wzbogacaniu palet (usług). Mogą to być usługi w postaci szczególnie dogodnych form operacji bankowych, fachowego poradnictwa lub szczególnych i szybkich informacji z różnych sfer gospodarczych w kraju i za granicą. 1. Działalność banku komercyjnego Działalność banków komercyjnych regulowana jest przepisami ustawy z dnia 29 sierpnia 1997 r. Prawo bankowe 1, która określa zasady prowadzenia działalności bankowej, tworzenia i organizacji banków, oddziałów i przedstawicielstw banków zagranicznych, a także oddziałów instytucji kredytowych oraz zasady sprawowania nadzoru bankowego, postępowania naprawczego, likwidacji i upadłości banków. Ustawowa definicja banku określa go, jako osobę prawną, utworzoną zgodnie z przepisami ustaw, działających na podstawie zezwoleń uprawniających do wykonywania czynności bankowych, obciążających ryzykiem środki powierzone pod jakimkolwiek tytułem zwrotnym. Banki komercyjne działają na podstawie obowiązujących przepisów prawa, w szczególności ustawy Prawo bankowe oraz przepisów Kodeksu spółek handlowych 2 i postanowień własnych statutów. Banki komercyjne mogą działać na terytorium Rzeczypospolitej Polskiej i za granicą, mogą także posiadać, tworzyć i likwidować oddziały i inne jednostki organizacyjne w Polsce i za granicą. Z tego względu krajowym bankiem komercyjnym będzie bank komercyjny mający siedzibę na terenie Rzeczypospolitej Polskiej, podczas gdy zagranicznym bankiem komercyjnym będzie bank komercyjny mający siedzibę za granicą Rzeczypospolitej Polskiej, na terytorium państwa niebędącego członkiem Unii Europejskiej. Przedmiotem działalności banków komercyjnych jest wykonywanie czynności podstawowych (sensu stricte) i uzupełniających (sensu largo), wynikających z ustawy Prawo bankowe. Czynności bankowe sensu stricte przypisane są bankom na zasadzie wyłączności. Jednakże ich zakres i powszechność wykonywania uzależnione są od rodzaju prowadzonej działalności banku komercyjnego, jego rozmiarów i realizowanej strategii. Do podstawowych czynności banku komercyjnego należy: przyjmowanie wkładów pieniężnych płatnych na żądanie lub z nadejściem oznaczonego terminu oraz prowadzenie rachunków tych wkładów, prowadzenie innych rachunków bankowych, udzielanie kredytów, udzielanie i potwierdzanie gwarancji bankowych oraz otwieranie akredytyw, emitowanie bankowych papierów wartościowych, przeprowadzanie bankowych rozliczeń pieniężnych, wydawanie, rozliczanie i umarzanie pieniądza elektronicznego, wykonywanie innych czynności przewidzianych wyłącznie dla banku w odrębnych ustawach. Druga grupa czynności, jakie mogą wykonywać banki to czynności uzupełniające, zwane też czynnościami bankowymi sensu largo. Oznacza to, że mogą je wykonywać zarówno banki, jak również inne podmioty rynku finansowego. Jednakże czynności te będą nosić nazwę czynności bankowych tylko wówczas, gdy będą wykonywane przez banki. Ich uniwersalizm pozwala rozszerzyć prowadzoną przez banki komercyjne działalność gospodarczą. Zgodnie z art. 5 ust. 2 do czynności bankowych (uzupełniających) należy także: udzielanie pożyczek pieniężnych oraz pożyczek i kredytów konsumenckich w rozumieniu przepisów odrębnej ustawy, operacje czekowe i wekslowe oraz operacje, których przedmiotem są warranty, wydawanie kart płatniczych oraz wykonywanie operacji przy ich użyciu, 1 Dz. U. nr 72 poz. 665 z późn. zm. 2 Ustawa z 15 września 2000 r, Kodeks spółek handlowych, Dz.U. 2000, Nr 94, poz z późn. zm. 126

127 Anna Pobrotyn terminowe operacje finansowe, nabywanie i zbywanie wierzytelności pieniężnych, przechowywanie przedmiotów i papierów wartościowych oraz udostępnianie skrytek sejfowych, wykonywanie czynności obrotu dewizowego, udzielanie i potwierdzanie poręczeń; wykonywanie czynności zleconych, związanych z emisją papierów wartościowych. Poza wykonywaniem powyższych czynności bankowych, banki komercyjne mogą: obejmować lub nabywać akcje i prawa z akcji, udziały innej osoby prawnej i jednostki uczestnictwa w funduszach inwestycyjnych, zaciągać zobowiązania związane z emisją papierów wartościowych, dokonywać obrotu papierami wartościowymi, dokonywać, na warunkach uzgodnionych z dłużnikiem, zamiany wierzytelności na składniki majątku dłużnika, z tym że bank jest obowiązany do ich sprzedaży w okresie nie dłuższym niż 3 lata od daty nabycia, nabywać i zbywać nieruchomości, świadczyć usługi konsultacyjno doradcze w sprawach finansowych, świadczyć usługi certyfikacyjne w rozumieniu przepisów o podpisie elektronicznym, z wyłączeniem wydawania certyfikatów kwalifikowanych wykorzystywanych przez banki w czynnościach, których są stronami, świadczyć inne usługi finansowe, 3 wykonywać inne czynności, jeżeli przepisy odrębnych ustaw uprawniają je do tego. Powyższe operacje, jakie mogą wykonywać banki świadczą o bardzo rozległym obszarze ich działalności, Ten zakres prac charakterystyczny jest głównie dla banków inwestycyjnych, jednakże pamiętać należy, że rozszerzanie wykonywanych przez bank czynności wymaga zgody nadzoru bankowego. 1.1 Operacje bankowe Oferta banków komercyjnych kierowana jest przede wszystkim do podmiotów sektora niefinansowego. Klientami banków są także podmioty sektora finansowego oraz instytucje rządowe i samorządowe. usługi bankowe w przeważającej części są określone przez kwotę pieniędzy (kredyt, depozyt) rzadziej przez ilość (zakup akcji), w stosunku do poszczególnych klientów usługi bankowe stanowią kumulację różnych czynności w zależności od potrzeby, co powoduje, że popyt na te usługi może ulegać znacznym wahaniom (np. terminy wypłat płacowych), zakres i formy usług bankowych są w dużej mierze uzależnione od ustaleń prawa bankowego oraz działania banku centralnego i nadzoru bankowego. Klasyfikacja operacji bankowych może być dokonywana w zależności od zastosowania kryteriów. Najczęściej stosowany jest tzw. klasyczny podział operacji na aktywne, pasywne pośredniczące. Opiera się on na podziale bilansu na stronę aktywną (głównie kredyty) i pasywną (głównie depozyty) 4. Podstawową czynnością bankową, świadczącą o właściwym działaniu banku jest pozyskiwanie potencjalnego pieniądza z rynków pieniężnych i kapitałowych. 3 Szelągowska A., Instytucje rynku finansowego w Polsce wyd. CeDeWu, Warszawa 2007, s Iwanicz Drozdowska M., Jaworski W.L., Zawadzka Z., Bankowość, Poltext, Warszawa 2007, s

128 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie Do zakresu czynności bankowych należy: gromadzenie środków pieniężnych jednostek gospodarki narodowej oraz oszczędności pieniężnych ludności, udzielanie kredytów na potrzeby gospodarcze, finansowanie inwestycji, przeprowadzanie rozliczeń pieniężnych jednostek gospodarki narodowej, obsługa finansowa obrotów z zagranicą. Działania te jako forma pośrednictwa pozyskiwania wolnych środków od ich posiadaczy, określane są biernymi operacjami bankowym. Formy w tym zakresie są różnorodne, a gama oferowanych, wielorakich produktów zależy od aktywności danego banku. Drugą z kolei nie mniej ważną czynnością bankową jest oferowanie kredytów i pożyczek pieniężnych. Realizacja tego zadania wymaga prężności i aktywności banku, szczególnie w stale rosnącej, ostrej walce konkurencyjnej na rynku usług bankowych. Udzielanie kredytów wiąże się zaś z ryzykiem bankowym, dlatego czynne operacje bankowe wymagają znajomości mechanizmów na rynkach pieniężnych, oraz rynkach kapitałowych tak krajowych, jak i zagranicznych. Istnieje również kredytowe to ryzyko zmian wartości kapitału własnego (zysków, przepływów pieniężnych) przedsiębiorstwa na skutek zmian zdolności kredytowej jego dłużników. Zmiany takie, w szczególności bankructwo, powodują zmiany wartości przyszłych przepływów pieniężnych kwoty długu oraz stopy zwrotu). W efekcie zmianie ulega wartość kapitału własnego, a więc i wartość przedsiębiorstwa. Ponadto banki muszą posiadać bardzo dobre rozeznanie zdolności kredytowej, tzw. standingu kredytobiorców. Działania te określane są czynnymi operacjami bankowymi. Na zlecenie krajowych bądź zagranicznych osób fizycznych i prawnych (w tym podmiotów gospodarczych) banki wykonują szereg czynności usługowych, które zaliczane są do czynności pośredniczących (komisowych). Nie powodują one kreacji potencjalnego pieniądza czynnego ani pieniądza kredytowego. Usługi te wykonywane są odpłatnie, zgodnie z ustalonymi stawkami w taryfie prowizji i opłat bankowych. Są one istotnym elementem dochodów banku. Do operacji pośredniczących (komisowych) zaliczamy następujące grupy czynności: prowadzenie rachunków bankowych; obsługę rozliczeń pieniężnych; handel walutą i dewizami; obsługę dewizową ludności; obsługę papierów wartościowych; inne usługi, zwane parafinansowymi (m.in. realizację przedsięwzięć gospodarczych, wynajem sejfów, konsultacje). Należy jednocześnie wspomnieć, że operacje pośredniczące usytuowane są pomiędzy operacjami biernymi i operacjami czynnymi 5. Wiele operacji ma równocześnie charakter aktywny i pasywny. Za bardziej precyzyjny należy uznać podział operacji bankowych opracowany przez H. J. Kriimmela 6, który wyodrębnia 5 grup lub typowych usług bankowych: terminowe przyjęcie lub odstąpienie środków pieniężnych (kredyty i depozyty); przyjęcie ryzyka (awal, akcept, gwarancja); przechowywanie papierów wartościowych i administrowanie nimi; obsługa obrotu płatniczego wraz z emisją papierów wartościowych; operacje handlowe (handel papierami wartościowymi, złotem, dewizami, itd.). Przytoczony podział nie uwzględnia jednak w sposób dostateczny wzajemnych stosunków między bankiem a klientem, a to powinno być podstawą systematyki operacji 5 Wierzba R., ABC Bankowości wyd. Gdańska Akademia Bankowa, Gdańsk 2000, s Kriimmel J. H., Bankzis, Köln 1964, s

129 Anna Pobrotyn bankowych. Z tego punktu widzenia bardziej prawidłowym będzie podział operacji na następujące grupy 7 : usługi finansujące, usługi depozytowe, usługi związanie z obsługą obrotu płatniczego, usługi różne. Podział ten uwzględnia przede wszystkim jednolitość funkcji wymienionych grup usług z punktu widzenia interesów klienta 8. Operacje bankowe można podzielić również według form rozliczeń: operacje gotówkowe operacje bezgotówkowe. Operacje bankowe można podzielić także według podziału terytorialnego: operacje krajowe, operacje zagraniczne, operacje międzyoddziałowe, operacje międzybankowe. Istnieje również podział według podmiotów: operacje własne związane z działalnością finansową (gospodarczą) samego banku; operacje klientowskie zlecane przez klientów banku, celem dokonania rozliczeń za pośrednictwem banku w formach gotówkowych lub bezgotówkowych 9. Rozpatrując łącznie cel wszystkich operacji bankowych można stwierdzić, że jest to prowadzenie tzw. biznesu bankowego. Istotą tych działań jest optymalizacja dochodów ( różnica między przychodami osiąganymi w określonym czasie przez podmiot gospodarczy a kosztami ich uzyskania), a w wyniku powyższych działań osiąganie maksymalnego zysku (to dodatni wynik finansowy przedsiębiorstwa, oznacza, że ma ono wyższe przychody niż koszty ich uzyskania. Inaczej, jest to "nadwyżka wartości sprzedaży nad ogólnymi wydatkami; wynagrodzenie dla firm za angażowanie jej zasobów w warunkach ryzyka w celu zaspokojenia potrzeb odbiorców). 1.2 Usługi finansujące Usługi finansujące klienta banku mogą być podzielone na trzy grupy: operacje udzielania kredytu, polegające na czasowym przekazaniu środków płatniczych przez bank kredytobiorcy, który zobowiązuje się zwrócić daną kwotę w określonym terminie wraz z ustalonymi odsetkami.; operacje przyrzeczenia udzielenia kredytu polegającą na tym, że bank nie przekazuje odpowiedniej kwoty kredytobiorcy, a jedynie zobowiązuje się do udzielenia kredytu, gdy kredytobiorca nie może się wywiązać z zobowiązania wobec osoby trzeciej. operacje związane z emisją papierów wartościowych, polegające na obsłudze przez bank emisji papierów wartościowych dokonanej przez klienta, która może się wiązać z zakupem części z tych papierów przez bank. W zasadzie operacje te polegają na pośrednictwie banku między emitentem a nabywcą papierów wartościowych. Elementy usług finansowych mają charakter jakościowy (kredytobiorca, kredytodawca, podmiot kredytu, jego zabezpieczenie, waluta), jak i ilościowy (wielkość i cena kredytu, termin i sposób spłaty). 7 Bitz M., Bank und Börsenwesen, Varlag, München 1981, s Iwanicz Drozdowska M., Jaworski W.L., Zawadzka Z., Bankowość wyd. Poltext, Warszawa 2007, s Wierzba R., ABC Bankowości wyd. Gdańska Akademia Bankowa, Gdańsk 2000, s

130 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie Kredytodawcą nazywana jest osoba fizyczna lub prawna udzielająca kredytu kredytobiorcy, przy czym w Polsce kredytów mogą udzielać jedynie banki i są one stroną dominującą w stosunku kredytowym wobec kredytobiorcy. Oznacza to, że bank określa warunki kredytu, a także ma prawo do kontrolowania sposobu w jaki kredytobiorca faktycznie wykorzystuje kredyt. Ponadto dominujący charakter kredytodawcy wyraża fakt, iż decyduje on o przyznaniu kredytu kredytobiorcy oceniając jego zdolność kredytową, przy czym nie jest zobowiązany do udzielenia kredytu, nawet jeśli osoba ubiegająca się o niego posiada taką zdolność. Kredytobiorcami mogą być gospodarstwa domowe, przedsiębiorstwa, gospodarka komunalna, a także inne banki. W wielu krajach istnieją przepisy zaostrzające warunki udzielania kredytów dla członków władz danego banku i ich rodzin. Przedmiot kredytu określony jest przez dwa zasadnicze cele kredytowania, którymi są konsumpcja i inwestycje. Trzecim celem jest finansowanie przejściowych potrzeb, wynikających z braku synchronizacji między dochodami i wydatkami podmiotów gospodarczych 10. Usługa finansująca składa się z następujących elementów: wielkości kredytu (mały, średni, wielki). W niektórych krajach przy udzielaniu kredytu od określonej wysokości bank jest zobowiązany powiadomić o tym nadzór bankowy; cena kredytu, na którą składa się: procent (stały lub zmienny), prowizje, opłaty; termin i sposób zwrotu kredytu określony jest w umowie, która ustala na określoną datę termin zwrotu w całości bądź ratami, w okresie korzystania z kredytu. W wielu przypadkach kredyt jest odnawiany automatycznie (Revolving credit). Istnieją następujące formy spłaty kredytu: spłata jednorazowa, spłata ratalna, spłata amitetowa, Udział oprocentowania maleje wraz ze spłatą kapitału. Ta forma spłaty jest szczególnie wygodna przy kredytowaniu budownictwa mieszkalnego. 1.3 Operacje depozytowe Operacje depozytowe to lokaty na rachunku terminowym w banku centralnym, zwane depozytami na koniec dnia. To ostatni instrument zaliczany do transakcji depozytowo kredytowych. Lokata terminowa w formie depozytu na koniec dnia stwarza bankom komercyjnym możliwość deponowania w banku centralnym krótkookresowych, jednodniowych depozytów. Mogą one zostać przekazane na rachunek w banku centralnym do końca dnia operacyjnego. W następnym dniu roboczym zwracane są zdeponowane środki wraz z należnymi odsetkami, naliczanymi według zmiennej stopy, zwanej stopą depozytową. Jej wysokość ustala Rada Polityki Pieniężnej, bacząc, by kształtowała się ona na poziomie niższym od stopy referencyjnej, określającej minimalne oprocentowanie papierów wartościowych z siedmiodniowym terminem zapadalności, wykorzystywanych przez bank centralny przy przeprowadzaniu operacji otwartego rynku 11. Do operacji depozytowych zalicza się następujące usługi bankowe: przyjmowanie wkładów klientów na czas określony lub nieokreślony, na podstawie umowy (klienci na ogół otrzymują odsetki); emisja własnych papierów wartościowych. W tym przypadku klient, który je zakupuje, jest wierzycielem banku, ale nie z tytułu wkładów, lecz z tytułu posiadania papierów wartościowych wystawionych przez dany bank; 10 Iwanicz Drozdowska M., Jaworski W.L., Zawadzka Z.,,Bankowość op.cit. str Ostaszewski J., "Finanse", Difin, Warszawa 2007, s

131 Anna Pobrotyn pośrednictwo banku w operacjach papierami wartościowymi i innymi walorami. Salda kredytowe rachunków stanowią pieniądz, który bank komercyjny tworzy za pomocą kredytu. Tak, więc salda te są środkiem płatniczym i formą oszczędzania. Stopień możliwości ich wykorzystania jest pełny w przypadku wkładów a vista. Natomiast wkładami terminowymi i terminowymi wkładami oszczędnościowymi klient może rozporządzać z pewnymi ograniczeniami wynikającymi z umowy z bankiem. Istnieją zatem trzy rodzaje wkładów klientów: a Vista, terminowe, oszczędnościowe. W celu rozszerzenia swojej działalności banki mogą dokonywać emisji obligacji. Natomiast w celu powiększenia kapitału akcyjnego banki emitują akcje. Obligacja stanowi instrument pożyczkowy i jest dowodem ma charakter tytułu własności. Obligacja jest instrumentem finansowym (a jednocześnie papierem wartościowym), którego emitent jest dłużnikiem obligatariusza (posiadacza obligacji) i zobowiązuje się wobec niego do świadczenia polegającego na wykupie obligacji. Oznacza to, że emitent obligacji zaciąga dług u obligatariusza i zobowiązuje się spłacić ten dług (wraz z odsetkami). Obligacja jest instrumentem rynku kapitałowego emitowanym zazwyczaj na co najmniej rok. Jednak polskie prawo, a ściślej Ustawa o obligacjach z 29 czerwca 1995 roku (z późniejszymi zmianami) dopuszcza emisję obligacji krótkoterminowych, na okres krótszy niż rok. 2. Rodzaje rachunków bankowych 2.1. Konto osobiste Konto osobiste to rachunek dla osób które chcą korzystać z usług bankowych w podstawowym stopniu. Prowadzenie rachunków bankowych to jedna z podstawowych czynności wykonywanych przez banki dla klientów, umocowana w prawie bankowym. Żaden inny podmiot nie ma uprawnień do prowadzenia rachunków bankowych. Zasady prowadzenia rachunku bankowego wynikają zarówno z ustawy Prawo bankowe, jak i z Kodeksu cywilnego 12. Z Kodeksu cywilnego wynikają ogólne przepisy umowy rachunku bankowego, jak np. to, że umowa może być rozwiązana przez bank tylko z ważnych powodów określanych w umowie (np. naruszenie regulaminu). Właściciel nie może przekroczyć salda rachunku, jeśli nie ma umowy o saldzie debetowym. Ponadto, zgodnie z Kodeksem, posiadacz musi informować bank o zmianie swoich danych adresowych. Bardziej szczegółowe regulacje dotyczące reguł prowadzenia rachunków zawiera Prawo bankowe. Umowa rachunku bankowego to zgodnie z ustawą Prawa bankowego zobowiązanie banku względem posiadacza rachunku do przechowywania środków pieniężnych posiadacza oraz, bardzo często, do przeprowadzania na jego zlecenie rozliczeń pieniężnych. Rachunek bieżący i pomocniczy Zgodnie z polskim prawem bankowym, w celu przechowywania środków pieniężnych i przeprowadzania rozliczeń związanych z działalnością gospodarczą banki prowadzą rachunki bieżące, pomocnicze, lokat terminowych oraz oszczędnościowe. Ponadto klient może mieć wydzielone rachunki (np. dla rozliczeń zagranicznych czy kredytów). Zawierając umowę oddział banku może zastrzec obowiązek zawiadamiania go o otwarciu przez klienta rachunku pomocniczego w innym banku. Rachunki rozliczeniowe bieżące to główne rachunki podmiotów gospodarczych, które służą przede wszystkim do: 12 Ustawa z dnia 23 kwietnia Kodeks cywilny,. Dz.U. Nr 16, poz. 93 ze zm., wyciąg przepisów. 131

132 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie przeprowadzania rozliczeń z kontrahentami, gromadzenia środków potrzebnych do bieżącej działalności przedsiębiorstwa, zaciągania kredytów na bieżące cele płatnicze. Obowiązek posiadania rachunku bankowego i prowadzenia za jego pośrednictwem rozliczeń wynika z przepisów o prowadzeniu działalności gospodarczej 13. Podmioty prowadzące działalność gospodarczą są zobowiązane do informowania właściwych urzędów skarbowych o numerze posiadanego rachunku i o każdej jego zmianie. Rachunki te charakteryzują się tym, że występują na nich duże ruchy środków i że są one wykorzystywane do wielorakich celów i korzystania z wielu usług służą do przeprowadzania rozliczeń pieniężnych. W ramach rachunków bieżących banki oferują ich posiadaczom dodatkowe produkty takie jak np.: karty płatnicze, kredyty, możliwość lokowania środków, bankowość elektroniczną, faktoring, czyli wykup wierzytelności, dyskonto weksli, inkaso nocne, itp. Rachunki rozliczeniowe pomocnicze są to również rachunki podmiotów gospodarczych posiadające rachunki główne. Tego typu rachunki są otwierane z dwóch podstawowych powodów posiadania przez przedsiębiorstwo wyodrębnionych zakładów czy filii dla zapewnienia tym jednostkom możliwości samodzielnego rozliczania się oraz dla gromadzenia środków wyodrębnionych na konkretny cel. Rachunek oszczędnościowy Rachunki oszczędnościowe 14 są prowadzone dla osób fizycznych. Mogą one również być prowadzone dla szkolnych kas oszczędności i pracowniczych kas zapomogowo pożyczkowych. Rachunki te nie mogą być wykorzystywane do prowadzenia rozliczeń związanych z działalnością gospodarczą. Bank może zamknąć rachunek oszczędnościowy, jeżeli w ciągu 5 lat nie dokonano na nim żadnych zapisów, poza okresowym dopisywaniu odsetek, a jego stan nie przekracza minimalnej kwoty ustalonej w umowie. Utrata (zgubienie) dowodu zawarcia umowy lub czeku powinna być zgłoszona bankowi przez klienta. Przykładem konkurencji o pozyskiwanie depozytów są różne rodzaje rachunków bankowych oferowane przez banki. Są one przystosowane do potrzeb klientów, a sposoby obliczania i kapitalizowania odsetek wykorzystuje się do zwiększenia konkurencyjności. Rachunek oszczędnościowo rozliczeniowy Rachunek oszczędnościowo rozliczeniowy (ROR) jest rodzajem rachunku oszczędnościowego. Często nazywany jest kontem osobistym. ROR służy do gromadzenia wkładów oszczędnościowych i przeprowadzania rozliczeń pieniężnych, z wyjątkiem rozliczeń z tytułu działalności gospodarczej. Przeważnie ma charakter rachunku a'vista, istnieje również możliwość (automatycznego lub przez zlecenie) otwierania lokaty terminowej w rachunku. 13 Ustawa Prawo działalności gospodarczej z dnia 19 listopada 1999 r. (Dz.U. nr 101, poz z późn. zm.). 14 Umowa rachunku oszczędnościowego art. 725 i Kodeks cywilny. 132

133 Anna Pobrotyn 2.2 Terminowe lokaty pieniężne Lokaty terminowe to najprostsze formy lokowania wolnych środków finansowych. Początek lat 90 tych zapoczątkował rozwój rynku lokat terminowych i sprawił, iż obecnie mamy ich różne rodzaje. Generalnie lokaty możemy podzielić według: 1. Okresu ich trwania. 2. Stopy procentowej. stała; zmienna; progresywna. 3. Sposobu naliczania odsetek. W ostatnich latach pojawiły się bardzo zaawansowane lokaty, których oprocentowanie może być uzależnione np. od zmian kursów walut (lokaty dwuwalutowe) lub zależne od zmian wartości indeksów giełd światowych. Lokaty terminowe dla osób fizycznych i prawnych Bank określa warunki umowy, na jakich oddziały i filie gromadzą oszczędności pieniężne w walucie polskiej osób fizycznych zwanych dalej posiadaczami rachunku, na rachunku regularnych lokat terminowych. Przez rachunek regularnej lokaty terminowej należy rozumieć oprocentowany rachunek oszczędnościowy, na którym bank przechowuje środki pieniężne (lokaty) wpłacane przez osoby fizyczne na określony czas. Terminy umowne utrzymania regularnych lokat terminowych ustala Zarząd Banku i wprowadza zarządzeniem Prezesa Zarządu. Lokaty terminowe dla podmiotów gospodarczych Bank otwiera i prowadzi rachunki w walutach wymienialnych, posiadaczem rachunku mogą być osoby krajowe podmioty gospodarujące. Rachunek służy do gromadzenia i przeprowadzania rozliczeń w walutach wymienialnych, które podmiotu gospodarujące uzyskują ze sprzedaży towarów, usług i praw na dobrach niematerialnych w obrocie z zagranicą. Dyspozycje Klienta zostaną zrealizowane z należytą dokładnością i starannością, o ile w trakcie ich realizacji nie zaistnieją przeszkody niezależne od Banku. Bank nie ponosi odpowiedzialności za skutki zrealizowania przedłożonych przez Klienta dokumentów podrobionych lub fałszywych. Rachunek Klienta może być prowadzony jako rachunek bieżący a vista oraz jako rachunek lokat terminowych. 3. Rodzaje rachunków bankowych dla wybranej grupy klientów na przykładzie Banku PEKAO S.A w Opatowie. Bank Polska Kasa Opieki Spółka Akcyjna został powołany na podstawie decyzji Ministerstwa Skarbu w marcu 1929 roku. Akt notarialny o utworzeniu banku sporządzono w październiku 1929 roku, a kilka dni później Sąd Okręgowy w Warszawie dokonał wpisu Banku Polska Kasa Opieki SA do rejestru handlowego. Dla każdego klienta bank prowadzi indywidualny rachunek kapitałowy, na którym są gromadzone środki na wypłatę świadczenia oraz zyski osiągnięte z inwestycji dokonywanych przez Towarzystwo Ubezpieczeniowe Allianz Życie Polska SA. Korzystne lokaty pozwalają nie tylko na utrzymanie realnej wartości pieniędzy klienta, ale również na powiększenie przyszłego świadczenia. 133

134 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie Produkty oszczędnościowe Rachunki lokat terminowych służą do gromadzenia wolnych środków firmy. Jest to najłatwiejszy i najbezpieczniejszy sposób zwiększania przychodów firmy. Przeznaczone są zarówno dla podmiotów krajowych(rezydentów) jak i podmiotów zagranicznych (nierezydentów). Lokaty standardowe Posiadaczem standardowej lokaty terminowej może być: rezydent, czyli osoba fizyczna mająca miejsce zamieszkania w Polsce, nierezydent, czyli osoba fizyczna mająca miejsce zamieszkania za granicą Lokaty mogą być otwierane we wszystkich jednostkach Banku a także za pośrednictwem Pekao24 lub za pośrednictwem wybranych bankomatów, które realizują funkcję depozytową. W okresie utrzymania lokat nie mogą być dokonywane wpłaty uzupełniające. Po upływie zadeklarowanego okresu, lokaty wraz z naliczonymi odsetkami pomniejszonymi o podatek od osób fizycznych są automatycznie odnawiane na kolejny okres, chyba że Klient złoży inną dyspozycję 15. Lokaty mogą być otwierane w następujących terminach: lokaty w złotych otwierane są na okresy 1, 2, 3, 6, 7, 9, 12, 24 i 36 miesięcy; lokaty w walutach wymienialnych otwierane są na okresy 1, 3, 6 miesięcy. sposób naliczania odsetek: przypadku lokat otwieranych na okres do 12 miesięcy włącznie, odsetki są naliczane na koniec zadeklarowanego okresu 16. Lokaty negocjowane Lokaty negocjowane są otwierane na ustaloną indywidualnie z klientem liczbę dni w przedziale dni. Do jej otwarcia wystarczy zł, USD, EUR, GBP, CHF. Posiadaczem lokaty może być zarówno rezydent, jak i nierezydent. Wysokość oprocentowania lokaty negocjowanej jest ustalana indywidualnie pomiędzy Bankiem i posiadaczem lokaty. Lokaty negocjowane są oprocentowane według: stałej stawki oprocentowania, ustalanej w stosunku rocznym, obowiązującej w dniu otwarcia lokaty lub zmiennych, w okresie trwania lokaty, stawek oprocentowania, ustalanych w stosunku rocznym. Lokaty rentierskie Lokaty rentierskie w złotych i walutach wymienialnych mogą być otwierane w ramach istniejących lub nowo otwartych rachunków. Posiadaczem lokaty może być zarówno rezydent, jak i nierezydent. Lokaty rentierskie otwierane są na 12 miesięcy. E E to lokata otwierana w serwisie Pekao Internet w ramach usługi Pekao24 na okres 10 dni kalendarzowych. E jest otwierana na rzecz osób posiadających w Banku rachunek EUROKONTO, które zawarły z Bankiem Umowę o korzystanie z bankowej usługi telekomunikacyjnej Pekao24. Po upływie zadeklarowanego okresu, zgodnie z dyspozycją Klienta, Bank odnawia E wraz z naliczonymi odsetkami pomniejszonymi o podatek od osób fizycznych, na kolejny taki sam okres, na warunkach obowiązujących w dniu jej każdorazowego odnowienia Regulaminy bankowe, materiały z Banku Pekao S.A z 2011r. 16 Katalog produktów i usług bankowych dla klientów indywidualnych, materiały z Banku Pekao S.A z 2008r /

135 Anna Pobrotyn Lokaty overnight Terminowe lokaty overnight w złotych lub walutach wymienialnych mogą być otwierane na rzecz rezydentów lub nierezydentów w ciężar środków zgromadzonych na Eurokoncie, Eurokoncie Akademickim lub rachunku bieżącym. Rachunek overnight może być otwarty: jeden dzień roboczy (z wyjątkiem soboty) jest to dzień otwarcia lokaty, okres obejmujący dzień otwarcia lokaty i następujące po nim dni ustawowo wolne od pracy i sobotę, jeśli dniem otwarcia był piątek lub dzień roboczy poprzedzający dni wolne od pracy odsetki od kwoty lokaty są naliczane na koniec dnia, w którym upływa okres lokaty i wraz z kwotą lokaty są przenoszone na rachunek bieżący/ pomocniczy, z którego nastąpiło przeniesienie środków na rachunek overnight 18. Zakończenie Banki komercyjne są wyspecjalizowanymi instytucjami finansowymi trudniącymi się obsługą i organizowaniem ruchu pieniądza między jednostkami gospodarującymi i ludnością. Podstawowe zadania to gromadzenie środków pieniężnych, udzielenie kredytów i pożyczek oraz dokonywanie rozliczeń pieniężnych w obrocie krajowym i zagranicznym. Świadczą usługi klientowi masowemu. Usługi świadczone przez banki komercyjne są na gruncie prawa bankowego określane mianem czynności bankowych. Większość banków komercyjnych działających w Polsce jest według prawa bankami polskimi zarejestrowanymi w tym kraju, podlegającymi polskiemu nadzorowi bankowemu. Bank komercyjny jako przedsiębiorstwo jest organizacją nastawioną na zysk, prowadzącą równolegle różnego typu działalności, wykonującą operacje z którymi wiąże określone z góry ryzyko finansowe (w sposób najprostszy można określić iż bank przyjmuje depozyty od klientów i pożycza te pieniądze drożej innym zweryfikowanym klientom). Działa w sposób precyzyjny i posiada szczegółową dokumentację organizacyjną (regulaminy, schematy organizacyjne itp.) W pracy tej omówione zostało funkcjonowanie banku komercyjnego według wymogów gospodarki rynkowej w polskich realiach.. Większość klientów Banku Polska Kasa Opieki S.A w Opatowie to drobne firmy prywatne oraz osoby fizyczne. Bank ten oferuje szeroki zakres usług między innymi: obsługa jednostek gospodarczych, obsługa jednostek budżetowych, obsługa walutowo dewizowa ludności, obrotu oszczędnościowego. Oprócz kredytów obrotowych i lokat terminowych dużym zainteresowaniem w ostatnim czasie cieszą się kredyty preferencyjne dla rolników. Bibliografia 1. Bitz M., Bank und Börsenwesen, Verlag München 1981r. 2. Iwonicz Drozdowska M, W. L. Jaworski, Z. Zawadzka, Bankowość, wyd. Poltext, Warszawa 2007 r. 3. Kriimmel H.J., Bankzisen, Köln 1964 r. 4. Krzyżkiewicz Z. (red.),jaworski W., Puławski M., Walkiewicz R., Leksykon bankowo giełdowy, Poltext, Warszawa 2006 r. 5. Ostaszewski J., Finanse, wyd. Difin, Warszawa 2007r. 6. Pyka I., Cichorska J., Działalność banków na rynku papierów wartościowych w Polsce, Prace Naukowe Akademii Ekonomicznej w Katowicach, Katowice 2005 r. 18 Katalog produktów i usług bankowych dla klientów indywidualnych, materiały z Banku Pekao w Opatowie. 135

136 Podstawowe czynności bankowe na przykładzie oddziału banku Pekao S.A. w Opatowie 7. Szelągowska A., Instytucje rynku finansowego w Polsce. wyd.cedewu.p1 Warszawa 2007 r. 8. Wierzba R.,,ABC Bankowości, wyd. Gdańska Akademia Bankowa, Gdańsk 2000 r. 9. Katalog produktów i usług bankowych dla klientów indywidualnych, Materiały z Banku Pekao S.A. z 2008r. 10. Regulaminy bankowe Banku Pekao S.A w Opatowie. Netografia Basic Bank Actions on the Example of PEKAO S.A. Branch in Opatów The article contains information about the functioning of the commercial bank. Banking and deposit transactions were discussed in the following paper. What is more, the piece presents various bank accounts suitable for legal persons, natural persons, business entities and individuals without legal entity. In the final part of the article the history of PEKAO S.A. Branch in Opatów and the bank s savings products were described. Keywords: commercial bank, banking transactions, deposit operations, banking accounts, savings products 136

137 Dorota Bloch Dorota Bloch Ściągalność podatków w krajach Unii Europejskiej Streszczenie: Niniejsze opracowanie jest analizą ciężarów podatkowych nakładanych na obywateli w krajach Unii Europejskiej oraz skuteczności poszczególnych administracji podatkowych w zakresie ściągalności podatków. Celem tej analizy jest próba określenia czy ściągalność podatków jest uwarunkowana przez rozwiązania systemowe czy też może nie istnieje wcale związek pomiędzy np. wielkością obciążeń podatkowych a sumą pobranych podatków, a problemów z poborem podatków należy upatrywać zupełnie gdzie indziej. Autorka dokonuje również próby wskazania krajów wyróżniających się w Europie, zarówno pozytywnie jak i negatywnie. Słowa kluczowe: podatki, ciężary podatkowe, ściągalność podatków w UE Wstęp Podatki mają zasadnicze znaczenie dla rozwoju gospodarczego i społecznego. Wśród wielu funkcji jakie pełnią, najważniejszą jest funkcja fiskalna podatki są bowiem głównym źródłem dochodów budżetu państwa oraz gwarantują finansowanie wydatków publicznych. Jest to pierwotna funkcja podatków. Obecne lata są jednymi z najtrudniejszych i najbardziej burzliwych w zakresie podatków. Ostatnie globalne spowolnienia koniunktury po kryzysie finansowym rozpoczętym w 2007 roku wymusiły wiele zmian w funkcjonowaniu gospodarek krajowych również w zakresie podatków. Rządy gospodarek wszystkich rozmiarów i na wszystkich etapach rozwoju zmagają się z zapewnieniem sobie źródeł finansowania, w obliczu czego dochody uzyskiwane z podatków stały się jeszcze ważniejsze niż dotychczas. Jednak nie tylko wielkość należnego podatku ma znaczenie, lecz przede wszystkim możliwość jego wyegzekwowania przez państwo. 1. Ściągalność podatków w Unii Europejskiej 1 O ściągalności podatków oraz wydajności jednostek administracyjnych za nie odpowiedzialnych mogą świadczyć wskaźniki dotyczące dochodów podatkowych, zwrotów oraz nadpłaconych podatków, zakresu usług świadczonych dla podatników, zakresu podatkowych czynności weryfikacyjnych oraz wskaźniki dotyczące poboru długów podatkowych. Dane te zostały zawarte w Tabelach w Załącznikach oraz zostaną poniżej pokrótce omówione Dochody podatkowe Produktem końcowym pracy organów administracji skarbowej jest kwota netto pobranych podatków (po wypłaceniu zwrotów). Często wskaźnik ten określany jest, jako ciężar podatkowy danego kraju. Druga kolumna Tabeli z Załącznika 1 odnosi się właśnie do tego wskaźnika. Osiem krajów Unii Europejskiej Austria, Belgia, Dania, Finlandia, Francja, Szwecja, Węgry i Włochy ma Autorka jest doktorantką w Katedrze Zarządzania Finansami na Wydziale Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu. Obszar zainteresowań rynki finansowe i ich stabilność, w szczególności rynek agencji ratingowych. 1 Na podstawie raportu OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010)[online],

138 Ściągalność podatków w krajach Unii Europejskiej wskaźnik podatki/pkb przekraczający 40%. Obciążenia podatkowe w większości badanych krajów w roku 2008 stanowiły 30 40% PKB. Najniższy poziom obciążeń (poniżej 30% PKB) notują Irlandia, Łotwa, Rumunia oraz Słowacja. Większość krajów charakteryzuje się stabilnością poziomu obciążeń podatkowych na przestrzeni trzech lat nieznacznie się on zmienił. Bułgaria, Litwa oraz Węgry dokonały w tym czasie 3 4% redukcji obciążeń podatkowych, natomiast Niemcy oraz Wielka Brytania podniosły je o około 2% Zwroty oraz nadpłacone podatki Kolejnym wskaźnikiem, któremu poświęca się stosunkowo niewiele uwagi podczas opisywania krajowych systemów podatkowych i pracy organów podatkowych jest kwota nadpłaconych podatków i wynikające z niej obciążenia i koszty dla podatników oraz organów podatkowych. Biorąc pod uwagę rozwiązania podatkowe w zakresie głównych podatków (tj. PIT, CIT i VAT) istnienie nadpłat jest nieuniknione. Jednakże nadpłacony podatek dla wielu krajów jest wyższy niż przeciętnie, co generuje koszty poniesione przez podatników (których podatki są nadpłacone), szczególnie w przypadku, gdy zwrotów nadpłat nie dokonuje się stosunkowo szybko oraz gdy nie są naliczane odsetki z tytułu opóźnień w zwrotach. Częstość występowania zwrotów podatkowych różni się znacznie w poszczególnych krajach, odzwierciedlając szereg czynników projektowania systemu podatkowego. Analizując trzecią kolumnę wspomnianej tabeli zauważamy, iż: 5 państw (Austria, Cypr, Dania, Grecja oraz Rumunia) ma wskaźnik na poziomie < 10%, 9 państw ma wskaźnik na poziomie 10 20%, 3 państwa mają wskaźnik na poziomie 20 25%, 6 państw ma wskaźnik na poziomie > 25% (Bułgaria, Czechy, Estonia, Hiszpania oraz Polska średnio 29% oraz Słowacja, gdzie wskaźnik przekracza 60%), dla 3 państw dane nie były dostępne. Jak wspomniano powyżej wyższe wartości tego wskaźnika mogą oznaczać gorszą jakość systemu podatkowego w danym kraju, gdyż zwiększają koszty zarówno dla podatników jak i urzędów skarbowych. Istnieje szereg czynników, które mogą mieć wpływ na występowanie refundacji dla każdego z głównych podatków. Dla podatku VAT może to być np. charakter gospodarki danego kraju i wynikający z niego zakres opodatkowania towarów eksportowych czy proporcja sprzedaży podlegającej opodatkowaniu i opodatkowanej stawką zerową w gospodarce. Czynnikami generującymi zwroty w podatku PIT są m.in.: istnienie zaliczek na poczet podatku dochodowego rozliczane w końcu roku podatkowego oraz rozwiązania projektowe systemu przyznające określone przywileje oraz ulgi podatkowe rozliczane dopiero w zeznaniu rocznym. Podczas gdy niektóre z czynników opisanych powyżej mogą być uznane za uzasadnione i nieuniknione, duża ilość zwrotów (szczególnie w przypadku podatku VAT), które muszą być zarządzane przez wiele organów podatkowych, często w stosunkowo krótkim czasie, może powodować utrudnienie w wykrywaniu przypadków oszukiwania państwa. W wielu krajach istnieją uchwalone wymogi wypłaty odsetek dla podatników z tytułu opóźnień w wypłacie zwrotów podatkowych, co stanowi dla organów podatkowych dodatkowe obciążenie. Wymóg natychmiastowej zapłaty wskazuje na kolejne wyzwanie dla niektórych podatków, zwłaszcza VAT u, istnieją próby uzyskania zwrotów przy użyciu różnych oszukańczych praktyk. Dla wielu organów podatkowych oznaczało to konieczność rozwoju i stosowania złożonych technik profilowania ryzyka do wykrywania takich roszczeń, zanim zostaną spełnione Zakres usług świadczonych dla podatników Zestaw usług dla podatników i ich przedstawicieli jest ważnym elementem pracy wszystkich organów podatkowych. W kontekście usług świadczonych podatnikom, jakość ma wiele wymiarów (np. terminowość, dokładność doradztwa, łatwość uzyskania porady i informacji). Niniejsze opracowanie koncentruje się na normach, które zostały ustanowione dla terminowości 138

139 Dorota Bloch oraz na poziomie osiągniętej wydajności. Odzwierciedlając swoje zobowiązanie do przejrzystości, odpowiedzialności i dobrego poziomu wydajności, niektóre organy podatkowe opracowały formalne normy dla głównych czynności związanych z usługami świadczonymi przez nie podatnikom. Do podstawowych usług zaliczyć możemy: przetwarzanie deklaracji podatkowych PIT oraz VAT papierowych i elektronicznych, merytoryczne odpowiedzi na zapytania pisemne oraz bezpośredni kontakt z petentami w punktach obsługi, odpowiadanie na telefoniczne zapytania, rozstrzyganie skarg podatników oraz rejestrowanie nowych przedsiębiorstw. Ogólnie rzecz biorąc, stopień reakcji jest kluczowym kryterium stanowiącym o tym, że usługa jest uznawana za dobrą, co ma odzwierciedlenie właśnie w systemie formalnych standardów opracowanych przez niektóre instytucje podatkowe. Niestety praktyki ustanawiania standardów usług i mierzenia osiągniętych przez organy podatkowe wydajności pozostają stosunkowo rzadkie. Jak można zaobserwować w tabelach zamieszczonych w Załączniku 2 blisko połowa badanych krajów Unii Europejskiej (Belgia, Bułgaria, Czechy, Grecja, Litwa, Łotwa, Niemcy, Rumunia, Słowacja, Słowenia, Szwecja oraz Węgry) nie posiadała danych na temat wyszczególnionych usług podatkowych lub w ogóle nie stosowała norm w tym zakresie. Niewiele krajów może poszczycić się kompleksowym zestawem norm dla wszystkich poruszonych w tym opracowaniu obszarów usług podatkowych. Najczęściej istniały normy odnośnie przetwarzania (rozliczania) deklaracji podatku PIT oraz VAT, odpowiedzi na zapytania pisemne oraz telefoniczne, a także dane dotyczące obsługi sporów. Rzadziej zgłaszane były normy w zakresie udzielania porad w kontakcie bezpośrednim z petentem oraz rejestrowania nowych przedsiębiorstw. Należy również wskazać, iż normy w poszczególnych krajach potrafiły się istotnie różnić np. w Irlandii zeznania podatkowe PIT rozpatrywane są w 80% w ciągu 10 dni, przy czym całość deklaracji w maksymalnie 20 dni. W Polsce dla kontrastu czas oczekiwania na rozliczenie się z fiskusem wynosi 3 miesiące. Wśród krajów dbających o ustanawianie standardów wyróżnić można: Estonię oraz Irlandię określające 6 z 7 wyżej wymienionych norm a także Austrię (5 z 7 norm) Zakres podatkowych czynności weryfikacyjnych Ogólnie rzecz biorąc działania administracji podatkowej można podzielić na: 1. Zarządzanie kontami podatników wszystkie czynności związane z utrzymywaniem ewidencji podatników np. rejestracja, przetwarzanie danych, wypełnianie zgłoszeń, zaliczki na podatek, itp.; 2. Audyt, dochodzenia oraz inne czynności weryfikacyjne wszystkie czynności umożliwiające weryfikację informacji zawartych w zeznaniach podatkowych (zarówno w terenie, w urzędach jak i wyjaśnienia pisemne); 3. Windykację wierzytelności i powiązane z nią funkcje; 4. Zarządzanie korporacyjne (włączając w to wsparcie IT) cały personel zarządzający zasobami ludzkimi, technologie informacyjne, zaopatrzenie, ochrona, finanse itp.; 5. Pozostałe funkcje. Pełnienie powyższych funkcji wymaga alokowania odpowiednich zasobów m.in. kadrowych. Poszczególne kraje Unii Europejskiej znacznie różnią się ilością pracowników administracji podatkowej. Dane dotyczące liczby etatów ogółem, a także z wyszczególnieniem dwóch konkretnych funkcji administracji podatkowej, prezentują kolumny 4 7 tabeli z Załącznika 1. Wśród krajów o najwyższej ich liczbie wyróżnić możemy Niemcy, Francję, Włochy oraz Polskę, gdzie liczba urzędników przekracza 50 tys. osób. Oczywiście jest to miara bezwzględna, nie dająca pełnego obrazu, gdyż kraje różnią się liczbą mieszkańców. Lepszym miernikiem jest więc zastosowanie wskaźnika określającego ogólną liczbę ludności danego kraju/liczbę pracowników administracji podatkowej, ukazującego ilu mieszkańców przypada na jednego urzędnika. Najmniejsze obciążenie urzędników występuje w Luksemburgu, Belgii (niespełna 600 mieszk./pracownika) oraz na Węgrzech, w Irlandii oraz Czechach, gdzie jeden pracownik obsługuje średnio mieszkańców. W Hiszpanii oraz Estonii na urzędnika przypada ponad dwukrotnie większa liczba potencjalnych petentów. Jeden pracownik administracji skarbowej przypada na blisko 1,5 tys. mieszkańców. Oczywiście mniejsza ilość 139

140 Ściągalność podatków w krajach Unii Europejskiej petentów przypadająca na jednego urzędnika może skutkować bardziej dokładną jego pracą oraz wnikliwszą analizą poszczególnego podatnika. Z drugiej strony jednak każdy dodatkowy pracownik zwiększa koszty funkcjonowania aparatu skarbowego danego państwa, ważne jest więc, aby zwiększał on również jego skuteczność. Analizując poszczególne funkcje administracji podatkowej i przypadające na nią zasoby kadrowe można zauważyć, iż w większości krajów Unii ponad 35% zasobów kadrowych (etatów) poświęcone jest na czynności związane z audytem, dochodzeniami i innymi działaniami związanymi z weryfikacją. Wyniki działań weryfikacyjnych, jako odsetek rocznych przychodów podatkowych netto w 2009 przedstawiają się następująco: 7 państw osiągnęło wyniki < 2% przychodów netto (najsłabszy wynik odnotowała Polska 0,8% oraz Szwecja 0,4%), 6 państw osiągnęło wyniki na poziomie 2 4%, 5 państw osiągnęło wyniki na poziomie 4 8%, 4 państwa osiągnęły wyniki na poziomie > 8% przychodów netto (Portugalia, Słowacja, Węgry z przedziału 8 10% oraz Włochy 17%), dla 4 państw dane nie były dostępne. Porównując wielkość personelu zaangażowanego w czynności weryfikacyjne z ich wynikami możemy zauważyć, że istnieją kraje charakteryzujące się słabą skutecznością tych działań. Austria delegująca największy odsetek swego personelu do czynności weryfikacyjnych (ponad 70%) uzyskuje dzięki nim zaledwie 2% przychodów. Podobnie jest w Belgii, Bułgarii, Niemczech, gdzie podobny poziom przychodów generuje ponad 40% zasobów kadrowych przydzielonych do czynności weryfikacyjnych. Grecja (21,6%) oraz Portugalia (17,5%) natomiast przy niskim zaangażowaniu personelu (mniejszym niż średnia dla krajów Unii wynosząca 35%) potrafi generować odpowiednio 6,3% oraz 9,7% przychodów w wyniku czynności weryfikacyjnych. Włochy osiągają najwyższe przychody (17%) jednak przy znacznym zaangażowaniu personelu (ponad 48%) Pobór długów podatkowych Pobór, ściągalność długów podatkowych jest kolejną ważną powinnością organów podatkowych. Wskaźnik zaległości podatkowych na koniec roku/przychodu netto z poboru podatków kształtował się następująco: 7 państw (Austria, Dania, Irlandia, Holandia, Niemcy, Słowenia i Szwecja) ma wskaźnik na poziomie < 5%, 5 państw ma wskaźnik na poziomie 5 10%, 6 państw ma wskaźnik na poziomie 10 20%, 6 państw ma wskaźnik na poziomie > 20% (Węgry, Portugalia, Belgia, Cypr, Słowacja 59,5 oraz Grecja 72,7), dla 2 państw dane nie zostały udostępnione. Jeśli chodzi o dynamikę tego wskaźnika w pięcioletnim okresie ( ) to większość państw Unii Europejskiej (15) charakteryzowała się tendencją wzrostową. Jest ona ważna, gdyż może wskazywać na skuteczność poboru podatków. Ogólnie rzecz biorąc, malejąca tendencja wskaźnika wskazuje na poprawę efektywności poboru podatków, podczas gdy tendencja wzrostowa może oznaczać wzrost liczby niepłaconych podatków. Największy wzrost dokonał się w Belgii (+520%). Również Słowacja (+36%) oraz Grecja (+19%) odnotowały wzrosty wskaźnika długu podatkowego/przychodów. Jest to sytuacja o tyle niepokojąca, iż kraje te charakteryzują się najwyższymi wartościami wskaźników w Europie, jak zostało przytoczone powyżej. Dania (+400%), Hiszpania (+104%) czy Irlandia (+89%) również cechuje wyraźna dodatnia tendencja, jednak dokonuje się ona przy niskich wartościach wskaźnika kształtujących się na poziomie kliku procent. Cztery państwa odnotowały tendencję spadkową, z których Bułgaria ( 95%) oraz Portugalia ( 33%) największe. 140

141 Dorota Bloch Analizując wielkość personelu zaangażowanego w czynności związane z windykacją wierzytelności podatkowych zauważyć można, że największy odsetek pracowników administracji skarbowej delegowanych do tego obszaru działalności notują Hiszpania, Luksemburg oraz Węgry (18 19%) a także Francja (blisko 21%). We Francji oraz w Hiszpanii wiąże się to z dosyć niskim wskaźnikiem dług/przychód netto nie przekraczającym 10%. Węgry natomiast przy dość dużym zaangażowaniu personelu osiągają wskaźnik na poziomie 24%, co może świadczyć o niskiej nieskuteczności działań. Bez wątpienia istnieje wiele czynników, które wpływają na ogólny poziom płatności podatków, a co za tym idzie, również na skalę działań w zakresie windykacji wierzytelności podatkowych. Z informacji zebranych powyżej można wyróżnić pewne wspólne cechy rozwiązań administracji podatkowej, które mogą mieć wpływ na dotrzymywanie płatności podatkowych. Jak wspomniano powyżej 7 państw (Austria, Dania, Irlandia, Holandia, Niemcy, Słowenia i Szwecja) posiadało zapas zadłużenia netto na koniec roku mniejszy niż 5% rocznego przychodu netto. Wśród czynników, które mogły się przyczynić do stosunkowo niskiego poziomu długu podatkowego w tych krajach można wyróżnić: Szerokie możliwości ścigania (odpowiednie poziomy odsetek i kar) z kilkoma wyjątkami, organy podatkowe w tych krajach są upoważnione do zbierania podatków od osób trzecich, uzyskiwania hipoteki nad aktywami, wstrzymania płatności rządowych wobec dłużników czy np. wymagają posiadania uregulowanych płatności podatkowych przy przyznawaniu zamówień rządowych; Delegowanie odpowiednich środków na przeprowadzanie windykacji wiele organów podatkowych przeznacza 10% ich zasobów na działalność związaną z egzekucją zadłużenia podatkowego; Istnienie systemów płatności zaliczkowych większość systemów w zakresie podatku dochodowego (dla podatników indywidualnych i korporacyjnych), jest zaprojektowana do zbierania przeważającej części podatku (w formie płatności zaliczkowych) podczas roku obrachunkowego, w którym dochód jest uzyskiwany; Szerokie zastosowanie metod płatności elektronicznych. 2. Szara strefa w UE Uzupełnieniem powyższych wskaźników może być przedstawienie skali występowania szarej strefy w poszczególnych krajach UE (ostatnia kolumna tabeli z Załącznika 1). Mianem szarej strefy (lub gospodarki nieformalnej) określa się tę część produkcji nie zakazanej przez prawo, która odbywa się w sposób nie zarejestrowany, bez opłacania należnych podatków i opłat na rzecz państwa. Czynnikami, które przyczyniają się do istnienia i rozwoju szarej strefy są zazwyczaj nadmierne podatki, niesprawność instytucji publicznych odpowiedzialnych za naliczanie i pobór podatków oraz rejestrację działalności gospodarczej, nieprzejrzyste i nieżyczliwe przedsiębiorcom prawo, nadmierna biurokracja. Jak wynika z ostatniej kolumny tabeli szara strefa stanowi w UE blisko 20% PKB. Wśród krajów wyróżniających się możemy w tym względzie wskazać Austrię, Holandię oraz Luksemburg, w których skala tego zjawiska jest najmniejsza do 10% PKB. Jest to ciekawa obserwacją zważywszy na fakt, iż wszystkie wymienione kraje należą do krajów o wysokich obciążeniach podatkowych (szczególnie Austria). Brak istnienia w tych krajach rozbudowanej szarej strefy można upatrywać bądź w otrzymywaniu przez społeczeństwo ekwiwalentu w postaci np. rozbudowanego systemu świadczeń socjalnych bądź w sprawności działań weryfikacyjnych i ściąganiu zaległości podatkowych czy też w sprzyjającym przedsiębiorcom prawie (patrz tabela w Załączniku 2, dane dotyczące rejestracji nowych przedsiębiorstw, gdzie Holandia oraz Luksemburg, jako jedne z niewielu krajów mają ustanowione restrykcyjne normy dotyczące czasu rejestracji nowych przedsiębiorstw, które są ściśle przestrzegane). Z kolei Bułgaria, Estonia, Litwa oraz Rumunia to kraje, gdzie szara strefa stanowi blisko 1/3 PKB. Także Łotwa, Węgry, Polska oraz Włochy i Grecja borykają się z problemem nieformalnej gospodarki, która stanowi tam ponad 20% PKB. Większość z tych krajów to kraje 141

142 Ściągalność podatków w krajach Unii Europejskiej postkomunistyczne, kraje o stosunkowo młodej gospodarce rynkowej w porównaniu z większością państw europejskich, szczególnie z krajami starej piętnastki. Ogólnie rzecz biorąc ocenia się, że w krajach rozwiniętych rozmiary szarej strefy są mniejsze niż w grupie krajów transformujących się bądź słabo rozwiniętych, co znajdowałoby potwierdzenie w danych zawartych w tym opracowaniu. Zakończenie Kraje UE znacznie różnią się klimatem podatkowym, różne są obciążenia nakładane na obywateli, różne są też rozwiązania systemowe mające skłaniać ich do płacenia podatków czy umożliwiające poprawę egzekwowania należności podatkowych przez administracje skarbowe. Wśród krajów o sprzyjającym, a także efektywnym systemie podatkowym można wymienić Austrię, Danię, Irlandię, Niemcy, Szwecję czy Holandię. Kraje te posiadają aparat skarbowy charakteryzujący się silną determinacją do tropienia nieprawidłowości i ściągania zaległości podatkowych. Ma to swe odzwierciedlenie m.in. w niskich zapasach długów podatkowych oraz w odpowiednio dużej części zasobów kadrowych przeznaczonych do wykonywania działań weryfikacyjnych. Kraje te dążą również do ustanawiania norm dla usług świadczonych dla podatników, w czym zdecydowanie przoduje Austria oraz Irlandia. Co ciekawe większość wymienionych krajów to kraje o wysokich obciążeniach podatkowych sięgających blisko (lub ponad) 40% PKB. Obciążenia te nie wpływają jednak na niechęć obywateli do płacenia podatków być może dlatego, że mają swe realne uzasadnienie w koncepcji państwa opiekuńczego realizowanej szczególnie właśnie w krajach skandynawskich oraz Niemczech. W niechlubnym gronie krajów o niesprawnym oraz nieprzyjaznym systemie podatkowym znalazły się Słowacja oraz Grecja. Również te kraje potwierdzają, iż przyczyn takiego stanu rzeczy nie należy raczej upatrywać w wielkości istniejących obciążeń podatkowych, gdyż kraje te reprezentują dwa skrajne przypadki Grecja znajduje się wśród krajów z najwyższymi obciążeniami, zaś Słowacja wśród tych z najniższymi. Polska, choć nie radzi sobie najgorzej ze ściągalnością podatków, to na pewno nie można jej nazwać krajem sprzyjającym podatnikom. Należy więc zauważyć, iż sprzyjający system podatkowy to wcale nie ten o najniższych obciążeniach, ale ten wydolny administracyjnie, stosujący szereg usprawnień i nowoczesnych rozwiązań dla obsługi podatników (jak chociażby płatności elektroniczne), ustanawiający kompleksowe normy i standardy ich obsługi, wychodzący naprzeciw petentom. To również system zdeterminowany na egzekwowanie prawa i ściganie wszelkich nieuczciwości. Za wzór w tym zakresie mogą być stawiane kraje takie jak wymienione wyżej kraje skandynawskie. Grecja jest natomiast przykładem kraju, który obok problemów systemowych, musi sobie poradzić ze zmianą uwarunkowań kulturowych, co może wymagać o wiele więcej czasu i wysiłku niż prosta przebudowa systemu. Podobnie rzecz wygląda w krajach postkomunistycznych, krajach transformujących się, o stosunkowo młodej demokracji oraz gospodarce rynkowej jak Węgry, Czechy, Słowacja, Rumunia, Bułgaria oraz Polska. Kraje te muszą usprawnić swe systemy i wyeliminować nieuczciwość i kombinatorstwo zakorzenione w obywatelach, typowe dla poprzednich systemów politycznych i gospodarczych. Przed tymi krajami duże wyzwanie dorównania najlepszym, ale opracowanie to wyraźnie wskazuje którędy prowadzi droga do sprawniejszych systemów podatkowych. Bibliografia 1. Raport OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010)[online],

143 Dorota Bloch Załącznik 1. Tabela 1. Charakterystyki wybranych wskaźników oraz obszarów działalności administracji podatkowej w krajach Unii Europejskiej Źródło: opracowanie własne na podstawie raportu OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010),

144 Ściągalność podatków w krajach Unii Europejskiej Załącznik 2. Tabela 2. Usługi świadczone podatnikom zestaw norm oraz wyniki osiągnięte w roku 2009 Źródło: opracowanie własne na podstawie raportu OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010),

145 Dorota Bloch Tabela 3. Usługi świadczone podatnikom zestaw norm oraz wyniki osiągnięte w roku 2009 c.d. Źródło: opracowanie własne na podstawie raportu OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010),

146 Ściągalność podatków w krajach Unii Europejskiej Tax Collectibility in the European Union Countries The analysis of tax burdens imposed on the European Union countries citizens and the effectiveness of particular tax administrations in tax collectibility are stated in the article. The aim of the analysis is to determine whether tax collectibility is conditioned by systemic solutions or is there no relation between e.g. the amount of tax burdens and the sum of taxes collected, whereas the problems with tax collection should be sought totally elsewhere. Moreover, the attempts to indicate the countries which distinguish themselves in Europe both positively and negatively are presented by the author in the article. Keywords: taxes, tax burdens, the European Union tax collectibility 146

147 Dorota Bloch Dorota Bloch Podatkowe problemy Grecji Streszczenie: Artykuł porusza problematykę niskiej ściągalności podatków w Grecji. Pierwszą część stanowi analiza klimatu podatkowego w Grecji w ujęciu ogólnym, a także z punktu widzenia przedsiębiorcy greckiego. W dalszej części opracowania autorka wskazuje na uwarunkowania kulturowe, a także nieudolność aparatu skarbowego Grecji, jako na główne przyczyny unikania płacenia podatków przez Greków. W ostatniej części opisuje próby zmian, jakie podejmuje w ostatnim czasie rząd Grecji w celu poprawy skuteczności swojego aparatu skarbowego. Słowa kluczowe: podatki, Grecja, klimat podatkowy, unikanie płacenia podatków, nieskuteczność aparatu skarbowego, uwarunkowania kulturowe Wprowadzenie Grecja od początku 2010 roku boryka się z kryzysem zadłużeniowym. Negocjowane są kolejne transze pomocy unijnej i kolejne restrykcje, jakie kraj ten musi wprowadzić, w celu uniknięcia ogłoszenia bankructwa. Wśród wielu przyczyn trudnej sytuacji Grecji wymienia się m.in. nieuczciwość i korupcję. Grecja obok Rumunii i Bułgarii jest najbardziej skorumpowanym krajem w Europie. Szacunki greckiego rządu mówią o szarej strefie sięgającej 1/3 PKB. Państwo traci w wyniku uchylania się obywateli oraz przedsiębiorców od płacenia podatków blisko 20 mld euro rocznie, zaś całkowita wielkość niezapłaconych podatków to ponad 60 mld euro. Sytuacja podatkowa w Grecji Grecja jest krajem o umiarkowanych obciążeniach podatkowych na tle innych krajów unijnych. Relacja podatków do PKB w 2011 roku wyniosła blisko 31,6%, przy czym średnia unijna dla tego roku wyniosła blisko 36%. Wśród krajów UE o największych ciężarach podatkowych (przekraczających 40% PKB) wyróżnić możemy m.in. Austrię, Belgię, Danię, Finlandię, Francję, Szwecję, Węgry oraz Włochy. Mimo to, to właśnie Grecja posiada największe zapasy długów podatkowych. W 2009 roku wskaźnik zaległości podatkowych na koniec roku/przychodu netto z poboru podatków wyniósł w tym kraju 72,7% 1. Klimat podatkowy w Grecji z punktu widzenia przedsiębiorcy 2 Raport Paying taxes 2011 będący wspólną publikacją Banku Światowego (Word Bank), International Finance Corporation (IFC) oraz PricewaterhouseCoopers (PwC) analizuje czasowe i kosztowe obciążenia podatkowe modelowego przedsiębiorstwa (60 pracowników) w 183 krajach świata. Badanie opiera się na danych zebranych w projekcie Doing Business. Na podstawie trzech wskaźników TTR (Total Tax Rate) wielkości całkowitych obciążeń podatkowych, czasu niezbędnego do wykonania czynności podatkowych oraz liczby płatności podatkowych w ciągu Autorka jest doktorantką w Katedrze Zarządzania Finansami na Wydziale Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu. Obszar zainteresowań rynki finansowe i ich stabilność, w szczególności rynek agencji ratingowych. 1 Na podstawie raportu OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010)[online], [ ]. 2 Na podstawie raportu Paying Taxes 2011 the global picture, Word Bank Group, The International Finance Corporation (IFC) and PwC, [ ]. 147

148 Podatkowe problemy Grecji roku, autorzy stworzyli ranking oceniający łatwość płacenia podatków z punktu widzenia firm. Grecja w tym rankingu zajmuje 74 miejsce wśród 183 państw świata. Najgorszy wynik Grecja notuje w zakresie wskaźnika TTR. Jak zostało wspomniane powyżej, wskaźnik ten ukazuje całkowite koszty podatkowe dla przedsiębiorcy, jako odsetek zysków przed opodatkowaniem (TTR jest więc ilorazem wszystkich zapłaconych podatków oraz tzw. commercial profit). Wśród kosztów ponoszonych przez pracodawcę wyróżnione zostały podatek od zysków (profit taxes), opodatkowanie pracy, czyli składki emerytalne, zdrowotne itp. (labour taxes) oraz inne podatki nakładane na przedsiębiorstwa (other taxes), wśród których znajdują się m.in. podatki od czynności prawnych, od nieruchomości czy od sprzedaży (w tym VAT). Wielkość całkowitych obciążeń podatkowych dla przedsiębiorcy greckiego wynosi 47,2% i plasuje Grecję dopiero na 125 miejscu na świecie. Również czas, jaki średnio poświęca przedsiębiorca grecki na dopełnienie wszelkich czynności podatkowych jest dość długi i wynosi 224 godziny rocznie (88 godzin dla czynności związanych z podatkiem od zysków, 48 godzin dla opodatkowania pracy i 88 godzin dla podatku VAT). Jednocześnie należy dodać, iż jest to wynik nieodbiegający od średniej unijnej, która jest zaledwie o 2 godziny niższa niż ta osiągana w Grecji i plasuje ją na 90 miejscu na świecie razem z Hondurasem, Ghaną, Tadżykistanem oraz Samoa. Malediwy, Zjednoczone Emiraty Arabskie czy Katar to czołówka światowa w minimalizowaniu czasu poświęcanego przez przedsiębiorcę na dopełnienie czynności podatkowych. Lepiej sytuacja Grecji kształtuje się w zakresie liczby płatności dokonywanych w ciągu roku. Wskaźnik ten ukazuje, ile razy firma płaci podatki w roku i w jaki sposób dokonuje tych płatności. Obejmuje zatem wszystkie podatki, a także bierze pod uwagę metodę płatności np. elektroniczne płatności. Gdy wypełnienie i płacenie podatków dokonywane jest online, liczba rzeczywistych płatności jest często ograniczona do jednej. W UE Szwecja stosuje najlepsze praktyki w tym względzie. Cztery z pięciu podatków są tam łącznie wypełniane i płacone za pomocą systemu online, powodując tylko dwie płatności w ciągu roku, co daje najniższy wynik na świecie. Norwegia stosuje podobne podejście. Posiada zaledwie cztery podatki (podatek dochodowy CIT, składki na ubezpieczenie społeczne, podatek VAT i akcyza) i cztery płatności w ciągu roku. Natomiast gospodarki z największą liczba płatności posiadają wiele podatków, a elektroniczne wypełnianie wniosków i płatności jest niedostępne lub nie jest powszechnie używane. Na przykład w Rumunii, firma płaci 17 różnych podatków, co znacznie przewyższa średnią dla świata (9) i średnią dla Unii Europejskiej (11). Przedsiębiorca miesięcznie dokonuje płatności podatku VAT oraz płatności dla każdego z siedmiu różnych tytułów opodatkowania pracy. Ponadto dokonuje kwartalnych płatności dla podatku dochodowego CIT oraz 13 innych płatności związanych z ośmioma kolejnymi podatkami. W Grecji dokonuje się średnio 10 płatności w ciągu roku, co daje jej 33 miejsce na świecie. Grecja w ostatecznym rankingu plasuje się na 74 miejscu wśród 183 państw świata. Państwami o podobnym poziomie łatwości płacenia podatków dla przedsiębiorcy są m.in. Belgia (70), Hiszpania (71), Madagaskar (72), Portugalia (73) oraz Turcja (75). Porównując jednak zapasy długów podatkowych posiadane przez te kraje, Grecja zdecydowanie wyprzedza pozostałe europejskie kraje. W Hiszpanii wskaźnik dług podatkowy/przychód netto wynosił w 2011 roku zaledwie 9,4%. Portugalia (27,2%) oraz Belgia (34,9%) odnotowują dużo wyższe wartości tego wskaźnika, ale wciąż są to wartości znacząco mniejsze niż wielkość długów podatkowych Grecji stanowiących 72,7%. Uwarunkowania kulturowe niepłacenia podatków Kultura niepłacenia podatków jest w Grecji szeroko rozwinięta. W państwie tym jest więcej aut Porsche Cayenne, niż podatników deklarujących ponad 50 tys. euro rocznego dochodu. Przykładów oszustw Greków jest wiele, a ich symbolem stały się m.in. baseny. Uważane są one 148

149 Dorota Bloch przez państwo za dobro luksusowe, od którego należy odprowadzić podatek. Na początku 2010 roku zarejestrowanych było nieco ponad 300 basenów, przy czym kontrole wykazały istnienie blisko 17 tysięcy basenów. Oznacza to, że podatek odprowadzało zaledwie 1,8% właścicieli 3. Drugim symbolem są niedokończone domy. Wielu Greków nie decyduje się na dokończenie budowy, gdyż podatek płaci się tylko od w pełni wybudowanej nieruchomości 4. Około 90% lekarzy w tym kraju deklaruje zarobki na poziomie 300 euro/miesiąc dzięki czemu nie płaci podatków, w restauracjach rachunki wystawiane są na kartce papieru, a kasy fiskalne są praktycznie nieużywane, by nie rejestrować przychodów. Są to bardzo wyraźne przykłady greckiej tradycji unikania płacenia podatków. Istnieje również wiele rozwiązań systemowych, które przyczyniają się do trudnej sytuacji fiskalnej Grecji. Połowa aktywnych zawodowo Greków jest zatrudnionych, a druga połowa to samozatrudnieni niezależni specjaliści, których podstawa podatkowa jest niższa, niż w przypadku tradycyjnie zatrudnionych 5. Również korzystanie z rajów podatkowych przez zamożnych obywateli jest bardzo popularne w Grecji, na czym kraj traci każdego roku mnóstwo wpływów. Nieskuteczność aparatu skarbowego w Grecji Grecja zmaga się z naczelną regułą zdrowego systemu podatkowego, jaką jest egzekwowanie prawa. Ludzie są bardziej skłonni do płacenia podatków, kiedy w ich oczach istnieje realna szansa, że nieuczciwość będzie wykrywana i karana. Zamiast tego w Grecji istnieje powszechne przekonanie o możliwości przekupienia urzędników za pomocą odpowiedniej sumy pieniędzy. System płacenia przez Greków zobowiązań podatkowych nazwano nawet z języka piłkarskiego ustawieniem Oznacza to mniej więcej tyle, że z każdego tysiąca euro należnego podatku 400 trafia do inspektora, drugie tyle do podatnika i tylko 200 do państwa 6. Brak jest nacisków politycznych i społecznych dla stosowania bardziej rygorystycznych rozwiązań w zakresie egzekwowania przepisów podatkowych. W Grecji nawet wtedy, gdy system wyśledzi unikających płacenia podatków, nie jest w stanie zmusić ich do zapłaty, ponieważ sądom zajmującym się sprawami podatkowymi rozstrzygnięcie sprawy zajmuje z reguły siedem do dziesięciu lat. Z końcem lutego ubiegłego roku Grecja miała nierozwiązanych 300 tys. sporów podatkowych na łączną sumę 30 mld euro. Obok trudności z egzekwowaniem prawa w Grecji problemem są niskie morale podatkowe, wynikające m.in. z wszechobecnego w biznesie czy nawet sporcie standardu nadużyć i korupcji. Grecka demokracja jest stosunkowo młoda i od początku istnienia była błędnie postrzegana przez Greków, jako droga do załatwiania własnych interesów. System podatkowy ma wiele luk oraz wyjątków i zwolnień. Lekarze, piosenkarze, sportowcy są opodatkowani stawką preferencyjną, potentaci żeglugi zostali zwolnieni z podatku w ogóle, a przedstawiciele wielu innych profesji otrzymali możliwość nierejestrowania swoich dochodów. Taki stan rzeczy sprawia, że istnieje ogromna część populacji nie płacąca podatków z powodu poczucia bycia wykorzystywanym. Wszechobecne oszustwa skutkują brakiem zaufania do systemu oraz unikaniem płacenia podatków. Rząd w reakcji na taki stan rzeczy nakłada więc większe podatki na tych, którzy uczciwie wywiązują się z obowiązku podatkowego, co z kolei motywuje ich do przyłączenia się do oszukujących w kolejnych okresach. Zastęp unikających płacenie podatków się powiększa. Tworzy się swoiste błędne koło 7. Próby zmian Grecja obecnie stara się racjonalizować swój system podatkowy. Wprowadza szereg reform, uprościła podatki, wyeliminowała wiele ulg. Przywileje stracili m.in. taksówkarze, 3 Kozieł H., Grecka przestroga dla Europy, Uważam Rze, nr 33/ Grecja ma fortunę w nieściągniętych podatkach, [ ]. 5 Grecja nie potrafi ściągnąć 60 mld euro podatków, Forbes, [ ]. 6 Różyński P., 4 4 2, czyli jak Grecy grają ze swoją skarbówką, Dziennik Gazeta Prawna, [ ]. 7 Surowiecki J., Dodger mania, The New Yorker, [ ]. 149

150 Podatkowe problemy Grecji inżynierowie, lekarze i sportowcy. Opodatkowano nieruchomości cerkwi prawosławnej dotąd nietykalnej w Grecji. W celu walki z nierejestrowaniem przychodów na kasach fiskalnych wprowadzono obowiązek zachowywania paragonów przez konsumentów. Ograniczono możliwości przeprowadzania transakcji gotówkowych przez przedsiębiorców 8. Poza tym Grecja intensyfikuje swoje działania w zakresie wykrywania i egzekwowania zaległości podatkowych. Przykładem może tu być decyzja o użyciu helikopterów do śledzenia basenów będących dowodem niezgłoszonego bogactwa czy opublikowanie przez rząd Grecji listy oszustów podatkowych w celu ich publicznego zawstydzenia i skłonienia do płacenia podatków. Wśród 4 tys. nieuczciwych Greków, którzy w sumie zalegają państwu 15 mld euro, znaleźli się m.in. biznesmeni, którzy skazani byli za oszustwa podatkowe, piosenkarka, a nawet mąż byłej minister. By możliwe było upowszechnienie listy, grecki parlament doprowadził do zmiany prawa o ochronie danych osobowych. Choć większości z tych długów nie da się wyegzekwować (bo np. największy dłużnik odsiaduje w więzieniu karę 504 lat pozbawienia wolności za malwersacje podatkowe), to działania te mogą przywrócić poczucie sprawiedliwości uczciwym podatnikom, którzy płacili dotąd za nieuczciwość swoich współrodaków 9. Innym przykładem prób poprawienia ściągalności podatków w Grecji są rozpoczęte w październiku ubiegłego roku rozmowy ze Szwajcarią w sprawie greckich obywateli, którzy ulokowali oszczędności w Szwajcarii, by uniknąć płacenia podatków w kraju. Swoją pomoc w odbudowie systemu poboru podatków zaoferowali również Niemcy, którzy obok kolejnych transz ratujących budżet Grecji, chcą wysłać blisko 160 emerytowanych pracowników administracji skarbowej, mogących wesprzeć budowanie skutecznego systemu poboru podatków w Grecji 10. Zakończenie Grecja jest krajem o umiarkowanych obciążeniach podatkowych zarówno dla obywateli (ciężary podatkowe na poziomie średniej unijnej) jak i dla przedsiębiorców (74 miejsce wśród 183 państw świata w rankingu łatwości płacenia podatków przez firmy). Mimo to długi podatkowe w Grecji są najwyższymi spośród krajów Unii Europejskiej. Przyczyn tak niskiej ściągalności podatków w Grecji należy upatrywać przede wszystkim w mentalności Greków, dla których niepłacenie podatków jest przejawem sprytu, oszczędności i dbania o własne interesy. Grecja poza obciążeniem kulturowym jest dodatkowo niewydolna systemowo w zakresie podatków. Przekupić można praktycznie każdego urzędnika skarbowego, a podatkowe sprawy sądowe toczą się latami. To połączenie zaprowadziło Greków na skraj bankructwa. Obecnie obserwowane są próby racjonalizowania systemu podatkowego i przejawy większej determinacji w zakresie wykrywania i egzekwowania zaległości podatkowych. Jednak największa nawet ilość sprawnie wprowadzonych zmian systemowych i kontroli nie poprawi sytuacji kraju, jeśli zmianie nie ulegnie mentalność Greków. Muszą oni zrozumieć, iż płacenie podatków nie powinno wynikać jedynie z lęku przed byciem złapanym, ale przede wszystkim z poczucia obowiązku partycypowania w odpowiedzialności za wspólne dobro, jakim jest państwo. Netografia 1. Grecja ma fortunę w nieściągniętych podatkach, [ ]. 2. Grecja nie potrafi ściągnąć 60 mld euro podatków, Forbes, [ ]. 3. Grecja walczy z szarą strefa i reformuje podatki, [ ]. 4. Kozieł H., Grecka przestroga dla Europy, Uważam Rze, nr 33/ Lista greckich oszustów podatkowych, Reuters, [ ]. 6. Maszewski W., Poborcy z Berlina jadą do Aten, Nasz Dziennik Nr 49 (4284), [ ]. 8 Grecja walczy z szarą strefa i reformuje podatki, [ ]. 9 Lista greckich oszustów podatkowych, Reuters, [ ]. 10 Maszewski W., Poborcy z Berlina jadą do Aten, Nasz Dziennik Nr 49 (4284), [ ]. 150

151 Dorota Bloch 7. Raport OECD, Tax Administration in OECD and Selected Non OECD Countries: Comparative Information Series (2010)[online], [ ]. 8. Raport Paying Taxes 2011 the global picture [online], Word Bank Group, The International Finance Corporation (IFC) and PwC, [ ] 9. Różyński P., 4 4 2, czyli jak Grecy grają ze swoją skarbówką, Dziennik Gazeta Prawna, [ ]. 10. Surowiecki J., Dodger mania, The New Yorker, [ ]. Greece's Tax Problems The problem of inefficient tax collectability in Greece is stated in the article. The tax climate analysis in Greece in general terms and from the Greek entrepreneur's point of view constitutes the first part of the article. The cultural conditioning and the inefficiency of tax authorities in Greece as the main reasons for tax avoidance in Greece are indicated by the author in the further part of the paper. The last part is devoted to the attempts of changes that have been recently undertaken by the Greek government in order to improve the efficiency of its tax authorities. Keywords: taxes, Greece, tax climate, tax avoidance, inefficiency of tax authorities, cultural conditioning 151

152 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych Gabriela Gurgul * Płynność banków komercyjnych w okresie globalnych zawirowań finansowych Streszczenie: W artykule przeprowadzona została analiza i ocena płynności finansowej wybranych banków w latach Ukazane zostały zostały metody pozwalające na określenie poziomu ryzyka płynności i sposoby minimalizacji tego ryzyka. Artykuł porusza również problematykę płynności, wypłacalności i zwrotu z kapitału w warunkach turbulencji na rynkach finansowych, co nieodzownie wiąże się z przyszłością sektora bankowego. Słowa kluczowe: płynność, rentowność, kryzys finansowy Banki jako pośrednicy finansowi są odpowiedzialne za zapewnienie stałych przepływów pieniężnych między podmiotami na rynku. Nawet niewielkie opóźnienia w realizacji płatności klientów, znacznie ograniczają ich zaufanie jako do podmiotów finansowych, a stałe pogarszanie się płynności finansowej banków może prowadzić do zawieszenia ich działalności, a w konsekwencji nawet do bankructwa. Banki są zobligowane do utrzymania płynności dostosowanej do rozmiarów i rodzaju działalności, w sposób zapewniający wykonywanie zobowiązań zgodnie z terminami ich płatności 1. W tym celu stosują obowiązujące zasady zarządzania płynnością, uwzględniając wpływ warunków rynkowych 2. Celem artykułu jest analiza i ocena płynności finansowej wybranych banków w latach oraz wykazanie metod pozwalających na określenie poziomu ryzyka płynności, a także minimalizowanie sposobów tego ryzyka. Poruszenie problematyki płynności, wypłacalności i zwrotu z kapitału w warunkach turbulencji na rynkach finansowych, co nieodzownie wiąże się z przyszłością sektora bankowego. 1. Pojęcie płynności finansowej i czynniki determinujące ryzyko płynności Banki jako instytucje zaufania publicznego zobowiązane są do posiadania płynności finansowej, która jest traktowana jako zdolność do finansowania przez nie aktywów oraz terminowego realizowania zobowiązań finansowych bez konieczności generowania z tego tytułu straty 3. Płynność banku, czyli zdolność bezzwłocznego regulowania zobowiązań, której utrzymanie jest obowiązkiem banku oraz warunkiem jego funkcjonowania oraz wiarygodności. Ocena płynności finansowej, a także zarządzanie tą kategorią w banku stanowi jedną z podstawowych * doktorantka w Katedrze Bankowości i Finansów Porównawczych Wydziału Zarządzania i Ekonomiki Usług Uniwersytetu Szczecińskiego. Zajmuje się działalnością dydaktyczną z zakresu finansów i bankowości w Katedrze Bankowości i Finansów Porównawczych Wydziału Zarządzania i Ekonomiki Usług Uniwersytetu Szczecińskiego oraz Wyższej Szkoły Bankowej w Poznaniu Wydział Ekonomiczny w Szczecinie. Ponadto pracuje jako nauczyciel przedmiotów ekonomicznych w Szkołach Policealnych COSINUS" Ma na swoim koncie liczne publikacje naukowe, a także ukończone różnego rodzaju szkolenia i studia podyplomowe. 1 Ustawa z dnia r. Prawo bankowe, DZ U 140 poz. 939 z późn. zm., art.8. 2 Uchwała KNF nr 9/2007 z dnia r., par. 3 ust.2. 3 Por. Uchwała nr 9/2007 KNF z dnia 13 marca 2007 r. w sprawie ustalania wiążących banki norm płynności Dz.Urz. NBP poz. nr. 3 poz. 11, par

153 Gabriela Gurgul funkcji kadry zarządzającej i należy do trudniejszych sfer zarządzania finansami w banku, stanowiąc obok rentowności główny aspekt oceny kondycji finansowej banku. Pojęcie płynności finansowej banku w swojej zasadniczej konstrukcji nie różni się od pojęcia płynności finansowej w dowolnym podmiocie gospodarczym. Generalnie sam termin płynność ma kilka znaczeń, a w praktyce gospodarczej używa się tego pojęcia w odniesieniu do aktywów banku 4. Przez płynność aktywów banku rozumie się płynność posiadanego majątku, czyli łatwość, z jaką można dokonać zmiany składników majątkowych na środki pieniężne. Biorąc pod uwagę analizę płynności finansowej banków rozróżniamy jej dwa rodzaje, odnoszące się do krótkoterminowej i długoterminowej sytuacji finansowej banku. Pierwszy rodzaj to płynność bieżąca, czyli zdolność do regulowania bieżących zobowiązań, wynikająca z dostatecznej ilości płynnych środków (środków, które mogą zostać wykorzystane do regulowania tych zobowiązań). Drugi z nich określany jest jako płynność strukturalna, czyli właściwa struktura bilansu i pozabilansu: terminy wymagalności lokat i udzielania gwarancji są zgodne z terminami zapadalności aktywów i otrzymanych gwarancji, co zapewnia ciągłość finansowania działalności banku 5. Chorafas podkreśla, że płynność to stan, w którym bank może zamienić na gotówkę tyle aktywów, ile potrzebuje po cenie sprawiedliwej (ang. fair price), nie wywołując zaburzenia ceny podobnych aktywów w kolejnych transakcjach 6. Z kolei Pietrzyk twierdzi, że płynność majątku to łatwość zamiany składników aktywów na inne, które można łatwo sprzedać z nieznaczną utratą wartości 7. Możemy zatem mówić o formalnych (prawnych), a nie ekonomicznych warunkach płynności banku, regulowanych aktami prawnymi (np. prawem bankowym) lub określanych za pomocą rekomendacji. Różne państwa regulują tę kwestię odmiennie. Prawo bankowe w Polsce określa, że Komisja Nadzoru Finansowego może ustalać wiążące banki normy płynności. Z kolei zgodnie z uchwałą KNF określone jest, że bank jest zobowiązany do utrzymywania zdefiniowanych w uchwale KNB wskaźników bieżącej płynności na określonym poziomie 8. Wskaźniki mierzą pokrycie określonych kategorii zobowiązań (bilansowych i pozabilansowych) wybranymi pozycjami aktywów w podziale terminowym oraz pokrycie aktywów niepłynnych funduszami własnymi pomniejszonymi o wartość wymogów kapitałowych z tytułu wybranych kategorii ryzyka. W zależności od rodzaju płynności banku rozważa się dwa typy ryzyka dla banku. Ryzyko płynności bieżącej (lub w skrócie ryzyko płynności) to ryzyko niezdolności banku do regulowania wszystkich zobowiązań w wymaganym terminie. Z kolei ryzyko finansowania oznacza niepewność pozyskania środków na kontynuowanie lub podjęcie działalności zgodnie z ustaloną strategią (np. udzielania kredytów określonego typu). Jeżeli banki nie realizują swoich zobowiązań w ustalonych kwotach i terminach, wówczas występuje zjawisko nazwane ryzykiem płynności zdeterminowanym przez rynek 9. Ryzyko płynności determinowane jest przez czynniki o charakterze wewnętrznym i zewnętrznym (rys. 1). 4 Kopiński A. Analiza finansowa banku, Polskie Wydawnictwo Ekonomiczne, Warszawa 2008 r., s Hałaj G., Przegląd metod badania płynności banków [w:] Bank i Kredyt, lipiec 2008 r Chorafas D., Liabilities, Liquidity, and Cash Management: Balancing Financial Risk, John Wiley & Sons Inc, New York 2002 r. 7 Pietrzyk G., Płynność banku komercyjnego, Gazeta Bankowa, 8 14 stycznia 2007 r., s Komisja Nadzoru Finansowego, Uchwała w sprawie wiążących banki norm płynności, Nr 9/ Por. Zaleska M., Współczesna bankowość, Difin, Warszawa 2007, s

154 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych Rysunek 1. Czynniki determinujące ryzyko płynności Źródło: opracowanie własne na podstawie Jaworski W., Zawadzka Z., Zagadnienia podstawowe, Poltext, Warszawa 2003 r., s Każdy bank, aby uchronić się przed skutkami baraku płynności powinien nie dopuścić do powstania przyczyn, zmierzających do zakłócenia jego płynności finansowej poprzez identyfikowanie sytuacji płynnościowej z wykorzystaniem analizy finansowej oraz podejmować działania minimalizujące ryzyko płynności. 2. Miary płynności finansowej banku Do oceny płynności finansowej banku można zaliczyć miary płynności oparte na bieżącej nadwyżce lub deficycie. Nadwyżka = aktywa płynne krótkoterminowe pasywa Współczynnik płynności = nadwyżka lub deficyt / aktywa ogółem Ważnym wskaźnikiem, który opiera się na zestawieniu aktywów i pasywów według terminów płatności aktywów i pasywów wskazanych w bilansie, czyli okresów zapadalności aktywów i wymagalności pasywów jest wskaźnik płynności 10. Współczynnik płynności = aktywa zapadalne w danym przedziale czasu/pasywa wymagalne w danym przedziale czasu Wskaźnik ten zwany jest wskaźnikiem strumieniowym, ponieważ bada relację między aktywami zapadalnymi w danym przedziale czasowym, a pasywami wymagalnymi w danym przedziale czasowym. Płynność finansową liczy się więc dla poszczególnych grup aktywów, pasywów i pozycji pozabilansowych, w określonym przedziale czasowym według następujących okresów kontraktowych: 11 a Vista (grupa I) poniżej 1,miesiąca (grupa II) od 1 do 3 miesięcy (grupa III) od 3 do 6 miesięcy (grupa IV) od 6 miesięcy do 1 roku (grupa V) od roku do 2 lat (grupa VI) od 2 do 5 lat (grupa VII) 10 Gigol K., Podstawy tworzenia planu finansowego banku, Twigger, Warszawa 2003 r., s Świderski J., Finanse banku komercyjnego, Biblioteka Menadżera i Bankowca, Warszawa 1999 r., s

155 Gabriela Gurgul powyżej 5 lat (grupa VIII) różne (grupa IX). W każdym przedziale czasowym można wyodrębnić grupy operacji bankowych, tzn. z klientami (podmiotami niefinansowymi) i sektorem budżetowym, oraz operacji dotyczących papierów wartościowych, a także operacji w złotych i walutach obcych w celu pomiaru płynności finansowej. Bank posiada płynność finansową jeżeli 12 : wartość pasywów pierwszego stopnia wymagalności (grupy I III) jest niższa od wartości aktywów pierwszego stopnia płynności (grupy I III), podobne relacje występują w odniesieniu do pasywów drugiego stopnia wymagalności (grupy IV VI) i aktywów drugiego stopnia płynności pasywa stabilne (grupy VII VIII i różne) w pełni pokrywają łączną wartość aktywów III płynności i aktywów niepłynnych. Zakłada się, że wskaźniki płynności do 3 miesięcy (grupa I III) stanowią podstawę oceny płynności według następujących kryteriów: 13 płynność jest dobra, jeżeli wyliczony wskaźnik ma wartość nie mniejszą niż 0,9 i nie większą niż 1,1; płynność jest średnia, jeśli wskaźnik kształtuje się między 0,7 0,9; płynność jest zła, jeżeli wskaźnik kształtuje się na poziomie poniżej 0,7 wartości. Do oceny płynności finansowej banku mogą być wykorzystane również następujące wskaźniki 14 : Wskaźnik płynności szybkiej = aktywa płynne (szybkie)/ zobowiązania bieżące Wskaźnik płynności bieżącej wg. MFW = gotówka + należności / łącznie zobowiązania Wskaźnik bieżącej płynności = gotówka + papiery wartościowe / łącznie zobowiązania Wskaźnik płynności strukturalnej = gotówka + należności + papiery wart./ zob. łącznie Wskaźnik płynności szybkiej i płynności bieżącej według MFW określają możliwości finansowe banku w przypadku nagłego wycofania depozytów niezależnie odkontraktowych terminów ich wymagalności. Z kolei wskaźnik bieżącej płynności i płynności strukturalnej oceniają poziom bezpieczeństwa z uwzględnieniem czasowych zmian. 3. Analiza płynności finansowej wybranych banków Ryzyko płynności jest definiowane jako ryzyko zaistnienia sytuacji, w której bank może spełnić swoje zobowiązania płatnicze tylko po podwyższonym koszcie albo, w najgorszym przypadku, nie będzie w stanie wywiązać sie ze swoich zobowiązań w momencie ich wymagalności. Bank jest narażony na ryzyko płynności, gdy jego działalność kredytowa lub inna generuje ujemne niedopasowanie przepływów pieniężnych, a bank nie jest w stanie pozyskać odpowiedniej kwoty finansowania lub posiadanych aktywów. Wskaźniki płynności finansowej pozwalają na zmierzenie w jakim stopniu przedsiębiorstwo jest w stanie spłacić swoje zadłużenie. 12 Kopiński A., Analiza finansowa bank.,, s Wąsowski W., Ekonomika i finanse banku komercyjnego w zarysie, Biblioteka Menadżera i Bankowca, Warszawa 2002 r., s Tyran M., Wskaźniki finansowe, Oficyna Ekonomiczna, Kraków 2005 r., s

156 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych Wskaźnik bieżącej płynności finansowej, nazywany często również wskaźnikiem kapitału obrotowego, ma na celu porównanie aktywów obrotowych, czyli gotówki i papierów wartościowych w stosunku do zobowiązań. Informuje on ile razy można spłacić zobowiązania krótkoterminowe aktywami obrotowymi. Poniższy rysunek nr 2 przedstawia analizę bieżącej płynności finansowej wybranych banków komercyjnych w latach w oparciu o dane zawarte w sprawozdaniu rocznym. Rysunek 2. Analiza płynności bieżącej w latach Źródło: opracowanie własne na podstawie danych zawartych w sprawozdaniu rocznym Sprawozdanie Zarządu Banku z działalności PKO Banku Polskiego SA za 2009 rok, Sprawozdanie Zarządu z działalności Nordea Bank Polska S.A. za I półrocze 2009, Sprawozdanie zarządu działalności grupy kapitałowej Banku Zachodniego WBK S.A. w 2009 r., Sprawozdanie z działalności banku Pekao S.A. za 2009 r. Z powyższych danych wynika, że najwyższą płynnością bieżącą wśród analizowanych banków w 2009 roku posiadał bank Pekao S.A. 0,35% o 0,04% wyższą w stosunku do roku poprzedniego. W analizowanym okresie wysokim wskaźnikiem bieżącej płynności finansowej odznaczał się również Bank Zachodni WBK, którego co prawda płynność finansowa w 2009 roku w stosunku do roku 2008 zmalała o 0,06%, jednak w porównaniu do innych banków była ona wysoka. 156

157 Gabriela Gurgul Rysunek 3. Analiza płynności strukturalnej w latach Źródło: opracowanie własne na podstawie danych zawartych w sprawozdaniu rocznym Sprawozdanie Zarządu Banku z działalności PKO Banku Polskiego SA za 2009 rok, Sprawozdanie Zarządu z działalności Nordea Bank Polska S.A. za I półrocze 2009, Sprawozdanie zarządu działalności grupy kapitałowej Banku Zachodniego WBK S.A. w 2009 r., Sprawozdanie z działalności banku Pekao S.A. za 2009 r. Z kolei biorąc, pod uwagę wskaźnik płynności strukturalnej, który oznacza, że czym wyższa wartość wskaźnika tym wyższy poziom bezpieczeństwa w 2009 roku w stosunku do roku 2008 wzrósł on o 0,03% w Banku Pekao S.A., charakteryzując się przy tym najwyższym stopniem płynności 0,44% wśród badanych banków. Bieżąca płynność strukturalna wzrosła również w stosunku do roku poprzedniego w Banku Nordea o 0,04% i PKO BP o 0,03%. Natomiast wskaźnik płynności strukturalnej w 2009 roku w stosunku do roku poprzedniego zmalał w Banku Zachodnim WBK o 0,05%. 4. Sytuacja polskiego sektora bankowego w latach W 2009 roku sytuacja polskiego sektora bankowego pozostawała pod wpływem pogarszającego się otoczenia makroekonomicznego ograniczającego aktywność biznesową banków. Banki koncentrowały się głównie na dostosowywaniu działalności do trudnych warunków zewnętrznych. W warunkach podwyższonego ryzyka kredytowego oraz ograniczonej dostępności finansowania prowadziły restrykcyjną politykę kredytową, która w sytuacji słabnącego popytu na kredyty wpłynęła istotnie na ograniczenie akcji kredytowej, a w rezultacie spadek dochodów z działalności kredytowej i wysokie koszty pozyskania środków finansowych oraz rosnące odpisy na ryzyko kredytowe ponad dwukrotnie wyższe niż na koniec 2008 roku. Zysk netto sektora wyniósł 8,7 mld zł i był o 36% niższy niż uzyskany w 2008 roku. Pomimo silnego pogorszenia dochodowości, sytuacja sektora bankowego pozostała jednak stabilna, głównie dzięki znaczącemu wzrostowi (o 27% r/r) bazy kapitałowej banków i znaczącej poprawie współczynnika wypłacalności (13,3%). Pogorszenie sytuacji finansowej klientów negatywnie wpłynęło na jakość portfela kredytowego banków. Należności zagrożone od podmiotów niefinansowych wzrosły o ok. 80% r/r, tj. o 21 mld zł, a ich udział w należnościach ogółem osiągnął poziom 7,6% wobec 4,5% w 2008 roku. Na zmiany poziomu wolumenu kredytów i depozytów w sektorze bankowym duży wpływ miały wahania kursów walut. W związku z tym prezentowane poniżej tendencje zmian wolumenu 157

158 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych kredytów i depozytów oparto na szacunkach depozytów i kredytów skorygowanych o zmiany kursu walutowego. W ciągu 2009 roku istotnie zmniejszyło się tempo wzrostu wolumenu kredytów. Wartość portfela kredytowego ogółem po wyeliminowaniu zmian kursowych zwiększyła się o ok. 8% r/r. Uzyskany wzrost był ponad trzykrotnie niższy niż w 2008 roku i dotyczył on głównie kredytów dla gospodarstw domowych, których wartość zwiększyła się o ok. 13% r/r. Szybciej przyrastały kredyty mieszkaniowe (wzrost o 14,2% r/r) niż kredyty konsumpcyjne (wzrost o 13% r/r). Ich tempo wzrostu było jednak zdecydowanie niższe (ponad dwukrotnie) niż rok wcześniej. W zakresie kredytów mieszkaniowych aż 73% przyrostu portfela stanowiły kredyty złotowe w 2008 roku 90% przyrostu portfela stanowiły kredyty walutowe. Niższy wzrost kredytów konsumpcyjnych był efektem wzrostu restrykcyjności polityki kredytowej banków ze względu na rosnący udział kredytów zagrożonych, który osiągnął poziom 10,8% wobec 6,6% z 2008 roku. Zdecydowanie pogorszyła się sytuacja na rynku kredytów dla przedsiębiorstw nastąpiło załamanie akcji kredytowej. Utrzymujący się niski popyt na kredyty i zaostrzona polityka kredytowa wobec przedsiębiorstw spowodowały, że wartość kredytów dla przedsiębiorstw w 2009 roku zmniejszyła się o ok. 4% r/r. Spowolnienie dotknęło także rynek depozytowy. Baza depozytowa sektora bankowego po wyeliminowaniu zmian kursowych zwiększyła się o ok. 11% r/r wobec 18% rok wcześniej. Wpływ na taką sytuację miało pogorszenie kondycji finansowej klientów, osłabnięcie wojny depozytowej i niższe oprocentowanie depozytów oraz wzrost konkurencyjności alternatywnych form oszczędzania. Największy udział we wzroście miały depozyty gospodarstw domowych, które zwiększyły się o ponad 15% r/r. Depozyty przedsiębiorstw, w efekcie poprawy wyników finansowych firm, wzrosły o 11,3% r/r. Pogorszenie wyników operacyjnych zmuszało banki do podejmowania działań obniżających koszty działalności. Banki redukowały liczbę zatrudnionych, ograniczały podwyżki wynagrodzeń, zmniejszały koszty reklam i marketingu. Nastąpiło także wyhamowanie rozwoju sieci oddziałów i intensywniejszy rozwój bankowości internetowej. W okresie I IX 2011 r. sytuacja sektora bankowego pozostała stabilna. Większości banków, mierzona tempem wzrostu sumy bilansowej, zatrudnienia i sieci sprzedaży była umiarkowana, co należy łączyć z utrzymującą się niepewnością, co do rozwoju koniunktury oraz procesami dostosowawczymi zmierzającymi do wzmocnienia zarządzania ryzykiem i poprawy efektywności działania. Bieżąca sytuacja w zakresie płynności jest zadowalająca, a głównym utrudnieniem w zarządzaniu płynnością jest spadek wzajemnego zaufania pomiędzy uczestnikami rynku finansowego. Dlatego niezbędny jest wzrost stabilności źródeł finansowania oraz realizowanie strategii działania, które uwzględniają trudne uwarunkowania zewnętrzne. Trzeba jednak stwierdzić, że biorąc pod uwagę sytuację polskiego sektora bankowego nie ma powodów, aby krajowy rynek międzybankowy funkcjonował w ograniczonym zakresie. Utrzymuje się relatywnie niskie tempo wzrostu bazy depozytowej, co wynika z umiarkowanego tempa wzrostu depozytów gospodarstw domowych oraz spadku depozytów przedsiębiorstw (należy jednak odnotować silny przyrost depozytów gospodarstw domowych w III kwartale, co należy wiązać z uatrakcyjnieniem oferty depozytowej banków oraz dekoniunkturą na rynku kapitałowym). W strukturze terminowej depozytów niepokoi bardzo wysoki stan tzw. "lokat antypodatkowych, co zmusiło KNF do reakcji w celu eliminacji tego zjawiska. W związku z relatywnie niską dynamiką wzrostu depozytów sektora niefinansowego, istotnym źródłem rozwoju działalności sektora bankowego były też środki pozyskane z rynku finansowego. Najważniejsze z nich stanowiły depozyty i kredyty od sektora finansowego, z których większość (blisko 70%) stanowiły zobowiązania wobec nierezydentów i pochodziła głównie z podmiotów grupy macierzystej. Z jednej strony zwiększa stabilność tych środków, ale z drugiej uzależnia banki od sytuacji spółki matki (około połowy tych środków stanowiły zobowiązania wymagalne do 1 roku, co wiąże się z koniecznością ich szybkiego odnowienia). Odnotowano silny wzrost zysku netto sektora bankowego, którego głównym źródłem poprawy był wzrost wyniku odsetkowego oraz zmniejszenie ujemnego salda odpisów i rezerw (pozostałe pozycje miały niewielki wpływ na poprawę wyników banków; tempo wzrostu kosztów było ograniczone). 158

159 Gabriela Gurgul Z kolei uwagę zwraca dodatni wynik finansowy większości banków, które w analogicznym okresie ubiegłego roku odnotowały znaczące straty, którego głównym czynnikiem wzrostu wyniku odsetkowego był relatywnie wysoki wzrost przychodów odsetkowych, przy czym uwagę zwraca silny wzrost przychodów od kredytów mieszkaniowych i przedsiębiorstw oraz spadek przychodów z tytułu kredytów konsumpcyjnych. Po stronie kosztów uwagę zwraca niska dynamika odsetek płaconych na rzecz gospodarstw domowych, co świadczy o tym, że banki dążyły do poprawy wyniku odsetkowego kosztem klientów detalicznych. 5. Działania antykryzysowe na rynku polskim Odnotowano stopniową stabilizację sytuacji banków w zakresie pozyskiwania finansowania. Został zahamowany wzrost luki między poziomem kredytów i depozytów, na co miało wpływ m.in. wyższe tempo wzrostu bazy depozytowej wobec tempa wzrostu akcji kredytowej i umocnienie złotego po gwałtownym osłabieniu na przełomie 2008/2009. Głównym źródłem finansowania działalności kredytowej były depozyty od podmiotów niefinansowych; rynek międzybankowy pozostawał płynny tylko w przypadku pożyczek o najkrótszych terminach. Jednak wyzwaniem dla banków było pozyskanie długoterminowych źródeł finansowania realizowane w warunkach ograniczonego dostępu dofinansowania z zagranicy. Odnotowano istotne wzmocnienie bazy kapitałowej na skutek zatrzymania przez banki większości zysków za 2008 rok oraz nowej emisji akcji PKO Banku Polskiego SA, co wpłynęło na poprawę poziomu współczynnika wypłacalności sektora bankowego. Spowolnienie wzrostu gospodarczego negatywnie wpłynęło na kondycję klientów indywidualnych i korporacyjnych, co spowodowało wzrost ryzyka kredytowego. Pogorszyła się jakość portfela kredytowego (najsilniej w segmencie przedsiębiorstw). Utrwalił się trend wzrostu kredytów zagrożonych, co skutkowało wzrostem wskaźników kredytów zagrożonych we wszystkich segmentach klientów. Ponadto wzrosło saldo rezerw celowych oraz odpisów z tytułu utraty wartości. Banki zaostrzyły kryteria i warunki udzielania kredytów, w tym: oceny zdolności kredytowej i wymaganych zabezpieczeń, przy czym w IV kw roku odnotowano zahamowanie tendencji zaostrzania polityki kredytowej. Na niskim poziomie pozostawało również ryzyko walutowe. Aprecjacja polskiej waluty utrzymująca się od II kw roku wpłynęła na spadek wolumenów kredytów w walutach obcych oraz wzrost wartości zabezpieczeń, po okresie odwrotnej tendencji utrzymującej się od 2008 roku. Ekspozycja banków na ryzyko walutowe z tytułu zmian cen instrumentów pochodnych była na niskim poziomie. Działania o charakterze antykryzysowym podejmowane w 2009 roku z inicjatywy Rządu i NBP miały na celu odbudowę zaufania na rynku finansowym, poprawę płynności banków oraz kreację dodatkowej akcji kredytowej. Były rezultatem realizacji rządowego Planu Stabilności i Rozwoju z listopada 2008 roku oraz Pakietu zaufania NBP z października 2008 roku zmodyfikowanego w 2009 roku. System poręczeń i gwarancji określony w nowelizacji ustawy o poręczeniach i gwarancjach udzielanych przez Skarb Państwa oraz niektóre osoby prawne, ustawy o BGK oraz niektórych innych ustaw poręczeniach i gwarancjach, która weszła w życie 31 maja 2009 roku miał na celu wsparcie akcji kredytowej banków. NBP wspierał polski sektor bankowy w następujący sposób: dostarczając bankom komercyjnym płynności w walucie krajowej w operacjach repo do 6 miesięcy, wprowadził transakcje swapów walutowych na parach walutowych EUR/PLN, USD/PLN i CHF/PLN, pozwalające bankom zabezpieczyć otwartą pozycję walutową przed ryzykiem zmiany kursu złotego (w październiku 2009 roku na skutek spadającego popytu sektora bankowego NBP zakończył dostarczanie płynności w CHF). wykup w styczniu 2009 roku obligacji NBP zapadających w marcu 2012 roku, 159

160 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych obniżki głównych stóp procentowych, obniżenie od 30 czerwca 2009 roku rezerwy obowiązkowej do 3%. Działania NBP przyczyniły się do wzrostu wskaźnika wypłacalności w 2009 roku w stosunku do roku Stopień wypłacalności wybranych banków prezentuje rysunek Rysunek 4. Współczynnik wypłacalności wybranych banków w latach Źródło: opracowanie własne na podstawie danych zawartych w sprawozdaniu rocznym Sprawozdanie Zarządu Banku z działalności PKO Banku Polskiego SA za 2009 rok, Sprawozdanie zarządu działalności grupy kapitałowej Banku Zachodniego WBK S.A. w 2009 r., Sprawozdanie z działalności banku Pekao S.A. za 2009 r. Według danych przedstawionych w rocznych sprawozdaniach finansowych banków oraz przedstawionych na powyższym rysunku najwyższy współczynnik wypłacalności w 2009 roku osiągnął bank Pekao S.A. 15,6 % następnie PKO BP 14,28 % i BZ WBK 12,97%. Z kolei w 2008 roku najniższy współczynnik wśród badanych trzech największych banków osiągnął BZ WBK 10,74%, podczas gdy \współczynniki wypłacalności w 2008 roku wynosiły PKO BP 11,24% i Pekao S.A. 11,6%. Z kolei na przełomie II i III kwartału 2011 roku pomimo utrzymania relatywnie wysokiego tempa wzrostu gospodarczego, doszło do silnego wzrostu ryzyka w otoczeniu zewnętrznym polskiej gospodarki, a tym samym sektora bankowego. Wynikało to m.in. z braku umiejętności znalezienia skutecznego rozwiązania kryzysu zadłużeniowego niektórych krajów strefy euro, przedłużającego się procesu uchwalenia przez Kongres USA podwyższenia limitów zadłużenia USA, co wywołało pojawienie się obaw o sytuację finansową niektórych europejskich grup bankowych, połączonych z sygnałami słabnięcia tempa wzrostu gospodarczego w UE i USA oraz pogorszeniem nastrojów przedsiębiorstw i konsumentów. Proces ten został pogłębiony przez całą serię obniżek ratingów poszczególnych krajów i instytucji finansowych. Dodatkowym czynnikiem także przekaz medialny, który w sposób nadmierny, a często i nierzetelny, eksponował kwestie faktycznych lub potencjalnych zagrożeń, co wpływało na postawy uczestników rynku finansowego, przedsiębiorców i konsumentów (m.in. pod wpływem spekulacji medialnych, instytucje finansowe ograniczały wzajemne ekspozycje), czego konsekwencją był gwałtowny wzrost awersji do ryzyka i pogorszenie klimatu inwestycyjnego powodując zarazem m.in. do bardzo silnej przeceny na rynkach akcji, wyprzedaży walut z rynków wschodzących, jaki i ograniczenia płynności rynku. Sytuację w zakresie płynności poprawiła się dopiero po interwencji głównych banków centralnych, które zobowiązały się do dostarczenia niezbędnej bankom płynności. Pogorszenie klimatu inwestycyjnego, osłabienie koniunktury u głównych partnerów handlowych Polski oraz wzrost potrzeb kapitałowych niektórych europejskich grup bankowych niesie szereg potencjalnych zagrożeń dla polskiej gospodarki i banków. W szczególności należy liczyć się z możliwością osłabienia tempa wzrostu gospodarczego, presją na wzrost relacji długu 160

161 Gabriela Gurgul publicznego do PKB oraz pogorszeniem sytuacji finansowej części kredytobiorców. Dodatkowo na skutek pogorszenia sytuacji finansowej niektórych podmiotów macierzystych w stosunku do polskich instytucji, nie można wykluczyć zmniejszenia ich wsparcia dla rozwoju biznesu w Polsce lub też jego sprzedaży (dodatkowo dochodzi kwestia przenoszenia ryzyka reputacji). W konsekwencji banki muszą liczyć się z możliwością negatywnej presji na ich sytuację płynnościową i finansową. Dlatego niezbędne jest, aby banki stale monitorowały potencjalne zagrożenia oraz kontynuowały działania zmierzające do zapewnienia odpowiedniego bufora płynności, jak też utrzymywały i wzmacniały swoją pozycję kapitałową. W tym też kierunku zmierzają ostatnie działania KNF nakierowane na likwidację produktów antypodatkowych oraz zalecenia w sprawie podziału zysków za 2011 r. 15. Bowiem globalny kryzys finansowy to nie tylko zagrożenia, ale i potencjalne szanse dla polskiej gospodarki, a zarazem polskich przedsiębiorstw, ponieważ w przypadku skutecznych działań ograniczających tempo narastania długu publicznego, jak też wykazania przez polską gospodarkę odporności na zjawiska kryzysowe, Polska ma szanse na zwiększenie napływu kapitału i inwestycji w średnim i długim okresie. Kryzys stwarza również okazję dla części przedsiębiorstw na szybszy rozwój oraz przejęcie słabszych konkurentów. W dłuższej perspektywie, obecny kryzys może zatem stanowić impuls do przyspieszenia tempa wzrostu polskiej gospodarki. Zakończenie Zachowanie płynności finansowej zarówno dla banków jak i innych przedsiębiorstw jest bardzo ważne, ponieważ jej zachwianie powoduje spadek zaufania potencjalnych kontrahentów, ze względu na niestabilność finansową klienci boją się zaufać takiemu przedsiębiorstwu i wolą zdecydować się, często na dużo mniej korzystną, z mniejszym zyskiem ofertę niż skorzystać z propozycji przedsiębiorstwa, które posiada problemy z zachowaniem płynności finansowej. Niestabilna sytuacja przedsiębiorstw doprowadza do trudnej sytuacji, a w konsekwencji może prowadzić nawet do bankructwa. Posiadanie zdolności płatniczej przez banki jest niezwykle istotne, ponieważ podmioty te są instytucjami zaufania publicznego, a zarazem pośrednikami w realizowaniu przepływów pieniężnych na rynku, dlatego też konieczne są działania polegające na zarządzaniu ryzykiem płynności, tj. np.: opracowywanie scenariuszy działań w przypadku kryzysu płynności, zapewnieniu rezerwowych źródeł finansowania, sprecyzowanie zasad sprzedaży aktywów oraz kształtowania struktury bilansu, określenie sytuacji płynności banku, ze szczególnym uwzględnieniem ewentualnych symptomów występowania kryzysu płynności, czy też wydzielenie w strukturze organizacyjnej banku komórki, zajmującej się zarządzaniem ryzykiem płynności i wskazanie jej kompetencji w zakresie podejmowania działań w sytuacjach kryzysowych, tak aby nie doprowadzić do jej zachwiania i zapobiegać jej ewentualnej utracie. Bibliografia 1. Chorafas D., Liabilities, Liquidity, and Cash Management: Balancing Financial Risk, John Wiley & Sons Inc, New York Gigol K., Podstawy tworzenia planu finansowego banku, Twigger, Warszawa Hałaj G., Przegląd metod badania płynności banków [w:] Bank i Kredyt, lipiec Jaworski W., Zawadzka Z., Zagadnienia podstawowe, Poltext, Warszawa Komisja Nadzoru Finansowego), Uchwała w sprawie wiążących banki norm płynności, Nr 9/ Kopiński A. Analiza finansowa banku, Polskie Wydawnictwo Ekonomiczne, Warszawa Pietrzyk G., Płynność banku komercyjnego, Gazeta Bankowa, 8 14 stycznia Raport o sytuacji banków w okresie I IX 2011 r.,, Urząd Komisji Nadzoru Finansowego, Warszawa 2011 r., s

162 Płynność banków komercyjnych w okresie globalnych zawirowań finansowych 8. Raport o sytuacji banków w okresie I IX 2011 r., Urząd Komisji Nadzoru Finansowego, Warszawa 2011 r. 9. Sprawozdanie zarządu działalności grupy kapitałowej Banku Zachodniego WBK S.A. w Sprawozdanie Zarządu z działalności Nordea Bank Polska S.A. za I pół Sprawozdanie z działalności banku Pekao S.A. za Sprawozdanie Zarządu Banku z działalności PKO Banku Polskiego za Świderski J., Finanse banku komercyjnego, Biblioteka Menadżera i Bankowca, Warszawa Tyran M., Wskaźniki finansowe, Oficyna Ekonomiczna, Kraków Uchwała KNF nr 9/2007 z dnia , par. 3 ust Uchwała nr 9/2007 KNB z dnia 13 marca 2007 r. w sprawie ustalania wiążących banki norm płynności Dz. Urz. NBP poz. nr. 3 poz. 11, par Ustawa z dnia r. Prawo bankowe, DZ U 140 poz. 939 z późn. zm., art Wąsowski W., Ekonomika i finanse banku komercyjnego w zarysie, Biblioteka Menadżera i Bankowca, Warszawa Zaleska M., Współczesna bankowość, Difin, Warszawa

163 Katarzyna Szortyka Katarzyna Szortyka Harmonizacja CIT w krajach Unii Europejskiej Streszczenie: W opracowaniu skupiono się na przedstawieniu głównych przesłanek i ograniczeń harmonizacji jednego z podatków bezpośrednich podatku dochodowego od przedsiębiorstw (CIT corporate income tax). Zamysłem autorki było nie tylko przybliżenie zagadnień teoretycznych, ale także praktyczne ujęcie opodatkowania dochodów przedsiębiorstw. Praca została pomyślana w taki sposób, by wątki teoretyczne i ściśle prawnicze zostały ograniczone do niezbędnego minimum, dając tym samym miejsce dla szerokich rozważań o charakterze praktycznym i jak najbardziej aktualnym. Słowa kluczowe: podatek dochodowy od przedsiębiorstw, CIT, harmonizacja CIT Wprowadzenie W krajach członkowskich Unii Europejskiej (UE, Wspólnota) istnieją zróżnicowane systemy podatkowe. Nie wpływa to korzystnie na proces integracji, stąd od wielu lat trwają prace nad harmonizacją podatków. Dotychczas szeroko zajmowano się harmonizacją podatków pośrednich, bowiem uznawano, że takie działanie jest wystarczające dla realizacji idei jednolitego rynku wewnętrznego. Z uwagi jednak na poszerzanie się UE problem podatków bezpośrednich zaczął nabierać coraz większego znaczenia. Praca składa się z trzech części. Pierwsza z nich stanowi próbę wyjaśnienia podstawowych pojęć z zakresu harmonizacji oraz wskazuje na argumenty za i przeciw harmonizacji podatku dochodowego od przedsiębiorstw. W drugiej części przybliżono aspekty prawne harmonizacji CIT. Natomiast w ostatniej części dokonano analizy zróżnicowania opodatkowania dochodów przedsiębiorstw w krajach członkowskich UE. Wskazano na sytuację sprzed 2004 roku, kiedy w skład UE wchodziło 15 krajów, oraz stan aktualny. Ciekawym uzupełnieniem powyższych rozważań zdaje się być zaprezentowanie stanowiska Francji i Niemiec, które od wielu lat zabierają głos w dyskusji, dotyczącej harmonizacji CIT. Jak już podkreślono, w pracy wskazano na istotę i znaczenie procesu harmonizacyjnego w zakresie CIT dla funkcjonowania jednolitego rynku wewnątrz Unii Europejskiej. Ogromne zróżnicowanie systemów podatkowych krajów UE sprawia, że rzeczywistość jest bardzo skomplikowana, dlatego też za walor opracowania, a nie jego słabość, uznaje się także zgłaszane w nim kwestie sporne oraz pytania otwarte, które mogą stanowić punkt wyjścia do kolejnych badań nad analizowanymi problemami. 1. Istota harmonizacji podatku dochodowego od przedsiębiorstw Idea wspólnego obszaru walutowego i gospodarczego opiera się na swobodnym przepływie towarów, kapitału i ludzi (pracy) w warunkach istnienia jednej waluty. Koncepcja ta pozwala na wyeliminowanie ryzyka walutowego oraz barier celnych, umożliwia dostęp do rynku pracy poszczególnych krajów, jak również daje możliwość inwestowania we wszystkich krajach członkowskich. Pełna integracja ekonomiczna wymaga uznania podatków za ważny czynnik pogłębiania procesów integracyjnych, podatki stanowią bowiem podstawowe źródło niezbędnych dochodów państwa, a państwa członkowskie Unii Europejskiej są państwami podatkowymi. Autorka jest doktorantką w Katedrze Ekonomii na Wydziale Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu. 163

164 Harmonizacja CIT w krajach Unii Europejskiej Co więcej, podatki postrzega się jako jeden z czynników wpływających na poziom międzynarodowej konkurencyjności działających przedsiębiorstw. Systemy podatkowe krajów UE różnią się jednak między sobą. Odmienność tych systemów wynika z uwarunkowań historycznych, a także jest efektem wielu czynników o charakterze społecznym, ekonomicznym czy kulturowym. Ponadto są one konsekwencją polityki prowadzonej przez ostatnie dziesięciolecia, wynikającej z przyjętego modelu państwa i jego transformacji 1. Z uwagi na wspomniane wyżej aspekty harmonizacja podatków jest kluczowym narzędziem tworzenia jednolitego rynku. Na początku lat siedemdziesiątych definiowano ją jako koordynację, co oznaczało: konsultację między dwoma lub większością krajów, ugody dotyczące obciążania podobnymi podatkami czy porozumienia odnoszące się do rodzaju i rozmiarów nakładanych podatków 2. Generalnie harmonizację można zdefiniować jako proces, którego następstwem jest zbliżenie systemów podatkowych różnych krajów tak, iż rozwiązania podatkowe nie ingerują w przepływ towarów, usług i czynników produkcji między krajami. Należy podkreślić, że harmonizacja podatków jest składnikiem integracji gospodarczej, a jej wielkość jest powiązana ze stanem zaawansowania integracji, przy czym im wyższy etap integracji, pociągający za sobą coraz ściślejsze powiązanie gospodarek tych krajów, tym harmonizacja podatków musi być bardziej zaawansowana 3. Potrzeba harmonizacji podatków od dochodów przedsiębiorstw nabierała znaczenia w miarę rozrastania się Unii Europejskiej. Międzynarodowe przedsiębiorstwa odgrywały coraz to większą rolę na wewnętrznym rynku, stąd pojawiła się zachęta do zlikwidowania problemów w przepływie kapitału oraz dochodów z kapitału. Za najważniejsze korzyści z harmonizacji CIT uważa się 4 : zmniejszenie kosztów administracyjnych (głównie kosztów księgowości czy doradztwa podatkowego) w przedsiębiorstwach prowadzących działalność w więcej niż jednym kraju Wspólnoty, wyeliminowanie kosztów monitoringu i nadzoru dla władz skarbowych poprzez usunięcie lub zredukowanie przesunięć zysków wewnątrz krajów UE, zlikwidowanie ryzyka podwójnego opodatkowania przedsiębiorstw prowadzących działalność w kilku krajach Wspólnoty, możliwość rozliczania strat przedsiębiorstw poniesionych w różnych krajach UE, ułatwienie opodatkowania transgranicznych operacji restrukturyzacyjnych (fuzji, podziałów, przejęć), redukcja ryzyka podatkowego, dotyczącego transakcji pomiędzy podmiotami powiązanymi (wyznaczanie cen transferowych, przygotowywanie dokumentacji dotyczących tego typu transakcji). Przytoczone powyżej argumenty niewątpliwie wskazują na wiele korzyści, które może przynieść harmonizacja CIT, jednakże nie zmienia to faktu, że jest ona przedsięwzięciem trudnym. Istnieje wiele kwestii, które przemawiają przeciwko harmonizacji. Jedną z nich jest obawa przed dalszą utratą niezależności w polityce finansowej przez poszczególne kraje, co ogranicza możliwości oddziaływania państw na różnego rodzaju procesy gospodarcze oraz społeczne. Kraje członkowskie UE posiadają odmienne modele społeczne, które determinują różne potrzeby 1 Owsiak S., Harmonizacja podatków bezpośrednich warunkiem integracji gospodarczej Unii Europejskiej [online], PTE, Kraków 2009, s , [ ]. 2 Brzeziński B., Głuchowski J., Kosikowski C., Harmonizacja prawa podatkowego Unii Europejskiej i Polski, PWE, Warszawa 1998, s Oręziak L., Finanse Unii Europejskiej, Wydawnictwo Naukowe PWN, Warszawa 2009, s Iwińska R., Harmonizacja podatku dochodowego od osób prawnych w ramach Unii Europejskiej, [w:] S.I. Bukowski, M.K. Pypeć (red.), Podatki w Unii Europejskiej. Harmonizacja czy konkurencja podatkowa?, Wydawnictwo Politechniki Radomskiej, Radom 2007, s

165 Katarzyna Szortyka finansowe państwa. Przeciwko harmonizacji świadczą także uwarunkowania historyczne, a więc czynniki, które miały wpływ na kształtowanie się krajowych systemów podatkowych. Kolejnym kontrargumentem zdaje się być nierówność konkurencji między przedsiębiorstwami działającymi wyłącznie na rynku wewnętrznym a przedsiębiorstwami, które prowadzą działalność gospodarczą w wielu krajach Wspólnoty Podstawy prawne harmonizacji CIT Zgodnie z artykułem 93 Traktatu ustanawiającego Wspólnotę Europejską harmonizacja ustawodawstwa krajów członkowskich może odnosić się do podatków obrotowych, akcyzy i innych podatków pośrednich w zakresie niezbędnym do zapewnienia ustanowienia i funkcjonowania rynku wewnętrznego 6. W Traktacie ustanawiającym Wspólnotę Europejską procesem harmonizacji objęto jedynie podatki pośrednie, co nie oznacza, że zabroniono harmonizacji podatków bezpośrednich. Ujednolicenie podatków bezpośrednich jest jednak w świetle przepisów konstytuujących Unię Europejską możliwe przy spełnieniu warunków traktatowych dotyczących uzyskania zgody wszystkich krajów członkowskich oraz zachowaniu określonej procedury postępowania. Pierwszym ważnym krokiem w zakresie harmonizacji CIT były prace komitetu kierowanego przez Fritza Neumarka. W 1962 roku wydano raport, w którym, dla dobra idei tworzenia wspólnego rynku, zalecano wprowadzenie w sześciu krajach założycielskich liniowej stawki CIT w wysokości 50%, odzwierciedlającej aktualnie obowiązującą stawkę w Niemczech. Komisja Europejska sprzeciwiła się temu projektowi. Efektem kolejnych prac był raport Van den Tempel z 1971 roku, propagujący klasyczny podatek dochodowy od przedsiębiorstw jako najlepszy sposób harmonizacji systemu podatkowego Wspólnoty. W 1975 roku na bazie tego raportu Komisja Europejska zaproponowała system, w którym każde z państw członkowskich byłoby zobowiązane do ustanowienia nominalnej stopy opodatkowania podatkiem dochodowym od przedsiębiorstw w przedziale 45 55%. Niestety kwestia zbytniego zróżnicowania w zakresie zasad ustalania podstawy opodatkowania podatkiem CIT spowodowała wycofanie tej propozycji. Nie zaniechano jednak prac nad harmonizacją, gdyż w 1990 roku powołano komisję niezależnych ekspertów, której przewodniczył Onno Ruding były minister finansów Holandii. Na początku 1992 roku prace ekspertów zostały przedstawione w formie raportu, zwanego Raportem Rudinga. W obszarze stawek CIT zalecono wprowadzenie stawki minimalnej na poziomie 30% oraz maksymalnej na poziomie 40%. Ponadto przedstawiono koncepcję częściowego ujednolicenia zasad ustalania podstawy opodatkowania podatkiem CIT 7. Wprowadzenie zaproponowanych zmian również tym razem nie znalazło odzwierciedlenia w rzeczywistości, głównie z powodu niechęci do zrzeczenia się prze kraje UE nawet części narodowych kompetencji do stanowienia przepisów regulujących kwestie podatków dochodowych od przedsiębiorstw na szczeblu wspólnotowym. Do istotnych efektów działań harmonizacyjnych można zaliczyć przyjęcie na początku lat dziewięćdziesiątych następujących aktów prawnych: Dyrektywa 90/434/EWG z dnia 23 lipca 1990 r. w sprawie wspólnego systemu opodatkowania stosowanego do fuzji, podziałów, wniesienia majątku i wymiany udziałów dotyczących spółek różnych państw członkowskich 8, 5 Owsiak S., op. cit., s Traktat ustanawiający Wspólnotę Europejską (Dz. Urz. UE C 235 z ). 7 Szerzej na ten temat: Report of the Committee of Independent Experts on Company Taxation (Ruding Report), Commission of the European Communities, Official Publication of the EC, March Dyrektywa 90/434/EWG z dnia 23 lipca 1990 r. (Dz. Urz. WE L 225 z ). Dalsze prace przyczyniły się do stworzenia następujących dyrektyw zmieniających wspomniany akt prawny: Dyrektywa Rady 2003/123/WE z dnia 22 grudnia 2003 r. (Dz. Urz. UE L 007 z ) oraz Dyrektywa Rady 2005/19/WE z dnia 17 lutego 2005 r. (Dz. Urz. UE L 58/26 z ). 165

166 Harmonizacja CIT w krajach Unii Europejskiej Dyrektywa 90/435/EWG z dnia 23 lipca 1990 r. w sprawie wspólnego systemu opodatkowania stosowanego w przypadku spółek dominujących i zależnych z różnych państw członkowskich 9, Konwencja Arbitrażowa 90/436/EWG w sprawie wyeliminowania podwójnego opodatkowania w związku z korektą zysków przedsiębiorstw powiązanych 10. Na drodze do zmniejszenia niekorzystnych efektów rosnącej konkurencji między krajami członkowskimi w sferze podatkowej Rada UE zaakceptowała 1 grudnia 1997 roku tzw. kodeks postępowania w zakresie opodatkowania przedsiębiorstw 11. Kodeks ten jest porozumieniem politycznym państw członkowskich, w którym to kraje zobowiązały się do przestrzegania zasad uczciwej konkurencji i nie wprowadzania rozwiązań stanowiących szkodliwą konkurencję podatkową. Dodatkowo przyjęto dwie dyrektywy: Dyrektywa 2003/48/WE z dnia 3 czerwca 2003 r. w sprawie opodatkowania dochodu z oszczędności w formie płatności odsetkowych na obszarze Wspólnoty, dotycząca wyłącznie nierezydentów 12, Dyrektywa 2003/49/WE z dnia 3 czerwca 2003 r. w sprawie opodatkowania odsetek i należności licencyjnych w stosunkach pomiędzy spółkami powiązanymi w różnych państwach członkowskich 13. Aktualnie obowiązującymi aktami prawnymi odnoszącymi się ściśle do podatku dochodowego od przedsiębiorstw, poza wspomnianym wcześniej kodeksem postępowania w zakresie opodatkowania przedsiębiorstw oraz aktami zmieniającymi Konwencję Arbitrażową, są: Rekomendacja Komisji Europejskiej 94/390/EC z dnia 25 maja 1994 r. w sprawie opodatkowania małych i średnich przedsiębiorstw 14, Dyrektywa Rady 2009/133/WE z dnia 19 października 2009 r. w sprawie wspólnego systemu opodatkowania mającego zastosowanie w przypadku łączenia, podziałów, podziałów przez wydzielenie, wnoszenia aktywów i wymiany udziałów dotyczących spółek różnych państw członkowskich oraz przeniesienia statutowej siedziby SE (European Company) lub SCE (European Cooperative Society) z jednego państwa członkowskiego do innego państwa członkowskiego 15, Dyrektywa Rady 2011/96/UE z dnia 30 listopada 2011 r. w sprawie wspólnego systemu opodatkowania mającego zastosowanie w przypadku spółek dominujących i spółek zależnych różnych państw członkowskich 16. Harmonizacja podatków ma na celu zniwelowanie różnic prawnych wewnątrz Wspólnoty, co nie oznacza usunięcia narodowych systemów prawnych. Zacieranie różnic odbywa się tylko w tych obszarach, które są ważne w procesach integracyjnych. Taka jest intencja przyjętych metod legislacyjnych. Reguła realizacji dyrektyw przemawia tylko za wspólnym ustalaniem celów, 9 Dyrektywa 90/435/EWG z dnia 23 lipca 1990 r. (Dz. Urz. WE L 225 z ). 10 Konwencja Arbitrażowa 90/436/EWG (Dz. Urz. WE L z ). W późniejszym czasie w ramach zmiany Konwencji wydano stosowny protokół (Dz. Urz. C 160 z ), a także kodeks postępowania wspierającego skuteczne wykonanie Konwencji (Dz. Urz. C 176 z ). 11 Conclusions of the ECOFIN Council Meeting on 1 December 1997 concerning taxation policy Resolution of the Council and the Representatives of the Governments of the Member States, meeting within the Council of 1 December 1997 on a code of conduct for business taxation (Dz. Urz. C2 z ). 12 Dyrektywa 2003/48/WE z dnia 3 czerwca 2003 r. (Dz. Urz. UE L 157 z ). 13 Dyrektywa 2003/49/WE z dnia 3 czerwca 2003 r. (Dz. Urz. UE L 157 z ). 14 Rekomendacja Komisji Europejskiej 94/390/EC z dnia 25 maja 1994 r. (Dz. Urz. L 177 z ). 15 Dyrektywa Rady 2009/133/WE z dnia 19 października 2009 r. (Dz. Urz. L 310 z ). 16 Dyrektywa Rady 2011/96/UE z dnia 30 listopada 2011 r. ((Dz. Urz. L 345 z ). 166

167 Katarzyna Szortyka podczas gdy wprowadzanie ich w życie ma się odbywać wedle zasad ustawodawstwa narodowego 17. Przez długi czas organa Unii Europejskiej były powściągliwe w stosunku do wszelkich propozycji harmonizacji podatku dochodowego od przedsiębiorstw. Zmianę przyniosło poszerzenie Wspólnoty w 2004 roku o kraje charakteryzujące się znacznie niższymi stawkami CIT od tych, które obowiązywały w dotychczasowych państwach członkowskich. Kwestie te będą przedmiotem rozważań w dalszej części pracy. 3. Polityka podatkowa w zakresie CIT w krajach Unii Europejskiej Państwa Unii Europejskiej różnią się znacząco poziomem obciążeń podatkowych. Niewątpliwie stawki podatkowe stały się powodem konkurencji między krajami. W zakresie podatku dochodowego od przedsiębiorstw u podstaw konkurencji podatkowej leży zachęta dla przedsiębiorców, aby dokonywali lokalizacji działalności gospodarczej w kraju o niższych podatkach. Obniżenie podatku w jednym państwie powoduje jego redukcję w innym kraju lub nawet kilku krajach, co prowadzi do dalszego obniżania dochodów publicznych. Tabela 1. Stawki podatku dochodowego od przedsiębiorstw w latach Data przystąpienia do EWG/UE Kraj Różnica Belgia 40,17 40,17 40, ,2 Niemcy 56,8 56,7 51,6 38,3 38,7 29,8 29,8 29,8 29,8 27, Francja 36,7 41,7 37,8 35,4 34,4 34,4 34,4 34,4 33,3 3,3 Holandia 35,0 35,0 35,0 34,5 25,5 25,5 25,5 25,0 25,5 9,5 Luksemburg 40,9 39,3 37,5 30,4 29,6 29,6 28,6 28,8 28,6 12,3 Włochy 52,2 53,2 41,3 37,3 37,3 31,4 31,4 31,4 31,4 20,8 Dania , Irlandia ,5 12,5 12,5 12,5 12,5 12,5 27,5 Wielka Brytania , Grecja , Hiszpania , ,0 Portugalia 39,6 39,6 35,2 27,5 26,5 26, ,6 Austria , Finlandia ,0 Szwecja ,3 26,3 26,3 1,7 Cypr ,0 Czechy ,0 Estonia ,0 Litwa , Łotwa ,0 Malta ,0 POLSKA ,0 Słowenia ,0 Słowacja ,0 Węgry 19,6 19,6 19,6 17,6 21,3 21,3 20,6 20,6 10 9, Bułgaria 40 40,2 32, ,0 Rumunia ,0 UE 27 35,3 35,2 31,9 27,1 24,6 23,6 23,6 23,1 23,0 12,4 UE 15 38,0 38,1 35,4 31,4 28,9 27,5 27,4 27,0 27,3 10,7 EA 17 36,8 37,0 34,4 29,6 26,8 25,7 25,7 25,3 25,6 11,2 Źródło: opracowanie własne na podstawie: Taxation trends in the European Union. Data for EU Member States, Iceland and Norway, Luxembourg: Publications Office of the European Union, 2011; dane za 2012 rok: Huczko P., Ile wynoszą stawki CIT w Europie [online], [ ]. 17 Brzeziński B., Głuchowski J., Kosikowski C., op. cit., s

168 Harmonizacja CIT w krajach Unii Europejskiej Analizując zmiany stawek podatku dochodowego od przedsiębiorstw, które przedstawiono w tabeli 1, łatwo zauważyć tendencję spadkową. W krańcowych latach analizowanego okresu prawie we wszystkich państwach Wspólnoty nastąpiło obniżenie stawki CIT. W 1995 roku najwyższa stawka CIT kształtowała się na poziomie 56,8% w Niemczech, natomiast najniższa wynosiła 19,6% na Węgrzech. W skład Unii Europejskiej wchodziło wówczas 15 państw, a średnia stawka CIT równała się 38%. Wspomniane Węgry nie należały jeszcze do Wspólnoty, a spośród krajów członkowskich najniższą stawką CIT mogła się pochwalić Finlandia (25%). Po siedemnastu latach średnia zmniejszyła się aż o 10,7% i obecnie wynosi dla UE 15 27,3%. Natomiast średnia stawka CIT w UE 27 wynosi 23%. Wysokim poziomem opodatkowania dochodów przedsiębiorstw odznaczają się: Malta (35%), Belgia (34%), Francja (33,3%), Włochy (31,4%), Hiszpania (30%) i Niemcy (29,8%), natomiast najniższe stawki CIT spotykamy w Bułgarii, na Cyprze i Węgrzech (10%), w Irlandii (12,5%) oraz na Litwie i Łotwie (15%). W badanym okresie najbardziej radykalnej obniżki CIT, bo aż o 30%, dokonano w Bułgarii. Zaskakująca jest także redukcja obciążeń podatkowych od dochodów przedsiębiorstw w Irlandii: z 40% w 1995 roku do 12,5%, czyli o 27,5%. Stawka ta obowiązuje od 2003 roku i jest jak dotąd najniższą stawką CIT obowiązującą wśród krajów UE 15. Tak niskie oprocentowanie dochodów przedsiębiorstw przyczyniło się do znacznego zwiększenia atrakcyjności Irlandii jako miejsca lokowania bezpośrednich inwestycji zagranicznych. Znacznej redukcji dokonano także w Niemczech: z 56,8% w 1995 roku do 29,8% w 2008 roku, czyli zmiana wyniosła 27%. Obniżka ta była możliwa dzięki przesunięciu obciążeń podatkowych w kierunku podatków pośrednich, co pozwoliło złagodzić problemy budżetowe i skutecznie włączyć się w proces międzynarodowej konkurencji podatkowej. W niewielu krajach obniżki CIT były tylko nieznaczne: w Szwecji o 1,7%, we Francji o 3,3%, a w Hiszpanii, Estonii i Słowenii o 5%. Na Malcie stawka CIT utrzymywana jest niezmiennie na poziomie 35% w całym badanym okresie. Biorąc pod uwagę wielkości krańcowe, jedynie w Finlandii zanotowano wzrost stawki CIT rzędu 1%, aczkolwiek wynika to z tego, iż w 1995 roku stawka CIT wynosiła 25%. W 1996 roku stawka ta wzrosła do 28%, a w 2000 roku do 29%. Jednak mimo redukcji stawki CIT w 2005 roku do 26%, nadal zauważalna jest jednoprocentowa podwyżka w porównaniu do 1995 roku. Impuls do obniżania stawek CIT w Unii Europejskiej dało przystąpienie do Wspólnoty w 2004 roku 10 krajów, wśród których znalazły się kraje postsocjalistyczne. Państwa, które dokonały radykalnych obniżek stawek CIT w roku 2004 to: Polska, Słowacja, Cypr, Litwa i Łotwa. Czechy obniżały stawkę CIT stopniowo z 41% w 1995 roku do 19% w 2011 roku. Na Węgrzech obniżka stawki CIT poszła jeszcze dalej, gdyż kraj ten zredukował stawkę CIT do 17,6% w roku 2004 i, co prawda podniósł ją do 21,3% w 2007 roku, ale ostatecznie obniżył aż do 10% w 2012 roku. Podwyżka stawki CIT w 2007 roku, poza innymi podwyżkami podatków w tym kraju, wynikała z konieczności zmniejszenia deficytu budżetowego, który w wyniku nierozsądnej polityki gospodarczej osiągnął poziom około 10% PKB i doprowadził do znacznej utraty wiarygodności kredytowej Węgier, a co za tym idzie Węgry nie tylko zostały pozbawione możliwości skutecznego udziału w międzynarodowej konkurencji podatkowej, ale także musiały podnieść poziom obciążeń podatkowych. Jak już wspomniano, zdecydowanie niższe obciążenia podatkowe występują w krajach, które przystąpiły do Wspólnoty począwszy od 2004 roku. Wśród nich jest Polska ze stawką CIT wynoszącą 19%. Jednak niska stawka podatkowa nie stanowi zachęty do prowadzenia biznesu w Polsce, bowiem przyjazność polskiego systemu podatkowego jest oceniana bardzo nisko. Pod tym względem zajmujemy 121. miejsce na 183 kraje w rankingu przeprowadzonym przez Bank Światowy. Wyprzedziły nas między innymi: Estonia, Litwa, Rosja czy Węgry. Pierwsze pozycje w rankingu zajęły takie kraje jak Irlandia czy Wielka Brytania. W ostatnich latach zaobserwowano tendencję do upraszczania systemów podatkowych, jednakże w Polsce stopień skomplikowania wzrósł Polska ma jedną z najniższych stawek CIT [online], [ ]. 168

169 Katarzyna Szortyka Drastyczne zmniejszanie obciążeń podatkowych w 2004 roku przez nowo wstępujące kraje spotkało się najpierw z protestem krajów starej Unii Europejskiej, ale zakończyło się obniżeniem stawek także w tych państwach. O spadkowej tendencji stawek CIT w UE świadczy także wykres 1. Widać na nim wyraźnie, że w krajach piętnastki obowiązywały wyższe stawki podatku dochodowego od przedsiębiorstw aniżeli w UE w stanie obecnym. Jednakże kierunek zmian jest taki sam w UE 15, UE 27, a także w siedemnastu krajach, które przyjęły wspólną walutę Euro. 40% 38% 36% 34% 32% 30% 28% 26% 24% 22% 20% UE 27 UE 15 EA 17 Wykres 1. Zmiany stawek CIT w UE 27, UE 15 i EA w latach Źródło: jak w tabeli 1. Dane zawarte w tabeli 2 mogą stanowić bardziej zobiektywizowaną podstawę do oceny zmian w zakresie CIT. Zaskoczeniem jest to, iż pomimo znacznego obniżania stawek podatku dochodowego od przedsiębiorstw, dochody z tytułu tego podatku spadły tylko nieznacznie, biorąc pod uwagę krańcowe lata obserwowanego okresu. Należy pamiętać, że kraje UE obniżając stawki CIT, wycofały się jednocześnie z ulg, zwolnień i innych preferencji podatkowych. Wynika to z podstawowej wartości uznawanej przez Wspólnotę zasady wolnej, uczciwej konkurencji. Tabela 2. Dochody podatkowe od przedsiębiorstw w relacji do PKB w latach Kraj Różnica Belgia 2,3 2,8 3,2 3,0 3,1 3,5 3,6 2,5 0,2 Niemcy 0,9 1,3 1,7 0,6 0,9 1,4 1,1 0,7 0,2 Francja 1,8 2,3 2,8 2,5 2,3 2,9 2,8 1,3 0,5 Holandia 3,3 4,5 4,3 3,6 3,3 3,7 3,4 2,1 1,2 Luksemburg 6,6 7,5 7,0 8,0 5,7 5,0 5,1 5,5 1,1 Włochy 3,3 4,1 2,4 2,7 2,4 2,9 3,0 2,4 0,9 Dania 2,3 2,7 3,3 2,9 3,2 4,4 3,3 2,5 0,2 Irlandia 2,8 3,2 3,8 3,7 3,7 3,9 2,9 2,5 0,3 19 EA 17 (Euro Area 17) kraje Unii Europejskiej, które przyjęły walutę Euro. 169

170 Harmonizacja CIT w krajach Unii Europejskiej Wielka Brytania 2,8 3,9 3,5 2,8 2,9 4,0 3,6 2,8 0,0 Grecja 2,3 2,3 4,1 3,4 3,0 2,7 2,5 2,4 0,1 Hiszpania 1,9 2,7 3,1 3,3 3,5 4,2 2,9 2,3 0,4 Portugalia 2,3 3,1 3,7 3,3 2,9 2,9 3,7 2,9 0,6 Austria 1,6 2,2 2,2 2,4 2,4 2,3 2,6 1,9 0,3 Finlandia 2,3 3,5 5,9 4,2 3,5 3,4 3,5 2,0 0,3 Szwecja 2,6 2,8 3,8 2,0 2,9 3,6 2,9 3,0 0,4 Cypr 4,0 4,4 6,2 6,0 3,7 5,5 7,0 6,5 2,5 Czechy 4,6 3,8 3,5 4,3 4,7 4,8 4,2 3,6 1,0 Estonia 2,3 1,8 0,9 1,1 1,7 1,5 1,7 1,8 0,5 Litwa 2,0 1,5 0,7 0,6 1,9 2,8 2,7 1,8 0,2 Łotwa 1,8 2,2 1,6 2,0 1,8 2,3 3,2 1,6 0,2 Malta 2,6 2,6 2,9 3,9 4,1 4,9 6,7 6,7 4,1 POLSKA 2,7 2,7 2,4 2,0 2,2 2,4 2,7 2,3 0,4 Słowenia 0,5 1,0 1,2 1,6 1,9 3,0 2,5 1,8 1,3 Słowacja 6,0 3,6 2,6 2,5 2,6 2,9 3,1 2,5 3,5 Węgry 1,8 1,9 2,2 2,3 2,1 2,3 2,6 2,1 0,3 Bułgaria 4,5 5,1 2,7 3,0 2,5 2,1 3,2 2,5 2,0 Rumunia 3,7 4,2 3,0 2,6 3,2 2,8 3,0 2,6 1,1 UE 15 2,6 3,3 3,7 3,2 3,0 3,4 3,1 2,5 0,2 UE 27 2,8 3,1 3,1 3,0 2,9 3,3 3,3 2,7 0,1 Źródło: Taxation trends in the European Union. Data for EU Member States, Iceland and Norway, Luxembourg: Publications Office of the European Union, Na wykresie 2 przedstawiono dochody z CIT w relacji do PKB oraz stawki tegoż podatku obowiązujące w 2009 roku. Linie przedzielające wykres obrazują odpowiednio średnią stawkę podatku dochodowego od przedsiębiorstw (23,6%) oraz przeciętne dochody z CIT w relacji do PKB (2,7%). Kraje UE dzielą się wówczas na cztery grupy. Wykres 2. Relatywne dochody z CIT i stawki CIT w 2009 roku Źródło: opracowanie własne na podstawie Taxation trends in the European Union. Data for EU Member States, Iceland and Norway, Luxembourg: Publications Office of the European Union,

171 Katarzyna Szortyka Pierwszą grupę stanowi 5 krajów o wysokich dochodach z CIT w stosunku do PKB i wysokiej stawce tegoż podatku. Wysokie dochody można w zasadzie wytłumaczyć sprawnym funkcjonowaniem systemu podatkowego, zdolnego zapewnić wysoką podstawę opodatkowania mimo wysokich stawek. Wyjątkiem są w tej grupie dwa państwa Malta i Luksemburg gdzie dochody są nieproporcjonalnie wysokie w porównaniu ze stawką CIT. Do grupy o niskich dochodach i niskich stawkach CIT należy 9 krajów. Są to głównie kraje, które dołączyły do UE 15 (wśród nich Polska). Starają się one zapewnić jak najlepsze warunki do inwestowania, a niskie dochody daje się wyjaśnić dokonanym wyborem zasad opodatkowania. Warto zauważyć, że Irlandia znalazła się również w grupie tych krajów. Wśród krajów o wysokich dochodach i niskich stawkach znalazły się Czechy i Cypr, natomiast 10 państw charakteryzuje się niskimi dochodami i wysoka stawką. Do tej ostatniej grupy zaliczają się Francja i Niemcy, oskarżające kraje, które weszły do UE począwszy od 2004 roku, o nieuczciwą konkurencję. Tocząca się od lat dyskusja nabrała rozgłosu w ostatnim czasie. W lutym bieżącego roku Francja i Niemcy przyjęły tzw. zieloną księgę, stanowiącą wyraz deklaracji politycznej obu państw w sprawie bilateralnego zbliżania swoich rozwiązań, regulujących opodatkowanie dochodów od przedsiębiorstw 20. We wstępie do zielonej księgi zaznaczono, że harmonizacja systemów podatkowych, głównie podatków od przedsiębiorstw, jest jednym z najważniejszych elementów zakończenia kształtowania europejskiego rynku wewnętrznego. Francja i Niemcy zadeklarowały w dokumencie chęć wsparcia starań Komisji Europejskiej w zakresie harmonizacji CIT w UE. Niektóre kraje są nastawione do tej kwestii bardzo nieprzychylnie, m.in. Irlandia, która stosuje bardzo korzystne dla przedsiębiorstw podatki i z tego też względu jest oskarżana o przyciąganie firm z innych państw, czyli o tzw. delokalizację. W zielonej księdze znalazł się zapis, że Francja i Niemcy założyły ujednolicenie u siebie podatku dochodowego od przedsiębiorstw od 2013 roku 21. Podsumowując, stawki podatku dochodowego od przedsiębiorstw w krajach Wspólnoty zdecydowanie się różnią. Ma to ogromny wpływ na międzynarodową konkurencję czy wielkość bezpośrednich inwestycji zagranicznych. Podsumowanie Harmonizacja podatku dochodowego od przedsiębiorstw jest niezwykle trudnym przedsięwzięciem ze względu na szereg argumentów i kontrargumentów, a co za tym idzie na różne stanowiska krajów członkowskich Wspólnoty w tej kwestii. Niewątpliwie jednak bez odpowiedniej harmonizacji CIT trudno jest traktować rynek UE jako faktycznie jednolity. Coraz wyraźniej odczuwalne zjawisko przenoszenia przedsiębiorstw do innych krajów wywołuje trudności ze ściągalnością podatków przynależnych danemu państwu. Kolejnym zagrożeniem dla finansów publicznych, prowadzącym do trudności w realizacji funkcji państwa, może być dalsze obniżanie stawek CIT. Harmonizacja CIT jest kwestią dyskusyjną, ale być może nadszedł czas na odstąpienie od zasady jednomyślności i rozpoczęcie zdecydowanych działań harmonizacyjnych w zakresie podatku dochodowego od przedsiębiorstw. Warto się zastanowić, jakie tak naprawdę przyniesie to skutki dla naszego kraju. Bibliografia 1. Brzeziński B., Głuchowski J., Kosikowski C., Harmonizacja prawa podatkowego Unii Europejskiej i Polski, PWE, Warszawa Bukowski S.I., Pypeć M.K. (red.), Podatki w Unii Europejskiej. Harmonizacja czy konkurencja podatkowa?, Wydawnictwo Politechniki Radomskiej, Radom Huczko P., Harmonizacja CIT w UE [online], [ ]. 21 Paryż i Berlin namawiają UE do harmonizacji podatków przedsiębiorstw [online], [ ]. 171

172 Harmonizacja CIT w krajach Unii Europejskiej 3. Conclusions of the ECOFIN Council Meeting on 1 December 1997 concerning taxation policy Resolution of the Council and the Representatives of the Governments of the Member States, meeting within the Council of 1 December 1997 on a code of conduct for business taxation (Dz. Urz. C2 z ). 4. Dyrektywa 90/434/EWG z dnia 23 lipca 1990 r. (Dz. Urz. WE L 225 z ). 5. Dyrektywa 2003/48/WE z dnia 3 czerwca 2003 r. (Dz. Urz. UE L 157 z ). 6. Dyrektywa 2003/49/WE z dnia 3 czerwca 2003 r. (Dz. Urz. UE L 157 z ). 7. Dyrektywa Rady 2003/123/WE z dnia 22 grudnia 2003 r. (Dz. Urz. UE L 007 z ). 8. Dyrektywa Rady 2005/19/WE z dnia 17 lutego 2005 r. (Dz. Urz. UE L 58/26 z ). 9. Dyrektywa Rady 2009/133/WE z dnia 19 października 2009 r. (Dz. Urz. L 310 z ). 10. Dyrektywa Rady 2011/96/UE z dnia 30 listopada 2011 r. ((Dz. Urz. L 345 z ). 11. Konwencja Arbitrażowa 90/436/EWG (Dz. Urz. WE L z ). 12. Oręziak L., Finanse Unii Europejskiej, Wydawnictwo Naukowe PWN, Warszawa Rekomendacja Komisji Europejskiej 94/390/EC z dnia 25 maja 1994 r. (Dz. Urz. L 177 z ). 14. Report of the Committee of Independent Experts on Company Taxation (Ruding Report), Commission of the European Communities, Official Publication of the EC, March Taxation trends in the European Union. Data for EU Member States, Iceland and Norway, Luxembourg: Publications Office of the European Union, Traktat ustanawiający Wspólnotę Europejską (Dz. Urz. UE C 235 z ). Netografia 1. Huczko P., Ile wynoszą stawki CIT w Europie [online], 2. Huczko P., Harmonizacja CIT w UE [online], 3. Owsiak S., Harmonizacja podatków bezpośrednich warunkiem integracji gospodarczej Unii Europejskiej [online], PTE, Kraków 2009, 4. Paryż i Berlin namawiają UE do harmonizacji podatków przedsiębiorstw [online], 5. Polska ma jedną z najniższych stawek CIT [online], The Corporate Income Tax Harmonization in EU countries The presentation of the main issues and the harmonization limitations of corporate income tax (CIT) are presented in this paper. Not only did the author highlight the approximation of theoretical problems, but also practical approach to the taxation of corporate profits. The theoretical and the strictly legal threads were limited to the essential minimum as to form more space for various considerations with the practical and the most up to date nature. Keywords: corporate income tax CIT, corporate income tax harmonization 172

173 Przemysław Kowalik Przemysław Kowalik * Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne do postaci liniowej Streszczenie: Większość dostępnych na rynku arkuszy kalkulacyjnych umożliwia wykonywanie estymacji jak i prognozowania w oparciu o metodę najmniejszych kwadratów, jednakże standardowo dostępne możliwości obliczeniowe tych programów pomijają modele nieliniowe, nawet te transformowalne do postaci liniowej. Wyjątkami są: model wykładniczy oraz obarczone wieloma ograniczeniami tzw. linie trendu, które mogą być dodawane do niektórych typów wykresów. Oznacza to, że obliczenia związane z modelami nieliniowymi oznaczają konieczność wykonania linearyzacji modelu przez przygotowanie niezbędnych formuł pomocniczych, a następnie użycie wyników tych formuł jako argumentów funkcji przeznaczonych dla modeli liniowych. W pracy pokazano, iż dla wielu typów modeli transformowalnych do postaci liniowej możliwe jest uniknięcie jawnego tworzenia formuł pomocniczych w oddzielnych komórkach na rzecz zintegrowania linearyzacji z formułami zawierającymi standardowe funkcje służące do estymacji i prognozowania modeli liniowych. Słowa kluczowe: metoda najmniejszych kwadratów, modele liniowe, modele nieliniowe, linearyzacja, arkusz kalkulacyjny 1. Wprowadzenie linearyzacja modeli w metodzie najmniejszych kwadratów Celem niniejszej pracy jest przedstawienie efektywnych metod linearyzacji nieliniowych modeli ekonometrycznych dla celów estymacji oraz prognozowania wykonywanych w arkuszach kalkulacyjnych z wykorzystaniem metody najmniejszych kwadratów. Na wstępie zostaną wprowadzone niezbędne oznaczenia oraz definicje 1. Niech Y 0 X 0 1X1 2 X 2... k X k oznacza jednorównaniowy model liniowy, gdzie Y zmienna objaśniana, X 1, X 2,..., X k zmienne objaśniające, składnik losowy,,,..., parametry strukturalne modelu. Przyjmuje się 0, 1 2 k ponadto, że X 0 1, a jest nazywany wyrazem wolnym modelu (stałą regresji). 0 Następnym krokiem jest wprowadzenie następującego zapisu macierzowego dla n obserwacji realizacji zmiennych y1 1 x11 x12 x1 k 0 1 y2 Y 1 x x x k X 1 α 2 ε y n 1 xn 1 xn2 xnk n n Wektor obserwacji zmiennej objaśnianej Macierz obserwacji zmiennych objaśniających Wektor parametrów strukturalnych Wektor składników * Autor jest adiunktem w Katedrze Metod Ilościowych w Zarządzaniu na Wydziale Zarządzania Politechniki Lubelskiej. 1 Definicje, oznaczenia i wzory opracowano na podstawie: Goryl A., Jędrzejczyk Z., Kukuła K., Osiewalski J., Walkosz A., Wprowadzenie do ekonometrii, Wyd. Naukowe PWN, Warszawa 2009, str , ; Nowak E., Zarys metod ekonometrii. Zbiór zadań, Wyd. Naukowe PWN, Warszawa 2002, str ,

174 Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne ( ) losowych Model liniowy można wówczas zapisać macierzowo jako Y X α ε. Klasyczna metoda najmniejszych kwadratów (MNK) polega na znalezieniu oszacowań (ocen) parametrów strukturalnych a 0, a1, a2,..., a k poprzez taki ich dobór, aby suma kwadratów odchyleń pomiędzy wartościami obserwowanymi zmiennej objaśnianej y a odpowiadającymi im i wartościami teoretycznymi ŷ była jak najmniejsza. Po wprowadzeniu kolejnych oznaczeń i yˆ 1 a0 e ˆ 1 y1 y1 yˆ ˆ 2 Y a ˆ 1 a e e2 y2 y2 Y Yˆ yˆ n a n e ˆ n yn yn Wektor wartości teoretycznych Wektor oceny parametrów Wektor reszt zmiennej objaśnianej strukturalnych można zapisać, iż oszacowania parametrów strukturalnych a 0, a1, a2,..., a k są takimi liczbami, że następująca suma osiąga swoje minimum n 2 ei i1 n i1 ( y yˆ ) i i 2 n i1 ( y ( a i o a x 1 i1 a x 2 i2... a x k 1 i, k 1 a x Wartość oszacowań parametrów strukturalnych jest obliczana przy pomocy wzoru T 1 T a (X X) X Y. Zastosowanie modeli liniowych do opisu niektórych zjawisk może być jednak obarczone tak znacznymi błędami, iż należy rozważyć użycie modelu nieliniowego 2. Nieliniowe modele ekonometryczne mogą być sklasyfikowane jako: 1. Modele transformowalne do postaci liniowej (linearyzowalne) tzn. takie, które po zastosowaniu pewnych przekształceń można przedstawić w postaci liniowej, a ich parametry można szacować przy zastosowaniu MNK. Modele te dzielą się na: a) nieliniowe względem zmiennych, liniowe względem parametrów; b) nieliniowe względem zmiennych i parametrów. 2. Modele nieliniowe w ścisłym sensie tzn. takie, dla których nie istnieje przekształcenie do postaci liniowej, a ich parametry należy estymować przy pomocy technik estymacji nieliniowej. W pracy rozważona będzie implementacja linearyzacji w arkuszach kalkulacyjnych dla modeli linearyzowalnych, zarówno liniowych jak i nieliniowych względem parametrów. Model jest nazywany liniowym względem parametrów, jeżeli zmienną objaśnianą można przedstawić jako liniową funkcję jednoznacznych przekształceń zmiennych objaśniających: Y X ~ X ~ X ~ k k gdzie ~ X j h( X j ) są zmiennymi objaśniającymi przekształconymi przy pomocy pewnej funkcji h. Taki przekształcony model jest nazywany modelem pomocniczym, a jego parametry strukturalne są szacowane przy pomocy wzoru ~ T ~ 1 ~ T a (X X) X Y. Poniżej opisane są linearyzacje dla wybranych modeli liniowych względem parametrów. Model wielomianowy stopnia m : 2 m Y X X m X k ik 2 )). 2 Kwestia wyboru konkretnej postaci analitycznej modelu (czyli rodzaju funkcji opisującej badaną zależność) została pominięta jako leżąca poza tematyką pracy. 174

175 Przemysław Kowalik 175 x n x x 2 1 X m n n n m m x x x x x x x x x ~ X Model logarytmiczny: k k X X X Y ln... ln ln nk n n k k x x x x x x x x x X nk n n k k x x x x x x x x x ln ln ln 1 ln ln ln 1 ln ln ln 1 ~ X Model hiperboliczny: k k X X X X Y nk n n k k x x x x x x x x x X nk n n k k x x x x x x x x x 1/ 1/ 1/ 1 1/ 1/ 1/ 1 1/ 1/ 1/ 1 ~ X Model ekonometryczny jest nazywany nieliniowym względem zmiennych i parametrów, jeżeli przy pomocy jednoznacznych przekształceń obu jego stron (tzn. zmiennej objaśnianej oraz zmiennych objaśniających) można go zapisać w postaci liniowej k k X X X Y ~... ~ ~ ~ gdzie ) ( ~ G Y Y to pomocnicza zmienna objaśniana (pewna funkcja oryginalnej zmiennej objaśnianej), ) ( ~ j X j g X pomocnicze zmienne objaśniające (pewne funkcje oryginalnych zmiennych objaśniających), ) ( j j f parametry modelu pomocniczego (pewne funkcje parametrów modelu oryginalnego). Taki przekształcony model jest nazywany modelem pomocniczym, a jego parametry strukturalne są szacowane przy pomocy wzoru Y X X) (X b T 1 T ~ ~ ~ ~. Poniżej opisane są linearyzacje dla wybranych modeli nieliniowych względem parametrów oraz zmiennych Model potęgowy: e X X X Y k k y n y y ln ln ln ~ 2 1 Y nk n n k k x x x x x x x x x ln ln ln 1 ln ln ln 1 ln ln ln 1 ~ X a k a a 1 0 ln b czyli 0 0 ln b a o e e a Model wykładniczy: e a Y k X k X X y n y y ln ln ln ~ 2 1 Y nk n n k k x x x x x x x x x ~ X X a k a a ln ln ln 1 0 b czyli i a i b i e e a ln, k i,..., 1,2 2. Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych przegląd dostępnych możliwości obliczeniowych

176 Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne ( ) Możliwość wykonywania w arkuszach kalkulacyjnych obliczeń związanych z MNK jest dostępna niemal odkąd programy tego typu pojawiły się na rynku 3. Poniżej zaprezentowano przegląd tychże możliwości w poszczególnych programach dostępnych w pierwszym kwartale roku 2012 (uwzględniony jest najpopularniejszy z nich Microsoft Excel oraz wybrane programy darmowe). Microsoft Excel (wykaz opracowany dla polskich wersji 2003, 2007 i 2010). 1. Szacowanie parametrów modeli liniowych/wykładniczych z jedną lub wieloma zmiennymi objaśniającymi odpowiednio przy pomocy funkcji REGLINP (ang. LINEST) albo REGEXPP (ang. LOGEST). Funkcja jest wywoływana jako formuła tablicowa obliczająca oszacowane przy pomocy MNK parametry modelu (REGEXPP oczywiście wykonuje również niezbędne linearyzacje). Parametry zwracane są w kolejności odwrotnej do kolejności odpowiadających im kolumn macierzy zmiennych objaśniających (stała jest wyświetlana na końcu). Możliwe jest przymusowe wyzerowanie stałej, obliczenie dodatkowych statystyk regresji oraz przyjęcie jako wartości zmiennej objaśniającej liczb 1,2,..., n (dla modeli opisujących zależność od czasu). Składnia funkcji 4 to REGLINP/REGEXPP(znane_y; [znane_x]; [stała]; [statystyka]), gdzie znane_y to wektor obserwacji zmiennej objaśnianej Y, znane_x macierz obserwacji zmiennych objaśniających (bez kolumny jedynek) X (domyślnie są to liczby 1,2,..., n, n liczba obserwacji dane dla badania zależności od czasu), stała wartość logiczna wskazująca czy obliczać stałą regresji (domyślnie PRAWDA), statystyka wartość logiczna wskazująca czy obliczać dodatkowe statystyki regresji (domyślnie FAŁSZ). Wynik wektor a zwracany jest w jednowierszowym zakresie k+1 komórek w kolejności a, a 1,..., a2, a1, a. W przypadku k k 0 obliczania dodatkowych statystyk regresji funkcja zwraca wynik w pięciu wierszach. 2. Szacowanie parametrów modeli liniowych oraz nieliniowych z jedną zmienną objaśniającą wykorzystujące możliwość dodawania wykresów tzw. linii trendu do wykresów niektórych typów utworzonych z tablic liczb. Linie trendu są funkcjami, których parametry zostały najlepiej (w sensie MNK) dopasowane do danych wykresów. Dostępne są następujące typy linii trendu (czyli rodzaje modeli): liniowy, logarytmiczny, wielomianowe 2, 3, 4, 5 i 6 stopnia, potęgowy oraz wykładniczy. Dla każdej z linii trendu można wyświetlić pole tekstowe (o konfigurowalnych własnościach wyświetlania) zawierające jej wzór oraz współczynnik determinacji liniowej R. Linie trendu dla dowolnych wartości zmiennej objaśniającej mogą być 2 dodane do wykresów typu XY (Punktowy) oraz Bąbelkowy (wszystkie podtypy obu typów). Linie trendu dla zależności od czasu (tzn. z wartościami zmiennej objaśniającej równymi 1,2,..., n ) mogą być dodane do wykresów typu Liniowy (podtypy Liniowy oraz Liniowy ze znacznikami), Kolumnowy (podtyp Kolumnowy grupowany), Słupkowy (podtyp Słupkowy grupowany), Warstwowy (podtyp Warstwowy). Linie trendu są jedyną wbudowaną w Excela opcją dla bezpośredniego szacowania parametrów modeli nieliniowych innych niż wykładniczy, ale ich użycie wiąże się z wieloma ograniczeniami. Mianowicie, linie trendu są dostępne jedynie dla modeli z jedną zmienną objaśniającą, użycie oszacowanych parametrów w dalszych obliczeniach wymaga ich skopiowania ze wzoru funkcji na wykresie do komórek, 2 a jedyną obliczaną statystyką regresji jest współczynnik determinacji liniowej R. 3. Obliczenia dla modelu liniowego są również dostępne w postaci szczegółowego raportu generowanego przez jedno z narzędzi dostępnych w dodatku Analysis ToolPak (menu Dane Analiza Danych Regresja, a w Excelu 2003 i wcześniejszych Narzędzia Analiza Danych 3 Przykład estymacji/prognozy przy pomocy MNK wykonanej w arkuszu Lotus (wprowadzonym na rynek w listopadzie 1985) można znaleźć w: Głuszkowski T., Arkusze kalkulacyjne: przykłady zastosowań, tricki, kruczki, Wyd. Broker, Łódź 1993, str Zapis składni funkcji tzn. symboliczne nazwy argumentów oraz oznaczenie [] dla argumentów opcjonalnych są oparte na opisach tychże funkcji w plikach pomocy Excela. 176

177 Przemysław Kowalik Regresja). Otrzymane wyniki są statyczne tzn. nie są formułami i nie aktualizują się przy ewentualnej zmianie danych wejściowych. Ten sposób obliczeń nie jest dostępny w okrojonej wersji Excel Starter Sporządzanie prognoz, czyli obliczanie wartości funkcji o parametrach oszacowanych przy pomocy MNK dla nowych liczb jest wykonywane poprzez wbudowane funkcje: REGLINW (ang. TREND) dla modeli liniowych oraz dla modeli wykładniczych REGEXPW (ang. GROWTH). Składnia funkcji to REGLINW/REGEXPW(znane_y;[znane_x]; [nowe_x];[stała]) gdzie znane_y, znane_x oraz stała mają znaczenie takie jak w REGLINP/REGEXPP. Natomiast nowe_x to liczby podstawiane do wzoru funkcji oszacowanej na podstawie znane_y oraz znane_x. Musi być to zakres liczb mający tyle kolumn, co znane_x i dowolną liczbę wierszy. Wynik jest formułą tablicową umieszczoną w jednokolumnowym zakresie komórek mającym tyle wierszy, co nowe_x. 5. Istnieje również grupa funkcji związanych z szacowaniem parametrów modeli liniowych z jedną zmienną objaśniającą: NACHYLENIE (ang. SLOPE) oraz ODCIĘTA (ang. INTERCEPT), 2 R.KWADRAT (ang. RSQ), współczynnik determinacji liniowej R, REGBŁSTD (ang. STEYX) błąd standardowy prognozowanej wartości Y oraz z prognozowaniem: REGLINX (ang. FORECAST). Funkcje te zwracają wyniki w pojedynczych komórkach (zatem są wprowadzane jako formuły zwykłe a nie tablicowe), a ich argumenty to znane_y oraz znane_x (w przypadku REGLINX dodatkowym, pierwszym argumentem jest nowe_x, ale podane jako pojedyncza liczba a nie tablica liczb). OpenOffice.org Calc/LibreOffice Calc (wykaz sporządzony dla wersji OO 3.2.0/LibreOffice 3.4.4) 1. Funkcje REGLINP/REGEXPP działają jak w Excelu. 2. Linie trendu są dostępne dla modeli liniowych, logarytmicznych, potęgowych oraz wykładniczych (brak typu wielomianowego). Linie trendu dla dowolnych wartości zmiennej objaśniającej (oczywiście poza liczbami niedodatnimi dla linii typu wykładniczego i potęgowego) mogą być dodane do wykresów typu XY (Punktowy). Linie trendu dla zależności od czasu (tzn. z wartościami zmiennej objaśniającej równymi 1,2,..., n ) mogą być dodane do wykresów typu Liniowy, Kolumnowy. Warstwowy oraz Słupkowy (także dla podtypów Skumulowany). Można też wyświetlić pole tekstowe (o konfigurowalnych własnościach wyświetlania) 2 zawierające wzór funkcji oraz współczynnik determinacji liniowej R. 3. Nie ma modułu wykonującego estymację liniową i generującego raport. 4. Funkcje REGLINW, REGEXPW działają jak w Excelu. 5. Funkcje NACHYLENIE, ODCIĘTA, R.KWADRAT, REGBŁSTD, REGLINX działają jak w Excelu Gnumeric (wykaz sporządzony dla wersji , funkcje nie mają polskich nazw nawet w częściowo spolszczonej wersji programu) 1. Funkcje LINEST/LOGEST działają jak w Excelu. Istnieje również niespotykana w innych arkuszach funkcja LOGREG służąca do estymacji modelu logarytmicznego. 2. Linie trendu są dostępne w analogicznym zakresie jak w Excelu, z tym, że maksymalny stopień modelu wielomianowego to Obliczenia dla modelu liniowego są również dostępne w postaci szczegółowego raportu generowanego przez narzędzie Regresja (menu Statistics Dependent Observation Regression lub w częściowo spolszczonej wersji programu Statistics Dependent Observation Regresja). Otrzymane wyniki mogą być statycznymi liczbami albo formułami. 4. Funkcje TREND i GROWTH działają jak w Excelu. Nie ma jednak odpowiednika tych funkcji dla modeli logarytmicznych (pomimo istnienia funkcji LOGREG). 5. Funkcje SLOPE, INTERCEPT, RSQ, STEYX i FORECAST działają jak w Excelu. 3. Estymacja parametrów oraz prognozowanie dla modeli wielomianowych logarytmicznych, hiperbolicznych oraz potęgowych 177

178 Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne ( ) Przegląd możliwości arkuszy kalkulacyjnych zamieszczony w poprzednim rozdziale nie oznacza, że wykonywanie estymacji parametrów modeli nieliniowych w arkuszach kalkulacyjnych jest ograniczone do wyświetlania wzorów linii trendu oraz do estymacji parametrów modelu wykładniczego przy pomocy REGEXPP/LOGEST (oraz logarytmicznego przy pomocy LOGREG w arkuszu Gnumeric). Estymacja parametrów pozostałych modeli nieliniowych wymaga jednakże samodzielnego przygotowania formuł pomocniczych zapewniających linearyzację modeli. Formuły te przekształcają macierze wartości zmiennych objaśniających, zmiennej objaśnianej oraz oszacowanych parametrów zgodnie z wzorami linearyzacyjnymi dla danego modelu i zasadniczo muszą tworzone według zasady jedna przekształcana komórka jedna formuła Okazuje się jednak, że w przypadku wielu powszechnie stosowanych modeli istnieje możliwość rezygnacji ze wszystkich bądź niemal wszystkich pomocniczych formuł stosowanych w linearyzacji, bowiem można je niejako zintegrować z formułami zawierającymi wywołanie REGLINP. Istotnym aspektem pracy z modelami ekonometrycznymi jest również prognozowanie. Tzw. prognozę punktową wykonuje się poprzez podstawienie nowych wartości zmiennych objaśniających do funkcji oszacowanej przy pomocy MNK. Jak już wspomniano w poprzednim rozdziale, arkusze kalkulacyjne mają wbudowane przeznaczone do tego celu funkcje jedynie dla modeli liniowych (REGLINW, REGLINX) oraz wykładniczych (REGEXPW). W przypadku innych modelach nieliniowych obliczenia związane z podstawianiem nowych liczb do wzoru oszacowanej funkcji nieliniowej można wykonać przy pomocy funkcji REGLINW uzupełnionej o niezbędne przekształcenia linearyzacyjne, które dotyczą obserwowanych wartości zmiennych (tak jak w przypadku REGLINP), ale mogą również dotyczyć nowych tzn. podstawianych liczb. Okazuje się jednak, że analogicznie jak w przypadku REGLINP, dla podstawowych modeli możliwe jest zintegrowanie formuł linearyzacyjnych z formułami wywołującymi REGLINW. Podsumowując, za cenę nieznacznego skomplikowania formuł wykonujących estymację lub prognozowanie można całkowicie lub niemal całkowicie uniknąć wprowadzania pomocniczych formuł linearyzacyjnych w oddzielnych komórkach. Poniżej znajdują się przykłady omawiające zintegrowane formuły linearyzacyjne dla wymienionych wcześniej rodzajów modeli nieliniowych (naturalnie za wyjątkiem modelu wykładniczego, dla którego jest to zbędne). Warto zwrócić uwagę, że drugi argument funkcji REGLINP oraz REGLIW tzn. znane_x przetworzony przez funkcję linearyzacyjną nie jest opcjonalny (choć jest to dozwolone w składni tych funkcji). Wynika to z faktu, iż domyślna wartość tablicy znane_x tzn. liczby 1,2,..., n musi być jawnie zadeklarowana celem linearyzacji. Model wielomianowy Dla tego modelu jest omówiona dokładniej różnica pomiędzy literalnym (tzn. z wykorzystaniem formuł pomocniczych) przeniesieniem wzorów linearyzacyjnych do arkusza kalkulacyjnego a formułami ze zintegrowaną linearyzacją. Literalne przeniesienie zostało zilustrowane na rys. 1 oraz

179 Przemysław Kowalik Rysunek 1. Obliczenia (estymacja oraz prognozowanie) dla modelu wielomianowego stopnia 3 widok standardowy (w komórkach są widoczne wartości formuł). Źródło: obliczenia autora Rysunek 2. Obliczenia (estymacja oraz prognozowanie) dla modelu wielomianowego stopnia 3 widok formuł. Zakresy komórek z formułami tablicowymi są oznaczone szarym tłem (A14:D14 estymacja, I2:I9 prognoza). Źródło: obliczenia autora W przypadku modelu wielomianowego stopnia m linearyzacja wymaga podniesienia do potęg 2,3,..., m wszystkich wartości zmiennej objaśniającej (w przykładzie odbywa się to poprzez formuły w C2:D11). W przypadku prognozowania, należy wykonać takie same potęgowania również dla nowych liczb podstawianych do oszacowanej funkcji (w przykładzie formuły w G2:H9). Zintegrowana linearyzacja (rys. 3 i 4) pozwala uniknąć tworzenia wszystkich wyżej wymienionych formuł pomocniczych. Składnia funkcji ze zintegrowaną linearyzacją to: REGLINP(znane_y; znane_x^{1;2; ;m};[stała]; [statystyka]) REGLINW(znane_y; znane_x^{1;2; ;m}; [nowe_x^{1;2; ; m}]; [stała]). Potęgowanie jest zintegrowane z formułami dzięki użyciu stałej tablicowej {1;2; ;m} np. dla modelu stopnia 5 ta stała to {1;2;3;4;5}. W polskiej wersji Excela 2010 jako tzw. separator kolumnowy błędnie jest stosowany znak \ zamiast średnika używanego w innych wersjach Excela czy też w innych arkuszach 5. W Excelu 2010 należy stosować zatem zapis {1\2\ \m}. Błąd ten dotyczy jedynie interfejsu użytkownika, natomiast dane między programami są przenoszone poprawnie. Jeżeli z jakichś powodów trzeba uniknąć opisanej wyżej niejednoznaczności zapisu, to wtedy można zastąpić stałą tablicową wywołaniem funkcji NR.KOLUMNY (ang. COLUMN) w postaci NR.KOLUMNY(A1:z1), gdzie z jest symbolicznym oznaczeniem kolumny, której numer jest stopniem wielomianu w modelu (np. NR.KOLUMNY(A1:D1) jest odpowiednikiem {1;2;3;4} ponieważ D to czwarta kolumna). Numer wiersza w A1:D1 jest nieistotny, a samo użycie tego numeru jest potrzebne jedynie gdy istotna jest kompatybilność ze składnią OpenOffice/ LibreOffice. 5 Błąd (powstały zapewne przy tworzeniu polskiej wersji Excela 2010) został opisany na stronie (dostęp ). 179

180 Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne ( ) Rysunek 3. Obliczenia (estymacja oraz prognozowanie) dla modelu wielomianowego stopnia 3 z linearyzacją zintegrowaną z formułami widok standardowy (w komórkach są widoczne wartości formuł). Źródło: obliczenia autora Rysunek 4. Obliczenia (estymacja oraz prognozowanie) dla modelu wielomianowego stopnia 3 z linearyzacją zintegrowaną z formułami widok formuł. Zakresy komórek z formułami tablicowymi są oznaczone szarym tłem (A14:D14 estymacja, F2:F9 prognoza). Źródło: obliczenia autora Model logarytmiczny: W przypadku modelu logarytmicznego linearyzacja wymaga zlogarytmowania wszystkich wartości zmiennej objaśniającej (w przykładzie liczby z B2:E9). Oczywiście w przypadku prognozowania, należy wykonać takie samo logarytmowanie również dla nowych liczb podstawianych do oszacowanej funkcji (w przykładzie liczby z F2:I7). Składnia funkcji ze zintegrowaną linearyzacją (rys. 5 i 6) to: REGLINP(znane_y; LN(znane_x);[stała]; [statystyka]) REGLINW(znane_y; LN(znane_x); [LN(nowe_x)]; [stała]). Rysunek 5. Obliczenia (estymacja oraz prognozowanie) dla modelu logarytmicznego z linearyzacją zintegrowaną z formułami widok standardowy (w komórkach są widoczne wartości formuł). Źródło: obliczenia autora 180

181 Przemysław Kowalik Rysunek 6. Obliczenia (estymacja oraz prognozowanie) dla modelu logarytmicznego z linearyzacją zintegrowaną z formułami widok formuł. Zakresy komórek z formułami tablicowymi są oznaczone szarym tłem (A12:D12 estymacja, J2:J7 prognoza). Źródło: obliczenia autora Model hiperboliczny W przypadku modelu hiperbolicznego linearyzacja polega na obliczeniu odwrotności wszystkich wartości zmiennej objaśniającej (w przykładzie liczb w B2:C9). Oczywiście w przypadku prognozowania, należy obliczyć odwrotności również dla nowych liczb podstawianych do oszacowanej funkcji (w przykładzie liczb z E2:F7). Składnia funkcji ze zintegrowaną linearyzacją (rys. 7 i 8) to: REGLINP(znane_y;1/(znane_x);[stała]; [statystyka]) REGLINW(znane_y; 1/(znane_x); [1/(nowe_x)]; [stała]). Rysunek 7. Obliczenia (estymacja oraz prognozowanie) dla modelu hiperbolicznego z linearyzacją zintegrowaną z formułami widok standardowy (w komórkach są widoczne wartości formuł). Źródło: obliczenia autora Rysunek 8. Obliczenia (estymacja oraz prognozowanie) dla modelu hiperbolicznego z linearyzacją zintegrowaną z formułami widok formuł. Zakresy komórek z formułami tablicowymi są oznaczone szarym tłem (A12:C12 estymacja, G2:G7 prognoza). Źródło: obliczenia autora Model potęgowy Linearyzacja dla modelu potęgowego jest najbardziej skomplikowana z przedstawionych w niniejszej pracy. Zlogarytmowania wymagają wszystkie wartości zmiennej objaśnianej oraz zmiennych objaśniających (w przykładzie liczby odpowiednio w A2:A9 oraz w B2:D9). Oczywiście w przypadku prognozowania, należy wykonać takie samo logarytmowanie również dla nowych liczb podstawianych do oszacowanej funkcji (w przykładzie F2:H7). Składnia funkcji ze zintegrowaną linearyzacją (rys. 9 i 10) to: =REGLINP(LN(znane_y);LN(znane_x);[stała]; [statystyka]) =EXP(REGLINW(LN(znane_)y; LN(znane_x); [LN(nowe_x)]; [stała]))). 181

182 Metoda najmniejszych kwadratów w arkuszach kalkulacyjnych modele nieliniowe transformowalne ( ) Nawet pomimo zastosowania zintegrowanej linearyzacji, estymacja parametrów modelu potęgowego wymaga zastosowania jednej dodatkowej pomocniczej formuły z wywołaniem funkcji EXP, gdzie argumentem jest adres komórki z REGLINP zawierający oszacowanie stałej. Jest to konieczne, ponieważ stała w modelu pomocniczym (zlinearyzowanym) jest obliczana jako logarytm stałej oryginalnej. Użycie funkcji EXP przy prognozowaniu jest uzasadnione faktem, iż obliczone wartości prognoz dla modelu zlinearyzowanego są logarytmami wartości dla modelu x oryginalnego. Logarytmy te muszą być zatem przetworzone przez funkcję e. Rysunek 9. Obliczenia (estymacja oraz prognozowanie) dla modelu potęgowego z linearyzacją zintegrowaną z formułami widok standardowy (w komórkach są widoczne wartości formuł). Źródło: obliczenia autora Rysunek 10. Obliczenia (estymacja oraz prognozowanie) dla modelu potęgowego z linearyzacją zintegrowaną z formułami widok formuł. Zakresy komórek z formułami tablicowymi są oznaczone szarym tłem (A12:D12 estymacja, E12 formuła pomocnicza służącą do obliczenia stałej, I2:I7 prognoza). Źródło: obliczenia autora 4. Wnioski końcowe Opisane w niniejszej pracy zasady estymacji i prognozowania przy pomocy MNK w arkuszach kalkulacyjnych poprzez tworzenie formuł ze zintegrowaną linearyzacją nie wyczerpują oczywiście wszystkich możliwych modeli, do których przedstawione techniki mogłyby mieć zastosowanie. Istnieją jednak modele, które, choć są transformowalne do postaci liniowej, nie nadają się do użycia zintegrowanej linearyzacji. Są to np. modele mieszane czyli takie, gdzie poszczególne zmienne objaśniające są przekształcone przez różne funkcje np. model potęgowowykładniczy czy też logarytmiczno wielomianowy. W takiej sytuacji przeszkodą jest brak jednolitej funkcji linearyzacyjnej (takiej jak np. logarytm naturalny), która mogłaby być użyta w zintegrowanej formule jako funkcja przetwarzająca zmienne objaśniające i nowe liczby używane do stworzenia prognozy. Wykonano również testy w arkuszu wchodzącym w skład darmowego pakietu IBM Lotus Symphony 1.2.0, ale okazało się, że formuły ze zintegrowaną linearyzacją działają poprawnie jedynie dla modelu hiperbolicznego. W przypadku modeli z jedną zmienną objaśniającą formuły ze zintegrowaną linearyzacją można tworzyć również z funkcjami NACHYLENIE, ODCIĘTA, R.KWADRAT, REGBŁSTD, REGLINX. Nie 182

183 Przemysław Kowalik dotyczy to oczywiście modeli wielomianowych, w których linearyzacja polega na zwiększeniu liczby zmiennych objaśniających w modelu pomocniczym w porównaniu z modelem pierwotnym. Podsumowując, należy stwierdzić, iż rozważane w pracy techniki linearyzacji w arkuszach kalkulacyjnych są przykładem problemu sztucznie stworzonego przez Microsoft. Nietrudno bowiem zauważyć, że uzupełnienie zestawu wbudowanych w Excela funkcji o odpowiedniki REGEXPP oraz REGEXPW dla innych niż wykładniczy modeli nieliniowych nie powinno stanowić trudności ze względu na koszty czy też czas wykonania tego zadania. Niestety, takiego uzupełnienia nie dokonano, a ponieważ inne arkusze kalkulacyjne są wzorowane na Excelu, zatem nie należy spodziewać się wprowadzenia rozważanych funkcji przez innych producentów, zwłaszcza, że wprowadzanie nowych funkcji nieobsługiwanych przez Excela spowodowałoby zapewne trudności związane z wymianą danych pomiędzy różnymi programami (tak jak to ma miejsce w przypadku funkcji LOGREG dostępnej jedynie w arkuszu Gnumeric). Bibliografia 1. Allan R.A., A history of the personal computer: the people and the technology, Allan Publishing, London, Ontario 2001, str Goryl A., Jędrzejczyk Z., Kukuła K., Osiewalski J., Walkosz A., red. nauk. K. Kukuła, Wprowadzenie do ekonometrii, Wydawnictwo Naukowe PWN, Warszawa Głuszkowski T., Arkusze kalkulacyjne: przykłady zastosowań, tricki, kruczki, Wyd. Broker, Łódź Nowak E., Zarys metod ekonometrii. Zbiór zadań, Wydawnictwo Naukowe PWN, Warszawa Least Squares Method in Spreadsheets Non linear Models Transformable to the Linear Form Most spreadsheets available on the market are capable of performing estimation and forecasting based on Least Squares Method. However, standard features of this type of software miss handling non linear models, even those transformable to the linear form. Exceptions are: the exponential model and strongly limited in usability so called trend lines which can be added to some types of charts. It means that calculations related with non linear models result in performing linearization of the model by preparing necessary auxiliary formulas and, next, using them as arguments of functions dedicated for linear models. In the paper it is shown that for many types of models transformable to the linear form it is possible to avoid creating explicit auxiliary formulas in separate cells in favour of integrating linearization with formulas containing standard estimation and forecasting functions for linear models. Keywords: Least Squares Method, linear models, non linear model, linearization, spreadsheet 183

184 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) Karolina Klimańska * Poziom życia w Polsce i w 19 krajach G20 Część 3.: Analiza korelacji między poziomem życia ludności i poziomem rozwoju gospodarczego w Polsce i w 19 krajach G20 Streszczenie: Niniejsze opracowanie stanowi trzecią i zarazem ostatnią część pracy: Poziom życia w Polsce i w 19 krajach G20, której głównym celem jest porównanie poziomu życia ludności Polski i krajów z grupy G20, wskazanie dysproporcji w zakresie różnych elementów poziomu życia oraz wyodrębnienie grup państw o podobnym poziomie życia. W niniejszej trzeciej części bada się zależność pomiędzy poziomem życia ludności i poziomem rozwoju gospodarczego w Polsce i 19 krajach G20 przy użyciu współczynnika korelacji rang Spearmana. W pierwszej części (Część 1: Charakter G20.) uzasadnia się wybór tematu i dokonuje się przeglądu polskiej literatury poświęconej tematyce poziomu życia ludności Polski na tle innych państw. Następnie przechodzi się do głównego tematu, którym jest charakterystyka G20. Druga część (Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności.) ma charakter zarówno teoretyczny jak i empiryczny. Podaje się w niej definicję poziomu życia ludności sformułowaną na podstawie obecnych w literaturze przedmiotu interpretacji poziomu życia ludności. Następnie dokonuje się doboru zmiennych diagnostycznych służących do porównania Polski i 19 państw G20 pod względem poziomu życia ich mieszkańców. Mając zgromadzony materiał źródłowy dokonuje się jego analizy. Słowa kluczowe: poziom życia ludności, G20, poziom rozwoju gospodarczego, współczynnik korelacji rang Spearmana, zmodyfikowany współczynnik korelacji rang Spearmana dla rang połączonych Wstęp Niniejsze opracowanie stanowi ostatnią część pracy: Poziom życia w Polsce i w 19 krajach G20, której głównym celem jest porównanie poziomu życia ludności Polski i krajów z grupy G20, wskazanie dysproporcji w zakresie różnych elementów poziomu życia oraz wyodrębnienie grup państw o podobnym poziomie życia. Cel główny jest realizowany w części drugiej (Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności.), natomiast w części pierwszej (Część 1: Charakter G20.) obok celu głównego podaje się cele pośrednie. Wśród wskazanych celów pośrednich wymienia się cel aplikacyjny w ramach, którego ma zostać zbadana wzajemna zależność pomiędzy poziomem życia i poziomem rozwoju gospodarczego w Polsce i 19 krajach G20 1. Próbę realizacji tego celu podejmuje się w niniejszym opracowaniu. * Autorka jest na drugim roku studiów doktoranckich z zakresu nauk o zarządzaniu na Wydziale Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu. Na tym wydziale pracuje w Katedrze Statystyki i Ekonometrii, gdzie głównie zajmuje się analizą różnego rodzaju danych ilościowych. W obszarze zainteresowań autorki związanych z posiadanym wykształceniem (tytuł magistra matematyki uzyskany na Politechnice Poznańskiej) leżą głównie zastosowania matematyki w innych dziedzinach życia, statystyka, ekonomia, ekonometria, taksonomia. 1 W części pierwszej (Część 1: Charakter G20.) przyjęto, że UE nie będzie brana pod uwagę w rozważaniach ze względu na fakt, iż jest ona reprezentowana, jako całość w G20. W analizie porównawczej poziomu życia 184

185 Karolina Klimańska 1. Analiza wskaźnika: produkt krajowy brutto w Polsce i 19 krajach G20 w latach: 2000, 2005, Uwagi wstępne W realizacji celu niniejszego opracowania, tj. zbadaniu zależności między poziomem życia i poziomem rozwoju gospodarczego w 20 rozważanych państwach ma zostać wykorzystany współczynnik korelacji rang Spearmana. Rangi dla poziomu życia ludności Polski i 19 państw G20 określa się w ramach celu głównego w części drugiej (Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności.). Do tego używa się odpowiednio zdefiniowanego wskaźnika poziomu życia. Na podstawie tego wskaźnika dokonuje się klasyfikacji państw pod względem poziomu życia. Aby poddać analizie wzajemny związek pomiędzy poziomem życia i poziomem rozwoju gospodarczego przy użyciu współczynnika rang Spearmana należy najpierw określić rangi dla rozważanych państw pod względem poziomu rozwoju gospodarczego. Do tego celu, analogicznie jak w przypadku poziomu życia, należy użyć odpowiedniego wskaźnika wyrażającego poziom rozwoju gospodarczego danego państwa, a następnie na podstawie tego wskaźnika dokonać klasyfikacji 20 rozważanych państw pod względem poziomu rozwoju gospodarczego. O ile poddany analizie w części drugiej (Część 2.: Dobór i analiza wskaźników społecznoekonomicznych kształtujących poziom życia ludności.) wskaźnik: produkt krajowy brutto na 1 mieszkańca jest pewnym (może niedoskonałym) wskaźnikiem poziomu zadowolenia przeciętnego obywatela w danym kraju, to z kolei produkt krajowy brutto (PKB) jest wskaźnikiem potencjału danej gospodarki i jej rangi w gospodarce światowej. Wskaźnik poziomu rozwoju ekonomicznego PKB jest definiowany, jako: pieniężny wyraz bieżącej wartości rynkowej wszystkich dóbr i usług finalnych wytworzonych w gospodarce w danym okresie 2. Z takiej definicji niejako wynika, że rozwój gospodarczy ma wielki wpływ na poziom życia ludności, gdyż kategoria: poziom życia jest rozumiana, jako: stopień zaspokojenia potrzeb ludzkich wynikający z konsumpcji dóbr materialnych i usług 3. Przyjmuje się także definicję Strumilina zdaniem, którego najbardziej ogólny wyraz poziomu życia ludności stanowi: potencjał gospodarczy kraju określany przez poziom sił wytwórczych i stosunków produkcji 4. Z tego względu podejmuje się próbę zbadania zależności pomiędzy poziomem życia i wyrażonym przez wartość PKB poziomem rozwoju gospodarczego w Polsce i 19 krajach z G20. Dodatkowo w części pierwszej (Część 1: Charakter G20.) zwraca się uwagę, że, mimo, iż nasz kraj będąc członkiem UE niejako pośrednio należy do G20, to jednak zgłaszane są głosy postulujące, aby Polska została samodzielnie przyjęta do G20, rozpatruje się 19 państw, posiadających swych własnych przedstawicieli w G20. Zakres przestrzenny obejmuje, oprócz tych 19 państw również Polskę. (w sumie 20 państw: Polska i 19 krajów G20, tj.: USA, Wielka Brytania, Kanada, Francja, Niemcy, Włochy, Japonia Australia, Brazylia, Rosja, Indie, Chiny, Turcja, Arabia Saudyjska, Indonezja, Korea Południowa, Meksyk, Argentyna, Republika Południowej Afryki). Przyjęto, że ramy czasowe badań obejmują okres , przy czym rozważa się wybrane lata z tego przedziału czasowego, tj. 2000, 2005, 2007, co wynika z ograniczonej objętości opracowania, ale także dostępności danych statystycznych. W rozważaniach dla niektórych państw stosuje się skróty: Arabia Sd. Arabia Saudyjska, Korea Poł. Korea Południowa, RPA Republika Południowej Afryki, USA Stany Zjednoczone Ameryki, W. Brytania Wielka Brytania. 2 Taksonomiczna analiza przestrzennego zróżnicowania poziomu życia w Polsce w ujęciu dynamicznym, praca zbiorowa pod redakcja Zeliasia A., Wydawnictwo Akademii Ekonomicznej w Krakowie, Kraków 2000, str Definicja Bywalca, którą podaje się na podstawie: Poziom życia w Polsce i krajach Unii Europejskiej, praca zbiorowa pod redakcją Zeliasia A., Polskie Wydawnictwo Ekonomiczne, Warszawa 2004, str. 14, Grzega U., Poziom życia w Polsce i krajach ościennych, Wydawnictwo Akademii Ekonomicznej w Katowicach, Katowice 2008, str Luszniewicz A., Statystyka warunków bytu ludności: wybrane zagadnienia Szkoła Główna Planowania i Statystyki, Warszawa 1969, str. 9. Tę definicję podaje się także w części drugiej (Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności.) 185

186 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) podobnie jak cztery inne państwa UE, które wchodzą w skład grupy, tj.: Francja, Niemcy, Wielka Brytania, Włochy. Rozszerzenia te uzasadnia się wielkością PKB w Polsce. Jednak w literaturze poświęconej analizom poziomu życia w naszym kraju zaznacza się, że charakterystyczną cechą rozwoju gospodarczego w Polsce jest to, iż wysoki poziom PKB nie przekłada się jednoznacznie na poprawę poziomu życia (czy szerzej jakości życia) 5. Co więcej, podkreśla się, że 6 na tle państw Europy Środkowej Polska zajmuje znacznie wyższe miejsce pod względem PKB (wskaźnik rozwoju gospodarczego), ale gorzej wypada w międzynarodowych porównaniach wielkości PKB per capita (pewien wskaźnik poziomu życia 7 ). Stąd wynika argument za przeprowadzeniem analizy porównawczej kształtowania się wielkości PKB w Polsce na tle 19 krajów G20 w latach: 2000, 2005, 2007 i skonfrontowania otrzymanych wyników z rezultatami z części drugiej (Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności.) dotyczącymi poziomu życia w 20 rozważanych państwach Analiza wskaźnika: produkt krajowy brutto w Polsce i 19 krajach G20 w latach: 2000, 2005, 2007 Przed realizacją podjętego w opracowaniu celu, tj. rozważeniu związku między osiągniętym poziomem życia i wyrażonym przez wartość PKB poziomem rozwoju gospodarczego na początek w niniejszej części rozpatruje się wielkości PKB w 20 rozważanych państwach w latach: 2000, 2005, Dla tych krajów określa się rangi przypisując nr 1 państwu o największej wartości wskaźnika PKB. Dodatkowo rozważa się charakterystyki opisowe (tj.: średnią arytmetyczną, 5 Orłowski W. M., Saganowska E., Zienkowski L., Szacunek produktu krajowego brutto według 16 województw za 1996 i 1997 rok (metoda uproszczona), Zeszyt 262, Zakład Badań Statystyczno Ekonomicznych Głównego Urzędu Statystycznego i Polskiej Akademii Nauk, Warszawa 1998, str. 10. W tym miejscu należy zaznaczyć, iż poziom życia stanowi część jakości życia rozumianej jako integracja stopnia zaspokojenia wszystkich społecznie akceptowanych potrzeb ludzkich i utożsamianej z tzw. infrastrukturą społeczną (tj. ze strukturą dostępną dla ludności, która daje możliwość kształcenia, ochrony zdrowia, rozrywki i stwarza perspektywy tzw. lepszego i bezpiecznego życia). Dobrym rozróżnieniem poziomu życia od jakości życia jest definicja Słaby T. Według niej jakość życia zawiera w sobie te wszystkie elementy życia, które są związane z faktem istnienia człowieka, bycia i odczuwania różnych stanów emocjonalnych, będących rezultatem posiadania rodziny, przyjaciół, ciekawej pracy itp. Autorka dalej stwierdza, iż jakość życia powinno się oceniać słownie (deskryptywnie) przy pomocy wskaźników subiektywnych. Takie wskaźniki informują o tym, jak ten stan rzeczy jest widziany i oceniany przez różne osoby czy grupy społeczne. Z kolei poziom życia zdaniem Słaby T. oznacza stopień zaspokojenia potrzeb odnoszących się do podstawowych potrzeb w hierarchii człowieka. Powinno się go wyznaczać przy użyciu wskaźników obiektywnych, zarówno ilościowych, jak i wartościowych. Te wskaźniki z kolei powinny określać faktyczny stan rzeczy, np. poziom i strukturę dochodów, wydatków, konsumpcji. Na podstawie: Grzega U, Poziom życia w, op. cit, str. 18, Hellwig Z., Siedlecka U., Siedlecki J., Taksonometryczne modele zmian struktury gospodarczej Polski, Instytut Rozwoju i Studiów Strategicznych, Dział Dokumentacji i Wydawnictw, Warszawa 1995, str Takie wyniki otrzymano w pracy: Czyż T., Zróżnicowanie regionalne Polski w układzie nowych województw z Biuletynu Polskiej Akademii Nauk Komitetu Przestrzennego Zagospodarowania Kraju, Zeszyt 197: Zróżnicowanie społeczno gospodarcze w nowym układzie terytorialnym Polski pod redakcją Czyż T., Warszawa Analizowano wartości: PKB, w krajach: Polska, Bułgaria, Czechy, Estonia, Litwa, Łotwa, Rumunia, Słowacja, Słowenia, Węgry w roku Na tle rozważanych 9 krajów Europy Środkowej Polska wypadła lepiej, tj. zajęła pierwsze miejsce pod względem PKB (w mln PPS), ale dopiero szóste pod względem PKB per capita według standardów siły nabywczej PPS. Patrz: Czyż T., Zróżnicowanie regionalne Polski, op. cit., str W części drugiej: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności niniejszej pracy analizuje się wartości PKB per capita według standardów siły nabywczej PPS w Polsce na tle 19 krajów G20 w latach 2000, 2005, Polsce w tych kolejnych latach przypisuje się rangi odpowiednio: 12, 11, 11. Patrz: Poziom życia w Polsce i w 19 krajach G20, Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności, Produkt krajowy brutto per capita według parytetu siły nabywczej. Patrz także: Część 1: Charakter G20, 1. Przegląd literatury z zakresu analizy poziomu życia w Polsce na tle innych krajów. 7 Grzega U., Poziom życia w, op. cit., str

187 Karolina Klimańska wartości: minimalną, maksymalną, współczynnik zmienności, współczynnik asymetrii) dla wskaźnika: PKB w milionach USD. Wyniki zamieszcza się w Tabeli 1 8. Tabela 1. Produkt krajowy brutto w milionach USD Państwo Wartość Ranga Wartość Ranga Wartość Ranga Argentyna Australia Brazylia Kanada Chiny Francja Niemcy Indie Indonezja Włochy Japonia Korea Poł Meksyk Polska Rosja Arabia Sd RPA Turcja W. Brytania USA Podstawowe charakterystyki opisowe dla wartości PKB , , Vs (w %) 79,91 91,11 92,56 As 2,09 1,15 0,99 Źródło: opracowanie własne 10 8 Analogiczne tabele konstruowane dla wskaźników poziomu życia zawiera część druga: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności. 9 W poszczególnych wierszach znajdują się odpowiednio: średnia arytmetyczna, wartości: minimalna, maksymalna, współczynnik zmienności, współczynnik asymetrii (skośność). Te same oznaczenia dla tych charakterystyk stosuje się w całym opracowaniu. Zainteresowanych opisem tych charakterystyk odsyła się do pracy: Klimańska K., Analiza Współczynnika Giniego i Wskaźnika Rozwoju Ludzkiego w oparciu o metody statystyczne. Część 1.: Analiza Współczynnika Giniego zamieszczonej w publikacji konferencyjnej: Rola informatyki w naukach ekonomicznych i społecznych. Innowacje i implikacje interdyscyplinarne, Tom 2, Wydawnictwo Wyższej Szkoły Handlowej, Kielce 2010, str Opracowanie własne w oparciu o dane statystyczne pochodzace z The World Bank (stan na dzień ). 187

188 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) Najwyższy poziom rozwoju gospodarczego wyrażony wartością PKB w trzech latach: 2000, 2005, 2007 wystąpił w USA. Na drugim miejscu w tych latach znalazła się Japonia. Na końcu rankingu w roku 2000 była RPA, a w latach: 2005, 2007 Argentyna. Wskaźnik PKB charakteryzuje się asymetrią prawostronną, przy czym wartości As 11 wykazują tendencję malejącą w kolejnych latach. Zauważa się, że w latach: 2000, 2005, 2007 w większości (odpowiednio do lat w :16, 13, 14) państw wartości PKB były wyższe od wartości przeciętnej dla wszystkich 20 rozważanych krajów. Ta średnia jest znacznie zaniżona przez wartości rozważanej zmiennej w państwach o rangach najgorszych (tj. o największych numerach), dla których wartości obserwacji są zdecydowanie mniejsze od wielkości PKB w krajach z początku rankingu. Na te bardzo duże dysproporcje wskazują różnice pomiędzy wartościami minimalną i maksymalną, dla których obserwuje się wydłużające się rozstępy w kolejnych latach: 2000, 2005, 2007 (odpowiednio do lat: , , ). Co więcej, bardzo dużego zróżnicowania w wielkości PKB w 20 państwach dowodzą wartości współczynnika zmienności o tendencji wzrostowej w kolejnych latach: 2000, 2005, 2007, co oznacza, że w tych latach dysproporcje w wartości PKB w 20 rozważanych państwach powiększały się. Jeśli chodzi o Polskę, to zauważa się, że wielkość PKB w naszym państwie w latach: 2000, 2005, 2007 była znacznie niższa od wartości przeciętnej dla wszystkich 20 państw. Nasz kraj w tym rankingu wypadł słabo (tj. otrzymał słabe o wysokich numerach rangi). Należy jednak zaznaczyć, że w kolejnych analizowanych okresach Polska systematycznie otrzymuje lepsze rangi: w kolejności 18, 17, Klasyfikacja Polski i 19 krajów G20 pod względem osiągniętego poziomu rozwoju gospodarczego w latach: 2000, 2005, 2007 W niniejszej części na podstawie wyników zebranych w Tabeli 1 dokonuje się klasyfikacji 20 rozważanych państw pod względem poziomu rozwoju gospodarczego na pięć grup o poziomie rozwoju ekonomicznego: 1. bardzo wysokim (kraje o rangach według wielkości PKB z przedziału [1, 4] ), 2. wysokim (kraje o rangach według wielkości PKB z przedziału (4, 8]), 3. przeciętnym (kraje o rangach według wielkości PKB z przedziału (8, 12]), 4. niskim (kraje o rangach według wielkości PKB z przedziału (12, 16]), 5. bardzo niskim (kraje o rangach według wielkości PKB z przedziału (16, 20]). Wyniki umieszcza się w Tabeli Tabela 2. Klasyfikacja Polski i 19 krajów G20 pod względem osiągniętego poziomu rozwoju gospodarczego w latach: 2000, 2005, Poziom rozwoju gospodarczego Bardzo wysoki Wysoki Przeciętny USA, Japonia, Niemcy, W. Brytania Francja, Chiny, Włochy Kanada Brazylia, Meksyk, Korea Poł., Indie USA, Japonia, Niemcy, W. Brytania Chiny, Francja, Włochy, Kanada Brazylia, Meksyk, Korea Poł., Indie USA, Japonia, Chiny, Niemcy W. Brytania, Francja, Włochy, Brazylia Kanada, Rosja, Indie, Korea Poł. 11 W opracowaniu wszystkie wartości liczb zaokrągla się do dwóch miejsc po przecinku. 12 Analogicznego grupowania 20 rozważanych państw pod względem poziomu życia dokonuje się w części drugiej: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności. 13 Dla danego roku państwa umieszcza się w kolejności od najlepszej rangi (tj. nr 1) do najgorszej (tzn. nr 20). W przypadku rang połączonych państwa wymienia się wspólnie przy użyciu spójnika i. 188

189 Karolina Klimańska Niski Bardzo niski Australia, Argentyna, Turcja, Rosja Arabia Sd., Polska, Indonezja, RPA Rosja, Australia, Turcja, Arabia Sd. Polska, Indonezja, RPA, Argentyna Meksyk, Australia, Turcja, Polska Indonezja, Arabia Sd., RPA, Argentyna Źródło: opracowanie własne W klasyfikacji państw pod względem poziomu rozwoju gospodarczego we wszystkich trzech latach badania: 2000, 2005, 2007 bardzo wysoki poziom rozwoju gospodarczego utrzymywał się w trzech państwach tj. w USA, Japonii i Niemczech. W latach 2000 i 2005 w klasie bardzo wysokiego poziomu znalazła się W. Brytania, która w roku 2007 zastąpiona została przez Chiny. To azjatyckie państwo w kolejnych rozważanych latach: 2000, 2005, 2007 ma przypisywane coraz lepsze (o niższych numerach) rangi: odpowiednio: 6, 5, 3. Największy awans w rankingu obserwuje się jednak nie dla Chin, ale dla Rosji z rangi nr 16 w roku 2000 na rangę nr 10 w 2007 r. Z kolei największy spadek notuje się dla Argentyny z rangi nr 14 w roku 2000 do rangi nr 20 w 2007 r., tj. z klasy państw o niskim poziomie rozwoju gospodarczego do klasy bardzo niskiego poziom. Ten bardzo niski poziom we wszystkich trzech latach badania występował w Indonezji oraz RPA. Wraz z Indonezją i RPA w tej klasie w dwóch pierwszych latach badania znalazł się nasz kraj. Dla roku 2007 Polskę związuje się z klasą niskiego rozwoju ekonomicznego. 2. Zależność między poziomem życia a poziomem rozwoju gospodarczego W niniejszej części realizuje się cel niniejszego opracowania, tzn. bada się zależność pomiędzy poziomem rozwoju gospodarczego i poziomem życia. Dokonuje się tego za pomocą współczynnika zgodności uporządkowań, tj. współczynnika korelacji rang Spearmana, a dokładniej wykorzystuje się jego zmodyfikowaną postać współczynnik korelacji rang Spearmana 14 dla rang połączonych 15. Współczynniki i wyznacza się za pomocą wzorów: 1. oraz gdzie: 2 14 Współczynniki: korelacji rang Spearmana, zmodyfikowany współczynnik korelacji rang Spearmana przyjmują wartości z przedziału [ 1, 1], a im większa wartość bezwzględna współczynnika, tym silniejsza jest zależność między zmiennymi losowymi X, Y. I tak na podstawie wartości z tego przedziału przyjmuje się następujące klasy zależności między dwiema zmiennymi losowymi: 1) słabą, 2) umiarkowaną, 3) znaczna, 4) ścisłą, 5) bardzo ścisłą dla bezwzględnych wartości współczynników z przedziałów odpowiednio: 1) (0; 0,3], 2) (0,3; 0,5], 3) (0,5; 0,7], 4) (0,7; 0,9], 5) (0,9; 1]. Z kolei 0 oznacza brak zależności między cechami w takim przypadku mówi się, iż zmienne losowe są nieskorelowane. 15 W przypadku, gdy pewna zmienna przyjmuje tę samą wartość dla więcej niż jednego państwa wówczas państwom tym przypisuje się średnią arytmetyczną kolejnych rang rangę połączoną. Następujący po nich kraj o kolejnej wartości rozważanej zmiennej otrzymuje rangę o jeden numer większą od ostatniego numeru branego do wyznaczenia średniej arytmetycznej. Na przykład nadano państwom o kolejnych wartościach pewnej zmiennej rangi nr 1, 2, 3. Trzem państwom o tej samej wartości zmiennej powinno przypisać się rangę nr 4. Wówczas średnia arytmetyczna rang nr 4, 5, 6 wynosi 5 i taką rangę połączoną (wspólną) przypisuje się tym trzem państwom o tej samej wartości rozważanej zmiennej. Kolejny kraj otrzymuje rangę nr

190 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) oznacza liczbę elementów w populacji generalnej,, to rangi cech odpowiednio X i Y, 1,, to różnica pomiędzy rangami (kolejnymi numerami) cech X i Y. Ponadto występujące we wzorach formuły definiuje się następująco:, oraz, gdzie: 1,, oznacza liczbę rang w każdej grupie rang powiązanych w danym uporządkowaniu, przy czym sumowanie rozciąga się na wszystkie połączenia;, to wielkości analogiczne, ale dotyczące uporządkowań odpowiednio cech X i Y 16. Poziom życia i poziom rozwoju gospodarczego wszystkich państw świata rozumiane są w niniejszym opracowaniu, jako dwie cechy populacji generalnej (wszystkich państw świata), których rozkłady prawdopodobieństwa opisują dwie zmienne losowe odpowiednio X i Y. Próbę z populacji generalnej, którą stanowi 20 rozważanych państw (Polska, 19 krajów G20) należy rozpatrywać, jako realizacje 20 wymiarowych wektorów losowych odpowiednio dla X i Y: (X 1, X 2,,X 20 ), (Y 1, Y 2,,Y 20 ). Te dwa wektory nazwie się próbą losową, a konkretne ich realizacje, tj. wartości wskaźnika poziomu życia (x 1, x 2,,x 20 ) oraz wielkości PKB (y 1, y 2,,y 20 ) nazwie się próbami. Na podstawie tych obserwacji wyznacza się rangi dla dwóch cech, które następnie umieszcza się w Tabeli 3 w celu wyznaczenia współczynników Spearmana dla lat: 2000, 2005, 2007 i zbadania stopnia korelacji. Korzysta się ze wzoru 2 na zmodyfikowany współczynnik korelacji rang Spearmana dla rang połączonych, przy czym w niniejszej pracy N = 20 oraz zauważa się, że dla trzech okresów: 2000, 2005, 2007 w przypadku zmiennej Y nie występują rangi połączone, a stąd = Tabela 3. Współczynnik korelacji rang Spearmana dla wskaźników poziomu życia i poziomu rozwoju gospodarczego Państwo Argentyna Australia 3,5 13 6, Brazylia Kanada 3, ,5 9 Chiny 17, Francja 6 5 3, Niemcy 5 3 3, Indie Indonezja Włochy Japonia ,5 2 Korea Poł Meksyk Polska Wzory na podstawie: Steczkowski J., Zeliaś A., Metody statystyczne w badaniu zjawisk jakościowych, Wydawnictwo Uczelniane Akademii Ekonomicznej w Krakowie, Kraków 1997, str. 189, 191, Patrz: Tabela 1 w części: Analiza wskaźnika: produkt krajowy brutto w Polsce i 19 krajach G20 w latach: 2000, 2005, 2007, gdzie określa się rangi dla 20 rozważanych państw na podstawie wskaźników PKB. Rangi dla poziomu życia ludności przypisuje się w części drugiej: Część 2.: Dobór i analiza wskaźników społecznoekonomicznych kształtujących poziom życia ludności na podstawie konstruowanych wskaźników poziomu życia. 190

191 Karolina Klimańska Rosja 17, Arabia Sd RPA Turcja W. Brytania 8 4 6, USA ,69 0,66 0,58 Źródło: opracowanie własne Otrzymane wartości zmodyfikowanego współczynnika korelacji rang Spearmana dla trzech lat: 2000, 2005, 2007 wskazują na dużą zgodność uporządkowań występującą pomiędzy rangami dla wskaźników poziomu życia ludności 18, a rangami według wskaźników PKB w 20 rozważanych państwach. Takie wartości współczynników korelacji rang Spearmana oznaczają, że istnieje znaczna zależność między poziomem życia, a poziomem rozwoju gospodarczego 19. Zauważa się jednak, że badana zależność w kolejnych analizowanych latach wykazywała tendencję malejącą. Porównując rangi dla wskaźników poziomu życia ludności z rangami według wskaźników PKB przypisane poszczególnym państwom zauważa się, że pełna zgodność we wszystkich trzech latach: 2000, 2005, 2007 nie występuje w żadnym kraju i podobnie dla dwóch okresów. Dla jednego roku te same rangi dla dwóch rozważanych wskaźników przypisuje się krajom: Indonezji, Włochom, Turcji (dla roku 2000 w tych trzech państwach). Najmniejsze różnice między rangami w dwóch uporządkowaniach dotyczą państw: Indonezji, Włoch, Korei Poł., Meksyku, Turcji, USA oraz Japonii. Państwami, którym we wszystkich trzech latach: 2000, 2005, 2007 przypisuje się rangi lepsze (tj. o mniejszych wartościach) dla wskaźników poziomu życia od rang według wielkości PKB są: Argentyna, Australia, Kanada, Korea Poł., Polska, RPA. Zauważa się, że w tej grupie państw największe różnice w dwóch rankingach występują dla rang przypisanych Australii (różnice dla kolejnych lat: 9,5; 7,5; 8), a następnie dla naszego kraju (6, 7, 6 w kolejnych latach). Również duże różnice w dwóch okresach: 2005, 2007 dotyczą Argentyny (8 w tych dwóch latach). Z kolei: USA, W. Brytania, Rosja, Indie, Chiny, Brazylia to kraje, którym rangi lepsze (o mniejszych wartościach) we wszystkich rozważanych okresach: 2000, 2005, 2007 wyznacza się dla wskaźnika PKB. W szczególności w rangach z dwóch uporządkowań związanych z Chinami zwracają uwagę bardzo duże rozstępy, które dodatkowo ulegają wydłużeniu w kolejnych latach (różnice między rangami z dwóch rankingów: 11,5; 13, 14 odpowiednio do lat: 2000, 2005, 2007). Zaraz po Chinach znaczne różnice dostrzega się w rangach przypisanych Indiom (8, 8, 9 odpowiednio w kolejnych latach). W tym miejscu dla lepszej percepcji różnic i podobieństw dwóch klasyfikacji Polski i 19 krajów G20 pod względem osiągniętego: poziomu życia, poziomu rozwoju gospodarczego umieszcza się odpowiednią tabelę prezentującą wyniki grupowania państw otrzymane w niniejszej trzeciej części jak i w części drugiej Wskaźniki poziomu życia ludności wyznacza się w części drugiej: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności na podstawie konstruowanych wskaźników poziomu życia. 19 W tym miejscu warto zaznaczyć, że niekiedy zwraca się uwagę, że to: poziom życia stanowi jednocześnie przyczynę i skutek rozwoju ekonomicznego, wpływając istotnie na wydajność pracy i efektywność gospodarowania. Kosiedowski W., Kategoria poziomu życia w teorii i praktyce polityki społecznej byłego ZSRR, Wydawnictwo Uniwersytetu Mikołaja Kopernika, Toruń 1994, str Patrz także: Klasyfikacja Polski i 19 krajów G20 pod względem osiągniętego poziomu rozwoju gospodarczego w latach: 2000, 2005, 2007 w niniejszym opracowaniu oraz 4. Klasyfikacja Polski i 19 państw G20 pod względem poziomu życia w części drugiej: Część 2.: Dobór i analiza wskaźników społecznoekonomicznych kształtujących poziom życia ludności. 191

192 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) Tabela 4. Klasyfikacja Polski i 19 krajów G20 pod względem osiągniętego poziomu życia i poziomu rozwoju gospodarczego w latach: 2000, 2005, 2007 Klasa Poziom życia Poziom rozwoju gospodarczego 2000 Bardzo wysoki Japonia, USA, Australia i Kanada USA, Japonia, Niemcy, W. Brytania Wysoki Niemcy, Francja, Włochy, W. Francja, Chiny, Włochy Kanada Przeciętny Korea Poł., Argentyna, Meksyk, Brazylia, Meksyk, Korea Poł., Indie Niski Arabia Sd., Brazylia, Turcja, RPA Australia, Argentyna, Turcja, Rosja Bardzo niski Chiny i Rosja, Indonezja, Indie Arabia Sd., Polska, Indonezja, RPA 2005 Bardzo wysoki Japonia, USA, Francja i Niemcy USA, Japonia, Niemcy, W. Brytania Wysoki Kanada, Australia i W. Brytania, Chiny, Francja, Włochy, Kanada Przeciętny Korea Poł., Polska, Meksyk, Brazylia, Meksyk, Korea Poł., Indie Niski Arabia Sd.i Brazylia Turcja, RPA Rosja, Australia, Turcja, Arabia Sd. Bardzo niski Rosja, Chiny, Indonezja, Indie Polska, Indonezja, RPA, Argentyna 2007 Bardzo wysoki Niemcy, Francja, USA USA, Japonia, Chiny, Niemcy Wysoki Japonia i Kanada, Australia, W. W. Brytania, Francja, Włochy, Przeciętny Korea Poł., Polska, Meksyk, Kanada, Rosja, Indie, Korea Poł. Niski Brazylia, Turcja, Rosja, Arabia Sd. Meksyk, Australia, Turcja, Polska Bardzo niski Chiny, RPA, Indonezja, Indie Indonezja, Arabia Sd., RPA, Źródło: opracowanie własne Podsumowanie W niniejszym opracowaniu ostatniej części trzyczęściowej pracy: Poziom życia w Polsce i w 19 krajach G20 analizowano zależność pomiędzy poziomem życia, a poziomem rozwoju gospodarczego w 20 państwach: Polsce, 19 krajach G20. Do zbadania stopnia zgodności dwóch uporządkowań według rang: dla wskaźników poziomu życia ludności, wskaźników PKB wykorzystano zmodyfikowany współczynnik korelacji rang Spearmana dla rang połączonych. Otrzymane wartości współczynnika dla lat: 2000, 2005, 2007 wskazały na dużą zgodność uporządkowań świadczącą o znacznej zależności pomiędzy poziomem życia, a poziomem rozwoju gospodarczego. Zauważono jednak, że wartości współczynnika Spearmana dla trzech okresów: 2000, 2005, 2007 cechowały się tendencją spadkową oznaczającą, iż zależność między poziomem rozwoju gospodarczego, a poziomem życia w 20 rozważanych państwach maleje. Wskaźniki poziomu życia wyznaczono w części drugiej: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności. W niniejszym opracowaniu uznając PKB za miernik poziomu rozwoju gospodarczego kraju uporządkowano 20 rozważanych państw pod względem wielkości PKB przypisując rangę nr 1 państwu o największym PKB. Na podstawie uporządkowania dokonano klasyfikacji państw na pięć klas o poziomie rozwoju gospodarczego: 1. bardzo wysokim, 2. wysokim, 3. przeciętnym, 4. niskim, 5. bardzo niskim. Z przeprowadzonej analizy wyniknęło, że spośród 19 krajów grupy G20 i Polski bardzo wysoki i wysoki poziom rozwoju gospodarczego we wszystkich trzech latach: 2000, 2005, 2007 występował w: USA, Japonii, Niemczech, Francji, Włoszech, W. Brytanii, Chinach. Z kolei państwami, które we wszystkich trzech analizowanych latach cechowały się niskim i bardzo niskim 192

193 Karolina Klimańska poziomem rozwoju gospodarczego były: Australia, Argentyna, Arabia Sd., Turcja, RPA, Indonezja 21. Do tej grupy państw przyporządkowano również Polskę (w latach 2000 i 2005: klasa bardzo niskiego poziomu rozwoju gospodarczego, 2007 r. klasa niskiego poziomu rozwoju gospodarczego). Dodatkowo dla wartości PKB wyznaczono charakterystyki opisowe 22, których wartości dowiodły, że w trzech latach: 2000, 2005, 2007 w rozważanych 20 państwach występowały bardzo duże dysproporcje w wielkości PKB. Polska na tle 19 państw G20 wypadła lepiej pod względem poziomu życia (klasa przeciętnego poziomu życia) 23 niż pod względem poziomu rozwoju gospodarczego. W porównaniu z tymi państwami naszemu państwu lepsze rangi przypisano także w rankingu wielkości PKB per capita brutto według parytetu siły nabywczej (w latach: 2000, 2005, 2007 rangi odpowiednio: 12, 11, 11) 24 niż w rankingu dla wskaźnika PKB (w latach: 2000, 2005, 2007 rangi odpowiednio: 18, 17, 16). Jeśli chodzi o polskie aspiracje w sprawie członkostwa w G20, to włączenie do niej dodatkowych państw UE, w tym Polski, jest mało prawdopodobne, głównie ze względu na zarzuty o nadreprezentację UE w najważniejszych instytucjach międzynarodowych, m.in. w G8 i G20. Dlatego swoje interesy w kwestiach będących przedmiotem zainteresowania G20 państwa takie jak Polska mogą realizować poprzez członkostwo w niej UE. Wymaga to aktywnego udziału w debacie wewnątrz Unii na tematy będące w agendzie G20, konstruktywnego wkładu w formułowanie jej stanowiska, czy ewentualnego tworzenia koalicji wewnątrz UE w przypadku wypracowywania ważnych dla polskich interesów rozwiązań. Wobec braku perspektyw na członkostwo, jedynie w taki sposób Polska może mieć wpływ na decyzje podejmowane przez G Bibliografia 1. Andrycz J., Metody badania poziomu życia ludności. Materiały do studiowania, Wydawnictwo Akademii Ekonomicznej im. K. Adamieckiego, Katowice Andrycz J., Poziom życia ludności. Materiały do studiowania, Wydawnictwo Akademii Ekonomicznej im. K. Adamieckiego, Katowice Bombol M., Poziom i struktura konsumpcji w Polsce i w wybranych krajach jako wskaźnik poziomu życia, Centrum Informacji Naukowej, Technicznej i Ekonomicznej, Warszawa Bombol M., Ocena poziomu wyżywienia w Polsce i w wybranych krajach europejskich, Instytut Ekonomiki Rolnictwa i Gospodarki Żywnościowej (Zakład Polityki Wyżywienia), Warszawa Churski P., Czynniki rozwoju regionalnego i polityka regionalna w Polsce w okresie integracji z Unią Europejską, Seria Geografia nr 79, Wydawnictwo Naukowe Uniwersytetu im. Adama Mickiewicza, Poznań Czyż T., Zróżnicowanie regionalne Polski w układzie nowych województw z Biuletynu Polskiej Akademii Nauk Komitetu Przestrzennego Zagospodarowania Kraju, Zeszyt 197: Zróżnicowanie społeczno gospodarcze w nowym układzie terytorialnym Polski pod redakcją Czyż T., Warszawa Porównaj: część: Klasyfikacja Polski i 19 krajów G20 pod względem osiągniętego poziomu rozwoju gospodarczego w latach: 2000, 2005, Patrz: Tabela 1 z części: Analiza wskaźnika: produkt krajowy brutto w Polsce i 19 krajach G20 w latach: 2000, 2005, 2007 niniejszego opracowania. 23 Patrz: Część 2.: Dobór i analiza wskaźników społeczno ekonomicznych kształtujących poziom życia ludności. 24 Ibidem. 25 Na podstawie: (stan na ). 193

194 Poziom życia w Polsce i w 19 krajach G20. Część 3 ( ) 7. Grabiński T., Wydymus S., Zeliaś A., Metody taksonomii numerycznej w modelowaniu zjawisk społeczno gospodarczych, Państwowe Wydawnictwo Naukowe, Warszawa Grzega U., Poziom życia w Polsce i krajach ościennych, Wydawnictwo Akademii Ekonomicznej w Katowicach, Katowice Hellwig Z., Ostasiewicz S., Siedlecka U., Siedlecki J., Studia nad rozwojem gospodarczym Polski. (Analizy taksonometryczne), Instytut Rozwoju i Studiów Strategicznych, Dział Dokumentacji i Wydawnictw, Warszawa Hellwig Z., Siedlecka U., Siedlecki J., Taksonometryczne modele zmian struktury gospodarczej Polski, Instytut Rozwoju i Studiów Strategicznych, Dział Dokumentacji i Wydawnictw, Warszawa Jakubowska J., Mierosławska A., Regionalne zróżnicowanie rozwoju gospodarczego i poziomu życia (lata 1992 i 1995), Komunikaty Raporty Ekspertyzy, Zeszyt nr 422, Instytut Ekonomiki Rolnictwa i Gospodarki Żywnościowej, Warszawa Klamut M., Dylematy rozwoju regionalnego w Ekonomista (nr 1), Państwowe Wydawnictwo Naukowe, Warszawa Kosiedowski W., Kategoria poziomu życia w teorii i praktyce polityki społecznej byłego ZSRR, Wydawnictwo Uniwersytetu Mikołaja Kopernika, Toruń Luszniewicz A, Statystyka warunków bytu ludności: wybrane zagadnienia Szkoła Główna Planowania i Statystyki, Warszawa Orłowski W. M., Saganowska E., Zienkowski L., Szacunek produktu krajowego brutto według 16 województw za 1996 i 1997 rok (metoda uproszczona), Zeszyt 262, Zakład Badań Statystyczno Ekonomicznych Głównego Urzędu Statystycznego i Polskiej Akademii Nauk, Warszawa Śmiłowska T., Statystyczna analiza poziomu życia ludności Polski w ujęciu przestrzennym, Zeszyt 247 Zakład Badań Statystyczno Ekonomicznych Głównego Urzędu Statystycznego i Polskiej Akademii Nauk, Warszawa Steczkowski J., Zeliaś A., Metody statystyczne w badaniu zjawisk jakościowych, Wydawnictwo Uczelniane Akademii Ekonomicznej w Krakowie, Kraków Śmiłowska T, Zróżnicowanie poziomu życia i jakości ludności Polski w przekroju terytorialnym, Zeszyt 229 Zakład Badań Statystyczno Ekonomicznych Głównego Urzędu Statystycznego i Polskiej Akademii Nauk, Warszawa Diagnoza społeczna Warunki i jakość życia Polaków, pod redakcją Czapińskiego J., Panka T., Rada Monitoringu Społecznego, Warszawa Poziom życia w Polsce i krajach Unii Europejskiej, praca zbiorowa pod redakcją Zeliasia A., Polskie Wydawnictwo Ekonomiczne, Warszawa Produkt krajowy brutto i dochody ludności według województw w 1992 roku. Część II Regionalne zróżnicowanie rozwoju gospodarczego i poziomu życia ludności, Uwagi analityczne Berger K., Zienkowski L., Zakład Badań Statystyczno Ekonomicznych Głównego Urzędu Statystycznego i Polskiej Akademii Nauk, Warszawa Taksonomiczna analiza przestrzennego zróżnicowania poziomu życia w Polsce w ujęciu dynamicznym, praca zbiorowa pod redakcją Zeliasia A., Wydawnictwo Akademii Ekonomicznej w Krakowie, Kraków Netografia 1. hdr.undp.org/

195 Analysis of the standard of living in Poland and in 19 countries of the G20 Karolina Klimańska Part 3.: Correlation analysis between the standard of living and the level of economic development This paper is the last part of the three piece work: Analysis of the standard of living in Poland and in 19 countries of the G20. The main aim of the whole three piece work indicated in the title is to make the comparison of the standard of living between Poland and 19 countries of the G20 over the years In the following part the interrelationship between the standard of living and the level of economic development is examined. For this aim the Spearman correlation coefficient is used. The aim of the first part (Part 1.: The character of the G20.) is to give an accurate description of the G20. The characterization includes the origins of the group, its main aims and achievements to date. Special attention is paid to the role played by the group in the contemporary world. Additionally, the review of polish publications about comparison of the standard of living in Poland against a background of other countries is made. The second part is both theoretical and empirical: (Part 2.: Selection and analysis of the socio demographical Indexes that shape the standard of people s living.) In the beginning the definition of the standard of living is formulated. On the base of this definition the diagnostic variables used in the analysis of the standard of living in Poland and in 19 countries of the G20 are chosen. Keywords: the standard of living, the G20, the level of economic development, the Spearman rank correlation coefficient, the modified Spearman rank correlation coefficient for tied ranks 195

196 Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) ( ) Michał Mierzwa Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) na przykładzie badania ankietowego studentów UE Katowice Streszczenie: Rezultaty klasycznych badań ankietowych charakterystyk wrażliwych mogą być obarczone dużymi błędami. W celu zwiększenia wiarygodności otrzymanych wyników swoje zastosowanie znajduje Metoda Zliczania Odpowiedzi (Item Count Method). Na przykładzie ankiety przygotowanej dla studentów Uniwersytetu Ekonomicznego w Katowicach, symulacyjnie wyznaczane są optymalne frakcje odpowiedzi na pytania z grupy pytań niewrażliwych. Dobór tych pytań w istotny sposób wpływa na dokładność estymatora frakcji charakterystyki wrażliwej. W wyniku przeprowadzonej analizy sformułowana zostaje ostateczna wersja ankiety. Słowa kluczowe: Item Count Method, charakterystyka wrażliwa, metoda reprezentacyjna, ankieta 1. Badanie ankietowe wśród studentów Analityki Gospodarczej. Pytanie o kwestie wrażliwe Studenci kierunku Analityka Gospodarcza Wydziału Zarządzania Uniwersytetu Ekonomicznego w Katowicach będą wkrótce brali udział w badaniu ankietowym przeprowadzonym przez członków Koła Naukowego Statystyków. Celem przedsięwzięcia jest weryfikacja przydatności materiałów informacyjnych dotyczących Analityki Gospodarczej oraz zdefiniowanie profilu studenta tejże specjalności. Oprócz badania zależności korelacyjnych jedno z pytań dotyczyć będzie kwestii wrażliwej charakterystyki, na którą respondenci mogą nie chcieć udzielić odpowiedzi lub udzieliliby odpowiedzi fałszywej. Zazwyczaj respondenci nie wykazują skłonności do unikania odpowiedzi na pytania: 1. Czy urodziłaś/eś się w styczniu? 2. Czy umiesz pływać? 3. Czy posiadasz oczy w kolorze zielonym 1? Pytania dotyczące kwestii wrażliwych, czyli np. oszustw podatkowych czy też nałogów są na tyle niekomfortowe, że respondenci nie udzieliliby na wprost zadane pytanie prawdziwej odpowiedzi. Przykładem pytań wrażliwych mogą być: 1. Czy kiedykolwiek wręczyłaś/eś łapówkę? 2. Czy w Twojej szkole rozpowszechniane są narkotyki? 3. Czy byłeś niewierny w związku małżeńskim? 4. Czy obecnie rozliczasz się ze wszystkich swoich dochodów? Badanie ankietowe na studentach Analityki Gospodarczej zawierać będzie pytanie o charakterystykę wrażliwą: Czy korzystałeś/aś ze świadczeń socjalnych na uczelni Michał Mierzwa w 2011 r. uzyskał tytuł magistra na Wydziale Zarządzania Uniwersytetu Ekonomicznego w Katowicach na kierunku Informatyka i Ekonometria specjalność Ekonometria i Statystyka oraz w 2010 r. tytuł licencjata na tej samej uczelni specjalność Inżynieria Finansowa. Obecnie studiuje na studiach drugiego stopnia na wydziale Finansów i Ubezpieczeń specjalność Quantitative Assets and Risk Management. Członek Koła Naukowego Statystyków oraz Koła Naukowego Forex. Na co dzień spekuluje na rynku walutowym, z którym wiąże swoją przyszłą karierę inwestycyjną. 1 Tsuchiya T., Domain Estimators for the Item Count Technique, Survey Methodology, 2005, p

197 Michał Mierzwa (np. stypendium socjalne). Ponieważ odpowiedzi na wprost zadane pytanie nie byłyby miarodajne, niezbędne jest skorzystanie z Metody Zliczania Odpowiedzi (Item Count Method). 2. Elementy metody reprezentacyjnej oraz Metoda Zliczania Odpowiedzi Rozważania praktyczne zostaną poprzedzone wprowadzeniem podstawowych definicji 2. Definicja 1. Operatem losowania nazywany jest spis elementów populacji lub przynajmniej spis ich nierozłącznych podzbiorów zwanych zespołami. Operat losowania powinien być: kompletny, aktualny, identyfikowalny. W rozważanym badaniu ankietowym operatem losowania jest spis osób w trzech grupach kierunku Analityka Gospodarcza. Liczebność populacji wynosi 83. PS Definicja 2. Planem losowania próby s nazywany jest rozkład prawdopodobieństwa określony na przestrzeni prób S, który dla każdej s S spełnia warunki Ps 0 i Ps 1. ss Definicja 3. Schematem losowania nazywany jest mechanizm losowania realizujący plan wyboru elementów populacji do próby. Definicja 4. Prawdopodobieństwo inkluzji rzędu r oznaczone przez, czyli prawdopodobieństwo wyboru do próby s elementów populacji podstawie wzoru P s. k1... kr sa( k1... kr ) k1... kr k,..., 1 k r wyliczany jest na Wynika stąd, że prawdopodobieństwo inkluzji pewnego elementu populacji (elementów populacji) jest sumą prawdopodobieństw wylosowania prób, w których znajduje się ten element populacji (te elementy populacji). Z definicji wynika również, że prawdopodobieństwa inkluzji jednego elementu nazywane będą prawdopodobieństwami inkluzji pierwszego rządu, dwóch elementów prawdopodobieństwami inkluzji drugiego rzędu itd. Niech z populacji jest losowana bezzwrotnie próba S o ustalonej liczebności n. Niech ak 1, gdy k ty element populacji należy do próby, czyli k s, natomiast a 0, gdy k ss. Wtedy: E a k E a a k ki k i N k1 n k 2 D ak k(1 k) cov( a, a ) k i k k i Horvitz i Thomspn (1952) zaproponowali estymator średniej y w populacji ustalonej, który ma postać: 1 N ay k k thts N Wprowadźmy podstawowe oznaczenia dotyczące Metody Zliczania Odpowiedzi. Niech U (1,..., i,..., N) oznacza populację o znanej liczebności N, oraz 1, jeśli i ta osoba posiada wrażliwą charakterystykę A, oraz i 0 jeśli i ta osoba posiada i k1 C A dopełnienie A. k 2 Definicje z Wywiał J. Elementy metody reprezentacyjnej z wykorzystaniem statystycznego pakietu SPSS. Akademia Ekonomiczna, Katowice 1999, s , 61, za Cassel C.M., Särndal C.E., Wretman J.H. Foundations of Inference in Survey Sampling John Wiley & Sons, New York London Sydney Toronto,

198 Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) ( ) i i1 Problem stanowi estymacja frakcji występowania charakterystyki wrażliwej: A. 3 N Zastosowanie Metody Zliczania Odpowiedzi wymaga stworzenia dwóch list z pytaniami, na których znajduje się G takich samych pytań niewrażliwych. Niech: F 1 jeśli i ta osoba posiada niewrażliwą charakterystykę F, oraz i C Fi 0 jeśli i ta osoba posiada F dopełnienie F. Pytanie G+1 na pierwszej liście uwzględnia wrażliwą kwestię A, niewrażliwą charakterystykę F oraz obydwie te charakterystyki jednocześnie A F (zob. Rysunek 1). Rysunek 1. Zakres odpowiedzi na pytanie G+1 zadane respondentom z próby s 1 C A C A C A C C A F C F C F C F C A A A A F F F C F C A C A C A C C A F C F C F C F ( ) ( ) P A F A F P A P F P A F Źródło: opracowanie własne C Pytanie G+1 na drugiej liście zawiera dopełnienie charakterystyki wrażliwej A, C dopełnienie charakterystyki niewrażliwej F oraz iloczyn dopełnień charakterystyk wrażliwej C C i niewrażliwej A F (zob. Rysunek 2). Rysunek 2. Zakres odpowiedzi na pytanie G+1 zadane respondentom z próby C A C A C A C C A F C F C F C F C A A A A F F F C F C A C A C A C C A F C F C F C F C C C C 1 ( ) P A F A F P A F Źródło: Opracowanie własne Następnie dwie niezależne próby s 1 i s 2 losowane są z populacji U wykorzystując plan losowania P s. Respondenci z próby s 1 proszeni są o podanie dotyczącej ich liczby zachowań yi i 1, 2,..., N z listy pierwszej. Respondenci z próby s 2 proszeni są o podanie dotyczącej ich liczby zachowań x i z listy drugiej. Stąd w populacji: y x 1 U U A F AF AF y x 1 A U u F Zgodnie z rezultatami Chaudhuri i Christofides (2006) oraz wykorzystując estymator Horvitza Thompsona (1952), nieznana frakcja może zostać oszacowana następująco: ˆ 1 y 1 x i j 1 A 1 N 1F, gdzie F Fk jest znane. Warto zauważyć, że N is 1 i N js 2 j N k1 w przypadku próby prostej losowanej bez zwracania estymatory Horvitza Thompsona w A s 2 N 3 Pal S., Estimating The Proportion Of People Bearing Sensitive Issue With an Option To Item Count Lists And Randomized Response, Statistics In Transitions new series, August 2007, Vol. 8, No. 2., s

199 Michał Mierzwa powyższym wzorze upraszczają się do średnich z próby. Takie założenie będzie przyjęte w badaniu symulacyjnym. Do oceny dokładności estymatora wykorzystuje się błąd średniokwadratowy ˆ E ˆ 2 MSE (ang. Mean Squared Error). Czy mniejszy błąd średniokwadratowy, tym większa dokładność estymatora. Pierwiastek z błędu średniokwadratowego estymatora (ang. Root Mean Squared Error) oznaczany przez RMSE ˆ ˆ MSE p wartości estymatora odchylają się od nieznanej wartości parametru., informuje o ile przeciętnie 3. Zastosowanie Metody Zliczania Odpowiedzi w badaniu ankietowym symulacja Monte Carlo Wdrażając Metodę Zliczania Odpowiedzi w ankiecie dla studentów specjalności Analityka Gospodarcza należało rozważyć trzy kwestie: 1) Na jakim poziomie należy ustalić frakcję charakterystyki F, 2) Jak w przybliżeniu powinna kształtować się frakcja odpowiedzi poszczególnych pytań z zestawu G, 3) Ile powinna wynosić liczba pytań G tak, aby błąd średniokwadratowy estymatora ˆA był jak najmniejszy Ustalenie frakcji charakterystyki F 1 N Frakcja F Fk N jest znana i może zostać ustalona przez osobę tworzącą ankietę, k1 przez odpowiedni dobór pytania. Należy rozważyć, w jaki sposób wartości frakcji F wpływają na ˆA RMSE. O ile nie jest powiedziane inaczej, w każdym przykładzie symulacyjnym przeprowadzane jest iteracji dla prób s 1 i s s o liczebności 50 respondentów oraz frakcji A wynoszącej 0,1. Badania symulacyjne metodą Monte Carlo zostało przeprowadzone z wykorzystaniem programu R 4. Wartości RMSE ˆA kształtują się następująco: 4 R Development Core Team (2012). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN , URL project.org. 199

200 Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) ( ) Wykres 1. RMSE estymatora frakcji charakterystyki wrażliwej a frakcja charakterystyki niewrażliwej F (w %) Źródło: opracowanie własne Dla frakcji F zmierzających do 0 lub 1, RMSE( ˆ A) jest niższe niż dla frakcji F bliskiej 0,5. Należy jednak wziąć pod uwagę fakt, iż dla skrajnych wartości frakcji F efekt maskujący pytania niewrażliwego zanika, np. Czy kiedykolwiek wręczyłaś/eś łapówkę lub czy odwiedziłeś kiedykolwiek Nową Zelandię lub jedno i drugie. Sformułowane w ten sposób pytanie może sprawić, iż respondent o pozytywnej charakterystyce A, nie odpowie prawdziwie na pytanie ze względu na łatwość identyfikowalności jego charakterystyki wrażliwej. Zalecane jest, aby frakcja F znajdowała się w otoczeniu 0 lub 1. Ze względu na dostępność danych dotyczących numerów albumów, studentom Analityki Gospodarczej zostanie zadane pytanie o charakterystykę F w formie: Czy ostatnia cyfra Twojego numeru albumu jest większa lub równa 2. Frakcja odpowiedzi na to pytanie jest znana i wynosi 0, Ustalenie frakcji odpowiedzi pytań z zestawu G Należy rozważyć, jaki wpływ mają kombinacje frakcji odpowiedzi na pytania z zestawu G pierwszych pytań z frakcją F na RMSE( ˆ F ). Problem sprowadza się do analizy wielowymiarowej (rozważane są jednocześnie różne wartości frakcji odpowiedzi dla wielu pytań) i jest trudny w prezentacji. Niech frakcje charakterystyki wrażliwej A oraz charakterystyki niewrażliwej F są znane i wynoszą odpowiednio 0,1 oraz 0,2. Analizowana jest frakcja odpowiedzi dwóch pytań z zestawu G równych [0,1;0,2; ;0,8;0,9]. Tabela 1. przedstawia wartości RMSE( ˆ A) dla kombinacji frakcji dwóch pytań z zestawu otrzymane w iteracjach.: 200

201 Michał Mierzwa Tabela 1. RMSE( ˆ ) dla kombinacji frakcji pierwszych G=2 pytań A frakcja 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,1 0,108 0,120 0,128 0,134 0,134 0,132 0,128 0,121 0,107 0,2 0,120 0,130 0,139 0,140 0,145 0,142 0,140 0,131 0,120 0,3 0,128 0,139 0,147 0,150 0,150 0,151 0,147 0,138 0,129 0,4 0,132 0,142 0,150 0,155 0,156 0,155 0,149 0,142 0,132 0,5 0,133 0,142 0,150 0,157 0,157 0,155 0,151 0,146 0,135 0,6 0,134 0,143 0,151 0,154 0,154 0,154 0,150 0,141 0,133 0,7 0,127 0,137 0,146 0,149 0,150 0,150 0,145 0,140 0,128 0,8 0,119 0,131 0,138 0,143 0,145 0,143 0,138 0,130 0,120 0,9 0,107 0,118 0,130 0,132 0,133 0,134 0,126 0,122 0,106 Źródło: opracowanie własne Podobnie jak w przypadku doboru frakcji pytania F, w celu minimalizacji RMSE( ˆ F ) należy dobierać dwa pytania z zestawu G w taki sposób, aby ich frakcje były bliska 0 lub 1. W powyższym rozważaniu za stałą przyjęto frakcję odpowiedzi na pytanie F. Niestety, wraz z analizą zależności powiązań każdego kolejnego pytania, przestrzeń kombinacji frakcji tych pytań staje się wielowymiarowa i jednocześnie trudna w interpretacji. Rysunek 3 przedstawia 9 tablic kolejno dla frakcji pytania F dla wartości 0,1,,0,9. W tablicach znajdują się wartości RMSE( ˆ A) dla różnych frakcji odpowiedzi na dwa pytania z zestawu G i przy podanych powyżej wartościach frakcji odpowiedzi na pytania F. 201

202 Optymalny dobór pytań w Metodzie Zliczania Odpowiedzi (Item Count Method) ( ) Rysunek 3. RMSE( ˆ ) dla różnych kombinacji frakcji odpowiedzi na pytania A Źródło: opracowanie własne Ciemne pola oznaczają największe wartości RMSE estymatora frakcji A. Najwięcej ciemnych obszarów znajduje się w tabelach o frakcji F wynoszących 0,3; 0,4; 0,5; 0,6; 0,7. Analiza tabel wskazuje, iż należy dobierać frakcję pytania F oraz dwóch pytań zestawu G w taki sposób, aby ich frakcje były bliskie 0 lub Dobór ilości pytań dodatkowych G Ponieważ symulacyjna analiza w celu poszukiwania najmniejszego RMSE( ˆ A) dla wielu pytań i wszystkich kombinacji frakcji jest bardzo czasochłonna i trudna w prezentacji, przedstawione zostaną zmiany w estymatorze frakcji A dla zwiększającej się liczebności pytań G przy założeniu, że wszystkie te pytania oraz pytanie A posiadają frakcję równą 0,2. 202

Poznań, 30.01.2014. Szanowni Państwo,

Poznań, 30.01.2014. Szanowni Państwo, Poznań, 30.01.2014 Szanowni Państwo, Z myślą o Potrzebach Państwa Firmy w SuperMemo Language Center przygotowaliśmy dla ofertę składającą się z autorskich rozwiązań, wspierających efektywną naukę języków

Bardziej szczegółowo

E-learning: nowoczesna metoda kształcenia

E-learning: nowoczesna metoda kształcenia E-learning: nowoczesna metoda kształcenia Tworzenie kursów e-learningowych Karolina Kotkowska Plan prezentacji część I E-learning obiektywnie: 2. Definicja 3. Formy 4. Wady i zalety e-szkoleń 5. Mity 6.

Bardziej szczegółowo

E-Podręcznik w edukacji. Marlena Plebańska

E-Podręcznik w edukacji. Marlena Plebańska E-Podręcznik w edukacji Marlena Plebańska e-podręczniki 62 e-podręczniki, 14 przedmiotów, 2500 zasobów edukacyjnych dostępnych z poziomu tabletu, komputera, telefonu, czytnika książek, otwarta licencja,

Bardziej szczegółowo

Uniwersytet dziecięcy jako laboratorium

Uniwersytet dziecięcy jako laboratorium Uniwersytet dziecięcy jako laboratorium Źródło: pixabay.com II Kongres Uniwersytetów Dziecięcych, Warszawa, 26 marca 2015 Anna Grąbczewska, Uniwersytet Dzieci Laboratorium - eksperymenty - narzędzia i

Bardziej szczegółowo

Postępy edukacji internetowej

Postępy edukacji internetowej Postępy edukacji internetowej na przykładzie działań Centralnego Instytutu Ochrony Pracy Państwowego Instytutu Badawczego dr inż. Małgorzata Suchecka inż. Artur Sychowicz Centralny Instytut Ochrony Pracy

Bardziej szczegółowo

INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA.

INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

Wykorzystanie nowych mediów w procesie kształcenia jako przykład innowacji dydaktycznej

Wykorzystanie nowych mediów w procesie kształcenia jako przykład innowacji dydaktycznej Wykorzystanie nowych mediów w procesie kształcenia jako przykład innowacji dydaktycznej mgr Sylwia Polcyn-Matuszewska Uniwersytet im. Adama Mickiewicza w Poznaniu Informacja o autorce: mgr Sylwia Polcyn-Matuszewska

Bardziej szczegółowo

ZARYS WYTYCZNYCH/REKOMENDACJI

ZARYS WYTYCZNYCH/REKOMENDACJI ZARYS WYTYCZNYCH/REKOMENDACJI dotyczących realizacji działania: Budowanie kompetencji w zakresie matematyki, informatyki i nauk przyrodniczych jako podstawy do uczenia się przez cale życie (w tym wspieranie

Bardziej szczegółowo

SZKOLENIE: METODYKA E-LEARNINGU (50h) Tematyka zajęć: PROGRAM EXE NARZĘDZIE DO TWORZENIA ELEKTRONICZNYCH MATERIAŁÓW DYDAKTYCZNYCH (10h)

SZKOLENIE: METODYKA E-LEARNINGU (50h) Tematyka zajęć: PROGRAM EXE NARZĘDZIE DO TWORZENIA ELEKTRONICZNYCH MATERIAŁÓW DYDAKTYCZNYCH (10h) Program szkolenia realizowanego w ramach Projektu BELFER ONLINE + przygotowanie nauczycieli z obszarów wiejskich do kształcenia kompetencji kluczowych uczniów i dorosłych przy wykorzystaniu platform e-learningowych

Bardziej szczegółowo

Dla Wielkopolskiego Związku Pracodawców

Dla Wielkopolskiego Związku Pracodawców Dla Wielkopolskiego Związku Pracodawców SuperMemo World Sp. z o.o. Poznań, 30.01.2014 W odpowiedzi na zapytanie dotyczące kursów SuperMemo World, przesyłam dedykowaną Państwu ofertę wraz z informacjami

Bardziej szczegółowo

TECHNOLOGIE INFORMACYJNE I EDUKACJA MULTIMEDIALNA W PRAKTYCE SZKOLNEJ

TECHNOLOGIE INFORMACYJNE I EDUKACJA MULTIMEDIALNA W PRAKTYCE SZKOLNEJ M TECHNOLOGIE INFORMACYJNE I EDUKACJA MULTIMEDIALNA W PRAKTYCE SZKOLNEJ Autor: Zespół nauczycieli konsultantów Ośrodka Przeznaczenie Szkolenie jest przeznaczone dla nauczycieli różnych przedmiotów, którzy

Bardziej szczegółowo

Instrukcja stosowania platformy internetowej Szkoła praktycznej ekonomii młodzieżowe miniprzedsiębiorstwo - zakładki ogólnodostępne

Instrukcja stosowania platformy internetowej Szkoła praktycznej ekonomii młodzieżowe miniprzedsiębiorstwo - zakładki ogólnodostępne Instrukcja stosowania platformy internetowej Szkoła praktycznej ekonomii młodzieżowe miniprzedsiębiorstwo - zakładki ogólnodostępne Szkoła praktycznej ekonomii młodzieżowe miniprzedsiębiorstwo Platforma

Bardziej szczegółowo

LearnIT project PL/08/LLP-LdV/TOI/140001

LearnIT project PL/08/LLP-LdV/TOI/140001 LearnIT project PL/08/LLP-LdV/TOI/140001 Biuletyn Wydanie 7 Lipiec 2010 Drogi czytelniku, Prezentujemy z przyjemnością siódme wydanie biuletynu LearnIT. W tym wydaniu chcielibyśmy poinformować Cię o przebiegu

Bardziej szczegółowo

Instrukcja stosowania platformy internetowej "Szkoła praktycznej ekonomii - młodzieżowe miniprzedsiębiorstwo" zakładki ogólnodostępne

Instrukcja stosowania platformy internetowej Szkoła praktycznej ekonomii - młodzieżowe miniprzedsiębiorstwo zakładki ogólnodostępne Instrukcja stosowania platformy internetowej "Szkoła praktycznej ekonomii - młodzieżowe miniprzedsiębiorstwo" zakładki ogólnodostępne 1 1. Czym jest platforma internetowa Szkoła praktycznej ekonomii młodzieżowe

Bardziej szczegółowo

Pytanie: Odpowiedź: Pytanie: Odpowiedź: . Pytanie: Odpowiedź: Pytanie: element multimedialny lub interaktywny Odpowiedź: Pytanie:

Pytanie: Odpowiedź: Pytanie: Odpowiedź: . Pytanie: Odpowiedź: Pytanie: element multimedialny lub interaktywny Odpowiedź: Pytanie: W pozycji Dodatkowe informacje pkt. 1 a) czytamy: przygotowanie elektronicznej (edytowalnej) wersji dokumentu, stanowiącego podział treści na ekrany zgodnie z treściami kształcenia dostarczonymi od Zamawiającego

Bardziej szczegółowo

Samokontrola postępów w nauce z wykorzystaniem Internetu. Wprowadzenie

Samokontrola postępów w nauce z wykorzystaniem Internetu. Wprowadzenie mgr Piotr Gaś, dr hab. inż. Jerzy Mischke Ośrodek Edukacji Niestacjonarnej Akademii Górniczo-Hutniczej w Krakowie Samokontrola postępów w nauce z wykorzystaniem Internetu Wprowadzenie W każdym systemie

Bardziej szczegółowo

3.1. Na dobry początek

3.1. Na dobry początek Klasa I 3.1. Na dobry początek Regulamin pracowni i przepisy BHP podczas pracy przy komputerze Wykorzystanie komputera we współczesnym świecie Zna regulamin pracowni i przestrzega go. Potrafi poprawnie

Bardziej szczegółowo

Kartografia multimedialna krótki opis projektu. Paweł J. Kowalski

Kartografia multimedialna krótki opis projektu. Paweł J. Kowalski Kartografia multimedialna krótki opis projektu Paweł J. Kowalski Copyright Paweł J. Kowalski 2008 1. Schemat realizacji projektu 2 Celem projektu wykonywanego w ramach ćwiczeń z kartografii multimedialnej

Bardziej szczegółowo

Program nauczania przedmiotu uzupełniającego Praktyczne zastosowania informatyki

Program nauczania przedmiotu uzupełniającego Praktyczne zastosowania informatyki II Liceum ogólnokształcące im. Marii Skłodowskiej Curie w Piotrkowie Trybunalskim Praktyczne zastosowanie informatyki program nauczania Agnieszka Pluczak, Paweł Bąkiewicz 205/206 Program nauczania przedmiotu

Bardziej szczegółowo

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie. SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

Elementy planowania zajęć akademickich w Internecie

Elementy planowania zajęć akademickich w Internecie Elementy planowania zajęć akademickich w Internecie Anna K. Stanisławska-Mischke, UJ Maria Wilkin, UW 2. słowa o nas Anna K. Stanisławska-Mischke: od 2006 w Centrum Zdalnego Nauczania Uniwersytetu Jagiellońskiego,

Bardziej szczegółowo

Regulamin rekrutacji i uczestnictwa w Wykładzie metodycznym i warsztatach szkoleniowych w ramach projektu

Regulamin rekrutacji i uczestnictwa w Wykładzie metodycznym i warsztatach szkoleniowych w ramach projektu Warszawa; 08.04.2014 Regulamin rekrutacji i uczestnictwa w Wykładzie metodycznym i warsztatach szkoleniowych w ramach projektu Łamigłówki dla nomada metoda uczenia przez całe życie na miarę XXI wieku 1

Bardziej szczegółowo

Regulamin korzystania z platformy e-learning w projekcie Czas Zawodowców Wielkopolskie Kształcenie Zawodowe

Regulamin korzystania z platformy e-learning w projekcie Czas Zawodowców Wielkopolskie Kształcenie Zawodowe Regulamin korzystania z platformy e-learning w projekcie Czas Zawodowców Wielkopolskie Kształcenie Zawodowe Zadania szkół biorących udział w projekcie 1. Realizacja zajęć kształcenia zawodowego z wykorzystaniem

Bardziej szczegółowo

Przebieg i organizacja kursu

Przebieg i organizacja kursu Przebieg i organizacja kursu ORGANIZACJA KURSU: Kurs Wdrożenie podstawy programowej kształcenia ogólnego w przedszkolach i szkołach. Rola koordynatora w projekcie prowadzony jest przez Internet. Zadania

Bardziej szczegółowo

Początki e-learningu

Początki e-learningu E-learning Początki e-learningu Początków nauczania na odległość można doszukiwać się w Stanach Zjednoczonych w latach 80. Technikę tą początkowo wykorzystywało tylko kilka uczelni wyższych. Widząc zainteresowanie

Bardziej szczegółowo

Placówka z certyfikatem PN-EN ISO 9001:2009 i akredytacją Łódzkiego Kuratora Oświaty

Placówka z certyfikatem PN-EN ISO 9001:2009 i akredytacją Łódzkiego Kuratora Oświaty 96-100 Skierniewice, Al. Niepodległości 4 tel. (46) 833-20-04, (46) 833-40-47 fax. (46) 832-56-43 www.wodnskierniewice.eu wodn@skierniewice.com.pl Placówka z certyfikatem PN-EN ISO 9001:2009 i akredytacją

Bardziej szczegółowo

Numer i nazwa obszaru: 5 Wdrażanie nowych, innowacyjnych sposobów nauczania i oceniania, w celu podnoszenia efektywności kształcenia w cyfrowej szkole

Numer i nazwa obszaru: 5 Wdrażanie nowych, innowacyjnych sposobów nauczania i oceniania, w celu podnoszenia efektywności kształcenia w cyfrowej szkole Numer i nazwa obszaru: 5 Wdrażanie nowych, innowacyjnych sposobów nauczania i oceniania, w celu podnoszenia efektywności kształcenia w cyfrowej szkole Temat szkolenia: Gryfikacja i inne innowacyjne metody

Bardziej szczegółowo

Proporcje podziału godzin na poszczególne bloki. Tematyka lekcji. Rok I. Liczba godzin. Blok

Proporcje podziału godzin na poszczególne bloki. Tematyka lekcji. Rok I. Liczba godzin. Blok Proporcje podziału godzin na poszczególne bloki Blok Liczba godzin I rok II rok Na dobry początek 7 Internet i gromadzenie danych 6 2 Multimedia 5 3 Edytory tekstu i grafiki 6 4 Arkusz kalkulacyjny 7 4

Bardziej szczegółowo

Co nowego na sprawdzianie po szkole podstawowej w 2015 roku

Co nowego na sprawdzianie po szkole podstawowej w 2015 roku Co nowego na sprawdzianie po szkole podstawowej w 2015 roku fot. Shutterstock / Olesya Feketa 1 Od nowej podstawy programowej do nowej formuły sprawdzianu Rozpoczynający się rok szkolny będzie dla II etapu

Bardziej szczegółowo

PROGRAM NAUCZANIA DLA I I II KLASY GIMNAZJUM

PROGRAM NAUCZANIA DLA I I II KLASY GIMNAZJUM PROGRAM NAUCZANIA DLA I I II KLASY GIMNAZJUM Proporcje podziału godzin na poszczególne bloki Blok Liczba godzin I rok II rok Na dobry początek 7 Internet i gromadzenie danych 6 2 Multimedia 5 3 Edytory

Bardziej szczegółowo

SCENARIUSZ LEKCJI. Streszczenie. Czas realizacji. Podstawa programowa

SCENARIUSZ LEKCJI. Streszczenie. Czas realizacji. Podstawa programowa SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

Program modułu multimedialnego mgr Urszula Galant. PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie

Program modułu multimedialnego mgr Urszula Galant. PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie 1 I. WSTĘP Wraz z powszechną komputeryzacją większości dziedzin życia codziennego oraz szybkim rozwojem sprzętu

Bardziej szczegółowo

Rzeczywistość rozszerzona w edukacji w świetle piśmiennictwa

Rzeczywistość rozszerzona w edukacji w świetle piśmiennictwa IS-1/068/NCBR/2014: EduAR Opracowanie systemu komputerowego Rzeczywistości Rozszerzonej przeznaczonego do zastosowania w oprogramowaniu dydaktycznym dedykowanym przedmiotom ścisłym Rzeczywistość rozszerzona

Bardziej szczegółowo

SPRAWOZDANIE Z REALIZACJI PLANU PRACY SIECI WSPÓŁPRACY I SAMOKSZTAŁCENIA

SPRAWOZDANIE Z REALIZACJI PLANU PRACY SIECI WSPÓŁPRACY I SAMOKSZTAŁCENIA Bezpośrednie wsparcie rozwoju szkół poprzez zmodernizowany system doskonalenia nauczycieli w powiecie gryfińskim UDA-POKL.03.05.00-00-219/12-00 SPRAWOZDANIE Z REALIZACJI PLANU PRACY SIECI WSPÓŁPRACY I

Bardziej szczegółowo

SCENARIUSZ LEKCJI. Opracowywanie wielostronicowego dokumentu o rozbudowanej strukturze, stosowanie stylów i szablonów, tworzenie spisu treści.

SCENARIUSZ LEKCJI. Opracowywanie wielostronicowego dokumentu o rozbudowanej strukturze, stosowanie stylów i szablonów, tworzenie spisu treści. SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych

Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych dr inż. Adam Iwaniak Infrastruktura Danych Przestrzennych w Polsce i Europie Seminarium, AR Wrocław

Bardziej szczegółowo

PROGRAM DOSKONALENIA PRZEDMIOTOWEGO W ZAKRESIE KOMPETENCJI MATEMATYCZNYCH dla nauczycieli szkół podstawowych

PROGRAM DOSKONALENIA PRZEDMIOTOWEGO W ZAKRESIE KOMPETENCJI MATEMATYCZNYCH dla nauczycieli szkół podstawowych PROGRAM DOSKONALENIA PRZEDMIOTOWEGO W ZAKRESIE KOMPETENCJI MATEMATYCZNYCH dla nauczycieli szkół podstawowych TYTUŁ PROGRAMU: Kształcenie myślenia matematycznego z wykorzystaniem TIK CELE OGÓLNE: Kształcenie

Bardziej szczegółowo

Nota edytorska. Materiały do wykorzystania. w e-learningu

Nota edytorska. Materiały do wykorzystania. w e-learningu Nota edytorska Materiały do wykorzystania w e-learningu Spis treści: Wprowadzenie... 3 Materiały statyczne... 4 Wymagania edytorskie dla tekstu... 5 Publikowanie plików... 6 Publikowanie linków do stron

Bardziej szczegółowo

Program szkoleń dla nauczycieli w formule blended learning

Program szkoleń dla nauczycieli w formule blended learning Program szkoleń dla nauczycieli w formule blended learning Opracowanie: Eleonora Żmijowska-Wnęk Wrocław 2014 SPIS TREŚCI: 1. WSTĘP... 3 2. CELE OGÓLNE SZKOLENIA... 4 3. METODY PRACY... 4 4. TREŚCI I PRZEWIDYWANE

Bardziej szczegółowo

Wstęp do poradnika metodycznego 5. 2. Przykładowy rozkład materiału 13 I rok nauczania...13 II rok nauczania...13 Rozkład materiału:...

Wstęp do poradnika metodycznego 5. 2. Przykładowy rozkład materiału 13 I rok nauczania...13 II rok nauczania...13 Rozkład materiału:... Spis treści Wstęp do poradnika metodycznego 5. Oprogramowanie wykorzystywane w podręczniku 7 Środowisko... 7 Narzędzia... 8. Przykładowy rozkład materiału 3 I rok nauczania...3 II rok nauczania...3 Rozkład

Bardziej szczegółowo

Informacja dla rodziców dzieci ze szkół zaproszonych do udziału w projekcie e-matematyka i zajęcia komputerowe skuteczne programy nauczania

Informacja dla rodziców dzieci ze szkół zaproszonych do udziału w projekcie e-matematyka i zajęcia komputerowe skuteczne programy nauczania Informacja dla rodziców dzieci ze szkół zaproszonych do udziału w projekcie e-matematyka i zajęcia komputerowe skuteczne programy nauczania wrzesień 2013 O przedsięwzięciu Projekt e-matematyka i zajęcia

Bardziej szczegółowo

Spis treści. Wstęp... 15. Rozdział 1. Wprowadzenie do e-learningu... 19

Spis treści. Wstęp... 15. Rozdział 1. Wprowadzenie do e-learningu... 19 Spis treści Wstęp... 15 Treść książki... 16 Adresaci książki... 16 Struktura książki... 17 Trzecie wydanie książki... 17 Rozdział 1. Wprowadzenie do e-learningu... 19 Przykłady e-learningu... 20 E-learning

Bardziej szczegółowo

Mapa niewyczerpane źródło informacji

Mapa niewyczerpane źródło informacji Mapa niewyczerpane źródło informacji Opis: Program powstał, ponieważ uczniowie mają problem w posługiwaniu się mapą i skalą. Mają kłopoty z orientacją na mapie oraz odczytywaniem informacji z różnych typów

Bardziej szczegółowo

Dr hab. inż. Paweł WĘGIEREK, prof. PL

Dr hab. inż. Paweł WĘGIEREK, prof. PL Dr hab. inż. Paweł WĘGIEREK, prof. PL DYREKTOR Lubelskiego Inkubatora Przedsiębiorczości Politechniki Lubelskiej Koordynator Lokalny Partnera tj. Politechniki Lubelskiej Pomysłodawca Projektu Koncepcja

Bardziej szczegółowo

Nauczyciel w sieci Tech-Connected Teacher (TC*Teacher) 1

Nauczyciel w sieci Tech-Connected Teacher (TC*Teacher) 1 Projekt realizowany przy wsparciu finansowym Komisji Europejskiej (2008-2010). Projekt odzwierciedla jedynie stanowisko partnerów projektu i Komisja Europejska nie ponosi odpowiedzialności za jego zawartość

Bardziej szczegółowo

Publisher Panel jest podzielony na 3 działy, z których każdy oferuje zaawansowane narzędzia do prowadzenia czasopisma w systemie Index Copernicus:

Publisher Panel jest podzielony na 3 działy, z których każdy oferuje zaawansowane narzędzia do prowadzenia czasopisma w systemie Index Copernicus: 1. Co to jest Publisher Panel? Publishers Panel jest częścią międzynarodowego systemu Index Copernicus składającego się z kilku powiązanych ze sobą działów dotyczących literatury naukowej, naukowców, projektów

Bardziej szczegółowo

Czym jest nauczanie dwujęzyczne?

Czym jest nauczanie dwujęzyczne? Języka obcego nauczymy się lepiej kiedy będzie nam on służył do przyswojenia sobie czegoś więcej niż tylko jego samego Jean Duverger Czym jest nauczanie dwujęzyczne? Od pewnego czasu można zauważyć wzrost

Bardziej szczegółowo

Wyższa Szkoła Pedagogiczna ZNP w Warszawie. Specjalność: Pedagogika pracy z zarządzaniem i marketingiem,

Wyższa Szkoła Pedagogiczna ZNP w Warszawie. Specjalność: Pedagogika pracy z zarządzaniem i marketingiem, Wyższa Szkoła Pedagogiczna ZNP w Warszawie Katedra Pedagogiki Pracy dr hab. Henryk Bednarczyk Technologia kształcenia zawodowego Plan nauczania Specjalność: Pedagogika pracy z zarządzaniem i marketingiem,

Bardziej szczegółowo

Czy nauczyciele wykorzystują nowoczesne technologie informacyjno-komunikacyjne w kształceniu? Raport z badań.

Czy nauczyciele wykorzystują nowoczesne technologie informacyjno-komunikacyjne w kształceniu? Raport z badań. Czy nauczyciele wykorzystują nowoczesne technologie informacyjno-komunikacyjne w kształceniu? Raport z badań. dr Katarzyna Mikołajczyk mgr Katarzyna Pietraszek Centrum Rozwoju Edukacji Niestacjonarnej

Bardziej szczegółowo

Rozwiązania e-learningowe jako narzędzia rozwoju kompetencji zawodowych. Paweł Czerwony Global New Business Manager

Rozwiązania e-learningowe jako narzędzia rozwoju kompetencji zawodowych. Paweł Czerwony Global New Business Manager v Rozwiązania e-learningowe jako narzędzia rozwoju kompetencji zawodowych Paweł Czerwony Global New Business Manager Funmedia Nasza historia Rynki i produkty Liczba użytkowników Kursy online Fakty Dot.

Bardziej szczegółowo

Andrzej Syguła Wirtualne Wyspy Wiedzy. E-learning jako nowa forma kształcenia

Andrzej Syguła Wirtualne Wyspy Wiedzy. E-learning jako nowa forma kształcenia Andrzej Syguła Wirtualne Wyspy Wiedzy W Państwowej WyŜszej Szkole Zawodowej im. Prezydenta Stanisława Wojciechowskiego w Kaliszu realizowany jest projekt wdroŝenia wirtualnej edukacji, nazwany od akronimu

Bardziej szczegółowo

w w w.w o r l d w i d e s c h o o l.p l OVER 45

w w w.w o r l d w i d e s c h o o l.p l OVER 45 grupa worldwideschool w w w.w o r l d w i d e s c h o o l.p l INFORMACJA O ZREALIZOWANYM PROJEKCIE OVER 45 OVER 45 INFORMACJA O ZREALIZOWANYM PROJEKCIE OVER 45 Worldwide School Sp. z o.o. w okresie od

Bardziej szczegółowo

Wyniki sprawdzianu zewnętrznego klas szóstych uczniów SP10 w latach 2008-2012 na tle miasta, województwa, kraju:

Wyniki sprawdzianu zewnętrznego klas szóstych uczniów SP10 w latach 2008-2012 na tle miasta, województwa, kraju: Efekty różnorodnych działań przygotowujących uczniów do sprawdzianu zewnętrznego analiza oferty zajęć wspierających oraz materiałów przygotowywanych przez nauczycieli Dzięki zaangażowaniu nauczycieli,

Bardziej szczegółowo

LearnIT project PL/08/LLP-LdV/TOI/140001

LearnIT project PL/08/LLP-LdV/TOI/140001 LearnIT project PL/08/LLP-LdV/TOI/140001 Newsletter Issue 2 April 2009 Drogi czytelniku, Przedstawiamy z przyjemnością drugie wydanie biuletynu projektu LearnIT. W tym wydaniu chcemy powiedzieć więcej

Bardziej szczegółowo

System ustalania wartości punktów ECTS dla przedmiotów na Wydziale Ekonomiczno-Socjologicznym UŁ

System ustalania wartości punktów ECTS dla przedmiotów na Wydziale Ekonomiczno-Socjologicznym UŁ System ustalania wartości punktów ECTS dla przedmiotów na Wydziale Ekonomiczno-Socjologicznym UŁ Opis systemu. System akumulacji i transferu punktów ECTS przyjęty na Wydziale Ekonomiczno- Socjologicznym

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: MODELOWANIE I ANALIZA SYSTEMÓW INFORMATYCZNYCH Modeling and analysis of computer systems Kierunek: Informatyka Forma studiów: Stacjonarne Rodzaj przedmiotu: Poziom kwalifikacji: obowiązkowy

Bardziej szczegółowo

Zdobądź nowych klientów poprzez reklamę w CzarterMazury.pl

Zdobądź nowych klientów poprzez reklamę w CzarterMazury.pl Zdobądź nowych klientów poprzez reklamę w CzarterMazury.pl Data utworzenia: luty 2011 Liczba stron: 8 Rodzaj dokumentu: dokument zewnętrzny Adres:, Al. Stanów Zjednoczonych 26/143, 03-964 Warszawa Strona:

Bardziej szczegółowo

PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO W GIMNAZJUM IM. ZIEMI ŚLĄSKIEJ W PIECACH

PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO W GIMNAZJUM IM. ZIEMI ŚLĄSKIEJ W PIECACH PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO W GIMNAZJUM IM. ZIEMI ŚLĄSKIEJ W PIECACH POSTANOWIENIA OGÓLNE: Przedmiotowy System Oceniania z Języka Angielskiego jest zbiorem szczegółowych zasad dotyczących

Bardziej szczegółowo

Stan realizacji informacja według stanu na dzień 14 lutego 2013

Stan realizacji informacja według stanu na dzień 14 lutego 2013 Rządowy program rozwijania kompetencji uczniów i nauczycieli w zakresie stosowania technologii informacyjno komunikacyjnych Cyfrowa szkoła Stan realizacji informacja według stanu na dzień 14 lutego 2013

Bardziej szczegółowo

Kongres Innowacyjnej Gospodarki, Warszawa 2013

Kongres Innowacyjnej Gospodarki, Warszawa 2013 Kongres Innowacyjnej Gospodarki, Warszawa 2013 Jak to działa: Mózg badania wskazują, że inne partie mózgu uaktywniają się przy czytaniu tradycyjnych książek, inne przy czytaniu tych z nośników elektronicznych

Bardziej szczegółowo

PRZEDMIOTOWY SYSTEM OCENIANIA Z INFORMATYKI. Przedmiotowy System Oceniania został opracowany na podstawie:

PRZEDMIOTOWY SYSTEM OCENIANIA Z INFORMATYKI. Przedmiotowy System Oceniania został opracowany na podstawie: I. Postanowienia ogólne PRZEDMIOTOWY SYSTEM OCENIANIA Z INFORMATYKI Przedmiotowy System Oceniania został opracowany na podstawie: 1. Rozporządzenia Ministra Edukacji Narodowej z dn. 30 kwietnia 2007 r.

Bardziej szczegółowo

Przedmiotowy system oceniania z historii dla uczniów Gimnazjum.

Przedmiotowy system oceniania z historii dla uczniów Gimnazjum. Przedmiotowy system oceniania z historii dla uczniów Gimnazjum. 1. Przedmiotowy System Oceniania został opracowany na podstawie Wewnątrzszkolnego Systemu Oceniania (WSO) zgodnego z Rozporządzeniem Ministra

Bardziej szczegółowo

Wirtualna Fizyka Wiedza Prawdziwa. Europejski Fundusz Społeczny. Program Operacyjny Kapitał Ludzki

Wirtualna Fizyka Wiedza Prawdziwa. Europejski Fundusz Społeczny. Program Operacyjny Kapitał Ludzki Projekt edukacyjny "Wirtualna Fizyka - Wiedza Prawdziwa" Metryka projektu Tytuł projektu Źródło finansowania Program Priorytet, działanie Numer wniosku Numer konkursu Data podpisania umowy Okres realizacji

Bardziej szczegółowo

Rozkład materiału nauczania z przedmiotu INFORMATYKA. dla gimnazjum

Rozkład materiału nauczania z przedmiotu INFORMATYKA. dla gimnazjum Rozkład materiału nauczania z przedmiotu INFORMATYKA dla gimnazjum (wykonany w oparciu o program nauczania nr DKW 4014-87/99) Ilość godzin: 72 jednostki lekcyjne w dwuletnim cyklu nauczania Organizacja

Bardziej szczegółowo

Laboratorium przez Internet w modelu studiów inżynierskich

Laboratorium przez Internet w modelu studiów inżynierskich Laboratorium przez Internet w modelu studiów inżynierskich Remigiusz Rak Marcin Godziemba-Maliszewski Andrzej Majkowski Adam Jóśko POLITECHNIKA WARSZAWSKA Ośrodek Kształcenia na Odległość Laboratorium

Bardziej szczegółowo

OPIS WYMOGÓW JAKOŚCI ŚWIADCZENIA USŁUG e-learnig

OPIS WYMOGÓW JAKOŚCI ŚWIADCZENIA USŁUG e-learnig OPIS WYMOGÓW JAKOŚCI ŚWIADCZENIA USŁUG e-learnig E-learning jako usługa rozwojowa E-learning to jedna z forma zdalnego nauczania (tj. formy wspomagania procesu uczenia się technologiami informacyjno-komunikacyjnymi)

Bardziej szczegółowo

PRZEWODNIK PO PLATFORMIE E-LEARNING http://e-powiatleborski.pl/

PRZEWODNIK PO PLATFORMIE E-LEARNING http://e-powiatleborski.pl/ PRZEWODNIK PO PLATFORMIE E-LEARNING http://e-powiatleborski.pl/ utworzonej w ramach projektu ramach projektu Kształcenie ustawiczne przepustką do lepszego jutra współfinansowanego ze środków Unii Europejskiej

Bardziej szczegółowo

Katedra Pedagogiki Pracy Wyższa Szkoła Pedagogiczna ZNP w Warszawie prof. dr hab. Henryk Bednarczyk

Katedra Pedagogiki Pracy Wyższa Szkoła Pedagogiczna ZNP w Warszawie prof. dr hab. Henryk Bednarczyk Katedra Pedagogiki Pracy Wyższa Szkoła Pedagogiczna ZNP w Warszawie prof. dr hab. Henryk Bednarczyk Technologia kształcenia zawodowego e-repetytorium Spis treści I. Ramowy plan nauczania 1. Cel studiów

Bardziej szczegółowo

KARTA MONITOROWANIA PODSTAWY PROGRAMOWEJ KSZTAŁCENIA OGÓLNEGO

KARTA MONITOROWANIA PODSTAWY PROGRAMOWEJ KSZTAŁCENIA OGÓLNEGO KARTA MONITOROWANIA PODSTAWY PROGRAMOWEJ KSZTAŁCENIA OGÓLNEGO III etap edukacyjny PG im. Tadeusza Kościuszki w Kościerzycach Przedmiot informatyka Klasa......... Rok szkolny Imię i nazwisko nauczyciela

Bardziej szczegółowo

Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty

Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty przedmiotu Stopień studiów i forma: Rodzaj przedmiotu Kod przedmiotu Grupa kursów Zaawansowane techniki analizy

Bardziej szczegółowo

Wirtualna przestrzeń edukacyjna i jej zasoby

Wirtualna przestrzeń edukacyjna i jej zasoby Wirtualna przestrzeń edukacyjna i jej zasoby mgr Jagoda Rycharska Sekretarz Studencko-Doktoranckiego Koła Naukowego eprint, IINiB UMK I Ogólnopolska Studencko-Doktorancka Konferencja Naukowa Człowiek Nauka.

Bardziej szczegółowo

Kryteria oceniania z języka angielskiego. dla Gimnazjum

Kryteria oceniania z języka angielskiego. dla Gimnazjum Kryteria oceniania z języka angielskiego dla Gimnazjum Formy sprawdzania osiągnięć uczniów: testy i sprawdziany, kartkówki, odpowiedzi ustne, dyktanda, zadania domowe, wypowiedzi pisemne, aktywność na

Bardziej szczegółowo

REGULAMIN. organizacji Międzyszkolnego Konkursu BIT dla uczniów klas VI szkoły podstawowej

REGULAMIN. organizacji Międzyszkolnego Konkursu BIT dla uczniów klas VI szkoły podstawowej REGULAMIN organizacji Międzyszkolnego Konkursu BIT dla uczniów klas VI szkoły podstawowej Organizatorem konkursu jest I Społeczna Szkoła Podstawowa im. Unii Europejskiej w Zamościu, ul. Koszary 15, 22-400

Bardziej szczegółowo

13. Plan rozwoju programu Cyfrowa Przyszłość

13. Plan rozwoju programu Cyfrowa Przyszłość 13. Jarosław Lipszyc współpraca: Katarzyna Sawko Projekt Cyfrowa przyszłość jest realizowany przez Fundację Nowoczesna Polska od października 2011. Jednym z celów projektu, zrealizowanym w pierwszym etapie

Bardziej szczegółowo

System doskonalenia nauczycieli oparty na ogólnodostępnym kompleksowym wspomaganiu szkół

System doskonalenia nauczycieli oparty na ogólnodostępnym kompleksowym wspomaganiu szkół System doskonalenia nauczycieli oparty na ogólnodostępnym kompleksowym wspomaganiu szkół Wnioski z pilotażowego wdrażania projektu przez Miasto Łódź Małgorzata Zwolińska Lidia Dyndor 1 Z perspektywy dyrektora

Bardziej szczegółowo

Rozkład materiału do nauczania informatyki w liceum ogólnokształcącym Wersja I

Rozkład materiału do nauczania informatyki w liceum ogólnokształcącym Wersja I Zespół TI Instytut Informatyki Uniwersytet Wrocławski ti@ii.uni.wroc.pl http://www.wsip.com.pl/serwisy/ti/ Rozkład materiału do nauczania informatyki w liceum ogólnokształcącym Wersja I Rozkład zgodny

Bardziej szczegółowo

Sprawozdanie z projektu edukacyjnego zrealizowanego w Szkole Podstawowej w Raszówce w roku szkolnym 2005/2006 pod hasłem "ŻYJMY ZDROWO!

Sprawozdanie z projektu edukacyjnego zrealizowanego w Szkole Podstawowej w Raszówce w roku szkolnym 2005/2006 pod hasłem ŻYJMY ZDROWO! mgr Irena Wituszyńska Szkoła Podstawowa w Raszówce Sprawozdanie z projektu edukacyjnego zrealizowanego w Szkole Podstawowej w Raszówce w roku szkolnym 2005/2006 pod hasłem "ŻYJMY ZDROWO!" Projekt pod hasłem

Bardziej szczegółowo

Zmiany w podstawie programowej w klasach 4-6, czyli czym różnią się nowe Zajęcia komputerowe od obecnej Informatyki

Zmiany w podstawie programowej w klasach 4-6, czyli czym różnią się nowe Zajęcia komputerowe od obecnej Informatyki Zmiany w podstawie programowej w klasach 4-6, czyli czym różnią się nowe Zajęcia komputerowe od obecnej Informatyki doradca metodyczny informatyki Beata Rutkowska Akty prawne dotyczące zmian: ramowe plany

Bardziej szczegółowo

Monitoring procesów z wykorzystaniem systemu ADONIS

Monitoring procesów z wykorzystaniem systemu ADONIS Monitoring procesów z wykorzystaniem systemu ADONIS BOC Information Technologies Consulting Sp. z o.o. e-mail: boc@boc-pl.com Tel.: (+48 22) 628 00 15, 696 69 26 Fax: (+48 22) 621 66 88 BOC Management

Bardziej szczegółowo

System EssentioCMS. Korzyści z zastosowania EssentioCMS

System EssentioCMS. Korzyści z zastosowania EssentioCMS e-mail: info@essentio.pl System EssentioCMS Profesjonalna strona internetowa stanowi nieocenione źródło informacji o firmie, jej usługach oraz produktach. Jest najnowocześniejszym medium pozyskiwania nowych

Bardziej szczegółowo

Ogólne kryteria oceniania z przedmiotu zajęcia komputerowe w klasie czwartej.

Ogólne kryteria oceniania z przedmiotu zajęcia komputerowe w klasie czwartej. Ogólne kryteria oceniania z przedmiotu zajęcia komputerowe w klasie czwartej. Ocenę celującą otrzymuje uczeń, który zyskał wiedzę i umiejętności obejmujące pełny zakres programu, a w szczególności: Potrafi

Bardziej szczegółowo

Projekt: Współpraca i dialog. Opis szkoleń językowych planowanych do realizacji w ramach projektu

Projekt: Współpraca i dialog. Opis szkoleń językowych planowanych do realizacji w ramach projektu Projekt: Współpraca i dialog Opis szkoleń językowych planowanych do realizacji w ramach projektu Gdańsk, wrzesień 2013 Spis Treści SPIS TREŚCI...2 SZKOLENIA JĘZYKOWE...3 JĘZYK ANGIELSKI...4 Szkolenia językowe

Bardziej szczegółowo

Scenariusz lekcji. opisać działanie poczty elektronicznej; opisać podobieństwa i różnice między pocztą elektroniczną i tradycyjną;

Scenariusz lekcji. opisać działanie poczty elektronicznej; opisać podobieństwa i różnice między pocztą elektroniczną i tradycyjną; Scenariusz lekcji 1 TEMAT LEKCJI Poczta elektroniczna 2 CELE LEKCJI 2.1 Wiadomości Uczeń potrafi: opisać działanie poczty elektronicznej; opisać podobieństwa i różnice między pocztą elektroniczną i tradycyjną;

Bardziej szczegółowo

KARTA KURSU. Przetwarzanie dokumentów XML i zaawansowane techniki WWW

KARTA KURSU. Przetwarzanie dokumentów XML i zaawansowane techniki WWW KARTA KURSU Nazwa Nazwa w j. ang. Przetwarzanie dokumentów XML i zaawansowane techniki WWW XML processing and advanced web technologies Kod Punktacja ECTS* 3 Koordynator dr Maria Zając Zespół dydaktyczny:

Bardziej szczegółowo

Kursy Matematyki online Matematyka Reaktywacja czyli nowoczesne przygotowanie do matury z matematyki

Kursy Matematyki online Matematyka Reaktywacja czyli nowoczesne przygotowanie do matury z matematyki Kursy Matematyki online Matematyka Reaktywacja czyli nowoczesne przygotowanie do matury z matematyki Jędrzej Wierzejewski Politechnika Wrocławska Instytut Matematyki i Informatyki O czym będzie mowa 1.

Bardziej szczegółowo

Dokumentacja Administratora portalu. aplikacji. Wirtualna szkoła

Dokumentacja Administratora portalu. aplikacji. Wirtualna szkoła Dokumentacja Administratora portalu aplikacji Wirtualna szkoła aktualna na dzień 20.12.2012 Wykonawca: Young Digital Planet SA 2012 Strona 2 z 15 Spis Treści Wirtualna szkoła SYSTEM ZARZĄDZANIA NAUCZANIEM...

Bardziej szczegółowo

tel./fax (85) 748 55 82 email: statinfmed@uwb.edu.pl

tel./fax (85) 748 55 82 email: statinfmed@uwb.edu.pl Załącznik nr 5b do Uchwały nr 21/2013 Senatu KARTA PRZEDMIOTU / SYLABUS Wydział Nauk o Zdrowiu Kierunek Profil kształcenia Nazwa jednostki realizującej moduł/przedmiot: Kontakt (tel./email): Osoba odpowiedzialna

Bardziej szczegółowo

Warszawa, 27 lipca 2012 r. ZAPYTANIE OFERTOWE

Warszawa, 27 lipca 2012 r. ZAPYTANIE OFERTOWE Warszawa, 27 lipca 2012 r. ZAPYTANIE OFERTOWE na wykonanie strony internetowej w ramach projektu Biotechnologia i ochrona środowiska nowoczesne kształcenie na studiach I stopnia dla potrzeb nauki i biznesu,

Bardziej szczegółowo

Wymagania dla cyklu dwugodzinnego w ujęciu tabelarycznym. Gimnazjum nr 1 w Miechowie

Wymagania dla cyklu dwugodzinnego w ujęciu tabelarycznym. Gimnazjum nr 1 w Miechowie Wymagania dla cyklu dwugodzinnego w ujęciu tabelarycznym Gimnazjum nr 1 w Miechowie Informatyka Lp. Uczeń: 1. Zna regulamin i przepisy BHP w pracowni komputerowej 2. Wie, na czym polega bezpieczna praca

Bardziej szczegółowo

omnia.pl, ul. Kraszewskiego 62A, 37-500 Jarosław, tel. +48 16 621 58 10 www.omnia.pl kontakt@omnia.pl

omnia.pl, ul. Kraszewskiego 62A, 37-500 Jarosław, tel. +48 16 621 58 10 www.omnia.pl kontakt@omnia.pl .firma Dostarczamy profesjonalne usługi oparte o nowoczesne technologie internetowe Na wstępie Wszystko dla naszych Klientów Jesteśmy świadomi, że strona internetowa to niezastąpione źródło informacji,

Bardziej szczegółowo

ZARZĄDZENIE Nr 102/2015 Rektora Uniwersytetu Wrocławskiego z dnia 19 sierpnia 2015 r.

ZARZĄDZENIE Nr 102/2015 Rektora Uniwersytetu Wrocławskiego z dnia 19 sierpnia 2015 r. ZARZĄDZENIE Nr 102/2015 Rektora Uniwersytetu Wrocławskiego z dnia 19 sierpnia 2015 r. w sprawie wprowadzenia Zasad tworzenia kursów e-learningowych w Uniwersytecie Wrocławskim Na podstawie art. 164 ust.

Bardziej szczegółowo

Raport Końcowy z ewaluacji w projekcie: Droga do bezpiecznej służby

Raport Końcowy z ewaluacji w projekcie: Droga do bezpiecznej służby Raport Końcowy z ewaluacji w projekcie: Droga do bezpiecznej służby 1.10.2011-30.04.2013 WYKONAWCA: HABITAT SP. Z O.O. UL. 10 LUTEGO 37/5 GDYNIA SPIS TREŚCI Sprawozdanie z działań ewaluacyjnych... 3 1.

Bardziej szczegółowo

KARTA KURSU (realizowanego w module specjalności) Chemia z przyrodą

KARTA KURSU (realizowanego w module specjalności) Chemia z przyrodą KARTA KURSU (realizowanego w module specjalności) Chemia z przyrodą.. (nazwa specjalności) Nazwa Dydaktyka przyrody 1, 2 Nazwa w j. ang. Didactic of natural science Kod Punktacja ECTS* 6 Koordynator Dr

Bardziej szczegółowo

Młodzież owa przedsiębi orczość

Młodzież owa przedsiębi orczość Młodzież owa przedsiębi orczość UE o przedsiębiorczości Inicjatywność i przedsiębiorczość to umiejętności niezbędne do prawidłowego funkcjonowania w życiu społecznym i gospodarczym. Najlepiej kształtuje

Bardziej szczegółowo

Regulamin tworzenia i prowadzenia zajęć dydaktycznych w formie elektronicznej, z wykorzystaniem metod i technik kształcenia na odległość

Regulamin tworzenia i prowadzenia zajęć dydaktycznych w formie elektronicznej, z wykorzystaniem metod i technik kształcenia na odległość Regulamin tworzenia i prowadzenia zajęć dydaktycznych w formie elektronicznej, z wykorzystaniem metod i technik kształcenia na odległość 1 Użyte w niniejszym Regulaminie określenia oznaczają odpowiednio:

Bardziej szczegółowo

SCENARIUSZ LEKCJI. Temat może zostać zrealizowany jako wprowadzający do zagadnień opracowywania i prezentowania informacji.

SCENARIUSZ LEKCJI. Temat może zostać zrealizowany jako wprowadzający do zagadnień opracowywania i prezentowania informacji. SCENARIUSZ LEKCJI Autorzy scenariusza: OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH

Bardziej szczegółowo

EDUKACJA GLOBALNA ZADANIEM KAŻDEGO NAUCZYCIELA

EDUKACJA GLOBALNA ZADANIEM KAŻDEGO NAUCZYCIELA SZKOLENIE DLA KOORDYNATORÓW REGIONALNYCH TRENERÓW I LIDERÓW EDUKACJI GLOBALNEJ maj 2013 sierpień 2013 Kurs Trenera/ Lidera i Mentora Edukacji Globalnej(EG) 16-20 osób (nowa grupa) 13 dni/ 108 godz. maj,

Bardziej szczegółowo

Formy dokształcania studentów przyszłych nauczycieli z wykorzystaniem narzędzi TI

Formy dokształcania studentów przyszłych nauczycieli z wykorzystaniem narzędzi TI Małgorzata Bartoszewicz goskab@amu.edu.pl Wydział Chemii, Zakład Dydaktyki Chemii Uniwersytet im. Adama Mickiewicza Poznań Formy dokształcania studentów przyszłych nauczycieli z wykorzystaniem narzędzi

Bardziej szczegółowo

WŁASNY PROGRAM NAUCZANIA INFORMATYKI

WŁASNY PROGRAM NAUCZANIA INFORMATYKI WŁASNY PROGRAM NAUCZANIA INFORMATYKI W KATOLICKIM GIMNAZJUM IM. JANA PAWŁA II W ŁODZI INFORMATYKA NOWA PODSTAWA PROGRAMOWA III etap edukacyjny zakres podstawowy Podstawa prawna Rozporządzeniu Ministra

Bardziej szczegółowo