"Jak efektywnie pozyskać, przechowywać i wykorzystać dane"
|
|
- Klaudia Milewska
- 5 lat temu
- Przeglądów:
Transkrypt
1 "Jak efektywnie pozyskać, przechowywać i wykorzystać dane" Streszczenie G. Sopoliński, B. Nagórski (SOL-BIT sp. z o.o.) Opracowanie zawiera podsumowanie wybranych doświadczeń wdrożeniowych firmy SOL-BIT Sp. z o.o. nabytych w trakcie wdrażania rozwiązań Business Intelligence dla firm z branży energetycznej. Doświadczenia dotyczą procesów pozyskania, przetwarzania i wykorzystania danych masowych. W opracowaniu zaprezentowano przykładową prognozę zapotrzebowania na moc dla Krajowych Sieci Energetycznych na podstawie upublicznionych danych. 1 Wprowadzenie Wraz z nastaniem ery Internetu w latach 90 XX wieku nastąpiła eksplozja gromadzonych, przetwarzanych i przesyłanych danych. Bazy relacyjne doskonałe do zastosowań transakcyjnych i ewidencyjnych okazały się niewystarczające do przetwarzania ogromnych zbiorów danych, w szczególności zbiorów o charakterze niestrukturalnym: dokumentów, stron, plików logów, pomiarów. Powstały i ciągle powstają systemy zarządzania baz danych Open Source o zbiorczej nazwie NoSQL, która ma podkreślić nierelacyjny charakter przetwarzania danych. Bazy te charakteryzuje wysoka wydajność i są one dedykowane do przetwarzania analitycznego. W 2005 roku Roger Mougalas wprowadził termin Big Data w odniesieniu do dużych zbiorów danych, których nie można było przetworzyć za pomocą klasycznych rozwiązań i narzędzi BI. Z pojęciem Big Data wiążą się V-charakterystyki. Pierwotne 3V zdefiniował Gartner Group. 1. Volume (Wielkość) Wielkość danych jest podstawową charakterystyką Big Data. Nie chodzi nawet o wielkości bezwzględne wyrażane w TB lub PB, lecz o takie zbiory danych, które ledwo mieszczą się w pamięci dużych nowoczesnych instalacji komputerowych lub muszą być przetwarzane strumieniowo. Wykładniczy wzrost generowanych, przesyłanych i składowanych danych związany jest z rozwojem Internetu i coraz większą przyłączaną do niego liczbą urządzeń. 2. Velocity (Szybkość) Szybkość generowania danych i przekazywania informacji wzrasta. Wdrożenie systemów telemetrycznych, Internetu Rzeczy (Internet of Things - IoT), danych spływających z czujników urządzeń mobilnych powodują, że generacja danych odbywa się z niespotykaną dotąd szybkością. 3. Variety (Różnorodność) W porównaniu do rozwiązań BI przetwarzających dane strukturalne z relacyjnych baz danych i plików płaskich, Big Data przetwarza pełną paletę formatów danych strukturalnych i niestrukturalnych takich jak video, dźwięk, pliki graficzne, pliki logów, html, dokumenty. 4. Veracity (Wiarygodność)
2 Wraz z dużym wolumenem szybko generowanych danych pojawia się pytanie o autentyczność, weryfikowalność i zaufanie do danych. Nie zawsze odpowiedzi na te pytania są pozytywne i musi to być uwzględnione w analizach danych. 5. Value (Wartość) Oznacza wartość informacyjną i możliwość wykorzystania informacji jaką niesie ze sobą Big Data. Aplikacje Big Data dotyczą wszystkich dziedzin życia. Z pozoru bezużyteczna informacja, w jaki element strony użytkownicy klikają najczęściej, można wykorzystać do badania preferencji klientów, ich wzorców zachowań, które można wykorzystać komercyjnie. Ogromna ilość informacji przeradza się w jakość i wartość, świadomość tego faktu powoli upowszechnia się społecznie. Wiele wzorców projektowych Big Data przenika do świata BI i na odwrót. Dlatego w dalszej części będziemy odnosić się do nich pod wspólną nazwą BI/Big data. 2 Pozyskanie danych 2.1 Praktyka definiowania zakresu informacyjnego BI Ewolucja celów systemów analitycznych Rozwiązania BI powinny wspierać realizację celów biznesowych przedsiębiorstwa. Identyfikacja i definicja celów powinna nastąpić na poziomie zarządu i zostać uszczegółowiona na niższych szczeblach zarządzania. Od momentu swojego powstania BI służył jako narzędzie do monitorowania wartości wskaźników, realizacji celów, odchyleń. Niemniej było to działanie reaktywne - nastawione na automatyzację procesu przeliczania danych, procesu tradycyjnie realizowanego z sukcesem za pomocą "zestawu narzędzi" takich jak komputer osobisty, arkusz kalkulacyjny i pracownik biurowy. Dzięki technikom analizy danych możemy ocenić i sklasyfikować klientów pod względem ryzyka biznesowego, a także przewidzieć ich zachowania, w szczególnym przypadku narażenia nas na straty finansowe. Model prognostyczny/klasyfikacyjny budujemy w oparciu o istniejące dane, testujemy jego jakość prognozy/klasyfikacji na podstawie danych testowych. Kiedy dysponujemy już modelem możemy jego użycie wbudować w nasze produkcyjne systemy operacyjne (np. dzięki architekturze mikro-serwisów), w szczególności w systemy samoobsługowe, klasyfikując klientów i oferując im zmienne warunki oferty. W zależności od danych jakimi dysponujemy o kliencie, model klasyfikacyjny pozwoli wybrać odpowiednie działania handlowe/windykacyjne. System następnie podejmie zautomatyzowane działania. Zastosowanie rozwiązań BI/Big Data ewoluuje, nie mówimy już tylko o pozyskiwaniu i analizowaniu danych i serwowaniu ich decydentom w atrakcyjnej formie, lecz o udostępnieniu automatycznego procesu decyzyjnego na potrzeby systemów transakcyjnych. Zestaw raportów Wymaganie analityczne dotyczące BI przyjęło się tradycyjnie definiować jako zbiór raportów. To bardzo wygodne podejście ułatwia opracowanie wymagań, a także oszacowanie pracochłonności projektów wdrożenia BI i dość precyzyjnie definiuje zakres. Niemniej podejście to obarczone jest wadami. Cykl życia raportu ma zmienną długość życia. W trakcie wdrożenie lub po jego zakończeniu okazuje się, że część raportów nie jest już używanych, za to pojawiają się zapotrzebowania na nowe raporty, dla których
3 "brakuje" danych w systemie BI. Wynika to często z faktu,że model danych BI tworzony był wyłącznie w oparciu o struktury istniejące w raportach, więc przestał być aktualny. Zasadnym wydaje się więc, żeby zbiór wymagań raportowych potraktować jak jedne z dodatkowych wymagań, a nie wymagań główne czy też jedyne. Model korporacyjny danych Punktem wyjściowym do tworzenia modelów danych w BI powinien być Korporacyjny Model Danych. Model pozwalający spełnić wymagania historyczne, wymagania bieżące oraz zmiany w wymaganiach, które mogą nastąpić i które można przewidzieć w najbliższej przyszłości. Model korporacyjny powinien zostać uzupełniony o dodatkowe atrybuty wynikające z analizy metadanych systemów źródłowy i zewnętrznych źródeł danych. Powinniśmy przestać postrzegać modelu danych w kategoriach inżynierskich, a raczej postrzegać dane i ich modele w kategoriach aktywów informacyjnych. Aktywów, których przetwarzanie pozwoli uzyskać dodatkową wartość biznesową: dopasować lepiej ofertę do klienta, prognozować sprzedaż, przepływy pieniężne itd. Powinniśmy uwzględnić w modelu wartość jaką mogą wygenerować dane, uwzględnić koszt ich pozyskania i przetwarzania oraz opcjonalność/obligatoryjność ich posiadania. 2.2 Architektury referencyjne systemów BI/ Big Data W architekturach BI/Big Data za jedną z architektur referencyjnych przyjęło uważać się architekturę Lambda, której diagram funkcjonalny przedstawiono na poniższym rysunku. Warstwa Batch Źródła danych dane: przetwarzane wsadowo i strumieniowo, dane wewnętrzne i zewnętrzne przeliczania i transformacji danych w trybie wsadowy i mikro-wsadowym, dane mają wysoką jakość - są kompletne Warstwa Speed niskie opóźnienie w dostępie do danych, brak dostępu do danych historycznych mechanizmy przetwarzania zdarzeń Warstwa dostępu przekazanie danych do aplikacji analitycznych, do odbiorców z organizacji oraz spoza organizacji, eksploracja danych Rysunek 1 Architektura Lambda Źródła danych (ang. Data Source) są to systemy, z których można pozyskać dane. Mogą one dostarczać dane z organizacji oraz spoza organizacji. Dane mogą być w postaci strukturalnej lub niestrukturalnej. Warstwa Batch (ang. Batch Layer) zajmuje się przetwarzaniem danych w trybie wsadowym. Dane są pobierane z systemów źródłowych, przekształcane (czyszczone, konsolidowane, agregowane) i przekazywane do warstwy udostępniającej dane. Operacje te są wykonywane przez oddzielne komponenty. Częstotliwość przetwarzanie zależy od wymogów biznesowych, może to być przetwarzanie raz na dzień, tydzień czy miesiąc, ale mogą to być wielokrotne przetwarzania w ciągu doby.
4 Warstwa Speed (Speed Layer) zajmuje się przetwarzaniem napływających danych w trybie ciągłym. Dane w tej warstwie są pobierane ze strumienia, przetwarzane i publikowane. Niskie opóźnienia w dostępie do danych są okupione brakiem dostępu do części danych historycznych, przez co nie wszystkie analizy są możliwe do wykonania. Warstwa udostępnia widoki do podglądu danych w czasie rzeczywistym. Warstwa dostępu (Serving Layer) zajmuje się udostępnianiem danych uzyskanych z warstw Batch oraz Speed dla: aplikacji analitycznych i aplikacji raportujących, aplikacji operacyjnych, aplikacji do Data Mining i analiz statystycznych, bezpośrednio dla analityków i programistów. Ze względu na czas przetwarzania danych w Big Data klasyfikujemy przetwarzanie jako: Rodzaj przetwarzanie Macro batch Micro batch Czas przetwarzania 15 min < t 2 min < t =< 15 min Near Real Time Decision Support 2 s < t =< 2 min Near Real Time Event Processing 50 ms < t =< 2 s Real Time 0 s < t =< 50 ms 2.3 Kadry Wdrożenie i obsługa BI wymaga specjalistów o zróżnicowanych kompetencjach. Jak w całej branży IT, pozyskanie odpowiednio kompetentnego i wydajnego zespołu stanowi trudność. Koszty utrzymania zespołu są znaczące. Również rotacja członków zespołu ma istotny wpływ na eksploatacje rozwiązania. Planując wdrożenie BI należy uwzględnić kwestie związane z pozyskaniem i utrzymaniem zespołu. Z względu na istotne koszty warto rozważyć: Konsolidację systemów BI do jednego rozwiązania centralnego w grupie kapitałowej. Inwestycję w narzędzia zwiększające produktywność członków zespołu: konsole administracyjne, oprogramowanie do monitorowania, zarządzania, strojenia wydajności. Zakontraktowanie usług firm zewnętrznych w zakresie rozwoju, utrzymania i gdy konieczne administracji systemem. Wykorzystanie zewnętrznej infrastruktury lub usług przetwarzania (Cloud Computing), w szczególności na etapie pilotażowym, kiedy opłacalność inwestycji nie jest jeszcze dobrze oszacowana. 2.4 Wzorce użycia BI BI samoobsługowy Historycznie BI wywodzi się z systemów wspomagania decyzji DSS z lat 70 XX wieku. Pierwotnie był to zbiór zestawień do wydruku przygotowanych przez programistów. Z czasem podejście to okazało się niewystarczające, użytkownicy z oczywistych względów potrzebowali wydajnego, wiarygodnego i w miarę aktualnego zbioru danych (Hurtowni Danych) oraz narzędzi informatycznych pozwalających im w sposób
5 samodzielny (bez udziału IT) na przygotowanie własnych zestawień i raportów. Rozwiązanie ewoluowało w stronę portalu informacyjnego, wizualizacji graficznych i KPI. Dzięki temu można było podjąć próby analizy eksploracyjnej i wykorzystania technik graficznych. Miało to również swoje złe strony, forma danych i grafika przytłoczyła treść danych, a proces decyzyjny dalej pozostał intuicyjny. BI analityczny Narzędzie statystyczne zawiera implementację wielu procedur i algorytmów badających relacje pomiędzy danymi. Znalezienie silnej i wiarygodnej relacji, prowadzi do odkrywania "prostych" reguł decyzyjnych używanych w biznesie, medycynie, procesach technologicznych. Posługiwanie się narzędziami statystycznymi wymaga przygotowania teoretycznego i praktyki. Dlatego narzędzie te nie są tak popularne. Jednakże trudno przecenić ich rolę w procesie podejmowania decyzji. W odniesieniu do dużych zbiorów danych wykorzystywane są techniki eksploracji danych znane jako Data Mining. W odróżnieniu od klasycznej analizy statystycznej nie stawiamy hipotez a priori, poszukujemy wzorców i współzależności pomiędzy danymi nie przyjmując z góry żadnych założeń ani oczekiwań. Kiedy takie zależności odnajdziemy, budujemy i oceniamy modele predykcyjne/klasyfikacyjne pozwalające przewidzieć zachowania klientów, wielkości sprzedaży, awarie itp. Kiedy posiadamy już model możemy go wdrożyć i zastosować. Data mining to zagadnienie interdyscyplinarne i łączy elementy przetwarzania baz danych, statystyki i sztucznej inteligencji (AI). W technikach Data Mining akceptujemy podejście czarnej skrzynki (np. użycie wielowarstwowej sieci neuronowej, której działania nie potrafimy opisać prostym modelem). Ponieważ dla części decydentów nie jest to akceptowalne, zazwyczaj zestawia się klasyczne algorytmy klasyfikacyjne/prognostyczne np. drzewa decyzyjne z działaniem sieci neuronowych. Przy czym przeważnie modele oparte o sieci neuronowe charakteryzując się lepszą jakością prognozy/klasyfikacji. BI operacyjny BI Operacyjny to odpowiedź na potrzebę analizy aktualnych danych rejestrowanych w systemach transakcyjnych. Analizy i raporty wykorzystywane są operacyjnie z niewielkim (nieznaczącym) opóźnieniem w zbieraniu danych. BI operacyjny wykorzystywany jest w przypadku, gdy potrzebne w procesach decyzyjnych są dane krótkoterminowe, codziennie i często generowane. Często BI operacyjny zintegrowany jest ze aplikacjami transakcyjnymi. Praktyką ostatnich lat jest rekomendowanie klientom oferty produktowej na podstawie modelów klasyfikacyjnych/predykcyjnych wykonywanych przez Big Data i zintegrowanych z serwisem klienckim za pomocą architektury mikro-serwisów. 2.5 Struktury vs dane Projektując rozwiązania BI/Big Data zmuszeni jesteśmy projektować różne struktury danych. Oczywiście najważniejsze są dane, natomiast ich struktura jest cechą drugorzędną. Dobór i projekt struktury zależą od tego jakimi algorytmami i w jakich technologiach zamierzamy przetwarzać dane, to cecha charakterystyczna dla systemów BI/Big Data. 2.6 Cykle ładowania danych
6 Trend związany ze skróceniem cykli przetwarzania danych jest bardzo silny, praktycznie potrzebujemy dostępu do bieżących danych. Dążymy do przetwarzania informacji on-line. Z punktu widzenie technologii ilość informacji i skrócone czasy przetwarzania stanowią duże wyzwanie. W systemach BI ciągle dominuje przetwarzanie wsadowe, ze względu na skrócony czas przetwarzania nazywane mikro-wsadowym. W nowo budowanych systemach zasilania wykorzystuje się mechanizmy replikacji dzienników baz danych w celu ciągłego zasilania i propagacji zmian z systemów źródłowych do systemu BI. Dużo zapożyczeń wzorców projektowych pochodzi z systemów Big Data, gdzie dane napływają w sposób ciągły i są zbyt duże, żeby je składować i archiwizować. 2.7 Ładowanie danych detalicznych vs zagregowanych W trakcie budowy Hurtowni Danych i projektu jej zasilania pojawia się strategiczne pytanie: czy przechowywać dane zagregowane czy też dane detaliczne. Dane detaliczne wymagają dużych i kosztownych przestrzeni dyskowych oraz wydłużonego czas na przetwarzanie danych. Jednakże nie występuje efekt utraty informacji, możliwa jest zmiana algorytmów naliczania danych lub możliwość zaprezentowania danych w innych przekrojach analitycznych. Natomiast dane zagregowane mają mniejsze wymagania na przestrzeń dyskową i moc obliczeniową, ich przechowywanie i przetwarzanie kosztuje mniej. Agregacja danych niesie ze sobą utratę informacji i ograniczenie możliwości przetwarzania. O ile przetwarzanie danych detalicznych jest możliwe tzn. mieszczą się na dyskach a ich przetwarzanie zajmuje rozsądny czas, rekomendujemy użycie danych detalicznych. Niestety nie zawsze jest to możliwe np. w przypadku dużej ilości danych pomiarowych, generowanych z dużą częstotliwością. 2.8 Interfejsy dedykowane vs replikacja baz W procesie zasilania Hurtowni Danych najczęściej praktykuje się dwa podejścia: Replikacja bazy danych systemów źródłowych lub ich podzbiorów. Do replikacji można wykorzystać klasyczny dostęp do baz danych za pomocą interfejsów ODBC lub JDBC jak również mechanizm replikacji logów bazy danych. Budowa interfejsu dedykowanego zawierające przeliczone i przetworzone dane. Interfejs dedykowany może zostać zaimplementowany jako perspektywa bazodanowa - dane są aktualne na moment wykonania zapytania lub jako dedykowana odrębna struktura danych: tabele bazodanowe, pliki lub komunikaty w systemie kolejkowym. W przypadku odrębnych struktury wymagany jest proces, przygotowania i naliczenia danych. Proces ten jest kontrolowany z poziomu systemu źródłowego. Interfejs dedykowany jest formą "kontraktu" pomiędzy stronami, pozwala na "przerzucenie" odpowiedzialności za jakość i poprawność danych na przygotowującego interfejs. W przypadku replikacji logów bazodanowych, proces zasilania odbywa się ciągle, następują szybka propagacja zmian, a wydajność przetwarzania w systemach źródłowych nie jest naruszona. Replikacja baz danych oprócz swoich oczywistych zalet i przewagi technicznej nad interfejsami dedykowanymi może sprawiać problemy związane z restrykcjami w politykach licencyjnych producentów oprogramowania. Przykłady restrykcji w politykach licencyjnych: Dane w bazie danych są własnością firmy, struktury danych są własnością producenta oprogramowania. Pobranie danych z bazy danych przez interfejs programowy wymaga licencji.
7 2.9 Narzędzie ETL Wraz z rozwojem systemów BI i Hurtowni Danych konieczne stało się wdrożenie i wykorzystanie specjalizowanych narzędzi do ładowania i transformacji danych. Oprócz podstawowej funkcjonalności (ładowanie danych), narzędzia ETL zapewniają możliwość audytu i logowania operacji a także błędów ładowania. Dzięki temu możliwa jest diagnostyka procesu ładowania. Celem wdrożenia narzędzi ETL jest uniezależnienie się od zespołu programistów, łatwe utrzymanie i automatyczne udokumentowanie procesu przetwarzania danych oraz ułatwiona diagnostyka procesu ładowania. Czas i zasoby przeznaczone na rozwój i administracje ETL są ograniczone. W takiej sytuacji rozwiązaniem jest takie zaprojektowanie procesu ETL i dostarczenia takich narzędzi administracyjnych i diagnostycznych, żeby zmniejszyć nakład na diagnostykę i administrację systemu. Oznacza to, że należy: Zaprojektować proces ETL, żeby był powtarzalny i odwracalny w dowolnym momencie. Zaprojektować tak proces ETL, żeby jego uruchomienie pozostawało bez konsekwencji dla użytkowników pracujących na aktualnych danych prezentacyjnych. Zapewnić, żeby dane źródłowe/interfejsowe przetwarzane przez ETL nie uległy zniszczeniu. Opracować procedury weryfikacji i walidacji danych źródłowych przed ich przetwarzaniem, tak żeby użytkownik/administrator otrzymała precyzyjną informację w formie czytelnego zestawienia, które dane źródłowe i w jaki sposób trzeba poprawić. Zapewnić rozbudowaną obsługę wyjątków i mechanizmów kontrolnych sprawdzających liczby przetworzonych rekordów i sumy kontrolne na każdym etapie ładowania, zapobiegających załadowaniu nieprawidłowych danych. Zapewnić prosty interfejs uruchamiania zadań i kontrolowania zadań w harmonogramie, tak żeby mogła obsłużyć go osoba bez technicznego przygotowania. Zapewnić prosty interfejs diagnostyki przetwarzania (z możliwością wyświetlenia informacji diagnostycznej i kodów źródłowych) dla obsługi technicznej i programistów. Zapewnić aplikację dla utrzymania/edycji metadanych referencyjnych, posiadającą funkcjonalność wersjonowania danych w czasie. Zapewnić prosta i szybką ścieżkę nawigacji do komunikatów o błędach Narzędzia Data Quality i Data Cleansing Narzędzia do zapewnienia jakości danych pozwalają na ocenę jakości danych poprzez zastosowanie automatycznych predefiniowanych reguł. Możliwe jest też definiowanie własnych bardziej złożonych reguł danych. Przygotowane reguły sprawdzania danych można wykorzystać i zintegrować z procesem ETL. Integracja narzędzi Data Quality i ETL nie jest bezproblemowa. W praktyce użycie narzędzi Data Quality oznacza wysokie koszty. Alternatywą jest badanie jakości danych i implementacja reguł jakości danych przez zespół programistów zajmujących się ETL. Oprogramowanie do czyszczenia danych dotyczy najczęściej czyszczenia danych adresowych. Oprogramowanie to potrafi dopasować badany rekord danych do słowników referencyjnych korzystając z algorytmów dopasowania rozmytego (ang. fuzzy match).
8 Strategia związana z zapewnieniem jakości danych jest dość prosta, ale wymagająca w implementacji. Jakość danych należy zapewnić implementując reguły integralności i poprawności danych w systemach źródłowych, w pierwszej kolejności w bazie danych, następnie w aplikacji Metadane Metadane pełnią kluczową rolę w systemach BI. Opisują struktury Hurtowni Danych, struktury systemów źródłowych, stanowią specyfikacje warstwy semantycznej użytkownika, występują w specyfikacji struktur raportów a także zawierają informację o procesach zasilania, ich konfiguracji i przebiegu. System BI nie istnieje bez swoich metadanych. Z powodu braku akceptacji standardów wymiany metadanych między producentami oprogramowania, zarządzanie metadanymi to prawdziwy problem i w zasadzie główny czynnik kosztowy wdrożenia systemów BI. Często ze względu na istotność biznesową metadanych, tworzy się wyodrębnione systemy (tzw. systemy słownikowe) służące do centralnego zarządzania i propagacji tych danych. W istocie problem metadanych biznesowych nie dotyczy tylko BI, dotyczy całego ekosystemu informatycznego w firmie. Dokonując ewaluacji i wyboru narzędzi dla środowiska BI, oprócz ważnych elementów funkcjonalnych, zwróćmy też uwagę na niedoceniany aspekt: integrację i wymianę metadanych pomiędzy narzędziami, które kupujemy. 3 Wykorzystanie danych Kosztowne i pracochłonne pozyskiwanie danych oraz ich przetwarzanie wykonuje się w jednym zasadniczym celu: wykorzystania pozyskanych informacji w taki sposób, żeby zdobyć przewagę konkurencyjną. Przewagę informacyjna związana jest z posiadaniem informacji, którymi nie dysponuje nasza konkurencja. Dysponując nią, możemy podjąć działania, które zabezpieczą nasz udział w rynku, przychody, pozwolą na pozyskanie nowych klientów, utrzymanie starych itd. Oczywiście zbieramy dane, które w momencie ich powstania są już danymi historycznymi, bo dotyczą przeszłych zdarzeń. Jednakże analizując historię możemy opracować model prognostyczne/klasyfikacyjne, które pozwolą lepiej oszacować wartość przyszłych zdarzeń np. zużycia prądu. Przykład prognozy zostanie podany w dalszym tekście. Poniżej przedstawimy typowe scenariusze użycia BI, zaczynając od klasycznej rachunkowości, a kończąc na prognozowaniu. 3.1 Wykorzystanie BI w księgowość BI w księgowości używany jest powszechnie, w szczególności techniki OLAP związane z drążeniem danych. Interesuje nas jakie salda bądź obroty kont księgowych, składają się na pozycje sprawozdań finansowych. W przypadku kont interesuje na jakie zapis księgowe i związane z nimi zdarzenie gospodarcze składają się na obroty. Umożliwia to łatwą weryfikację sprawozdania finansowego. Wykonywane przetwarzanie danych charakteryzuje się małym obciążeniem, pracujemy na danych wstępnie zagregowanych, dane przetwarzane są w cyklach podatkowych: zamknięcie miesiąca, zamknięcie roku. Użytkownicy pracując używając gotowe, predefiniowane raporty, nie tworzą własnych zestawień.
9 3.2 Wykorzystanie BI w Kontrolingu Kontroling współpracuje z kadrą zarządzającą, jest doradcą i partnerem w zarządzaniu. Wykorzystuje dane pochodzące z ewidencji księgowej (dokumenty finansowe) jak również dane pochodzące z ewidencji pozafinansowej takiej jak: karty czasy pracy, zużycie energii, zużycie materiałów, użycie maszyn, środków transportu do celów realizacji zleceń usługowych lub produkcyjnych. Dział Kontrolingu jest "najlepszym" użytkownikiem systemu BI w organizacji. Typowe wzorce przetwarzania danych to: agregacja danych, agregacja danych narastająco, alokacje danych z użyciem kluczy podziałowych, wyliczanie średnich, odchyleń, udziału procentowych, proste formuły wyliczeniowe, a czasami również rozwiązywanie układu równań liniowych. Dane przetwarzane to najczęściej dane wyliczeniowe i szacowane. Wyniki przetwarzania bardzo często są wizualizowane za pomocą wykresów. Zestawienie i raporty nie mają stałego formatu i charakteru, przygotowywane są ad-hoc dla potrzeby analizy konkretnego zagadnienia. Narzędzia BI wspierają pracę Kontrolingu przez możliwość pozyskania aktualnych danych produkcyjnych, dowolnego ich zestawienia i prezentacji. 3.3 Wykorzystanie BI w sprzedaży Prognozowanie zużycia Precyzyjne prognozowanie zużycia pozwala na zakup energii elektrycznej na giełdzie z zastosowaniem instrumentów związanych z atrakcyjniejszymi cenami zakupu. Precyzyjna prognozy pozwalają unikać zakupów na drogim rynku SPOT. Do prognozowania zużycia wykorzystuje się analizę szeregów czasowych i wielowarstwowe sieci neuronowe. Zużycie charakteryzuje się sezonowością i trendem, jego prognozowanie nie sprawia problemu. Prognozowanie cen Motywacje do sporządzania prognozy cen są takie same jak dla prognoz zużycia. Jakość prognozy cen przy stosowaniu zbliżonych algorytmów jest niższa niż jakość prognozy zużycia. Zdecydowanie wykorzystuje się wielowarstwowe sieci neuronowe. Prognozowanie cen jest ogólnie trudne. Migracje klientów (churn) Jedną z metoda analiz danych jest przewidywanie migracji klientów (churn) poprzez odkrywanie wzorców zachowań klientów. Pozwala to działom sprzedaży z wyprzedzeniem podjąć działania, żeby zapobiec temu procesowi jak również dostosować ofertę do potrzeb klienta. Migracje klientów w Data Mining to zagadnienie klasyfikacyjne, wykorzystuje się do niego techniki: Drzew Decyzyjnych, Regresje Logistyczną i oczywiście wielowarstwowe sieci neuronowe. Często dokonuje się segmentacji klientów po to, żeby zróżnicować ich obsługę i osiągnąć lepszą rentowność. Wykorzystuje się do tego celu algorytmy analizy skupień, której celem jest pogrupowanie badanych obiektów tak żeby stopień powiązań obiektów w ramach grupy był jak największy, a jak najmniejszy z obiektami z pozostałych grup. 3.4 Wykorzystanie BI w eksploatacji
10 Systemy BI używane są do składowania danych, wizualizacji i udostępniania wyników pomiarowych dla pomiarów ciągłych wykonywanych przez systemy telemetryczne i SCADA. Przydatne są również do wyszukania anomalii w danych pomiarowych, które mogą się świadczyć o błędach pomiarów lub awariach. Wykorzystuje się też dane pomiarowe do prognozowania awarii, w trakcie działania systemu, co pozwala dyspozytorom podjąć decyzje z wyprzedzeniem i uniknąć kosztownych nieplanowanych przestojów i związanych z nimi strat finansowych. 3.5 Prognozowanie Prognozowanie popytu jest ważnym wyzwaniem dla biznesu, w tym również dla przedsiębiorstw energetycznych. Utworzenie rynku energii elektrycznej spowodowało, że jakość prognoz ma bezpośredni wpływ na wyniki finansowe przedsiębiorstw energetycznych. Prognozowanie zapotrzebowania na energię elektryczną jest związanie z budową odpowiedniego modelu. W ramach niego należy uwzględnić takie czynniki jak: dane historyczne, wahania sezonowe, czynniki atmosferyczne, zaplanowane zdarzenia np. przerwy technologiczne u kluczowych odbiorców. Podejścia do prognozowania: Metody naiwne. Metody te wykorzystują proste aproksymacje. Modele są bardzo proste w implementacji i zrozumieniu. Ich wadą mogą być duże błędy prognoz związane z brakiem uwzględnieniem istotnych czynników, Modele regresyjne. Modele oparte na regresji pozwalają przewidywać wartość zmiennych w zależności od wartości innych zmiennych. Poziom skomplikowania wpływa na skuteczność prognoz, ale jednocześnie powoduje zwiększone zapotrzebowanie na ilość danych oraz sprawia większe problemy z interpretacją wyników. Modelowanie szeregów czasowych. Modele oparte o szeregi czasowe mogą opierać się zarówno o pojedyncze jaki i o złożone wzorce sezonowości. Model te są dobrze opisane matematycznie i dają przyzwoite rezultaty. Głębokie sieci neuronowe. Jest to stosunkowo nowy sposób podejścia do prognozowania. Uzyskane prognozy są dokładne, ale podejście to wymaga dużych mocy obliczeniowych, a modele są trudne do interpretacji. Agregacja prognoz, Agregacja prognoz w uproszczeniu polega na scaleniu wyników wielu prognoz i otrzymanie lepszego wyniku niż każda z zastosowanych prognoz oddzielnie. 3.6 Przykład prognozy - zapotrzebowanie na moc KSE Szereg czasowy to sekwencja pomiarów wykonywana w równych odstępach czasu. W danych szeregu można wyodrębnić składnik systematyczny i losowy. Analizę szeregu czasowego wykonuje się w dwóch celach: wykrycie natury zjawiska: trendu i sezonowości, oraz przewidzenie przyszłych wartości szeregu czasowego. Trend opisuje ogólny kierunek rozwoju (liniowy lub nieliniowy) a sezonowość opisuje okresowe systematyczne zmiany. Sezonowość może być złożona i tak jak w przypadku zapotrzebowania na moc dotyczyć cykli dobowy, tygodniowych i rocznych. Jako przykład wybrano szereg czasowy zapotrzebowania na moc Krajowego Systemu Energetycznego w okresie lipiec dane godzinowe. Dane pochodzą z portalu Polskich Sieci Elektroenergetycznych. Wybraliśmy krótki okres tak żeby pominąć wpływ sezonowości rocznej. Wykorzystaliśmy modelowanie szeregów czasowych - metoda TBATS. Metoda ta stosowana jest do analizy szeregów czasowych o złożonej
11 sezonowości. Algorytm uwzględnia trend długookresowy i niejednorodność wariancji w czasie. Poniższe rysunki prezentują analizę otrzymanej sezonowości oraz tygodniową prognozę. Rysunek 2 Zapotrzebowanie na moc lipiec 2018 observed dane surowe, rzeczywiste level wartość po wyeliminowaniu czynników sezonowego season1 sezonowość okres dobowy (24h) season 2 sezonowość okres tygodniowy(168h) Rysunek 3 Tygodniowa prognoza zapotrzebowania na moc sierpień 2018
12 MAE RMSE MAPE MASE Training set Test set Oceniając jakość prognozy używamy następujące wskaźniki (od najprostszych): średni błąd bezwzględny MAE [MW] (ang. mean absolute error), MAPE średni bezwzględny błąd procentowy (ang. mean absolute percentage error) RMSE MASE pierwiastek błędu średniokwadratowego ( ang. root mean squared error) średni bezwzględny błąd skalowany (ang. mean absolute scaled error) złożony wskaźnik, zaprojektowany do oceny poprawności prognoz gdzie X - wartość rzeczywista, F - wartość prognozowana, t - indeks szeregu czasowego, n- liczba pomiarów. Oceniając wyniki widzimy, że średni bezwzględny błąd prognozy wynosi 3,85%. Dla porównania przy stosowaniu metod naiwnych osiągamy błędy prognozy powyżej 9%. Natomiast przy stosowaniu wielowarstwowych sieci neuronowych MAPE wynosi około 2,8%. Nie wynika to bezpośrednio z przykładu, ale im dłuższy okres prognozowany tym mniejsza jakość prognozy. Jakość prognozy wpływa istotnie na planowanie przyszłych przychodów (również ich rentowności), a także powiązane przepływy pieniężne. 4 Podsumowanie 4.1 Wyzwania i zagrożenia Branża energetyczna narażona jest na działanie czynników zewnętrznych: prawnoregulacyjnych, a także na działania podmiotów z innych sektorów gospodarki w szczególności z sektora finansowego. Właśnie w sektorze finansowym upatrywałbym zewnętrznego zagrożenia dla branży energetycznej i nie są to tylko tradycyjne zagrożenia związane z brakiem finansowania, naruszeniem płynności, dochodzą również zagrożenia związane z uwolnieniem handlu energii i obligiem sprzedaży energii a w szczególności praw majątkowych na towarowej giełdzie energii. Oznacza to groźną konkurencję, która ma większy kapitał i potrafi lepiej dokonywać transakcji. 4.2 Stan adaptacji technologii BI/Big Data Z naszych obserwacji wynik, że branża energetyczna podejmuje nieustannie działania w zakresie budowy repozytoriów danych i wdrożenia narzędzi analitycznych. Jednakże te działania nie mają jasno określonej długoterminowej perspektywy - mapy drogowej rozwoju. Być może wpływ na to ma duża fluktuacja kadr i efekt braku "pamięci organizacji". Na podstawie własnych doświadczeń wdrożeniowych postanowiliśmy przygotować zestawienie pokazujące stopień adaptacji rozwiązań BI/Big Data w branży energetycznej
13 i branży finansowej. Nie są to badania reprezentatywne, niemniej łatwo można ocenić stopień adaptacji rozwiązań na swoim własnym przykładzie. Obszar Technologia Energetyka Bankowość Przechowywanie Operational Data Store + + Data Mart + + Corporate Data Warehouse -/+ + Big Data/Hadoop - + Rozwiązania hybrydowe - - Cloud Computing - - Przetwarzanie Wsadowy ETL + + Replikacja logów -/+ + Przetwarzanie strumieniowe - + Przetwarzanie in-memory - -/+ Hierarchical Storage Management - + Wykorzystanie Raporty predefiniowane + + BI Samoobsługowy -/+ + BI Operacyjny - -/+ Analityka Analizy statystyczne -/+ + Narzędzi Data Mining i eksploracyjne - + Machine Learning, Deep Neural Networks - -/+ Legenda: + wdrożenia produkcyjne -/+ wdrożenia Proof Of Concept/pilotażowe, wdrożenia w trakcie - brak wdrożenia lub brak danych 4.3 Wnioski Przed wszystkim czeka nas zmiana nastawienie do zbiorów danych, należy je potraktować jako aktywa informacyjne (a nie jako uboczny produkt pracy systemów), zacząć je wykorzystywać i czerpać korzyści. Konieczne jest pozyskanie, utrzymanie kompetentnych analityków i wyznaczeni im precyzyjnych długoterminowych biznesowych celów związanych z wykorzystaniem BI/Big Data. Jeśli któryś z czynników należałoby podkreślić i wyróżnić to właśnie jakość Kadr. Zespoły zajmujące się analityką biznesową i systemami BI/Big Data to nie tylko administratorzy, architekci, programiści czy analitycy systemowi, to również statystycy a także matematycy - absolwenci specjalności data science. Inwestycje w kadry, a w szczególności w budowę komplementarnego, kompetentnego i doświadczonego zespołu są istotnie wyzwaniem. O ile może przekazać w outsourcing wdrożenie czy też obsługę administracyjną, to jednak utrzymanie zespołu doświadczonych analityków jest kluczowe dla rozwoju i konkurencyjności firmy. Przewaga konkurencyjna to nie jest usługa, która można zamówić u dostawcy. Model biznesowy i wynikającą z niego przewagę biznesową trzeba wypracować samemu. Narzędzia do tego istnieją od lat, wystarczy je wykorzystać.
14 5 Literatura 1. IBM Corporation (2014) "The four V's of Big Data", IBM Big Data & Analytics Hub. 2. Muan Sang, Go & Xu, Lai & De Vrieze, Paul. (2016). A reference architecture for big data systems /SKIMA Ralph Kimball, Joe Caserta "The Data Warehouse ETL Toolkit", Willey Ralph Kimball, "The Data Warehouse Toolkit 2nd ed.", Willey StatSoft (2006). Elektroniczny Podręcznik Statystyki PL, Krakow, 6. Adam Zagdański, QuantUp: "Analiza i prognozowanie szeregów czasowych o złożonej sezonowości", Rob J Hyndman, Monash Universit, "Forecasting time series with complex seasonal patterns using exponential smoothing" (2010). 8. PSE SA, raporty dobowe z pracy KSE, zapotrzebowanie na moc za lipiec 2018.
Wprowadzenie do Hurtowni Danych. Mariusz Rafało
Wprowadzenie do Hurtowni Danych Mariusz Rafało mariusz.rafalo@hotmail.com WPROWADZENIE DO HURTOWNI DANYCH Co to jest hurtownia danych? Hurtownia danych jest zbiorem danych zorientowanych tematycznie, zintegrowanych,
Szybkość instynktu i rozsądek rozumu$
Szybkość instynktu i rozsądek rozumu$ zastosowania rozwiązań BigData$ Bartosz Dudziński" Architekt IT! Już nie tylko dokumenty Ilość Szybkość Różnorodność 12 terabajtów milionów Tweet-ów tworzonych codziennie
HURTOWNIE DANYCH I BUSINESS INTELLIGENCE
BAZY DANYCH HURTOWNIE DANYCH I BUSINESS INTELLIGENCE Akademia Górniczo-Hutnicza w Krakowie Adrian Horzyk horzyk@agh.edu.pl Google: Horzyk HURTOWNIE DANYCH Hurtownia danych (Data Warehouse) to najczęściej
Jak efektywnie pozyskać, przechowywać i wykorzystywać dane
XVII Konferencja SIwE Wisła Jak efektywnie pozyskać, przechowywać i wykorzystywać dane Grzegorz Sopoliński, SOL-BIT Sp. z o.o. Wisła, 22.11.2018 Informacja o SOL-BIT Historia Finux Sp. z o.o. od 2009 SOL-BIT
Budowa systemu wspomagającego podejmowanie decyzji. Metodyka projektowo wdrożeniowa
Budowa systemu wspomagającego podejmowanie decyzji Metodyka projektowo wdrożeniowa Agenda Systemy wspomagające decyzje Business Intelligence (BI) Rodzaje systemów BI Korzyści z wdrożeń BI Zagrożenia dla
Wprowadzenie do technologii Business Intelligence i hurtowni danych
Wprowadzenie do technologii Business Intelligence i hurtowni danych 1 Plan rozdziału 2 Wprowadzenie do Business Intelligence Hurtownie danych Produkty Oracle dla Business Intelligence Business Intelligence
Maciej Oleksy Zenon Matuszyk
Maciej Oleksy Zenon Matuszyk Jest to proces związany z wytwarzaniem oprogramowania. Jest on jednym z procesów kontroli jakości oprogramowania. Weryfikacja oprogramowania - testowanie zgodności systemu
Od Expert Data Scientist do Citizen Data Scientist, czyli jak w praktyce korzystać z zaawansowanej analizy danych
Od Expert Data Scientist do Citizen Data Scientist, czyli jak w praktyce korzystać z zaawansowanej analizy danych Tomasz Demski StatSoft Polska www.statsoft.pl Analiza danych Zaawansowana analityka, data
Paweł Gołębiewski. Softmaks.pl Sp. z o.o. ul. Kraszewskiego 1 85-240 Bydgoszcz www.softmaks.pl kontakt@softmaks.pl
Paweł Gołębiewski Softmaks.pl Sp. z o.o. ul. Kraszewskiego 1 85-240 Bydgoszcz www.softmaks.pl kontakt@softmaks.pl Droga na szczyt Narzędzie Business Intelligence. Czyli kiedy podjąć decyzję o wdrożeniu?
Prezentacja firmy WYDAJNOŚĆ EFEKTYWNOŚĆ SKUTECZNOŚĆ. http://www.qbico.pl
Prezentacja firmy { WYDAJNOŚĆ EFEKTYWNOŚĆ SKUTECZNOŚĆ http://www.qbico.pl Firma ekspercka z dziedziny Business Intelligence Srebrny Partner Microsoft w obszarach Business Intelligence i Data Platform Tworzymy
Usługi analityczne budowa kostki analitycznej Część pierwsza.
Usługi analityczne budowa kostki analitycznej Część pierwsza. Wprowadzenie W wielu dziedzinach działalności człowieka analiza zebranych danych jest jednym z najważniejszych mechanizmów podejmowania decyzji.
Analityka danych w środowisku Hadoop. Piotr Czarnas, 5 czerwca 2017
Analityka danych w środowisku Hadoop Piotr Czarnas, 5 czerwca 2017 Pytania stawiane przez biznes 1 Jaka jest aktualnie sytuacja w firmie? 2 Na czym jeszcze możemy zarobić? Które procesy możemy usprawnić?
Systemy Business Intelligence w praktyce. Maciej Kiewra
Systemy Business Intelligence w praktyce Maciej Kiewra Wspólna nazwa dla grupy systemów: Hurtownia danych Pulpity menadżerskie Karty wyników Systemy budżetowe Hurtownia danych - ujednolicone repozytorium
Wprowadzenie do Hurtowni Danych. Mariusz Rafało
Wprowadzenie do Hurtowni Danych Mariusz Rafało mrafalo@sgh.waw.pl WARSTWA PREZENTACJI HURTOWNI DANYCH Wykorzystanie hurtowni danych - aspekty Analityczne zbiory danych (ADS) Zbiór danych tematycznych (Data
DLA SEKTORA INFORMATYCZNEGO W POLSCE
DLA SEKTORA INFORMATYCZNEGO W POLSCE SRK IT obejmuje kompetencje najważniejsze i specyficzne dla samego IT są: programowanie i zarządzanie systemami informatycznymi. Z rozwiązań IT korzysta się w każdej
DOKUMENT INFORMACYJNY COMARCH BUSINESS INTELLIGENCE:
DOKUMENT INFORMACYJNY COMARCH BUSINESS INTELLIGENCE: JAKIE PROBLEMY ROZWIĄZUJE BI 1 S t r o n a WSTĘP Niniejszy dokument to zbiór podstawowych problemów, z jakimi musi zmagać się przedsiębiorca, analityk,
Hurtownie danych. Wstęp. Architektura hurtowni danych. http://zajecia.jakubw.pl/hur CO TO JEST HURTOWNIA DANYCH
Wstęp. Architektura hurtowni. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/hur CO TO JEST HURTOWNIA DANYCH B. Inmon, 1996: Hurtownia to zbiór zintegrowanych, nieulotnych, ukierunkowanych
Stawiamy na specjalizację. by CSB-System AG, Geilenkirchen Version 1.1
1 Business Intelligence Jak najlepiej wykorzystać dostępne źródła informacji, czyli Business Intelligence w zarządzaniu III Konferencja i warsztaty dla branży mięsnej Potencjał rynku potencjał firmy 2
Analityka danych w środowisku Hadoop. Piotr Czarnas, 27 czerwca 2017
Analityka danych w środowisku Hadoop Piotr Czarnas, 27 czerwca 2017 Hadoop i Business Intelligence - wyzwania 1 Ładowane danych do Hadoop-a jest trudne 2 Niewielu specjalistów dostępnych na rynku Dostęp
Hurtownie danych i business intelligence. Plan na dziś : Wprowadzenie do przedmiotu
i business intelligence Paweł Skrobanek, C-3 pok. 321 pawel.skrobanek@pwr.wroc.pl Wrocław 2005-2012 Plan na dziś : 1. Wprowadzenie do przedmiotu (co będzie omawiane oraz jak będę weryfikował zdobytą wiedzę
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Opis wymagań i program szkoleń dla użytkowników i administratorów
Załącznik nr 3 do OPZ Opis wymagań i program szkoleń dla użytkowników i administratorów Spis treści Wprowadzenie...2 1. Typ i zakres szkoleń...2 2. Grupy użytkowników...2 3. Warunki ogólne szkoleń...3
Hurtownie danych w praktyce
Hurtownie danych w praktyce Fakty i mity Dr inż. Maciej Kiewra Parę słów o mnie... 8 lat pracy zawodowej z hurtowniami danych Projekty realizowane w kraju i zagranicą Certyfikaty Microsoft z Business Intelligence
HP Service Anywhere Uproszczenie zarządzania usługami IT
HP Service Anywhere Uproszczenie zarządzania usługami IT Robert Nowak Architekt rozwiązań HP Software Dlaczego Software as a Service? Najważniejsze powody za SaaS UZUPEŁNIENIE IT 2 Brak zasobów IT Ograniczone
Hadoop i Spark. Mariusz Rafało
Hadoop i Spark Mariusz Rafało mrafalo@sgh.waw.pl http://mariuszrafalo.pl WPROWADZENIE DO EKOSYSTEMU APACHE HADOOP Czym jest Hadoop Platforma służąca przetwarzaniu rozproszonemu dużych zbiorów danych. Jest
Security Master Class
Security Master Class Platforma kompleksowej analizy zdarzeń Linux Polska SIEM Radosław Żak-Brodalko Senior Solutions Architect Linux Polska sp. z o.o. Podstawowe problemy Jak pokryć lukę między technicznym
dr inż. Paweł Morawski Informatyczne wsparcie decyzji logistycznych semestr letni 2016/2017
dr inż. Paweł Morawski Informatyczne wsparcie decyzji logistycznych semestr letni 2016/2017 KONTAKT Z PROWADZĄCYM dr inż. Paweł Morawski e-mail: pmorawski@spoleczna.pl www: http://pmorawski.spoleczna.pl
VI Kongres BOUG Praktyczne aspekty wykorzystania Business Intelligence w przemyśle wydobywczym węgla kamiennego
VI Kongres BOUG Praktyczne aspekty wykorzystania Business Intelligence w przemyśle wydobywczym węgla kamiennego mgr Artur Wroński mgr inż. Przemysław Kapica 25.04.2012 Agenda: Środowisko platformy BI Użytkownicy
One Size Doesn t Fit All, czyli case study stworzenia BI dostosowanego do strategicznych, operacyjnych oraz analitycznych potrzeb
One Size Doesn t Fit All, czyli case study stworzenia BI dostosowanego do strategicznych, operacyjnych oraz analitycznych potrzeb X Kongres Business Intelligence Warszawa, 17.03.2016 Joanna Łuczak Multi-Partnerski
Agenda. O firmie. Wstęp Ksavi. Opis funkcjonalności systemu Ksavi Auditor. Podsumowanie
Agenda O firmie Wstęp Ksavi Opis funkcjonalności systemu Ksavi Auditor Podsumowanie O firmie Na rynku od 2001 roku 60 zatrudnionych pracowników Dogłębna znajomość branży Projekty informatyczne dla największych
Wykład I. Wprowadzenie do baz danych
Wykład I Wprowadzenie do baz danych Trochę historii Pierwsze znane użycie terminu baza danych miało miejsce w listopadzie w 1963 roku. W latach sześcdziesątych XX wieku został opracowany przez Charles
Krzysztof Wawrzyniak Quo vadis BS? Ożarów Mazowiecki, styczeń 2014
1 QUO VADIS.. BS? Rekomendacja D dlaczego? Mocne fundamenty to dynamiczny rozwój. Rzeczywistość wdrożeniowa. 2 Determinanty sukcesu w biznesie. strategia, zasoby (ludzie, kompetencje, procedury, technologia)
Rola analityki danych w transformacji cyfrowej firmy
Rola analityki danych w transformacji cyfrowej firmy Piotr Czarnas Querona CEO Analityka biznesowa (ang. Business Intelligence) Proces przekształcania danych w informacje, a informacji w wiedzę, która
Hurtownie danych i business intelligence. Plan na dziś : Wprowadzenie do przedmiotu
i business intelligence Paweł Skrobanek, C-3 pok. 321 pawel.skrobanek@pwr.wroc.pl Wrocław 2005-2007 Plan na dziś : 1. Wprowadzenie do przedmiotu (co będzie omawiane oraz jak będę weryfikował zdobytą wiedzę
Platforma Cognos. Agata Tyma CMMS Department Marketing & Sales Specialist atyma@aiut.com.pl. 2011 AIUT Sp. z o. o.
Platforma Cognos Agata Tyma CMMS Department Marketing & Sales Specialist atyma@aiut.com.pl Business Intelligence - Fakty Kierownicy tracą około 2 godzin dziennie na szukanie istotnych informacji. Prawie
Marcin Adamczak Jakub Gruszka MSP. Business Intelligence
Marcin Adamczak Jakub Gruszka MSP Business Intelligence Plan Prezentacji Definicja Podział Zastosowanie Wady i zalety Przykłady Historia W październiku 1958 Hans Peter Luhn pracownik działu badań w IBM
Nowoczesne aplikacje mobilne i ich rola w podnoszeniu jakości danych
Nowoczesne aplikacje mobilne i ich rola w podnoszeniu jakości danych www.ascen.pl 1 Agenda O firmie Zarządzanie jakością danych Aplikacje mobilne i ich rola w zarządzaniu jakością danych 2 O firmie Data
Typy systemów informacyjnych
Typy systemów informacyjnych Information Systems Systemy Informacyjne Operations Support Systems Systemy Wsparcia Operacyjnego Management Support Systems Systemy Wspomagania Zarzadzania Transaction Processing
Funkcje systemu infokadra
System Informacji Zarządczej - infokadra jest rozwiązaniem skierowanym dla kadry zarządzającej w obszarze administracji publicznej. Jest przyjaznym i łatwym w użyciu narzędziem analityczno-raportowym,
Procesowa specyfikacja systemów IT
Procesowa specyfikacja systemów IT BOC Group BOC Information Technologies Consulting Sp. z o.o. e-mail: boc@boc-pl.com Tel.: (+48 22) 628 00 15, 696 69 26 Fax: (+48 22) 621 66 88 BOC Management Office
Dopasowanie IT/biznes
Dopasowanie IT/biznes Dlaczego trzeba mówić o dopasowaniu IT-biznes HARVARD BUSINESS REVIEW, 2008-11-01 Dlaczego trzeba mówić o dopasowaniu IT-biznes http://ceo.cxo.pl/artykuly/51237_2/zarzadzanie.it.a.wzrost.wartosci.html
Korzyści z integracji danych klienta. Seminarium PIU Jakość danych w systemach informatycznych ZU Warszawa 25.03.2009 Przygotowała Ewa Galas
Korzyści z integracji danych klienta Seminarium PIU Jakość danych w systemach informatycznych ZU Warszawa 25.03.2009 Przygotowała Ewa Galas Definicje CDI ( Customer Data Integration) koncepcja integracji
dr inż. Paweł Morawski Informatyczne wsparcie decyzji logistycznych semestr letni 2018/2019
dr inż. Paweł Morawski Informatyczne wsparcie decyzji logistycznych semestr letni 2018/2019 KONTAKT Z PROWADZĄCYM dr inż. Paweł Morawski e-mail: pmorawski@spoleczna.pl www: http://pmorawski.spoleczna.pl
Hurtownie danych i business intelligence - wykład II. Zagadnienia do omówienia. Miejsce i rola HD w firmie
Hurtownie danych i business intelligence - wykład II Paweł Skrobanek, C-3 pok. 321 pawel.skrobanek@pwr.wroc.pl oprac. Wrocław 2005-2012 Zagadnienia do omówienia 1. Miejsce i rola w firmie 2. Przegląd architektury
Co matematyka może dać bankowi?
Co matematyka może dać bankowi? Biznes zakres pracy matematyków Pomiar i analiza miar detalicznych procesów kredytowych i ubezpieczeniowych, inicjowanie działań zapewniających poprawę efektywności i obniżenie
Narzędzia niezbędne do rozliczeń na otwartym rynku energii elektrycznej
Narzędzia niezbędne do rozliczeń na otwartym rynku energii elektrycznej 1 Wspomaganie informatyczne rozliczeń na otwartym rynku energii Narzędzia informatyczne wspomagające rozliczenia na otwartym rynku
Monitoring procesów z wykorzystaniem systemu ADONIS
Monitoring procesów z wykorzystaniem systemu ADONIS BOC Information Technologies Consulting Sp. z o.o. e-mail: boc@boc-pl.com Tel.: (+48 22) 628 00 15, 696 69 26 Fax: (+48 22) 621 66 88 BOC Management
PROCESY I TECHNOLOGIE INFORMACYJNE Dane i informacje w zarządzaniu przedsiębiorstwem
1 PROCESY I TECHNOLOGIE INFORMACYJNE Dane i informacje w zarządzaniu przedsiębiorstwem DANE I INFORMACJE 2 Planowanie przepływów jest ciągłym procesem podejmowania decyzji, które decydują o efektywnym
StatSoft profesjonalny partner w zakresie analizy danych
Analiza danych Data mining Sterowanie jakością Analityka przez Internet StatSoft profesjonalny partner w zakresie analizy danych StatSoft Polska Sp. z o.o. StatSoft Polska Sp. z o.o. ul. Kraszewskiego
Organizacyjnie. Prowadzący: dr Mariusz Rafało (hasło: BIG)
Big Data Organizacyjnie Prowadzący: dr Mariusz Rafało mrafalo@sgh.waw.pl http://mariuszrafalo.pl (hasło: BIG) Zaliczenie: Praca na zajęciach Egzamin Projekt/esej zaliczeniowy Plan zajęć # TEMATYKA ZAJĘĆ
Dopasowanie IT/biznes
Dopasowanie IT/biznes Dlaczego trzeba mówić o dopasowaniu IT-biznes HARVARD BUSINESS REVIEW, 2008-11-01 Dlaczego trzeba mówić o dopasowaniu IT-biznes http://ceo.cxo.pl/artykuly/51237_2/zarzadzanie.it.a.wzrost.wartosci.html
Opracowanie systemu monitorowania zmian cen na rynku nieruchomości
Opracowanie systemu monitorowania zmian cen na rynku nieruchomości Ogólne założenia planowanego projektu Firma planuje realizację projektu związanego z uruchomieniem usługi, która będzie polegała na monitorowaniu
Projektowanie interakcji
Projektowanie interakcji K2 User Experience www.k2.pl/ux Tytuł dokumentu: k2-projektowanie_ux-oferta.pdf Data: 21 sierpnia 2009 Przygotowany przez: Maciej Lipiec Maciej Lipiec User Experience Director
Narzędzie do pozyskiwania, analizy i prezentowania informacji.
1 Narzędzie do pozyskiwania, analizy i prezentowania informacji. 2 Gromadzenie i analiza informacji Dane od lat gromadzone w systemach informatycznych SyriuszSTD dane dziedzinowe: pośrednictwo pracy, ewidencja
Kluczowe zasoby do realizacji e-usługi Warszawa, 16 października 2012. Maciej Nikiel
2012 Zasoby wiedzy w e-projekcie. Technologie informatyczne, oprogramowanie - zdefiniowanie potrzeb, identyfikacja źródeł pozyskania. Preferencje odnośnie technologii informatycznych. Maciej Nikiel Kluczowe
KSIĘGA POMOCNICZA Efektywne narzędzie do księgowania transakcji masowych
KSIĘGA POMOCNICZA Efektywne narzędzie do księgowania transakcji masowych Wstęp Przedsiębiorstwa chcące konkurować w warunkach cyfrowej rewolucji muszą przykładać dużą wagę do jakości danych i informacji
Jarosław Żeliński analityk biznesowy, projektant systemów
Czy chmura może być bezpiecznym backupem? Ryzyka systemowe i prawne. Jarosław Żeliński analityk biznesowy, projektant systemów Agenda Definicja usługi backup i cloud computing Architektura systemu z backupem
Efekt kształcenia. Ma uporządkowaną, podbudowaną teoretycznie wiedzę ogólną w zakresie algorytmów i ich złożoności obliczeniowej.
Efekty dla studiów pierwszego stopnia profil ogólnoakademicki na kierunku Informatyka w języku polskim i w języku angielskim (Computer Science) na Wydziale Matematyki i Nauk Informacyjnych, gdzie: * Odniesienie-
Narzędzia Informatyki w biznesie
Narzędzia Informatyki w biznesie Przedstawiony program specjalności obejmuje obszary wiedzy informatycznej (wraz z stosowanymi w nich technikami i narzędziami), które wydają się być najistotniejsze w kontekście
Model referencyjny doboru narzędzi Open Source dla zarządzania wymaganiami
Politechnika Gdańska Wydział Zarządzania i Ekonomii Katedra Zastosowań Informatyki w Zarządzaniu Zakład Zarządzania Technologiami Informatycznymi Model referencyjny Open Source dla dr hab. inż. Cezary
MATRYCA EFEKTÓW KSZTAŁCENIA
ZAŁĄCZNIK NR 2 MATRYCA EFEKTÓW KSZTAŁCENIA Studia podyplomowe ZARZĄDZANIE FINANSAMI I MARKETING Przedmioty OPIS EFEKTÓW KSZTAŁCENIA Absolwent studiów podyplomowych - ZARZĄDZANIE FINANSAMI I MARKETING:
Informacja o firmie i oferowanych rozwiązaniach
Informacja o firmie i oferowanych rozwiązaniach Kim jesteśmy INTEGRIS Systemy IT Sp. z o.o jest jednym z najdłużej działających na polskim rynku autoryzowanych Partnerów Microsoft w zakresie rozwiązań
EXR - EASY XBRL REPORTING
1 - EASY XBRL REPORTING Program do tworzenia sprawozdań finansowych START prezentacji 2 O programie System (Easy XBRL Reporting) zaprojektowany został aby usprawnić procesy szeroko rozumianej sprawozdawczości
Bezpieczeństwo aplikacji i urządzeń mobilnych w kontekście wymagań normy ISO/IEC 27001 oraz BS 25999 doświadczenia audytora
Bezpieczeństwo aplikacji i urządzeń mobilnych w kontekście wymagań normy ISO/IEC 27001 oraz BS 25999 doświadczenia audytora Krzysztof Wertejuk audytor wiodący ISOQAR CEE Sp. z o.o. Dlaczego rozwiązania
Jakub Kisielewski. www.administracja.comarch.pl
Nowatorski punkt widzenia możliwości analitycznosprawozdawczych w ochronie zdrowia na przykładzie systemu Elektronicznej Platformy Gromadzenia, Analizy i Udostępniania zasobów cyfrowych o Zdarzeniach Medycznych
Projekt Badawczy Analiza wskaźnikowa przedsiębiorstwa współfinansowany ze środków Unii Europejskiej
Projekt Badawczy Analiza wskaźnikowa przedsiębiorstwa współfinansowany ze środków Unii Europejskiej FiM Consulting Sp. z o.o. Szymczaka 5, 01-227 Warszawa Tel.: +48 22 862 90 70 www.fim.pl Spis treści
Wykład 1 Inżynieria Oprogramowania
Wykład 1 Inżynieria Oprogramowania Wstęp do inżynierii oprogramowania. Cykle rozwoju oprogramowaniaiteracyjno-rozwojowy cykl oprogramowania Autor: Zofia Kruczkiewicz System Informacyjny =Techniczny SI
Wdrożenie technologii procesowej IBM BPM w EFL
Wdrożenie technologii procesowej IBM BPM w EFL Marcin Naliwajko Z-ca dyrektora Departamentu Technologii Dominik Lisowski Starszy Architekt Systemów IT Grupy EFL WebSphere Message Broker 2008 r. Wdrożenie
z kapitałem polskim Zatrudnienie 1 10 osób osób 2,27% osób 11,36% osób osób powyżej osób 20,45% 50,00% 13,64%
Profil uczestników badania Firma 6,8% 9,1% sektor publiczny służby mundurowe z kapitałem zagranicznym 5 z kapitałem polskim 5 13,6% banki 9,1% instytucje finansowe 4, telekomunikacja Zatrudnienie 2,2 2,2
Efekty kształcenia dla kierunku studiów INFORMATYKA, Absolwent studiów I stopnia kierunku Informatyka WIEDZA
Symbol Efekty kształcenia dla kierunku studiów INFORMATYKA, specjalność: 1) Sieciowe systemy informatyczne. 2) Bazy danych Absolwent studiów I stopnia kierunku Informatyka WIEDZA Ma wiedzę z matematyki
Zarządzanie Zapasami System informatyczny do monitorowania i planowania zapasów. Dawid Doliński
Zarządzanie Zapasami System informatyczny do monitorowania i planowania zapasów Dawid Doliński Dlaczego MonZa? Korzyści z wdrożenia» zmniejszenie wartości zapasów o 40 %*» podniesienie poziomu obsługi
A posteriori wsparcie w podejmowaniu decyzji biznesowych.
A posteriori wsparcie w podejmowaniu decyzji biznesowych. A posteriori jest programem umożliwiającym analizowanie danych gromadzonych w systemach wspomagających zarządzanie. Można go zintegrować z większością
ALLPLAN SERIA PODSTAWY BIM PRZEWODNIK ZARZĄDZANIA BIM
ALLPLAN SERIA PODSTAWY BIM PRZEWODNIK ZARZĄDZANIA BIM CZYM JEST BIM? Building Information Modeling (BIM) Building information modeling to wizualizacja procesowa, która w całym cyklu życia projektu tworzy
systemy informatyczne SIMPLE.ERP Budżetowanie dla Jednostek Administracji Publicznej
SIMPLE systemy informatyczne SIMPLE.ERP Budżetowanie dla Jednostek Administracji Publicznej SIMPLE.ERP Budżetowanie dla Jednostek Administracji Publicznej to nowoczesny system informatyczny kompleksowo
AUREA BPM Oracle. TECNA Sp. z o.o. Strona 1 z 7
AUREA BPM Oracle TECNA Sp. z o.o. Strona 1 z 7 ORACLE DATABASE System zarządzania bazą danych firmy Oracle jest jednym z najlepszych i najpopularniejszych rozwiązań tego typu na rynku. Oracle Database
Hurtownie danych. Wprowadzenie do systemów typu Business Intelligence
Hurtownie danych Wprowadzenie do systemów typu Business Intelligence Krzysztof Goczyła Teresa Zawadzka Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki Politechnika
OPIS FUNKCJONALNY PLATFORMY B2B
OPIS FUNKCJONALNY PLATFORMY B2B Moduły funkcjonalne składające się na platformę B2B 1. Moduł Zarządzanie strukturami i użytkownikami przedsiębiorstwa Moduł pomoże w zbudowaniu wirtualnych podmiotów gospodarczych,
ROZWÓJ SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PERSPEKTYWIE "PRZEMYSŁ 4.0"
ROZWÓJ SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PERSPEKTYWIE "PRZEMYSŁ 4.0" Dr inż. Andrzej KAMIŃSKI Instytut Informatyki i Gospodarki Cyfrowej Kolegium Analiz Ekonomicznych Szkoła Główna Handlowa w Warszawie
TSM TIME SLOT MANAGEMENT
TSM TIME SLOT MANAGEMENT System zarządzania zamówieniami i oknami czasowymi dostaw Spis treści O Firmie Nam zaufali Możliwości rozwiązań О produkcie Bezpieczeństwo i dostęp do informacji Problemy produkcyjne
Pulpit Prezesa narzędzie do kontroli zarządczej Prezentacja produktu Poznań Grant Thornton Frąckowiak Sp. z o.o. sp.k.
Pulpit Prezesa narzędzie do kontroli zarządczej Prezentacja produktu Poznań 2018 Grant Thornton Frąckowiak Sp. z o.o. sp.k. Pulpit Prezesa Narzędzie do kontroli zarządczej Czym jest Pulpit Prezesa? Dla
Istnieje możliwość prezentacji systemu informatycznego MonZa w siedzibie Państwa firmy.
system informatyczny wspomagający monitorowanie i planowanie zapasów w przedsiębiorstwie System informatyczny MonZa do wspomagania decyzji managerskich w obszarze zarządzania zapasami jest odpowiedzią
Baza danych to zbiór wzajemnie powiązanych ze sobą i zintegrowanych danych z pewnej dziedziny.
PI-14 01/12 Baza danych to zbiór wzajemnie powiązanych ze sobą i zintegrowanych danych z pewnej dziedziny.! Likwidacja lub znaczne ograniczenie redundancji (powtarzania się) danych! Integracja danych!
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne
Faza Określania Wymagań
Faza Określania Wymagań Celem tej fazy jest dokładne określenie wymagań klienta wobec tworzonego systemu. W tej fazie dokonywana jest zamiana celów klienta na konkretne wymagania zapewniające osiągnięcie
Portale raportowe, a narzędzia raportowe typu self- service
Portale raportowe, a narzędzia raportowe typu self- service Bartłomiej Graczyk Kierownik Projektów / Architekt rozwiązań Business Intelligence E mail: bartek@graczyk.info.pl Site: www.graczyk.info.pl Agenda
Organizacyjny aspekt projektu
Organizacyjny aspekt projektu Zarządzanie funkcjonalne Zarządzanie między funkcjonalne Osiąganie celów poprzez kierowanie bieżącymi działaniami Odpowiedzialność spoczywa na kierownikach funkcyjnych Efektywność
ZAPYTANIE OFERTOWE. Zamawiający. Przedmiot zapytania ofertowego. Wrocław, dnia 23.03.2015 r.
ZAPYTANIE OFERTOWE Wrocław, dnia 23.03.2015 r. W związku z realizacją przez Nova Telecom spółka z ograniczoną odpowiedzialnością, projektu pn.: Wdrożenie zintegrowanego systemu klasy B2B, umożliwiającego
Koszty związane z tworzeniem aplikacji on demand versus zakup gotowych rozwiązań
2012 Koszty związane z tworzeniem aplikacji on demand versus zakup gotowych rozwiązań Mateusz Kurleto NEOTERIC Wdrożenie systemu B2B Lublin, 25 października 2012 Mateusz Kurleto Od 2005 r. właściciel NEOTERIC,
Co to jest Business Intelligence?
Cykl: Cykl: Czwartki z Business Intelligence Sesja: Co Co to jest Business Intelligence? Bartłomiej Graczyk 2010-05-06 1 Prelegenci cyklu... mariusz@ssas.pl lukasz@ssas.pl grzegorz@ssas.pl bartek@ssas.pl
Dane Klienta: Inter Szyk J. Kozikowski Sp.J. ul. Narwicka 11a. 80-557 Gdańsk. www.interszyk.pl
Dane Klienta: Inter Szyk J. Kozikowski Sp.J. ul. Narwicka 11a 80-557 Gdańsk www.interszyk.pl InterSzyk jest jedną z największych hurtowni odzieżowych działających na terenie całej Polski. Poza sprzedażą
Rozdział 5: Zarządzanie testowaniem. Pytanie 1
Pytanie 1 Dlaczego niezależne testowanie jest ważne: A) Niezależne testowanie jest w zasadzie tańsze niż testowanie własnej pracy B) Niezależne testowanie jest bardziej efektywne w znajdywaniu defektów
Aurea BPM. Unikalna platforma dla zarządzania ryzykiem Warszawa, 25 lipca 2013
Aurea BPM Unikalna platforma dla zarządzania ryzykiem Warszawa, 25 lipca 2013 Agenda 1. Podstawowe informacje o Aurea BPM 2. Przykłady projektów w obszarze minimalizacji skutków zagrożeń 3. Aurea BPM dla
IBM DATASTAGE COMPETENCE CENTER
IBM DATASTAGE COMPETENCE CENTER W informacji drzemie ogromny potencjał biznesowy. Odpowiednio opisane i wykorzystane dane stanowią podstawę sprawnie funkcjonującego przedsiębiorstwa. Wykorzystując najnowocześniejsze
Zarządzanie i realizacja projektów systemu Microsoft SharePoint 2010
Zarządzanie i realizacja projektów systemu Microsoft SharePoint 2010 Geoff Evelyn Przekład: Natalia Chounlamany APN Promise Warszawa 2011 Spis treści Podziękowania......................................................
Ewolucja technik modelowania hurtowni danych
Baza wiedzy JPro Ewolucja technik modelowania hurtowni Porównanie technik modelowania hurtowni podsumowanie: Strona 1/6 Nazwa podejścia Corporate Information Factory Kimball Bus Architecture Data Vault
Strategie VIP. Opis produktu. Tworzymy strategie oparte o systemy transakcyjne wyłącznie dla Ciebie. Strategia stworzona wyłącznie dla Ciebie
Tworzymy strategie oparte o systemy transakcyjne wyłącznie dla Ciebie Strategie VIP Strategia stworzona wyłącznie dla Ciebie Codziennie sygnał inwestycyjny na adres e-mail Konsultacje ze specjalistą Opis
PDM wbudowany w Solid Edge
PDM wbudowany w Solid Edge Firma GM System Integracja Systemów Inżynierskich Sp. z o.o. została założona w 2001 roku. Zajmujemy się dostarczaniem systemów CAD/CAM/CAE/PDM. Jesteśmy jednym z największych
E-logistyka Redakcja naukowa Waldemar Wieczerzycki
E-logistyka Redakcja naukowa Waldemar Wieczerzycki E-logistyka to szerokie zastosowanie najnowszych technologii informacyjnych do wspomagania zarządzania logistycznego przedsiębiorstwem (np. produkcją,