Fragmentacja w systemach przechowywania kopii zapasowych z eliminacją duplikatów

Wielkość: px
Rozpocząć pokaz od strony:

Download "Fragmentacja w systemach przechowywania kopii zapasowych z eliminacją duplikatów"

Transkrypt

1 Fragmentacja w systemach przechowywania kopii zapasowych z eliminacją duplikatów Michał Kaczmarczyk Autoreferat rozprawy doktorskiej 1 Wprowadzenie Prawie 75% danych wytwarzanych na świecie w ciągu każdego roku to kopie(duplikaty)[13, 14]. Gdy ograniczymy nasz obszar zainteresowania wyłącznie do danych zapisywanych w systemach przechowywania kopii zapasowych, ilość nieunikalnych informacji często przekracza nawet 95%[15, 39]. Przechowywanie tych samych danych w wielu kopiach jest jedną z głównych przyczyn zainteresowania zagadnieniem deduplikacji, która w ciągu ostatnich 10 lat zdobyła ogromną popularność najpierw jako cel badań naukowych[6,20,31,33,34,36,37,39],anastępniejakokluczowyelementwielu rozwiązańkomercyjnych[1,2,3,5,7,8,10,16,24,30,32,35].wsamym tylko 2013 roku wartość rynku systemów przechowywania kopii zapasowych z eliminacją duplikatów(zwanej deduplikacją) wyniosła ponad 3 miliardy dolarów[17]. Kluczową własnością wszystkich systemów przechowywania kopii zapasowych jest docelowy czas odtworzenia danych(recovery Time Objective). Konkretna wartość tego parametru jest jednym z głównych elementów umowy zawieranej pomiędzy dostawcą systemu a klientem. Raz ustalona wydajność odczytu powinna być zapewniona przez cały czas życia systemu, jednak pojawienie się deduplikacji znacząco komplikuje to zadanie. W większości systemów z deduplikacją dane strumienia wejściowego są dzielonenamałebloki(np.:8kb).dozapisunadyskdochodziwtedy,gdy zweryfikowana zostanie unikalność danego bloku w systemie. Jeżeli blok okazuje się być kopią, to zapamiętywany jest adres poprzednio zapisanego bloku. Oczywistą konsekwencją takiego sposobu zapisu jest rosnąca fragmentacja, która powoduje znaczące wydłużenie czasu odczytu, a tym samym odzyskiwania danych z kopii zapasowych. Przedstawiana rozprawa doktorska zawiera szczegółową analizę problemu oraz propozycje algorytmów redukujących negatywny wpływ dwóch z trzech zidentyfikowanych w pracy rodzajów fragmentacji. Główna część rozprawy, zawierająca opis problemu fragmentacji i algorytm kontekstowego przepisywania bloków, oparta jest na artykule opubli-

2 kowanymwczerwcu2012roku[18].byłtojedenzpierwszychwliteraturze przedmiotu artykułów podejmujących analizę wspomnianego problemu. Oprócz definicji typów fragmentacji będącej wynikiem deduplikacji zaproponowałem w nim również rozwiązanie dla najbardziej istotnego z nich- fragmentacji pomiędzy różnymi wersjami, spowodowanej tworzeniem okresowych kopii zapasowych tego samego zbioru danych. W konsekwencji artykuł przyczynił się do powstania nowego obszaru badań[12, 19, 23, 26] obejmującego fragmentację spowodowaną deduplikacją. Jako istotne uzupełnienie powyższych badań, moja rozprawa wprowadza algorytm pamięci podręcznej z ograniczoną wiedzą przyszłą. Stanowi on rozwiązanie dla problemu wewnętrznej fragmentacji strumienia, spowodowanej przez te same bloki pojawiające się wielokrotnie w pojedynczej wersji kopii zapasowej. Wspomniany algorytm umożliwia efektywne użycie pamięci podręcznej w systemach kopii zapasowych z deduplikacją. Co istotne, zastosowany wraz z algorytmem kontekstowego przepisywania bloków, często pozwala na odtworzenie danych z szybkością odczytu danych sekwencyjnych. Szczegółowe wyniki eksperymentów oraz wpływ zastosowania obu algorytmów na systemy zapisujące dane na wielu dyskach jednocześnie znajdują się w treści rozprawy. W celu analizy własności kopii zapasowych i weryfikacji powyższych algorytmów, we współpracy z zespołem programistów firmy 9LivesData został stworzony symulator systemu przechowywania kopii zapasowych z deduplikacją. Dzięki możliwości efektywnej analizy danych zebranych od użytkowników przechowujących kopie zapasowe, umożliwił on sformułowanie istotnych wniosków dotyczących fragmentacji i jej rodzajów. Dodanie zaproponowanych przeze mnie algorytmów umożliwiło z kolei bezpośrednie porównanie z najpopularniejszymi na rynku rozwiązaniami. Implementacja wspomnianego symulatora została częściowo oparta na komercyjnym systemie NEC HYDRAstor[25], którego innowacyjna architektura została przedstawiona w artykule HYDRAstor: a Scalable Secondary Storage [6] mojego współautorstwa. Podsumowując, głównym celem rozprawy jest zaprezentowanie rozwiązania pozwalającego uniknąć redukcji wydajności odzyskiwania danych w systemach przechowywania kopii zapasowych z eliminacją duplikatów. Na jego realizację składają się: szczegółowa analiza i opis problemu fragmentacji specyficznego dla systemów przechowywania danych z deduplikacją(zwłaszcza deduplikacji w locie, jako dominującej), wykonana w oparciu o rzeczywiste dane zebrane od użytkowników; 2

3 identyfikacja wymagań i propozycje możliwych konfiguracji dla algorytmów rozwiązujących problem; algorytm kontekstowego przepisywania bloków mający na celu minimalizację wpływu fragmentacji pomiędzy wersjami kopii zapasowych na odczyt, bez pogorszenia współczynnika deduplikacji oraz wywierający jedynie minimalny wpływ na maksymalną wydajność zapisu; algorytm pamięci podręcznej z ograniczoną wiedzą przyszłą, będący rozwiązaniem znacząco poprawiającym efektywność wykorzystania pamięci oraz maskującym wewnętrzną fragmentację strumienia poprzez wykorzystanie charakterystyki systemów kopii zapasowej; weryfikacja postawionych w pracy wymagań, w tym weryfikacja wymagań wydajnościowych oparta o symulacje zapisu i odczytu rzeczywistych kopii zapasowych tworzonych przez użytkowników; analiza problemu fragmentacji i działania zaproponowanych algorytmów w kontekście odczytu pojedynczego strumienia danych z wielu dysków. W rozprawie doktorskiej przedstawiam szczegółowy opis pojęcia deduplikacji oraz systemów ją wykorzystujących. Poprzedzony jest on objaśnieniem powodów, dla których opisywane badania zostały podjęte oraz dokładną analizą problemu. Główne algorytmy opisane są w osobnych rozdziałach ukazujących wszystkie aspekty ich założeń i implementacji. Niezwykle istotną częścią pracy jest opis eksperymentów przeprowadzonych na zbiorze rzeczywistych danych zebranych od użytkowników. Eksperymenty te ukazują skalę problemu oraz weryfikują efektywność zaproponowanych rozwiązań. W końcowej części pracy zawarte zostały odniesienia do innych artykułów z dziedziny wraz z podsumowaniem oraz opisem proponowanych kierunków dalszych badań. W tym autoreferacie przedstawię główne idee oraz podsumuję wyniki mojej pracy. 2 Problemfragmentacji Rzeczywista wydajność odczytu danych osiągana przez systemy przechowywania kopii zapasowych z deduplikacją okazuje się być często niższa od tej prezentowanej przez producenta[22, 27, 28, 29, 38]. Co więcej, wydaje się ona zależeć od wielu czynników takich, jak czas zapisania danych, ich charakterystyka, a nawet wcześniejsza obecność innych danych w systemie. Głównym 3

4 Rysunek 1: Wpływ rodzajów fragmentacji na osiąganą wydajność odczytuschemat. powodem tego zjawiska są różne rodzaje fragmentacji danych spowodowane deduplikacją. Są to: fragmentacja pomiędzy różnymi wersjami- spowodowana okresowymi kopiami zapasowymi(dzienne, tygodniowe, miesięczne) tego samego zbioru danych; wewnętrzna fragmentacja strumienia - spowodowana przez te same bloki pojawiające się wielokrotnie w strumieniu danych pojedynczej kopii zapasowej; fragmentacja globalna- spowodowana przez te same bloki pojawiające się w wielu strumieniach należących do różnych kopii zapasowych(bez logicznych powiązań pomiędzy sobą). Schematyczny wpływ każdego z powyższych rodzajów fragmentacji na osiąganą wydajność odczytu został przedstawiony na Rysunku 1. W rozprawie doktorskiej przyglądam się szczegółowo dwóm kluczowym rodzajom: fragmentacji pomiędzy różnymi wersjami oraz wewnętrznej fragmentacji strumienia. 4

5 Rysunek 2: Lokalizacja danych zapisanych w kolejnych wersjach kopii zapasowych tego samego zbioru danych(deduplikacja w locie) Rysunek 3: Wpływ fragmentacji pomiędzy różnymi wersjami. Przykład odczytu bloków 1-38 z wersji 9. zapisanych przy użyciu dwóch różnych algorytmów. 5

6 2.1 Fragmentacja pomiędzy różnymi wersjami Fragmentację pomiędzy różnymi wersjami można zaobserwować jedynie w systemach z tzw. deduplikacją w locie(in-line), gdzie proces eliminacji identycznych bloków odbywa się podczas zapisu danych. Tego typu systemy dominują wśród obecnie sprzedawanych na rynku[1]. Ponieważ w tym rozwiązaniu duplikaty bloków nigdy nie są zapisywane na dysku, w rezultacie dane dotyczące ostatniego strumienia rozrzucone są pomiędzy wiele odległych od siebie lokalizacji. Ten efekt powiększa się w następstwie zapisu każdej kolejnej kopii zapasowej, gdyż coraz więcej danych jest zlokalizowanych w rosnącej liczbie starszych kopii zapasowych. Przeprowadzone przez mnie eksperymenty pokazują, że w takiej sytuacji spadek wydajności odczytu waha się od kilku do ponad 50%, zależnie od zestawu danych, jego charakterystyki i częstotliwości tworzenia kopii zapasowej. Co więcej, z każdą kolejną wersją należy spodziewać się powolnego zwiększania tego efektu. Tego rodzaju fragmentacji można uniknąć stosując tzw. deduplikację po zapisie(off-line). W tym podejściu kopia zapasowa jest zapisywana bezpośrednio, a następnie deduplikowana w tle tak, aby zachować ostatnie wystąpienie każdego bloku[21, 38]. Opisywany proces nie powoduje dodatkowej fragmentacji, jednocześnie utrzymując ostatnią kopię zapasową zapisaną sekwencyjnie na dysku(z dokładnością do bloków pojawiających się wielokrotnie w jednej wersji kopii zapasowej). Ponieważ to właśnie ostatnia kopia zapasowa jest tą, która najczęściej jest potrzebna, wspomniane podejście stanowi dobre rozwiązanie opisywanego problemu. Niestety, deduplikacja po zapisie niesie za sobą niepożądane konsekwencje, włączając w to(1) wymóg dodatkowej przestrzeni do przechowania danych przed deduplikacją oraz(2) wielokrotnie zredukowaną szybkość zapisu duplikatów w porównaniu do deduplikacji w locie[11, 20]. Ten ostatni problem pojawia się, gdyż zapisywanie danych wymaga ich przesłania poprzez sieć i fizycznego zapisania na dysk. W przypadku deduplikacji w locie wymagane jest jedynie porównanie skrótu bloku(wartości funkcji haszującej) do tych zapisanych już w systemie. To z kolei powoduje znacznie mniejsze wykorzystanie dostępnych zasobów. Aby przedstawić problem fragmentacji pomiędzy wersjami załóżmy, że pełną kopię zapasową pojedynczego systemu plików zapisujemy co tydzień do systemu z deduplikacją w locie. Zazwyczaj system plików nie zmienia się zbytnio w ciągu tygodnia i po wykonaniu drugiej kopii zapasowej wiele takich samych bloków(zazwyczaj ponad 90%) jest wykrywanych nie powodując zapisów na dysk. Efekt takiej deduplikacji jest więc następujący: pierwsza kopia zapasowa jest zapisana na dysku sekwencyjnie, a wszystkie nowe bloki pojawiające się w drugim strumieniu są umieszczane w wolnym obszarze po już zapisanych danych(rysunek 2). Taki scenariusz jest kontynuowany 6

7 przy wykonywaniu kolejnych kopii zapasowych. Czasami już po kilku z nich, bloki z ostatniego strumienia są porozrzucane po całej przestrzeni dyskowej. Powoduje to dużą liczbę zmian położenia głowicy dysku podczas odczytu i w konsekwencji bardzo niską wydajność odzyskiwania danych(rysunek 3). Niestety powyższy scenariusz jest typowy dla deduplikacji w locie i prowadzi on do największej fragmentacji najbardziej aktualnej kopii zapasowej tej, która najprawdopodobniej będzie potrzebna do odtworzenia w przypadku, gdy użytkownik utraci swoje dane. 2.2 Wewnętrzna fragmentacja strumienia Drugim rodzajem fragmentacji, który może spowodować dużą redukcję szybkości odczytu jest wewnętrzna fragmentacja strumienia. Co prawda jest ona również spowodowana poprzez deduplikację, to jednak jej zakres jest ograniczony do pojedynczej wersji konkretnej kopii zapasowej. Ta zmiana zakresu powoduje inne własności, takie jak zazwyczaj stały wpływ na wszystkie wersje kopii zapasowej, a także różnorodność systemów z deduplikacją dotkniętych problemem(także systemy z deduplikacją po zapisie). Moje symulacje pokazały, że wewnętrzna deduplikacja strumienia skutkująca wewnętrzną fragmentacją jest znacząca, gdyż 17-33% bloków w ramach pojedynczej wersji strumienia pojawiało się więcej niż jeden raz. Domyślnie bloki te są pomijane dzięki deduplikacji, zmniejszając tym samym zapotrzebowanie na cenną przestrzeń dyskową. Niestety, powoduje to utratę nawet 70% wydajności odczytu widoczną przy najbliższej próbie odzyskania danych. Kolejne analizy pokazały, że pamięć podręczna typu LRU, która jest najbardziej popularna w podobnych systemach, działa bardzo nieefektywnie w opisanym wyżej przypadku. Aby pokazać istotę problemu wewnętrznej fragmentacji strumienia wystarczy wykonać pojedynczą kopię zapasową zawierającą przeciętną liczbę bloków będących wewnętrznymi duplikatami. Ponieważ system z deduplikacją zapisze tylko jedną kopię każdego bloku, domyślna sekwencyjna struktura logicznego strumienia wejściowego nie zostanie zachowana(rysunek 4). Przy próbie odczytu spowoduje to dodatkowe zmiany położenia głowicy dysku, co w konsekwencji doprowadzi do niskiej wydajności odczytu(rysunek 4). Wewnętrzna fragmentacja strumienia powoduje więc zarówno nieefektywne użycie pamięci podręcznej, jak również obniżenie wydajności odzyskiwania danych we wszystkich systemach z deduplikacją. 7

8 Rysunek 4: Wpływ wewnętrznej fragmentacji. Przykład odczytu bloków z pierwszej wersji kopii zapasowej zapisanej przy użyciu dwóch różnych algorytmów. 8

9 3 Algorytm kontekstowego przepisywania bloków minimalizujący wpływ fragmentacji pomiędzy wersjami % szybkosci odczytu osiaganej w systemach bez deduplikacji Kopia zapasowa systemu rejestracji zgloszen deduplikacja w locie deduplikacja po zapisie Numer wersji kopii zapasowej Rysunek 5: Porównanie wpływu fragmentacji na szybkość odczytu kolejnych wersji kopii zapasowych przy deduplikacji w locie(in-line) i po zapisie(offline). Wydajność odczytu każdej wersji mierzona po zapisaniu wszystkich siedmiu przy użyciu 512MB pamięci podręcznej typu LRU. W większości przypadków po awarii przywracana jest ostatnio wykonana kopia zapasowa, gdyż zazwyczaj użytkownicy zainteresowani są posiadaniem najbardziej aktualnych danych[9]. Bazując na tej obserwacji zaprojektowałem pierwszy z algorytmów opisanych w mojej pracy doktorskiej. Eliminuje on fragmentację z ostatnio wykonanej kopii zapasowej kosztem tych utworzonych wcześniej w celu zachowania maksymalnego współczynnika deduplikacji. Przykład takiego podejścia jest widoczny na Rysunku 5. Pokazuje on wpływ fragmentacji na szybkość odczytu przy uwzględnieniu kolejnych wersji kopii zapasowej w dwóch przypadkach:(1) deduplikacji w locie z fragmentacją postępującą wraz z każdą kolejną wersją; oraz(2) deduplikacji po zapisie, która skutkuje najnowszą wersją umieszczoną w ciągłym obszarze dysku, a fragmentacją w ramach wcześniejszych wersji. Algorytm kontekstowego przepisywania bloków ma za zadanie dodać możliwość defragmentacji do systemów z deduplikacją w locie tak, aby osiągnąć efekt odczytu jak przy deduplikacji po zapisie, ale bez ponoszenia kosztów z nią związanych. W systemach z deduplikacją w locie bloki już istniejące w systemie nie są zapisywane ponownie, co skutkuje wysoką wydajnością tworzenia kopii 9

10 zapasowej. Niestety, jak wspominałem wcześniej, podejście to prowadzi do wysokiej fragmentacji, gdyż dwa bloki sąsiadujące ze sobą w strumieniu danych użytkownika mogą znaleźć się w zupełnie różnych miejscach na dysku. Aby nie dopuścić do takiego scenariusza, algorytm kontekstowego przepisywania analizuje bloki z zapisywanego strumienia użytkownika oraz ich fizyczną lokalizację w systemie. W przypadku wykrycia dużej fragmentacji, algorytm decyduje o przeniesieniu niewielkiej liczby bloków(mniej niż 5%) do nowej lokalizacji na dysku tak, aby zapewnić jak najwyższą szybkość odczytu. Ponieważ algorytm działa podczas zapisu, przenoszone bloki nie są czytane z poprzedniej lokalizacji(co mogłoby być kosztowne), a ich zawartość otrzymywana jest bezpośrednio ze strumienia użytkownika. Stare kopie tak przepisanych bloków usuwane są w tle poprzez proces oczyszczania, który jest uruchamiany okresowo. W przeciwieństwie do deduplikacji po zapisie, przepisywany jest tylko niewielki procent wszystkich bloków tych, których przeniesienie zapewni największy wzrost szybkości odczytu. Moje symulacje oparte na rzeczywistych danych od użytkowników pokazały, że przepisywanie małej ilości wybranych bloków(średnio 1,58%) redukuje tylko nieznacznie maksymalną wydajność zapisu(od 1 do 9%). Umożliwia to niemal całkowitą eliminację negatywnego wpływu fragmentacji pomiędzy wersjami dla najnowszej wersji kopii zapasowej[z 12-51% do mniej niż 7%, przy porównaniu do maksymalnej szybkości odczytu w systemie z deduplikacją osiąganej przy użyciu pamięci podręcznej typu LRU]. 4 Pamięć podręczna z ograniczoną wiedzą przyszłą redukująca wpływ wewnętrznej fragmentacji Moje badania pokazały znaczący wpływ wewnętrznych duplikatów w strumieniu na obniżenie wydajności odzyskiwania danych. Łatwo jednak zauważyć, iż wielokrotne wystąpienie tych samych danych mogłoby mieć pozytywny wpływ na szybkość odczytu. Wystarczy, aby powtarzające się dane były przechowywane w pamięci, a kolejne dostępy do nich odbywałyby się bez udziału dysku. Ta obserwacja posłużyła do stworzenia pamięci podręcznej z ograniczoną wiedzą przyszłą, ukierunkowanej na redukcję negatywnego wpływu wewnętrznej fragmentacji strumienia na odczyt danych. Idea użycia wiedzy przyszłej w celu optymalnego wykorzystania pamięci podręcznej została zaprezentowana w algorytmie Bélády iego[4]. Algorytm ten jest jednak zazwyczaj bezużyteczny, gdyż wymagana wiedza przyszła jest praktycznie nieosiągalna w większości zastosowań. W systemach służących do 10

11 przechowywania kopii zapasowych jest jednak inaczej. Strumienie są tutaj zazwyczaj bardzo duże[37], a dostęp do nich odbywa się w kolejności zapisu. Rozpoczynając odzyskiwanie danych, możemy więc poznać adresy bloków, które będą potrzebne w przyszłości[19]. Oznacza to dostęp do praktycznie nieograniczonej wiedzy dotyczącej występowania bloków w przyszłości. Wydaje się, że maksymalne wykorzystanie całej dostępnej wiedzy będzie działaniem optymalnym, jednak w rzeczywistości niesie ze sobą dodatkowe koszty. Przede wszystkim, przechowywanie informacji o potencjalnie dużym strumieniu danych zajmuje cenną pamięć, która mogłaby być użyta jako pamięć podręczna przechowująca dane użytkownika. Moje eksperymenty pokazały, iż ograniczona ilość wiedzy przyszłej jest wystarczająca do uzyskania znacznej poprawy wydajności odczytu. Dodatkowo, zaproponowane przeze mnie struktury danych pozwalają przechowywać wymaganą informację przy bardzo małym zużyciu pamięci(1,62mb na każdy 1GB wiedzy przyszłej). W moich symulacjach zastosowanie ograniczonej wiedzy przyszłej doprowadziło do wzrostu średniej szybkości odczytu o 62%- 88% w stosunku do standardowej pamięci podręcznej typu LRU. Efektywność użycia pamięci jest widoczna zwłaszcza, gdy porównamy 128MB pamięci i 2GB wiedzy przyszłej(całkowity rozmiar użytej pamięci to MB) oraz 1GB pamięci typu LRU. W tym przypadku, nawet pomimo prawie ośmiokrotnie mniejszego rozmiaru pamięci, nowy algorytm ciągle osiąga o 16% lepsze rezultaty wydajnościowe. Ponadto, okazało się, iż zaledwie 256MB pamięci i 8GB wiedzy przyszłej(całkowity rozmiar użytej pamięci to 269MB) jest często w stanie osiągnąć szybkość odczytu zbliżoną do tej osiąganej z nieograniczoną wiedzą przyszłą. Co więcej, w czterech na sześć przypadków wyniki są niemal identyczne z tymi osiągniętymi z pamięcią podręczną nieograniczonego rozmiaru. 5 Połączenie obydwu algorytmów i skalowalność rozwiązania Celem każdego z algorytmów zaprezentowanych w pracy jest zniwelowanie negatywnych skutków innego rodzaju fragmentacji. Dodatkowo, każdy z nich prezentuje zupełnie inne podejście do atakowanego problemu. Pierwszy z algorytmów zmienia położenie bloków podczas zapisu tak, aby znajdowały się możliwie blisko siebie na dysku. Drugi z kolei, nie modyfikuje danych w systemie, a jedynie poprawia efektywność pamięci podręcznej przez jej odśmiecanie przy użyciu dostępnej wiedzy przyszłej. Dzięki tak różnym podejściom możliwe staje się wspólne zastosowanie obu algorytmów w celu jednoczesnej eliminacji skutków różnych rodzajów fragmentacji. 11

12 Wyniki symulacji takiej konfiguracji pokazują wzrost wydajności odczytu napoziomieod16%do388%(średnioponad140%)wporównaniuzestandardowym systemem i pamięcią podręczną typu LRU(w obu przypadkach użyto 256MB pamięci podręcznej; przy zastosowaniu obu algorytmów użyto dodatkowo 13MB do przechowywania wiedzy przyszłej). Ponadto, algorytmy okazują się dla siebie komplementarne, gdyż efekt połączenia jest znacznie większy niż proste dodanie przyśpieszenia zapewnionego przez każdy z nich osobno(który wyniósłby średnio 99%). Co więcej, zastosowanie obu algorytmów z zaledwie 128MB pamięci podręcznej zapewnia lepsze wyniki, niż standardowy system z nieograniczoną pamięcią podręczną typu LRU. Jest to istotne, gdyż pamięć o której mowa, jest potrzebna przy odczycie każdego pojedynczego strumienia. W przypadku większej awarii może zachodzić potrzeba odczytu wielu strumieni kopii zapasowych jednocześnie. Zaprezentowane algorytmy wypadają bardzo dobrze przy założeniu jednego dysku w systemie, ale jeszcze bardziej istotne może być ich zachowanie w realnym scenariuszu użycia, gdy odczyt jednego strumienia odbywa się z wielu dysków jednocześnie. Moje eksperymenty pokazały, że w takich warunkach problem fragmentacji nabiera jeszcze większego znaczenia sprawiając, że odczyt danych jest jeszcze mniej efektywny. W tym scenariuszu oba algorytmy zastosowane razem powodują pięciokrotne zwiększenie średniej szybkości odczytu. 6 Podsumowanie Problemy związane z fragmentacją danych w systemach z deduplikacją są widoczneodkilkulat[21,22,27,28,29,38,39],jednakdługoniebyłyone przedmiotem badań. Pierwsze prace próbujące głębiej zająć się tymi problemami i zaproponować częściowe rozwiązania pojawiły się w roku 2012[18, 23, 33]. Razem z artykułami opublikowanymi później[12, 19, 26] pokazują, że temat staje się coraz bardziej interesujący nie tylko dla środowiska biznesowego, ale również naukowego. Potencjalnie ciągle wymaga on badań prowadzących do definitywnego zrozumienia problemu oraz dostarczenia elastycznego rozwiązania użytecznego z punktu widzenia istniejących systemów. Zaprezentowana rozprawa doktorska jest krokiem w tym kierunku dzięki:(1) szczegółowej analizie problemu fragmentacji z nazwaniem trzech powodów obserwowanego spowolnienia odczytu,(2) propozycji dwóch niezależnych algorytmów praktycznie eliminujących wpływ kluczowych rodzajów fragmentacji oraz(3) dostarczeniu wyników szeregu eksperymentów opartych na rzeczywistych danych pochodzących od użytkowników, pozwalających na lepsze zrozumienie procesu fragmentacji danych spowodowanego eliminacją duplikatów. 12

13 Literatura [1] R. Amatruda. Worldwide Purpose-Built Backup Appliance Forecast and 2011 Vendor Shares. International Data Corporation, April [2]L.Aronovich,R.Asher,E.Bachmat,H.Bitner,M.Hirsch,andS.T. Klein. The design of a similarity based deduplication system. In Proceedings of SYSTOR 2009: The Israeli Experimental Systems Conference, SYSTOR 09, pages 6:1 6:14, New York, NY, USA, ACM. [3] T. Asaro and H. Biggar. Data De-duplication and Disk-to-Disk Backup Systems: Technical and Business Considerations, July The Enterprise Strategy Group. [4] L. A. Belady. A study of replacement algorithms for a virtual-storage computer. IBM Syst. J., 5(2):78 101, June [5] H. Biggar. Experiencing Data De-Duplication: Improving Efficiency and Reducing Capacity Requirements, February The Enterprise Strategy Group. [6] C. Dubnicki, L. Gryz, L. Heldt, M. Kaczmarczyk, W. Kilian, P. Strzelczak, J. Szczepkowski, C. Ungureanu, and M. Welnicki. HYDRAstor: a Scalable Secondary Storage. In FAST 09: Proceedings of the 7th USE- NIX Conference on File and Storage Technologies, pages , Berkeley, CA, USA, USENIX Association. [7] EMC Avamar: Backup and recovery with global deduplication, [8] EMC Corporation: DataDomain- Deduplication Storage for Backup, Archiving and Disaster Recovery, [9] Enterprise Strategy Group Data Protection Trends. April [10] Exagrid. [11] D. Floyer. Wikibon Data De-duplication Performance Tables. Wikibon.org, May Data Deduplication Performance Tables. [12]M.Fu,D.Feng,Y.Hua,X.He,Z.Chen,W.Xia,F.Huang,andQ.Liu. Accelerating restore and garbage collection in deduplication-based backup systems via exploiting historical information. In 2014 USENIX 13

14 Annual Technical Conference(USENIX ATC 14), pages , Philadelphia, PA, June USENIX Association. [13]J.GantzandD.Reinsel.TheDigitalUniverseDecade-AreYouReady? IEEE Trans. Parallel Distrib. Syst., May Sponsored by EMC Corporation. [14]J.GantzandD.Reinsel.TheDigitalUniversein2020:BigData,Bigger Digital Shadows, and Biggest Growth in the Far East. IEEE Trans. Parallel Distrib. Syst., December Sponsored by EMC Corporation. [15] A. S. P. Group. Identifying the Hidden Risk of Data Deduplication: How the HYDRAstor Solution Proactively Solves the Problem White Paper WP , NEC Corporation of America. [16] IBM ProtecTIER Deduplication Solution. partnerworld/wps/pub/overview/hw21z. [17] IDC. Total Worldwide PBBA 4Q13 Results. International Data Corporation, March [18] M. Kaczmarczyk, M. Barczynski, W. Kilian, and C. Dubnicki. Reducing impact of data fragmentation caused by in-line deduplication. In Proceedings of the 5th Annual International Systems and Storage Conference, SYSTOR 12, pages 15:1 15:12, New York, NY, USA, ACM. [19] M. Lillibridge, K. Eshghi, and D. Bhagwat. Improving restore speed for backup systems that use inline chunk-based deduplication. In Proceedings of the 11th USENIX Conference on File and Storage Technologies, FAST 13, pages , Berkeley, CA, USA, USENIX Association. [20] M. Lillibridge, K. Eshghi, D. Bhagwat, V. Deolalikar, G. Trezis, and P. Camble. Sparse indexing: Large scale, inline deduplication using sampling and locality. In FAST 09: Proceedings of the 7th USENIX Conference on File and Storage Technologies, pages , [21] J. Livens. Deduplication and restore performance. Wikibon.org, January andrestore performance. [22] J. Livens. Defragmentation, rehydration and deduplication. AboutRestore.com, June defragmentation-rehydration-and-deduplication/. 14

15 [23]Y.J.Nam,D.Park,andD.H.C.Du. Assuringdemandedreadperformance of data deduplication storage with backup datasets. In Proceedings of the 2012 IEEE 20th International Symposium on Modeling, Analysis and Simulation of Computer and Telecommunication Systems, MASCOTS 12, pages , Washington, DC, USA, IEEE Computer Society. [24]NEC Corporation. HYDRAstor Grid Storage System, [25] NEC HYDRAstor HS Specification, [26] C.-H. Ng and P. P. C. Lee. RevDedup: A Reverse Deduplication Storage System Optimized for Reads to Latest Backups. CoRR, abs/ , [27] W. C. Preston. The Rehydration Myth. BackupCentral.com, June mr-backup-blog/247-rehydration-myth.html/. [28] W. C. Preston. Restoring deduped data in deduplication systems. SearchDataBackup.com, April [29] W. C. Preston. Solving common data deduplication system problems. SearchDataBackup.com, November [30] Quantum Corporation: DXi Deduplication Solution, [31] B. Romanski, L. Heldt, W. Kilian, K. Lichota, and C. Dubnicki. Anchordriven subchunk deduplication. In Proceedings of the 4th Annual International Conference on Systems and Storage, SYSTOR 11, pages 16:1 16:13, New York, NY, USA, ACM. [32] SEPATON Scalable Data Deduplication Solutions. 15

16 [33] K. Srinivasan, T. Bisson, G. Goodson, and K. Voruganti. idedup: latency-aware, inline data deduplication for primary storage. In Proceedings of the 10th USENIX conference on File and Storage Technologies, FAST 12, pages 24 24, Berkeley, CA, USA, USENIX Association. [34] P. Strzelczak, E. Adamczyk, U. Herman-Izycka, J. Sakowicz, L. Slusarczyk, J. Wrona, and C. Dubnicki. Concurrent deletion in a distributed content-addressable storage system with global deduplication. In Proceedings of the 11th USENIX Conference on File and Storage Technologies, FAST 13, pages , Berkeley, CA, USA, USENIX Association. [36]C.Ungureanu,A.Aranya,S.Gokhale,S.Rago,B.Atkin,A.Bohra, C. Dubnicki, and G. Calkowski. Hydrafs: A high-throughput file system for the hydrastor content-addressable storage system. In FAST 10, pages , [35] Symantec NetBackup Appliances. [37]G.Wallace,F.Douglis,H.Qian,P.Shilane,S.Smaldone,M.Chamness, and W. Hsu. Characteristics of backup workloads in production systems. In Proceedings of the 10th USENIX conference on File and Storage Technologies, FAST 12, pages 4 4, Berkeley, CA, USA, USENIX Association. [38] L. Whitehouse. Restoring deduped data. searchdatabackup.techtarget.com, August [39]B.Zhu,K.Li,andH.Patterson. Avoidingthediskbottleneckinthe Data Domain deduplication file system. In FAST 08: Proceedings of the 6th USENIX Conference on File and Storage Technologies, pages 1 14, Berkeley, CA, USA, USENIX Association. 16

HYDRAstor skalowalny system do backupu i archiwum Bezpieczna przestrzeń na dane firmowe. Michał Kaczmarczyk

HYDRAstor skalowalny system do backupu i archiwum Bezpieczna przestrzeń na dane firmowe. Michał Kaczmarczyk HYDRAstor skalowalny system do backupu i archiwum Bezpieczna przestrzeń na dane firmowe Michał Kaczmarczyk O HYDRAstor System do przechowywania danych backupowych i archiwalnych Najbardziej skalowalny

Bardziej szczegółowo

Szybki przewodnik po produkcie. EMC DataDomain

Szybki przewodnik po produkcie. EMC DataDomain Szybki przewodnik po produkcie EMC DataDomain Szybki przewodnik po produkcie EMC DataDomain OPIS ROZWIĄZANIA DataDomain to uniwersalne medium backupowe. Podczas procesu tworzenia kopii zapasowych, systemy

Bardziej szczegółowo

DLACZEGO WARTO ARCHIWIZOWAĆ DANE

DLACZEGO WARTO ARCHIWIZOWAĆ DANE DLACZEGO WARTO ARCHIWIZOWAĆ DANE INTEGRITY SOLUTIONS & EMC COMPUTER SYSTEMS 12-06-2013 INTEGRITY SOLUTIONS Projektujemy, budujemy, wspieramy i utrzymujemy środowiska pracy W Grupie Altkom jesteśmy integratorem:

Bardziej szczegółowo

Wpływ organizacji danych na rozproszony system pamięci masowej

Wpływ organizacji danych na rozproszony system pamięci masowej Wpływ organizacji danych na rozproszony system pamięci masowej Autoreferat pracy doktorskiej Leszek Gryz styczeń 2012 Wraz z rozwojem technologii informacyjnych ilość wytworzonej informacji rośnie w postępie

Bardziej szczegółowo

Architektura komputerów

Architektura komputerów Architektura komputerów Tydzień 10 Pamięć zewnętrzna Dysk magnetyczny Podstawowe urządzenie pamięci zewnętrznej. Dane zapisywane i odczytywane przy użyciu głowicy magnetycznej (cewki). Dane zapisywane

Bardziej szczegółowo

Architektura komputerów

Architektura komputerów Architektura komputerów Wykład 7 Jan Kazimirski 1 Pamięć podręczna 2 Pamięć komputera - charakterystyka Położenie Procesor rejestry, pamięć podręczna Pamięć wewnętrzna pamięć podręczna, główna Pamięć zewnętrzna

Bardziej szczegółowo

Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1

Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność obliczeń równoległych Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność Przy rozważaniu wydajności przetwarzania (obliczeń, komunikacji itp.) często pojawia się pojęcie skalowalności

Bardziej szczegółowo

Zaawansowane R&D w systemach pamięci masowej

Zaawansowane R&D w systemach pamięci masowej Zaawansowane R&D w systemach pamięci masowej Cezary Dubnicki prokurent, 9LivesData sp. z o.o. sp.k. EXPOzycja polskich firm teleinformatycznych 17/03/2011 Geneza nazwy 9LivesData Cats have 9 lives koty

Bardziej szczegółowo

StoreOnce - To więcej niż Backup2Disk

StoreOnce - To więcej niż Backup2Disk StoreOnce - To więcej niż Backup2Disk Krzysztof Jamiołkowski HP Storage Solutions Architect Bezpieczeństwo Danych Bezpieczeństwo danych to Dane podlegają wielu zagrożeniom Jakie problemy miałeś ostatnio?

Bardziej szczegółowo

Memeo Instant Backup Podręcznik Szybkiego Startu

Memeo Instant Backup Podręcznik Szybkiego Startu Wprowadzenie Memeo Instant Backup pozwala w łatwy sposób chronić dane przed zagrożeniami cyfrowego świata. Aplikacja regularnie i automatycznie tworzy kopie zapasowe ważnych plików znajdujących się na

Bardziej szczegółowo

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI

OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w

Bardziej szczegółowo

Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA

Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA Parametry wydajnościowe systemów internetowych Tomasz Rak, KIA 1 Agenda ISIROSO System internetowy (rodzaje badań, konstrukcja) Parametry wydajnościowe Testy środowiska eksperymentalnego Podsumowanie i

Bardziej szczegółowo

Cele RAID. RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków.

Cele RAID. RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków. Macierze RAID Cele RAID RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków. - zwiększenie niezawodności (odporność na awarie), - zwiększenie wydajności transmisji

Bardziej szczegółowo

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność obliczeń Dla wielu programów wydajność obliczeń można traktować jako wydajność pobierania z pamięci

Bardziej szczegółowo

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Motywacja - memory wall Krzysztof Banaś, Obliczenia wysokiej wydajności. 2 Organizacja pamięci Organizacja pamięci:

Bardziej szczegółowo

Od czego zacząć przy budowaniu środowisk wysokiej dostępności?

Od czego zacząć przy budowaniu środowisk wysokiej dostępności? Budowanie środowisk wysokiej dostępności w oparciu o nową wersję IDS 11 Artur Wroński IBM Information Management Technical Team Leader artur.wronski@pl.ibm.com Od czego zacząć przy budowaniu środowisk

Bardziej szczegółowo

SYMANTEC TO SYMANTEC TO KOPIE ZAPASOWE. ODZYSKIWANIE DANYCH.

SYMANTEC TO SYMANTEC TO KOPIE ZAPASOWE. ODZYSKIWANIE DANYCH. SYMANTEC TO KOPIE ZAPASOWE. Firma Symantec oferuje szybkie i skuteczne kompleksowe rozwiązania do ochrony danych i systemów w środowiskach wirtualnych i fizycznych. SYMANTEC TO ODZYSKIWANIE DANYCH. Wirtualizacja

Bardziej szczegółowo

Do kogo kierujemy ofertę?

Do kogo kierujemy ofertę? 3 Bezpieczeństwo Do kogo kierujemy ofertę? Utrata danych stanowi jedno z największych zagrożeń dla płynności funkcjonowania firmy. Efektywne rozwiązanie pozwalające na szybkie, bezpieczne i zautomatyzowane

Bardziej szczegółowo

adresat Odpowiedzi na zapytania wykonawców i zmiana treści siwz

adresat Odpowiedzi na zapytania wykonawców i zmiana treści siwz Europejski Fundusz Rolny na rzecz Rozwoju Obszarów Wiejskich Europa inwestująca w obszary wiejskich Instytucja Zarządzająca Programem Rozwoju Obszarów Wiejskich na lata 2007 2013 Ministerstwo Rolnictwa

Bardziej szczegółowo

Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych STORWARE.EU

Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych STORWARE.EU Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych Storware vprotect jest uznawany za najlepsze w swojej klasie, łatwe w użyciu i dostępne cenowo narzędzie do tworzenia kopii zapasowych

Bardziej szczegółowo

Pamięci masowe. ATA (Advanced Technology Attachments)

Pamięci masowe. ATA (Advanced Technology Attachments) Pamięci masowe ATA (Advanced Technology Attachments) interfejs systemowy w komputerach klasy PC i Amiga przeznaczony do komunikacji z dyskami twardymi zaproponowany w 1983 przez firmę Compaq. Używa się

Bardziej szczegółowo

Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów

Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów Niniejszy dokument pozwoli Ci znaleźć odpowiedzi na pytania związane z: ROI (zwrotem z inwestycji) TCO (całkowitym

Bardziej szczegółowo

Analiza ilościowa w przetwarzaniu równoległym

Analiza ilościowa w przetwarzaniu równoległym Komputery i Systemy Równoległe Jędrzej Ułasiewicz 1 Analiza ilościowa w przetwarzaniu równoległym 10. Analiza ilościowa w przetwarzaniu równoległym...2 10.1 Kryteria efektywności przetwarzania równoległego...2

Bardziej szczegółowo

Cele przedsięwzięcia

Cele przedsięwzięcia Określanie wymagań Cele przedsięwzięcia Klienta, np. Wzrost efektywności, spadek kosztów, rozszerzenie rynku, unikanie błędów Wykonawcy Biznesowe Techniczne Priorytety! Kontekst przedsięwzięcia Użytkownicy

Bardziej szczegółowo

System plików JFS. 1 Najważniejsze informacje. Mateusz Zakrzewski. 18 stycznia JFS to skrót od Journalled File System.

System plików JFS. 1 Najważniejsze informacje. Mateusz Zakrzewski. 18 stycznia JFS to skrót od Journalled File System. System plików JFS Mateusz Zakrzewski 18 stycznia 2004 1 Najważniejsze informacje. JFS to skrót od Journalled File System. Stworzony przez firmę IBM w 1990 roku. Jest niezawodny, dzięki księgowaniu. Zamiast

Bardziej szczegółowo

SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE

SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE WINDOWS 1 SO i SK/WIN 005 Plik wymiany Pamięć wirtualna 2 SO i SK/WIN Plik wymiany - rodzaj pamięci wirtualnej komputerów. Plik ten służy do tymczasowego przechowywania

Bardziej szczegółowo

SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE

SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE WINDOWS 1 SO i SK/WIN 006 Wydajność systemu 2 SO i SK/WIN Najprostszym sposobem na poprawienie wydajności systemu, jeżeli dysponujemy zbyt małą ilością pamięci RAM

Bardziej szczegółowo

Sposoby zwiększania efektywności systemu Windows

Sposoby zwiększania efektywności systemu Windows Grzegorz Trześniewski kl 1Tia 26.05.08r. Sposoby zwiększania efektywności systemu Windows Prof. Artur Rudnicki Uruchamiianiie ii zamykaniie Należy monitorować oprogramowanie ładowane podczas uruchamiania

Bardziej szczegółowo

Normalizacja baz danych

Normalizacja baz danych Normalizacja baz danych Definicja 1 1 Normalizacja to proces organizowania danych w bazie danych. Obejmuje to tworzenie tabel i ustanawianie relacji między tymi tabelami zgodnie z regułami zaprojektowanymi

Bardziej szczegółowo

Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource. Piotr Klimek. piko@piko.homelinux.net

Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource. Piotr Klimek. piko@piko.homelinux.net Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource Piotr Klimek piko@piko.homelinux.net Agenda Wstęp Po co to wszystko? Warstwa WWW Warstwa SQL Warstwa zasobów dyskowych Podsumowanie

Bardziej szczegółowo

Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa

Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa Współczesne organizacje muszą dbać o ochronę kluczowych danych związanych

Bardziej szczegółowo

Kopie zapasowe tak szybko, że nie poczujesz

Kopie zapasowe tak szybko, że nie poczujesz Backup plików (NAS) Kopie zapasowe tak szybko, że nie poczujesz Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems 1 Agenda NAS Klasyczny backup NAS Architektura: Avamar i backup

Bardziej szczegółowo

Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. Rodzina Backup Exec

Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. Rodzina Backup Exec Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. 1 Backup Exec- rozwiązanie uniwersalne 2 Backup Exec 2012- oprogramowanie 3 Backup Exec

Bardziej szczegółowo

Maciej Oleksy Zenon Matuszyk

Maciej Oleksy Zenon Matuszyk Maciej Oleksy Zenon Matuszyk Jest to proces związany z wytwarzaniem oprogramowania. Jest on jednym z procesów kontroli jakości oprogramowania. Weryfikacja oprogramowania - testowanie zgodności systemu

Bardziej szczegółowo

Capgemini IT T@lk. Projekt lokalnego datacenter i problemy z tym związane

Capgemini IT T@lk. Projekt lokalnego datacenter i problemy z tym związane Capgemini IT T@lk Projekt lokalnego datacenter i problemy z tym związane O mnie Krzysztof Podobiński Senior Infrastructure/ VMware Engineer 9 lat doświadczenia w IT 3 lata w Capgemini Application Support

Bardziej szczegółowo

Sortowanie zewnętrzne

Sortowanie zewnętrzne Algorytmy i struktury danych Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski Sortowanie zewnętrzne 1 Wstęp Bardzo często

Bardziej szczegółowo

8 Przygotowanie wdrożenia

8 Przygotowanie wdrożenia 1 Krok 8 Przygotowanie wdrożenia Wprowadzenie Przed rozpoczęciem wdrażania Miejskiego Programu Energetycznego administracja miejska powinna dokładnie przygotować kolejne kroki. Pierwszym jest powołanie

Bardziej szczegółowo

Acronis Backup & Recovery 10 Server for Windows, Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy

Acronis Backup & Recovery 10 Server for Windows, Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy Acronis Backup & Recovery 10 Server for Windows, Acronis Backup & Recovery 10 Workstation Instrukcja szybkiego rozpoczęcia pracy 1. Informacje na temat tego dokumentu W tym dokumencie opisano sposób instalowania

Bardziej szczegółowo

Wirtualizacja desktopów i aplikacji.

Wirtualizacja desktopów i aplikacji. Wirtualizacja desktopów i aplikacji. Praktyczne aspekty wydajnego i bezpiecznego przetwarzania danych użytkowników końcowych cross case study. Prowadzący: Tomasz Lendzion ADT Group Sp. z o.o. Bartłomiej

Bardziej szczegółowo

Macierze RAID MARCEL GAŃCZARCZYK 2TI 1

Macierze RAID MARCEL GAŃCZARCZYK 2TI 1 Macierze RAID MARCEL GAŃCZARCZYK 2TI 1 Macierze RAID (Redundant Array of Independent Disks - nadmiarowa macierz niezależnych dysków Redundant Array of Inexpensive Disks - nadmiarowa macierz niedrogich

Bardziej szczegółowo

System plików. Warstwowy model systemu plików

System plików. Warstwowy model systemu plików System plików System plików struktura danych organizująca i porządkująca zasoby pamięci masowych w SO. Struktura ta ma charakter hierarchiczny: urządzenia fizyczne strefy (partycje) woluminy (w UNIXie:

Bardziej szczegółowo

Produkty Acronis. Dariusz Cudak, Systemy Informatyczne ITXON

Produkty Acronis. Dariusz Cudak, Systemy Informatyczne ITXON Produkty Acronis Dariusz Cudak, Systemy Informatyczne ITXON Agenda 1. Krótka informacja o firmie Acronis 2. Podział produktów 3. Krótkie omówienie funkcjonalności i wybranych unikatowych cech produktów

Bardziej szczegółowo

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych? Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych? Marek Kozicki, Storage Solutions Architect, HPE 19 maja 2016 r. Przed czym powinniśmy zabezpieczyć nasze dane? Architektura sprzętowo-programowa

Bardziej szczegółowo

Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect

Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect Innowacje w przetwarzaniu danych Macierze All Flash Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect Definicja macierzy Enterprise Cechy charakterystyczne

Bardziej szczegółowo

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Analiza efektywności przetwarzania współbieżnego Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Źródła kosztów przetwarzania współbieżnego interakcje między procesami

Bardziej szczegółowo

Wartość (mld zł) i dynamika wzorstu (%) rynku IT w Polsce w latach 2004-2010 26,9 16,5% 12,2% 2004 2005 2006 2007 2008 2009 2010P

Wartość (mld zł) i dynamika wzorstu (%) rynku IT w Polsce w latach 2004-2010 26,9 16,5% 12,2% 2004 2005 2006 2007 2008 2009 2010P Polski rynek IT Wartość polskiego rynku IT w 2009 r. wg raportu PMR Rynek IT w Polsce 2010. Prognozy rozwoju na lata 2010-2014" ukształtowała się na poziomie 24,1 mld zł. Analitycy spodziewają się, iż

Bardziej szczegółowo

Podręcznik administratora systemu

Podręcznik administratora systemu Podręcznik administratora systemu Medtronic MiniMed Northridge, CA 91325 USA 800-646-4633 (800-MiniMed) 818.576.5555 www.minimed.com Przedstawiciel w Unii Europejskiej Medtronic B.V. Earl Bakkenstraat

Bardziej szczegółowo

ANALIZA SYSTEMU POMIAROWEGO (MSA)

ANALIZA SYSTEMU POMIAROWEGO (MSA) StatSoft Polska, tel. 1 484300, 601 414151, info@statsoft.pl, www.statsoft.pl ANALIZA SYSTEMU POMIAROWEGO (MSA) dr inż. Tomasz Greber, Politechnika Wrocławska, Instytut Organizacji i Zarządzania Wprowadzenie

Bardziej szczegółowo

Dostawa urządzenie do archiwizacji danych

Dostawa urządzenie do archiwizacji danych NZM.231.7.2017.DM Załącznik nr 2 do OPZ Typ Wymaganie objętościowe Ilość portów Możliwość rozbudowy Jednoczesny dostęp protokołami CIFS, NFS OST, BOOST oraz jednocześnie dla FC VTL, BOOST, OST Licencja

Bardziej szczegółowo

Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej

Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Marcin HENRYKOWSKI Nr albumu: 158069 Praca magisterska na kierunku Informatyka Archiwizacja

Bardziej szczegółowo

Pracownia internetowa w każdej szkole (edycja Jesień 2007)

Pracownia internetowa w każdej szkole (edycja Jesień 2007) Instrukcja numer D1/04_01/Z Pracownia internetowa w każdej szkole (edycja Jesień 2007) Opiekun pracowni internetowej cz. 1 (D1) Tworzenie kopii zapasowej ustawień systemowych serwera - Zadania do wykonania

Bardziej szczegółowo

Data Domain 5.6 Nowe modele Data Protection Search

Data Domain 5.6 Nowe modele Data Protection Search Data Domain 5.6 Nowe modele Data Protection Search Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems 1 Agenda Wprowadzenie do Data Domain Data Domain 2200 Data Domain 9500 Data

Bardziej szczegółowo

DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE 2.WYBÓR CHRONIONYCH PLIKÓW 3.POWRÓT DO PRZESZŁOŚCI

DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE 2.WYBÓR CHRONIONYCH PLIKÓW 3.POWRÓT DO PRZESZŁOŚCI MASZYNA CZASU DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE Zainstaluj program Genie Timeline 2012 i uruchom go. Aplikacja utworzy na Pulpicie Windows nowy folder o nazwie No-BackupZone. Jeżeli chcesz wykluczyć

Bardziej szczegółowo

Wykład I. Wprowadzenie do baz danych

Wykład I. Wprowadzenie do baz danych Wykład I Wprowadzenie do baz danych Trochę historii Pierwsze znane użycie terminu baza danych miało miejsce w listopadzie w 1963 roku. W latach sześcdziesątych XX wieku został opracowany przez Charles

Bardziej szczegółowo

Zarządzanie pamięcią w systemie operacyjnym

Zarządzanie pamięcią w systemie operacyjnym Zarządzanie pamięcią w systemie operacyjnym Cele: przydział zasobów pamięciowych wykonywanym programom, zapewnienie bezpieczeństwa wykonywanych procesów (ochrona pamięci), efektywne wykorzystanie dostępnej

Bardziej szczegółowo

System plików warstwa fizyczna

System plików warstwa fizyczna System plików warstwa fizyczna Dariusz Wawrzyniak Plan wykładu Przydział miejsca na dysku Zarządzanie wolną przestrzenią Implementacja katalogu Przechowywanie podręczne Integralność systemu plików Semantyka

Bardziej szczegółowo

System plików warstwa fizyczna

System plików warstwa fizyczna System plików warstwa fizyczna Dariusz Wawrzyniak Przydział miejsca na dysku Zarządzanie wolną przestrzenią Implementacja katalogu Przechowywanie podręczne Integralność systemu plików Semantyka spójności

Bardziej szczegółowo

System plików warstwa fizyczna

System plików warstwa fizyczna System plików warstwa fizyczna Dariusz Wawrzyniak Przydział miejsca na dysku Przydział ciągły (ang. contiguous allocation) cały plik zajmuje ciąg kolejnych bloków Przydział listowy (łańcuchowy, ang. linked

Bardziej szczegółowo

Acronis Backup & Recovery 10 Server for Windows Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy

Acronis Backup & Recovery 10 Server for Windows Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy Acronis Backup & Recovery 10 Server for Windows Acronis Backup & Recovery 10 Workstation Instrukcja szybkiego rozpoczęcia pracy 1 Informacje na temat niniejszego dokumentu W tym dokumencie opisano sposób

Bardziej szczegółowo

Jak przechowywać kopie zapasowe. przez wiele lat? Film dostępny na: Daniel Olkowski EMC Data Protection Europe EAST

Jak przechowywać kopie zapasowe. przez wiele lat? Film dostępny na:   Daniel Olkowski EMC Data Protection Europe EAST Film dostępny na: https://youtu.be/pkzjy-4pjsu Jak przechowywać kopie zapasowe przez wiele lat? Daniel Olkowski EMC Data Protection Europe EAST 1 Środowisko backupowe 2 Środowisko backupowe 3 Backup &

Bardziej szczegółowo

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność obliczeń Dla wielu programów wydajność obliczeń można traktować jako wydajność pobierania z pamięci

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Kopia zapasowa i odzyskiwanie

Kopia zapasowa i odzyskiwanie Kopia zapasowa i odzyskiwanie Podręcznik użytkownika Copyright 2007 Hewlett-Packard Development Company, L.P. Windows jest zastrzeżonym znakiem towarowym firmy Microsoft Corporation, zarejestrowanym w

Bardziej szczegółowo

Programowanie współbieżne Wykład 2. Iwona Kochańska

Programowanie współbieżne Wykład 2. Iwona Kochańska Programowanie współbieżne Wykład 2 Iwona Kochańska Miary skalowalności algorytmu równoległego Przyspieszenie Stały rozmiar danych N T(1) - czas obliczeń dla najlepszego algorytmu sekwencyjnego T(p) - czas

Bardziej szczegółowo

Tworzenie oraz przywracanie obrazu systemu Windows 7

Tworzenie oraz przywracanie obrazu systemu Windows 7 Tworzenie oraz przywracanie obrazu systemu Windows 7 Windows 7 udostępnia bardzo przydatne i ulepszone narzędzie do wykonywania kopii zapasowych plików użytkowników, a także tworzenia obrazu systemu. Backup

Bardziej szczegółowo

Czy Software-Defined Storage oznacza kres rozwiązań sprzętowych HP StoreOnce? Marek Kozicki / Mariusz Grabowski Wyzwania IT, 14 kwietnia 2015r.

Czy Software-Defined Storage oznacza kres rozwiązań sprzętowych HP StoreOnce? Marek Kozicki / Mariusz Grabowski Wyzwania IT, 14 kwietnia 2015r. Czy Software-Defined Storage oznacza kres rozwiązań sprzętowych HP StoreOnce? Marek Kozicki / Mariusz Grabowski Wyzwania IT, 14 kwietnia 2015r. Zmiany w świecie danych Jak są konsekwencje? Eksplozja danych:

Bardziej szczegółowo

Szybki przewodnik po produkcie. EMC Avamar

Szybki przewodnik po produkcie. EMC Avamar Szybki przewodnik po produkcie EMC Avamar Szybki przewodnik po produkcie EMC Avamar OPIS ROZWIĄZANIA Avamar to kompletne rozwiązanie do backupu: oprogramowanie i system (tzw. Appliance) do tworzenia kopii

Bardziej szczegółowo

Błędy procesu tworzenia oprogramowania (Badania firmy Rational Software Corporation)

Błędy procesu tworzenia oprogramowania (Badania firmy Rational Software Corporation) Błędy procesu tworzenia oprogramowania (Badania firmy Rational Software Corporation) Zarządzanie wymaganiami Ad hoc (najczęściej brak zarządzania nimi) Niejednoznaczna, nieprecyzyjna komunikacja Architektura

Bardziej szczegółowo

Jak odtworzyć maila? EMC SourceOne

Jak odtworzyć maila? EMC SourceOne Jak odtworzyć maila? EMC SourceOne Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems Copyright 2009 EMC Corporation. All rights reserved. 1 System pocztowy w liczbach 11 MB 80%

Bardziej szczegółowo

STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC

STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC WIRTUALIZACJA STACJI ROBOCZYCH W SEKTORZE MŚP Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC 1 Agenda Wspólna droga BZ WBK i EMC do chmury Zapotrzebowanie na stacje robocze w biznesie Wyzwania

Bardziej szczegółowo

Instrukcja rejestracji zgłoszeń serwisowych dla Działu Wparcia Technicznego

Instrukcja rejestracji zgłoszeń serwisowych dla Działu Wparcia Technicznego Instrukcja rejestracji zgłoszeń serwisowych dla Działu Wparcia Technicznego Podstawowym źródłem informacji kierowanym do Działu Wsparcia Technicznego zgłoszeniu serwisowym jest plik wygenerowany programem

Bardziej szczegółowo

Przyczynowa analiza rentowności na przykładzie przedsiębiorstwa z branży. półproduktów spożywczych

Przyczynowa analiza rentowności na przykładzie przedsiębiorstwa z branży. półproduktów spożywczych Roksana Kołata Dariusz Stronka Przyczynowa analiza rentowności na przykładzie przedsiębiorstwa z branży Wprowadzenie półproduktów spożywczych Dokonując analizy rentowności przedsiębiorstwa za pomocą wskaźników

Bardziej szczegółowo

Uniwersytet Zielonogórski Instytut Sterowania i Systemów Informatycznych. Algorytmy i struktury danych Laboratorium Nr 4

Uniwersytet Zielonogórski Instytut Sterowania i Systemów Informatycznych. Algorytmy i struktury danych Laboratorium Nr 4 Uniwersytet Zielonogórski Instytut Sterowania i Systemów Informatycznych Algorytmy i struktury danych Laboratorium Nr 4 Algorytmy sortowania zewnętrznego 1 Wstęp Bardzo często przy rozwiązywaniu praktycznych

Bardziej szczegółowo

RAID 1. str. 1. - w przypadku różnych szybkości cała macierz będzie pracowała z maksymalną prędkością najwolniejszego dysku

RAID 1. str. 1. - w przypadku różnych szybkości cała macierz będzie pracowała z maksymalną prędkością najwolniejszego dysku RAID 1 RAID (ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków) - polega na współpracy dwóch lub więcej dysków twardych w taki sposób, aby zapewnić dodatkowe możliwości,

Bardziej szczegółowo

Podstawy Informatyki Systemy sterowane przepływem argumentów

Podstawy Informatyki Systemy sterowane przepływem argumentów Podstawy Informatyki alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu 1 Komputer i jego architektura Taksonomia Flynna 2 Komputer i jego architektura Taksonomia Flynna Komputer Komputer

Bardziej szczegółowo

16MB - 2GB 2MB - 128MB

16MB - 2GB 2MB - 128MB FAT Wprowadzenie Historia FAT jest jednym z najstarszych spośród obecnie jeszcze używanych systemów plików. Pierwsza wersja (FAT12) powstała w 1980 roku. Wraz z wzrostem rozmiaru dysków i nowymi wymaganiami

Bardziej szczegółowo

Wprowadzenie do złożoności obliczeniowej

Wprowadzenie do złożoności obliczeniowej problemów Katedra Informatyki Politechniki Świętokrzyskiej Kielce, 16 stycznia 2007 problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów

Bardziej szczegółowo

Tivoli Storage Manager FastBack 6.1 Nowości. 2010 IBM Corporation

Tivoli Storage Manager FastBack 6.1 Nowości. 2010 IBM Corporation Tivoli Storage Manager FastBack 6.1 Nowości 2010 IBM Corporation Agenda Wyzwania i koszty związane z danymi Tivoli Storage Manager (TSM) FastBack v6.1 Tivoli Storage Manager FastBack for Workstations 1

Bardziej szczegółowo

Biuletyn techniczny. CDN OPT!MA 8.5 Wskazówki dotyczące instalacji programu. Copyright 2006 COMARCH SA

Biuletyn techniczny. CDN OPT!MA 8.5 Wskazówki dotyczące instalacji programu. Copyright 2006 COMARCH SA Biuletyn techniczny CDN OPT!MA 8.5 Wskazówki dotyczące instalacji programu Copyright 2006 COMARCH SA Spis treści 1 SPIS TREŚCI...2 2 DRIVER ODBC POWODUJĄCY BŁĄD PRZY WYKONYWANIU WYDRUKÓW REPORT WRITER

Bardziej szczegółowo

Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia

Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia Konsolidacja wysokowydajnych systemów IT Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia Mirosław Pura Sławomir Rysak Senior IT Specialist Client Technical Architect Agenda Współczesne wyzwania:

Bardziej szczegółowo

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,

Bardziej szczegółowo

Symantec Backup Exec System Recovery 7.0 Server Edition. Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni

Symantec Backup Exec System Recovery 7.0 Server Edition. Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni GŁÓWNE ZALETY Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni Firma Symantec wielokrotnie publicznie udowadniała, że dzięki oprogramowaniu Backup Exec System Recovery

Bardziej szczegółowo

Przemysław Majkut Gimnazjum N analiza efektów kształcenia na podstawie wyników egzaminów zewnętrznych

Przemysław Majkut Gimnazjum N analiza efektów kształcenia na podstawie wyników egzaminów zewnętrznych Przemysław Majkut Gimnazjum N analiza efektów kształcenia na podstawie wyników egzaminów zewnętrznych Opis szkoły Opisywane gimnazjum znajduje się w niewielkiej miejscowości, liczącej niewiele ponad tysiąc

Bardziej szczegółowo

Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu rubidowego

Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu rubidowego Prof. dr hab. Jan Mostowski Instytut Fizyki PAN Warszawa Warszawa, 15 listopada 2010 r. Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu

Bardziej szczegółowo

WHITE PAPER. Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii

WHITE PAPER. Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii WHITE PAPER Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii 1 TABLE OF CONTENTS Wstęp...3 Symulator VERITAS Cluster Server...3 Doradca VERITAS Volume Replicator...5 Próbny

Bardziej szczegółowo

Elastyczne centrum przetwarzania danych

Elastyczne centrum przetwarzania danych Elastyczne centrum przetwarzania danych Flexible Capacity Service pojemność zawsze gotowa na nowe wyzwania. Robert Rutkowski / 24 Kwiecień 2013 Agenda Wyzwania związane z finansowaniem IT Jak mieć zawsze

Bardziej szczegółowo

Profesjonalna ochrona danych z arcserve UDP

Profesjonalna ochrona danych z arcserve UDP Profesjonalna ochrona danych z arcserve UDP Kamil Staśko Product Manager, Veracomp SA Kim Jesteśmy? - ARCserve 1976 14,000 Employees $4.6BN FY13 Revenue 500 People Data management 7,300 Partners Data management

Bardziej szczegółowo

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys TSMBOX Backup Appliance Build for Recovery Speed Przemysław Jagoda Architekt Systemów Informatycznych Infonet Projekt S.A. Pamięci Masowe & Systemy Bezpieczeństwa Danych mail: p.jagoda@infonet-projekt.com.pl

Bardziej szczegółowo

Backup Premium Podręcznik Szybkiego Startu

Backup Premium Podręcznik Szybkiego Startu O programie Memeo Backup Premium pozwala w łatwy sposób chronić dane przed zagrożeniami cyfrowego świata. Memeo Backup Premium regularnie i automatycznie tworzy kopie zapasowe ważnych plików, zapobiegając

Bardziej szczegółowo

Video Recording Manager export Wizard Version 1.0. Instrukcja obsługi oprogramowania

Video Recording Manager export Wizard Version 1.0. Instrukcja obsługi oprogramowania Video Recording Manager export Wizard Version 1.0 pl Instrukcja obsługi oprogramowania Video Recording Manager export Wizard Spis treści pl 3 Spis treści 1 Wstęp 4 2 Ogólne informacje o systemie 4 3 Instalacja

Bardziej szczegółowo

Najlepsze praktyki w podejściu do rozbudowy infrastruktury Michał Stryga

Najlepsze praktyki w podejściu do rozbudowy infrastruktury Michał Stryga Najlepsze praktyki w podejściu do rozbudowy infrastruktury Michał Stryga Dlaczego STG Lab Services? Dlaczego STG Lab Services? Technologia w służbie biznesu Jakie zewnętrzne czynniki będą wpływały na twoją

Bardziej szczegółowo

Rynek ERP. dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/

Rynek ERP. dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/ Rynek ERP dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/ Rynek ERP na świecie (2013) Światowy rynek systemów ERP szacowany jest obecnie na ok. 25,4 miliarda dolarów (dane za rok 2013) wobec

Bardziej szczegółowo

Szybkość instynktu i rozsądek rozumu$

Szybkość instynktu i rozsądek rozumu$ Szybkość instynktu i rozsądek rozumu$ zastosowania rozwiązań BigData$ Bartosz Dudziński" Architekt IT! Już nie tylko dokumenty Ilość Szybkość Różnorodność 12 terabajtów milionów Tweet-ów tworzonych codziennie

Bardziej szczegółowo

Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski

Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski Dane w sieciach (i inne historie) Marcin Bieńkowski Jak przechowywać dane w sieciach (strony WWW, bazy danych, ) tak, żeby dowolne ciągi odwołań do (części) tych obiektów mogły być obsłużone małym kosztem?

Bardziej szczegółowo

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie

Bardziej szczegółowo

DATABASE SNAPSHOT GEEK DIVE. Cezary Ołtuszyk Blog: coltuszyk.wordpress.com

DATABASE SNAPSHOT GEEK DIVE. Cezary Ołtuszyk Blog: coltuszyk.wordpress.com DATABASE SNAPSHOT GEEK DIVE Cezary Ołtuszyk Blog: coltuszyk.wordpress.com Kilka słów o mnie Kierownik Działu Administracji Systemami w firmie BEST S.A. (warstwa bazodanowa i aplikacyjna) Konsultant z zakresu

Bardziej szczegółowo

Przywracanie systemu. Do czego służy Przywracanie systemu?

Przywracanie systemu. Do czego służy Przywracanie systemu? Przywracanie systemu Przywracanie systemu (ang. System restore) to komponent systemów operacyjnych Windows ME, Windows XP, Windows Vista czy Windows 7. Do czego służy Przywracanie systemu? Narzędzie Przywracanie

Bardziej szczegółowo

<Nazwa firmy> <Nazwa projektu> Specyfikacja dodatkowa. Wersja <1.0>

<Nazwa firmy> <Nazwa projektu> Specyfikacja dodatkowa. Wersja <1.0> Wersja [Uwaga: Niniejszy wzór dostarczony jest w celu użytkowania z Unified Process for EDUcation. Tekst zawarty w nawiasach kwadratowych i napisany błękitną kursywą

Bardziej szczegółowo

SYSTEMY EMC DATA DOMAIN Zabezpieczająca pamięć masowa na potrzeby kopii zapasowych i archiwów

SYSTEMY EMC DATA DOMAIN Zabezpieczająca pamięć masowa na potrzeby kopii zapasowych i archiwów SYSTEMY EMC DATA DOMAIN Zabezpieczająca pamięć masowa na potrzeby kopii zapasowych i archiwów PODSTAWOWE INFORMACJE Szybka deduplikacja przed zapisem Wydajność nawet do 31 TB/godz. Skalowalność zależna

Bardziej szczegółowo