Fragmentacja w systemach przechowywania kopii zapasowych z eliminacją duplikatów
|
|
- Bernard Kurowski
- 6 lat temu
- Przeglądów:
Transkrypt
1 Fragmentacja w systemach przechowywania kopii zapasowych z eliminacją duplikatów Michał Kaczmarczyk Autoreferat rozprawy doktorskiej 1 Wprowadzenie Prawie 75% danych wytwarzanych na świecie w ciągu każdego roku to kopie(duplikaty)[13, 14]. Gdy ograniczymy nasz obszar zainteresowania wyłącznie do danych zapisywanych w systemach przechowywania kopii zapasowych, ilość nieunikalnych informacji często przekracza nawet 95%[15, 39]. Przechowywanie tych samych danych w wielu kopiach jest jedną z głównych przyczyn zainteresowania zagadnieniem deduplikacji, która w ciągu ostatnich 10 lat zdobyła ogromną popularność najpierw jako cel badań naukowych[6,20,31,33,34,36,37,39],anastępniejakokluczowyelementwielu rozwiązańkomercyjnych[1,2,3,5,7,8,10,16,24,30,32,35].wsamym tylko 2013 roku wartość rynku systemów przechowywania kopii zapasowych z eliminacją duplikatów(zwanej deduplikacją) wyniosła ponad 3 miliardy dolarów[17]. Kluczową własnością wszystkich systemów przechowywania kopii zapasowych jest docelowy czas odtworzenia danych(recovery Time Objective). Konkretna wartość tego parametru jest jednym z głównych elementów umowy zawieranej pomiędzy dostawcą systemu a klientem. Raz ustalona wydajność odczytu powinna być zapewniona przez cały czas życia systemu, jednak pojawienie się deduplikacji znacząco komplikuje to zadanie. W większości systemów z deduplikacją dane strumienia wejściowego są dzielonenamałebloki(np.:8kb).dozapisunadyskdochodziwtedy,gdy zweryfikowana zostanie unikalność danego bloku w systemie. Jeżeli blok okazuje się być kopią, to zapamiętywany jest adres poprzednio zapisanego bloku. Oczywistą konsekwencją takiego sposobu zapisu jest rosnąca fragmentacja, która powoduje znaczące wydłużenie czasu odczytu, a tym samym odzyskiwania danych z kopii zapasowych. Przedstawiana rozprawa doktorska zawiera szczegółową analizę problemu oraz propozycje algorytmów redukujących negatywny wpływ dwóch z trzech zidentyfikowanych w pracy rodzajów fragmentacji. Główna część rozprawy, zawierająca opis problemu fragmentacji i algorytm kontekstowego przepisywania bloków, oparta jest na artykule opubli-
2 kowanymwczerwcu2012roku[18].byłtojedenzpierwszychwliteraturze przedmiotu artykułów podejmujących analizę wspomnianego problemu. Oprócz definicji typów fragmentacji będącej wynikiem deduplikacji zaproponowałem w nim również rozwiązanie dla najbardziej istotnego z nich- fragmentacji pomiędzy różnymi wersjami, spowodowanej tworzeniem okresowych kopii zapasowych tego samego zbioru danych. W konsekwencji artykuł przyczynił się do powstania nowego obszaru badań[12, 19, 23, 26] obejmującego fragmentację spowodowaną deduplikacją. Jako istotne uzupełnienie powyższych badań, moja rozprawa wprowadza algorytm pamięci podręcznej z ograniczoną wiedzą przyszłą. Stanowi on rozwiązanie dla problemu wewnętrznej fragmentacji strumienia, spowodowanej przez te same bloki pojawiające się wielokrotnie w pojedynczej wersji kopii zapasowej. Wspomniany algorytm umożliwia efektywne użycie pamięci podręcznej w systemach kopii zapasowych z deduplikacją. Co istotne, zastosowany wraz z algorytmem kontekstowego przepisywania bloków, często pozwala na odtworzenie danych z szybkością odczytu danych sekwencyjnych. Szczegółowe wyniki eksperymentów oraz wpływ zastosowania obu algorytmów na systemy zapisujące dane na wielu dyskach jednocześnie znajdują się w treści rozprawy. W celu analizy własności kopii zapasowych i weryfikacji powyższych algorytmów, we współpracy z zespołem programistów firmy 9LivesData został stworzony symulator systemu przechowywania kopii zapasowych z deduplikacją. Dzięki możliwości efektywnej analizy danych zebranych od użytkowników przechowujących kopie zapasowe, umożliwił on sformułowanie istotnych wniosków dotyczących fragmentacji i jej rodzajów. Dodanie zaproponowanych przeze mnie algorytmów umożliwiło z kolei bezpośrednie porównanie z najpopularniejszymi na rynku rozwiązaniami. Implementacja wspomnianego symulatora została częściowo oparta na komercyjnym systemie NEC HYDRAstor[25], którego innowacyjna architektura została przedstawiona w artykule HYDRAstor: a Scalable Secondary Storage [6] mojego współautorstwa. Podsumowując, głównym celem rozprawy jest zaprezentowanie rozwiązania pozwalającego uniknąć redukcji wydajności odzyskiwania danych w systemach przechowywania kopii zapasowych z eliminacją duplikatów. Na jego realizację składają się: szczegółowa analiza i opis problemu fragmentacji specyficznego dla systemów przechowywania danych z deduplikacją(zwłaszcza deduplikacji w locie, jako dominującej), wykonana w oparciu o rzeczywiste dane zebrane od użytkowników; 2
3 identyfikacja wymagań i propozycje możliwych konfiguracji dla algorytmów rozwiązujących problem; algorytm kontekstowego przepisywania bloków mający na celu minimalizację wpływu fragmentacji pomiędzy wersjami kopii zapasowych na odczyt, bez pogorszenia współczynnika deduplikacji oraz wywierający jedynie minimalny wpływ na maksymalną wydajność zapisu; algorytm pamięci podręcznej z ograniczoną wiedzą przyszłą, będący rozwiązaniem znacząco poprawiającym efektywność wykorzystania pamięci oraz maskującym wewnętrzną fragmentację strumienia poprzez wykorzystanie charakterystyki systemów kopii zapasowej; weryfikacja postawionych w pracy wymagań, w tym weryfikacja wymagań wydajnościowych oparta o symulacje zapisu i odczytu rzeczywistych kopii zapasowych tworzonych przez użytkowników; analiza problemu fragmentacji i działania zaproponowanych algorytmów w kontekście odczytu pojedynczego strumienia danych z wielu dysków. W rozprawie doktorskiej przedstawiam szczegółowy opis pojęcia deduplikacji oraz systemów ją wykorzystujących. Poprzedzony jest on objaśnieniem powodów, dla których opisywane badania zostały podjęte oraz dokładną analizą problemu. Główne algorytmy opisane są w osobnych rozdziałach ukazujących wszystkie aspekty ich założeń i implementacji. Niezwykle istotną częścią pracy jest opis eksperymentów przeprowadzonych na zbiorze rzeczywistych danych zebranych od użytkowników. Eksperymenty te ukazują skalę problemu oraz weryfikują efektywność zaproponowanych rozwiązań. W końcowej części pracy zawarte zostały odniesienia do innych artykułów z dziedziny wraz z podsumowaniem oraz opisem proponowanych kierunków dalszych badań. W tym autoreferacie przedstawię główne idee oraz podsumuję wyniki mojej pracy. 2 Problemfragmentacji Rzeczywista wydajność odczytu danych osiągana przez systemy przechowywania kopii zapasowych z deduplikacją okazuje się być często niższa od tej prezentowanej przez producenta[22, 27, 28, 29, 38]. Co więcej, wydaje się ona zależeć od wielu czynników takich, jak czas zapisania danych, ich charakterystyka, a nawet wcześniejsza obecność innych danych w systemie. Głównym 3
4 Rysunek 1: Wpływ rodzajów fragmentacji na osiąganą wydajność odczytuschemat. powodem tego zjawiska są różne rodzaje fragmentacji danych spowodowane deduplikacją. Są to: fragmentacja pomiędzy różnymi wersjami- spowodowana okresowymi kopiami zapasowymi(dzienne, tygodniowe, miesięczne) tego samego zbioru danych; wewnętrzna fragmentacja strumienia - spowodowana przez te same bloki pojawiające się wielokrotnie w strumieniu danych pojedynczej kopii zapasowej; fragmentacja globalna- spowodowana przez te same bloki pojawiające się w wielu strumieniach należących do różnych kopii zapasowych(bez logicznych powiązań pomiędzy sobą). Schematyczny wpływ każdego z powyższych rodzajów fragmentacji na osiąganą wydajność odczytu został przedstawiony na Rysunku 1. W rozprawie doktorskiej przyglądam się szczegółowo dwóm kluczowym rodzajom: fragmentacji pomiędzy różnymi wersjami oraz wewnętrznej fragmentacji strumienia. 4
5 Rysunek 2: Lokalizacja danych zapisanych w kolejnych wersjach kopii zapasowych tego samego zbioru danych(deduplikacja w locie) Rysunek 3: Wpływ fragmentacji pomiędzy różnymi wersjami. Przykład odczytu bloków 1-38 z wersji 9. zapisanych przy użyciu dwóch różnych algorytmów. 5
6 2.1 Fragmentacja pomiędzy różnymi wersjami Fragmentację pomiędzy różnymi wersjami można zaobserwować jedynie w systemach z tzw. deduplikacją w locie(in-line), gdzie proces eliminacji identycznych bloków odbywa się podczas zapisu danych. Tego typu systemy dominują wśród obecnie sprzedawanych na rynku[1]. Ponieważ w tym rozwiązaniu duplikaty bloków nigdy nie są zapisywane na dysku, w rezultacie dane dotyczące ostatniego strumienia rozrzucone są pomiędzy wiele odległych od siebie lokalizacji. Ten efekt powiększa się w następstwie zapisu każdej kolejnej kopii zapasowej, gdyż coraz więcej danych jest zlokalizowanych w rosnącej liczbie starszych kopii zapasowych. Przeprowadzone przez mnie eksperymenty pokazują, że w takiej sytuacji spadek wydajności odczytu waha się od kilku do ponad 50%, zależnie od zestawu danych, jego charakterystyki i częstotliwości tworzenia kopii zapasowej. Co więcej, z każdą kolejną wersją należy spodziewać się powolnego zwiększania tego efektu. Tego rodzaju fragmentacji można uniknąć stosując tzw. deduplikację po zapisie(off-line). W tym podejściu kopia zapasowa jest zapisywana bezpośrednio, a następnie deduplikowana w tle tak, aby zachować ostatnie wystąpienie każdego bloku[21, 38]. Opisywany proces nie powoduje dodatkowej fragmentacji, jednocześnie utrzymując ostatnią kopię zapasową zapisaną sekwencyjnie na dysku(z dokładnością do bloków pojawiających się wielokrotnie w jednej wersji kopii zapasowej). Ponieważ to właśnie ostatnia kopia zapasowa jest tą, która najczęściej jest potrzebna, wspomniane podejście stanowi dobre rozwiązanie opisywanego problemu. Niestety, deduplikacja po zapisie niesie za sobą niepożądane konsekwencje, włączając w to(1) wymóg dodatkowej przestrzeni do przechowania danych przed deduplikacją oraz(2) wielokrotnie zredukowaną szybkość zapisu duplikatów w porównaniu do deduplikacji w locie[11, 20]. Ten ostatni problem pojawia się, gdyż zapisywanie danych wymaga ich przesłania poprzez sieć i fizycznego zapisania na dysk. W przypadku deduplikacji w locie wymagane jest jedynie porównanie skrótu bloku(wartości funkcji haszującej) do tych zapisanych już w systemie. To z kolei powoduje znacznie mniejsze wykorzystanie dostępnych zasobów. Aby przedstawić problem fragmentacji pomiędzy wersjami załóżmy, że pełną kopię zapasową pojedynczego systemu plików zapisujemy co tydzień do systemu z deduplikacją w locie. Zazwyczaj system plików nie zmienia się zbytnio w ciągu tygodnia i po wykonaniu drugiej kopii zapasowej wiele takich samych bloków(zazwyczaj ponad 90%) jest wykrywanych nie powodując zapisów na dysk. Efekt takiej deduplikacji jest więc następujący: pierwsza kopia zapasowa jest zapisana na dysku sekwencyjnie, a wszystkie nowe bloki pojawiające się w drugim strumieniu są umieszczane w wolnym obszarze po już zapisanych danych(rysunek 2). Taki scenariusz jest kontynuowany 6
7 przy wykonywaniu kolejnych kopii zapasowych. Czasami już po kilku z nich, bloki z ostatniego strumienia są porozrzucane po całej przestrzeni dyskowej. Powoduje to dużą liczbę zmian położenia głowicy dysku podczas odczytu i w konsekwencji bardzo niską wydajność odzyskiwania danych(rysunek 3). Niestety powyższy scenariusz jest typowy dla deduplikacji w locie i prowadzi on do największej fragmentacji najbardziej aktualnej kopii zapasowej tej, która najprawdopodobniej będzie potrzebna do odtworzenia w przypadku, gdy użytkownik utraci swoje dane. 2.2 Wewnętrzna fragmentacja strumienia Drugim rodzajem fragmentacji, który może spowodować dużą redukcję szybkości odczytu jest wewnętrzna fragmentacja strumienia. Co prawda jest ona również spowodowana poprzez deduplikację, to jednak jej zakres jest ograniczony do pojedynczej wersji konkretnej kopii zapasowej. Ta zmiana zakresu powoduje inne własności, takie jak zazwyczaj stały wpływ na wszystkie wersje kopii zapasowej, a także różnorodność systemów z deduplikacją dotkniętych problemem(także systemy z deduplikacją po zapisie). Moje symulacje pokazały, że wewnętrzna deduplikacja strumienia skutkująca wewnętrzną fragmentacją jest znacząca, gdyż 17-33% bloków w ramach pojedynczej wersji strumienia pojawiało się więcej niż jeden raz. Domyślnie bloki te są pomijane dzięki deduplikacji, zmniejszając tym samym zapotrzebowanie na cenną przestrzeń dyskową. Niestety, powoduje to utratę nawet 70% wydajności odczytu widoczną przy najbliższej próbie odzyskania danych. Kolejne analizy pokazały, że pamięć podręczna typu LRU, która jest najbardziej popularna w podobnych systemach, działa bardzo nieefektywnie w opisanym wyżej przypadku. Aby pokazać istotę problemu wewnętrznej fragmentacji strumienia wystarczy wykonać pojedynczą kopię zapasową zawierającą przeciętną liczbę bloków będących wewnętrznymi duplikatami. Ponieważ system z deduplikacją zapisze tylko jedną kopię każdego bloku, domyślna sekwencyjna struktura logicznego strumienia wejściowego nie zostanie zachowana(rysunek 4). Przy próbie odczytu spowoduje to dodatkowe zmiany położenia głowicy dysku, co w konsekwencji doprowadzi do niskiej wydajności odczytu(rysunek 4). Wewnętrzna fragmentacja strumienia powoduje więc zarówno nieefektywne użycie pamięci podręcznej, jak również obniżenie wydajności odzyskiwania danych we wszystkich systemach z deduplikacją. 7
8 Rysunek 4: Wpływ wewnętrznej fragmentacji. Przykład odczytu bloków z pierwszej wersji kopii zapasowej zapisanej przy użyciu dwóch różnych algorytmów. 8
9 3 Algorytm kontekstowego przepisywania bloków minimalizujący wpływ fragmentacji pomiędzy wersjami % szybkosci odczytu osiaganej w systemach bez deduplikacji Kopia zapasowa systemu rejestracji zgloszen deduplikacja w locie deduplikacja po zapisie Numer wersji kopii zapasowej Rysunek 5: Porównanie wpływu fragmentacji na szybkość odczytu kolejnych wersji kopii zapasowych przy deduplikacji w locie(in-line) i po zapisie(offline). Wydajność odczytu każdej wersji mierzona po zapisaniu wszystkich siedmiu przy użyciu 512MB pamięci podręcznej typu LRU. W większości przypadków po awarii przywracana jest ostatnio wykonana kopia zapasowa, gdyż zazwyczaj użytkownicy zainteresowani są posiadaniem najbardziej aktualnych danych[9]. Bazując na tej obserwacji zaprojektowałem pierwszy z algorytmów opisanych w mojej pracy doktorskiej. Eliminuje on fragmentację z ostatnio wykonanej kopii zapasowej kosztem tych utworzonych wcześniej w celu zachowania maksymalnego współczynnika deduplikacji. Przykład takiego podejścia jest widoczny na Rysunku 5. Pokazuje on wpływ fragmentacji na szybkość odczytu przy uwzględnieniu kolejnych wersji kopii zapasowej w dwóch przypadkach:(1) deduplikacji w locie z fragmentacją postępującą wraz z każdą kolejną wersją; oraz(2) deduplikacji po zapisie, która skutkuje najnowszą wersją umieszczoną w ciągłym obszarze dysku, a fragmentacją w ramach wcześniejszych wersji. Algorytm kontekstowego przepisywania bloków ma za zadanie dodać możliwość defragmentacji do systemów z deduplikacją w locie tak, aby osiągnąć efekt odczytu jak przy deduplikacji po zapisie, ale bez ponoszenia kosztów z nią związanych. W systemach z deduplikacją w locie bloki już istniejące w systemie nie są zapisywane ponownie, co skutkuje wysoką wydajnością tworzenia kopii 9
10 zapasowej. Niestety, jak wspominałem wcześniej, podejście to prowadzi do wysokiej fragmentacji, gdyż dwa bloki sąsiadujące ze sobą w strumieniu danych użytkownika mogą znaleźć się w zupełnie różnych miejscach na dysku. Aby nie dopuścić do takiego scenariusza, algorytm kontekstowego przepisywania analizuje bloki z zapisywanego strumienia użytkownika oraz ich fizyczną lokalizację w systemie. W przypadku wykrycia dużej fragmentacji, algorytm decyduje o przeniesieniu niewielkiej liczby bloków(mniej niż 5%) do nowej lokalizacji na dysku tak, aby zapewnić jak najwyższą szybkość odczytu. Ponieważ algorytm działa podczas zapisu, przenoszone bloki nie są czytane z poprzedniej lokalizacji(co mogłoby być kosztowne), a ich zawartość otrzymywana jest bezpośrednio ze strumienia użytkownika. Stare kopie tak przepisanych bloków usuwane są w tle poprzez proces oczyszczania, który jest uruchamiany okresowo. W przeciwieństwie do deduplikacji po zapisie, przepisywany jest tylko niewielki procent wszystkich bloków tych, których przeniesienie zapewni największy wzrost szybkości odczytu. Moje symulacje oparte na rzeczywistych danych od użytkowników pokazały, że przepisywanie małej ilości wybranych bloków(średnio 1,58%) redukuje tylko nieznacznie maksymalną wydajność zapisu(od 1 do 9%). Umożliwia to niemal całkowitą eliminację negatywnego wpływu fragmentacji pomiędzy wersjami dla najnowszej wersji kopii zapasowej[z 12-51% do mniej niż 7%, przy porównaniu do maksymalnej szybkości odczytu w systemie z deduplikacją osiąganej przy użyciu pamięci podręcznej typu LRU]. 4 Pamięć podręczna z ograniczoną wiedzą przyszłą redukująca wpływ wewnętrznej fragmentacji Moje badania pokazały znaczący wpływ wewnętrznych duplikatów w strumieniu na obniżenie wydajności odzyskiwania danych. Łatwo jednak zauważyć, iż wielokrotne wystąpienie tych samych danych mogłoby mieć pozytywny wpływ na szybkość odczytu. Wystarczy, aby powtarzające się dane były przechowywane w pamięci, a kolejne dostępy do nich odbywałyby się bez udziału dysku. Ta obserwacja posłużyła do stworzenia pamięci podręcznej z ograniczoną wiedzą przyszłą, ukierunkowanej na redukcję negatywnego wpływu wewnętrznej fragmentacji strumienia na odczyt danych. Idea użycia wiedzy przyszłej w celu optymalnego wykorzystania pamięci podręcznej została zaprezentowana w algorytmie Bélády iego[4]. Algorytm ten jest jednak zazwyczaj bezużyteczny, gdyż wymagana wiedza przyszła jest praktycznie nieosiągalna w większości zastosowań. W systemach służących do 10
11 przechowywania kopii zapasowych jest jednak inaczej. Strumienie są tutaj zazwyczaj bardzo duże[37], a dostęp do nich odbywa się w kolejności zapisu. Rozpoczynając odzyskiwanie danych, możemy więc poznać adresy bloków, które będą potrzebne w przyszłości[19]. Oznacza to dostęp do praktycznie nieograniczonej wiedzy dotyczącej występowania bloków w przyszłości. Wydaje się, że maksymalne wykorzystanie całej dostępnej wiedzy będzie działaniem optymalnym, jednak w rzeczywistości niesie ze sobą dodatkowe koszty. Przede wszystkim, przechowywanie informacji o potencjalnie dużym strumieniu danych zajmuje cenną pamięć, która mogłaby być użyta jako pamięć podręczna przechowująca dane użytkownika. Moje eksperymenty pokazały, iż ograniczona ilość wiedzy przyszłej jest wystarczająca do uzyskania znacznej poprawy wydajności odczytu. Dodatkowo, zaproponowane przeze mnie struktury danych pozwalają przechowywać wymaganą informację przy bardzo małym zużyciu pamięci(1,62mb na każdy 1GB wiedzy przyszłej). W moich symulacjach zastosowanie ograniczonej wiedzy przyszłej doprowadziło do wzrostu średniej szybkości odczytu o 62%- 88% w stosunku do standardowej pamięci podręcznej typu LRU. Efektywność użycia pamięci jest widoczna zwłaszcza, gdy porównamy 128MB pamięci i 2GB wiedzy przyszłej(całkowity rozmiar użytej pamięci to MB) oraz 1GB pamięci typu LRU. W tym przypadku, nawet pomimo prawie ośmiokrotnie mniejszego rozmiaru pamięci, nowy algorytm ciągle osiąga o 16% lepsze rezultaty wydajnościowe. Ponadto, okazało się, iż zaledwie 256MB pamięci i 8GB wiedzy przyszłej(całkowity rozmiar użytej pamięci to 269MB) jest często w stanie osiągnąć szybkość odczytu zbliżoną do tej osiąganej z nieograniczoną wiedzą przyszłą. Co więcej, w czterech na sześć przypadków wyniki są niemal identyczne z tymi osiągniętymi z pamięcią podręczną nieograniczonego rozmiaru. 5 Połączenie obydwu algorytmów i skalowalność rozwiązania Celem każdego z algorytmów zaprezentowanych w pracy jest zniwelowanie negatywnych skutków innego rodzaju fragmentacji. Dodatkowo, każdy z nich prezentuje zupełnie inne podejście do atakowanego problemu. Pierwszy z algorytmów zmienia położenie bloków podczas zapisu tak, aby znajdowały się możliwie blisko siebie na dysku. Drugi z kolei, nie modyfikuje danych w systemie, a jedynie poprawia efektywność pamięci podręcznej przez jej odśmiecanie przy użyciu dostępnej wiedzy przyszłej. Dzięki tak różnym podejściom możliwe staje się wspólne zastosowanie obu algorytmów w celu jednoczesnej eliminacji skutków różnych rodzajów fragmentacji. 11
12 Wyniki symulacji takiej konfiguracji pokazują wzrost wydajności odczytu napoziomieod16%do388%(średnioponad140%)wporównaniuzestandardowym systemem i pamięcią podręczną typu LRU(w obu przypadkach użyto 256MB pamięci podręcznej; przy zastosowaniu obu algorytmów użyto dodatkowo 13MB do przechowywania wiedzy przyszłej). Ponadto, algorytmy okazują się dla siebie komplementarne, gdyż efekt połączenia jest znacznie większy niż proste dodanie przyśpieszenia zapewnionego przez każdy z nich osobno(który wyniósłby średnio 99%). Co więcej, zastosowanie obu algorytmów z zaledwie 128MB pamięci podręcznej zapewnia lepsze wyniki, niż standardowy system z nieograniczoną pamięcią podręczną typu LRU. Jest to istotne, gdyż pamięć o której mowa, jest potrzebna przy odczycie każdego pojedynczego strumienia. W przypadku większej awarii może zachodzić potrzeba odczytu wielu strumieni kopii zapasowych jednocześnie. Zaprezentowane algorytmy wypadają bardzo dobrze przy założeniu jednego dysku w systemie, ale jeszcze bardziej istotne może być ich zachowanie w realnym scenariuszu użycia, gdy odczyt jednego strumienia odbywa się z wielu dysków jednocześnie. Moje eksperymenty pokazały, że w takich warunkach problem fragmentacji nabiera jeszcze większego znaczenia sprawiając, że odczyt danych jest jeszcze mniej efektywny. W tym scenariuszu oba algorytmy zastosowane razem powodują pięciokrotne zwiększenie średniej szybkości odczytu. 6 Podsumowanie Problemy związane z fragmentacją danych w systemach z deduplikacją są widoczneodkilkulat[21,22,27,28,29,38,39],jednakdługoniebyłyone przedmiotem badań. Pierwsze prace próbujące głębiej zająć się tymi problemami i zaproponować częściowe rozwiązania pojawiły się w roku 2012[18, 23, 33]. Razem z artykułami opublikowanymi później[12, 19, 26] pokazują, że temat staje się coraz bardziej interesujący nie tylko dla środowiska biznesowego, ale również naukowego. Potencjalnie ciągle wymaga on badań prowadzących do definitywnego zrozumienia problemu oraz dostarczenia elastycznego rozwiązania użytecznego z punktu widzenia istniejących systemów. Zaprezentowana rozprawa doktorska jest krokiem w tym kierunku dzięki:(1) szczegółowej analizie problemu fragmentacji z nazwaniem trzech powodów obserwowanego spowolnienia odczytu,(2) propozycji dwóch niezależnych algorytmów praktycznie eliminujących wpływ kluczowych rodzajów fragmentacji oraz(3) dostarczeniu wyników szeregu eksperymentów opartych na rzeczywistych danych pochodzących od użytkowników, pozwalających na lepsze zrozumienie procesu fragmentacji danych spowodowanego eliminacją duplikatów. 12
13 Literatura [1] R. Amatruda. Worldwide Purpose-Built Backup Appliance Forecast and 2011 Vendor Shares. International Data Corporation, April [2]L.Aronovich,R.Asher,E.Bachmat,H.Bitner,M.Hirsch,andS.T. Klein. The design of a similarity based deduplication system. In Proceedings of SYSTOR 2009: The Israeli Experimental Systems Conference, SYSTOR 09, pages 6:1 6:14, New York, NY, USA, ACM. [3] T. Asaro and H. Biggar. Data De-duplication and Disk-to-Disk Backup Systems: Technical and Business Considerations, July The Enterprise Strategy Group. [4] L. A. Belady. A study of replacement algorithms for a virtual-storage computer. IBM Syst. J., 5(2):78 101, June [5] H. Biggar. Experiencing Data De-Duplication: Improving Efficiency and Reducing Capacity Requirements, February The Enterprise Strategy Group. [6] C. Dubnicki, L. Gryz, L. Heldt, M. Kaczmarczyk, W. Kilian, P. Strzelczak, J. Szczepkowski, C. Ungureanu, and M. Welnicki. HYDRAstor: a Scalable Secondary Storage. In FAST 09: Proceedings of the 7th USE- NIX Conference on File and Storage Technologies, pages , Berkeley, CA, USA, USENIX Association. [7] EMC Avamar: Backup and recovery with global deduplication, [8] EMC Corporation: DataDomain- Deduplication Storage for Backup, Archiving and Disaster Recovery, [9] Enterprise Strategy Group Data Protection Trends. April [10] Exagrid. [11] D. Floyer. Wikibon Data De-duplication Performance Tables. Wikibon.org, May Data Deduplication Performance Tables. [12]M.Fu,D.Feng,Y.Hua,X.He,Z.Chen,W.Xia,F.Huang,andQ.Liu. Accelerating restore and garbage collection in deduplication-based backup systems via exploiting historical information. In 2014 USENIX 13
14 Annual Technical Conference(USENIX ATC 14), pages , Philadelphia, PA, June USENIX Association. [13]J.GantzandD.Reinsel.TheDigitalUniverseDecade-AreYouReady? IEEE Trans. Parallel Distrib. Syst., May Sponsored by EMC Corporation. [14]J.GantzandD.Reinsel.TheDigitalUniversein2020:BigData,Bigger Digital Shadows, and Biggest Growth in the Far East. IEEE Trans. Parallel Distrib. Syst., December Sponsored by EMC Corporation. [15] A. S. P. Group. Identifying the Hidden Risk of Data Deduplication: How the HYDRAstor Solution Proactively Solves the Problem White Paper WP , NEC Corporation of America. [16] IBM ProtecTIER Deduplication Solution. partnerworld/wps/pub/overview/hw21z. [17] IDC. Total Worldwide PBBA 4Q13 Results. International Data Corporation, March [18] M. Kaczmarczyk, M. Barczynski, W. Kilian, and C. Dubnicki. Reducing impact of data fragmentation caused by in-line deduplication. In Proceedings of the 5th Annual International Systems and Storage Conference, SYSTOR 12, pages 15:1 15:12, New York, NY, USA, ACM. [19] M. Lillibridge, K. Eshghi, and D. Bhagwat. Improving restore speed for backup systems that use inline chunk-based deduplication. In Proceedings of the 11th USENIX Conference on File and Storage Technologies, FAST 13, pages , Berkeley, CA, USA, USENIX Association. [20] M. Lillibridge, K. Eshghi, D. Bhagwat, V. Deolalikar, G. Trezis, and P. Camble. Sparse indexing: Large scale, inline deduplication using sampling and locality. In FAST 09: Proceedings of the 7th USENIX Conference on File and Storage Technologies, pages , [21] J. Livens. Deduplication and restore performance. Wikibon.org, January andrestore performance. [22] J. Livens. Defragmentation, rehydration and deduplication. AboutRestore.com, June defragmentation-rehydration-and-deduplication/. 14
15 [23]Y.J.Nam,D.Park,andD.H.C.Du. Assuringdemandedreadperformance of data deduplication storage with backup datasets. In Proceedings of the 2012 IEEE 20th International Symposium on Modeling, Analysis and Simulation of Computer and Telecommunication Systems, MASCOTS 12, pages , Washington, DC, USA, IEEE Computer Society. [24]NEC Corporation. HYDRAstor Grid Storage System, [25] NEC HYDRAstor HS Specification, [26] C.-H. Ng and P. P. C. Lee. RevDedup: A Reverse Deduplication Storage System Optimized for Reads to Latest Backups. CoRR, abs/ , [27] W. C. Preston. The Rehydration Myth. BackupCentral.com, June mr-backup-blog/247-rehydration-myth.html/. [28] W. C. Preston. Restoring deduped data in deduplication systems. SearchDataBackup.com, April [29] W. C. Preston. Solving common data deduplication system problems. SearchDataBackup.com, November [30] Quantum Corporation: DXi Deduplication Solution, [31] B. Romanski, L. Heldt, W. Kilian, K. Lichota, and C. Dubnicki. Anchordriven subchunk deduplication. In Proceedings of the 4th Annual International Conference on Systems and Storage, SYSTOR 11, pages 16:1 16:13, New York, NY, USA, ACM. [32] SEPATON Scalable Data Deduplication Solutions. 15
16 [33] K. Srinivasan, T. Bisson, G. Goodson, and K. Voruganti. idedup: latency-aware, inline data deduplication for primary storage. In Proceedings of the 10th USENIX conference on File and Storage Technologies, FAST 12, pages 24 24, Berkeley, CA, USA, USENIX Association. [34] P. Strzelczak, E. Adamczyk, U. Herman-Izycka, J. Sakowicz, L. Slusarczyk, J. Wrona, and C. Dubnicki. Concurrent deletion in a distributed content-addressable storage system with global deduplication. In Proceedings of the 11th USENIX Conference on File and Storage Technologies, FAST 13, pages , Berkeley, CA, USA, USENIX Association. [36]C.Ungureanu,A.Aranya,S.Gokhale,S.Rago,B.Atkin,A.Bohra, C. Dubnicki, and G. Calkowski. Hydrafs: A high-throughput file system for the hydrastor content-addressable storage system. In FAST 10, pages , [35] Symantec NetBackup Appliances. [37]G.Wallace,F.Douglis,H.Qian,P.Shilane,S.Smaldone,M.Chamness, and W. Hsu. Characteristics of backup workloads in production systems. In Proceedings of the 10th USENIX conference on File and Storage Technologies, FAST 12, pages 4 4, Berkeley, CA, USA, USENIX Association. [38] L. Whitehouse. Restoring deduped data. searchdatabackup.techtarget.com, August [39]B.Zhu,K.Li,andH.Patterson. Avoidingthediskbottleneckinthe Data Domain deduplication file system. In FAST 08: Proceedings of the 6th USENIX Conference on File and Storage Technologies, pages 1 14, Berkeley, CA, USA, USENIX Association. 16
HYDRAstor skalowalny system do backupu i archiwum Bezpieczna przestrzeń na dane firmowe. Michał Kaczmarczyk
HYDRAstor skalowalny system do backupu i archiwum Bezpieczna przestrzeń na dane firmowe Michał Kaczmarczyk O HYDRAstor System do przechowywania danych backupowych i archiwalnych Najbardziej skalowalny
Szybki przewodnik po produkcie. EMC DataDomain
Szybki przewodnik po produkcie EMC DataDomain Szybki przewodnik po produkcie EMC DataDomain OPIS ROZWIĄZANIA DataDomain to uniwersalne medium backupowe. Podczas procesu tworzenia kopii zapasowych, systemy
DLACZEGO WARTO ARCHIWIZOWAĆ DANE
DLACZEGO WARTO ARCHIWIZOWAĆ DANE INTEGRITY SOLUTIONS & EMC COMPUTER SYSTEMS 12-06-2013 INTEGRITY SOLUTIONS Projektujemy, budujemy, wspieramy i utrzymujemy środowiska pracy W Grupie Altkom jesteśmy integratorem:
Wpływ organizacji danych na rozproszony system pamięci masowej
Wpływ organizacji danych na rozproszony system pamięci masowej Autoreferat pracy doktorskiej Leszek Gryz styczeń 2012 Wraz z rozwojem technologii informacyjnych ilość wytworzonej informacji rośnie w postępie
Architektura komputerów
Architektura komputerów Tydzień 10 Pamięć zewnętrzna Dysk magnetyczny Podstawowe urządzenie pamięci zewnętrznej. Dane zapisywane i odczytywane przy użyciu głowicy magnetycznej (cewki). Dane zapisywane
Architektura komputerów
Architektura komputerów Wykład 7 Jan Kazimirski 1 Pamięć podręczna 2 Pamięć komputera - charakterystyka Położenie Procesor rejestry, pamięć podręczna Pamięć wewnętrzna pamięć podręczna, główna Pamięć zewnętrzna
Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1
Skalowalność obliczeń równoległych Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność Przy rozważaniu wydajności przetwarzania (obliczeń, komunikacji itp.) często pojawia się pojęcie skalowalności
Zaawansowane R&D w systemach pamięci masowej
Zaawansowane R&D w systemach pamięci masowej Cezary Dubnicki prokurent, 9LivesData sp. z o.o. sp.k. EXPOzycja polskich firm teleinformatycznych 17/03/2011 Geneza nazwy 9LivesData Cats have 9 lives koty
StoreOnce - To więcej niż Backup2Disk
StoreOnce - To więcej niż Backup2Disk Krzysztof Jamiołkowski HP Storage Solutions Architect Bezpieczeństwo Danych Bezpieczeństwo danych to Dane podlegają wielu zagrożeniom Jakie problemy miałeś ostatnio?
Memeo Instant Backup Podręcznik Szybkiego Startu
Wprowadzenie Memeo Instant Backup pozwala w łatwy sposób chronić dane przed zagrożeniami cyfrowego świata. Aplikacja regularnie i automatycznie tworzy kopie zapasowe ważnych plików znajdujących się na
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA
Parametry wydajnościowe systemów internetowych Tomasz Rak, KIA 1 Agenda ISIROSO System internetowy (rodzaje badań, konstrukcja) Parametry wydajnościowe Testy środowiska eksperymentalnego Podsumowanie i
Cele RAID. RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków.
Macierze RAID Cele RAID RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków. - zwiększenie niezawodności (odporność na awarie), - zwiększenie wydajności transmisji
Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1
Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność obliczeń Dla wielu programów wydajność obliczeń można traktować jako wydajność pobierania z pamięci
Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1
Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Motywacja - memory wall Krzysztof Banaś, Obliczenia wysokiej wydajności. 2 Organizacja pamięci Organizacja pamięci:
Od czego zacząć przy budowaniu środowisk wysokiej dostępności?
Budowanie środowisk wysokiej dostępności w oparciu o nową wersję IDS 11 Artur Wroński IBM Information Management Technical Team Leader artur.wronski@pl.ibm.com Od czego zacząć przy budowaniu środowisk
SYMANTEC TO SYMANTEC TO KOPIE ZAPASOWE. ODZYSKIWANIE DANYCH.
SYMANTEC TO KOPIE ZAPASOWE. Firma Symantec oferuje szybkie i skuteczne kompleksowe rozwiązania do ochrony danych i systemów w środowiskach wirtualnych i fizycznych. SYMANTEC TO ODZYSKIWANIE DANYCH. Wirtualizacja
Do kogo kierujemy ofertę?
3 Bezpieczeństwo Do kogo kierujemy ofertę? Utrata danych stanowi jedno z największych zagrożeń dla płynności funkcjonowania firmy. Efektywne rozwiązanie pozwalające na szybkie, bezpieczne i zautomatyzowane
adresat Odpowiedzi na zapytania wykonawców i zmiana treści siwz
Europejski Fundusz Rolny na rzecz Rozwoju Obszarów Wiejskich Europa inwestująca w obszary wiejskich Instytucja Zarządzająca Programem Rozwoju Obszarów Wiejskich na lata 2007 2013 Ministerstwo Rolnictwa
Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych STORWARE.EU
Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych Storware vprotect jest uznawany za najlepsze w swojej klasie, łatwe w użyciu i dostępne cenowo narzędzie do tworzenia kopii zapasowych
Pamięci masowe. ATA (Advanced Technology Attachments)
Pamięci masowe ATA (Advanced Technology Attachments) interfejs systemowy w komputerach klasy PC i Amiga przeznaczony do komunikacji z dyskami twardymi zaproponowany w 1983 przez firmę Compaq. Używa się
Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów
Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów Niniejszy dokument pozwoli Ci znaleźć odpowiedzi na pytania związane z: ROI (zwrotem z inwestycji) TCO (całkowitym
Analiza ilościowa w przetwarzaniu równoległym
Komputery i Systemy Równoległe Jędrzej Ułasiewicz 1 Analiza ilościowa w przetwarzaniu równoległym 10. Analiza ilościowa w przetwarzaniu równoległym...2 10.1 Kryteria efektywności przetwarzania równoległego...2
Cele przedsięwzięcia
Określanie wymagań Cele przedsięwzięcia Klienta, np. Wzrost efektywności, spadek kosztów, rozszerzenie rynku, unikanie błędów Wykonawcy Biznesowe Techniczne Priorytety! Kontekst przedsięwzięcia Użytkownicy
System plików JFS. 1 Najważniejsze informacje. Mateusz Zakrzewski. 18 stycznia JFS to skrót od Journalled File System.
System plików JFS Mateusz Zakrzewski 18 stycznia 2004 1 Najważniejsze informacje. JFS to skrót od Journalled File System. Stworzony przez firmę IBM w 1990 roku. Jest niezawodny, dzięki księgowaniu. Zamiast
SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE
SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE WINDOWS 1 SO i SK/WIN 005 Plik wymiany Pamięć wirtualna 2 SO i SK/WIN Plik wymiany - rodzaj pamięci wirtualnej komputerów. Plik ten służy do tymczasowego przechowywania
SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE
SYSTEMY OPERACYJNE I SIECI KOMPUTEROWE WINDOWS 1 SO i SK/WIN 006 Wydajność systemu 2 SO i SK/WIN Najprostszym sposobem na poprawienie wydajności systemu, jeżeli dysponujemy zbyt małą ilością pamięci RAM
Sposoby zwiększania efektywności systemu Windows
Grzegorz Trześniewski kl 1Tia 26.05.08r. Sposoby zwiększania efektywności systemu Windows Prof. Artur Rudnicki Uruchamiianiie ii zamykaniie Należy monitorować oprogramowanie ładowane podczas uruchamiania
Normalizacja baz danych
Normalizacja baz danych Definicja 1 1 Normalizacja to proces organizowania danych w bazie danych. Obejmuje to tworzenie tabel i ustanawianie relacji między tymi tabelami zgodnie z regułami zaprojektowanymi
Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource. Piotr Klimek. piko@piko.homelinux.net
Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource Piotr Klimek piko@piko.homelinux.net Agenda Wstęp Po co to wszystko? Warstwa WWW Warstwa SQL Warstwa zasobów dyskowych Podsumowanie
Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa
Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa Współczesne organizacje muszą dbać o ochronę kluczowych danych związanych
Kopie zapasowe tak szybko, że nie poczujesz
Backup plików (NAS) Kopie zapasowe tak szybko, że nie poczujesz Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems 1 Agenda NAS Klasyczny backup NAS Architektura: Avamar i backup
Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. Rodzina Backup Exec
Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. 1 Backup Exec- rozwiązanie uniwersalne 2 Backup Exec 2012- oprogramowanie 3 Backup Exec
Maciej Oleksy Zenon Matuszyk
Maciej Oleksy Zenon Matuszyk Jest to proces związany z wytwarzaniem oprogramowania. Jest on jednym z procesów kontroli jakości oprogramowania. Weryfikacja oprogramowania - testowanie zgodności systemu
Capgemini IT T@lk. Projekt lokalnego datacenter i problemy z tym związane
Capgemini IT T@lk Projekt lokalnego datacenter i problemy z tym związane O mnie Krzysztof Podobiński Senior Infrastructure/ VMware Engineer 9 lat doświadczenia w IT 3 lata w Capgemini Application Support
Sortowanie zewnętrzne
Algorytmy i struktury danych Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski Sortowanie zewnętrzne 1 Wstęp Bardzo często
8 Przygotowanie wdrożenia
1 Krok 8 Przygotowanie wdrożenia Wprowadzenie Przed rozpoczęciem wdrażania Miejskiego Programu Energetycznego administracja miejska powinna dokładnie przygotować kolejne kroki. Pierwszym jest powołanie
Acronis Backup & Recovery 10 Server for Windows, Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy
Acronis Backup & Recovery 10 Server for Windows, Acronis Backup & Recovery 10 Workstation Instrukcja szybkiego rozpoczęcia pracy 1. Informacje na temat tego dokumentu W tym dokumencie opisano sposób instalowania
Wirtualizacja desktopów i aplikacji.
Wirtualizacja desktopów i aplikacji. Praktyczne aspekty wydajnego i bezpiecznego przetwarzania danych użytkowników końcowych cross case study. Prowadzący: Tomasz Lendzion ADT Group Sp. z o.o. Bartłomiej
Macierze RAID MARCEL GAŃCZARCZYK 2TI 1
Macierze RAID MARCEL GAŃCZARCZYK 2TI 1 Macierze RAID (Redundant Array of Independent Disks - nadmiarowa macierz niezależnych dysków Redundant Array of Inexpensive Disks - nadmiarowa macierz niedrogich
System plików. Warstwowy model systemu plików
System plików System plików struktura danych organizująca i porządkująca zasoby pamięci masowych w SO. Struktura ta ma charakter hierarchiczny: urządzenia fizyczne strefy (partycje) woluminy (w UNIXie:
Produkty Acronis. Dariusz Cudak, Systemy Informatyczne ITXON
Produkty Acronis Dariusz Cudak, Systemy Informatyczne ITXON Agenda 1. Krótka informacja o firmie Acronis 2. Podział produktów 3. Krótkie omówienie funkcjonalności i wybranych unikatowych cech produktów
Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?
Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych? Marek Kozicki, Storage Solutions Architect, HPE 19 maja 2016 r. Przed czym powinniśmy zabezpieczyć nasze dane? Architektura sprzętowo-programowa
Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect
Innowacje w przetwarzaniu danych Macierze All Flash Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect Definicja macierzy Enterprise Cechy charakterystyczne
Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015
Analiza efektywności przetwarzania współbieżnego Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Źródła kosztów przetwarzania współbieżnego interakcje między procesami
Wartość (mld zł) i dynamika wzorstu (%) rynku IT w Polsce w latach 2004-2010 26,9 16,5% 12,2% 2004 2005 2006 2007 2008 2009 2010P
Polski rynek IT Wartość polskiego rynku IT w 2009 r. wg raportu PMR Rynek IT w Polsce 2010. Prognozy rozwoju na lata 2010-2014" ukształtowała się na poziomie 24,1 mld zł. Analitycy spodziewają się, iż
Podręcznik administratora systemu
Podręcznik administratora systemu Medtronic MiniMed Northridge, CA 91325 USA 800-646-4633 (800-MiniMed) 818.576.5555 www.minimed.com Przedstawiciel w Unii Europejskiej Medtronic B.V. Earl Bakkenstraat
ANALIZA SYSTEMU POMIAROWEGO (MSA)
StatSoft Polska, tel. 1 484300, 601 414151, info@statsoft.pl, www.statsoft.pl ANALIZA SYSTEMU POMIAROWEGO (MSA) dr inż. Tomasz Greber, Politechnika Wrocławska, Instytut Organizacji i Zarządzania Wprowadzenie
Dostawa urządzenie do archiwizacji danych
NZM.231.7.2017.DM Załącznik nr 2 do OPZ Typ Wymaganie objętościowe Ilość portów Możliwość rozbudowy Jednoczesny dostęp protokołami CIFS, NFS OST, BOOST oraz jednocześnie dla FC VTL, BOOST, OST Licencja
Uniwersytet Mikołaja Kopernika. Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej
Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Marcin HENRYKOWSKI Nr albumu: 158069 Praca magisterska na kierunku Informatyka Archiwizacja
Pracownia internetowa w każdej szkole (edycja Jesień 2007)
Instrukcja numer D1/04_01/Z Pracownia internetowa w każdej szkole (edycja Jesień 2007) Opiekun pracowni internetowej cz. 1 (D1) Tworzenie kopii zapasowej ustawień systemowych serwera - Zadania do wykonania
Data Domain 5.6 Nowe modele Data Protection Search
Data Domain 5.6 Nowe modele Data Protection Search Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems 1 Agenda Wprowadzenie do Data Domain Data Domain 2200 Data Domain 9500 Data
DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE 2.WYBÓR CHRONIONYCH PLIKÓW 3.POWRÓT DO PRZESZŁOŚCI
MASZYNA CZASU DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE Zainstaluj program Genie Timeline 2012 i uruchom go. Aplikacja utworzy na Pulpicie Windows nowy folder o nazwie No-BackupZone. Jeżeli chcesz wykluczyć
Wykład I. Wprowadzenie do baz danych
Wykład I Wprowadzenie do baz danych Trochę historii Pierwsze znane użycie terminu baza danych miało miejsce w listopadzie w 1963 roku. W latach sześcdziesątych XX wieku został opracowany przez Charles
Zarządzanie pamięcią w systemie operacyjnym
Zarządzanie pamięcią w systemie operacyjnym Cele: przydział zasobów pamięciowych wykonywanym programom, zapewnienie bezpieczeństwa wykonywanych procesów (ochrona pamięci), efektywne wykorzystanie dostępnej
System plików warstwa fizyczna
System plików warstwa fizyczna Dariusz Wawrzyniak Plan wykładu Przydział miejsca na dysku Zarządzanie wolną przestrzenią Implementacja katalogu Przechowywanie podręczne Integralność systemu plików Semantyka
System plików warstwa fizyczna
System plików warstwa fizyczna Dariusz Wawrzyniak Przydział miejsca na dysku Zarządzanie wolną przestrzenią Implementacja katalogu Przechowywanie podręczne Integralność systemu plików Semantyka spójności
System plików warstwa fizyczna
System plików warstwa fizyczna Dariusz Wawrzyniak Przydział miejsca na dysku Przydział ciągły (ang. contiguous allocation) cały plik zajmuje ciąg kolejnych bloków Przydział listowy (łańcuchowy, ang. linked
Acronis Backup & Recovery 10 Server for Windows Acronis Backup & Recovery 10 Workstation. Instrukcja szybkiego rozpoczęcia pracy
Acronis Backup & Recovery 10 Server for Windows Acronis Backup & Recovery 10 Workstation Instrukcja szybkiego rozpoczęcia pracy 1 Informacje na temat niniejszego dokumentu W tym dokumencie opisano sposób
Jak przechowywać kopie zapasowe. przez wiele lat? Film dostępny na: Daniel Olkowski EMC Data Protection Europe EAST
Film dostępny na: https://youtu.be/pkzjy-4pjsu Jak przechowywać kopie zapasowe przez wiele lat? Daniel Olkowski EMC Data Protection Europe EAST 1 Środowisko backupowe 2 Środowisko backupowe 3 Backup &
Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1
Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Wydajność obliczeń Dla wielu programów wydajność obliczeń można traktować jako wydajność pobierania z pamięci
Analiza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Kopia zapasowa i odzyskiwanie
Kopia zapasowa i odzyskiwanie Podręcznik użytkownika Copyright 2007 Hewlett-Packard Development Company, L.P. Windows jest zastrzeżonym znakiem towarowym firmy Microsoft Corporation, zarejestrowanym w
Programowanie współbieżne Wykład 2. Iwona Kochańska
Programowanie współbieżne Wykład 2 Iwona Kochańska Miary skalowalności algorytmu równoległego Przyspieszenie Stały rozmiar danych N T(1) - czas obliczeń dla najlepszego algorytmu sekwencyjnego T(p) - czas
Tworzenie oraz przywracanie obrazu systemu Windows 7
Tworzenie oraz przywracanie obrazu systemu Windows 7 Windows 7 udostępnia bardzo przydatne i ulepszone narzędzie do wykonywania kopii zapasowych plików użytkowników, a także tworzenia obrazu systemu. Backup
Czy Software-Defined Storage oznacza kres rozwiązań sprzętowych HP StoreOnce? Marek Kozicki / Mariusz Grabowski Wyzwania IT, 14 kwietnia 2015r.
Czy Software-Defined Storage oznacza kres rozwiązań sprzętowych HP StoreOnce? Marek Kozicki / Mariusz Grabowski Wyzwania IT, 14 kwietnia 2015r. Zmiany w świecie danych Jak są konsekwencje? Eksplozja danych:
Szybki przewodnik po produkcie. EMC Avamar
Szybki przewodnik po produkcie EMC Avamar Szybki przewodnik po produkcie EMC Avamar OPIS ROZWIĄZANIA Avamar to kompletne rozwiązanie do backupu: oprogramowanie i system (tzw. Appliance) do tworzenia kopii
Błędy procesu tworzenia oprogramowania (Badania firmy Rational Software Corporation)
Błędy procesu tworzenia oprogramowania (Badania firmy Rational Software Corporation) Zarządzanie wymaganiami Ad hoc (najczęściej brak zarządzania nimi) Niejednoznaczna, nieprecyzyjna komunikacja Architektura
Jak odtworzyć maila? EMC SourceOne
Jak odtworzyć maila? EMC SourceOne Daniel Olkowski Technology Consultant EMEA EAST EMC Backup Recovery Systems Copyright 2009 EMC Corporation. All rights reserved. 1 System pocztowy w liczbach 11 MB 80%
STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC
WIRTUALIZACJA STACJI ROBOCZYCH W SEKTORZE MŚP Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC 1 Agenda Wspólna droga BZ WBK i EMC do chmury Zapotrzebowanie na stacje robocze w biznesie Wyzwania
Instrukcja rejestracji zgłoszeń serwisowych dla Działu Wparcia Technicznego
Instrukcja rejestracji zgłoszeń serwisowych dla Działu Wparcia Technicznego Podstawowym źródłem informacji kierowanym do Działu Wsparcia Technicznego zgłoszeniu serwisowym jest plik wygenerowany programem
Przyczynowa analiza rentowności na przykładzie przedsiębiorstwa z branży. półproduktów spożywczych
Roksana Kołata Dariusz Stronka Przyczynowa analiza rentowności na przykładzie przedsiębiorstwa z branży Wprowadzenie półproduktów spożywczych Dokonując analizy rentowności przedsiębiorstwa za pomocą wskaźników
Uniwersytet Zielonogórski Instytut Sterowania i Systemów Informatycznych. Algorytmy i struktury danych Laboratorium Nr 4
Uniwersytet Zielonogórski Instytut Sterowania i Systemów Informatycznych Algorytmy i struktury danych Laboratorium Nr 4 Algorytmy sortowania zewnętrznego 1 Wstęp Bardzo często przy rozwiązywaniu praktycznych
RAID 1. str. 1. - w przypadku różnych szybkości cała macierz będzie pracowała z maksymalną prędkością najwolniejszego dysku
RAID 1 RAID (ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków) - polega na współpracy dwóch lub więcej dysków twardych w taki sposób, aby zapewnić dodatkowe możliwości,
Podstawy Informatyki Systemy sterowane przepływem argumentów
Podstawy Informatyki alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu 1 Komputer i jego architektura Taksonomia Flynna 2 Komputer i jego architektura Taksonomia Flynna Komputer Komputer
16MB - 2GB 2MB - 128MB
FAT Wprowadzenie Historia FAT jest jednym z najstarszych spośród obecnie jeszcze używanych systemów plików. Pierwsza wersja (FAT12) powstała w 1980 roku. Wraz z wzrostem rozmiaru dysków i nowymi wymaganiami
Wprowadzenie do złożoności obliczeniowej
problemów Katedra Informatyki Politechniki Świętokrzyskiej Kielce, 16 stycznia 2007 problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów Plan wykładu 1 2 algorytmów 3 4 5 6 problemów problemów
Tivoli Storage Manager FastBack 6.1 Nowości. 2010 IBM Corporation
Tivoli Storage Manager FastBack 6.1 Nowości 2010 IBM Corporation Agenda Wyzwania i koszty związane z danymi Tivoli Storage Manager (TSM) FastBack v6.1 Tivoli Storage Manager FastBack for Workstations 1
Biuletyn techniczny. CDN OPT!MA 8.5 Wskazówki dotyczące instalacji programu. Copyright 2006 COMARCH SA
Biuletyn techniczny CDN OPT!MA 8.5 Wskazówki dotyczące instalacji programu Copyright 2006 COMARCH SA Spis treści 1 SPIS TREŚCI...2 2 DRIVER ODBC POWODUJĄCY BŁĄD PRZY WYKONYWANIU WYDRUKÓW REPORT WRITER
Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia
Konsolidacja wysokowydajnych systemów IT Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia Mirosław Pura Sławomir Rysak Senior IT Specialist Client Technical Architect Agenda Współczesne wyzwania:
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Symantec Backup Exec System Recovery 7.0 Server Edition. Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni
GŁÓWNE ZALETY Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni Firma Symantec wielokrotnie publicznie udowadniała, że dzięki oprogramowaniu Backup Exec System Recovery
Przemysław Majkut Gimnazjum N analiza efektów kształcenia na podstawie wyników egzaminów zewnętrznych
Przemysław Majkut Gimnazjum N analiza efektów kształcenia na podstawie wyników egzaminów zewnętrznych Opis szkoły Opisywane gimnazjum znajduje się w niewielkiej miejscowości, liczącej niewiele ponad tysiąc
Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu rubidowego
Prof. dr hab. Jan Mostowski Instytut Fizyki PAN Warszawa Warszawa, 15 listopada 2010 r. Recenzja pracy doktorskiej mgr Tomasza Świsłockiego pt. Wpływ oddziaływań dipolowych na własności spinorowego kondensatu
WHITE PAPER. Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii
WHITE PAPER Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii 1 TABLE OF CONTENTS Wstęp...3 Symulator VERITAS Cluster Server...3 Doradca VERITAS Volume Replicator...5 Próbny
Elastyczne centrum przetwarzania danych
Elastyczne centrum przetwarzania danych Flexible Capacity Service pojemność zawsze gotowa na nowe wyzwania. Robert Rutkowski / 24 Kwiecień 2013 Agenda Wyzwania związane z finansowaniem IT Jak mieć zawsze
Profesjonalna ochrona danych z arcserve UDP
Profesjonalna ochrona danych z arcserve UDP Kamil Staśko Product Manager, Veracomp SA Kim Jesteśmy? - ARCserve 1976 14,000 Employees $4.6BN FY13 Revenue 500 People Data management 7,300 Partners Data management
TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys
TSMBOX Backup Appliance Build for Recovery Speed Przemysław Jagoda Architekt Systemów Informatycznych Infonet Projekt S.A. Pamięci Masowe & Systemy Bezpieczeństwa Danych mail: p.jagoda@infonet-projekt.com.pl
Backup Premium Podręcznik Szybkiego Startu
O programie Memeo Backup Premium pozwala w łatwy sposób chronić dane przed zagrożeniami cyfrowego świata. Memeo Backup Premium regularnie i automatycznie tworzy kopie zapasowe ważnych plików, zapobiegając
Video Recording Manager export Wizard Version 1.0. Instrukcja obsługi oprogramowania
Video Recording Manager export Wizard Version 1.0 pl Instrukcja obsługi oprogramowania Video Recording Manager export Wizard Spis treści pl 3 Spis treści 1 Wstęp 4 2 Ogólne informacje o systemie 4 3 Instalacja
Najlepsze praktyki w podejściu do rozbudowy infrastruktury Michał Stryga
Najlepsze praktyki w podejściu do rozbudowy infrastruktury Michał Stryga Dlaczego STG Lab Services? Dlaczego STG Lab Services? Technologia w służbie biznesu Jakie zewnętrzne czynniki będą wpływały na twoją
Rynek ERP. dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/
Rynek ERP dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/ Rynek ERP na świecie (2013) Światowy rynek systemów ERP szacowany jest obecnie na ok. 25,4 miliarda dolarów (dane za rok 2013) wobec
Szybkość instynktu i rozsądek rozumu$
Szybkość instynktu i rozsądek rozumu$ zastosowania rozwiązań BigData$ Bartosz Dudziński" Architekt IT! Już nie tylko dokumenty Ilość Szybkość Różnorodność 12 terabajtów milionów Tweet-ów tworzonych codziennie
Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski
Dane w sieciach (i inne historie) Marcin Bieńkowski Jak przechowywać dane w sieciach (strony WWW, bazy danych, ) tak, żeby dowolne ciągi odwołań do (części) tych obiektów mogły być obsłużone małym kosztem?
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
DATABASE SNAPSHOT GEEK DIVE. Cezary Ołtuszyk Blog: coltuszyk.wordpress.com
DATABASE SNAPSHOT GEEK DIVE Cezary Ołtuszyk Blog: coltuszyk.wordpress.com Kilka słów o mnie Kierownik Działu Administracji Systemami w firmie BEST S.A. (warstwa bazodanowa i aplikacyjna) Konsultant z zakresu
Przywracanie systemu. Do czego służy Przywracanie systemu?
Przywracanie systemu Przywracanie systemu (ang. System restore) to komponent systemów operacyjnych Windows ME, Windows XP, Windows Vista czy Windows 7. Do czego służy Przywracanie systemu? Narzędzie Przywracanie
<Nazwa firmy> <Nazwa projektu> Specyfikacja dodatkowa. Wersja <1.0>
Wersja [Uwaga: Niniejszy wzór dostarczony jest w celu użytkowania z Unified Process for EDUcation. Tekst zawarty w nawiasach kwadratowych i napisany błękitną kursywą
SYSTEMY EMC DATA DOMAIN Zabezpieczająca pamięć masowa na potrzeby kopii zapasowych i archiwów
SYSTEMY EMC DATA DOMAIN Zabezpieczająca pamięć masowa na potrzeby kopii zapasowych i archiwów PODSTAWOWE INFORMACJE Szybka deduplikacja przed zapisem Wydajność nawet do 31 TB/godz. Skalowalność zależna