BACKUP POMYSŁY NA ANNO DOMINI 2015 ENTERPRISE SOFTWARE REVIEW INFORMATYKA W DUŻYCH ORGANIZACJACH



Podobne dokumenty
Szybki przewodnik po produkcie. EMC DataDomain

Wirtualizacja desktopów i aplikacji.

HUAWEI TECHNOLOGIES CO., LTD. BACKUPCUBE BUNDLE APPLIANCE

Rodzaje pamięci masowych by Silas Mariusz

The Right Direction.

Standard określania klasy systemu informatycznego resortu finansów

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

Zmiana treści Specyfikacji Istotnych Warunków Zamówienia.

BCC ECM Autorskie rozwiązanie BCC wspomagające zarządzanie dokumentami oraz procesami biznesowymi

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys

Zmiana treści Specyfikacji Istotnych Warunków Zamówienia.

Kopie zapasowe tak szybko, że nie poczujesz

Odpowiedź II wyjaśnienie na zapytania do Specyfikacji Istotnych Warunków Zamówienia.

Szybki przewodnik po produkcie. EMC Avamar

Problemy niezawodnego przetwarzania w systemach zorientowanych na usługi

Zbuduj prywatną chmurę backupu w firmie. Xopero Backup. Centralnie zarządzane rozwiązanie do backupu serwerów i stacji roboczych

AE/ZP-27-16/14. Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi

SYMANTEC TO SYMANTEC TO KOPIE ZAPASOWE. ODZYSKIWANIE DANYCH.

27/13 ZAŁĄCZNIK NR 4 DO SIWZ. 1 Serwery przetwarzania danych. 1.1 Serwery. dostawa, rozmieszczenie i zainstalowanie 2. serwerów przetwarzania danych.

StoreOnce - To więcej niż Backup2Disk

IT-Archiwum SaaS. tel: Światowej klasy usługa tworzenia backupów online dopasowania do Twojej firmy

Systemy macierzowe. www. qsantechnology. com

Do kogo kierujemy ofertę?

Comparex It przyszłości już dziś.

EPA Systemy Sp. z o.o. Przedstawiciel CTERA Networks Ltd w Polsce Tel gbi@profipc.pl CTERA

WZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy:

Olaf Kozłowski 10/05/2010. Forum IT. Backup danych w środowiskach wirtualnych w oparciu o rozwiązania IBM Tivoli IBM Corporation

NOWY OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

ZAPYTANIE OFERTOWE. Zamawiający. Przedmiot zapytania ofertowego. Wrocław, dnia r.

ZAŁĄCZNIK NR 1.8 do PFU Serwery wraz z system do tworzenia kopii zapasowych i archiwizacji danych - wyposażenie serwerowni

SYSTEM ARCHIWIZACJI DANYCH

IV. Wymagane parametry techniczne platformy sprzętowo-programowej (serwera) do zarządzania oprogramowaniem do wykonywania kopii zapasowych szt. 1.

1. Zakres modernizacji Active Directory

EZ/2009/697/92/09/ML Warszawa, dnia r.

ZAPYTANIE OFERTOWE. Ministerstwo Rolnictwa i Rozwoju Wsi (MRiRW) zwraca się z prośbą o złożenie oferty cenowej zgodnie z przedstawionymi wymogami:

Narzędzia umożliwiające tworzenie scentralizowanej polityki prowadzenia backupów. Paweł Płoskonka IS2, P2

DBA-2/240-51/2016 Warszawa,... listopada 2016 r.

Profesjonalna ochrona danych z arcserve UDP

InfoCloud24 Usługowe Centrum Danych

Xopero Backup Appliance

CZY TWOJE ŚRODOWISKO PLIKOWE RÓWNIEŻ ROŚNIE SZYBCIEJ NIŻ BAZODANOWE?

HP StoreOnce B6200 Przykład wdrożenia

DLACZEGO WARTO ARCHIWIZOWAĆ DANE

Łatwe w obsłudze narzędzie ochrony danych w środowiskach wirtualnych STORWARE.EU

Referat pracy dyplomowej

Backup Online. BACKUP ONLINE dla klientów telekomunikacyjnych NASK

Poradnik dotyczący licencjonowania Symantec Backup Exec 3600

1.1. Założenia dla architektury korporacyjnej EPL

BSX PRINTER INSTRUKCJA UŻYTKOWNIKA. Autor: Karol Wierzchołowski 30 marca 2015

JEDYNY ORACLE PO JAPOŃSKU TAKI ZESTAW: ENTERPRISE SOFTWARE REVIEW INFORMATYKA W DUŻYCH ORGANIZACJACH

WHITE PAPER. Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii

Symantec Backup Exec System Recovery 7.0 Server Edition. Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni

DHL CAS ORACLE Wymagania oraz instalacja

Firma Informatyczna ASDER. Prezentacja. Profesjonalne usługi Informatyczne. Przemysław Kroczak ASDER

System Kancelaris. Zdalny dostęp do danych

Tworzenie kopii zapasowych i archiwalnych

Firma Repostor pragnie obniżyć całkowite koszty użytkowania infrastruktury swoich klientów

PROCEDURY AKCEPTACJI ORAZ ODBIORU PRZEDMIOTU UMOWY

Dni: 5. Opis: Adresaci szkolenia. Kurs jest przeznaczony dla:

Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER

PREMIUM BIZNES zł 110zł za 1 Mb/s Na czas nieokreślony Od 9 14 Mbit/s

Zapytanie ofertowe nr 03/05/2014. Zakup licencji na oprogramowanie do wirtualizacji Działanie POIG 8.2

Mateusz Kurleto NEOTERIC. Analiza projektu B2B Kielce, 18 października 2012

EPA Systemy Sp. z o.o. Przedstawiciel CTERA Networks Ltd w Polsce Tel CTERA

Symantec Backup Exec 2012 V-Ray Edition

FOCUS TELECOM POLSKA SP. Z O.O. Materiał Informacyjny

ZAŁĄCZNIK Nr 3 do CZĘŚCI II SIWZ

Rozwiązania VDI w środowiskach akademickich korzyści i doświadczenia z wdrożeń

VIBcare ZDALNE MONITOROWANIE STANU MASZYN.

SPECYFIKACJA TECHNICZNA. 1. Wymagania na system wykonywania i składowania kopii zapasowych, nazwa sprzętu

PR P E R Z E E Z N E T N A T C A JA C JA KO K RP R O P RA R C A Y C JN Y A JN ACTINA DATA MANAGER

ZAŁOŻENIA PROJEKTOWE I SPECYFIKACJA USŁUG

Cena powinna zawierać koszt użytkowania niezbędnego oprogramowania serwera i bazy danych na okres obowiązywania umowy.

Usługa: Testowanie wydajności oprogramowania

LANDINGI.COM. Case Study. Klient Landingi.com. Branża IT, marketing i PR. Okres realizacji od grudnia 2013 do chwili obecnej.

Rozwiązanie Compuware dynatrace

Autorytatywne serwery DNS w technologii Anycast + IPv6 DNS NOVA. Dlaczego DNS jest tak ważny?

Win Admin Replikator Instrukcja Obsługi

Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa

Z roku na rok wzrasta liczba systemów informatycznych, co skutkuje coraz większym uzależnieniem od nich działalności biznesowej przedsiębiorstw.

TELEMEETING ZAMAWIANY BLISKI KONTAKT NA ODLEGŁOŚĆ PROFESJONALNE ROZWIĄZANIE TELEKONFERENCYJNE

Regulamin Dierżawa serwerów dedykowanych i VPS Data aktualizacji: r. / Wersja

ROZMOWY W CYFROWEJ JAKOŚCI

Rozwiązanie Compuware Data Center - Real User Monitoring

ilości informacji przy lepszym wykorzystaniu zasobów pamięci masowej to znaczna oszczędność czasu i kosztów. Główne zalety

OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

7. zainstalowane oprogramowanie zarządzane stacje robocze

VMware View: Desktop Fast Track [v5.1] Dni: 5. Opis: Adresaci szkolenia

Proaktywny i automatyczny monitoring infrastruktury IT w świetle Rekomendacji D

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

Rozwiązania serwerowe Sprzęt sieciowy Zasilanie awaryjne Oprogramowanie dla firm Wsparcie techniczne.

STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC

Symantec Backup Exec 2012

Oferta Centrum Bezpieczeństwa Danych ZETO Katowice FIRM Backup Online

zetula.pl Zabezpiecz Swoje Dane

Produkty. MKS Produkty

Projektowanie Infrastruktury Sieciowej v2 2012/09/01

Nowe rozwiązanie Arcserve Unified Data Protection

ZAŁĄCZNIK Nr 1 do CZĘŚCI II SIWZ

SPECYFIKACJA ISTOTNYCH WARUNKÓW ZAMÓWIENIA

Transkrypt:

ENTERPRISE SOFTWARE REVIEW INFORMATYKA W DUŻYCH ORGANIZACJACH POMYSŁY NA BACKUP ANNO DOMINI 2015 To, czym backup jest, a czym nie, jak jest wykonywany oraz czemu ostatecznie służy, nieustannie się zmienia. Dzieje się tak przede wszystkim dlatego, że backup musi stale nadążać za zmianami w innych obszarach skalą biznesu, architekturą rozwiązań podlegających ochronie, wzrostem ilości i różnorodności danych, zmianami technologicznymi, możliwymi technikami wykonywania kopii i tak dalej. Wszystkie te zagadnieni.a mają bezpośredni wpływ na niezawodność i wydajność backupu, a także na związane z nim koszty. Odpowiedzi na pytania o cele, metody i architektury systemów backupowych z roku na rok wyglądają więc inaczej. Na co zwrócić uwagę, szykując się do budowy systemu backupowego w 2015 r.?

W wyniku zmian biznesowych i technologicznych granica między wysoką dostępnością, backupem i archiwizacją, niegdyś bardzo czytelna, ulega rozmyciu, a w zasadzie kategorie te ulegają scaleniu w ramach coraz bardziej spójnej, jednolitej strategii ochrony systemów i danych. Nie może być zresztą inaczej, skoro liczba systemów wymagających wysokiej dostępności stale się wydłuża, a technologie zapewniające wysoką dostępność coraz silniej integrują się z rozwiązaniami backupowymi i archiwizacyjnymi. Ponadto, systemy, które kiedyś uważaliśmy za mało istotne z punktu widzenia odtwarzania, stały się niejednokrotnie krytyczne dla biznesu, np. analityczno- -raportowe czy webowe. Wzrosła także rola wymogów regulacyjnych tworzących obowiązki związane z niezawodnością i pewnością przetwarzania danych nie zawsze tych, które są najważniejsze z perspektywy biznesowej. Konrad Puchała jest architektem systemowym w firmie Advatech. Można się z nim skontaktować pod adresem: kpuchala@advatech.pl Czy to jeszcze backup, czy już Kluczem do myślenia o backupie od zawsze były dwa parametry to, ile danych jesteśmy skłonni utracić w wyniku awarii, czyli RPO, a także to, jak szybko środowisko powinno zostać przywrócone do pełnej sprawności, czyli RTO. Na drugiej szali leżą zwykle pieniądze im mniej danych chcemy utracić i im szybciej systemy mają wrócić do stanu pożądanego, tym kwoty są wyższe. Akurat pod tym względem od lat nic się nie zmienia, i raczej się nie zmieni. Na potrzeby dalszych rozważań ustalmy więc podział być może nieco arbitralnie, ale w sposób mający wiele wspólnego z realiami obserwowanymi przeze mnie wielokrotnie u klientów. Backupem niech będzie wykonywanie kopii danych z przewidywanym celem RPO powyżej 1 godziny, zaś wysoką dostępnością zabezpieczenie z celem RPO poniżej 1 godziny. Jeśli chodzi o ustalenie wyraźnej linii podziału między współczesnym backupem i archiwizacją, sprawa jest w sumie jeszcze trudniejsza. Współczesne archiwum to nic innego, jak dłużej przechowywana, pełna kopia bezpieczeństwa. Pełna, co jasne, w sensie logicznym, ponieważ na skutek stosowania deduplikacji i innych zabiegów, zarówno backup, jak i archiwum, mają postać fizyczną niezupełnie taką, jak dane oryginalne. Istnieją także dedykowane systemy archiwizujące i indeksujące dane, pozostawiające skróty w miejscu zarchiwizowanych elementów, lecz tego typu rozwiązania pomijam w tych rozważaniach. Nieostrość wynika także z faktu, że długość czasu przechowywania danych bywa różna w zależności od konkretnych potrzeb biznesowych, oraz regulacji. Na potrzeby dalszych rozważań przyjmijmy, znów arbitralnie, lecz realistycznie zarazem, że kopie zapasowe przechowywane dłużej niż 1 lub 2 tygodnie to już w praktyce kopie archiwalne. Rzeczą nie do pominięcia w dyskusjach o backupie jest ustalenie tego, co jest przedmiotem kopiowania. Najkrócej rzecz ujmując, inaczej podejdziemy do wykonywania kopii środowisk działających bezpośrednio na sprzęcie, inaczej zaś do kopiowania środowisk zwirtualizowanych. Ten podział jest głęboko uzasadniony nie tylko różnicami technologicznymi, ale także możliwo-

ściami wykrywania awarii i reagowania na nie, a więc odtwarzania. Przykładowo, poprawne działanie klastra VMware vsphere nie oznacza automatycznie, że systemy i aplikacje działające w jego wnętrzu również działają poprawnie. Klaster VMware może mieć RPO bliskie zera, a RTO na poziomie minut, a mimo to, bez spójnej kopii tego, co działało wewnątrz klastra, odtworzenie środowiska maszyn wirtualnych raczej się nie uda. Konserwatywne licencjonowanie jednak popłaca W dyskusjach o backupie nie można pominąć wątku licencjonowania rozwiązań backupowych. Większość producentów oferuje kilka modeli licencjonowania, w tym oparte na liczbie serwerów, liczbie zabezpieczanych hostów, a także modele pojemnościowe. Uzależnienie kwot płaconych za rozwiązanie od wielkości zabezpieczanych danych wydaje się rozsądne, ale jest to dość ryzykowna strategia. Marketing producentów podkreśla niskie bariery zakupu, ale dyskretnie pomija fakt, że ilość danych rośnie zwykle szybciej, niż liczba urządzeń. W związku z wirtualizacją i konsolidacją liczba urządzeń potrafi wręcz maleć, o czym warto pamiętać. Model pojemnościowy powinien być stosowany tylko wtedy, gdy organizacja jest w stanie skutecznie panować nad tempem przyrostu danych. Kopiować, ale jak? Wykonywanie pełnej kopii danych za każdym razem jest pożądane, tyle że w większości realnych środowisk niewykonalne ze względu na ograniczone okno czasowe. Pełne kopie wykonywane są więc tylko okresowo, np. raz na tydzień, w dni wolne, kiedy okno czasowe jest dłuższe. Pomiędzy nimi wykonywane są kopie przyrostowe, które w niektórych rozwiązaniach mogą być scalane z wcześniejszą pełną kopią za pomocą mechanizmów syntetycznych. Stosując tradycyjne metody backupu oparte na rozwiązaniach taśmowych nie da się znacząco zmniejszyć ilości danych przesyłanych z chronionego serwera do systemu backupowego, a w konsekwencji, nie da się istotnie skrócić czasu backupu. Stosując rozwiązania dyskowe można jedynie zmniejszyć ich objętość w systemie backupu, wykorzystując w tym celu deduplikację (target deduplication). Proces deduplikacji polega, w skrócie, na eliminowaniu duplikatów danych i zapisywaniu jedynie bloków unikalnych, co zapewnia zwiększenie logicznej przestrzeni na dyskach nawet kilkudziesięciokrotnie. Deduplikacja może być wykonywana już na źródle przez aplikację kliencką systemu backupu, co pozwala skrócić nieco czas trwania zadań backupu, zmniejszyć ilość przesyłanych danych, ale kosztem istotnego obciążenia procesorów na systemie podlegającym ochronie. Efekt czasowy takiej operacji jest jednak w praktyce widoczny tylko w sytuacji, gdy to sieć LAN jest wąskim gardłem procesu backupu. Jeżeli podczas backupu klient nie był w stanie wysycić interfejsu 1Gb Ethernet, wtedy nawet po zastosowaniu deduplikacji na źródle zyskamy niewiele w sensie czasowym. Jedyny scenariusz, w którym deduplikacja na źródle może być rzeczywiście użyteczna, to taki, w którym barierą wydajności backupu jest pasmo na interfejsach sieciowych serwerów systemu backupowego, przyjmujących dane z chronionych systemów. Stosując tradycyjne metody backupu oparte na rozwiązaniach taśmowych nie da się znacząco zmniejszyć ilości danych przesyłanych z chronionego serwera do systemu backupowego, a w konsekwencji nie da się istotnie skrócić czasu backupu. Stosując rozwiązania dyskowe można jedynie zmniejszyć ich objętość w systemie backupu, wykorzystując w tym celu deduplikację (target deduplication) Aby uzyskać naprawdę znaczącą poprawę wydajności i skrócenie czasu trwania zadań backupu, trzeba zmienić technikę odczytu danych źródłowych z klientów systemu backupu. Zamiast za każdym razem odczytywać i przesyłać przez sieć pełną kopię danych, agent systemu backupowego może śledzić zmiany w systemie źródłowym i odpowiadające im zmiany bloków od czasu wykonania ostatniej kopii, zapisując je w podręcznej bazie danych lub lokalnym pliku. Śledzenie zmian w systemie plików (np. NTFS) jest możliwe na podstawie dziennika (journal). Z kolei VMware stworzył mechanizm Change Block Tracking (CBT). Dzięki niemu, w momencie wykonywania kopii agent systemu backupowego odczytuje tylko zmienione bloki z systemu źródłowego, przeprowadza deduplikację (opcjonalnie), a następnie przesyła do serwera backupowego informacje o tym, które zakresy bloków uległy zmianie oraz zmienione bloki, a ten wprowadza zmiany na kopii logicznie tworząc kolejną kopię pełną. W ten sposób, w trakcie wykonywania kopii zapasowych z klienta odczytywane są minimalne ilości danych, które następnie są przesyłane przez sieć, i w efekcie sumaryczny czas wykonywania backupu można zmniejszyć wielokrotnie. W mechanizmach typu CBT kluczowy jest minimalny odczyt z klienta, to on bowiem stanowi w praktyce wąskie gardło w systemach backupu, nie zaś transfer danych w sieci LAN. Ilość danych transferowanych po sieci LAN możemy zmniejszyć stosując deduplikację na źródle, jednak dopiero mechanizm śledzenia i odczytu zmian doprowadza do prawdziwego skrócenia czasu wykonywania backupu. Wyniki często są imponujące. Mamy dobitny przykład takiego efektu na naszym własnym podwórku. Wykonanie pełnej kopii na taśmie LTO maszyny

wirtualnej VMware wielkości ponad 700 GB, zawierającej bazy pocztowe i aplikacje Lotus Domino, zajmowało po sieci LAN zwykle ok. 4-5 godzin. Wykonanie pełnej kopii tej samej maszyny wirtualnej za pomocą aplikacji Symantec/Veritas NetBackup oraz mechanizmu NetBackup Accelerator i transferu również po sieci LAN, skraca czas backupu do nieco ponad 7 minut z logiczną prędkością przekraczającą 2GB/s (17Gb/s). Jak to możliwe? Zrzut ekranu powyżej mówi wszystko: faktycznie skopiowanych zostało ok. 4 GB danych, które uległy zmianom od ostatniego zadania backupu. Agent systemu backupowego dzięki funkcji NetBackup Accelerator i integracji z VMware Change Block Tracking odczytał ze źródła tylko zmienione bloki dysków wirtualnych, które stanowiły jedynie ok. 0,5% objętości maszyny wirtualnej! Jak widać, śledzenie, identyfikacja i odczyt jedynie zmienionych bloków w połączeniu z deduplikacją mają przed sobą przyszłość. firmy opublikowały ostatnio wyniki testów, podczas których backupowanych było 1000 maszyn wirtualnych VMware. Wyniki pokazują jednoznacznie, że integracja ma przemożny wpływ na wydajność. Macierze NetApp FAS 3240 w połączeniu z oprogramowaniem Symantec NetBackup 7.6 (w postaci Symantec NetBackup Appliance 5230) zmieściły się z wykonaniem kopii tysiąca maszyn wirtualnych w czasie zaledwie 2 godzin i 51 minut, (żółty słupek na wykresie). Inne rozwiązania backupowe w tym samym środowisku wypadły dużo gorzej ponad 8 godzin lub nawet ponad 14 godzin (niebieski i czerwony słupek). Symantec NetBackup Accelerator oraz integracja z funkcjami snapszotów macierzy są dostępne także dla innych platform, np. EMC. Macierze NetApp FAS 3240 w połączeniu z oprogramowaniem Symantec NetBackup 7.6 (w postaci Symantec NetBackup Appliance 5230) zmieściły się z wykonaniem kopii tysiąca maszyn wirtualnych w czasie zaledwie 2 godzin i 51 minut, (żółty słupek na wykresie). Inne rozwiązania backupowe w tym samym środowisku wypadły dużo gorzej ponad 8 godzin lub nawet ponad 14 godzin (niebieski i czerwony słupek). Skala zrobiła swoje tysiąc maszyn wirtualnych to dużo, i okazuje się, że integracja z oprogramowaniem macierzy jest w dużych środowiskach kluczowa. Jak skrócić backup maszyny wirtualnej wielkości ponad 700 GB z 4-5 godzin do 7 minut? Śledzenie, identyfikacja i odczyt jedynie zmienionych bloków w połączeniu z deduplikacją mają przed sobą przyszłość. Kopia bardzo blisko macierzy Mamy rok 2015 i oprogramowanie systemów pamięci masowych nie jest już monolityczne, umożliwiając integrację z aplikacjami zewnętrznymi, w tym właśnie backupowymi. Dobrym przykładem takiej integracji jest współpraca Symantec/Veritas i NetApp. Obie Warto tu podkreślić, ze wszystkie testowane systemy korzystały z optymalizacji odczytu z wykorzystaniem oferowanej przez środowisko VMware funkcji Change Block Tracking, dzięki któremu odczytywane były jedynie różnice na poziomie blokowym. A zatem, choć warunki sprzyjały wydajności, skala zrobiła swoje tysiąc maszyn wirtualnych to dużo, i okazuje się, że integracja z oprogramowaniem macierzy jest w dużych środowiskach kluczowa. Mało tego, dalsze zwiększanie liczby maszyn wirtualnych nie powoduje znacznego wzrostu czasu wykonywania backupu. Aby uzyskać naprawdę znaczącą poprawę wydajności i skrócenie czasu trwania zadań backupu, trzeba zmienić technikę odczytu danych źródłowych ( ). Zamiast za każdym razem odczytywać i przesyłać przez sieć pełną kopię danych, agent systemu backupowego może śledzić zmiany w systemie źródłowym i odpowiadające im zmiany bloków od czasu wykonania ostatniej kopii, zapisując je w podręcznej bazie danych lub lokalnym pliku. ( ). W ten sposób ( ) sumaryczny czas wykonywania backupu można zmniejszyć wielokrotnie Zmiany dotyczą także backupu systemów plików. Tradycyjny backup plikowy to już przeżytek. Dla dużych systemów plików, a te są największym wyzwaniem, kopiując dzisiaj plik po pliku z systemu źródłowego nie jesteśmy w stanie zmieścić się z zadaniem backupu w żadnym akceptowalnym oknie czasowym. Producenci systemów backupu zapewniają odpowiednie wtyczki do systemów plików, a nawet urządzeń NAS. Dzięki nim, system backupowy może zajrzeć do dziennika transakcji systemu plików NTFS albo VxFS i wybrać tylko te zakresy bloków, czy nawet bajtów, które uległy zmianom. Mechanizm ten wielokrotnie skraca czas backupu. Dzięki niemu, w imponującym stylu jesteśmy w stanie zmieścić się w zakładanych oknach czasowych i spełnić wymagania biznesowe. Jeśli mamy do czynienia z urządzeniami NAS, zawsze pozostaje protokół NDMP, który NetApp wraz z Legato (obecnie EMC)

uzgodniły niegdyś wspólnie, a który dzisiaj jest standardem backupu urządzeń NAS. Systemy backupu, takie jak EMC Avamar czy Symantec/Veritas NetBackup, również dla protokołu NDMP są w stanie identyfikować zmiany i tylko zmienione bloki odczytywać z systemów źródłowych. Technologie te pozwalają zabezpieczać wieloterabajtowe systemy plików w czasie rzędu minut, a nie dziesiątek godzin. Tradycyjny backup plikowy to już przeżytek. Dla dużych systemów plików, a te są największym wyzwaniem, kopiując dzisiaj plik po pliku z systemu źródłowego nie jesteśmy w stanie zmieścić się z zadaniem backupu w żadnym akceptowalnym oknie czasowym Te same cele, inne metody Dotychczas rozważaliśmy tylko backup wykonywany w jednej lokalizacji, wiele organizacji musi jednak, chcąc nie chcąc, zmierzyć się z wyzwaniem, jakim jest rozproszenie pracowników, systemów i danych. Jeśli sieć oddziałów jest niewielka, np. obejmuje kilkanaście oddziałów w głównych miastach Polski, można pokusić się o backup centralny. Gdy jednak oddziałów są dziesiątki lub setki, albo gdy oddziały są duże w sensie ilości danych, które generują, warto pomyśleć o backupie z agregacją danych na poziomie regionalnym. Taka topologia pozwoli uniknąć konieczności budowy kosztownego, superwydajnego środowiska centralnego backupu, przy zachowaniu oczekiwanych parametrów bezpieczeństwa danych. Do tematu backupu w rozproszeniu można jednak, i warto, podejść kreatywnie. Jeśli rozproszone są głównie systemy wykorzystujące serwery plików oparte na Windows, dobrym pomysłem jest wykorzystanie technologii rozproszonej struktury domenowej, DFSR (Distributed File System Replication) oraz opcji Branch Cache. Dzięki nim plikami w oddziałach zarządza serwer w centrali, zaś serwery lub komputery w oddziałach utrzymują jedynie bufor, który jest synchronizowany z centralą. W ten sposób, pomimo rozproszenia, backup może być wykonywany centralnie. Korzyść z replikacji systemu plików jest taka, że można dzięki niej uzyskać niezłą ochronę danych bez oprogramowania backupowego. Dodanie snapszotów pozwoli również na obsługę wersjonowania i odtwarzania wcześniejszych wersji plików. Odtwarzanie może odbywać się z serwera oddziałowego lub z jego kopii na serwerze centralnym. Taka architektura wymaga jednak przemyślenia i planowania na poziomie łącz oraz technologii dyskowych i systemów bezpieczeństwa. Trzeba także zastanowić się w jakim trybie dane będą zabezpieczane na nośnikach wymiennych i archiwizowane. Ponieważ funkcje tego rodzaju wykonuje w praktyce oprogramowanie backupowe, może się okazać, że pierwotne założenia dotyczące architektury całego rozwiązania trzeba będzie jednak zweryfikować. Do tematu backupu w rozproszeniu można i warto, podejść kreatywnie. Jeśli rozproszone są głównie systemy wykorzystujące serwery plików oparte na Windows, dobrym pomysłem jest wykorzystanie technologii rozproszonej struktury domenowej, DFSR (Distributed File System Replication) oraz opcji Branch Cache. ( ) W ten sposób, pomimo rozproszenia, backup może być wykonywany centralnie Wszystko w jednym? Na rynku wciąż pojawiają klienci chcący zbudować jedno, spójne rozwiązanie do backupu wszystkiego nie tylko serwerów, ale także komputerów, laptopów i urządzeń mobilnych. Wszyscy liczący się producenci oferują rozwiązania dla każdej z tych kategorii, ale są to zwykle rozwiązania odrębne lub podobne jedynie z nazwy. Jest to głęboko uzasadnione technologicznie i architektonicznie ich wewnętrzna architektura i zasady działania są bowiem tak różne, że próba ich integracji mija się z celem. Serwer to coś, co z perspektywy backupu jest zawsze w tym samym miejscu, pod tym samym adresem IP. Jeśli serwer zniknie, to dla systemu backupowego, i nie tylko, jest to duży, czerwony alarm. Z kolei dla laptopa niedostępność w sieci lub okresowe pojawianie się w niej, za każdym razem z innym adresem IP, to stan, można powiedzieć, naturalny. Z tego właśnie w dużej mierze wynika zasadniczo inna konstrukcja systemów backupowych dla wszelkich platform mobilnych. W ich przypadku polityka wykonywania kopii w trybie codziennie o 15.00 nie ma po prostu racji bytu. Jedynym wyjątkiem od tej reguły są stacjonarne stacje robocze, zwykle działające w tym samym miejscu i pod tym samym adresem IP. Takich stacji zwykle nawet nie wyłącza się na noc, podobnie jak serwerów. W rozwiązaniach do zabezpieczania platform serwerowych to serwer backupowy wyznacza czas i steruje procesem wykonywania kopii. W przypadku platform mobilnych to agent zainstalowany na urządzeniu jest panem sytuacji. Można go skonfigurować tak, by np. kopie były wykonywane wtedy, gdy komputer dysponuje dostępem do sieci o określonej minimalnej przepustowości, oraz aby ostatni backup zawsze był dostępny w lokalnym buforze na wypadek potrzeby odtwarzania przy braku dostępu do sieci. Definicje polityk muszą być bardziej elastyczne także dlatego, że komputer może być niedostępny do backupu nawet przez kilka dni. W takim przypadku zwykle uruchomiona zostanie lokalna procedura przypominająca użytkownikowi o konieczności połączenia się z serwerem backupowym.

CENTRALA Klecińska 123, 54-413 Wrocław tel. +48 71 772 66 00 fax. +48 71 798 57 75 e-mail: info@advatech.pl ODDZIAŁ W POZNANIU Sarmacka 11, 61-616 Poznań tel. +48 61 828 82 73 fax. +48 61 826 79 50 e-mail: poznan@advatech.pl ODDZIAŁ W WARSZAWIE Poleczki 21, 02-822 Warszawa tel. +48 22 319 38 70 fax. +48 22 319 38 71 e-mail: warszawa@advatech.pl ODDZIAŁ W KATOWICACH Kolista 25/23, 40-486 Katowice tel. +48 32 735 03 16 fax. +48 32 735 03 16 e-mail: katowice@advatech.pl W świecie systemów IT rozszerzanie się zakresu skali integracji to zjawisko nadające tempo rozwojowi infrastruktury. Dziś już nikt nie zastanawia się specjalnie nad wyborem rodzaju procesora pod względem zakresu jego instrukcji, zaciera się granica pomiędzy firmware a systemem operacyjnym. Jako element infrastruktury traktowany jest silnik bazy danych i platforma aplikacyjna. Misją Advatech w krajobrazie ciągle rozwijających się technologii cyfrowych jest takie wspomaganie swoich Klientów i Partnerów, aby w zmieniającej się rzeczywistości maksymalnie efektywnie wykorzystywać pojawiające się na styku kolejnych warstw infrastruktury synergie pozwalając na stały, organiczny wzrost w tempie zmian narzucanych przez nowe technologie i rozszerzanie się definicji pojęcia infrastruktura. Firma Advatech jako integrator rozwiązań informatycznych działa na rynku IT od 1998 roku. Od początku istnienia sukcesywnie zwiększamy portfolio oferowanych rozwiązań i podnosimy ich jakość balansując dynamikę rozwoju pomiędzy tym co nowe i ekscytujące oraz tym co sprawdzone i stabilne. Staramy się dbać o każdy szczegół współpracy na wszystkich etapach kontaktu z Klientem zaufanie jakim jesteśmy obdarzani w zamian jest dla nas najlepszym dowodem profesjonalnego podejścia do realizowanych usług i rzetelnego wywiązywania się z projektów. WŚRÓD OBSZARÓW DZIAŁALNOŚCI ADVATECH WYRÓŻNIĆ MOŻNA: projektowanie i wdrażanie infrastruktury IT w architekturze wysokiej dostępności systemy bezpieczeństwa, archiwizacji i backup u danych obsługę serwisową infrastruktury informatycznej z gwarantowanymi SLA systemy pracy grupowej i zarządzania informacją Jesteśmy wśród najdynamiczniej rozwijających się firm IT na rynku środkowoeuropejskim według prestiżowego rankingu Deloitte Technology Fast 50 oraz Deloitte Technology Fast 500 EMEA. Nieprzerwanie od 2004 roku otrzymujemy tytuł Gazeli Biznesu w zestawieniu Pulsu Biznesu. Poza tym bierzemy udział m.in. w takich ogólnopolskich rankingach jak Computerworld TOP200, Book of Lists, w raportach: Teleinfo 500 czy magazynu Home&Market. Coraz wyższe lokaty w wymienionych zestawieniach świadczą o dynamicznym rozwoju firmy. Firma Advatech jest jednym z kluczowych partnerów firmy Veritas/ Symantec. Dzięki współpracy Veritas/Symantec i Advatech dostarczają innowacyjne usługi i rozwiązania, które z kolei pomagają rozwijać się klientom i podnosić wydajność w ich przedsiębiorstwach. Wykwalifikowana kadra inżynierów Advatech wdraża produkty i rozwiązania Veritas/ Symantec, które pomagają klientom zarządzać, zabezpieczać i uzyskiwać lepszą kontrolę informacji w ich środowisku, a także zmniejszać ilość nadmiarowych danych. Klienci wybierający współpracę z Advatech mogą liczyć na wsparcie w następujących aspektach: planowanie i audyt przed zakupem produktów Veritas/Symantec dostawy i instalacja sprzętu i oprogramowania kompleksowe wdrożenia systemów backupu i wysokiej dostępności wsparcie serwisowe gwarantujące stabilną pracę systemów transfer wiedzy poprzez warsztaty, szkolenia, informacje o nowościach. Niezawodność i doskonała znajomość produktów Veritas/Symantec to najważniejsze cechy charakteryzujące firmę Advatech. 2015 Advatech. Znaki towarowe: nazwa Advatech i logotyp Advatech są znakami towarowymi lub zarejestrowanymi znakami towarowymi firmy Advatech. Nazwa Symantec i logotyp Symantec są znakami towarowymi lub zarejestrowanymi znakami towarowymi firmy Symantec. Nazwa Veritas i logotyp Veritas są znakami towarowymi lub zarejestrowanymi znakami towarowymi firmy Symantec. Inne nazwy firm, produktów i usług mogą być znakami towarowymi albo usługowymi innych podmiotów.