Microsoft Public Cloud



Podobne dokumenty
Zbuduj prywatną chmurę backupu w firmie. Xopero Backup. Centralnie zarządzane rozwiązanie do backupu serwerów i stacji roboczych

Windows Serwer 2008 R2. Moduł 8. Mechanizmy kopii zapasowych

Do kogo kierujemy ofertę?

Zmiana treści Specyfikacji Istotnych Warunków Zamówienia.

Zmiana treści Specyfikacji Istotnych Warunków Zamówienia.

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

EPA Systemy Sp. z o.o. Przedstawiciel CTERA Networks Ltd w Polsce Tel gbi@profipc.pl CTERA

EPA Systemy Sp. z o.o. Przedstawiciel CTERA Networks Ltd w Polsce Tel CTERA

Xopero Backup Appliance

AE/ZP-27-16/14. Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi

Systemy macierzowe. www. qsantechnology. com

ekopia w Chmurze bezpieczny, zdalny backup danych Instrukcja użytkownika dla klientów systemu mmedica

Instalacja i podstawowa konfiguracja aplikacji ImageManager

Narzędzia umożliwiające tworzenie scentralizowanej polityki prowadzenia backupów. Adrian Marczyk

Referat pracy dyplomowej

ekopia w Chmurze bezpieczny, zdalny backup danych

Narzędzia umożliwiające tworzenie scentralizowanej polityki prowadzenia backupów. Paweł Płoskonka IS2, P2

Szybki przewodnik po produkcie. EMC DataDomain

Symantec Backup Exec System Recovery 7.0 Server Edition. Odtwarzanie systemu Windows w ciągu najwyżej kilkudziesięciu minut nie godzin czy dni

Wykonać Ćwiczenie: Active Directory, konfiguracja Podstawowa

27/13 ZAŁĄCZNIK NR 4 DO SIWZ. 1 Serwery przetwarzania danych. 1.1 Serwery. dostawa, rozmieszczenie i zainstalowanie 2. serwerów przetwarzania danych.

Odpowiedź II wyjaśnienie na zapytania do Specyfikacji Istotnych Warunków Zamówienia.

IT-Archiwum SaaS. tel: Światowej klasy usługa tworzenia backupów online dopasowania do Twojej firmy

DESlock+ szybki start

WZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy:

ZAŁĄCZNIK NR 1.8 do PFU Serwery wraz z system do tworzenia kopii zapasowych i archiwizacji danych - wyposażenie serwerowni

Instrukcja szybkiego rozpoczęcia pracy

Opis przedmiotu zamówienia: Przedmiotem zamówienia na potrzeby Miejskiego Ośrodka Pomocy Społecznej w Mikołowie jest zakup, dostawa oprogramowania (

Implementowanie zaawansowanej infrastruktury serwerowej Windows Server 2012 R2

OFFICE ADFS - POŁĄCZENIE KORZYŚCI ROZWIĄZAŃ CHMUROWYCH I CENTRALNEGO ZARZĄDZANIA

GSMONLINE.PL. T-Mobile wprowadza platformę T-Mobile Cloud - aktualizacja Polski T-

Wstęp... ix. 1 Omówienie systemu Microsoft Windows Small Business Server

WHITE PAPER. Planowanie, przygotowanie i testowanie działań na wypadek wystąpienia awarii

SHADOWPROTECT SPX. Business Continuity Starts Here

Memeo Instant Backup Podręcznik Szybkiego Startu

StoreOnce - To więcej niż Backup2Disk

Backup Online. BACKUP ONLINE dla klientów telekomunikacyjnych NASK

Sposób funkcjonowania

Case Study: Migracja 100 serwerów Warsaw Data Center z platformy wirtualizacji OpenSource na platformę Microsoft Hyper-V

Win Admin Replikator Instrukcja Obsługi

Symantec Cloud. Wsparcie w Twoim biznesie

SYSTEM VILM ZARZĄDZANIE CYKLEM ŻYCIA ŚRODOWISK WIRTUALNYCH. tel: +48 (032)

Zbuduj prywatnπ chmurê backupu w? rmie. Xopero Backup. Centralnie zarzπdzane rozwiπzanie do backupu serwerów i stacji roboczych

Tworzenie kopii zapasowych i archiwalnych

Rodzaje pamięci masowych by Silas Mariusz

Kopia zapasowa i odzyskiwanie

EZ/2009/697/92/09/ML Warszawa, dnia r.

ZMIANA TREŚCI SPECYFIKACJI ISTOTNYCH WARUNKÓW ZAMÓWIENIA

Tworzenie oraz przywracanie obrazu systemu Windows 7

Instalowanie i konfigurowanie Windows Server 2012 R2

Windows Server Active Directory

Win Admin Replikator Instrukcja Obsługi

Xopero Backup Build your private cloud backup environment. Rozpoczęcie pracy

2. Kontroler Dwa kontrolery pracujące w trybie active-active wyposażone w min. 32GB cache (każdy). Kontroler oparty na architekturze 64 bitowej.

Instrukcja szybkiego rozpoczęcia pracy

DLA WINDOWS 1. USTAWIANIE SKOKU W CZASIE 2.WYBÓR CHRONIONYCH PLIKÓW 3.POWRÓT DO PRZESZŁOŚCI

Autorytatywne serwery DNS w technologii Anycast + IPv6 DNS NOVA. Dlaczego DNS jest tak ważny?

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys

Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

NOWY OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

Poradnik zetula.pl. Jak założyć konto na zetula.pl. i zabezpieczyć dane na swoim komputerze?

Włącz autopilota w zabezpieczeniach IT

PREMIUM BIZNES zł 110zł za 1 Mb/s Na czas nieokreślony Od 9 14 Mbit/s

oprogramowania F-Secure

Serwer druku w Windows Server

Microsoft System Center Virtual Machine Manager 2012

Pełna specyfikacja pakietów Mail Cloud

Kancelaria Prawna.WEB - POMOC

Symantec Backup Exec 2012 V-Ray Edition

DHL CAS ORACLE Wymagania oraz instalacja

System Kancelaris. Zdalny dostęp do danych

Symantec Backup Exec 2012

Instalacja Active Directory w Windows Server 2003

Szkolenie autoryzowane. MS 6419 Konfiguracja, zarządzanie i utrzymanie systemów Windows Server 2008

Windows Server 2012 Hyper-V Replica.

Pracownia internetowa w każdej szkole (edycja Jesień 2007)

09:00 09:30 Rejestracja uczestników. 09:30 10:30 StorageCraft ShadowProtect. 11:00 11:40 Serwery NAS ASUSTOR

Usługi Teleinformatyczne. System backup u On-Line STORIO MozyPro

Backup Exec Disaster Recovery - konfiguracja płyty ratunkowej i przywracanie całego systemu operacyjnego z kopii bezpieczeństwa

Sieciowa instalacja Sekafi 3 SQL

Wykonywanie kopii zapasowych i odtwarzanie danych Instrukcja obsługi


[1/15] Chmury w Internecie. Wady i zalety przechowywania plików w chmurze

LANDINGI.COM. Case Study. Klient Landingi.com. Branża IT, marketing i PR. Okres realizacji od grudnia 2013 do chwili obecnej.

Wirtualizacja desktopów i aplikacji.

Client Management Solutions i Mobile Printing Solutions

1 Implementowanie i konfigurowanie infrastruktury wdraŝania systemu Windows... 1

IV. Wymagane parametry techniczne platformy sprzętowo-programowej (serwera) do zarządzania oprogramowaniem do wykonywania kopii zapasowych szt. 1.

Instalacja SQL Server Express. Logowanie na stronie Microsoftu

Backup Premium Podręcznik Szybkiego Startu

Ochrona Danych Wrocław 7 marzec 2007

Zapytanie ofertowe nr 03/05/2014. Zakup licencji na oprogramowanie do wirtualizacji Działanie POIG 8.2

Kopia zapasowa i odzyskiwanie

Profesjonalny system archiwizacji i udostępniania danych z centralnym zarządzaniem

Client Management Solutions i Universal Printing Solutions

Zarządzanie ciągłością biznesową w rozwiązaniach firmy Microsoft

Podręcznik administratora Systemu SWD ST Instrukcja instalacji systemu

Zarządzaj projektami efektywnie i na wysokim poziomie. Enovatio Projects SYSTEM ZARZĄDZANIA PROJEKTAMI

Transkrypt:

1. Prelegenci Dominik Wojciechowski, eopen; Adrian Przygoda, eopen. Waldemar Skrzypiec, w firmie Microsoft jest odpowiedzialny za wsparcie techniczne. Dominik Wojciechowski oraz Adrian Przygoda z firmy eopen zajmują się wdrożaniami systemów informatycznych, w tym rozwiązań backupu w chmurze oraz świadczeniem wsparcia technicznego dla klientów zewnętrznych. Cykl eseminariów Tematem drugiego eseminarium firmy Microsoft z cyklu Chmura publiczna w scenariuszach biznesowych jest. Agenda spotkania Rozpoczniemy od przedstawienia wyzwań związanych z backupem danych w chmurze. Następnie opowiemy jak działa Storage. W kolejnej części niniejszego tekstu omówimy usługi backupu w chmurze. Sprawdzimy również, czy jest to bezpieczne rozwiązanie i w jaki sposób współpracuje ono z oprogramowaniem System Center Configuration Manager (SCCM). Na koniec zaprezentujemy urządzenie StorSimple, które umożliwia integrację lokalnego magazynu pamięci masowej, przechowującego kopie zapasowe i archiwa danych, z usługami chmury publicznej. Wyzwania backupu Pojęcie kopii zapasowych nie jest związane wyłącznie z systemami informatycznymi. Każdy z nas ma jakieś dane. Każdy stara się w pewien sposób te dane zabezpieczać. Backup danych jest więc zagadnieniem, które dotyczy każdego kto korzysta z komputerów i systemów IT. Wśród najważniejszych wyzwań związanych z tradycyjnym backupem warto wymienić przyrost danych oraz związany z tym wzrost złożoności systemów informatycznych i rozwiązań backupu. Z badań firmy analitycznej Forrester Research wynika, że liczba danych, które powinny zostać uwzględnione w kopii zapasowej wzrasta nawet o 50-60% w skali roku. Administratorzy IT muszą obsługiwać coraz większą liczbę urządzeń i powiązanych ze sobą systemów.

2. Badania Forrester Research pokazują, że przyrost ilości danych w firmach sięga 50%-60% w stosunku rok do roku. Wzrost liczby danych do backupu przekłada się na wyższe koszty oraz dłuższy czas tworzenia kopii zapasowych i archiwizacji danych. To z kolei może spowodować, że nie wszystkie dane zostaną objęte właściwą ochroną. Dwie strategie rozwoju systemów backupu Z obserwacji rynku wynika, że wraz ze wzrostem liczby informacji, można podjąć dwie decyzje dotyczące strategii utrzymania i rozwoju systemów do tworzenia kopii zapasowych i archiwizacji danych w przedsiębiorstwie. Wariant pierwszy zakłada zakup nowego lub dodatkowego sprzętu i oprogramowania do backupu, które umożliwia przechowywanie coraz większej liczby danych. Wzrost złożoności systemów backupu oraz liczby danych, które należy zabezpieczać i archiwizować, wiąże się z koniecznością zatrudnienia dodatkowego personelu IT. To bezpośrednio przekłada się na lawinowo rosnące koszty utrzymania rozwiązań ochrony danych w firmie. Drugie podejście zakłada ograniczenie ilości danych, które poddajemy procesowi backupu. Za każdym razem wymaga ono podjęcia decyzji, które dane są mniej, a które bardziej ważne. Tutaj nasuwa się zasadnicze pytanie skąd będziemy wiedzieć, które dane, z perspektywy przedsiębiorstwa i prowadzonego biznesu, są nieistotne i z całą pewnością nie będą potrzebne w przyszłości?

3. Backup w chmurze Spróbujmy przyjrzeć się rozwiązaniom backupu w chmurze, które stanowią odpowiedź na niektóre wyzwania, jakie stawia przed nami tradycyjny backup. Jak już zostało wspomniane, wzrost liczby danych w przedsiębiorstwie wynosi od 50 do 60% rok do roku. Okazuje się jednak, że liczba danych, na których pracujemy każdego dnia, już tak szybko nie przyrasta. Nie ma nic odkrywczego w tym, że ludzie pracują na plikach, których w danej chwili potrzebują. Pliki te są później odkładane, a do większości z nich nigdy więcej nie wracamy. Czas życia informacji, które są nam niezbędne w danej chwili, wynosi zaledwie kilka, kilkanaście dni. Widać to wyraźnie na przykładzie poczty elektronicznej. E-mail jest dla nas ważny przez pierwszy tydzień. Później wiadomość ta staje się w pewnym sensie archiwalna, choć istnieje duże prawdopodobieństwo, że będziemy chcieli do niej wrócić w przyszłości. Jednak im dłuższy czas od otrzymania e-maila, tym coraz rzadziej odwołujemy się do zawartych w nim informacji. Podobna sytuacja ma miejsce z plikami. Materiały zgromadzone w trakcie trwania projektu są rzadko wykorzystywane po jego zakończeniu. Wracamy do nich, jeśli chcemy pobrać szablon dokumentu, wyciągnąć listę klientów itd. Z całą pewnością pliki te można jednak uznać za archiwalne, bowiem nie używamy ich w codziennej pracy. Zawarte w nich informacje są wykorzystywane sporadycznie. Backup lokalny vs. chmura Z danych Forrester Research wynika, że backup danych w chmurze jest czterokrotnie tańszy niż backup lokalny (on premise) na macierzy SAN. Warto zwrócić uwagę, że backup w chmurze daje nam również większą elastyczność stosowania. W przypadku backupu lokalnego konieczne jest takie zaplanowanie infrastruktury backupu, które uwzględni przyrost danych w przyszłości. Korzystając z przestrzeni w chmurze, płacimy wyłącznie za miejsce na dyskach, które zajmujemy w danej chwili. Koszty rozwoju rozwiązań backupu ponoszone są wraz ze wzrostem liczby danych, a nie na etapie wdrażania systemów zabezpieczeń w organizacji. Spróbujmy jeszcze raz nakreślić korzyści, jakie niosą ze sobą usługi backupu w chmurze, a następnie podeprzyjmy te tezy konkretnymi pomysłami i rozwiązaniami. Najważniejsze korzyści z backupu w chmurze to zmniejszenie kosztów ochrony danych nawet o 60%, efektywne wykorzystanie zasobów, możliwość włączenia chmury do planu disaster recovery oraz rozszerzenie znanych usług kopii zapasowych o chmurę.

4. Koszty tradycyjnego backupu Bardzo często, analizując koszty backupu, pomijamy wiele elementów. Bierzemy pod uwagę koszty inwestycji w przestrzeń dyskową, zapominając o kosztach zakupu przełączników, okablowania oraz utrzymania systemu w przyszłości. Do tej ostatniej grupy kosztów zaliczyć można m.in. wynagrodzenia pracowników działu IT. Pamiętajmy, że w procesie zarządzania kopiami zapasowymi wymagane jest regularne prowadzenie prób odzyskiwania danych. Musimy mieć pewność, że to co zapisujemy na nośnikach w kopii, będziemy mogli odzyskać w przyszłości. To wymaga pracy ludzi, która kosztuje. Plan disaster recovery Backup zapisywany w chmurze jest automatycznie backupem wyniesionym na zewnątrz. W tym kontekście chmura zapewnia nam kolejny element ochrony danych, który zakłada konieczność przechowywania kopii zapasowych poza serwerownią przedsiębiorstwa. Backup w chmurze może być wykorzystany w trakcie przywracania danych po katastrofie (disaster recovery). Przechowywanie danych backupu w miejscu, w którym te dane powstają i w którym je używamy, z założenia jest słabym zabezpieczeniem. Każde zdarzenie losowe np. pożar, przepięcie energetyczne, może prowadzić do utraty zarówno informacji, które poddajemy backupowi, jak i naszych kopii zapasowych. W tym kontekście przechowywanie backupu w zewnętrznej lokalizacji (off-site) stanowi element planu disaster recovery w przedsiębiorstwie. W dzisiejszych czasach najczęściej stosowanym rozwiązaniem backupu jest tworzenie kopii zapasowych danych jednocześnie na macierzy dyskowej oraz na taśmach magnetycznych. Backup na dysk wykorzystywany jest do szybkiego odzyskiwania danych, podczas gdy kopie zapisywane na taśmach są przechowywane w zewnętrznej lokalizacji np. w skrytce bankowej. Podejście to generuje dodatkowe koszty związane z wynajęciem skrytki, koniecznością przenoszenia taśm do banku itd. Bezpieczne, bo zaszyfrowane Kolejna rzecz szyfrowanie i bezpieczeństwo danych. Wiele osób wykazuje zainteresowanie backupem w chmurze. Za każdym razem pojawia się jednak pytanie jakie mamy gwarancje, że ktoś inny nam tych danych nie odczyta? Jest to ważna kwestia, która bezpośrednio dotyka bezpieczeństwa informacji.

5. Bezpieczeсstwo w Pracownicy firmy Microsoft, do której należy, nie mają dostępu do danych swoich klientów. Klient w swojej lokalnej infrastrukturze przechowuje klucz prywatny, którym szyfrowane są dane backupu składowane w chmurze. Dane te poddawane są szyfrowaniu przed ich przesłaniem do chmury. Dodatkowo, transmisja danych do chmury odbywa się przez szyfrowany protokół SSL. Zwróćmy uwagę, że Microsoft, ani żadna osoba postronna, nie ma dostępu do klucza prywatnego użytkownika. Tak więc nikt, kto nie posiada klucza szyfrującego, nie ma dostępu do informacji zawartych w kopii zapasowej przechowywanej w chmurze. Efektywne wykorzystanie zasobów W chmurze płacimy tylko za rzeczywiście wykorzystywane zasoby. Zaletą chmury jest to, że nie musimy deklarować zapotrzebowania na miejsce na backup w przyszłości, a co za tym idzie, płacić za przestrzeń, której w danej chwili nie potrzebujemy. Tworząc infrastrukturę backupu na poziomie sprzętowym, bez wykorzystania chmury, można wpaść w pułapkę związaną z niewłaściwym zaplanowaniem przestrzeni dyskowej. Planowanie systemu backupu wymaga przyjęcia szeregu założeń. Przykładowo, w ciągu najbliższych 2-3 lat będziemy przechowywać 10-12 TB danych. Wzrost ilości danych w kopii wyniesie ok. 50-60% rocznie. Na początek kupujemy więc połowę dysków, bo tyle potrzebujemy w danej chwili. Przyjmujemy jednak, że kolejne nośniki pamięci będziemy dodawać wraz ze wzrostem rozmiaru tworzonych kopii zapasowych.

6. Problem w tym, że przyjęte założenia odnośnie wzrostu ilości danych niekoniecznie muszą okazać się prawdą. W przypadku gwałtownego rozwoju firmy albo przejęcia innego podmiotu (i tym samym konieczności obsługi jego infrastruktury informatycznej) może okazać się, że zaplanowany system kopii zapasowych nie spełnia wymagań postawionych na początku. W tym przypadku, dalszy rozwój rozwiązań backupu w przedsiębiorstwie wymagać będzie poniesienia istotnych nakładów inwestycyjnych związanych z zakupem nowych macierzy, dysków czy serwerów. Chmura pozwala w elastyczny sposób reagować na zmieniające się otoczenie. Mamy tutaj tyle miejsca na backup, ile w danej chwili potrzebujemy. W przypadku lawinowego wzrostu ilości danych w kopii zapasowej, nie ponosimy żadnych wydatków związanych np. z zakupem nowych dysków. Rozszerzenie znanych usług kopii zapasowych o chmurę Znane narzędzia Microsoft np. Windows Backup oraz znane interfejsy programów tej firmy zostały rozszerzone o funkcje tworzenia kopii zapasowych do chmury. Wdrożenie mechanizmów backupu w chmurze nie wymaga więc instalowania nowego, nieznanego administratorom IT oprogramowania. Osoby, które już korzystają z Windows Backup lub innych narzędzi do tworzenia kopii zapasowych danych klasy korporacyjnej, nie potrzebują uczyć się nowych rzeczy. Dla nich chmura stanowi dodatkową przestrzeń dyskową (storage), na której w sposób bezpieczny mogą oni przechowywać dane. Z perspektywy administratora ważne jest, że kopie te składowane są w zdalnej lokalizacji (off-site) i dodatkowo zabezpieczone kilkoma replikami w centrum danych Microsoft. Windows Azure Storage Pokuśmy się o zastanowienie, co stoi za rozwiązaniami usług przechowywania danych (storage) w chmurze. Sprawdźmy, czym jest Storage i ile osób już zaufało chmurze Microsoftu? Na chwilę obecną w Storage składowanych jest ponad 10 bilionów obiektów. Przez obiekt rozumiemy tutaj pojedynczy plik, blok danych, wiadomość, tabelę. Aby uzmysłowić sobie tę ilość danych dodajmy, że każdy człowiek na świecie miałby w tej chwili 1400 obiektów przechowywanych w. W 2013 roku Nasuni, dostawca rozwiązań pamięci masowych dla chmury, określiła Storage jako usługę wiodącą na rynku. Tym samym firmie Microsoft udało się wyprzedzić Amazona z jego usługą S3. Storage działa jak każdy inny twardy dysk. W szczególności, jeśli połączymy to rozwiązanie z urządzeniem StorSimple, które szerzej omówimy w dalszej części niniejszego tekstu.

7. Sześć kopii w dwóch lokalizacjach Zaletą tego dysku jest fakt, że wszystkie dane zapisane w chmurze trzymane są w wielu kopiach. Stanowi to odzwierciedlenie założeń każdego backupu. Dane backupu muszą być przechowywane w kilku kopiach, aby awaria któregoś z nośników nie prowadziła do ich utraty. Planując backup powinniśmy więc starać się zaplanować co najmniej dwie oddzielne ścieżki zapisu kopii zapasowych. Korzystając z backupu w chmurze mamy to zagwarantowane przez dostawcę. W przypadku Windows Azure od razu są to trzy repliki danych poddawanych backupowi. Opcjonalny mechanizm georeplikacji wymusza skopiowanie każdej z tych trzech replik do innego centrum danych Microsoft. W rezultacie mamy aż sześć kopii danych przechowywanych w chmurze. Centra danych Microsoftu rozsiane są po całym świecie, jednak wybranych polskich klientów obowiązuje prawo, które zabrania im przekazywania danych poza obszar Europejskiego Obszaru Gospodarczego (EOG). Z perspektywy tych klientów ważne jest, że dane w chmurze Storage replikowane są w obrębie tego regionu. W Europie Microsoft ma dwa centra danych jedno znajduje się w Amsterdamie, drugie w Dublinie. Klient może mieć więc pewność, że jego dane przechowywane będą tylko w tych centrach, które zlokalizowane są na terenie EOG. W trakcie webinarium przedstawimy trzy różne scenariusze backupu w chmurze z wykorzystaniem narzędzi Backup, System Center Data Protection Manager oraz sprzętowego rozwiązania StorSimple, które umożliwia stworzenie hybrydowego magazynu danych. Windows Azure Backup Podstawowym rozwiązaniem tworzenia kopii zapasowych i przywracania danych dla serwerów Windows jest Backup. Narzędzie to jest chętnie wykorzystywane przez małe i średnie firmy. Wynika to z jednej, prostej przyczyny. Aplikacja ta jest wbudowana w system operacyjny Windows Server i nie wymaga ponoszenia dodatkowych nakładów finansowych na zakup oprogramowania do backupu. Jednocześnie Windows Azure Backup jest bardzo funkcjonalnym narzędziem, które umożliwia tworzenie kopii całego dysku, stanu systemu, wolumenów lub wskazanych folderów. Oprogramowanie to może być również elementem planu odzyskiwania danych (disaster recovery) w przedsiębiorstwie. Backup pozwala na bezpośredni zapis danych do chmury. Wymagana jest jedynie instalacja niewielkiego agenta, który odpowiada za przesyłanie danych do zewnętrznej lokalizacji. Agent usługi zapewnia również wysoką wydajność backupu. Do chmury transmitowane są tylko zmienione oraz nowe bloki danych. Kopie zapasowe są szyfrowane po stronie serwera, zanim jeszcze zostaną przesłane do Storage.

8. Disaster recovery Kluczowym elementem planu odzyskiwania po katastrofie w przedsiębiorstwie (disaster recovery) jest przechowywanie kopii zapasowych danych w zewnętrznej lokalizacji (off-site). Wyobraźmy sobie użytkownika, który w swojej serwerowni ma dwa, trzy serwery, które obsługują wszystkie systemy IT w firmie. Wiele przedsiębiorstw w Polsce działa właśnie w ten sposób, uruchamiając lokalnie na niewielkiej liczbie maszyn kontroler domeny, zwirtualizowany serwer plików i aplikacje biznesowe. Wdrożenie systemu backupu klasy korporacyjnej wymaga poniesienia znacznych nakładów na zakup serwera backupu, macierzy dyskowych do przechowywania kopii zapasowych, biblioteki taśmowej itd. Jeśli zaczniemy liczyć te koszty, to sprawdza się reguła zgodnie z którą wiemy, że backup jest jedną z najważniejszych rzeczy w prawidłowym funkcjonowaniu systemów operacyjnych i dlatego rzadko kiedy działa prawidłowo. O tym, jak ważny jest regularny backup przekonujemy się z reguły dopiero wtedy, gdy potrzebujemy odzyskać dane z kopii. Podsumowanie części I Dane kopii zapasowych są szyfrowane po stronie serwera oraz w trakcie przesyłania ich do chmury. Dane te pozostają cały czas zaszyfrowane w przestrzeni dyskowej chmury. Klucz szyfrujący należy do właściciela danych i jest przechowywany lokalnie. Ważne jest, aby wykonać kopię zapasową tego klucza. W przypadku jego utraty np. na wskutek katastrofy w lokalnej serwerowni, dostęp do kopii zapasowej w chmurze, a co za tym idzie odzyskanie zapisanych w niej danych, będzie po prostu niemożliwe. Backup jest prostym, wydajnym i niezawodnym narzędziem, zintegrowanym z systemem operacyjnym Windows Server. To idealne rozwiązanie dla mniejszych firm, które nie muszą kupować sprzętu i oprogramowania do backupu, a jednocześnie oferuje im możliwość backupu danych na zewnątrz (off-site). Dla kogo Backup? Narzędzie Backup przeznaczone jest dla małych firm i pododdziałów, które nie mają dedykowanych systemów tworzenia kopii zapasowych oraz nie chcą ponosić wysokich nakładów inwestycyjnych w obszarze zabezpieczeń danych. Usługa ta z powodzeniem stosowana jest również w przedsiębiorstwach, w których wdrożono narzędzia z rodziny Microsoft System Center. Backup rozszerza funkcje System Center o mechanizmy backupu do chmury. Z perspektywy łatwości zarządzania, trudno bowiem wyobrazić sobie żeby firma, która posiada 50-100 serwerów, na każdym z nich używała narzędzia Backup.

9. Backup w chmurze w praktyce Sprawdźmy zatem, jak krok po kroku wygląda proces podłączania się do backupu w chmurze. W pierwszym etapie, na lokalnym serwerze, instalujemy agenta Backup. Kolejny krok wymaga założenia konta na oraz skonfigurowania usługi backupu po stronie chmury. W tym celu rejestrujemy serwer w usłudze, a następnie decydujemy, jakie dane będą poddawane procesowi backupu. Następną rzeczą, którą robimy jest wykonanie kopii zapasowej w chmurze. Przypomnijmy po raz kolejny kopie te są szyfrowane lokalnie, przesyłane bezpiecznym tunelem i składowane w formie zaszyfrowanej po stronie. Osoby, które mają do czynienia z narzędziem Windows Backup otrzymują po prostu dodatkowe miejsce (storage) na backup swoich danych w chmurze. Warto wiedzieć, że Windows Backup nie jest nowym oprogramowaniem, którego obsługi musimy się nauczyć. System Center Data Protection Manager System Center Data Protection Manager Podobnie sprawa wygląda w przypadku System Center. Zakładamy subskrypcję w, a następnie instalujemy agenta usługi na serwerze System Center Data Protection Manager (DPM). Zwróćmy uwagę, że agent ten nie jest instalowany na każdym z serwerów, który poddawany jest backupowi. Dalsze kroki są takie same, jak w poprzednim scenariuszu. Rejestrujemy i konfigurujemy serwer System Center DPM w chmurze Microsoftu, tworzymy kopię bezpieczeństwa i w razie potrzeby odzyskujemy dane z backupu.

10. System Center DPM Data Protection Manager jest częścią rodziny narzędzi Microsoft System Center do zarządzania środowiskiem IT w przedsiębiorstwie. Moduł ten jest przeznaczony do tworzenia kopii zapasowych systemów klasy korporacyjnej (enterprise). Z uwagi na koszty zakupu i wdrożenia System Center DPM nie jest stosowany do ochrony danych w mniejszych firmach. Data Protection Manager zapewnia kopie danych z serwerów Exchange, SQL Server oraz SharePoint, plików Active Directory i innych systemów Microsoftu. Backup danych z wykorzystaniem rozwiązań System Center może być prowadzony na wielu poziomach granulacji. W przypadku zwirtualizowanego środowiska Microsoft Exchange mamy możliwość wykonania backupu na poziomie maszyny wirtualnej (migawka pliku VHD). Druga metoda polega na instalacji agenta usługi System Center DPM nie na hoście wirtualizacji, ale bezpośrednio w systemie operacyjnym serwera Exchange. Wówczas mamy możliwość odzyskiwania na poziomie bazy danych Exchange, jak i pojedynczych skrzynek. To samo dotyczy pozostałych serwerów i aplikacji Microsoft. W odniesieniu do SharePoint a możemy wyciągać informacje z backupu nawet do poziomu dokumentu. W przypadku serwera plików Windows Server tutaj również mamy możliwość przywracania pojedynczych plików. Backup SQL Server do chmury Od wersji 2012 oprogramowanie SQL Server ma wbudowane funkcje bezpośredniego backupu do chmury. W SQL Server 2014 dodano konfigurator, który pozwala uruchomić maszynę wirtualną w Windows Azure z repliką naszej bazy danych. W sytuacji awarii lokalnego serwera maszyna ta będzie w stanie podnieść i przejąć prace transakcyjne bazy danych SQL Server. Virtual Machine Manager Mowa tu o drugim narzędziu z rodziny System Center, a mianowicie Virtual Machine Manager (VMM). W momencie awarii systemu lokalnego (on premise), Virtual Machine Manager podnosi maszynę wirtualną w, zapewniając ciągłość działania usług i systemów biznesowych.

11. Menadżer odzyskiwania Do dyspozycji mamy również usługę Menadżer odzyskiwania. Usługa ta działa po stronie, a jej zadaniem jest ciągłe monitorowanie stanu (zdrowia) systemów w lokalnym centrum danych i w chmurze. Między tymi centrami następuje replikacja danych z wykorzystaniem technologii Hyper-V Replica. W przypadku awarii serwera w jednym centrum danych, Menadżer odzyskiwania wyłapuje ten stan i uruchamia działające na nim maszyny wirtualne w chmurze Azure. Sytuacja ta ilustruje doskonały przykład wykorzystania chmury do zapewnienia bezpieczeństwa i ciągłości działania systemów IT przedsiębiorstwa. W przypadku budowania systemów wysokiej dostępności bardzo często pomijamy punkt monitorowania. Zdarzyć się może, że usługa monitorowania znajdzie się w tym samym centrum danych, które w danej chwili przestanie działać. Efektem tego jest utrata wydajności i niezawodności przenoszenia systemów między lokalizacjami. Aby uniknąć tej sytuacji warto przenieść punkt monitorowania do chmury. Miejsca przechowywania Wspomnieliśmy wcześniej, jakie dane można backupować za pomocą narzędzi System Center. Aby uzupełnić tę wypowiedź dodajmy gdzie? System Center pozwala na przechowywanie kopii zapasowych na dyskowej pamięci masowej (diskdisk). Model ten może zostać rozszerzony o replikację danych backupu na taśmy magnetyczne (disk-disk-tape) z wyniesieniem nośnika poza centrum danych. W kontekście tej publikacji zapis kopii na taśmach zostanie zastąpiony przeniesieniem ich do chmury. Podsumowanie części II System Center DPM umożliwia wykorzystanie pamięci masowej w do przechowywania kopii zapasowych lokalnych serwerów w chmurze. Kopia zapisana w chmurze staje się automatycznie kopią przechowywaną w zewnętrznej lokalizacji (offsite), zabezpieczoną przynajmniej trzema replikami, a w przypadku georeplikacji, nawet sześcioma. System Center DPM jest rozwiązaniem klasy korporacyjnej, które zapewnia mechanizmy zarządzania kopiami zapasowymi dla całej organizacji. W odróżnieniu od Windows Azure Backup, którego agenci instalowani są na każdym z serwerów z osobna, System Center DPM zarządza backupami, a agent usługi wysyła dane dalej do chmury.

12. System Center DPM umożliwia zarządzanie nieograniczoną liczbą kopii zapasowych na serwerach. Pojedynczy serwer DPM jest w stanie obsłużyć do 120 węzłów. Istnieje możliwość skalowania całego systemu przez wdrożenie kolejnego serwera usługi DPM w organizacji. System Center DPM ma wbudowaną natywną obsługę w zakresie backupu danych do chmury oraz prowadzenia zadań związanych z odtwarzaniem danych po awarii. Wiele osób tworzy kopie zapasowe, ale zapomina o konieczności prowadzenia regularnych testów odtwarzania danych z backupu. Ma to szczególne znaczenie w przypadku zapisu kopii na taśmach magnetycznych. Rozwiązania backupu na taśmy istnieją na rynku od dłuższego czasu. Technologia zapisu na taśmach jest stale ulepszana, jednak mimo wszystko mamy tutaj do czynienia z taśmami, które łatwo zgiąć, przeciąć, urwać, rozmagnetyzować. Nośniki taśmowe są podatne na wysoką temperaturę i inne czynniki, które de facto powodują, że wykonując kopię na taśmę nie mamy pewności, że te dane zostały rzeczywiście na niej zapisane. Dopiero próba odtworzenia jakiejkolwiek skopiowanej informacji daje nam pewną informację, że kopia zapasowa rzeczywiście tam istnieje. Zawsze istnieje jednak możliwość utraty danych zapisanych na taśmach w przyszłości. Z tego względu konieczne jest wykonywanie kopii danych backupu na dwóch lub większej liczbie taśm. Data Protection Manager w praktyce Konsola System Center Data Protection Manager jest zunifikowana. Wygląd aplikacji jest taki sam, jak pozostałych produktów Microsoftu. Menu mamy po lewej stronie na dole. Środkową część okna zajmuje obszar danych, a główny pasek menu zorganizowano w formie wstążki. Menu konsoli System Center Data Protection Manager podzielono na pięć części: Monitoring, Protection, Recovery, Reporting oraz Management. W sekcji Management wskazujemy serwery, które chcemy objąć procesem backupu oraz określamy miejsce składowania kopii zapasowych. Zakładka Monitoring pokazuje stan działania systemu zarządzania backupem (tutaj mamy informacje, co się powiodło, a co nie), natomiast zakładka Reporting dostarcza szczegółowe i sumaryczne informacje na temat wykorzystania zasobów dyskowych, wykonanych zadań backupu itd. Raporty te mogą zawierać dane zebrane w dłuższym okresie czasu m.in. dotyczące poziomu wykorzystania taśm czy też przyrostu danych w zadanym okresie, dzięki czemu mamy podstawy do zaplanowania działań związanych z rozszerzaniem i rozbudową systemu backupu. Raporty te mogą być wysyłane na e-mail. Instalacja agentów Menu dotyczące agentów umożliwia instalację klienta Data Protection Manager (DPM) na serwerach, które chcemy objąć ochroną. Klient ten obsługuje komunikację serwerów, na których wykonywana jest kopia zapasowa za serwerem DPM. Agent DPM jest tylko jeden. Nie ma potrzeby dołączania dodatkowych wtyczek np. do serwerów Exchange lub SQL Server. Agent usługi wykrywa, jakie podsystemy zainstalowano na serwerze i automatycznie zapewnia nam dostęp do danych, które wymagają ochrony. Instalacja agenta jest prosta i odbywa się zdalnie. Wszystko co powinniśmy zrobić to wskazać serwery, które chcemy objąć ochroną.

Miejsca przechowywania Data Protection Manager może działać w obrębie wielu domen, zarówno tych które łączy relacja zaufania, jak i domen nie powiązanych ze sobą. Aplikacja pozwala również na zabezpieczenie stacji pracujących w grupie roboczej. Zadaniem administratora jest zapewnienie miejsca na kopie zapasowe wszystkich chronionych serwerów i stacji roboczych. Miejscem tym mogą być dyski, podpięte fizycznie do DPM jako pamięć masowa serwera backupu, biblioteki taśmowe oraz Backup. W tym miejscu warto zauważyć zmianę sposobu, w jaki wyświetlana jest informacja o dostępnej przestrzeni dyskowej. Jeśli spojrzymy na dyski, DPM pokazuje nam, ile wolnego miejsca mamy do dyspozycji. W przypadku backupu w, w tym miejscu pojawia się informacja o ilości wykorzystanego miejsca. Wynika to z faktu, ze chmura Azure dostarcza nam tyle przestrzeni na backup, ile potrzebujemy. Idźmy dalej. Mamy przygotowanych agentów. Mamy wybrane miejsce, w którym zapiszemy backup danych. Teraz należy wybrać, co chcemy uwzględnić w kopii zapasowej oraz w jakim trybie będzie ona przeprowadzana. Służy do tego zakładka Protection. Definicje grup zabezpieczeń Definicja grupy zabezpieczeń (Protection Groups) zawiera informacje o tym, jakie dane zostaną uwzględnione w kopii zapasowej. Z listy serwerów, na których zainstalowano agenta DPM, wybieramy zakres danych do backupu np. obraz dysku maszyny wirtualnej, wskazany wolumen czy folder na dysku. Istnieje możliwość tworzenia wykluczeń plików, które nie zostaną skopiowane do kopii zapasowej. DPM integruje się z konsolą PowerShell, która pozwala tworzyć złożone konfiguracje zadań backupu. Administrator ma pełną w swobodę w zakresie wyboru miejsca, na którym zapisywane będą kopie zapasowe danych. Do wyboru mamy tutaj dyski (lokalne i w pamięci masowej), taśmy magnetyczne i chmurę Azure z opcja przechowywania backupu w wielu magazynach jednocześnie. Wyobraźmy sobie sytuację, w której pracownik przypadkowo skasował ważny plik. Backup na lokalnych dyskach umożliwia szybkie przywrócenie tego obiektu. Kopia w chmurze Azure przechowywana jest tutaj na wypadek awarii lokalnego środowiska. 13. Integracje DPM Schemat backupu można rozszerzyć integrując Data Protection Manager z urządzeniem StorSimple. Urządzenie to ma wbudowane algorytmy, które oceniają dane pod kątem wieku oraz częstości ich używania. Na tej podstawie StorSimple decyduje, które pliki i obiekty powinny być przechowywane lokalnie, a które tylko w chmurze. Sam w sobie, Data Protection Manager nie ma wbudowanej logiki, która pozwalałaby mu decydować, które pliki są częściej, a które rzadziej używane.

14. Data Protection Manager jest częścią rodziny System Center, w skład której wchodzą również aplikacje Orchestrator oraz Service Manager. Orchestrator, w połączeniu z oprogramowaniem Data Protection Manager, umożliwia tworzenie przepływów zadań (workflow), które automatyzują definiowanie zadań i zarządzanie procesami backupu. Ustawienia backupu Wróćmy do naszego scenariusza. Kolejny etap polega na zdefiniowaniu retencji backupu. Wprowadzamy harmonogram tworzenia kopii zapasowych, ustalamy za jaki okres wstecz chcemy mieć możliwość przywracania danych oraz wskazujemy czas synchronizacji danych w kopii. W procesie backupu Data Protection Manager tworzy jedną pełną kopię zapasową, a następnie, w regularnych odstępach czasu (np. co 15 minut) szereg kopii przyrostowych. Na podstawie wykonanych wcześniej kopii przyrostowych Data Protection Manager generuje nowy pełny backup danych. Operacja ta wykonywana jest w ustalonym przedziale czasowym, określonym właśnie opcją czas synchronizacji danych. Migawki SQL Server Dzięki temu mechanizmowi Data Protection Manager jest jednym z nielicznych narzędzi, które pozwala tworzyć pełną migawkę bazy SQL Server w krótkich przedziałach czasu np. co 15 minut. Wyobraźmy sobie awarię systemu produkcyjnego, który przechowuje dane w bazie SQL. Może to być np. system ERP. Załóżmy, że backup bazy wykonywany jest raz dziennie, a w ciągu dnia 5 tysięcy osób wprowadzało w niej dane. W przypadku awarii konieczne będzie ponowne uzupełnienie tych danych, co przekłada się na znaczące koszty i stratę czasu. Data Protection Manager daje możliwość odzyskania tych danych do stanu nawet na kilkanaście minut przed awarią. Warunki zapisu do chmury W kolejnym kroku etapie decydujemy, czy Data Protection Manager ma przeprowadzić weryfikację spójności utworzonej kopii zapasowej oraz definiujemy ustawienia dotyczące. W definicji grupy zabezpieczeń określimy warunki zapisu danych do chmury. Istnieje możliwość zapisu na dyskach backupu całego systemu, z opcją przekazywania do zewnętrznej lokalizacji jedynie wybranych elementów z danej kopii zapasowej. Wyobraźmy sobie sytuację, w której procesowi backupu poddajemy dwa serwery plików, ale do chmury Azure przekazujemy kopię zapasową tylko jednego z nich. Wariant ten może mieć uzasadnienie np. dla serwerów skonfigurowanych do pracy w rozproszonym systemie plików Distributed File System (DFS).

15. Ustalamy, ile razy dziennie (lub tygodniowo) i o której godzinie Data Protection Manager ma wykonać synchronizację danych do chmury. W trakcie pierwszej synchronizacji następuje wyniesienie pełnej kopii zapasowej do zewnętrznej lokalizacji. Później mamy do czynienia wyłącznie z synchronizacją przyrostową. Nigdy nie ma sytuacji, w której raz przekazane dane są ponownie przesyłane do. Mechanizm ten pozwala efektywnie korzystać z łączy internetowych oraz istotnie skraca czas backupu danych do chmury. Odtwarzanie danych Trzeci element całego systemu stanowią mechanizmy odzyskiwania danych (recovery). W konsoli Data Protection Manager wskazujemy, które dane i z którego serwera chcemy odtworzyć. Wskazujemy punkt odzyskiwania (czyli czas wykonania kopii zapasowej) oraz lokalizację przywracania (lokalne dyski, chmura). Klikamy przycisk Recover. Na koniec decydujemy, czy obiekt z kopii ma zostać przywrócony do lokalizacji źródłowej, czy innego, wskazanego folderu na dysku. W tym momencie rozpoczyna się proces odzyskiwania. System podłączy się do, sprawdzi, czy kopia rzeczywiście istnieje oraz pobierze potrzebne dane do lokalizacji użytkownika. Pewne opóźnienie, które można zauważyć na tym etapie, jest niezależne od wielkości przywracanego pliku. Procedura, którą system musi przejść, zajmuje określoną ilość czasu, bez względu na to, czy plik zajmuje 2 KB, 2 MB czy 2 GB. Czas ten zależy również od ilości danych, którą przechowujemy w chmurze. Nie jest to jednak w żaden sposób uciążliwe. Podsumowanie części III W scenariuszu pokazaliśmy, że za pomocą Data Protection Manager możemy po pierwsze tworzyć kopie zapasowe dowolnych danych do chmury, po drugie w łatwy sposób zarządzać całym systemem backupu i po trzecie szybko i wygodnie odzyskać potrzebne dane do wskazanego miejsca w czasie. Naszym celem było przedstawienie Data Protection Manager jako narzędzia zarządzania backupem, które umożliwia intuicyjne i nieskomplikowane tworzenie kopii zapasowych i przywracanie danych w dużej organizacji. Data Protection Manager jest narzędziem godnym polecenia, w szczególności jeśli musimy zarządzać backupem z większej liczby serwerów. Przypomnijmy, że Data Protection Manager jest częścią rozwiązań System Center, które warto wykorzystać do zarządzania środowiskiem IT w przedsiębiorstwie. Data Protection Manager nie jest produktem sprzedawanym oddzielnie. Decydując się na Data Protection Manager warto rozważyć możliwość wdrożenia całej rodziny System Center, a przynajmniej sprawdzić, jaką wartość dodaną otrzymamy wykorzystując inne aplikacje tego pakietu w naszej organizacji. System Center jest bowiem dużym pakietem narzędzi, które w istotny sposób ułatwiają zarządzanie systemami informatycznymi w przedsiębiorstwie.

16. Hybrydowy magazyn danych StorSimple jest niezbędnym elementem do budowy hybrydowego magazynu danych. Nie jest to więc proste urządzenie do tworzenia backupu, jak mogłoby się początkowo wydawać. Ideą hybrydowego magazynu danych jest rozwiązanie problemów poprzez integrację lokalnego środowiska z chmurą publiczną. Lokalnie korzystamy z wbudowanej pamięci StorSimple, jednak mamy również możliwość składowania tych danych bezpośrednio w chmurze. Hybrydowy magazyn danych dodatkowe zabezpieczenie dla danych przechowywanych lokalnie Kluczowym założeniem do wdrożenia tej architektury jest przekonanie, że dane przechowywane lokalnie mogą zostać utracone np. na skutek awarii, katastrofy. W przypadku hybrydowego magazynu, kopia tych danych pozostaje zabezpieczona w chmurze.

17. StorSimple StorSimple to samodzielna macierz SAN klasy korporacyjnej wyposażona w dyski SAS lub SSD. Urządzenie umieszczane jest w centrum danych przedsiębiorstwa. Innymi słowy, StorSimple to pamięć masowa, w której montujemy potrzebną liczbę dysków różnego rodzaju, a następnie instalujemy w szafie w lokalnej serwerowni. StorSimple umożliwia integrację lokalnego środowiska z chmurą. Z tego względu StorSimple jest kluczowym elementem, który umożliwia stworzenie hybrydowego magazynu danych. W magazynie tym możemy umieszczać dane lokalnie i w chmurze, bez zastanawiania się w jaki sposób zarządzać tymi danymi na poziomie lokalizacji. Operacja ta jest w pełni zautomatyzowana przez StorSimple. Oprogramowanie StorSimple, podobnie jak Windows Backup i Data Protection Manager, ma zaimplementowane funkcje współpracy z chmurą. Zasadnicza różnica polega na tym, że w przypadku StorSimple nie potrzebujemy instalować dodatkowych agentów na chronionych punktach końcowych, ani używać dodatkowego sprzętu. StorSimple samodzielnie łączy się z chmurą. Wszystko, czego potrzebujemy, to aktywne połączenie z internetem i subskrypcja w. Cechy StorSimple StorSimple jest urządzeniem do tworzenia kopii zapasowych, które zostało wyposażone w funkcje deduplikacji oraz kompresji danych. Deduplikacja ma na celu wyeliminowanie powtarzających się bloków danych, z kolei mechanizmy kompresji pozwalają składować na urządzeniu większą liczbę plików i obiektów innego typu. StorSimple włączamy do lokalnej infrasturktury IT przedsiębiorstwa za pomocą protokołu iscsi. Urządzenie umożliwia backup z fizycznych serwerów i maszyn wirtualnych. StorSimple posiada certyfikaty Hyper-V i VMWare, które gwarantują kompatybilność z tymi rozwiązaniami do wirtualizacji. Z perspektywy serwera, dyski hybrydowe w StorSimple widoczne są jako zwykły wolumen (LUN). StorSimple i disaster recovery Dzięki połączeniu głównego magazynu danych oraz archiwum kopii zapasowych w jednym urządzeniu, StorSimple staje się kluczowym elementem planu odzyskiwania danych w przypadku katastrofy (disaster recovery). Dzięki StorSimple nie musimy wykonywać kopii zapasowych na nośnikach zewnętrznych, przewozić tych nośników do odległej lokalizacji oraz tworzyć złożonych, trudnych do testowania planów disaster recovery. W tym przypadku rezygnujemy z prowadzenia testów odzyskiwania, które wymagają transportu taśm z zewnętrznej lokalizacji, dzięki czemu oszczędzamy czas i pieniądze.

18. Automatyzacja backupu Spróbujmy przybliżyć słuchaczom, w jaki sposób StorSimple automatyzuje proces backupu i odzyskiwania danych. W StorSimple zastosowano technologię tworzenia migawek (snapshots) do chmury. Dzięki temu urządzeniu jesteśmy w stanie odzyskać kopie zapasowe niemal natychmiast, kiedy będziemy ich potrzebować. Elastyczne polityki automatyzacji wykonywania kopii pozwalają na stworzenie scenariusza, który spełni oczekiwania nawet najbardziej wymagających administratorów. StorSimple wysyła dane do za pomocą bezpiecznego protokołu HTTPS. Dane, zanim zostaną przekazane do chmury, są szyfrowane na urządzeniu algorytmem AES-256. Jest to rozwiązanie zbliżone do zastosowanego w Windows Backup i Data Protection Manager, choć warto zauważyć tutaj pewne różnice. W Data Protection Manager za szyfrowanie danych odpowiada agent usługi. W drugim przypadku szyfrowanie odbywa się po stronie StorSimple za pomocą klucza prywatnego, który generujemy przy konfiguracji samego urządzenia. Efektywne wykorzystanie łączy internetowych W StorSimple zastosowano szereg rozwiązań technologicznych, które do niezbędnego minimum ograniczają ilość danych przesyłanych do chmury publicznej. Mowa tu o mechanizmach deduplikacji, thin provisioning oraz kompresji danych. Dzięki thin provisioning narzędzie do backupu widzi większą ilość dostępnych zasobów dyskowych, niż wynika to z faktycznej pojemności pamięci masowej. Ciekawostka: Pojedyncza subskrypcja pozwala na zamawianie wielu usług w chmurze w ramach jednego, comiesięcznego zobowiązania np. 1000 euro. Kapitał ten może zostać wykorzystany na wynajem przestrzeni dyskowej (storage), maszyn wirtualnych, zakup usług powiadomień, obsługę stron WWW czy przetwarzanie dużej ilości danych (klaster HDInsight). Geolokalizacja Przejdźmy do kwestii podłączenia StorSimple do chmury publicznej. Pierwszym krokiem jest założenie subskrypcji w. Następnie tworzymy magazyn danych w chmurze. Nadajemy mu nazwę oraz wskazujemy miejsce, w którym będą przechowywane nasze dane. Dla testowych subskrypcji dostępna jest wyłącznie lokalizacja w Azji. W przypadku zakupu usług w mamy do wyboru dwie lokalizacje w Europie. W opcjach georeplikacji możemy zdecydować, czy dane przechowywane w chmurze będą replikowane w dwóch lokalizacjach. W mechanizmy georeplikacji są domyślnie włączone. A zatem, jak zostało już wcześniej powiedziane, od razu mamy sześć kopii naszych danych w dwóch

19. różnych lokalizacjach. Zwróćmy uwagę, że wynajem przestrzeni dyskowej jest nieco wyższy w przypadku włączenia usługi georeplikacji. W tym miejscu warto wyjaśnić kwestie przechowywania kopii w pamięci masowej. Każda z trzech kopii danych, składowanych w pojedynczym centrum danych Microsoft, jest rozmieszczona w innej szafie (rack), aby zminimalizować ryzyko utraty danych np. na skutek awarii nośnika pamięci. StorSimple i magazyny danych Wróćmy do naszego przykładu. Logujemy się do panelu zarządzania StorSimple. Na stronie podsumowania widzimy informację o przestrzeni dyskowej dostępnej w urządzeniu oraz statystyki przepływu danych (odczyt i zapis). Przestrzeń ta obejmuje pamięć masową w StorSimple oraz w. Dodajmy, że ilość danych, które będziemy mogli składować w chmurze zależy od posiadanego modelu StorSimple. Na rynku dostępne są cztery modele urządzeń StorSimple. Modele te różnią się ilością danych, które możemy przechowywać w pamięci lokalnej i w. StorSimple może obsługiwać do 64 różnego rodzaju magazynów danych. Dzięki temu możemy skonfigurować urządzenie do składowania danych w wielu centrach danych np. w Europie Północnej i Europie Zachodniej. Mechanizm ten można wykorzystać do zarządzania dostępem. Wyobraźmy sobie 10 różnych magazynów, z których każdy zarządzany jest oddzielnie. Podejście to pozwala wyróżnić magazyny danych dla różnych działów przedsiębiorstwa i obciążać je rzeczywiście ponoszonymi kosztami wynajmu pamięci masowej. Inne zastosowanie tego mechanizmu umożliwia wydzielenie oddzielnego magazynu danych na pliki, a innego na obrazy dysków maszyn wirtualnych. Bezpieczeństwo danych Idziemy dalej. W konfiguracji StorSimple definiujemy: nazwę magazynu wyświetlaną na urządzeniu, typ usługi, do której chcemy się podłączyć (tutaj: ) oraz opcje szyfrowania transmisji danych do chmury (SSL). Mimo, że możemy zrezygnować z szyfrowania transmisji do chmury, dane na dysku nadal pozostaną zaszyfrowane. Dodajmy, że bezpieczeństwo danych gwarantowane jest na wielu poziomach. Dane są podzielone (poszatkowane) na bloki, zdeduplikowane, skompresowane, szyfrowane na dyskach urządzenia i ponownie szyfrowane w trakcie przesyłania ich przez internet za pomocą protokołu SSL.

20. Wróćmy do samej konfiguracji urządzenia. Podajemy nazwę magazynu w chmurze, a następnie w oknie ustawień StorSimple wprowadzamy klucz zarządzania (ciąg znaków) wygenerowany w. Klucz ten służy autentykacji urządzenia w środowisku chmury. Do dyspozycji mamy dwa klucze na wypadek utraty pierwszego z nich. Klikając przycisk Verify możemy sprawdzić poprawność konfiguracji StorSimple do współpracy z. W tym momencie jesteśmy gotowi do korzystania z hybrydowego magazynu danych. Zarządzanie StorSimple StorSimple może być zarządzany z poziomu panelu webowego (jak we wcześniejszym przykładzie) lub konsoli MMC w systemie Windows. Z poziomu konsoli możemy wdrażać polityki zabezpieczeń (kiedy i jak mają być nasze dane backupowane), tworzyć nowe grupy wolumenów oraz przywracać obiekty z kopii zapasowych. Użytkownik ma wybór, czy będzie korzystał ze znanej sobie przystawki MMC, czy też z portalu webowego. Mimo pewnych ograniczeń, konsola może zostać wykorzystana do codziennej administracji StorSimple i odzyskiwania danych. Komponenty StorSimple Cechą StorSimple jest jego odporność na pojedyncze punkty awarii. Wszystkie komponenty wykorzystane do jego budowy są zdublowane. Mamy możliwość wymiany wybranych podzespołów w trakcie pracy urządzenia ( na gorąco ). W ten sposób zastąpimy zepsuty zasilacz, czy kontroler sieciowy. W StorSimple zamontowano dwa kontrolery iscsi. Każdy kontroler wyposażony jest w cztery porty sieciowe, które zapewniają nadmiarowość połączeń. Kontrolery te skonfigurowane są do pracy w trybie failover. W przypadku awarii głównego kontrolera, jego zadania przejmuje drugi sprawny. Identyczne rozwiązania stosowane są w konkurencyjnych macierzach dyskowych klasy korporacyjnej. Dywersyfikacja dysków W prezentowanym urządzeniu zamontowano trzy dyski SSD oraz siedem dysków SAS. Wszystkie dyski zostały skonfigurowane do pracy w macierzy RAID 10, która gwarantuje wysoką wydajność operacji odczytu-zapisu oraz niezawodność przechowywania danych.