Wirtualizacja bez macierzy? Żaden problem. Dariusz.Puchalak@osec.pl



Podobne dokumenty
Wirtualne systemy dyskowe na platformie OpenStack (KVM) Tomasz Paszkowski PLNOG 2012 Warszawa r.

Letnia Akademia SUSE. Implementacja nowych rozwiązań open source wszystko, co musisz wiedzieć!

Systemy macierzowe. www. qsantechnology. com

NOWY OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

2014 LENOVO INTERNAL. ALL RIGHTS RESERVED

Budowanie tanich, wysoko wydajnych i wysoko dostępnych systemów pod Linuksem Mariusz Droździel Październik 2009

Fujitsu World Tour 2019

Sposoby klastrowania aplikacji webowych w oparciu o rozwiązania OpenSource. Piotr Klimek. piko@piko.homelinux.net

2. Kontroler Dwa kontrolery pracujące w trybie active-active wyposażone w min. 32GB cache (każdy). Kontroler oparty na architekturze 64 bitowej.

Software RAID funkcje dostarcza zaimplementowane oprogramowanie, bez wykorzystania z dedykowanych kontrolerów.

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

ARCHIWUM PAŃSTWOWE W ZIELONEJ GÓRZE

VMware vsphere 5.5: Install, Configure, Manage

TABELA PORÓWNAWCZA OFEROWANEGO SPRZĘTU

SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA (SOPZ) część 2. Lp. Nazwa parametru Minimalna wartość parametru Dane techniczne oferowanego sprzętu/model 1. 1.

Szczypta historii Inteligentne rozmieszczanie. Pierwszy magnetyczny dysk twardy. Macierz RAID. Wirtualizacja. danych

Szczegółowy Opis Przedmiotu Zamówienia

PRZETARG 01/EU/2016/SERVERS NA DOSTAWĘ, MONTAŻ I URUCHOMIENIE SERWERÓW, WIRTUALIZATORÓW, MACIERZY I OPROGRAMOWANIA ORAZ WYKUP STAREGO SPRZĘTU

Załącznik nr 1 - Szczegółowy opis przedmiotu zamówieni Specyfikacja techniczna - minimalne obligatoryjne wymagania techniczne, funkcjonalne sprzętu

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

Red Hat Grafton Kompletna platforma do wirtualizacji dla MSP w nowej odsłonie

... Podpis osoby - osób upoważnionych do składania oświadczeń woli w imieniu wykonawcy

Załacznik nr 6 do SIWZ. 1. Macierz Dyskowa ilość: 1 szt. NAZWA PRODCENTA:.

szczegółowy opis przedmiotu zamówienia: macierz wyposażona w dwa kontrolery UWAGA!: w ofercie należy wycenić 2 szt. CPV:

Podać: nazwę producenta model macierzy. mieć możliwość rozbudowy o moduły minimum 12 dysków 3,5, minimum 24 dyski 2,5.

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

Wdrożenie skalowalnego systemu plików GlusterFS w serwisach Gratka.pl. Łukasz Jagiełło l.jagiello@gratka-technologie.pl

Elastyczna sieć dla rozwiązań Cloud Open vswitch

1. Serwer Lenovo IBM x3550m5 (2 x Xeon E v3/ 96GB RAM/ 4x HDD 600GB@15k) 96 GB TruDDR4 Memory LRDIMMs

Formularz specyfikacji techniczno cenowej zamawianych/oferowanych serwerów

Wykład 2. Temat: (Nie)zawodność sprzętu komputerowego. Politechnika Gdańska, Inżynieria Biomedyczna. Przedmiot:

Dell EMC Ready Solutions for Software Defined Data Center GLOBAL SPONSORS

Rozwiązania NetApp. Łukasz Grzesiak ArrowECS

(kody CPV: i )

ZAŁĄCZNIK NR 1.8 do PFU Serwery wraz z system do tworzenia kopii zapasowych i archiwizacji danych - wyposażenie serwerowni

1. ZESTAWIENIE PARAMETRÓW TECHNICZNO - JAKOŚCIOWYCH

PARAMETRY TECHNICZNE I FUNKCJONALNE

Dane bezpieczne w chmurze

27/13 ZAŁĄCZNIK NR 4 DO SIWZ. 1 Serwery przetwarzania danych. 1.1 Serwery. dostawa, rozmieszczenie i zainstalowanie 2. serwerów przetwarzania danych.

Opis minimalnych wymagań

VMware vsphere: Automation Fast Track

Administracja środowiskiem informatycznym projektu ZSZ

PARAMETRY TECHNICZNE I FUNKCJONALNE

Wirtualizacja desktopów i aplikacji.

PARAMETRY TECHNICZNE I FUNKCJONALNE

Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia


Formularz ofertowy: Dostawa sprzętu komputerowego wraz z wdrożeniem. 1. Macierz dyskowa 1szt.

Załącznik nr 1 Opis Przedmiotu Zamówienia

Opis Przedmiotu Zamówienia

STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC

Zadanie nr 1.2: Macierz RAID. Lp. Zwartość karty Opis 1 Specyfikacja techniczna / funkcjonalna przedmiotu zamówienia

z dnia r. wg załącznika nr 1. Maks. 2 gniazda Gen 3, wszystkie x16

Nr sprawy: INF-V Załącznik nr 4 do SIWZ /Załącznik nr 2 do umowy część II/ OPIS PRZEDMIOTU ZAMÓWIENIA CZĘŚĆ II

PRZETARG 01/EU/2016/SERVERS NA DOSTAWĘ, MONTAŻ I URUCHOMIENIE SERWERÓW, WIRTUALIZATORÓW, MACIERZY I OPROGRAMOWANIA ORAZ WYKUP STAREGO SPRZĘTU

MAZOWIECKI URZĄD WOJEWÓDZKI W WARSZAWIE D Y R E K T O R G E N E R A L N Y Jarosław Szajner. Warszawa, dn. 20 kwietnia 2018r.

MAZOWIECKI URZĄD WOJEWÓDZKI W WARSZAWIE D Y R E K T O R G E N E R A L N Y Jarosław Szajner. Warszawa, dn. 11 czerwca 2018r.

ZAŁOŻENIA PROJEKTOWE I SPECYFIKACJA USŁUG

MODYFIKACJA TREŚCI SIWZ

Specyfikacja techniczna

OFERTA. Załącznik nr 1 do zapytania ofertowego: Wzór oferty. Dane oferenta. Pełna nazwa oferenta: Adres:. REGON:.. Tel./fax.: .

Niniejszy dokument zawiera opis wymagań funkcjonalnych i technicznych dla dostarczanej macierzy dyskowej oraz przełączników.

Numer ogłoszenia w BZP: ; data zamieszczenia w BZP: Informacje o zmienianym ogłoszeniu: data r.

Załącznik nr 1 do projektu umowy Szczegółowy opis przedmiotu zamówienia

I. Serwery 2 szt Specyfikacja techniczna

Załącznik nr 6 do SIWZ. 1. Stacja robocza 46 szt. NAZWA PRODUCENTA: NUMER PRODUKTU (part number):

Zarządzanie infrastrukturą serwerów Blade

Letnia Akademia SUSE Implementacja nowych rozwiązań open source wszystko, co musisz wiedzieć!

Załącznik 1A Opis wymagań w zakresie modernizacji serwerowni:

Sposób funkcjonowania

Rodzaje pamięci masowych by Silas Mariusz

OPIS PRZEDMIOTU ZAMÓWIENIA - PARAMETRY TECHNICZNE I OKRES GWARANCJI (formularz) - po modyfikacji

Dariusz Puchalak. 20 lat Linux/Unix Sysadmin 8+ lat trener Od prawie roku w OSEC

Załącznik nr 4a do Specyfikacji Istotnych Warunków Zamówienia

Zapytanie ofertowe nr 03/05/2014. Zakup licencji na oprogramowanie do wirtualizacji Działanie POIG 8.2

Przedmiotem zadania jest dostawa biblioteki taśmowej o parametrach nie gorszych niż:

Virtual SAN - The next step in Software-Defined Storage

OPIS PRZEDMIOTU ZAMÓWIENIA

Jakub Bałchan, Maciej Przepiórka. Życie w blasku. Co to jest Flash i dlaczego ma takie znaczenie?

Zarząd Transportu Miejskiego w Poznaniu, ul. Matejki 59, Poznań

Kinowa Biblioteka Filmowa KINOSERWER. KinoSerwer

Jeden partner wiele rozwiązań, jak wybrać to właściwe

Architektura komputerów

Przedmiotem zamówienia jest: ZADANIE 1. SERWERY PLIKÓW. Szczegółowy opis przedmiotu zamówienia Serwery plików

Wynajem infrastruktury serwerowej

SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA. Wieloprocesorowa typu SMP

Nowe rozwiązania systemów pamięci masowej połączonych firm Overland Storage i Tandberg Data

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań

Załącznik Dotyczy: połączeń SAN

o g ł a s z a przetarg nieograniczony w zakresie:

1.1 Wymagania technologiczne i funkcjonalne dla oferowanego serwera zestaw 1

ZAPYTANIE OFERTOWE NR 4/2014

Opis przedmiotu zamówienia

NASZA OFERTA Serwery. dedykowane.

Opis przedmiotu zamówienia. Modernizacja środowiska składowania danych

NEC Express5800/R320 Serwer Fault Tolerant

Proponowana architektura ZPT

Opis przedmiotu zamówienia

IV. Wymagane parametry techniczne platformy sprzętowo-programowej (serwera) do zarządzania oprogramowaniem do wykonywania kopii zapasowych szt. 1.

Transkrypt:

Wirtualizacja bez macierzy? Żaden problem. Dariusz.Puchalak@osec.pl

Dariusz Puchalak 20 lat Linux/Unix Sysadmin 8+ lat trener Od roku w OSEC

http://www.osec.pl 6+ lat na rynku doświadczona kadra (ACNI, RHCA) specjalizacja open-source

Tradycja kontra inowacje.

Model tradycyjny. Macierz sprzętowe (zwielokrotniona wewnątrz). Serwery podpięte pod macierz interfejsem SAN: Fibre channel (na bogato) SAS (wersja ekonomiczna) Serwery podpięte pod macierz interfejsem NAS (wersja ekonomiczna): NFS iscsi

Wady modelu tradycyjnego. Biznesowo: Koszt Koszt Skalowalność i związany z tym koszt Technicznie: Brak licencji na ten element który by się przydał, bo za drogo. :(

Dlaczego macierz??

Dlaczego macierz? Wspólny storage czyli: (Możliwa lub) łatwa migracja wirtualek na inne systemy HA (wysoka dostępność) Wysoka wydajność

Czy można bez macierzy??

Rozwiązania programowe. iscsi DRBD.* == Software Defined Storage

Software Defined Storage, czyli: GlusterFS sheepdog Ceph Inne.

Software Defined Storage Tylko w konteksie wirtualizacji. Nie będzie ani słowa o OpenStack bo to inna filozofia.

Skalowalność.

Skalowalność.

Dlaczego Scale-Out? Scale Out: Dużo, tanio, bardzo dużo i bardzo tanio. ;> Rozbudowa o dowolny sprzęt. Przygotowane do awarii pojedynczych komponentów (w tym całych serwerów) na poziomie oprogramowania.

Dlaczego nie Scale-Up? Scale Up: Pojedyncze rozbudowane i drogie komponenty. Przygotowanie na awarie pojedynczych komponentów na poziomie sprzętu (np.. redudantne kontrolery). Drogo (czasem nawet bardzo drogo). :( Vendor Lock-In :(

Dostęp do danych w SDS.

Omawiany tylko dostęp blokowy.

Architektura Software Defined Storage.

Architektura SDS. Skalowalność - Scale-up/Scale-out Zdecentralizowany? Wysoka dostępność Wysoka wydajność Typowy sprzęt serwerowy Fizyczny sprzęt lub chmura Połączenia do danych w technologiach dobrze znanych *Ethernet, Infiniband

SDS - pojemność. Zwiększenie pojemności porzez: Dodanie dysków Dodanie kolejnych nodeów

SDS wydajność. Zwiększenie wydajności porzez: Dodanie dysków Dodanie kolejnych nodeów

SDS wydajność. Prawdopodobnie najważniejszy parametr: Poprawne zaprojektowanie i zaimplementowanie sieci!!!

SDS wydajność sieci. 10 Gbps Ethernet ew. linki 1Gbps spięte razem.

SDS podstawowe pojęcia. Quorum Cluster Połączenia sieciowe

Skalowalna wirtualizacja?

Skalowalna wirtualizacja?

Architektura Software Defined Storage.

Odporność na awarie. Odporność na awarię poszczególnych komputerów wchodzących w skład SDS można zapewnić poprzez: Rozproszenie danych na wielu serwerach. Replikację - kosztowne do strony wymaganych dysków. Erasure Coding (kody korekcyjne) znacząco ogranicza ilość wykorzystanej przestrzeni dyskowej.

Skalowalność. Skalowalność rozwiązań można zapewnić poprzez: Load Balancing rozkładanie obciążenia Zwiększenie wydajności I/O poprzez: dodanie kolejnych urządzeń (dysków/serwerów) wykorzystanie dysków SSD.

Zarządzalność Self Healing Self Manage Snapshots Rollback COW (Copy on Write) Backups full and incremental

GlusterFS

GlusterFS Rozproszony system plików działający w przestrzeni użytkownika. Skalowalny do Petabajtów i tysięcy klientów. Brak osobnego node/ów dla metadanych metadane w pełni rozproszone. Powstał w 2005-2006 roku. Brak specjalnych wymagań sprzętowych. Brak Single Point Of Failure

GlusterFS Rozproszony system plików działający w przestrzeni użytkownika. Skalowalny do Petabajtów i tysięcy klientów. Brak osobnego node/ów dla metadanych metadane w pełni rozproszone. Powstał w 2005-2006 roku. Brak specjalnych wymagań sprzętowych. Brak Single Point Of Failure

GlusterFS - workflow Komputer (min. 2 szt. - może być nawet maszyna wirtualna) Linux Dysk System plików z obsługą rozszerzonych atrybutów (np. ext4, xfs) Instalujemy glusterfs

GlusterFS - workflow Na posiadanej wolnej przestrzeni tworzymy nowy system plików (brick) Montujemy Tworzymy katalog w miejscu zamontowania Dodajemy serwery z glusterfs do klastra (Trusted Storage Pool) Wskazujemy glusterowi gdzie ma tzw. bricks. Tworzymy gluster volume Wskazujemy QEMU gdzie jest gluster volume Uruchamiamy maszyn wirtualne korzystające z klastra

GlusterFS rozszerzony workflow Brick tworzymy na LVM'ie typu Thin (co nam da możliwość wykonywania snapshotów) Aby lepiej wykorzystać dyski SSD i HDD używamy LVM cache.

GlusterFS typu wolumenów Striped (jak RAID-0) Distributed (jak stripe, ale rozdziela dane) Replicated (jak RAID-1) Striped-Replicated (jak RAID-10, ale rozdziela dane) Distributed-Replicated (jak RAID-10) Distributed-Striped-Replicated (wysoce dostępny i wysoce wydajny) Dispersed Erasure Coding (w trakcie)

GlusterFS dispersed Określamy odporność na awarię według wzoru: N = k + m N ilość bricks K tyle musi działać aby móc odzyskac dane M tyle może nie działać aby móc odzyskać dane Typowe wartości: 6 = 4+2 11 = 8+3 12 = 8+4

GlusterFS Elastic Hashing Algoritm Brak trzymania indeksu dla metadanych Każdy node może zlokalizować dane bez odpytywania innego serwera Dostęp równoległy (np. dla 2 replik/kopii w sieci są od razu 2 strumienie danych do serwerów)

GlusterFS Self Healing i Split Brain Rozwiązywany bardzo skutecznie w sposób automatyczny (od wersji 3.3) Gdy automat nie zadziała dla niektórych danych, można wymusić ręcznie Wsparcie dla quorum Server side Client side

GlusterFS zalety i wady Zalety: Bardzo prosty ideowo Skuteczne automatyczne mechanizmy naprawy Wsparcie dla DISCARD/UNMAP Wady: Brak zaawansowanych mechanizmów np. pozwalających lepiej wykorzystać dyski SSD Kontrola tylko na poziomie adresów IP. Nie sprawdza się jeśli klient ma mieć bezpośredni dostęp do serwerów GlusterFS (możliwość wycieku danych).

Sheepdog

Sheepdog Rozproszony system obiektowy stworzony do współpracy z QEMU. Wykorzystuje technologię klastrową (Corosync lub Apache ZooKeeper) Brak osobnego node/ów dla metadanych metadane w pełni rozproszone. Powstał w 2010 roku. Brak specjalnych wymagań sprzętowych. Brak Single Point Of Failure

Sheepdog - wymagania System plików wspierający rozszerzone atrybuty Kernel >= 2.6.32

Sheepdog - możliwości Snapshot Klonowanie Backup przyrostowy Snapshot na poziomie całego klastra Discard (thin-storage/ssd) Automatyczny rebalancing: Lokalny (dla dysku) Globalny (dla node'a)

Sheepdog - możliwości Repliki Erasure coding ( kody korekcyjne )

Sheepdog - możliwości Automatyczne: Rebalancing po dodaniu nowego serwera Naprawa danych utraconych w wyniku awarii serwera kopiowanie inne serwery aby utrzymać wymagany stan nadmiarowości Powrót danych na stare miejsce po naprawie uszkodzonego serwera.

Sheepdog - SPOF Brak Single Point Of Failure dla backendu w QEMU. SPOF występuje dla iscsi (tgt). Ale jest iscsi Multipathing (od v.0.9.1). :)

Sheepdog - SPOF Brak Single Point Of Failure dla backendu w QEMU. SPOF występuje dla iscsi (tgt). Ale jest iscsi Multipathing (od v.0.9.1). :)

Sheepdog uproszczony workflow. Skonfigurować i uruchomić klaster Przygotować dedykowany system plików z obsługą rozszerzonych atrybutów. Z formatować klaster Używać ;>

Sheepdog snapshots Sheepdog posiada bardzo przyjemne wsparcie dla snapshotów (obraz systemu, lub obraz systemu + RAM). Poprawne wykonanie snapshota na działającym systemie wymaga użycia qemu-ga na kliencie (cache w pamięci)

Sheepdog zalety i wady Zalety: Prosty ideowo Skuteczne automatyczne mechanizmy naprawy Wsparcie dla DISCARD/UNMAP Wady: Brak wsparcia przez tzw. komercyjne Linuksy.

Ceph

Ceph z odległości 10 000m Rozproszony system obiektowy Redudantny Wysoce wydajny Skalowalny Brak wąskich gardeł Brak specjalnych wymagań sprzętowych. Brak Single Point Of Failure

Ceph z bliska RADOS RBD block device Wsparcie dla QEMU ISCSI RBD gateway (dla VMWARE, HYPER-V) OSD Object Storage Daemon MON Ceph Monitor (min. 3) CRUSH Controlled Replication Under Scalable Hashing PG Placement Groups (100 Placement Groups na 1 OSD) Pools Journal

Ceph wymagania. CPU min. 6 rdzeni (12 wątków) Minimum 32GB RAM 300 GB SAS 15k RPM na system (RAID-1) 2xSSD Min. 12TB SAS 7.2k RPM 2x10Gbit/s Ethernet

Pytania? Dariusz.Puchalak@osec.pl

Dziękuję. :)