NetApp Clustered DataOntap. Jarosław Duda

Podobne dokumenty
Rozwiązania NetApp. Łukasz Grzesiak ArrowECS

Netapp Fas bezpieczny, uniwersalny system do składowania i zarządzania danymi.

Chmura prywatna od podstaw Nowoczesny storage w rozwiązaniach chmury prywatnej z NetApp

Implementacje w środowiskach zwirtualizowanych. IBM System Storage N Series

Capgemini IT Projekt lokalnego datacenter i problemy z tym związane

Szczypta historii Inteligentne rozmieszczanie. Pierwszy magnetyczny dysk twardy. Macierz RAID. Wirtualizacja. danych

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

Chmura zrzeszenia BPS jako centrum świadczenia usług biznesowych. Artur Powałka Microsoft Services

Produkty IBM jako odpowiedź na potrzeby przedsiębiorstw w Polsce

2. Kontroler Dwa kontrolery pracujące w trybie active-active wyposażone w min. 32GB cache (każdy). Kontroler oparty na architekturze 64 bitowej.

Standardowy nowy sait problemy zwiazane z tworzeniem nowego datacenter

... Podpis osoby - osób upoważnionych do składania oświadczeń woli w imieniu wykonawcy

Ochrona Danych Wrocław 7 marzec 2007

Warsztat: Infoblox DNS Firewall & DNS Infoblox Threat Analytics. Czyli jak w godzinę ochronić użytkowników.

Backup i Storage w jednym stali domu..." - macierze dyskowe, kopie zapasowe i problemy z tym związane

SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA (SOPZ) część 2. Lp. Nazwa parametru Minimalna wartość parametru Dane techniczne oferowanego sprzętu/model 1. 1.

IBM PureSystems Czy to naprawdę przełom w branży IT?

ARROW ECS SERVICES AUTORYZOWANE CENTRUM SZKOLENIOWE

Systemy macierzowe. www. qsantechnology. com

ARROW ECS SERVICES AUTORYZOWANE CENTRUM SZKOLENIOWE

1. ZESTAWIENIE PARAMETRÓW TECHNICZNO - JAKOŚCIOWYCH

Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia

Rozwiązania Flash od NetApp

Warszawa, dnia 17 października 2016 r. Do: Prezes Krajowej Izby Odwoławczej ul. Postępu 17a Warszawa

klikamy Next 4. Wybieramy zgodność z systemem Virtual Machine hardware compatibility z listy zaznaczamy Workstation 6 Next 5.

2014 LENOVO INTERNAL. ALL RIGHTS RESERVED

Architektura Nowoczesnego Centrum Przetwarzania Danych

Podstawowe fakty o firmie

IV. Wymagane parametry techniczne platformy sprzętowo-programowej (serwera) do zarządzania oprogramowaniem do wykonywania kopii zapasowych szt. 1.

Storage funkcje macierzy. Piotr Sitek

3PAR Utility Storage pamięć

Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect

Nr sprawy: INF-V Załącznik nr 4 do SIWZ /Załącznik nr 2 do umowy część II/ OPIS PRZEDMIOTU ZAMÓWIENIA CZĘŚĆ II

ARCHIWUM PAŃSTWOWE W ZIELONEJ GÓRZE

INFORMATOR TECHNICZNY WONDERWARE

ZAPYTANIE OFERTOWE NR 1

Microsoft SQL Server jak zwiększyć wydajność środowiska oraz jak dobrze je zabezpieczyć?

KATALOG SZKOLEŃ ARROW ECS SERVICES AUTORYZOWANE CENTRUM SZKOLENIOWE. Luty 2012

Prowadzenie biznesu opartego na danych

NetApp Data Fabric. Łączymy klasyczne IT i Chmury. Renata Bilecka Systems Engineering Manager 12 kwietnia 2016

KATALOG SZKOLEŃ ARROW ECS SERVICES AUTORYZOWANE CENTRUM SZKOLENIOWE. Kwiecień 2013

Configuring and Testing Your Network

Zalecana instalacja i konfiguracja Microsoft SQL Server 2016 Express Edition dla oprogramowania Wonderware

ReadyDATA Unified Storage

Sample VNF Rack and VNF Descriptor Configuration File

szczegółowy opis przedmiotu zamówienia: macierz wyposażona w dwa kontrolery UWAGA!: w ofercie należy wycenić 2 szt. CPV:

Data Domain 5.6 Nowe modele Data Protection Search

Nowe podejście do zarządzania danymi dzięki IBM Storage Systems - Storwize V7000 Unified

NAKIVO Backup & Replication v7

STACJI ROBOCZYCH WIRTUALIZACJA W SEKTORZE MŚP. Krzysztof Waszkiewicz, BZ WBK Michał Aleksander Kania, EMC

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

Załącznik nr 1 - Szczegółowy opis przedmiotu zamówieni Specyfikacja techniczna - minimalne obligatoryjne wymagania techniczne, funkcjonalne sprzętu

Kopie zapasowe PAWEŁ PŁAWIAK. Training and Development Manager for Microsoft Technology Compendium - Centrum Edukacyjne pawel.plawiak@compendium.

Zarządzanie sieciami telekomunikacyjnymi

Zestawienie wymaganych parametrów technicznych

Wymagania minimalne Procesor o takowaniu nie mniejszym niż 2,2GHz Procesor liczba rdzeni Nie mniej niż 6 Nie mniej niż 64GB ECC (RDIMM)

Microsoft StorSimple Nowe możliwości back-up'u i archiwizacji danych na przykładzie projektu pilotażowego w instytucji finansowej.

Profesjonalna ochrona danych z arcserve UDP

Platforma hiperkonwergentna Simplivity dla firm z sektora ubezpieczeń

GOZ /15 Warszawa, dnia r. WYKONAWCY

Przedmiotem zadania jest dostawa biblioteki taśmowej o parametrach nie gorszych niż:

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys

Uwierzytelnianie użytkowników sieci bezprzewodowej z wykorzystaniem serwera Radius (Windows 2008)

Jak skonfigurować bezpieczną sieć bezprzewodową w oparciu o serwer RADIUS i urządzenia ZyXEL wspierające standard 802.1x?

Opis przedmiotu zamówienia

INFORMATOR TECHNICZNY WONDERWARE

Uniwersalne macierze EMC

Microsoft StorSimple nowe możliwości archiwizacji oraz back-up danych dla uczelni. Michał Jędrzejczak Architekt IT, Cloud Expert Comparex

Zarządzanie infrastrukturą serwerów Blade

Wydajne propozycje w budżecie samorządowym

Szczegółowe wymagania stawiane dla zamawianego sprzętu komputerowego

Załącznik nr 1 do SOPZ. CZĘŚĆ I: Macierz dyskowa. Profesjonalna macierz dyskowa, w skład której wchodzą następujące elementy:

Konfiguracja połączenia VPN w systemie Windows 7 z serwerem rozgrywki wieloosobowej gry Medal Of Honor: Wojna na Pacyfiku: Pacyfik.

Dell EMC Unity & SC Series: Midrange Storage Portfolio Overview

DATABASE SNAPSHOT GEEK DIVE. Cezary Ołtuszyk Blog: coltuszyk.wordpress.com

Jak zabezpieczyć 500 maszyn wirtualnych?... Wykorzystanie technologii NetApp na wypadek awarii data center

HP 3PAR Utility Storage

Yamaha Motor Racing ochrona dynamicznie zmieniających się danych w trakcie wyścigów

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

1. Serwer Lenovo IBM x3550m5 (2 x Xeon E v3/ 96GB RAM/ 4x HDD 600GB@15k) 96 GB TruDDR4 Memory LRDIMMs

Instrukcja konfiguracji usługi Wirtualnej Sieci Prywatnej w systemie Mac OSX

Video Recording Manager 2.0. Przegląd systemu

Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. Rodzina Backup Exec

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

Datacenter - Przykład projektu dla pewnego klienta.

Opis przedmiotu zamówienia. Modernizacja środowiska składowania danych

INFORMATOR TECHNICZNY WONDERWARE

Technologia Microsoft StorSimple dlaczego nasi klienci jej używają?

Wdrożenie skalowalnego systemu plików GlusterFS w serwisach Gratka.pl. Łukasz Jagiełło l.jagiello@gratka-technologie.pl

Ogłoszenie powiązane: Ogłoszenie nr z dnia r. Ogłoszenie o zamówieniu - Rzeszów

PODSTAWOWA OBSŁUGA PROGRAMU PROGRAMU PACKET TRACER TRYB REAL TIME

MeetingHelper. Aplikacja Android ułatwiająca przekazywanie materiałów pomiędzy uczestnikami spotkania. Instrukcja obsługi dla programisty

GLOBALNA DEDUPLIKACJA BLOKOWA W ŚRODOWISKU BACULA

WWQ. Wakacyjne Warsztaty QNAP. Zaczynamy o 11:00. Prowadzący: Łukasz Milic Certyfikowany Trener QNAP

Systemy Operacyjne. Część II Zarządzanie/Administracja Systemem. Wykład 4: Przestrzeń dyskowa. autor: mgr inż. Andrzej Woźniak

Specyfikacje techniczne

Specyfikacja techniczna Sprzętu

Produkty Tivoli dla każdego Wybrane przykłady wdrożeń

NOWY OPIS TECHNICZNY PRZEDMIOTU ZAMÓWIENIA

Opis przedmiotu zamówienia

Transkrypt:

NetApp Clustered DataOntap Jarosław Duda

NetApp Portfolio Corporate Data Centers Cloud Data Centers Flash Arrays Clustered Data ONTAP E-Series StorageGRID

Macierze serii FAS

Szeroka gama macierzy NetApp FAS8080 FAS8060 FAS8040 FAS8020 4800TB 1 200 dysków 18TB flash pool 5760TB 1 440 dysków 36TB flash pool FAS2520 336TB 84 dysków 4TB flash pool FAS2550 576TB 144 dysków 4TB flash pool 1920TB 480 dysków 6TB flash pool 2880TB 720 dysków 12TB flash pool E5600 EF560 120 dysków E2700 384 dysków 192 dysków

Data ONTAP - Wspierane Protokoły NFS (v2, v3, v4) [mostly Unix] CIFS [Windows/Samba/MacOS X] FCP iscsi [SCSI over TCP/IP]

Data ONTAP - Wspierane Protokoły

Macierze serii FAS25xx FAS2552 SAS/SSD FAS2554 SATA/SSD FAS2520 SATA/SAS/SSD 7

FAS2520 HA Widok kontrolerów Obudowa 2U FAS2520 8

FAS2520 opis portów kontrolera Console Port e0m/sp LNK LNK e0c e0d e0e e0f e0a LNK LNK LNK LNK NV 0b 0a SSN MAC e0b SAS 4 x 10GBaseT 2 x GbE ports 2 x SAS ports 10GBaseT USB port 1 x GbE management port 1 x private management port 1 x USB port (disabled) 1 x console port Private Management Port GbE 9

FAS2552 oraz FAS2554 Porównanie obudowy obu macierzy Obudowa 2U FAS2552 Obudowa 4U FAS2554 10

FAS2552 oraz FAS2554 opis portów Console Port LNK LNK e0c 0c e0d 0d e0e 0e e0f 0f e0a LNK LNK LNK LNK NV 0b 0a SSN MAC e0b SAS UTA 2 4 x Unified Target Adapter (UTA2) ports 10GbE, GbE Ethernet 16Gb/s FC or 8Gb/s FC 2 x GbE ports 2 x SAS ports USB port Private Management Port GbE 1 x GbE management port 1 x private management port 1 x USB port (disabled) 1 x console port

Interfejsy do zarządzania

Półki dyskowe

Dyski fizyczne RAID Group RAID 4 RAID 54 Data blocks A B C D E F G H I J Controller Data blocks 2A B4 C1 D3 E1 3F G2 H1 I J Controller A E : : : B F : : : C G : : : D H : : : (A-D)P (E-H)P : : : A2 E1 : : : B4 F3 : : : 1C G2 : : : D3 (A-D)P 10 (E-H)P 1 7H : :: : :: : :: Data disks + Parity disks Data disks + Parity disks :Parity :Parity

Dyski fizyczne RAID Group RAID DP RAID 6 Data blocks Data blocks A B C D E F G H I J A B C D E F G H I J Controller Controller A D : : : B E : : : C F : : : SUMA SUMA Data disks + Parity disks : : : (A-C)P (D-F)P : : : A D G : : : B E (G-I)P : : : C (D-F)P (G-I)P : : : (A-C)P (D-F)P H : : : (A-C)P F I : : : Data disks + Parity disks

FAS8020

FAS8020

FAS8040/8060

FAS8000

Flash Cache akceleracja pamięci cache

Flash Cache akceleracja pamięci cache Karta PCIe, taka sama jak karta PAM I Dostępna wersja 512 GB, 1 TB, 2 TB

Błyskawiczny start z cache Czas boot owania niższy o 47% Operacje na dyskach niższe o 50% Wzrost wydajności o 71% Read data block from disk Disk Flash Cache 32

Flash Pools Mieszane grupy RAID SSD + HDD Cache owanie całego ruchu Wzrost wydajności odczyt/zapis SSD Odczyt danych z dysków Disk

Flash Pools W jaki sposób działa pula przy odczytach

Flash Pools W jaki sposób działa pula przy zapisach

AutoSupport Dostępny we wszystkich modelach macierzy NetApp HTTP or HTTPS SMTP Email Server

Podstawy Clustered Data ONTAP

Konfiguracje HA 7-Mode Clustered High Availability High Availability High Availability Kontrolery w konfiguracji cluster są nazywane nodes

Skalowalność liniowa C2 B C A2 A3 C1 B1 A D Do 24 kontrolerów w przypadku protokołów NAS Do 8 kontrolerów w przypadku protokołów SAN lub SAN oraz NAS

Multi-Tenancy FAS Storage Platform with Data ONTAP Virtual Storage Systems Customers Departments Applications

Multi-Tenancy Storage Containers 7-Mode vfiler unit Clustered Storage virtual machine (SVM) Administrative SVM Data ONTAP z vfiler0 Data ONTAP z trzema vfiler Node SVMs Admin SVMs Data SVMs Cluster Interconnect HA HA Data SVM

SVM typu Data With FlexVol Volumes SVM Admin mgmt LIF FlexVol Volumes data LIFs ----- NFS CIFS iscsi FC Client Access SVM with FlexVol Volumes SVM udostępnia dane dla klientów SVM w sposób bezpieczny izoluje dane oraz sieć w zakresie zarządzania i udostępniania.

Zarządzanie Data ONTAP Interfejs użytkownika

OnCommand System Manager W celu prostego zarządzania, konfiguracji, diagnostyki macierzy NetApp 7-Mode Clustered

Administracja macierzą Standardowe konto do administracji : Data ONTAP operating in 7-Mode: root Clustered Data ONTAP: admin Można zarządzać użytkownikiem admin z poziomu linii poleceń oraz oprogramowania OnCommand System Manager. Istnieje możliwość tworzenia nowych użytkowników oraz nadawania im odpowiednich ról z uprawnieniami Data ONTAP 7-Mode system> useradmin Clustered Data ONTAP c1::> security login role create

Shells Poziomy zarządzania 7-Mode Clustered Clustershell Admin Shell Node Shell System Shell System Shell

Przełączanie się pomiędzy poziomami zaawansowania Data ONTAP 7-Mode system> priv set advanced Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you want to continue? {y n}: y system*> priv set admin system> Clustered Data ONTAP c1::> set -priv advanced Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you want to continue? {y n}: y c1::*> set admin c1::>

Clustershell Question Mark c1::> storage aggregate c1::storage aggregate> modify? [-aggregate] <aggregate name> Aggregate [ -disktype -T {ATA BSAS FCAL FSAS LUN MSATA SAS SATA SSD VMDISK} ] Disk Type [ -free-space-realloc {on off no_redirect} ] Free Space Reallocation [ -ha-policy {sfo cfo} ] HA Policy [ -percent-snapshot-space <percent> ] Space Reserved for Snapshot Copies [ -space-nearly-full-threshold-percent <percent> ] Aggregate Nearly Full Threshold Percent [ -space-full-threshold-percent <percent> ] Aggregate Full Threshold Percent [ -hybrid-enabled {true false} ] Hybrid Enabled [ -force-hybrid-enabled -f [true] ] Force Marking of Aggregate as Hybrid Enabled [ -maxraidsize -s <integer> ] Max RAID Size... c1::storage aggregate> modify

Konfiguracja sprzętu

Konfiguracja macierzy FAS 25xx

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 DS2246 Półki dyskowe do macierzy FAS Size: 450GB 450GB 450GB 450GB DS4243 Disk Speeds: 450GB 450GB 450GB 450GB DS424x 4U, 24 disks 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 10K SAS 7.2K SATA DS4486 4U, 48 disks 450GB 450GB DS4243 DS4246 DS4486 450GB 450GB SSD 2U, 24 disks 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB DS2246 600GB 600GB 600GB 600GB 600GB 600GB 600GB 10K SAS SSD

Konfiguracja Clustered Data ONTAP Switched Clusters Node 1 Node 2 Node 3 Node 4 Disk Shelves Disk Shelves Disk Shelves Disk Shelves SAS or FC (simplified) HA interconnect Cluster interconnect Cluster Interconnect Switches

Konfiguracja FAS Konfiguracja dwu-kontrolerowa bez użycia switcha (switchless) Kontroler 1 Kontroler 2 Disk Shelves Disk Shelves HA Pair SAS or FC (simplified) HA interconnect Cluster interconnect

FAS2552 Clustered Data ONTAP

W jaki sposób organizujemy przestrzeń dyskową?

Data ONTAP Storage Architecture Files and LUNs Logical Layer FlexVol volumes Aggregate Physical Layer RAID Groups Disks

Konfiguracja fizycznej przestrzeni dyskowej 3. Create Aggregate Aggregate 2. Assign Ownership Spare Disks 1. Add Disks Unowned Disks

Typy aggregatów Dostępna przestrzeń dyskowa Root Aggregate Data Disk Parity Disk dparity Disk Data Aggregate Data Disks Parity Disk dparity Disk

FAS2520 bez partycjonowania ADP FAS2520 Data Disks / Total Disks = Efficiency 2 Data HDDs and 12 HDDs Total = 17% 100% NODE1 ROOT NODE1 ROOT PARITY NODE1 ROOT PARITY USER AGGR USER AGGR USER AGGR PARITY USER AGGR PARITY SPARE SPARE NODE2 ROOT NODE2 ROOT PARITY NODE2 ROOT PARITY 1 2 3 4 5 6 7 8 9 10 11 12 0%

FAS2520 HDDs z partycjonowaniem ADP FAS2520 Root Partition <- NODE1 ROOT <- NODE1 ROOT <- NODE1 ROOT <- N1 ROOT PARITY <- N1 ROOT PARITY <- SPARE <- NODE2 ROOT <- NODE2 ROOT <- NODE2 ROOT <- N2 ROOT PARITY <- N2 ROOT PARITY <- SPARE Data Partition DATA DATA DATA DATA DATA DATA DATA DATA DATA PARITY PARITY SPARE 1 2 3 4 5 6 7 8 9 10 11 12

FAS2520 efektywność dużo lepsza FAS2520 9 Data HDDs and 12 HDDs Total = 72% 100% Root Partition Data Partition DATA DATA DATA DATA DATA DATA DATA DATA DATA PARITY PARITY SPARE 0%

NetApp Virtual Storage Tier Server Flash Cache Flash Pool Storage

Akceleracjaz dyskami SSD

Creation Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Allocation Unit Allocation units staje się grupą RAID w momencie przypisania do aggregatu z danymi a Flash Pool aggregate. 1 2 3 4 5 SSD Disk1 Through Disk6

Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Node1 Node2 1 2 3 4 5

Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Aggr2 Aggr1 HDD rg0 HDD rg0 DATA DATA DATA DATA PARITY PARITY HDD rg1 HDD rg1 DATA DATA DATA DATA PARITY PARITY HDD rg2 SSD rg2 DATA DATA DATA DATA PARITY PARITY SSD rg3 1 2 3 4 5 6 SSD rg4

Co z siecią?

Interfejsy sieciowe w Clustered Data ONTAP Logical* LIF smv1-mgmt smv1-data1 Virtual VLAN a0a-50 a0a-80 Ifgrp a0a Physical Port e2a e3a

Podstawowa konfiguracja

Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks (not necessary on new clusters). 5. System setup: use System Setup 3.0. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a data storage virtual machine (a data SVM). 9. Create data volumes and protocol configuration.

System Setup Tool

Six Steps System Setup 3.1

LABORATORIUM A

Policies and Schedules

Policy-Based Storage Services Policy: A collection of rules that are created and managed by the cluster or SVM administrator Predefined or created to manage data access Policy examples: Export, quota, file, and data Snapshot copy and SnapMirror Quality of service (QoS)

Policy Example policya Rule1 criteria1 Rule2 criteria2 policyb Rule3 criteria3 property Rule1 criteria1 property property Rule2 criteria2 Rule3 criteria3 property property property You assign a policy to a service or resource A rule criteria in the policy matches the service or resource The matching rule s properties apply to the service or resource The example is a firewall to allow or deny access to a protocol for specific IP address ranges.

Job Schedules Job schedules can be used: Globally (by all virtual storage systems and SVMs) For functions that can be automated For SnapShot, SnapMirror events, for example Note the following job schedule syntax: @:00,:05,:10...:55 means every five minutes on the five-minute marks @4 means daily at 4:00 a.m. @:10 means hourly at ten minutes after the hour

Zarządzanie przestrzenią dyskową

Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software on nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.

RAID Group Sizing HDD rg SSD rg HDD and SSD RAID Group Data Disks Flash Pool Data Disks Data Disks Parity Disk Parity Disk Parity Disk dparity Disk dparity Disk dparity Disk RAID group sizing: HDD and SSD RAID groups: All RAID groups in aggregate should be the same size HDD: 12 to 20 (per RAID group) SSD: 20 to 28 (per RAID group) Flash pools: SSD RAID group size and type can be different from HDD RAID group size

LABORATORIUM B

LABORATORIUM B

Data ONTAP Konfiguracja zasobów na macierzy Volumeny typu FlexVol

Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.

Data SVM With FlexVol Volumes SVM Admin mgmt LIF FlexVol Volumes data LIFs ----- NFS CIFS iscsi FC Client Access SVM with FlexVol Volumes

FlexVol Volumes Types Files LUN FlexVol FlexVol Aggregate FlexVol volume types: System (or node root) Typically named vol0 Should only contain configuration and logs Should not contain user data SVM root volume Top level of the namespace Should not contain user data Data NAS: Contain file systems for user data SAN: Contain LUNs

Zarządzenie siecią

IPspaces

IPspaces Default IPspace Company A IPspace Company B IPspace Storage service provider (SSP) point of presence SVM 1 SVM 2 Default routing table SVM_A-1 SVM_A-2 Company A routing table SVM_B-1 SVM_B-2 Company B routing table Default: 192.168.0.0 Company A: 10.0.0.0 Company B: 10.0.0.0 192.168.0.5 10.1.2.5 10.1.2.5

Broadcast Domains Default Broadcast Domain Company A Broadcast Domain Company B Broadcast Domain

Subnets Default Broadcast Domain Company A Broadcast Domain Company B Broadcast Domain subnet subnet subnet

Logiczne interfejsy - LIF An IP address or World Wide Port Name (WWPN) is associated with a LIF If subnets are configured (recommended), IP addresses are automatically assigned when a LIF is created If subnets are not configured, IP addresses must be manually assigned when LIF is created WWPNs are automatically assigned when an FC LIF is created One node-management LIF exists per node One cluster-management LIF exists per cluster Two* cluster LIFs exist per node Multiple data LIFs are allowed per port (Client-facing: NFS, CIFS, iscsi, and FC access) * The default is platform dependent.

Implementacja protokołów NAS

Unified Storage Review File System (SAN) NFS iscsi Corporate LAN CIFS File System (NAS) FCoE FC NAS (File-Level Access) NetApp FAS SAN (Block-Level Access)

System plików NAS Client UNIX1 /mnt/nfsvol Client WIN1 Disk 1 (C:) Disk 2 (E:) \\system\smbvol Server NFS volume SMB volume

Storage System Resources Volume Qtree Directory File

NAS Namespace Architecture Multiple Standalone Volumes root /temp temp /project1 /project2 /project3 pro2 pro3 pro1 SVM volume junction path vs1 temp /temp vs1 pro1 /project1 vs1 pro2 /project2 vs1 pro3 /project3 vs1 vs1_root /

NAS Namespace Architecture Namespace with Branched Trees root /temp temp /project project pro3 /project/pro3 /project/pro1 pro2 /project/pro2 pro1 SVM volume junction path vs1 temp /temp vs1 project /project vs1 pro1 /project/pro1 vs1 pro2 /project/pro2 vs1 pro3 /project/pro3 vs1 vs1_root /

NAS Namespace Architecture Namespace with Directory /temp temp root project /project/pro3 pro3 pro1 pro2 /project/pro11 /project/pro2 SVM volume junction path vs1 temp /temp vs1 pro1 /project/pro1 vs1 pro2 /project/pro2 vs1 pro3 /project/pro3 vs1 vs1_root /

Windows File Services

Server Message Block Protocol Client WIN1 Disk 1 (C:) Disk 2 (E:) \\system\smbvol Server SMBvol

Enable SMB SMB Implementation Data ONTAP 7-Mode system> cifs setup Clustered Data ONTAP c1::> vserver cifs create Best Practice: Configure NAS protocols with OnCommand System Manager.

LABORATORIUM C

Użyteczne funkcjonalności w macierzach NetApp

DataONTAP

Zmiany w zakresie automatyzacji procesów

Przykład polisy policya Rule1 criteria1 Rule2 criteria2 policyb Rule3 criteria3 property property Rule1 criteria1 property Rule2 criteria2 Rule3 criteria3 property property property

Snapshot y

Data ONTAP kopie Snapshot Produkcja: aktywny system plików Prod PROD A B SNAP 1 A B SNAP 2 A B C C C WRITE WRITE D D D A B C D E F F E E E E F F F F S 1 S 2 SNAP #1 SNAP #2

NetApp System Manager Create a Snapshot Copy Zaznacz volume n i wybierz Snapshot Copies > Create aby utworzyć nową kopię snapshot

Odtworzenie danych ze snapshotu Produkcja: Aktywny system plików Prod A B C D E F F E PROD A B C D E F SNAP PROD1 A B C D E F SNAP 2 A B C D E F F Prod S 1 Produkcja SNAP #1 S 2 SNAP #2

Odtwarzanie danych ze snapshotów z poziomu klienta Windows katalog ~snapshot Istnieje możliwość udostępnienia kopii snapshotowych dla zwykłych użytkowników

Integracja z aplikacjami SnapManager dla

Metody optymalizacji przestrzeni dyskowej

Metody optymalizacji przestrzeni dyskowej

Thin Provisioning

Thin Provisioning App 3 waste 8 spindles App 2 waste 6 spindles Dostępna przestrzeń App 3 12 spindles App 1 waste 6 spindles App 2 Standard Volume Manager App 1 NetApp Thin Provisioning

FlexClone klonowanie danych

FlexClone Production Mirror Production Dev 1 Dev 2 Dev 1 Dev 2 Test 1 Test 2 Pełne kopie zabierają przestrzeń i czas QA Test 1 Test 2 4 FlexClone QA

Klonowanie Aggregate vol1 Klon - unikalne bloki Wspólne bloki vol1 Unikalne bloki vol1 clone

Tradycyjne klonowanie VM DATA DATA DATA DATA DATA Primary Images APP APP APP APP APP OS OS OS OS OS DATA APP DATA APP DATA APP DATA APP DATA APP Image Clones OS OS OS OS OS Traditional Enterprise RAID Arrays

Klonowanie NetApp DATA APP OS DATA APP OS DATA APP OS DATA APP OS DATA APP OS Primary Images DATA APP OS DATA APP OS DATA APP OS DATA APP OS DATA APP OS Image Clones (datastore, file, LUN)

Deduplikacja i kompresja

DEDUPLIKACJA Data Deduplikowane są 4K bloki w aktywnym systemie plików na wolumeninie typu Flex Meta Data Deduplication Process Deduped (Single Instance) Storage Standardowe dane w volumenie Meta Data Dane po deduplikacji w wolumenie

Deduplikacja oraz SnapMirror Dedupe Optimized Storage Vol1 (deduped) Network Efficiency Reduced data across the network Vol1 (deduped) Dedupe Optimized Storage VSM Site A, Oddział firmy w innej lokalizacji Site B, Centrala firmy

Kompresja Data Compression

Backup i replikacja

SnapMirror replikacja SnapMirror Lokalizacja podstawowa Centrum zapasowe

SnapVault kopie długoterminowe Snapshot1 Snapshot2 Snapshot3 Snapshot1 Snapshot2 Snapshot3 Snapshot4 Snapshot5

Elastyczne testy w lokalizacji zapasowej Development Testing Disaster Recovery Testing SnapMirror Snapshot Copies FlexCone Volume

Implementacja protokołu SAN

Unified Storage Review File System (SAN) NFS iscsi Corporate LAN CIFS File System (NAS) FCoE FC NAS (File-Level Access) NetApp FAS SAN (Block-Level Access)

Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.

Basic SAN Implementation

Dostęp blokowy iscsi i FC Data ONTAP 8.2 and 8.3 Windows Red Hat VMware ESX HPUX Solaris AIX FC, iscsi, or FCoE LUNs LUNs LUNs LUNs

SAN Data Logical Interfaces Clustered Data ONTAP e1a LIF1 LIF2 e1b Data SVM Cluster Interconnect Data SVM LIF1 LIF2 HA HA SAN data logical interfaces (data LIFs): Are assigned a home node and port Are single-protocol (FC or iscsi) Do not fail over Can be moved to different ports or nodes within an SVM (LIF must be offline) Can be grouped into port sets Recommendation: Use at least one LIF per node, per SVM, per network.

WWN Format LIF1 LIF2 0a 0a 1. Verify the port details: c1::*> network fcp adapter show node system-02 adapter 0a Node: cluster1-02 Adapter: 0a Original WWNN: 50:0a:09:80:00:05:a2:40 Adapter WWNN: 50:0a:09:80:8d:7d:c0:1c Adapter WWPN: 50:0a:09:85:8d:7d:c0:1c Queue Depth: 2048 Data SVM 2. List the SVM s WWNN: c1::> vserver fcp show Status Vserver Target Name Admin ------- ----------------------- ----- svm1 20:37:00:a0:98:13:d5:d4 up 3. List the LIF s WWPN: c1::> network interface show vserver svm1 Logical Status Network Current Current Vserver Interface Admin/Oper Address/Mask Node Port -------- ----------- ---------- ------------------ ---------- ------- svm1 n1_fc_lif1 up/up 20:38:00:a0:98:13:d5:d4 cluster1-01 0a n1_fc_lif2 up/up 20:39:00:a0:98:13:d5:d4 cluster1-02 0a

Wielościeżkowy dostęp do zasobów blokowych Dostęp wielościeżkowy ze wsparciem dla ALUA Direct LUN

LABORATORIUM D

Dziękuję za uwagę