NetApp Clustered DataOntap Jarosław Duda
NetApp Portfolio Corporate Data Centers Cloud Data Centers Flash Arrays Clustered Data ONTAP E-Series StorageGRID
Macierze serii FAS
Szeroka gama macierzy NetApp FAS8080 FAS8060 FAS8040 FAS8020 4800TB 1 200 dysków 18TB flash pool 5760TB 1 440 dysków 36TB flash pool FAS2520 336TB 84 dysków 4TB flash pool FAS2550 576TB 144 dysków 4TB flash pool 1920TB 480 dysków 6TB flash pool 2880TB 720 dysków 12TB flash pool E5600 EF560 120 dysków E2700 384 dysków 192 dysków
Data ONTAP - Wspierane Protokoły NFS (v2, v3, v4) [mostly Unix] CIFS [Windows/Samba/MacOS X] FCP iscsi [SCSI over TCP/IP]
Data ONTAP - Wspierane Protokoły
Macierze serii FAS25xx FAS2552 SAS/SSD FAS2554 SATA/SSD FAS2520 SATA/SAS/SSD 7
FAS2520 HA Widok kontrolerów Obudowa 2U FAS2520 8
FAS2520 opis portów kontrolera Console Port e0m/sp LNK LNK e0c e0d e0e e0f e0a LNK LNK LNK LNK NV 0b 0a SSN MAC e0b SAS 4 x 10GBaseT 2 x GbE ports 2 x SAS ports 10GBaseT USB port 1 x GbE management port 1 x private management port 1 x USB port (disabled) 1 x console port Private Management Port GbE 9
FAS2552 oraz FAS2554 Porównanie obudowy obu macierzy Obudowa 2U FAS2552 Obudowa 4U FAS2554 10
FAS2552 oraz FAS2554 opis portów Console Port LNK LNK e0c 0c e0d 0d e0e 0e e0f 0f e0a LNK LNK LNK LNK NV 0b 0a SSN MAC e0b SAS UTA 2 4 x Unified Target Adapter (UTA2) ports 10GbE, GbE Ethernet 16Gb/s FC or 8Gb/s FC 2 x GbE ports 2 x SAS ports USB port Private Management Port GbE 1 x GbE management port 1 x private management port 1 x USB port (disabled) 1 x console port
Interfejsy do zarządzania
Półki dyskowe
Dyski fizyczne RAID Group RAID 4 RAID 54 Data blocks A B C D E F G H I J Controller Data blocks 2A B4 C1 D3 E1 3F G2 H1 I J Controller A E : : : B F : : : C G : : : D H : : : (A-D)P (E-H)P : : : A2 E1 : : : B4 F3 : : : 1C G2 : : : D3 (A-D)P 10 (E-H)P 1 7H : :: : :: : :: Data disks + Parity disks Data disks + Parity disks :Parity :Parity
Dyski fizyczne RAID Group RAID DP RAID 6 Data blocks Data blocks A B C D E F G H I J A B C D E F G H I J Controller Controller A D : : : B E : : : C F : : : SUMA SUMA Data disks + Parity disks : : : (A-C)P (D-F)P : : : A D G : : : B E (G-I)P : : : C (D-F)P (G-I)P : : : (A-C)P (D-F)P H : : : (A-C)P F I : : : Data disks + Parity disks
FAS8020
FAS8020
FAS8040/8060
FAS8000
Flash Cache akceleracja pamięci cache
Flash Cache akceleracja pamięci cache Karta PCIe, taka sama jak karta PAM I Dostępna wersja 512 GB, 1 TB, 2 TB
Błyskawiczny start z cache Czas boot owania niższy o 47% Operacje na dyskach niższe o 50% Wzrost wydajności o 71% Read data block from disk Disk Flash Cache 32
Flash Pools Mieszane grupy RAID SSD + HDD Cache owanie całego ruchu Wzrost wydajności odczyt/zapis SSD Odczyt danych z dysków Disk
Flash Pools W jaki sposób działa pula przy odczytach
Flash Pools W jaki sposób działa pula przy zapisach
AutoSupport Dostępny we wszystkich modelach macierzy NetApp HTTP or HTTPS SMTP Email Server
Podstawy Clustered Data ONTAP
Konfiguracje HA 7-Mode Clustered High Availability High Availability High Availability Kontrolery w konfiguracji cluster są nazywane nodes
Skalowalność liniowa C2 B C A2 A3 C1 B1 A D Do 24 kontrolerów w przypadku protokołów NAS Do 8 kontrolerów w przypadku protokołów SAN lub SAN oraz NAS
Multi-Tenancy FAS Storage Platform with Data ONTAP Virtual Storage Systems Customers Departments Applications
Multi-Tenancy Storage Containers 7-Mode vfiler unit Clustered Storage virtual machine (SVM) Administrative SVM Data ONTAP z vfiler0 Data ONTAP z trzema vfiler Node SVMs Admin SVMs Data SVMs Cluster Interconnect HA HA Data SVM
SVM typu Data With FlexVol Volumes SVM Admin mgmt LIF FlexVol Volumes data LIFs ----- NFS CIFS iscsi FC Client Access SVM with FlexVol Volumes SVM udostępnia dane dla klientów SVM w sposób bezpieczny izoluje dane oraz sieć w zakresie zarządzania i udostępniania.
Zarządzanie Data ONTAP Interfejs użytkownika
OnCommand System Manager W celu prostego zarządzania, konfiguracji, diagnostyki macierzy NetApp 7-Mode Clustered
Administracja macierzą Standardowe konto do administracji : Data ONTAP operating in 7-Mode: root Clustered Data ONTAP: admin Można zarządzać użytkownikiem admin z poziomu linii poleceń oraz oprogramowania OnCommand System Manager. Istnieje możliwość tworzenia nowych użytkowników oraz nadawania im odpowiednich ról z uprawnieniami Data ONTAP 7-Mode system> useradmin Clustered Data ONTAP c1::> security login role create
Shells Poziomy zarządzania 7-Mode Clustered Clustershell Admin Shell Node Shell System Shell System Shell
Przełączanie się pomiędzy poziomami zaawansowania Data ONTAP 7-Mode system> priv set advanced Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you want to continue? {y n}: y system*> priv set admin system> Clustered Data ONTAP c1::> set -priv advanced Warning: These advanced commands are potentially dangerous; use them only when directed to do so by NetApp personnel. Do you want to continue? {y n}: y c1::*> set admin c1::>
Clustershell Question Mark c1::> storage aggregate c1::storage aggregate> modify? [-aggregate] <aggregate name> Aggregate [ -disktype -T {ATA BSAS FCAL FSAS LUN MSATA SAS SATA SSD VMDISK} ] Disk Type [ -free-space-realloc {on off no_redirect} ] Free Space Reallocation [ -ha-policy {sfo cfo} ] HA Policy [ -percent-snapshot-space <percent> ] Space Reserved for Snapshot Copies [ -space-nearly-full-threshold-percent <percent> ] Aggregate Nearly Full Threshold Percent [ -space-full-threshold-percent <percent> ] Aggregate Full Threshold Percent [ -hybrid-enabled {true false} ] Hybrid Enabled [ -force-hybrid-enabled -f [true] ] Force Marking of Aggregate as Hybrid Enabled [ -maxraidsize -s <integer> ] Max RAID Size... c1::storage aggregate> modify
Konfiguracja sprzętu
Konfiguracja macierzy FAS 25xx
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 DS2246 Półki dyskowe do macierzy FAS Size: 450GB 450GB 450GB 450GB DS4243 Disk Speeds: 450GB 450GB 450GB 450GB DS424x 4U, 24 disks 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 450GB 10K SAS 7.2K SATA DS4486 4U, 48 disks 450GB 450GB DS4243 DS4246 DS4486 450GB 450GB SSD 2U, 24 disks 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB 600GB DS2246 600GB 600GB 600GB 600GB 600GB 600GB 600GB 10K SAS SSD
Konfiguracja Clustered Data ONTAP Switched Clusters Node 1 Node 2 Node 3 Node 4 Disk Shelves Disk Shelves Disk Shelves Disk Shelves SAS or FC (simplified) HA interconnect Cluster interconnect Cluster Interconnect Switches
Konfiguracja FAS Konfiguracja dwu-kontrolerowa bez użycia switcha (switchless) Kontroler 1 Kontroler 2 Disk Shelves Disk Shelves HA Pair SAS or FC (simplified) HA interconnect Cluster interconnect
FAS2552 Clustered Data ONTAP
W jaki sposób organizujemy przestrzeń dyskową?
Data ONTAP Storage Architecture Files and LUNs Logical Layer FlexVol volumes Aggregate Physical Layer RAID Groups Disks
Konfiguracja fizycznej przestrzeni dyskowej 3. Create Aggregate Aggregate 2. Assign Ownership Spare Disks 1. Add Disks Unowned Disks
Typy aggregatów Dostępna przestrzeń dyskowa Root Aggregate Data Disk Parity Disk dparity Disk Data Aggregate Data Disks Parity Disk dparity Disk
FAS2520 bez partycjonowania ADP FAS2520 Data Disks / Total Disks = Efficiency 2 Data HDDs and 12 HDDs Total = 17% 100% NODE1 ROOT NODE1 ROOT PARITY NODE1 ROOT PARITY USER AGGR USER AGGR USER AGGR PARITY USER AGGR PARITY SPARE SPARE NODE2 ROOT NODE2 ROOT PARITY NODE2 ROOT PARITY 1 2 3 4 5 6 7 8 9 10 11 12 0%
FAS2520 HDDs z partycjonowaniem ADP FAS2520 Root Partition <- NODE1 ROOT <- NODE1 ROOT <- NODE1 ROOT <- N1 ROOT PARITY <- N1 ROOT PARITY <- SPARE <- NODE2 ROOT <- NODE2 ROOT <- NODE2 ROOT <- N2 ROOT PARITY <- N2 ROOT PARITY <- SPARE Data Partition DATA DATA DATA DATA DATA DATA DATA DATA DATA PARITY PARITY SPARE 1 2 3 4 5 6 7 8 9 10 11 12
FAS2520 efektywność dużo lepsza FAS2520 9 Data HDDs and 12 HDDs Total = 72% 100% Root Partition Data Partition DATA DATA DATA DATA DATA DATA DATA DATA DATA PARITY PARITY SPARE 0%
NetApp Virtual Storage Tier Server Flash Cache Flash Pool Storage
Akceleracjaz dyskami SSD
Creation Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Allocation Unit Allocation units staje się grupą RAID w momencie przypisania do aggregatu z danymi a Flash Pool aggregate. 1 2 3 4 5 SSD Disk1 Through Disk6
Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Node1 Node2 1 2 3 4 5
Partycjonowanie SSD dla Flash Pool i Storage Pool (STORAGEPOOL1) Aggr2 Aggr1 HDD rg0 HDD rg0 DATA DATA DATA DATA PARITY PARITY HDD rg1 HDD rg1 DATA DATA DATA DATA PARITY PARITY HDD rg2 SSD rg2 DATA DATA DATA DATA PARITY PARITY SSD rg3 1 2 3 4 5 6 SSD rg4
Co z siecią?
Interfejsy sieciowe w Clustered Data ONTAP Logical* LIF smv1-mgmt smv1-data1 Virtual VLAN a0a-50 a0a-80 Ifgrp a0a Physical Port e2a e3a
Podstawowa konfiguracja
Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks (not necessary on new clusters). 5. System setup: use System Setup 3.0. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a data storage virtual machine (a data SVM). 9. Create data volumes and protocol configuration.
System Setup Tool
Six Steps System Setup 3.1
LABORATORIUM A
Policies and Schedules
Policy-Based Storage Services Policy: A collection of rules that are created and managed by the cluster or SVM administrator Predefined or created to manage data access Policy examples: Export, quota, file, and data Snapshot copy and SnapMirror Quality of service (QoS)
Policy Example policya Rule1 criteria1 Rule2 criteria2 policyb Rule3 criteria3 property Rule1 criteria1 property property Rule2 criteria2 Rule3 criteria3 property property property You assign a policy to a service or resource A rule criteria in the policy matches the service or resource The matching rule s properties apply to the service or resource The example is a firewall to allow or deny access to a protocol for specific IP address ranges.
Job Schedules Job schedules can be used: Globally (by all virtual storage systems and SVMs) For functions that can be automated For SnapShot, SnapMirror events, for example Note the following job schedule syntax: @:00,:05,:10...:55 means every five minutes on the five-minute marks @4 means daily at 4:00 a.m. @:10 means hourly at ten minutes after the hour
Zarządzanie przestrzenią dyskową
Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software on nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.
RAID Group Sizing HDD rg SSD rg HDD and SSD RAID Group Data Disks Flash Pool Data Disks Data Disks Parity Disk Parity Disk Parity Disk dparity Disk dparity Disk dparity Disk RAID group sizing: HDD and SSD RAID groups: All RAID groups in aggregate should be the same size HDD: 12 to 20 (per RAID group) SSD: 20 to 28 (per RAID group) Flash pools: SSD RAID group size and type can be different from HDD RAID group size
LABORATORIUM B
LABORATORIUM B
Data ONTAP Konfiguracja zasobów na macierzy Volumeny typu FlexVol
Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.
Data SVM With FlexVol Volumes SVM Admin mgmt LIF FlexVol Volumes data LIFs ----- NFS CIFS iscsi FC Client Access SVM with FlexVol Volumes
FlexVol Volumes Types Files LUN FlexVol FlexVol Aggregate FlexVol volume types: System (or node root) Typically named vol0 Should only contain configuration and logs Should not contain user data SVM root volume Top level of the namespace Should not contain user data Data NAS: Contain file systems for user data SAN: Contain LUNs
Zarządzenie siecią
IPspaces
IPspaces Default IPspace Company A IPspace Company B IPspace Storage service provider (SSP) point of presence SVM 1 SVM 2 Default routing table SVM_A-1 SVM_A-2 Company A routing table SVM_B-1 SVM_B-2 Company B routing table Default: 192.168.0.0 Company A: 10.0.0.0 Company B: 10.0.0.0 192.168.0.5 10.1.2.5 10.1.2.5
Broadcast Domains Default Broadcast Domain Company A Broadcast Domain Company B Broadcast Domain
Subnets Default Broadcast Domain Company A Broadcast Domain Company B Broadcast Domain subnet subnet subnet
Logiczne interfejsy - LIF An IP address or World Wide Port Name (WWPN) is associated with a LIF If subnets are configured (recommended), IP addresses are automatically assigned when a LIF is created If subnets are not configured, IP addresses must be manually assigned when LIF is created WWPNs are automatically assigned when an FC LIF is created One node-management LIF exists per node One cluster-management LIF exists per cluster Two* cluster LIFs exist per node Multiple data LIFs are allowed per port (Client-facing: NFS, CIFS, iscsi, and FC access) * The default is platform dependent.
Implementacja protokołów NAS
Unified Storage Review File System (SAN) NFS iscsi Corporate LAN CIFS File System (NAS) FCoE FC NAS (File-Level Access) NetApp FAS SAN (Block-Level Access)
System plików NAS Client UNIX1 /mnt/nfsvol Client WIN1 Disk 1 (C:) Disk 2 (E:) \\system\smbvol Server NFS volume SMB volume
Storage System Resources Volume Qtree Directory File
NAS Namespace Architecture Multiple Standalone Volumes root /temp temp /project1 /project2 /project3 pro2 pro3 pro1 SVM volume junction path vs1 temp /temp vs1 pro1 /project1 vs1 pro2 /project2 vs1 pro3 /project3 vs1 vs1_root /
NAS Namespace Architecture Namespace with Branched Trees root /temp temp /project project pro3 /project/pro3 /project/pro1 pro2 /project/pro2 pro1 SVM volume junction path vs1 temp /temp vs1 project /project vs1 pro1 /project/pro1 vs1 pro2 /project/pro2 vs1 pro3 /project/pro3 vs1 vs1_root /
NAS Namespace Architecture Namespace with Directory /temp temp root project /project/pro3 pro3 pro1 pro2 /project/pro11 /project/pro2 SVM volume junction path vs1 temp /temp vs1 pro1 /project/pro1 vs1 pro2 /project/pro2 vs1 pro3 /project/pro3 vs1 vs1_root /
Windows File Services
Server Message Block Protocol Client WIN1 Disk 1 (C:) Disk 2 (E:) \\system\smbvol Server SMBvol
Enable SMB SMB Implementation Data ONTAP 7-Mode system> cifs setup Clustered Data ONTAP c1::> vserver cifs create Best Practice: Configure NAS protocols with OnCommand System Manager.
LABORATORIUM C
Użyteczne funkcjonalności w macierzach NetApp
DataONTAP
Zmiany w zakresie automatyzacji procesów
Przykład polisy policya Rule1 criteria1 Rule2 criteria2 policyb Rule3 criteria3 property property Rule1 criteria1 property Rule2 criteria2 Rule3 criteria3 property property property
Snapshot y
Data ONTAP kopie Snapshot Produkcja: aktywny system plików Prod PROD A B SNAP 1 A B SNAP 2 A B C C C WRITE WRITE D D D A B C D E F F E E E E F F F F S 1 S 2 SNAP #1 SNAP #2
NetApp System Manager Create a Snapshot Copy Zaznacz volume n i wybierz Snapshot Copies > Create aby utworzyć nową kopię snapshot
Odtworzenie danych ze snapshotu Produkcja: Aktywny system plików Prod A B C D E F F E PROD A B C D E F SNAP PROD1 A B C D E F SNAP 2 A B C D E F F Prod S 1 Produkcja SNAP #1 S 2 SNAP #2
Odtwarzanie danych ze snapshotów z poziomu klienta Windows katalog ~snapshot Istnieje możliwość udostępnienia kopii snapshotowych dla zwykłych użytkowników
Integracja z aplikacjami SnapManager dla
Metody optymalizacji przestrzeni dyskowej
Metody optymalizacji przestrzeni dyskowej
Thin Provisioning
Thin Provisioning App 3 waste 8 spindles App 2 waste 6 spindles Dostępna przestrzeń App 3 12 spindles App 1 waste 6 spindles App 2 Standard Volume Manager App 1 NetApp Thin Provisioning
FlexClone klonowanie danych
FlexClone Production Mirror Production Dev 1 Dev 2 Dev 1 Dev 2 Test 1 Test 2 Pełne kopie zabierają przestrzeń i czas QA Test 1 Test 2 4 FlexClone QA
Klonowanie Aggregate vol1 Klon - unikalne bloki Wspólne bloki vol1 Unikalne bloki vol1 clone
Tradycyjne klonowanie VM DATA DATA DATA DATA DATA Primary Images APP APP APP APP APP OS OS OS OS OS DATA APP DATA APP DATA APP DATA APP DATA APP Image Clones OS OS OS OS OS Traditional Enterprise RAID Arrays
Klonowanie NetApp DATA APP OS DATA APP OS DATA APP OS DATA APP OS DATA APP OS Primary Images DATA APP OS DATA APP OS DATA APP OS DATA APP OS DATA APP OS Image Clones (datastore, file, LUN)
Deduplikacja i kompresja
DEDUPLIKACJA Data Deduplikowane są 4K bloki w aktywnym systemie plików na wolumeninie typu Flex Meta Data Deduplication Process Deduped (Single Instance) Storage Standardowe dane w volumenie Meta Data Dane po deduplikacji w wolumenie
Deduplikacja oraz SnapMirror Dedupe Optimized Storage Vol1 (deduped) Network Efficiency Reduced data across the network Vol1 (deduped) Dedupe Optimized Storage VSM Site A, Oddział firmy w innej lokalizacji Site B, Centrala firmy
Kompresja Data Compression
Backup i replikacja
SnapMirror replikacja SnapMirror Lokalizacja podstawowa Centrum zapasowe
SnapVault kopie długoterminowe Snapshot1 Snapshot2 Snapshot3 Snapshot1 Snapshot2 Snapshot3 Snapshot4 Snapshot5
Elastyczne testy w lokalizacji zapasowej Development Testing Disaster Recovery Testing SnapMirror Snapshot Copies FlexCone Volume
Implementacja protokołu SAN
Unified Storage Review File System (SAN) NFS iscsi Corporate LAN CIFS File System (NAS) FCoE FC NAS (File-Level Access) NetApp FAS SAN (Block-Level Access)
Setting Up a System 1. Connect controllers, disks, and cables. 2. Set up and configure nodes. 3. Install software onto nodes. (Software is preinstalled on most systems.) 4. Initialize disks. 5. System setup: Create a cluster on the first node, then join additional nodes to the cluster. 6. Complete the initial configuration. 7. Create data aggregates. 8. Create a storage virtual machine (SVM). 9. Create data volumes and protocol configuration.
Basic SAN Implementation
Dostęp blokowy iscsi i FC Data ONTAP 8.2 and 8.3 Windows Red Hat VMware ESX HPUX Solaris AIX FC, iscsi, or FCoE LUNs LUNs LUNs LUNs
SAN Data Logical Interfaces Clustered Data ONTAP e1a LIF1 LIF2 e1b Data SVM Cluster Interconnect Data SVM LIF1 LIF2 HA HA SAN data logical interfaces (data LIFs): Are assigned a home node and port Are single-protocol (FC or iscsi) Do not fail over Can be moved to different ports or nodes within an SVM (LIF must be offline) Can be grouped into port sets Recommendation: Use at least one LIF per node, per SVM, per network.
WWN Format LIF1 LIF2 0a 0a 1. Verify the port details: c1::*> network fcp adapter show node system-02 adapter 0a Node: cluster1-02 Adapter: 0a Original WWNN: 50:0a:09:80:00:05:a2:40 Adapter WWNN: 50:0a:09:80:8d:7d:c0:1c Adapter WWPN: 50:0a:09:85:8d:7d:c0:1c Queue Depth: 2048 Data SVM 2. List the SVM s WWNN: c1::> vserver fcp show Status Vserver Target Name Admin ------- ----------------------- ----- svm1 20:37:00:a0:98:13:d5:d4 up 3. List the LIF s WWPN: c1::> network interface show vserver svm1 Logical Status Network Current Current Vserver Interface Admin/Oper Address/Mask Node Port -------- ----------- ---------- ------------------ ---------- ------- svm1 n1_fc_lif1 up/up 20:38:00:a0:98:13:d5:d4 cluster1-01 0a n1_fc_lif2 up/up 20:39:00:a0:98:13:d5:d4 cluster1-02 0a
Wielościeżkowy dostęp do zasobów blokowych Dostęp wielościeżkowy ze wsparciem dla ALUA Direct LUN
LABORATORIUM D
Dziękuję za uwagę