niedziela, 8 grudnia 2013

XtremeIO - torpeda odpalona...po półtora roku czekania...

Ostatnio EMC ogłosiło GA (General Availability), czyli produkt dostępny w sprzedaży bez ograniczeń, dla swojej pierwszej macierzy klasy AFA (All-flash-array). Produktu od początku zbudowanego i zaprojektowanego do obsługi dysków SSD i żadnych innych.

Temat dysków SSD i macierzy wyspecjalizowanych w ich obsłudze od jakiś dwóch lat jest jednym z "najgłośniejszych" i najbardziej "trendy" w środowisku storage. Na początku bardzo szybko zaczęły powstawać nowe "startup"-y z produktami tej kategorii (np: Violin, Pure Storage, Solid Fire). O firmach tych zaczynało być coraz głośniej, pojawiło się coraz więcej nowych funkcjonalności (np: inline deduplikacja), a same urządzenia zaczęły być dostępne nie tylko lokalnie (do 100km od Doliny Krzemowej ;) ) ale też do zamówienia nawet na takim końcu świata jak np: Polska (Pan się nie boi, serwisant jest dostępny i w razie potrzeby doleci z Londynu w 5h). W końcu, czyli jakieś półtora roku temu, wkroczyliśmy w etap gdy niszą macierzy AFA zainteresowali się najwięksi gracze na rynku storage i rozpoczęło się przejmowanie przez nich firm siedzących w temacie. IBM kupił Texaco Memory Systems, CISCO kupiło WhipTail (całkiem niedawno), HP rozpoczęło sprzedaż i serwis urządzeń Violin, a EMC w maju zeszłego roku przejęło firmę XtremeIO.

No właśnie...
Przejeło, zrobiło wielki szum i ogłoszenie startu "tajemniczego" projektu "X" (i ubicie równie tajemniczego projetu "Thunder""), po czym nastała cisza...
Pojawiały się co jakiś czas informacje zarówno ze strony EMC (optymistyczne) jak i konkurencji (sarkastyczne) oraz niezależnych blogerów (różne) na temat zaawansowania prac nad macierzą all-flash bazującą na produktach XtreamIO, ale ogólnie to było w tym temacie bardzo, ale to bardzo cicho. Świat oczywiście nie stał w miejscu i macierze AFA stawały się coraz popularniejsze, było o nich coraz głośniej (choć oczywiście dalej jest to margines całej sprzedaży urządzeń storage) i wyglądało na to, że EMC nie ma za bardzo pomysłu i produktu, który mógłby wyróżnić się w tym obszarze na tle konkurencji.

14 listopada 2013 , po półtora roku od momentu przejęcia XtremeIO, EMC ogłosiło nowy produkt. Pierwszą w swoim portfolio macierz od początku do końca budowaną z przeznaczeniem do bycia ekstremalnie szybkim urządzeniem opartym na dyskach SSD.

Czy opłacało się czekać?


Nowa macierz składa się z tak zwanych X-Bricks. Cała konfiguracja może mieć od jednej do czterech takich cegiełek (wsparcie dla większych konfiguracji pewnie zostanie za niedługo ogłoszone). Każdy X-Bricks to w chwili obecnej 10TB przestrzeni (używane są dyski SSD 400GB), a także dodatkowa para kontrolerów. Dodawanie kontrolerów powoduje, że liniowo skaluje się wydajność rozwiązania - przy 4 X-Brickach jest ona określona na 1.000.000 IOPSów ( 4k random , 100% read)
Jeszcze w temacie konfiguracji hardware można wspomnieć o połączeniach między X-Brickami, które są oparte na inifinbandzie.

Bardzo ciekawie jest rozwiązane zarządzanie/konfigurowanie macierzy. Administrator nie musi robić praktycznie nic. XtremeIO nie ma RAIDów, LUNów, storage grup, nie ma tieringu, nie trzeba konfigurować cache, wielkości bloków itd... Jedyne co trzeba zrobić to wskazać do jakiego serwera ma być wystawiona przestrzeń i ile jej ma być.

Jak więc działa macierz?

Po pierwsze dane są rozrzucane po dyskach - zawsze po wszystkich i zawsze po równo (EMC pokazuje statystykę macierzy zajętej w 80% gdzie maksymalna różnica w zajętości między dwoma dowolnymi dyskami jest nie większa niż 0,2%).
Po drugie "thin provisioning" i deduplikacja są zawsze włączone. Dane wpadające na macierz są dzielone na 4Kb bloki i sprawdzane jest czy taki blok już się na macierzy znajduje. Jeżeli tak to oczywiście nie jest zapisywany ponownie.
Po trzecie - zabezpieczenie danych na dyskach nie opiera się na standardowych grupach RAID ale mechanizmie nazwanym XDP (XtremeIO Data Protection). Jeżeli chodzi o odporność na awarie to XDP odpowiada (w dużym przybliżeniu) RAID6, czyli posiada redundancję N+2. Różnica tkwi jednak w narzucie na protekcję (czyli ilości przestrzeni jaka jest "tracona" na zapewnienie ochrony danych) - w przypadku XDP jest to około 8% więc bardzo niewiele, oraz zredukowaniu tzw: Write amplification/write penalty czyli potrzebie zwielokrotnienie operacji I/O przy zapisywaniu danych na dyski w konfiguracjach RAIDowych. Przykładowo pojedyncze żądanie zapisu przy RAID6 wymaga wykonania aż 3 operacji odczytu i 3 zapisu na samych dyskach, dla XDP jest to 0 operacji odczytu i około 1.2 operacji zapisu (średnio oczywiście). Wpływ takiego działania w oczywisty sposób powoduje wzrost wydajności takiego rozwiązania w porównaniu do podobnych ale opartych o RAIDy


Krytyka:

EMC (jak to EMC) zrobiło z okazji wejścia na rynek duży szum. Na szczęście mieli na tyle przyzwoitości lub instynktu samozachowawczego i nie głosili wszem i wobec, że oto przedstawiają Rewolucję i Nową Jakość (koniecznie pisaną dużą literą) ale promocją produktu zajęli się bardzo porządnie.

Cicho nie siedziały także inne firmy oferujące swoje produkty w obszarze macierzy AFA i dość szybko pokazały się artykuły i wpisy w blogach firmowych dość sceptycznie podchodzące do nowego dziecka EMC.

Nimbus bardzo obrazowo pokazał efektywność nowej macierzy na prostej grafice porównującej macierz EMC z ich urządzeniem o podobnej pojemności:

Źródło: http://www.nimbusdata.com/newsevents/blog.php

Ktoś mógłby powiedzieć, że może i większe ale urządzenie EMC jest wydajniejsze lub zapewnia lepszą funkcjonalność. Otóż nie bardzo. Porównania część dalsza (po lewej EMC, po prawej Nimbus):

Źródło: http://www.nimbusdata.com/resources/v_xtremio.php

Jeszcze dalej w porównaniu poszedł IBM który zestawił ze sobą macierz XtremeIO nie tylko ze swoją macierzą AFA ale także z "tradycyjnym" V7000 tyle tylko że wypełnionym dyskami SSD:

Źródło: www.ibm.com/developerworks/community/blogs/InsideSystemStorage/

Oprócz samych porównań, konkurencja krytycznie wypowiadała się także o możliwościach XrtremeIO - szczególnie o "rzekomym" braku mechanizmu "garbage collection", odporności na utratę/uszkodzenie jednego z nodów, oraz brak kompresji i deduplikację stałym blokiem.
Cóż, taka rola konkurencji, żeby wbijać szpilki...


Podsumowanie:

Rozwiązanie EMC to nie rewolucja, tylko kolejny już (dwudziesty-trzydziesty?) produkt w tym obszarze, ma  fajne rozwiązania, ale w wielu przypadkach odstaje od obecnych na rynku urządzeń. Na pewno XtremeIO będzie miało tą przewagę, że EMC ma największe możliwości jeżeli chodzi o moce przerobowe w obszarze logistyki i zaplecza serwisowego. Poczucie, że specjaliści dostawcy od danego produktu są na wyciągnięcie ręki, a nie na drugim końcu świata, jest bardzo ważne dla dużych firm gdzie priorytetem jest stabilność działania i bardzo szybkie rozwiązywanie wszystkich awarii.
Jeżeli chodzi o "szum" wokół XtremeIO to należy go przyjmować ze zdrowym dystansem. Z jednej strony nie wierzyć w propagandę sukcesu ze strony EMC, z drugiej tak samo traktować opnie i "obiektywne" porównania konkurencji :D
Najlepiej było by samemu spróbować...


Do poczytania:
XtremIO - Taking the time to do it right
EMC finally releases the XtremIO all flash array
IBM FlashSystem versus EMC XtremeIO all flash arrays
XtremIO - Hardware/software overview architecture deepdive  (Mocno techniczny i dokładny opis! Dobre!)
NimbusData - BLOG

sobota, 9 listopada 2013

VNX2 - nowe macierze midrange od EMC

Nie jest to może zupełna nowość, bo ogłoszono te urządzenia już jakiś czas temu, ale produkcja i wysyłka do pierwszych klientów rozpoczęła się całkiem niedawno.
O czym mowa? O nowej generacji macierzy midrange od EMC nazywanych (potocznie) VNX2.

Słowem przypomnienia:

VNX to rodzina urządzeń skierowanych do dużych (i średnich) przedsiębiorstw i zaliczana do klasy tzw: midrange - czyli maszyn bardzo dobrych ale jeszcze nie "najlepszych z najlepszych".
VNX jest macierzą typu "unified", czyli może obsługiwać ruch zarówno blokowy jak i plikowy.

O "oryginalnych" VNXach można poczytać sobie np TUTAJ


Nowe VNXy:

Oficjalnie nowe urządzenia dalej nazywają się VNX (bez 2 na końcu) a cała rodzina wygląda następująco:

źródło: Emc


Część VNXe to "maluchy" z przeznaczeniem do mniejszych firm, które nie posiadą własnej sieci SAN (brak interfejsu FC i uboższe funkcjonalności), natomiast linia oznaczona po prostu VNX (od 5200 do giganta 8000) to już pełnoprawne macierze midrange, różniące się między sobą mocą, możliwościami rozbudowy i ,oczywiście, ceną :D

Co w środku:

Pojawieniu się nowych modeli towarzyszył szum medialny (co oczywiste, w końcu EMC umie się promować), ale same macierze są warte tego żeby przyjrzeć się im dokładniej.
Oczywiste jest porównanie do poprzednich VNXów i prócz naturalnego wykorzystania nowych komponentów (np: nowe modele procesorów Intela w kontrolerach) macierze te mają naprawdę multum nowych funkcjonalności.

Na pierwszym miejscu wspomniał bym o architekturze MCx.

Multi-Core Everything:

MCx można tłumaczyć jako "multi-core everything" i formalnie jest to nowa nazwa firmware w tych macierzyach (żegnaj FLARE). Tak naprawdę w nazwie kryje się jedna z głównych cech nowego oprogramowania, czyli bardzo dobre (w porównaniu do starego rozwiązania) dzielenie zadań między rdzenie procesorów w kontrolerach. Porównanie efektywności FLARE do nowego MCx-a bardzo dobrze obrazuje ta ilustracja:

źródło: EMC


Jak widać po lewej stronie, FLARE (lub Static Cory Utilization) dedykował poszczególne rdzenie do konkretnych zadań, przez co część z nich była nadmiernie obciążona, a pozostałe się nudziły. W nowym rozwiązaniu każdy rdzeń zajmuje się różnymi zadaniami, a utylizacja wszystkich z nich jest na równym poziomie.
Druga zmiana jaką można odczytać z tego obrazka to zwiększona liczba rdzeni w MCx ale to cecha oczywiście nie samego oprogramowania, tylko użycia w nowych VNXa, mocniejszych (nowszych) procesorów.

Oprócz równej dystrybucji obciążenia między rdzeniami MCx ma również wiele innych zmian w funkcjonalnościach podzielonych na kilka głównych modułów:

  • Multi-Core Cache (MCC) - cache działa inaczej niż w VNX1 i nie ma potrzeby podziału go na pamięć do obsługi odczytów i zapisów (macierz robi to sama)
  • Multi-Core RAID (MCR) - pewne zmiany w zarządzaniu dyskami (np: nowe możliwości w konfigurowaniu hot spare-ów)
  • Multi-Core FAST Cache (MCF) - ulepszanie algorytmów działania FAST Cache
  • Active/Active data accesss - dostęp na zasadzie active/active do LUNów, co sprawia, że nie ma już potrzeby przypisywania LUNu do któregoś z kontrolerów. Niestety funkcjonalność ta działa jedynie dla LUNów klasycznych - włącznie thin provisioningu sprawia, że cofamy się do tego co znamy ze "starych" VNXów

Deduplikacja:

W końcu EMC wprowadziło tą funkcję w swoich macierzach SAN-owych. Trochę ciężko jest uważać się za innowacyjną firmę, gdy brakuje pewnych atutów, które konkurencja (NetApp) ma od dość długiego już czasu. Deduplikacja w VNX2 działa na poziomie 8Kb bloków i odbywa się (oczywiście) w post-procesie. Włączyć ją można na poziomie LUNa i używać razem ze snapshotami, replikacą i  FASTem.

Zmiany w FAST VP:

Jedna bardzo dużo zmiana w sposobie działania "auto-tieringu" (FAST VP) w nowych VNX2 to zmniejszenie wielkość "chunk"-a (czyli najmniejszej jednostki dla jakiej określa się "gorącość" danych i którą przenosi się między odpowiednimi dyskami) z 1GB na 256MB.
Pozwala to na bardziej precyzyjne określanie, które bloki danych są najczęściej/najrzadziej wykorzystywane i które powinny być zmigrowane na szybsze/wolniejsze dyski.
    Mniejsze zmiany:

    Oczywiście oprócz w/w VNX2 ma bardzo dużo innych mniejszych modyfikacji i usprawnień.
    Kilka z nich to:
    • Wsparcie dla ODXa (czyli mechanizmów pozwalających Hyper-V na "zdelegowanie" pewnych zadań na macierz)
    • Wsparcie dla chmury publicznej Azure
    • Oprogramowanie optymalizowane pod obsługę dysków SSD
    • Dużo wydajniejsze snapshoty (Użycie mechanizmu ROW - Redirect on Write, który sprawia, że impakt na wydajność po włączeniu snapshotowania jest dużo mniejszy)
    • Dużo funkcji, wcześniej osobno licencjonowanych teraz w cenie macierzy: (Analyser , QoS, VNX Monitoring and Reporting, Unisphere Remote) - w końcu nie trzeba extra płacić, żeby dowiedzieć się jak performuje nasze urządzenie.

    Podsumowanie:

    Nowe macierze to nie tylko odświeżenie serii ale naprawdę duża zmiana i nic dziwnego, że rynke ochrzcił je mianem VNXów 2. Dużo lepsza wydajność i moc maszyn jest natruralna (mocniejsze podzespoły), a dodanie działania w trybie active-active i np: deduplikacji sprawia, że EMC, ostatnio trochę "odstające" od najbardziej innowacyjnych konkurentów w obszarze midrange, ostro nadgoniło zaległości.

    Do poczytania:

    Emc releases the next generation of vnx-arrays
    Emc next generation vnx - deduplication
    Emc next generation vnx - mcx
    Speed2lead part 1: Next generation vnx

    poniedziałek, 4 listopada 2013

    Duży dysk = 6TB danych + Hel

    Jeżeli chodzi o rozwój technologii dyskowych to temat ten został w ostatnich miesiącach (latach) zawłaszczony praktycznie w 100% przez napędy SSD i wszystko co z nimi związane, natomiast rozwiązania "tradycyjne", dalej niezastąpione jeżeli chodzi o tanią i dużą przestrzeń, bez jakiś rewelacji i "po cichu" rozwijały się powolnym tempem, osiągając ostatnio wielkości 4TB per pojedyncze urządzenie.
    Dziś jednak zostało ogłoszone wprowadzenie na rynek dysku o pojemności 6TB, co samo w sobie nie było by może znaczące ale napęd korzysta nowej technologii a mianowicie jest wypełniony nie powietrzem a Helem.

    Ultrastar Helium He-6:

    Źródło: http://www.extremetech.com/computing/170213-wd-releases-6tb-ultrastar-he6-the-worlds-first-helium-filled-hard-drive


    Dysk jest produkowany przez HGST (Hitachi Global Storage Technologies) - kiedyś część Hitachi ale obecnie własność Western Digital i ma oznaczenie: Ultrastar Helium He-6. Tym co odróżnia produkt od całej masy innych dostępnych w sprzedaży, jest fakt, że wewnątrz hermetycznie zamkniętej obudowy znajduje się Hel, zamiast zwykłego powietrza. Hel ma dużo mniejszą (siedmiokrotnie) gęstość niż powietrze i dlatego obracające się talerze i głowica dysku powodują  mniej turbulencji, a opory ruchu i wydzielane przy nich ciepło są mniejsze. Własności te pozwoliły HGST na umieszczenie w jednej obudowie aż 7 talerzy z danymi i dzięki temu osiągnięcie pojemności rzędu 6TB. Mimo zwiększenia ilości talerzy, które muszą się obracać, zużycie przez dysk energii jest niższe o ponad 20% w porównaniu do innych - to także zasługa helu, mniejsze opory sprawiają że mniej siły potrzebnej jest do poruszania dysków.

    Zastosowanie tego typu napędów (o tak dużej pojemności) jest raczej oczywiste: składowanie kopii zapasowych (disk-to-disk backup), archiwa, systemy do przechowywania bardzo dużych ilości danych relatywnie rzadko używanych. Sprawdzą się one wszędzie tam gdzie zależy nam na bardzo dużej pojemności, natomiast nie mamy wymagań wydajnościowych.
    Jedyne co może przeszkodzić dyskom helowym w zostaniu nośnikami dla dużych i efektywnych kosztowo środowisk pamięci masowych są rosnące ceny samego helu.

    Rozwiązanie ciekawe i w końcu jakaś zmiana w obszarze dysków mechanicznych :D

    Do poczytania:

    Artykuł na pcmag.com
    HGST - Press Release
    Artykuł na geek.com
    Artykuł na extremetech.com

    niedziela, 27 października 2013

    Czarna perła przybywa na ratunek taśmom.

    Bardzo wiele firm działających w branży storage już dawno stwierdziło, że "tape is dead". Co prawda większość z nich twierdzi, że dla niektórych zastosowań - szczególnie jeżeli mówimy o archiwach wieloletnich-  taśma może mieć ekonomiczne uzasadnienie ale tak naprawdę nie jest ona postrzegana jako jakiś wyjątkowo atrakcyjny produkt. W świecie chmur, "big data" i macierzy flashowych taśma magnetyczna z jej sekwencyjną obsługa pozostała daleko w tyle jeżeli chodzi o możliwości i popularność.

    Kilkanaście dni temu jedna z (niewielu już) firm, dla których główną działalnością są dalej biblioteki taśmowe i taśmy magnetyczne ogłosiła produkt, który może "odświeżyć" postrzeganie taśm i pozwolić na ich szersze stosowanie niż tylko długoletnie i nieodtwarzane archiwa.
    Firma ta to SpectraLogic a produkt nazywa się BlackPearl.

    Czym jest "Czarna Perła":

    Jest to appliance, który instaluje przed biblioteką taśmową (firmy SpectraLogic) a który sprawia, że z zasobów biblioteki możemy korzystać, za pomocą protokołu obiektowego REST, tak jak z danych przechowywanych w chmurach publicznych (np: Amazon-a):

    BlackPearl - źródło: http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab


    SpectraLogic stworzyło specjalne API nazwane DS3 (Deep Simple Storage Services) za pomocą którego można komunikować się z biblioteką i zapisywać/odczytywać z niej dane bez potrzeby używania żadnego dedykowanego oprogramowania np: backupowego. Dane trzymane w ten sposób na bibliotece mogą być także uznane za dane online, nie offline - czyli dostępne bezpośrednio, bez potrzeby wykonywania odtwarzania. Sam DS3 jest API mocno wzorowanym na interface S3 (Simple Storage Services) autorstwa Amazona i który wykorzystywany jest do umożliwienia składowania i korzystania z danych w chmurze Amazon Web Services. Jeżeli chodzi o obsługę danych po stronie biblioteki to wykorzystuje się do tego LTFS (Long Time File System) obecny w standardzie LTO od wersji 5.

    Przez analogię do S3 i chmury Amazona, można powiedzieć, że BlackPearl i zaimplementowane w nim DS3 pozwala korzystać z bibliotek SpectraLogic jak z wewnętrznej chmury. Jedyny warunek to zainstalowanie na hostach chcących korzystać z tej możliwości klienta DS3.

    Całe rozwiązanie można przedstawić następująco:


    Black Pearl Interface Diagram
    Źródło: http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab

    Zalety i wady:

    Na pewno zaletą jest posiadania przestrzeni o dużo niższym koszcie jednostkowym niż ta na macierzach dyskowych i dostępie online do tych danych. Cena jest sporo niższa także jeżeli porównamy ją do rozwiązań archiwizacyjnych w chmurze publicznej (np: Amazon Glacier).
    Kolejna zaleta to bardzo duża skalowalność takiego rozwiązania - podpięte na "back-endzie" biblioteki mogą obsługiwać środowiska multi-petabajtowe.
    Jeszcze jeden plus to łatwość w użyciu - nie ma żadnych aplikacji backupowych, które jako jedyne potrafią "dogadać" się z bibliotekami, nie ma potrzeby robienia odtworzeń itd... Obsługa prosta i bardzo podobna do używania zasobów w chmurze Amazona.

    Wady - bądź co bądź dane jednak znajdują się na taśmie, która dalej jest medium z odczytem/zapisem sekwencyjnym. Co prawda BlackPearl ma wbudowane dyski SSD robiące za cache ale finalnie i tak prędzej czy później będziemy musieli zaczekać aż taśma z naszymi danymi zostanie zamontowana do napędu i odczytana.

    Do poczytania:

    SpectraLogic unveils BlackPearl storage
    SpectraLogic invents tapebased object store
    SpectraLogic announces BlackPearl deep storage appliance


    PS. Blog przed długi czas był w stanie zamrożenia - trochę w życiu zawodowym mi się pozmieniało i niestety nie było czasu/siły żeby tutaj pisać. Postaram się to zmienić, ale jak to wyjdzie to zobaczymy ;)

    sobota, 18 maja 2013

    Macierze flashowe - poradnik kupującego na 2013

    Ostatnio DCIG wypuszcza całkiem sporo"buyer's guide"-ów na najróżniejsze produkty z obszaru storage. W jednym z ich ostatnich opracowań porównano kilkadziesiąt modeli macierzy flashowych (tzw: AFA - All Flash Arrays), urządzeń wykorzystujących do przechowywania danych wyłącznie (lub w większości) dysków SSD. Rynek tych urządzeń od około 2 lat cały czas rośnie i obecnie z fazy start-upów, przeszedł do etapu wykupywania mniejszych (ale dobrze rokujących) firm przez gigantów.

    Macierze SSD mają kilka zdecydowanych zalet nad rozwiązaniami bazującymi na "tradycyjnych" dyskach. Oprócz najbardziej oczywistej, czyli dużo większej wydajności, wykorzystanie takich rozwiązań pozwala na lepszą utylizację CPU w serwerach (które przy pracy z normalnymi macierzami dużo czasu marnotrawią na czekanie na odpowiedzi z sytemu dyskowego) oraz ograniczenie zużycia energii i miejsca w serwerowni.

    Założenia

    Aby zakwalifikować się do porównania, macierz musiała spełniać następujące warunki:
    • Dostępna jako applinace - czyli odrębne urządzenie z własnym oprogramowaniem (firmware).
    • Nie bazuje na MS Windows Storage Server
    • Wspiera konfigurację opartą w 100% na dyskach SSD
    • Może wspierać konfiguracje oparte na wymieszaniu dysków SSD z tradycyjnymi 
    • Musi wspierać minimum 16 dysków
    • Musi obsługiwać przynajmniej jeden protokół SAN (iSCSI, FCP, FCoE,Infiniband)
    • Może wspierać protokoły NAS (CIFS,NFS)
    • Musi być dostępna w sprzedaży od 1 listopada 2012

    Kryteria 

    Macierze były oceniane według kilku kategorii. W odróżnieniu od poprzednich wpisów dotyczących "Buyer's guide"-ów od DCIG nie będę wyliczał wszystkich składowych razem z ich opisem. Zdecydowana część jest oczywista. Bardziej szczegółowo skupię się na ocenianych funkcjonalnościach związanych z zarządzaniem napędami flashowymi.

    Management & Replication
    W tej sekcji urządzenia są oceniane biorąc pod uwagę kilkanaście kategorii. Głównie chodzi o wspieranie przez macierze pewnych konkretnych funkcjonalności takich jak: Thin Priovisioning, Snapshoty, Deduplikacja czy wsparcie dla VMware (np: obsługa VAAI i VASA)

    Storage Array Hardware
    Szczegóły dotyczące hardware jaki posiada i wspiera dane urządzenie (ilość cache, rodzaje interfejsów, max pojemności obsługiwane itd...)

    Flash Management
    W tej części mamy specjalne możliwości związane z zarządzaniem pamięciami/dyskami flash. Sprawdzana jest obecność 5 rodzajów funkcjonalności:
    • Write Coalescing - technika polegająca na grupowaniu zapisów w cache i nagrywaniu ich na dysk dopiero wtedy, kiedy osiągną wielkość bloku do usunięcia (EBS - erasure block size). Funkcjonalność ta poprawia wydajność, oraz wydłuża czas życia nośnika i jest to związane z mechanizmem działania pamięci flash. Dane na dysku SSD nie mogą być nadpisane, aby zmienić wartość komórki należy ją skasować, a dopiero potem na nowo zapisać wartość. Dodatkowo kasowanie nie może być wykonane per komórka ale dzieje się jednocześnie dla większej ilości danych - najmniejszy "kasowalny" jedną operacją obszar to właśnie EBS. Użycie Write Coalescing zmniejsza ilość operacji kasowania, przy zapisywaniu danych.  
    • Variable RAID Stripe Sizing - kolejna funkcjonalność poprawiająca wydajność i czas życia. Też opiera się na wielkości EBSa. Tym razem macierz dba o to aby dane rozrzucane (stripe) były po obszarze równemu wielkości EBS.
    • Data Aging Timer Tuning - czy dostępna jest dla administratora możliwości ustawiania/zmiany pewnych liczników odpowiedzialnych za "starzenie" się danych
    • Inline Deduplication - czy macierz wspiera deduplikacje w czasie rzeczywistym (in-line)
    • Block Level Compression - czy macierz wspiera kompresję na poziomie bloku
    • Hardware Accelerated Compression - czy urządzenie posiada dedykowane układy (ASIC) do obsługi kompresji.
    Application Layer
    Obsługa protokołów dostepu plikowego (NFS,CIFS) i objektowego (REST,SOAP), rodzaje wspieranej autentyfikacji (logowanie przez AD, Kerberos, NIC itd...)

    Support
    Jakie wsparcie zapewnia dostawca swoim produktom.


    Przetestowane modele

    Asute Networks
    www.astutenetworks.com

    Asute chwali się kilkoma "unikalnymi" możliwościami jakie mają ich produkty. Pierwszym z nich jest DataPump Engine czyli dedykowany układ (ASIC) ktory zarządza ruchem przychodzącym do macierzy. W porównaniu do rozwiązań konkurencji opartych na standardowym układzie x86, ASIC Asute ma charakteryzować się dużo większą wydajnością.
    Kolejnym atutem jest deduplikacja w czasie rzeczywistym, która ma zerowy wpływ na wydajność.

    Asute podkreśla także bardzo ekonomiczość ich rozwiązania, twierdząc, że ich produkty mają najlepszą cenę jednostkową per IOPS.

    DCIG przetestował 3 modele macierzy Asute  (seria ViSX) różniące się obsługiwaną pojemnością:
    • ViSX G4 2400
    • ViSX G4 4800
    • ViSX G4 9600

    GreenBytes
    getgreenbytes.com/

    Firma pozycjonuje się jako dostawca infrastruktury dla rozwiązań VDI-owych czyli wirtualnych terminali.
    Tego typu środowiska zwykle mają bardzo duże wymagania dotyczące wydajności storage na których są zbudowane.
    Model, który został przetestowany to:
    • IO Offload Engine (5,000 VDI Model)


    Huawei Enterprise
    enterprise.huawei.com/

    Huawei to firma mająca bardzo różnorodne portfolio produktów z najróżniejszych obszarów infrastruktury IT. Storage jest tylko malutkim kawałeczkiem w ich ofercie, a macierze AFA (All Flash Array) to już zupełnie drobinka, w sumie jeden niewyróżniający się niczym szczególnym model:
    • OceanStor Dorado2100

    Kaminaro
    www.kaminario.com

    Kolejny start-up działający na rynku macierzy All Flash. Podobnie jak inne firmy specjalizujące się w tym obszarze, ma swoje własne rozwiązania związane z architekturą i oprogramowaniem zarządzającym pamięcią flash, w Kaminaro nazywają się one SPEAR (Scale Out Performance Storage Archtecture)
    • K2 F

    Nimbus
    www.nimbusdata.com

    Nimbus dość odważnie poczyna sobie na rynku macierzy flash. Firma ma kilka "rodzin" macierzy z których największe to "E Class" (Enterprise) i "S Class"(Standard). Rodzina "E" wyróżnia się przede wszystkim architekturą zapewniającą dużo większą dostępność i odporność na awarie. Oprócz tego Nimbus od niedawna ma także trzecią linię macierzy nazywaną Gemini.

    Największym klientem Nimbusa jest E-Bay który kupił macierze AFA o ponad 100TB pojemności.

    Do porównania DCIGa wzięte zostały następujące macierze klas E i S (poszczególne podele w obrębie rodziny różnią się pojemnościami):
    • E Class Flash Memory System E6400M+E1000X
    • E Class Flash Memory System E6400M+E2000X
    • S Class Flash Memory System S255M / S255X
    • S Class Flash Memory System S505M / S505X
    • S Class Flash Memory System S1005M / S1005X

    PureStorage
    www.purestorage.com

    Firma o której kiedyś krążyły plotki, że ma być wykupiona przez EMC (w ostateczności EMC kupiło XIO).
    Rozwiązania PureStore obsługują deduplikacje w czasie rzeczywistym, przez co pozalają na dużo większą "gęstość" upakowania danych, obsługiwane są także snapshoty oraz thin provisioning (co nie jest standardem w obszarze macierzy flash).

    W teście DCIGa pojawiły się dwia (z dostępnych \dwóch) modeli macierzy PureStorage. FA-310 to urządzenie z pojedynczym kontrolerem, FA-320 ma ich dwa.
    • FA310
    • FA320

    Tegile
    www.tegile.com

    Tegile to kolejny start-up skupiony na macierzach flash i hybrydowych. Macierze Tegile są w stanie udostępniać dane zarówno po sieci SAN jak i z wykorzystaniem protokołów plikowych. Z kilku modeli dostępnych DCIG to testów wybrał tylko jeden, ale najsilniejszy:
    • Zebi  HA2800

    Texas Memory Systems (IBM)
    TMS

    TMS to firma najdłużej działająca na rynku macierzy flashowych, jeszcze kilka lat temu praktycznie jako jedyna oferowała tego typu produkt. W zeszłym roku firma została wykupiona przez IBMa. IBM ostatnio przedstawił swoje plany co do produktów dawnego TMSa, same macierze zmieniają się (przynajmniej na razie) w niewielkim stopniu natomiast nazwa całej linii została przemianowana na FlashSystem-s.

    W porównaniu DCIGa pojawiały się trzy macierze, jeszcze w starym nazewnictwie:
    • RamSan 720
    • RamSan 810
    • RamSan 820

    Seria 7xx jest oparta o pamięci eMLC, natomiast 8xx to flash typu SLC (Więcej o typach pamięci SSD można znaleźć TUTAJ )

    Violin Memory
    www.violin-memory.com

    Violin to druga (oprócz TMS) firma o której można powiedzieć, że nie jest już startup-em tylko dojrzałym bytem specjalizującym się w macierzach AFA. Oprócz tego firma sprzedaje także flashowe karty PCI-Express.

    Violin w obszarze macierzy flashowych ma dwie główne rodziny produktów: Seria 3000 i Seria 6000. W obydwu znajdują się macierze zarówno oparte o dyski MLC jak i SLC, główną różnicą między rodzinami jest znacznie większe zabezpieczenie przed awariami (podwójne kontrolery, brak SPOFów) w przypadku Serii 6000.
    • Series 3000: 3120/3202/3205/3210/3220
    • Series 6000: 6212/6232/6606/6616

    Whiptail
    whiptail.com

    "Last but not least" - Whiptail, kolejny ze startupów wyspecjalizowany w sektorze macierzy AFA.
    Firma ma dwie (a w zasadzie 3 bo Invicta jest podzielona jeszcze na kategorię "normal" i "infinity") linie macierzy: Accela to macierze "entry level" z pojedynczym kontrolerem, o wymiarach 2U i różnych pojemnościach (od 1,5TB do 12TB), Invicta to architektura opierająca się na węzłach (nodes) o różnych wielkościach (6,12 i 24TB) które można ze sobą łączyć tworząc większe konfiguracje.

    W podsumowaniu DCIG uwzględnione zostały następujące modele:
    • Accela ASSA 1500
    • Accela ASSA 3000
    • Accela ASSA 6000
    • Accela ASSA 12000
    • Invicta ISSA 6
    • Invicta ISSA 12
    • Invicta ISSA 24

    Wyniki:


    Wyniki są trochę zaskakujące muszę przyznać.

    "Best-in-Class":

    Pierwsze miejsce i kategorię "Best-in-class" zdobyła macierz Tergile Zebi HA2800. W większości ocenianych kategoriach otrzymała bardzo wysokie oceny a dodatkowo obsługuje wszystkie funkcjonalności zapewniane przez VAAI. Na plus zasługuje także bardzo duża ilość pamięci cache, obsługa replikacji lokalnej, zdalnej, wsparcie dla protokołów zarówno NASowych, jak i SANowych, a także bardzo efektywna deduplikcja. Zebi jestnie tylko macierzą All Flash, wspiera także konfiguracje hybrydowe z dyskami tradycyjnymi.

    "Recommended":

    Kolejne 4 macierze zostały ocenione jako "Recommended". Serbrny medal trafił do PureStorage FA320, a następna trójka to produkty firmy Nimbus (zarówno S jak i E klasa). Macierze w tej klategorii cechowały się dobrym wsparciem dla VMware (choć nie wszyskie funkcjonalności VAAI były wspierane), a także dużą ilością dodatkowych własności takich jak np: thin provisioning czy replikacja - rzeczy te są standardem przy "tradycyjnych" macierzach ale w obszarze urządzeń flashowych nie są to zbyt popularne funkcjonalności - przynajmniej jeszcze do niedawna

    "Excellent":

    Oczko niżej, pod recommended, jest kategoria Excellent, na którą załapało się 7 macierzy. Początek tej listy to pozostałe urządzenia Nimbusa i PureStorage, zaraz za nimi grupa 3 macierzy Violin Memory (seria 6xxx) i na końcu GreenBytes. Urządzenia które tutaj trafiły miały nieco gorsze (ale wciąż bardzo dobre) oceny z poszczególnych kategorii i obsługę dodatkowych funkcjonalności. Wszyskie miały też conajmniej 96GB pamięci Cache oraz wspierały zarówno FC jak i iSCSI - nie wszyskie jednak obsługiwały dostęp plikowy.

    "Good":

    Największa kategoria - 14macierzy. Zaczna się od Violina, potem Huawei i pozostałe macierze Violinowe, wymieszane z Whiptail. Można powiedzieć, że urządzenia "Good" to taki trochę standard na rynku. Wsparcie raczej tylko dla portokołów SANowych, brak deduplikacji, raczej ubogo z innymi funkcjonalnościami (np: Thin Provisioning").

    "Basic":

    Na końcu macierze "proste/podstawowe", 8 modeli z czego na początku Huawei, potem Astute i Kaminaro, zaś ostatnie trzy miejsca w rangingu dzielnie zamykają produkty IBM/TMS.
    Basic to basic - jeden protokół SANowy, ubogo w dodatki, ciężkie zarządzanie...


    Podsumowanie:

    Jak wszystkie pozostałe "Buyers Guide"-y od DCIG, tak i ten stanowi bardzo dobre i obszerne porównanie produktów z danego obszaru. Osobiście zaskoczył mnie wynik - zarówno jeżeli chodzi o Tergile na miejscu pierwszym, jak i na TMSy (zwane od niedawna FlashSystem-s) na szarym końcu.
    No cóż, "raz na wozie, raz pod wozem".


    środa, 3 kwietnia 2013

    Magiczny kwadrat Gartnera dla macierzy - 2013

    Dzisiaj zrobię "kopię" wpisu sprzed około półtora roku dotyczącą tzw: "magicznego kwadrata" Gartnera., czyli pewnego rodzaju benchmarku w  którym firma ta przedstawia dostawców i produkty z wybranych obszarów oraz pozycjonuje je na osiach xy względem dwóch kryteriów: "ability to execute" i "completness of vision".

    W listopadzie 2011 opisałem tą metodologię i wynik jej zastosowania dla obszaru macierzy, a dzisiaj (z racji nowej analizy Gartnera dla tego zakresu) robimy powtórkę dla nowego "kwadrata" z marca 2013.

    Nie będę na nowo wymyślał opisu tylko przytoczę to co jest w poprzednim wpisie ( Gartner 2011 ):

    Kwadrat ten jest układem współrzędnych, gdzie na osi poziomej mamy "completness of vision" co można nazwać innowacyjnością i potencjałem jaki tkwi w danej firmie, na osi pionowej natomiast "ability to execute" czyli jaką siłę przebicia i pozycję na rynku ma dany dostawca.
    Te dwie linie dzielą cały duży "kwadrat" na cztery mniejsze. Obecność w danym "kwadraciku" pozwala (oczywiście w przybliżeniu) zaklasyfikowac daną firmę i ocenić jej produkty.

    Te cztery mniejsze "kwadraciki" to:

    • Leaders (wysoka "completness of vision" i wysoka "ability to execute") - firmy liderzy, dobra pozycja na rynku, duże możliwości i duży potencjał na rozwój
    • Challengers (niska"completness of vision" i wysoka "ability to execute") - firmy o dużych możliwościach marketingowo-sprzedażowych, silnej pozycji ale nieco w stagnacji. Mniej innowacyjne i nowoczesne.
    • Visionares(wysoka "completness of vision" i niska "ability to execute") - zwykle małe firmy z małym udziałem na rynku, ale oferującym bardzo nowatorskie rozwiązania.
    • Niche players(niska "completness of vision" i niska "ability to execute") - gracze "niszowi" zwykle nie liczący się na danym rynku i z gorszymi rozwiązaniami niż konkurencja


    Tyle opisu z poprzedniego wpisu. Jak rozkład liderów, "gwiazd" i reszty graczy na rynku macierzy wygląda pod koniec pierwszego kwartału 2013 i jak sytuacja się zmieniła od 2011 (przynajmniej według Gartnera)?
    Porównanie jest następujące:

    Źródło: Gartner 2011 i 2013
    Jak to wygląda w poszczególnych częściach?
    Chciałbym skupić się na najbardziej interesującym kwadracie "liderów":

    Leaders:
    Gdybyśmy mieli popatrzeć na sam rok 2013 to widzimy zdecydowaną trójkę liderów (EMC,NetApp,Hitachi), który w obszarze wizji rozwoju idą "łeb w łeb" i tylko niewiele różnią się jeżeli chodzi o "skalę" i siłę przebicia (widać jeszcze przewagę EMC jako organizacji "bardziej dojrzałej' na rynku storage  i z lepiej zorganizowanymi działami sprzedaży i marketingu). W porównaniu do 2011 to EMC dogoniło NetAppa jeżeli chodzi o wizję (portfolio) - czyżby zasługa nowych VMAXów? Bardzo duży skok zrobiło Hitachi, które półtorej roku temu pozycjonowane było gdzieś "w początku" części liderów, teraz ścisła czołówka ( doceniono nowe macierze HUS?)

    Także w obszarze liderów zostają pozostałe trzy firmy obecne tam w 2011r (HP, IBM, Dell) ale wydaje mi się że Gartner ocenił je słabiej niż rok temu. Trudno się nie zgodzić, dalej jest to czołówka, ale do ścisłego peletonu trochę im brakuje i wydaje mi się że ten dystans się powiększa.

    Reszta:
    W części "wizjonerów", czyli firm które mogą nas czymś zaskoczyć, do X-IO (nie mylić z XtremIO- to inne firmy) dołączyły dwie nowości nie uwzględnione w zeszłym porównaniu - Coraid i Nimble Storage.
    Część określona jako "Challangers" - ja to tłumaczę jako "wyrobnicy" (sprzedajemy sporo, ale nie rozwijamy się) to Fujitsu i Oracle - firmy dla których storage nie jest najważniejszym produktem i raczej nie w tym kierunku idą u nich budżety R&D. Dołączył do nich jeszcze DataDirect Networks poprzez awans z kwadracika "niche players".
    "Ogon" czyli część "niche players" to zbieranina różnych mniejszy i większych firm, jest tam gęściej teraz niż w 2011. Ta dolna lewa część kwadratu Gartnera to może i nie prestiżowe miejsce ale graczy na tym rynku pewnie wartościowe jest w ogóle bycie uwzględnionym w tym porównaniu. Lepiej być "niche player"-em niż zostać zignorowanym przez analityków Gartnera.

    Tyle jeżeli chodzi o takie skrótowe opisanie kwadracika Gartnera za 2013 dla macierzy i porównanie go do 2011. Dla zainteresowanych poniżej jest link z dość dokładnym opisaniem poszczególnych firm biorących udział w porównaniu.

    Do poczytania:
    Gartner magic quadrant


    poniedziałek, 25 marca 2013

    Macierze midrange-unified - poradnik kupującego na 2013

    Trochę odpuściłem ostatnio pisanie na bloga. Powody rożne i nie ma ich co roztrząsać  postaram się o poprawę ale duże zmiany idą u mnie w życiu zawodowym tak wiec zobaczymy jak to finalnie wyjdzie.

    Ostatni wpis był o poradniku dotyczącym backup appliancow od DCIG, od czasu jego pokazania ukazał się kolejny "buyer's guide" tej firmy, tym razem o macierzach klasy midrange unified, czyli obsługujących ruch zarówno blokowy (SAN) jak i plikowy (NAS).

    Bazując na strukturze poprzedniego wpisu przyjrzymy się najpierw założeniom do testów  potem funkcjonalnością i parametrom jakie były porównywane przez redaktorów DCIG, następnie samym "uczestnikom" testu i na końcu wynikom.

    Zalozenia:

    Aby dany produkt został zaklasyfikowany do grupy midrange unified i dopuszczony do testu musiał spełniać następujące wymagania:

    • Mieć postać odrębnego urządzenia, które zawiera w sobie cały hardware i software(firmware)
    • Prezentować zasoby dyskowe jako pojedynczy system plików w globalnej przestrzeni nazw
    • Obsłużyć zarówno NFS jak i CIFS
    • Obsłużyć przynajmniej jeden z protokołów SANowych (np: iSCSI,FCP,FCoE)
    • Mieć możliwość wystawiania lokalnie zasobów dyskowych (to założenie które wydaje się naturalne dla macierzy miało na celu wyeliminowanie urządzeń typu "cloud gateway" czyli pseudo-macierzy które tak naprawdę jedynie pośrednicza w transporcie danych z/do chmury publicznej)
    • Musza być w stanie obsłużyć conajmniej dwa kontrolery (czyli odpadają macierze z pojedyncza jednostka zarządzająca - nie sa one uznawane za klasę midrange)
    • Musi być w stanie obsłużyć co najmniej 24 dyski
    • Musi być w stanie obsłużyć co najmniej 60TB przestrzeni (surowej)

    Kryteria oceniania:

    Macierze były porównywane w pięciu obszarach:

    • Zarządzanie i replikacja (MANAGEMENT & REPLICATION)
    • Warstwa aplikacyjna (APPLICATION LAYER)
    • Sprzęt (HARDWARE)
    • Integracja z VMware (WMVARE vSPHERE INTEGRATION)
    • Wsparcie (SUPPORT)

    Zarzadzenie i replikacja:
    • Management Software - informacja czy oprogramowanie zarządzające macierzą pozwala na użycie wszystkich jej funkcjonalności, czy pewne opcje są dostępne dopiero jako odrębne licencje
    • Asynchronous Replication - czy macierz obsługuje replikacje. Mam tutaj pewna niepewność co do definicji asynchronicznej replikacji w rozumieniu DCIG, ponieważ opis tego parametru de facto wygląda jako ogólny opis replikacji nie replikacji asynchronicznej.
    • Snapshots - czy dana macierz obsługuje kopie migawkowe (snapshots) czyli obrazy "z danego punktu w czasie" systemu plików lub wolumenu (LUNa). Wyliczone jest także jakie rodzaje snapshotow obsługuje macierz. Wyróżnione zostały następujące metody:
      • Allocate-on-Write (AoW) - przy stworzeniu snapshota, tworzona jest tablica ze wskaźnikami do wszystkich danych. W przypadku gdy dane na wolumenie mają zostać zmienione, modyfikowane bloki są zapisywane w nowym miejscu i tablica wskaźników jest zmieniana tak aby wskazywać na nowe bloki danych. Oryginalne dane pozostają niezmienione i w pierwotnej lokalizacji. Snapshot zajmuje jedynie tyle miejsca, ile zmienione od czasu jego powstanie dane.
      • Copy-on-Write (CoW) - podobnie jak w metodzie AoW tworzona jest tablica wskaźników. W momencie jednak kiedy dane oryginalne mają zostać zmienione, zostają one przekopiowane w nowe miejsce, a następnie oryginalna wartość i lokalizacja zostają nadpisane nowymi. 
      • Replica - DCIG podaje replikę jako rodzaj snapshotu, choć nie jest to kopia migawkowa, tylko inny twór. Replika jest to kopia danych stworzona z oryginalnego snapshota i umieszczona na innej macierzy tego samego typu. Replika zajmuje tyle samo miejsca co oryginał (jest to jego kopia)
      • Split-Mirror - kolejny typ snapshotu, który (moim zdaniem) nie jest do końca "tradycyjnym" snapshotem. Split Mirror powstaje kiedy wolumen działający w konfiguracji mirror (wszystkie dane zapisywane w dwóch kopiach), zostaje "podzielony". Od momentu podzielenia jedna część jest aktywna i może się zmieniać, druga stanowi "snapshot" - i dostępna jest jedynie do odczytu.
    • Application Aware Snapshot - czy snapshot wykonywany przez macierz jest "świadomy" aplikacji która korzysta z danych znajdujących się na wolumenie. Jest to bardzo istotne w przypadku np: baz danych gdzie ykonanie kopii migawkowej na poziomie macierzy (gdy macierz "nie wie" jaką aplikację snapshotuje) nie gwarantuje zachowania konsystencji danych
    • Thin Provisioning - czy macierz wspiera technologię "thin provisioning", czyli alokowanie na macierzy tylko tej przestrzeni, która jest rzeczywiście wykorzystywana przez hosty
    • Automated Storage Reclamation - technologia wspierające "thin provisionig".O ile ten pierwszy dba o to żeby miejsce nie używane nie było alokowane na macierzy, proces Reclamation, zwalnia przestrzeń która była już nie jest używana (np: dane zostały skasowane)
    • Zero Reclamation API - wsparcie dla Symantec Zero Reclamation API - technologii również używanej do odzyskiwania już nieużywanej przestrzeni z macierzy. Ta funkcjonalność może być wykorzystane jedynie jeżeli systemy podpięte do macierzy korzystają z Symantec Storage Foundation
    • Quotas - czy rozwiązanie wspiera obsługę "limitów" (quota) w ilości plików, wielkości itd.. dla użytkowników
    • Thereshold Alerts - kontrola i alarmowanie o przekroczeniu pewnych zdefiniowanych wcześniej progów (zwykle dotyczących utylizacji przestrzeni - np: 90% zapełnienie)
    • Deduplication - czy macierz wspiera deduplikację danych
    • Sub-volume Tiering (Type/Level) - opis opcji jest trochę enigmatyczny, ale najprawdopodobniej chodzi tutaj o obsługę przez macierz auto-tieringu, czyli automatycznym przenoszeniu danych na dyski o odpowiednich dla nich prędkościach
    • Management Interfaces -  wymieniona są możliwości w jakie macierz może być zarządzana  Możliwe są następujące rozwiązania: Aplikacja, CLI, SSH, Web-based GUI
    • Unified Management of Similar Devices - czy możliwe jest zarządzanie wieloma urządzeniami tego samego/podobnego typu z poziomu jednego narzędzia (bez potrzeby logowania się na każde osobno)
    • SNMP - czy macierz może być monitorowana za pomocą SNMP
    • Notification and Logging - wymienione są możliwości wysyłania i odbierania logów z macierzy
    • NDMP - czy macierz obsługuje NDMP (protokół do wykonywania backupów urządzeń NAS)
    • Cloud Storage Support - czy macierz wspiera (a jeżeli tak to jakie dokładnie rozwiązana) wysyłanie/odbieranie/migrację danych z/do chmury.
    • NAS Virtualization - czy macierz wspiera wirtualizację NAS - tutaj rozumianą jako możliwość spartycjonowania na kilka wirtualnych urządzeń NAS.

    Application Layer
    • Network File System - jakie systemy plików sieciowych wspiera dane urządzenie. Do wyboru : NFS,CIFS,WebDAV
    • Concurrent NFS/CIFS Mix - czy urządzenie potrafi obsługiwać jednocześnie NFS i CIFS
    • Other Data Transfer Protocols - czy urządzenie wspiera dostęp po FTP lub SFTP
    • PSK Authentication over HTTPS - czy rozwiązanie wspiera użycie mechanizmu Pre-Shared Key przy używaniu HTTPS
    • Authentication Protocols - jakiego rodzaju mechanizmy autentyfikacji mogą być użyte na macierzy. Wyróżnione zostały:
      • Active Directory - logowanie z użyciem hasła i użytkownika z AD
      • Host/IP - ograniczenie dostępu do macierzy tylko dla określonych hostów lub adresów IP
      • LDAP - użycie systemu LDAP
      • NIS/NIS+ - użycie NIS lub NIS+

    Hardware
    • Controller Interfases - obsługiwane interfejsy pomiędzy napędami dyskowymi a kontrolerami. Możliwości: FC-AL (Fibre Channel Arbitrated Loop), FC-SW (Fibre Channel Switched Fabric), SAS,SATA
    • Raw Storage Capacity (Max) - maksymalna "surowa" (przed konfiguracja w RAID) przestrzeń
    • RAID Options - jakie rodzaje RAIDów są wspierane
    • 7.2k RPM FC/SAS HDD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • 10k RPM FC/SAS HDD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • 15k RPM FC/SAS HDD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • 5,4k RPM SATA HDD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • 7.2k RPM SATA HDD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • SSD - czy i jakie (jakie pojemności) dysków danego typu są wspierane
    • Concurrent HDD Mix- czy w obrębie jednego węzła (node) można mieszać dyski różnych rodzajów. Niestety nie do końca wyjaśnione jest jak rozumieć pojęcie noda.
    • FLASH-Based Caching - czy dyski SSD mogą być używane jako cache (czyli nie do docelowego przechowania danych ale jako bufor przed ich "zrzutem" na dyski mechaniczne). Wyróżnione zostały następujące warianty działania dysków SSD
      • Read Caching - SSD jako cache tylko dla odczytów
      • Write Caching - SSD jako cache do zapisów
      • Write Journaling - podobne rozwiązanie jak powyższe, także do cachowania zapisów
      • Block I/O Acceleration - użycie cache tylko dla dostępu blokowego (SAN)
      • NAS Acceleration - użycie cache tylko dla dostępu plikowego (NAS)
    • Cache (Max) - maksymalna liczba obsługiwanej pamięci RAM
    • Controller Config - w jakich konfiguracjach mogą pracować kontrolery (np: active-active, active-passive itd..)
    • Scale-Out Config (Max Nodes) - do ilu węzłów skaluje się rozwiązanie
    • Cluster Config (Max Nodes) - ile maksymalnie węzłów może wchodzić w stworzyć klaster HA
    • 1/10 Gb Ehernet Ports (Max)  - ile portów 1 i 10Gb Ethernetowych może mieć dane urządzenie
    • 4/8 Gb Fibre Channel or 8 Gb Fibre Channel - j.w ale dotyczy portów FC
    • iSCSI - czy rozwiązanie wspiera protokół iSCSI (dotęp blokowy po sieci LAN)
    • Concurrent FC/iSCSI Mix - czy urządzenie może jednocześnie udostępniać zasoby po FC i iSCSI
    • Concurrent NAS/SAN Mix - czy urządzenie może jednocześnie udostępniać zasoby plikowe (NAS) i blokowe (SAN)
    • Power Supplies (Redundant/Hot Swap) - czy urządzenie posiada redundantne zasilacze i czy można je wymieniać podczas pracy urządzenia
    • Fans (Redundant/Hot Swap) - czy urządzenie posiada redundantne wiatraki i czy można je wymieniać podczas pracy urządzenia
    • Hot Swap Drives - czy uszkodzone dyski mogą być wymieniane bez wyłączania macierzy
    • Global Hot Spares - czy urządzenie ma możliwość wydzielenia grupy dysków na tzw: hot spare (dyski automatycznie zastępujące uszkodzone napędy)
    • Managed UPS/Battery Backup - czy urządzenie może automatycznie wyłączyć się lub przejść w tryb oszczędny po informacji z UPS o zaniku zasilania
    • RoHS Compliant - czy urządzenie jest zgodne z rekomendacją dotyczącą braku szkodliwych substancji (Restiction of Hazardois Substances Directive)

    VMWare vSphere Integration
    • VAAI (vStorage API Array Integration) - obsługa VAAI, czyli API, które dostarcza VMware (od wersji vSphere 4.1 )a ktore wykorzystanie pozwala na przesunięcie wykonania pewnych zadań związanych z ruchem i obsługą I/O, z warstwy samego VMware do macierzy.Operacje jakie wspiera VAAI są następujące:
      • Full Copy - używane do robienia kopii danych/klonów - dzięki tej funkcji VAAI redukujemy ruch danych do i z hosta podczas tej operacji
      • Hardware Assisted Locking - przesunięcie (z ESXa na hardware macierzy) pilnowania i kontroli nad blokadami zakładanymi na dany i LUNy podczas różnych operacji aktualizowania i zmiany danego zasobu.
      • Block Zeroing   - pozwala macierzy wyzerować (nadpisać zerami) duże przestrzenie danych
      • Dead Space Reclamation - ESX informuje macierz, że zaalokowana przestrzeń nie jest dłużej już wykorzystywana (np: rezydująca na niej VMka została przesunięta na inny datastore lub usunięta) i może zostać odzyskana
      • Full File Clone- tworzenie klona zasoby NAS
      • Out of Space Conditions - obsługa pewnych progów ostrzegających przed kończącym się miejscem oraz umożliwienie "zatrzymania" danej VMki do czasu aż przestrzeń jej potrzebna zostanie poszerzona
      • Reserve Space - tworzenie przestrzeni "zarezerwowanych"
    • VASA (vStorage API  for Storage Awarness) - kolejne API dostarczane przez VMware. Wykorzystanie go pozwala ESXowi uzyskać pewne informacje o wystawionych dla niego zasobach dyskowych, które normalnie są niewidoczne. 
    • SIOC (Storage I/O Control for VMware) -  i jeszcze jedno API z VMware. Tym razem dbające o to aby żaden zasób z VMware nie zmonopolizował wykorzystania macierzy.
    • Load Balancing - czy urządzenie wspiera load balancing ruchu sterowany z poziomu vSphere
    • Snapshot Integration - czy urządzenie integruje się ze snapshotami wykonywanymi przez vSphere

    Support
    • Hardware Warranty -  ile gwarancji producent daje dla swojego urządzenia
    • Contract Support Avaliability - w jakich godzinach/dniach dostępne jest wsparcie (np: bussines hours, 24x7 etc...)
    • Contract Support Methods - sposób kontaktu z wsparciem (np: email/telefon/czat)
    • Non-Contract Support Availability - w jakch godzinach dostępne jest wsparcie dla użytkowników którzy nie mają podpisanego kontraktu serwisowego
    • Non-Contract Support Methods - jakie są sposoby kontaktu ze wsparcie dla użytkowników którzy nie mają podpisanego kontraktu serwisowego

    Przetestowane modele:

    W teście porównawczym wzięły udział następujące firmy:


    Ze "stajni" Dell-a oceniane były dwie macierze z serii EquaLogic (FS7500 i FS 7600) - nie posiadające interfejsów FC (obsługa dostępu blokowego poprzez iSCSI), a także Compellent Storage Center FS8600 NAS (typowa macierz unified) i model NX3600


    Największy dostawca i producent w obszarze storage miał swoich reprezentantów z dwóch "rodzin". Pierwsza z nich ma korzenie NASowe (i to te bardziej z obszaru enterprise) - mowa o macierzy Isilon (startują przdstawiciele serii NL,S i X), druga to VNX czyli macierz midrange będąca połączeniem Clariiona (SAN) i Celery (NAS)

    HDS
    http://www.hds.com/

    Hitachi startuje z trójką swoich HUSów (Hitachi Unifed Storage) - HUS 110/130/150

    IBM
    http://www-03.ibm.com/systems/storage/

    IBM ma tylko jednego przedstawiciela: Storwise V7000 Unifed, pozostałe produkty z obszaru storage od tego producenta obsługują tylko jeden z typów ruchu blokowy( XIV, seria DS) lub plikowy ( N-series) tak więc nie zakwaliwikowały się do tego "buyers guide"-a

    IceWEB
    http://www.iceweb.com/

    Firma o której produktach nie wiem zbyt dużo. Szybki rzut oka na stronę i na portfolio pokazuje "standardowe" macierze klasy midrange. W porównaniu DCIGa udział wzięły trzy modele: 3000, 6500 oraz 7000

    NetApp
    http://www.netapp.com

    Kolejny duży gracz na rynku storage, regularnie "podgryzający" obecnego lidera czyli EMC. Nie wiedzieć czemu w porównaniu DCIGa uczestniczyła tylko seria 3200 (modele FAS3210/3220/3240/3250/3270), topowe macierze serii 6200 nie zostały uwzględnione.
    Nexsan
    http://www.nexsan.com/

    Jeszcze jedna firma działające w "branży". Jej produkty mają "wyposażenie" i funkcjonalności standardowe dla rozwiązań innych producentów (podwójne kontrolery, replikacja lokalna i zdalna, auto-tiering itd...). W kompendium mamy ocenione modele NST5100/5300/5500

    Starboard
    http://www.starboardstorage.com/

    Druga z mniej mi znanych firm występujących w tym porównaniu. Ocenione zostały dwa jej produkty( AC45 Storage System i AC72 Storage System) i nie wypadły jakoś porywająco.

    Wyniki:

    Czołówka (pierwsze 4 miejsca) zajmują macierze NetApp z modelem FAS3270 na czele. Ogólne rzecz biorąc, cała konkurencja została znokautowana.
    Za serią NetAppa uplasowały się modele EMC VNX (miejsca 5,6 i 8) oraz HDS (7,9,10).
    Z tyłu poza pierwszą dziesiątką mamy IBMa, Dell Compellent oraz różne modele Nexsana i IceWeba.
    Końcówka czyli druga dziesiątka to pozostałe DELLe, Isilony oraz VNXe z EMC a także Starboard.

    Trochę zaskakująco jeżeli chodzi o zwycięzcę. NetApp zawsze wydawał mi się bardziej "eleganckim" rozwiązanie niż np: VNX gdzie de facto dwa osobne rozwiązania (z czego jedno działające na Windowsie, drugie na Linux-ie) są "upychane" w jednym racku i sprzedawane jako macierz unified, ale jak widzę porównanie także samych możliwości a nie samej architektury wychodzi na plus dla NetApp-a.
    Brawo.

    Podsumowanie:

    Jak zwykle DCIG nie zawiódł i przygotował świetny materiał dla osób przymierzających się do zakupu macierzy midrange lub zainteresowanych tym tematem.
    Natomiast już wyszedł kolejny "buyers guide" tym razem o macierzach AFA (All flash arrays) co jest tematem bardzo ostatnio gorącym. Już wiem o czym będzie kolejny wpis,mam nadzieję tylko że uda mi się go przygotować nieco szybciej niż ten ;)