tag:blogger.com,1999:blog-60668503497220898712024-03-05T07:39:53.849+01:00MetaStorageZarządzanie pamięciami masowymi, biblioteki taśmowe, macierze, deduplikacja, SAN, NAS i wiele innych ciekawych zagadnień związanych z tematyką storage.Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.comBlogger83125tag:blogger.com,1999:blog-6066850349722089871.post-56897974552828969212013-12-08T21:49:00.000+01:002013-12-08T21:49:17.302+01:00XtremeIO - torpeda odpalona...po półtora roku czekania...Ostatnio EMC ogłosiło GA (General Availability), czyli produkt dostępny w sprzedaży bez ograniczeń, dla swojej pierwszej macierzy klasy AFA (All-flash-array). Produktu od początku zbudowanego i zaprojektowanego do obsługi dysków SSD i żadnych innych.<br />
<br />
Temat dysków SSD i macierzy wyspecjalizowanych w ich obsłudze od jakiś dwóch lat jest jednym z "najgłośniejszych" i najbardziej "trendy" w środowisku storage. Na początku bardzo szybko zaczęły powstawać nowe "startup"-y z produktami tej kategorii (np: Violin, Pure Storage, Solid Fire). O firmach tych zaczynało być coraz głośniej, pojawiło się coraz więcej nowych funkcjonalności (np: inline deduplikacja), a same urządzenia zaczęły być dostępne nie tylko lokalnie (do 100km od Doliny Krzemowej ;) ) ale też do zamówienia nawet na takim końcu świata jak np: Polska (Pan się nie boi, serwisant jest dostępny i w razie potrzeby doleci z Londynu w 5h). W końcu, czyli jakieś półtora roku temu, wkroczyliśmy w etap gdy niszą macierzy AFA zainteresowali się najwięksi gracze na rynku storage i rozpoczęło się przejmowanie przez nich firm siedzących w temacie. IBM kupił Texaco Memory Systems, CISCO kupiło WhipTail (całkiem niedawno), HP rozpoczęło sprzedaż i serwis urządzeń Violin, a EMC w maju zeszłego roku przejęło firmę XtremeIO.<br />
<br />
No właśnie...<br />
Przejeło, zrobiło wielki szum i ogłoszenie startu "tajemniczego" projektu <a href="http://virtualgeek.typepad.com/virtual_geek/2012/08/vmworld-2012-and-a-little-more-on-project-x.html">"X"</a> (i ubicie równie tajemniczego projetu <a href="http://chucksblog.emc.com/chucks_blog/2012/02/from-lightning-to-thunder.html">"Thunder"</a>"), po czym nastała cisza...<br />
Pojawiały się co jakiś czas informacje zarówno ze strony EMC (optymistyczne) jak i konkurencji (sarkastyczne) oraz niezależnych blogerów (różne) na temat zaawansowania prac nad macierzą all-flash bazującą na produktach XtreamIO, ale ogólnie to było w tym temacie bardzo, ale to bardzo cicho. Świat oczywiście nie stał w miejscu i macierze AFA stawały się coraz popularniejsze, było o nich coraz głośniej (choć oczywiście dalej jest to margines całej sprzedaży urządzeń storage) i wyglądało na to, że EMC nie ma za bardzo pomysłu i produktu, który mógłby wyróżnić się w tym obszarze na tle konkurencji.<br />
<br />
14 listopada 2013 , po półtora roku od momentu przejęcia XtremeIO, EMC ogłosiło nowy produkt. Pierwszą w swoim portfolio macierz od początku do końca budowaną z przeznaczeniem do bycia ekstremalnie szybkim urządzeniem opartym na dyskach SSD.<br />
<br />
Czy opłacało się czekać?<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="http://virtualgeek.typepad.com/.a/6a00e552e53bd28833019b0113f902970b-pi" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="318" src="http://virtualgeek.typepad.com/.a/6a00e552e53bd28833019b0113f902970b-pi" width="640" /></a></div>
<b><span style="font-size: large;"><br /></span></b>Nowa macierz składa się z tak zwanych X-Bricks. Cała konfiguracja może mieć od jednej do czterech takich cegiełek (wsparcie dla większych konfiguracji pewnie zostanie za niedługo ogłoszone). Każdy X-Bricks to w chwili obecnej 10TB przestrzeni (używane są dyski SSD 400GB), a także dodatkowa para kontrolerów. Dodawanie kontrolerów powoduje, że liniowo skaluje się wydajność rozwiązania - przy 4 X-Brickach jest ona określona na 1.000.000 IOPSów ( 4k random , 100% read)<br />
Jeszcze w temacie konfiguracji hardware można wspomnieć o połączeniach między X-Brickami, które są oparte na inifinbandzie.<br />
<br />
Bardzo ciekawie jest rozwiązane zarządzanie/konfigurowanie macierzy. Administrator nie musi robić praktycznie nic. XtremeIO nie ma RAIDów, LUNów, storage grup, nie ma tieringu, nie trzeba konfigurować cache, wielkości bloków itd... Jedyne co trzeba zrobić to wskazać do jakiego serwera ma być wystawiona przestrzeń i ile jej ma być.<br />
<br />
<span style="font-size: large;"><b>Jak więc działa macierz?</b></span><br />
<br />
Po pierwsze dane są rozrzucane po dyskach - zawsze po wszystkich i zawsze po równo (EMC pokazuje statystykę macierzy zajętej w 80% gdzie maksymalna różnica w zajętości między dwoma dowolnymi dyskami jest nie większa niż 0,2%).<br />
Po drugie "thin provisioning" i deduplikacja są zawsze włączone. Dane wpadające na macierz są dzielone na 4Kb bloki i sprawdzane jest czy taki blok już się na macierzy znajduje. Jeżeli tak to oczywiście nie jest zapisywany ponownie.<br />
Po trzecie - zabezpieczenie danych na dyskach nie opiera się na standardowych grupach RAID ale mechanizmie nazwanym XDP (XtremeIO Data Protection). Jeżeli chodzi o odporność na awarie to XDP odpowiada (w dużym przybliżeniu) RAID6, czyli posiada redundancję N+2. Różnica tkwi jednak w narzucie na protekcję (czyli ilości przestrzeni jaka jest "tracona" na zapewnienie ochrony danych) - w przypadku XDP jest to około 8% więc bardzo niewiele, oraz zredukowaniu tzw: Write amplification/write penalty czyli potrzebie zwielokrotnienie operacji I/O przy zapisywaniu danych na dyski w konfiguracjach RAIDowych. Przykładowo pojedyncze żądanie zapisu przy RAID6 wymaga wykonania aż 3 operacji odczytu i 3 zapisu na samych dyskach, dla XDP jest to 0 operacji odczytu i około 1.2 operacji zapisu (średnio oczywiście). Wpływ takiego działania w oczywisty sposób powoduje wzrost wydajności takiego rozwiązania w porównaniu do podobnych ale opartych o RAIDy<br />
<br />
<br />
<b><span style="font-size: large;">Krytyka:</span></b><br />
<br />
EMC (jak to EMC) zrobiło z okazji wejścia na rynek duży szum. Na szczęście mieli na tyle przyzwoitości lub instynktu samozachowawczego i nie głosili wszem i wobec, że oto przedstawiają Rewolucję i Nową Jakość (koniecznie pisaną dużą literą) ale promocją produktu zajęli się bardzo porządnie.<br />
<br />
Cicho nie siedziały także inne firmy oferujące swoje produkty w obszarze macierzy AFA i dość szybko pokazały się artykuły i wpisy w blogach firmowych dość sceptycznie podchodzące do nowego dziecka EMC.<br />
<br />
Nimbus bardzo obrazowo pokazał efektywność nowej macierzy na prostej grafice porównującej macierz EMC z ich urządzeniem o podobnej pojemności:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgYEf_yRW3AUpP7QU5KrzcPfKiMxCTCoaaCKDk6EbPRQ_vUfGUAWk3ZsONRvZ997nwisXfgNKHUHZFccFe6AR6VzZ1rB7f8OCDU2_qE-ue0Sw19-MWFK1ngw2KUqbXQTDoAKm_iiMtCKN71/s1600/nibus.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgYEf_yRW3AUpP7QU5KrzcPfKiMxCTCoaaCKDk6EbPRQ_vUfGUAWk3ZsONRvZ997nwisXfgNKHUHZFccFe6AR6VzZ1rB7f8OCDU2_qE-ue0Sw19-MWFK1ngw2KUqbXQTDoAKm_iiMtCKN71/s640/nibus.jpg" width="462" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: <a href="http://www.nimbusdata.com/newsevents/blog.php">http://www.nimbusdata.com/newsevents/blog.php</a></td></tr>
</tbody></table>
<br />
Ktoś mógłby powiedzieć, że może i większe ale urządzenie EMC jest wydajniejsze lub zapewnia lepszą funkcjonalność. Otóż nie bardzo. Porównania część dalsza (po lewej EMC, po prawej Nimbus):<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiuAl1OatPr-oqmLxvaeDjK-SyHo2VNbB40_mfDzKWJrYKk7eQvjQGfG9Fl5uUyqM1f9zjJQArbQllseL8B9coEv_nKEzkrA_hlgWyog0AA_xjUPUvZWIowphwwjdb9ZIIumNmrzVTyQaXG/s1600/nibus2.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiuAl1OatPr-oqmLxvaeDjK-SyHo2VNbB40_mfDzKWJrYKk7eQvjQGfG9Fl5uUyqM1f9zjJQArbQllseL8B9coEv_nKEzkrA_hlgWyog0AA_xjUPUvZWIowphwwjdb9ZIIumNmrzVTyQaXG/s1600/nibus2.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: <a href="http://www.nimbusdata.com/resources/v_xtremio.php">http://www.nimbusdata.com/resources/v_xtremio.php</a></td></tr>
</tbody></table>
<br />
Jeszcze dalej w porównaniu poszedł IBM który zestawił ze sobą macierz XtremeIO nie tylko ze swoją macierzą AFA ale także z "tradycyjnym" V7000 tyle tylko że wypełnionym dyskami SSD:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhsp0sOM0Q2pTpCf1O2CYUiS9FHNC-V3deSr1zAQjc-VwSBQsrviahFvdHLG_WzDFkt9bEzRKUMBIwsJPUkLjDMiJAKwI9a_tmp89NAuK7n7AjlxQBOMyEC74xnRDbK7WJrLSKkZafOpEWO/s1600/ibm.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="196" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhsp0sOM0Q2pTpCf1O2CYUiS9FHNC-V3deSr1zAQjc-VwSBQsrviahFvdHLG_WzDFkt9bEzRKUMBIwsJPUkLjDMiJAKwI9a_tmp89NAuK7n7AjlxQBOMyEC74xnRDbK7WJrLSKkZafOpEWO/s640/ibm.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: www.ibm.com/developerworks/community/blogs/InsideSystemStorage/</td></tr>
</tbody></table>
<div class="separator" style="clear: both; text-align: center;">
</div>
<br />
Oprócz samych porównań, konkurencja krytycznie wypowiadała się także o możliwościach XrtremeIO - szczególnie o "rzekomym" braku mechanizmu "garbage collection", odporności na utratę/uszkodzenie jednego z nodów, oraz brak kompresji i deduplikację stałym blokiem.<br />
Cóż, taka rola konkurencji, żeby wbijać szpilki...<br />
<br />
<br />
<span style="font-size: large;"><b>Podsumowanie:</b></span><br />
<br />
Rozwiązanie EMC to nie rewolucja, tylko kolejny już (dwudziesty-trzydziesty?) produkt w tym obszarze, ma fajne rozwiązania, ale w wielu przypadkach odstaje od obecnych na rynku urządzeń. Na pewno XtremeIO będzie miało tą przewagę, że EMC ma największe możliwości jeżeli chodzi o moce przerobowe w obszarze logistyki i zaplecza serwisowego. Poczucie, że specjaliści dostawcy od danego produktu są na wyciągnięcie ręki, a nie na drugim końcu świata, jest bardzo ważne dla dużych firm gdzie priorytetem jest stabilność działania i bardzo szybkie rozwiązywanie wszystkich awarii.<br />
Jeżeli chodzi o "szum" wokół XtremeIO to należy go przyjmować ze zdrowym dystansem. Z jednej strony nie wierzyć w propagandę sukcesu ze strony EMC, z drugiej tak samo traktować opnie i "obiektywne" porównania konkurencji :D<br />
Najlepiej było by samemu spróbować...<br />
<br />
<br />
Do poczytania:<br /><a href="http://virtualgeek.typepad.com/virtual_geek/2013/11/xtremio-taking-the-time-to-do-it-right.html">XtremIO - Taking the time to do it right</a><br />
<a href="http://jasonnash.com/2013/11/14/emc-finally-releases-the-xtremio-all-flash-array/">EMC finally releases the XtremIO all flash array</a><br />
<a href="https://www.ibm.com/developerworks/community/blogs/InsideSystemStorage/entry/ibm_flashsystem_versus_emc_xtremeio_all_flash_arrays?lang=en">IBM FlashSystem versus EMC XtremeIO all flash arrays</a><br />
<a href="http://vjswami.com/2013/11/13/xtremio-hardwaresoftware-overview-architecture-deepdive/">XtremIO - Hardware/software overview architecture deepdive</a> <span style="color: #cc0000;">(Mocno techniczny i dokładny opis! Dobre!)</span><br />
<a href="http://www.nimbusdata.com/newsevents/blog.php">NimbusData - BLOG</a><br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-10628581931880788292013-11-09T21:18:00.000+01:002013-11-09T21:18:00.388+01:00VNX2 - nowe macierze midrange od EMCNie jest to może zupełna nowość, bo ogłoszono te urządzenia już jakiś czas temu, ale produkcja i wysyłka do pierwszych klientów rozpoczęła się całkiem niedawno.<br />
<div>
O czym mowa? O nowej generacji macierzy midrange od EMC nazywanych (potocznie) VNX2.<br />
<br />
<span style="font-size: large;"><b>Słowem przypomnienia:</b></span><br />
<br />
VNX to rodzina urządzeń skierowanych do dużych (i średnich) przedsiębiorstw i zaliczana do klasy tzw: midrange - czyli maszyn bardzo dobrych ale jeszcze nie "najlepszych z najlepszych".<br />
VNX jest macierzą typu "unified", czyli może obsługiwać ruch zarówno blokowy jak i plikowy.<br />
<br />
O "oryginalnych" VNXach można poczytać sobie np <a href="http://metastorage.blogspot.com/2011/05/vnx-macierze-wszystkich-typow-aczcie.html">TUTAJ</a><br />
<br />
<br />
<span style="font-size: large;"><b>Nowe VNXy:</b></span><br />
<br />
Oficjalnie nowe urządzenia dalej nazywają się VNX (bez 2 na końcu) a cała rodzina wygląda następująco:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgWzsKhMx7E1TRrqMuvPenYjnwb1CgwpZCglEC6rLxSMJgbIh3_by2Ihl0i6AsVZuQQhI9kE65X5hTT9aZVYGRaza5zPg7bjLe9GhdTElN_wlPV_1JwVNg_3xpNN9zoQDsPJsufWtQhrsBB/s1600/VNX2_models+-+details.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="424" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgWzsKhMx7E1TRrqMuvPenYjnwb1CgwpZCglEC6rLxSMJgbIh3_by2Ihl0i6AsVZuQQhI9kE65X5hTT9aZVYGRaza5zPg7bjLe9GhdTElN_wlPV_1JwVNg_3xpNN9zoQDsPJsufWtQhrsBB/s640/VNX2_models+-+details.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło: Emc</td></tr>
</tbody></table>
<br />
<div class="separator" style="clear: both; text-align: center;">
</div>
<br /></div>
<div>
Część VNXe to "maluchy" z przeznaczeniem do mniejszych firm, które nie posiadą własnej sieci SAN (brak interfejsu FC i uboższe funkcjonalności), natomiast linia oznaczona po prostu VNX (od 5200 do giganta 8000) to już pełnoprawne macierze midrange, różniące się między sobą mocą, możliwościami rozbudowy i ,oczywiście, ceną :D<br />
<br />
<b><span style="font-size: large;">Co w środku:</span></b><br />
<br />
Pojawieniu się nowych modeli towarzyszył szum medialny (co oczywiste, w końcu EMC umie się promować), ale same macierze są warte tego żeby przyjrzeć się im dokładniej.<br />
Oczywiste jest porównanie do poprzednich VNXów i prócz naturalnego wykorzystania nowych komponentów (np: nowe modele procesorów Intela w kontrolerach) macierze te mają naprawdę multum nowych funkcjonalności.<br />
<br />
Na pierwszym miejscu wspomniał bym o architekturze MCx.<br />
<br />
<span style="font-size: large;"><b>Multi-Core Everything:</b></span><br />
<br />
MCx można tłumaczyć jako "multi-core everything" i formalnie jest to nowa nazwa firmware w tych macierzyach (żegnaj FLARE). Tak naprawdę w nazwie kryje się jedna z głównych cech nowego oprogramowania, czyli bardzo dobre (w porównaniu do starego rozwiązania) dzielenie zadań między rdzenie procesorów w kontrolerach. Porównanie efektywności FLARE do nowego MCx-a bardzo dobrze obrazuje ta ilustracja:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhpY55ItnNtErnJUf116uy5rTWaYcuVH-lXzdPEvuN3Xzkg_FvAvB-p5h7Vj_lf8edRoGWdtlZl89HfsS9AH3-B9M-qdrVoAUzTUZjo5zBU7p9bQ5s80ylVMpOPuwfoW_z_cxBYdEy9sdDL/s1600/VNX_MCx_Core_utilisation.png" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="276" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhpY55ItnNtErnJUf116uy5rTWaYcuVH-lXzdPEvuN3Xzkg_FvAvB-p5h7Vj_lf8edRoGWdtlZl89HfsS9AH3-B9M-qdrVoAUzTUZjo5zBU7p9bQ5s80ylVMpOPuwfoW_z_cxBYdEy9sdDL/s640/VNX_MCx_Core_utilisation.png" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło: EMC</td></tr>
</tbody></table>
<br />
<br />
Jak widać po lewej stronie, FLARE (lub Static Cory Utilization) dedykował poszczególne rdzenie do konkretnych zadań, przez co część z nich była nadmiernie obciążona, a pozostałe się nudziły. W nowym rozwiązaniu każdy rdzeń zajmuje się różnymi zadaniami, a utylizacja wszystkich z nich jest na równym poziomie.<br />
Druga zmiana jaką można odczytać z tego obrazka to zwiększona liczba rdzeni w MCx ale to cecha oczywiście nie samego oprogramowania, tylko użycia w nowych VNXa, mocniejszych (nowszych) procesorów.<br />
<br />
Oprócz równej dystrybucji obciążenia między rdzeniami MCx ma również wiele innych zmian w funkcjonalnościach podzielonych na kilka głównych modułów:<br />
<br />
<ul>
<li><b>Multi-Core Cache (MCC) - </b>cache działa inaczej niż w VNX1 i nie ma potrzeby podziału go na pamięć do obsługi odczytów i zapisów (macierz robi to sama)</li>
<li><b>Multi-Core RAID (MCR) - </b>pewne zmiany w zarządzaniu dyskami (np: nowe możliwości w konfigurowaniu hot spare-ów)</li>
<li><b>Multi-Core FAST Cache (MCF) - </b>ulepszanie algorytmów działania FAST Cache</li>
<li><b>Active/Active data accesss - </b>dostęp na zasadzie active/active do LUNów, co sprawia, że nie ma już potrzeby przypisywania LUNu do któregoś z kontrolerów. Niestety funkcjonalność ta działa jedynie dla LUNów klasycznych - włącznie thin provisioningu sprawia, że cofamy się do tego co znamy ze "starych" VNXów</li>
</ul>
<br />
<span style="font-size: large;"><b>Deduplikacja:</b></span><br />
<br />
W końcu EMC wprowadziło tą funkcję w swoich macierzach SAN-owych. Trochę ciężko jest uważać się za innowacyjną firmę, gdy brakuje pewnych atutów, które konkurencja (NetApp) ma od dość długiego już czasu. Deduplikacja w VNX2 działa na poziomie 8Kb bloków i odbywa się (oczywiście) w post-procesie. Włączyć ją można na poziomie LUNa i używać razem ze snapshotami, replikacą i FASTem.<br />
<br />
<span style="font-size: large;"><b>Zmiany w FAST VP:</b></span><br />
<br />
Jedna bardzo dużo zmiana w sposobie działania "auto-tieringu" (FAST VP) w nowych VNX2 to zmniejszenie wielkość "chunk"-a (czyli najmniejszej jednostki dla jakiej określa się "gorącość" danych i którą przenosi się między odpowiednimi dyskami) z 1GB na 256MB.<br />
Pozwala to na bardziej precyzyjne określanie, które bloki danych są najczęściej/najrzadziej wykorzystywane i które powinny być zmigrowane na szybsze/wolniejsze dyski.<br />
<ul></ul>
<b><span style="font-size: large;">Mniejsze zmiany:</span></b><br />
<br />
Oczywiście oprócz w/w VNX2 ma bardzo dużo innych mniejszych modyfikacji i usprawnień.<br />
Kilka z nich to:<br />
<ul>
<li>Wsparcie dla ODXa (czyli mechanizmów pozwalających Hyper-V na "zdelegowanie" pewnych zadań na macierz)</li>
<li>Wsparcie dla chmury publicznej Azure</li>
<li>Oprogramowanie optymalizowane pod obsługę dysków SSD</li>
<li>Dużo wydajniejsze snapshoty (Użycie mechanizmu ROW - Redirect on Write, który sprawia, że impakt na wydajność po włączeniu snapshotowania jest dużo mniejszy)</li>
<li>Dużo funkcji, wcześniej osobno licencjonowanych teraz w cenie macierzy: (Analyser , QoS, VNX Monitoring and Reporting, Unisphere Remote) - w końcu nie trzeba extra płacić, żeby dowiedzieć się jak performuje nasze urządzenie.</li>
</ul>
<div>
<br />
<b><span style="font-size: large;">Podsumowanie:</span></b><br />
<b><span style="font-size: large;"><br /></span></b>
Nowe macierze to nie tylko odświeżenie serii ale naprawdę duża zmiana i nic dziwnego, że rynke ochrzcił je mianem VNXów 2. Dużo lepsza wydajność i moc maszyn jest natruralna (mocniejsze podzespoły), a dodanie działania w trybie active-active i np: deduplikacji sprawia, że EMC, ostatnio trochę "odstające" od najbardziej innowacyjnych konkurentów w obszarze midrange, ostro nadgoniło zaległości.<br />
<br />
<b><span style="font-size: large;">Do poczytania:</span></b><br />
<br />
<a href="http://jasonnash.com/2013/09/04/emc-releases-the-next-generation-of-vnx-arrays/">Emc releases the next generation of vnx-arrays</a><br />
<a href="http://www.penguinpunk.net/blog/emc-next-generation-vnx-deduplication/">Emc next generation vnx - deduplication</a><br />
<a href="http://www.penguinpunk.net/blog/emc-next-generation-vnx-mcx/">Emc next generation vnx - mcx</a><br />
<a href="http://virtualgeek.typepad.com/virtual_geek/2013/09/speed2lead-part-1-next-generation-vnx.html">Speed2lead part 1: Next generation vnx</a></div>
<br /></div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-13210764061321795352013-11-04T21:41:00.000+01:002013-11-04T21:42:29.699+01:00Duży dysk = 6TB danych + HelJeżeli chodzi o rozwój technologii dyskowych to temat ten został w ostatnich miesiącach (latach) zawłaszczony praktycznie w 100% przez napędy SSD i wszystko co z nimi związane, natomiast rozwiązania "tradycyjne", dalej niezastąpione jeżeli chodzi o tanią i dużą przestrzeń, bez jakiś rewelacji i "po cichu" rozwijały się powolnym tempem, osiągając ostatnio wielkości 4TB per pojedyncze urządzenie.<br />
Dziś jednak zostało ogłoszone wprowadzenie na rynek dysku o pojemności 6TB, co samo w sobie nie było by może znaczące ale napęd korzysta nowej technologii a mianowicie jest wypełniony nie powietrzem a Helem.<br />
<br />
<span style="font-size: large;"><b>Ultrastar Helium He-6:</b></span><br />
<br />
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjJQ-fpii6AbC7DyTz7tSyKx5R-lWoT1yjHTVumTsTIxzrAHWh_EbsEqP8g6lvFaLhnTXfSrmkb8FBdq3Xwym0kI2yHvb9hgxSKLipFqOIMg90440LmNpp8MKKzC5jm97mNmvH4EXNrQ4Ig/s1600/HGST_6TB_HE6HDD_comparison-640x358.jpg" imageanchor="1" style="clear: left; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" height="356" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjJQ-fpii6AbC7DyTz7tSyKx5R-lWoT1yjHTVumTsTIxzrAHWh_EbsEqP8g6lvFaLhnTXfSrmkb8FBdq3Xwym0kI2yHvb9hgxSKLipFqOIMg90440LmNpp8MKKzC5jm97mNmvH4EXNrQ4Ig/s640/HGST_6TB_HE6HDD_comparison-640x358.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: <a href="http://www.extremetech.com/computing/170213-wd-releases-6tb-ultrastar-he6-the-worlds-first-helium-filled-hard-drive">http://www.extremetech.com/computing/170213-wd-releases-6tb-ultrastar-he6-the-worlds-first-helium-filled-hard-drive</a></td></tr>
</tbody></table>
<br />
<br />
Dysk jest produkowany przez HGST (Hitachi Global Storage Technologies) - kiedyś część Hitachi ale obecnie własność Western Digital i ma oznaczenie: <b><i>Ultrastar Helium He-6</i></b>. Tym co odróżnia produkt od całej masy innych dostępnych w sprzedaży, jest fakt, że wewnątrz hermetycznie zamkniętej obudowy znajduje się Hel, zamiast zwykłego powietrza. Hel ma dużo mniejszą (siedmiokrotnie) gęstość niż powietrze i dlatego obracające się talerze i głowica dysku powodują mniej turbulencji, a opory ruchu i wydzielane przy nich ciepło są mniejsze. Własności te pozwoliły HGST na umieszczenie w jednej obudowie aż 7 talerzy z danymi i dzięki temu osiągnięcie pojemności rzędu 6TB. Mimo zwiększenia ilości talerzy, które muszą się obracać, zużycie przez dysk energii jest niższe o ponad 20% w porównaniu do innych - to także zasługa helu, mniejsze opory sprawiają że mniej siły potrzebnej jest do poruszania dysków.<br />
<br />
Zastosowanie tego typu napędów (o tak dużej pojemności) jest raczej oczywiste: składowanie kopii zapasowych (disk-to-disk backup), archiwa, systemy do przechowywania bardzo dużych ilości danych relatywnie rzadko używanych. Sprawdzą się one wszędzie tam gdzie zależy nam na bardzo dużej pojemności, natomiast nie mamy wymagań wydajnościowych.<br />
Jedyne co może przeszkodzić dyskom helowym w zostaniu nośnikami dla dużych i efektywnych kosztowo środowisk pamięci masowych są rosnące ceny samego helu.<br />
<br />
Rozwiązanie ciekawe i w końcu jakaś zmiana w obszarze dysków mechanicznych :D<br />
<br />
<span style="font-size: large;"><b>Do poczytania:</b></span><br />
<br />
<a href="http://www.pcmag.com/article2/0,2817,2426726,00.asp?kc=PCRSS05079TX1K0000995">Artykuł na pcmag.com</a><br />
<a href="http://www.hgst.com/press-room/press-releases/hgst-ships-6TB-Ultrastar-HE6-helium-filled">HGST - Press Release</a><br />
<a href="http://www.geek.com/chips/western-digital-fills-hard-drives-with-helium-for-better-performance-1515843/">Artykuł na geek.com</a><br />
<a href="http://www.extremetech.com/computing/170213-wd-releases-6tb-ultrastar-he6-the-worlds-first-helium-filled-hard-drive">Artykuł na extremetech.com</a><br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-59549381229646856392013-10-27T21:25:00.001+01:002013-10-28T07:12:30.013+01:00Czarna perła przybywa na ratunek taśmom.Bardzo wiele firm działających w branży storage już dawno stwierdziło, że "tape is dead". Co prawda większość z nich twierdzi, że dla niektórych zastosowań - szczególnie jeżeli mówimy o archiwach wieloletnich- taśma może mieć ekonomiczne uzasadnienie ale tak naprawdę nie jest ona postrzegana jako jakiś wyjątkowo atrakcyjny produkt. W świecie chmur, "big data" i macierzy flashowych taśma magnetyczna z jej sekwencyjną obsługa pozostała daleko w tyle jeżeli chodzi o możliwości i popularność.<br />
<div>
<br /></div>
<div>
Kilkanaście dni temu jedna z (niewielu już) firm, dla których główną działalnością są dalej biblioteki taśmowe i taśmy magnetyczne ogłosiła produkt, który może "odświeżyć" postrzeganie taśm i pozwolić na ich szersze stosowanie niż tylko długoletnie i nieodtwarzane archiwa.</div>
<div>
Firma ta to SpectraLogic a produkt nazywa się BlackPearl.</div>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Czym jest "Czarna Perła":</b></span></div>
<div>
<br /></div>
<div>
Jest to appliance, który instaluje przed biblioteką taśmową (firmy SpectraLogic) a który sprawia, że z zasobów biblioteki możemy korzystać, za pomocą protokołu obiektowego REST, tak jak z danych przechowywanych w chmurach publicznych (np: Amazon-a):<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiucstOyt62EMHJonUx28Rgm-uun0BYBMhYHqWlkuUY6quT-E4LbcnYQ-4f70TM2LmNt5cx_-TZV8YJ9RFP-3UnDwCWKfMcgZ2Kdjmy7IXYoDtilm5lFGLPbjMEalxCZIDS1Kud8g4-xUsg/s1600/BlackPearl.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="160" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiucstOyt62EMHJonUx28Rgm-uun0BYBMhYHqWlkuUY6quT-E4LbcnYQ-4f70TM2LmNt5cx_-TZV8YJ9RFP-3UnDwCWKfMcgZ2Kdjmy7IXYoDtilm5lFGLPbjMEalxCZIDS1Kud8g4-xUsg/s640/BlackPearl.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">BlackPearl - źródło: <a href="http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab">http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab</a></td></tr>
</tbody></table>
<br /></div>
<div>
<br /></div>
<div>
SpectraLogic stworzyło specjalne API nazwane DS3 (Deep Simple Storage Services) za pomocą którego można komunikować się z biblioteką i zapisywać/odczytywać z niej dane bez potrzeby używania żadnego dedykowanego oprogramowania np: backupowego. Dane trzymane w ten sposób na bibliotece mogą być także uznane za dane online, nie offline - czyli dostępne bezpośrednio, bez potrzeby wykonywania odtwarzania. Sam DS3 jest API mocno wzorowanym na interface S3 (Simple Storage Services) autorstwa Amazona i który wykorzystywany jest do umożliwienia składowania i korzystania z danych w chmurze Amazon Web Services. Jeżeli chodzi o obsługę danych po stronie biblioteki to wykorzystuje się do tego LTFS (Long Time File System) obecny w standardzie LTO od wersji 5.</div>
<div>
<br /></div>
<div>
Przez analogię do S3 i chmury Amazona, można powiedzieć, że BlackPearl i zaimplementowane w nim DS3 pozwala korzystać z bibliotek SpectraLogic jak z wewnętrznej chmury. Jedyny warunek to zainstalowanie na hostach chcących korzystać z tej możliwości klienta DS3.</div>
<div>
<br /></div>
<div>
Całe rozwiązanie można przedstawić następująco:</div>
<div>
<br /></div>
<div>
<br /></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Black Pearl Interface Diagram" height="149" src="http://www.spectralogic.com/common/images/products/blackPearl/bpDiagram.png" style="margin-left: auto; margin-right: auto;" width="640" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: <a href="http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab">http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab</a></td></tr>
</tbody></table>
<br />
<div>
<span style="font-size: large;"><b>Zalety i wady:</b></span></div>
<div>
<span style="font-size: large;"><b><br /></b></span></div>
<div>
Na pewno zaletą jest posiadania przestrzeni o dużo niższym koszcie jednostkowym niż ta na macierzach dyskowych i dostępie online do tych danych. Cena jest sporo niższa także jeżeli porównamy ją do rozwiązań archiwizacyjnych w chmurze publicznej (np: Amazon Glacier).</div>
<div>
Kolejna zaleta to bardzo duża skalowalność takiego rozwiązania - podpięte na "back-endzie" biblioteki mogą obsługiwać środowiska multi-petabajtowe.</div>
<div>
Jeszcze jeden plus to łatwość w użyciu - nie ma żadnych aplikacji backupowych, które jako jedyne potrafią "dogadać" się z bibliotekami, nie ma potrzeby robienia odtworzeń itd... Obsługa prosta i bardzo podobna do używania zasobów w chmurze Amazona.</div>
<div>
<br /></div>
<div>
Wady - bądź co bądź dane jednak znajdują się na taśmie, która dalej jest medium z odczytem/zapisem sekwencyjnym. Co prawda BlackPearl ma wbudowane dyski SSD robiące za cache ale finalnie i tak prędzej czy później będziemy musieli zaczekać aż taśma z naszymi danymi zostanie zamontowana do napędu i odczytana.</div>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Do poczytania:</b></span></div>
<div>
<br /></div>
<div>
<a href="http://www.spectralogic.com/index.cfm?fuseaction=products.displayContent&catID=2221&src=bab">Spectra Logic - BlackPearl</a></div>
<div>
<a href="http://www.networkcomputing.com/storage-networking-management/spectra-logic-unveils-blackpearl-storage/240162788">SpectraLogic unveils BlackPearl storage</a><br />
<a href="http://www.theregister.co.uk/2013/10/07/spectralogic_invents_tapebased_object_store/">SpectraLogic invents tapebased object store</a><br />
<a href="http://broadcastengineering.com/storage-amp-networking/spectra-logic-announces-blackpearl-deep-storage-appliance">SpectraLogic announces BlackPearl deep storage appliance</a><br />
<br />
<br />
PS. Blog przed długi czas był w stanie zamrożenia - trochę w życiu zawodowym mi się pozmieniało i niestety nie było czasu/siły żeby tutaj pisać. Postaram się to zmienić, ale jak to wyjdzie to zobaczymy ;)</div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-83539088522895819442013-05-18T18:30:00.005+02:002013-05-18T18:30:59.709+02:00Macierze flashowe - poradnik kupującego na 2013Ostatnio DCIG wypuszcza całkiem sporo"buyer's guide"-ów na najróżniejsze produkty z obszaru storage. W jednym z ich ostatnich opracowań porównano kilkadziesiąt modeli macierzy flashowych (tzw: AFA - All Flash Arrays), urządzeń wykorzystujących do przechowywania danych wyłącznie (lub w większości) dysków SSD. Rynek tych urządzeń od około 2 lat cały czas rośnie i obecnie z fazy start-upów, przeszedł do etapu wykupywania mniejszych (ale dobrze rokujących) firm przez gigantów.<br />
<br />
Macierze SSD mają kilka zdecydowanych zalet nad rozwiązaniami bazującymi na "tradycyjnych" dyskach. Oprócz najbardziej oczywistej, czyli dużo większej wydajności, wykorzystanie takich rozwiązań pozwala na lepszą utylizację CPU w serwerach (które przy pracy z normalnymi macierzami dużo czasu marnotrawią na czekanie na odpowiedzi z sytemu dyskowego) oraz ograniczenie zużycia energii i miejsca w serwerowni.<br />
<br />
<b><span style="font-size: x-large;">Założenia</span></b><br />
<b><span style="font-size: x-large;"><br /></span></b>
Aby zakwalifikować się do porównania, macierz musiała spełniać następujące warunki:<br />
<ul>
<li>Dostępna jako applinace - czyli odrębne urządzenie z własnym oprogramowaniem (firmware).</li>
<li>Nie bazuje na MS Windows Storage Server</li>
<li>Wspiera konfigurację opartą w 100% na dyskach SSD</li>
<li>Może wspierać konfiguracje oparte na wymieszaniu dysków SSD z tradycyjnymi </li>
<li>Musi wspierać minimum 16 dysków</li>
<li>Musi obsługiwać przynajmniej jeden protokół SAN (iSCSI, FCP, FCoE,Infiniband)</li>
<li>Może wspierać protokoły NAS (CIFS,NFS)</li>
<li>Musi być dostępna w sprzedaży od 1 listopada 2012</li>
</ul>
<div>
<br /></div>
<div>
<b><span style="font-size: x-large;">Kryteria </span></b></div>
<br />
Macierze były oceniane według kilku kategorii. W odróżnieniu od poprzednich wpisów dotyczących "Buyer's guide"-ów od DCIG nie będę wyliczał wszystkich składowych razem z ich opisem. Zdecydowana część jest oczywista. Bardziej szczegółowo skupię się na ocenianych funkcjonalnościach związanych z zarządzaniem napędami flashowymi.<br />
<br />
<b><u>Management & Replication</u></b><br />
W tej sekcji urządzenia są oceniane biorąc pod uwagę kilkanaście kategorii. Głównie chodzi o wspieranie przez macierze pewnych konkretnych funkcjonalności takich jak: Thin Priovisioning, Snapshoty, Deduplikacja czy wsparcie dla VMware (np: obsługa VAAI i VASA)<br />
<br />
<b><u>Storage Array Hardware</u></b><br />
Szczegóły dotyczące hardware jaki posiada i wspiera dane urządzenie (ilość cache, rodzaje interfejsów, max pojemności obsługiwane itd...)<br />
<br />
<b><u>Flash Management</u></b><br />
W tej części mamy specjalne możliwości związane z zarządzaniem pamięciami/dyskami flash. Sprawdzana jest obecność 5 rodzajów funkcjonalności:<br />
<ul>
<li><b>Write Coalescing - </b>technika polegająca na grupowaniu zapisów w cache i nagrywaniu ich na dysk dopiero wtedy, kiedy osiągną wielkość bloku do usunięcia (EBS - erasure block size). Funkcjonalność ta poprawia wydajność, oraz wydłuża czas życia nośnika i jest to związane z mechanizmem działania pamięci flash. Dane na dysku SSD nie mogą być nadpisane, aby zmienić wartość komórki należy ją skasować, a dopiero potem na nowo zapisać wartość. Dodatkowo kasowanie nie może być wykonane per komórka ale dzieje się jednocześnie dla większej ilości danych - najmniejszy "kasowalny" jedną operacją obszar to właśnie EBS. Użycie Write Coalescing zmniejsza ilość operacji kasowania, przy zapisywaniu danych. </li>
<li><b>Variable RAID Stripe Sizing - </b>kolejna funkcjonalność poprawiająca wydajność i czas życia. Też opiera się na wielkości EBSa. Tym razem macierz dba o to aby dane rozrzucane (stripe) były po obszarze równemu wielkości EBS.</li>
<li><b>Data Aging Timer Tuning - </b>czy dostępna jest dla administratora możliwości ustawiania/zmiany pewnych liczników odpowiedzialnych za "starzenie" się danych</li>
<li><b>Inline Deduplication - </b>czy macierz wspiera deduplikacje w czasie rzeczywistym (in-line)</li>
<li><b>Block Level Compression - </b>czy macierz wspiera kompresję na poziomie bloku</li>
<li><b>Hardware Accelerated Compression - </b>czy urządzenie posiada dedykowane układy (ASIC) do obsługi kompresji.</li>
</ul>
<div>
<u><b>Application Layer</b></u></div>
<div>
Obsługa protokołów dostepu plikowego (NFS,CIFS) i objektowego (REST,SOAP), rodzaje wspieranej autentyfikacji (logowanie przez AD, Kerberos, NIC itd...)</div>
<div>
<br /></div>
<div>
<b><u>Support</u></b></div>
<div>
Jakie wsparcie zapewnia dostawca swoim produktom.</div>
<div>
<br /></div>
<div>
<br /></div>
<div>
<span style="font-size: x-large;"><b>Przetestowane modele</b></span></div>
<div>
<span style="font-size: x-large;"><b><br /></b></span></div>
<div>
<b><u>Asute Networks</u></b><br />
<b><u><a href="http://www.astutenetworks.com/">www.astutenetworks.com</a></u></b><br />
<b><br /></b>
Asute chwali się kilkoma "unikalnymi" możliwościami jakie mają ich produkty. Pierwszym z nich jest <i style="font-weight: bold;">DataPump Engine </i>czyli dedykowany układ (ASIC) ktory zarządza ruchem przychodzącym do macierzy. W porównaniu do rozwiązań konkurencji opartych na standardowym układzie x86, ASIC Asute ma charakteryzować się dużo większą wydajnością.<br />
Kolejnym atutem jest deduplikacja w czasie rzeczywistym, która ma zerowy wpływ na wydajność.<br />
<br />
Asute podkreśla także bardzo ekonomiczość ich rozwiązania, twierdząc, że ich produkty mają najlepszą cenę jednostkową per IOPS.<br />
<br />
DCIG przetestował 3 modele macierzy Asute (seria ViSX) różniące się obsługiwaną pojemnością:<br />
<ul>
<li>ViSX G4 2400</li>
<li>ViSX G4 4800</li>
<li>ViSX G4 9600</li>
</ul>
</div>
<div>
<b><u><br /></u></b></div>
<div>
<b><u>GreenBytes</u></b><br />
<b><u><a href="http://getgreenbytes.com/">getgreenbytes.com/</a></u></b><br />
<b><br /></b>
Firma pozycjonuje się jako dostawca infrastruktury dla rozwiązań VDI-owych czyli wirtualnych terminali.<br />
Tego typu środowiska zwykle mają bardzo duże wymagania dotyczące wydajności storage na których są zbudowane.<br />
Model, który został przetestowany to:</div>
<div>
<ul>
<li>IO Offload Engine (5,000 VDI Model)</li>
</ul>
<div>
<br /></div>
</div>
<div>
<br /></div>
<div>
<b><u>Huawei Enterprise</u></b></div>
<div>
<b><u><a href="http://enterprise.huawei.com/en/index.htm">enterprise.huawei.com/</a></u></b><br />
<b><u><br /></u></b>
Huawei to firma mająca bardzo różnorodne portfolio produktów z najróżniejszych obszarów infrastruktury IT. Storage jest tylko malutkim kawałeczkiem w ich ofercie, a macierze AFA (All Flash Array) to już zupełnie drobinka, w sumie jeden niewyróżniający się niczym szczególnym model:</div>
<div>
<ul>
<li>OceanStor Dorado2100</li>
</ul>
</div>
<div>
<br /></div>
<div>
<b><u>Kaminaro</u></b><br />
<b><u><a href="http://www.kaminario.com/index.php">www.kaminario.com</a></u></b><br />
<b><br /></b>
Kolejny start-up działający na rynku macierzy All Flash. Podobnie jak inne firmy specjalizujące się w tym obszarze, ma swoje własne rozwiązania związane z architekturą i oprogramowaniem zarządzającym pamięcią flash, w Kaminaro nazywają się one SPEAR (Scale Out Performance Storage Archtecture)</div>
<div>
<ul>
<li>K2 F</li>
</ul>
</div>
<div>
<br /></div>
<div>
<b><u>Nimbus</u></b></div>
<div>
<b><u><a href="http://www.nimbusdata.com/">www.nimbusdata.com</a></u></b><br />
<b><br /></b>
Nimbus dość odważnie poczyna sobie na rynku macierzy flash. Firma ma kilka "rodzin" macierzy z których największe to "E Class" (Enterprise) i "S Class"(Standard). Rodzina "E" wyróżnia się przede wszystkim architekturą zapewniającą dużo większą dostępność i odporność na awarie. Oprócz tego Nimbus od niedawna ma także trzecią linię macierzy nazywaną Gemini.<br />
<br />
Największym klientem Nimbusa jest E-Bay który kupił macierze AFA o ponad 100TB pojemności.<br />
<br />
Do porównania DCIGa wzięte zostały następujące macierze klas E i S (poszczególne podele w obrębie rodziny różnią się pojemnościami):<br />
<ul>
<li>E Class Flash Memory System E6400M+E1000X</li>
<li>E Class Flash Memory System E6400M+E2000X</li>
<li>S Class Flash Memory System S255M / S255X</li>
<li>S Class Flash Memory System S505M / S505X</li>
<li>S Class Flash Memory System S1005M / S1005X</li>
</ul>
</div>
<div>
<b><u><br /></u></b></div>
<div>
<b><u>PureStorage</u></b><br />
<b><u><a href="http://www.purestorage.com/">www.purestorage.com</a></u></b><br />
<b><br /></b>
Firma o której kiedyś krążyły plotki, że ma być wykupiona przez EMC (w ostateczności EMC kupiło XIO).<br />
Rozwiązania PureStore obsługują deduplikacje w czasie rzeczywistym, przez co pozalają na dużo większą "gęstość" upakowania danych, obsługiwane są także snapshoty oraz thin provisioning (co nie jest standardem w obszarze macierzy flash).<br />
<br />
W teście DCIGa pojawiły się dwia (z dostępnych \dwóch) modeli macierzy PureStorage. FA-310 to urządzenie z pojedynczym kontrolerem, FA-320 ma ich dwa.<br />
<ul>
<li>FA310</li>
<li>FA320</li>
</ul>
<b><u><br /></u></b></div>
<div>
<b><u>Tegile</u></b><br />
<b><u><a href="http://www.tegile.com/">www.tegile.com</a></u></b><br />
<br />
Tegile to kolejny start-up skupiony na macierzach flash i hybrydowych. Macierze Tegile są w stanie udostępniać dane zarówno po sieci SAN jak i z wykorzystaniem protokołów plikowych. Z kilku modeli dostępnych DCIG to testów wybrał tylko jeden, ale najsilniejszy:<br />
<ul>
<li>Zebi HA2800</li>
</ul>
<br /></div>
<div>
<b><u>Texas Memory Systems (IBM)</u></b><br />
<b><u><a href="http://www-03.ibm.com/systems/storage/flash/">TMS</a></u></b><br />
<br />
TMS to firma najdłużej działająca na rynku macierzy flashowych, jeszcze kilka lat temu praktycznie jako jedyna oferowała tego typu produkt. W zeszłym roku firma została wykupiona przez IBMa. IBM ostatnio przedstawił swoje plany co do produktów dawnego TMSa, same macierze zmieniają się (przynajmniej na razie) w niewielkim stopniu natomiast nazwa całej linii została przemianowana na FlashSystem-s.<br />
<b><u><br /></u></b>
W porównaniu DCIGa pojawiały się trzy macierze, jeszcze w starym nazewnictwie:<br />
<ul>
<li>RamSan 720</li>
<li>RamSan 810</li>
<li>RamSan 820</li>
</ul>
<br />
Seria 7xx jest oparta o pamięci eMLC, natomiast 8xx to flash typu SLC (Więcej o typach pamięci SSD można znaleźć <a href="http://metastorage.blogspot.com/2012/04/macierze-solid-state-demony-predkosci.html">TUTAJ</a> )<br />
<b><u><br /></u></b></div>
<div>
<b><u>Violin Memory</u></b><br />
<b><u><a href="http://www.violin-memory.com/i/">www.violin-memory.com</a></u></b><br />
<b><u><br /></u></b>
Violin to druga (oprócz TMS) firma o której można powiedzieć, że nie jest już startup-em tylko dojrzałym bytem specjalizującym się w macierzach AFA. Oprócz tego firma sprzedaje także flashowe karty PCI-Express.<br />
<br />
Violin w obszarze macierzy flashowych ma dwie główne rodziny produktów: Seria 3000 i Seria 6000. W obydwu znajdują się macierze zarówno oparte o dyski MLC jak i SLC, główną różnicą między rodzinami jest znacznie większe zabezpieczenie przed awariami (podwójne kontrolery, brak SPOFów) w przypadku Serii 6000.<br />
<ul>
<li>Series 3000: 3120/3202/3205/3210/3220</li>
<li>Series 6000: 6212/6232/6606/6616</li>
</ul>
<b><u><br /></u></b></div>
<div>
<b><u>Whiptail</u></b></div>
<div>
<a href="http://whiptail.com/">whiptail.com</a><br />
<br />
"Last but not least" - Whiptail, kolejny ze startupów wyspecjalizowany w sektorze macierzy AFA.<br />
Firma ma dwie (a w zasadzie 3 bo Invicta jest podzielona jeszcze na kategorię "normal" i "infinity") linie macierzy: Accela to macierze "entry level" z pojedynczym kontrolerem, o wymiarach 2U i różnych pojemnościach (od 1,5TB do 12TB), Invicta to architektura opierająca się na węzłach (nodes) o różnych wielkościach (6,12 i 24TB) które można ze sobą łączyć tworząc większe konfiguracje.<br />
<br />
W podsumowaniu DCIG uwzględnione zostały następujące modele:<br />
<ul>
<li>Accela ASSA 1500</li>
<li>Accela ASSA 3000</li>
<li>Accela ASSA 6000</li>
<li>Accela ASSA 12000</li>
<li>Invicta ISSA 6</li>
<li>Invicta ISSA 12</li>
<li>Invicta ISSA 24</li>
</ul>
</div>
<div>
<br />
<span style="font-size: x-large;"><b>Wyniki:</b></span><br />
<span style="font-size: x-large;"><b><br /></b></span>
<br />
Wyniki są trochę zaskakujące muszę przyznać.<br />
<br />
<b>"Best-in-Class":</b><br />
<br />
Pierwsze miejsce i kategorię "Best-in-class" zdobyła macierz Tergile Zebi HA2800. W większości ocenianych kategoriach otrzymała bardzo wysokie oceny a dodatkowo obsługuje wszystkie funkcjonalności zapewniane przez VAAI. Na plus zasługuje także bardzo duża ilość pamięci cache, obsługa replikacji lokalnej, zdalnej, wsparcie dla protokołów zarówno NASowych, jak i SANowych, a także bardzo efektywna deduplikcja. Zebi jestnie tylko macierzą All Flash, wspiera także konfiguracje hybrydowe z dyskami tradycyjnymi.<br />
<br />
<b>"Recommended":</b><br />
<br />
Kolejne 4 macierze zostały ocenione jako "Recommended". Serbrny medal trafił do PureStorage FA320, a następna trójka to produkty firmy Nimbus (zarówno S jak i E klasa). Macierze w tej klategorii cechowały się dobrym wsparciem dla VMware (choć nie wszyskie funkcjonalności VAAI były wspierane), a także dużą ilością dodatkowych własności takich jak np: thin provisioning czy replikacja - rzeczy te są standardem przy "tradycyjnych" macierzach ale w obszarze urządzeń flashowych nie są to zbyt popularne funkcjonalności - przynajmniej jeszcze do niedawna<br />
<br />
<b>"Excellent":</b><br />
<br />
Oczko niżej, pod recommended, jest kategoria Excellent, na którą załapało się 7 macierzy. Początek tej listy to pozostałe urządzenia Nimbusa i PureStorage, zaraz za nimi grupa 3 macierzy Violin Memory (seria 6xxx) i na końcu GreenBytes. Urządzenia które tutaj trafiły miały nieco gorsze (ale wciąż bardzo dobre) oceny z poszczególnych kategorii i obsługę dodatkowych funkcjonalności. Wszyskie miały też conajmniej 96GB pamięci Cache oraz wspierały zarówno FC jak i iSCSI - nie wszyskie jednak obsługiwały dostęp plikowy.<br />
<br />
<b>"Good":</b><br />
<br />
Największa kategoria - 14macierzy. Zaczna się od Violina, potem Huawei i pozostałe macierze Violinowe, wymieszane z Whiptail. Można powiedzieć, że urządzenia "Good" to taki trochę standard na rynku. Wsparcie raczej tylko dla portokołów SANowych, brak deduplikacji, raczej ubogo z innymi funkcjonalnościami (np: Thin Provisioning").<br />
<br />
<b>"Basic":</b><br />
<br />
Na końcu macierze "proste/podstawowe", 8 modeli z czego na początku Huawei, potem Astute i Kaminaro, zaś ostatnie trzy miejsca w rangingu dzielnie zamykają produkty IBM/TMS.<br />
Basic to basic - jeden protokół SANowy, ubogo w dodatki, ciężkie zarządzanie...<br />
<br />
<br />
<span style="font-size: x-large;"><b>Podsumowanie:</b></span><br />
<span style="font-size: x-large;"><b><br /></b></span>
Jak wszystkie pozostałe "Buyers Guide"-y od DCIG, tak i ten stanowi bardzo dobre i obszerne porównanie produktów z danego obszaru. Osobiście zaskoczył mnie wynik - zarówno jeżeli chodzi o Tergile na miejscu pierwszym, jak i na TMSy (zwane od niedawna FlashSystem-s) na szarym końcu.<br />
No cóż, "raz na wozie, raz pod wozem".<br />
<br /></div>
<div>
<br /></div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-28119274925186279212013-04-03T20:57:00.000+02:002013-04-03T20:57:49.215+02:00Magiczny kwadrat Gartnera dla macierzy - 2013Dzisiaj zrobię "kopię" wpisu sprzed około półtora roku dotyczącą tzw: "magicznego kwadrata" Gartnera., czyli pewnego rodzaju benchmarku w którym firma ta przedstawia dostawców i produkty z wybranych obszarów oraz pozycjonuje je na osiach xy względem dwóch kryteriów: "ability to execute" i "completness of vision".<br />
<br />
W listopadzie 2011 opisałem tą metodologię i wynik jej zastosowania dla obszaru macierzy, a dzisiaj (z racji nowej analizy Gartnera dla tego zakresu) robimy powtórkę dla nowego "kwadrata" z marca 2013.<br />
<br />
Nie będę na nowo wymyślał opisu tylko przytoczę to co jest w poprzednim wpisie ( <a href="http://metastorage.blogspot.com/2011/12/magiczny-kwadrat-gartnera-dla-macierzy.html">Gartner 2011</a> ):<br />
<br />
<span style="color: blue; font-family: Arial, Helvetica, sans-serif;"><i><span style="background-color: #eaeaea; line-height: 18px;">Kwadrat ten jest układem współrzędnych, gdzie na osi poziomej mamy "completness of vision" co można nazwać innowacyjnością i potencjałem jaki tkwi w danej firmie, na osi pionowej natomiast "ability to execute" czyli jaką siłę przebicia i pozycję na rynku ma dany dostawca.</span><br style="background-color: #eaeaea; line-height: 18px;" /><span style="background-color: #eaeaea; line-height: 18px;">Te dwie linie dzielą cały duży "kwadrat" na cztery mniejsze. Obecność w danym "kwadraciku" pozwala (oczywiście w przybliżeniu) zaklasyfikowac daną firmę i ocenić jej produkty.</span><br style="background-color: #eaeaea; line-height: 18px;" /><br style="background-color: #eaeaea; line-height: 18px;" /><span style="background-color: #eaeaea; line-height: 18px;">Te cztery mniejsze "kwadraciki" to:</span></i></span><br />
<ul style="background-color: #eaeaea; line-height: 18px; list-style-image: initial; list-style-position: initial; margin: 0.5em 0px; padding: 0px 2.5em;">
<li style="border: none; margin: 0px 0px 0.25em; padding: 0.25em 0px;"><span style="color: blue; font-family: Arial, Helvetica, sans-serif;"><i>Leaders (wysoka "completness of vision" i wysoka "ability to execute") - firmy liderzy, dobra pozycja na rynku, duże możliwości i duży potencjał na rozwój</i></span></li>
<li style="border: none; margin: 0px 0px 0.25em; padding: 0.25em 0px;"><span style="color: blue; font-family: Arial, Helvetica, sans-serif;"><i>Challengers (niska"completness of vision" i wysoka "ability to execute") - firmy o dużych możliwościach marketingowo-sprzedażowych, silnej pozycji ale nieco w stagnacji. Mniej innowacyjne i nowoczesne.</i></span></li>
<li style="border: none; margin: 0px 0px 0.25em; padding: 0.25em 0px;"><span style="color: blue; font-family: Arial, Helvetica, sans-serif;"><i>Visionares(wysoka "completness of vision" i niska "ability to execute") - zwykle małe firmy z małym udziałem na rynku, ale oferującym bardzo nowatorskie rozwiązania.</i></span></li>
<li style="border: none; margin: 0px 0px 0.25em; padding: 0.25em 0px;"><span style="color: blue; font-family: Arial, Helvetica, sans-serif;"><i>Niche players(niska "completness of vision" i niska "ability to execute") - gracze "niszowi" zwykle nie liczący się na danym rynku i z gorszymi rozwiązaniami niż konkurencja</i></span></li>
</ul>
<br />
<br />
Tyle opisu z poprzedniego wpisu. Jak rozkład liderów, "gwiazd" i reszty graczy na rynku macierzy wygląda pod koniec pierwszego kwartału 2013 i jak sytuacja się zmieniła od 2011 (przynajmniej według Gartnera)?<br />
Porównanie jest następujące:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhaAadnVxZvZsB_q0jNQluiyiIn7YBMwx00BLu8RYW1QjYa-6Qiho754KEJNxhLl1aibKQ5G5u7GZ7QKwDIsT4fYaQn5VaPMU2Eh8A7gaAzRxM9T0158tiNqRhVRjWDA5ZTRncNOsAvz9Tp/s1600/gartner.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="378" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhaAadnVxZvZsB_q0jNQluiyiIn7YBMwx00BLu8RYW1QjYa-6Qiho754KEJNxhLl1aibKQ5G5u7GZ7QKwDIsT4fYaQn5VaPMU2Eh8A7gaAzRxM9T0158tiNqRhVRjWDA5ZTRncNOsAvz9Tp/s640/gartner.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: Gartner 2011 i 2013<br /></td></tr>
</tbody></table>
Jak to wygląda w poszczególnych częściach?<br />
Chciałbym skupić się na najbardziej interesującym kwadracie "liderów":<br />
<br />
<u>Leaders:</u><br />
Gdybyśmy mieli popatrzeć na sam rok 2013 to widzimy zdecydowaną trójkę liderów (EMC,NetApp,Hitachi), który w obszarze wizji rozwoju idą "łeb w łeb" i tylko niewiele różnią się jeżeli chodzi o "skalę" i siłę przebicia (widać jeszcze przewagę EMC jako organizacji "bardziej dojrzałej' na rynku storage i z lepiej zorganizowanymi działami sprzedaży i marketingu). W porównaniu do 2011 to EMC dogoniło NetAppa jeżeli chodzi o wizję (portfolio) - czyżby zasługa nowych VMAXów? Bardzo duży skok zrobiło Hitachi, które półtorej roku temu pozycjonowane było gdzieś "w początku" części liderów, teraz ścisła czołówka ( doceniono nowe macierze HUS?)<br />
<br />
Także w obszarze liderów zostają pozostałe trzy firmy obecne tam w 2011r (HP, IBM, Dell) ale wydaje mi się że Gartner ocenił je słabiej niż rok temu. Trudno się nie zgodzić, dalej jest to czołówka, ale do ścisłego peletonu trochę im brakuje i wydaje mi się że ten dystans się powiększa.<br />
<br />
<u>Reszta:</u><br />
W części "wizjonerów", czyli firm które mogą nas czymś zaskoczyć, do X-IO (nie mylić z XtremIO- to inne firmy) dołączyły dwie nowości nie uwzględnione w zeszłym porównaniu - Coraid i Nimble Storage.<br />
Część określona jako "Challangers" - ja to tłumaczę jako "wyrobnicy" (sprzedajemy sporo, ale nie rozwijamy się) to Fujitsu i Oracle - firmy dla których storage nie jest najważniejszym produktem i raczej nie w tym kierunku idą u nich budżety R&D. Dołączył do nich jeszcze DataDirect Networks poprzez awans z kwadracika "niche players".<br />
"Ogon" czyli część "niche players" to zbieranina różnych mniejszy i większych firm, jest tam gęściej teraz niż w 2011. Ta dolna lewa część kwadratu Gartnera to może i nie prestiżowe miejsce ale graczy na tym rynku pewnie wartościowe jest w ogóle bycie uwzględnionym w tym porównaniu. Lepiej być "niche player"-em niż zostać zignorowanym przez analityków Gartnera.<br />
<br />
Tyle jeżeli chodzi o takie skrótowe opisanie kwadracika Gartnera za 2013 dla macierzy i porównanie go do 2011. Dla zainteresowanych poniżej jest link z dość dokładnym opisaniem poszczególnych firm biorących udział w porównaniu.<br />
<br />
<span style="font-size: large;">Do poczytania:</span><br />
<a href="http://www.storagenewsletter.com/news/marketreport/gartner-magic-quadrant-raid">Gartner magic quadrant</a><br />
<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-63212323467326655582013-03-25T22:33:00.003+01:002013-03-25T22:33:54.049+01:00Macierze midrange-unified - poradnik kupującego na 2013Trochę odpuściłem ostatnio pisanie na bloga. Powody rożne i nie ma ich co roztrząsać postaram się o poprawę ale duże zmiany idą u mnie w życiu zawodowym tak wiec zobaczymy jak to finalnie wyjdzie.<br />
<div>
<br /></div>
<div>
Ostatni wpis był o poradniku dotyczącym backup appliancow od DCIG, od czasu jego pokazania ukazał się kolejny "buyer's guide" tej firmy, tym razem o macierzach klasy midrange unified, czyli obsługujących ruch zarówno blokowy (SAN) jak i plikowy (NAS).</div>
<div>
<br /></div>
<div>
Bazując na strukturze poprzedniego wpisu przyjrzymy się najpierw założeniom do testów potem funkcjonalnością i parametrom jakie były porównywane przez redaktorów DCIG, następnie samym "uczestnikom" testu i na końcu wynikom.</div>
<div>
<br /></div>
<div>
<b><span style="font-size: x-large;">Zalozenia:</span></b></div>
<div>
<span style="font-size: large;"><br /></span></div>
<div>
Aby dany produkt został zaklasyfikowany do grupy midrange unified i dopuszczony do testu musiał spełniać następujące wymagania:</div>
<div>
<div>
<br /></div>
</div>
<div>
<ul>
<li>Mieć postać odrębnego urządzenia, które zawiera w sobie cały hardware i software(firmware)</li>
<li>Prezentować zasoby dyskowe jako pojedynczy system plików w globalnej przestrzeni nazw</li>
<li>Obsłużyć zarówno NFS jak i CIFS</li>
<li>Obsłużyć przynajmniej jeden z protokołów SANowych (np: iSCSI,FCP,FCoE)</li>
<li>Mieć możliwość wystawiania lokalnie zasobów dyskowych (to założenie które wydaje się naturalne dla macierzy miało na celu wyeliminowanie urządzeń typu "cloud gateway" czyli pseudo-macierzy które tak naprawdę jedynie pośrednicza w transporcie danych z/do chmury publicznej)</li>
<li>Musza być w stanie obsłużyć conajmniej dwa kontrolery (czyli odpadają macierze z pojedyncza jednostka zarządzająca - nie sa one uznawane za klasę midrange)</li>
<li>Musi być w stanie obsłużyć co najmniej 24 dyski</li>
<li>Musi być w stanie obsłużyć co najmniej 60TB przestrzeni (surowej)</li>
</ul>
</div>
<div>
<br /></div>
<div>
<b><span style="font-size: x-large;">Kryteria oceniania:</span></b><br />
<br />
Macierze były porównywane w pięciu obszarach:<br />
<br />
<ul>
<li><b>Zarządzanie i replikacja (MANAGEMENT & REPLICATION)</b></li>
<li><b>Warstwa aplikacyjna (APPLICATION LAYER)</b></li>
<li><b>Sprzęt (HARDWARE)</b></li>
<li><b>Integracja z VMware (WMVARE vSPHERE INTEGRATION)</b></li>
<li><b>Wsparcie (SUPPORT)</b></li>
</ul>
</div>
<div>
<br />
<b><span style="font-size: large;">Zarzadzenie i replikacja:</span></b><br />
<ul>
<li><b>Management Software - </b>informacja czy oprogramowanie zarządzające macierzą pozwala na użycie wszystkich jej funkcjonalności, czy pewne opcje są dostępne dopiero jako odrębne licencje</li>
<li><b>Asynchronous Replication - </b>czy macierz obsługuje replikacje. Mam tutaj pewna niepewność co do definicji asynchronicznej replikacji w rozumieniu DCIG, ponieważ opis tego parametru de facto wygląda jako ogólny opis replikacji nie replikacji asynchronicznej.</li>
<li><b>Snapshots </b>- czy dana macierz obsługuje kopie migawkowe (snapshots) czyli obrazy "z danego punktu w czasie" systemu plików lub wolumenu (LUNa). Wyliczone jest także jakie rodzaje snapshotow obsługuje macierz. Wyróżnione zostały następujące metody:</li>
<ul>
<li><u>Allocate-on-Write (AoW)</u> - przy stworzeniu snapshota, tworzona jest tablica ze wskaźnikami do wszystkich danych. W przypadku gdy dane na wolumenie mają zostać zmienione, modyfikowane bloki są zapisywane w nowym miejscu i tablica wskaźników jest zmieniana tak aby wskazywać na nowe bloki danych. Oryginalne dane pozostają niezmienione i w pierwotnej lokalizacji. Snapshot zajmuje jedynie tyle miejsca, ile zmienione od czasu jego powstanie dane.</li>
<li><u>Copy-on-Write (CoW) </u>- podobnie jak w metodzie AoW tworzona jest tablica wskaźników. W momencie jednak kiedy dane oryginalne mają zostać zmienione, zostają one przekopiowane w nowe miejsce, a następnie oryginalna wartość i lokalizacja zostają nadpisane nowymi. </li>
<li><u>Replica </u>- DCIG podaje replikę jako rodzaj snapshotu, choć nie jest to kopia migawkowa, tylko inny twór. Replika jest to kopia danych stworzona z oryginalnego snapshota i umieszczona na innej macierzy tego samego typu. Replika zajmuje tyle samo miejsca co oryginał (jest to jego kopia)</li>
<li><u>Split-Mirror</u> - kolejny typ snapshotu, który (moim zdaniem) nie jest do końca "tradycyjnym" snapshotem. Split Mirror powstaje kiedy wolumen działający w konfiguracji mirror (wszystkie dane zapisywane w dwóch kopiach), zostaje "podzielony". Od momentu podzielenia jedna część jest aktywna i może się zmieniać, druga stanowi "snapshot" - i dostępna jest jedynie do odczytu.</li>
</ul>
<li><b>Application Aware Snapshot - </b>czy snapshot wykonywany przez macierz jest "świadomy" aplikacji która korzysta z danych znajdujących się na wolumenie. Jest to bardzo istotne w przypadku np: baz danych gdzie ykonanie kopii migawkowej na poziomie macierzy (gdy macierz "nie wie" jaką aplikację snapshotuje) nie gwarantuje zachowania konsystencji danych</li>
<li><b>Thin Provisioning - </b>czy macierz wspiera technologię "thin provisioning", czyli alokowanie na macierzy tylko tej przestrzeni, która jest rzeczywiście wykorzystywana przez hosty</li>
<li><b>Automated Storage Reclamation -</b> technologia wspierające "thin provisionig".O ile ten pierwszy dba o to żeby miejsce nie używane nie było alokowane na macierzy, proces Reclamation, zwalnia przestrzeń która była już nie jest używana (np: dane zostały skasowane)</li>
<li><b>Zero Reclamation API - </b>wsparcie dla Symantec Zero Reclamation API - technologii również używanej do odzyskiwania już nieużywanej przestrzeni z macierzy. Ta funkcjonalność może być wykorzystane jedynie jeżeli systemy podpięte do macierzy korzystają z Symantec Storage Foundation</li>
<li><b>Quotas - </b>czy rozwiązanie wspiera obsługę "limitów" (quota) w ilości plików, wielkości itd.. dla użytkowników</li>
<li><b>Thereshold Alerts - </b>kontrola i alarmowanie o przekroczeniu pewnych zdefiniowanych wcześniej progów (zwykle dotyczących utylizacji przestrzeni - np: 90% zapełnienie)</li>
<li><b>Deduplication - </b>czy macierz wspiera deduplikację danych</li>
<li><b>Sub-volume Tiering (Type/Level) - </b>opis opcji jest trochę enigmatyczny, ale najprawdopodobniej chodzi tutaj o obsługę przez macierz auto-tieringu, czyli automatycznym przenoszeniu danych na dyski o odpowiednich dla nich prędkościach</li>
<li><b>Management Interfaces - </b>wymieniona są możliwości w jakie macierz może być zarządzana Możliwe są następujące rozwiązania: Aplikacja, CLI, SSH, Web-based GUI</li>
<li><b>Unified Management of Similar Devices - </b>czy możliwe jest zarządzanie wieloma urządzeniami tego samego/podobnego typu z poziomu jednego narzędzia (bez potrzeby logowania się na każde osobno)</li>
<li><b>SNMP - </b>czy macierz może być monitorowana za pomocą SNMP</li>
<li><b>Notification and Logging - </b>wymienione są możliwości wysyłania i odbierania logów z macierzy</li>
<li><b>NDMP - </b>czy macierz obsługuje NDMP (protokół do wykonywania backupów urządzeń NAS)</li>
<li><b>Cloud Storage Support -</b> czy macierz wspiera (a jeżeli tak to jakie dokładnie rozwiązana) wysyłanie/odbieranie/migrację danych z/do chmury.</li>
<li><b>NAS Virtualization - </b>czy macierz wspiera wirtualizację NAS - tutaj rozumianą jako możliwość spartycjonowania na kilka wirtualnych urządzeń NAS.</li>
</ul>
<b><span style="font-size: large;"><br /></span></b>
<b><span style="font-size: large;">Application Layer</span></b><br />
<ul>
<li><b>Network File System - </b>jakie systemy plików sieciowych wspiera dane urządzenie. Do wyboru : NFS,CIFS,WebDAV</li>
<li><b>Concurrent NFS/CIFS Mix - </b>czy urządzenie potrafi obsługiwać jednocześnie NFS i CIFS</li>
<li><b>Other Data Transfer Protocols -</b> czy urządzenie wspiera dostęp po FTP lub SFTP</li>
<li><b>PSK Authentication over HTTPS - </b>czy rozwiązanie wspiera użycie mechanizmu Pre-Shared Key przy używaniu HTTPS</li>
<li><b>Authentication Protocols - </b>jakiego rodzaju mechanizmy autentyfikacji mogą być użyte na macierzy. Wyróżnione zostały:</li>
<ul>
<li><u>Active Directory </u>- logowanie z użyciem hasła i użytkownika z AD</li>
<li><u>Host/IP</u> - ograniczenie dostępu do macierzy tylko dla określonych hostów lub adresów IP</li>
<li><u>LDAP</u> - użycie systemu LDAP</li>
<li><u>NIS/NIS+</u> - użycie NIS lub NIS+</li>
</ul>
</ul>
<b><span style="font-size: large;"><br /></span></b>
<b><span style="font-size: large;">Hardware</span></b><br />
<ul>
<li><b>Controller Interfases - </b>obsługiwane interfejsy pomiędzy napędami dyskowymi a kontrolerami. Możliwości: FC-AL (Fibre Channel Arbitrated Loop), FC-SW (Fibre Channel Switched Fabric), SAS,SATA</li>
<li><b>Raw Storage Capacity (Max) - </b>maksymalna "surowa" (przed konfiguracja w RAID) przestrzeń</li>
<li><b>RAID Options -</b> jakie rodzaje RAIDów są wspierane</li>
<li><b>7.2k RPM FC/SAS HDD - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>10k RPM FC/SAS HDD</b><b> - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>15k RPM FC/SAS HDD</b><b> - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>5,4k RPM SATA HDD</b><b> - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>7.2k RPM SATA HDD</b><b> - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>SSD</b><b> - </b>czy i jakie (jakie pojemności) dysków danego typu są wspierane</li>
<li><b>Concurrent HDD Mix- </b>czy w obrębie jednego węzła (node) można mieszać dyski różnych rodzajów. Niestety nie do końca wyjaśnione jest jak rozumieć pojęcie noda.</li>
<li><b>FLASH-Based Caching - </b>czy dyski SSD mogą być używane jako cache (czyli nie do docelowego przechowania danych ale jako bufor przed ich "zrzutem" na dyski mechaniczne). Wyróżnione zostały następujące warianty działania dysków SSD</li>
<ul>
<li><u>Read Caching</u> - SSD jako cache tylko dla odczytów</li>
<li><u>Write Caching</u> - SSD jako cache do zapisów</li>
<li><u>Write Journaling</u> - podobne rozwiązanie jak powyższe, także do cachowania zapisów</li>
<li><u>Block I/O Acceleration</u> - użycie cache tylko dla dostępu blokowego (SAN)</li>
<li><u>NAS Acceleration </u>- użycie cache tylko dla dostępu plikowego (NAS)</li>
</ul>
<li><b>Cache (Max) - </b>maksymalna liczba obsługiwanej pamięci RAM</li>
<li><b>Controller Config - </b>w jakich konfiguracjach mogą pracować kontrolery (np: active-active, active-passive itd..)</li>
<li><b>Scale-Out Config (Max Nodes) - </b>do ilu węzłów skaluje się rozwiązanie</li>
<li><b>Cluster Config (Max Nodes) - </b>ile maksymalnie węzłów może wchodzić w stworzyć klaster HA</li>
<li><b>1/10 Gb Ehernet Ports (Max) </b>- ile portów 1 i 10Gb Ethernetowych może mieć dane urządzenie</li>
<li><b>4/8 Gb Fibre Channel or 8 Gb Fibre Channel - </b>j.w ale dotyczy portów FC</li>
<li><b>iSCSI - </b>czy rozwiązanie wspiera protokół iSCSI (dotęp blokowy po sieci LAN)</li>
<li><b>Concurrent FC/iSCSI Mix - c<span style="font-weight: normal;">zy urządzenie może jednocześnie udostępniać zasoby po FC i iSCSI</span></b></li>
<li><b>Concurrent NAS/SAN Mix - </b>czy urządzenie może jednocześnie udostępniać zasoby plikowe (NAS) i blokowe (SAN)</li>
<li><b>Power Supplies (Redundant/Hot Swap) - </b>czy urządzenie posiada redundantne zasilacze i czy można je wymieniać podczas pracy urządzenia</li>
<li><b>Fans (Redundant/Hot Swap) - </b>czy urządzenie posiada redundantne wiatraki i czy można je wymieniać podczas pracy urządzenia</li>
<li><b>Hot Swap Drives - </b>czy uszkodzone dyski mogą być wymieniane bez wyłączania macierzy</li>
<li><b>Global Hot Spares - </b>czy urządzenie ma możliwość wydzielenia grupy dysków na tzw: hot spare (dyski automatycznie zastępujące uszkodzone napędy)</li>
<li><b>Managed UPS/Battery Backup - </b>czy urządzenie może automatycznie wyłączyć się lub przejść w tryb oszczędny po informacji z UPS o zaniku zasilania</li>
<li><b>RoHS Compliant - </b>czy urządzenie jest zgodne z rekomendacją dotyczącą braku szkodliwych substancji (Restiction of Hazardois Substances Directive)</li>
</ul>
</div>
<div>
<b><br /></b>
<b><span style="font-size: large;">VMWare vSphere Integration</span></b><br />
<ul>
<li><b>VAAI (vStorage API Array Integration) - </b>obsługa VAAI, czyli API, które dostarcza VMware (od wersji vSphere 4.1 )a ktore wykorzystanie pozwala na przesunięcie wykonania pewnych zadań związanych z ruchem i obsługą I/O, z warstwy samego VMware do macierzy.Operacje jakie wspiera VAAI są następujące:</li>
<ul>
<li><u>Full Copy - </u>używane do robienia kopii danych/klonów - dzięki tej funkcji VAAI redukujemy ruch danych do i z hosta podczas tej operacji</li>
<li><u>Hardware Assisted Locking</u> - przesunięcie (z ESXa na hardware macierzy) pilnowania i kontroli nad blokadami zakładanymi na dany i LUNy podczas różnych operacji aktualizowania i zmiany danego zasobu.</li>
<li><u>Block Zeroing </u> - pozwala macierzy wyzerować (nadpisać zerami) duże przestrzenie danych</li>
<li><u>Dead Space Reclamation</u> - ESX informuje macierz, że zaalokowana przestrzeń nie jest dłużej już wykorzystywana (np: rezydująca na niej VMka została przesunięta na inny datastore lub usunięta) i może zostać odzyskana</li>
<li><u>Full File Clone</u>- tworzenie klona zasoby NAS</li>
<li><u>Out of Space Conditions</u> - obsługa pewnych progów ostrzegających przed kończącym się miejscem oraz umożliwienie "zatrzymania" danej VMki do czasu aż przestrzeń jej potrzebna zostanie poszerzona</li>
<li><u>Reserve Space</u> - tworzenie przestrzeni "zarezerwowanych"</li>
</ul>
<li><b>VASA (vStorage API for Storage Awarness) - </b>kolejne API dostarczane przez VMware. Wykorzystanie go pozwala ESXowi uzyskać pewne informacje o wystawionych dla niego zasobach dyskowych, które normalnie są niewidoczne.<b> </b></li>
<li><b>SIOC (Storage I/O Control for VMware) - </b> i jeszcze jedno API z VMware. Tym razem dbające o to aby żaden zasób z VMware nie zmonopolizował wykorzystania macierzy.</li>
<li><b>Load Balancing - </b>czy urządzenie wspiera load balancing ruchu sterowany z poziomu vSphere</li>
<li><b>Snapshot Integration - </b>czy urządzenie integruje się ze snapshotami wykonywanymi przez vSphere</li>
</ul>
<span style="font-size: large;"><b><br /></b></span>
<span style="font-size: large;"><b>Support</b></span><br />
<ul>
<li><b>Hardware Warranty - </b> ile gwarancji producent daje dla swojego urządzenia</li>
<li><b>Contract Support Avaliability - </b>w jakich godzinach/dniach dostępne jest wsparcie (np: bussines hours, 24x7 etc...)</li>
<li><b>Contract Support Methods - </b>sposób kontaktu z wsparciem (np: email/telefon/czat)</li>
<li><b>Non-Contract Support Availability - </b>w jakch godzinach dostępne jest wsparcie dla użytkowników którzy nie mają podpisanego kontraktu serwisowego</li>
<li><b>Non-Contract Support Methods - </b>jakie są sposoby kontaktu ze wsparcie dla użytkowników którzy nie mają podpisanego kontraktu serwisowego</li>
</ul>
<div>
<br /></div>
<div>
<span style="font-size: x-large;"><b>Przetestowane modele:</b></span></div>
<div>
<span style="font-size: x-large;"><b><br /></b></span></div>
<div>
W teście porównawczym wzięły udział następujące firmy:</div>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>DELL</b></span><br />
<a href="http://www.dell.com/">http://www.dell.com/</a></div>
<div>
<br /></div>
<div>
Ze "stajni" Dell-a oceniane były dwie macierze z serii EquaLogic (FS7500 i FS 7600) - nie posiadające interfejsów FC (obsługa dostępu blokowego poprzez iSCSI), a także Compellent Storage Center FS8600 NAS (typowa macierz unified) i model NX3600</div>
<div>
<br /></div>
<div>
<b><span style="font-size: large;">EMC</span></b><br />
<a href="http://www.emc.com/">http://www.emc.com</a></div>
<div>
<br /></div>
<div>
Największy dostawca i producent w obszarze storage miał swoich reprezentantów z dwóch "rodzin". Pierwsza z nich ma korzenie NASowe (i to te bardziej z obszaru enterprise) - mowa o macierzy Isilon (startują przdstawiciele serii NL,S i X), druga to VNX czyli macierz midrange będąca połączeniem Clariiona (SAN) i Celery (NAS)<br />
<br />
<span style="font-size: large;"><b>HDS</b></span><br />
<a href="http://www.hds.com/">http://www.hds.com/</a><br />
<br />
Hitachi startuje z trójką swoich HUSów (Hitachi Unifed Storage) - HUS 110/130/150</div>
<div>
<div>
<br />
<span style="font-size: large;"><b>IBM</b></span><br />
<a href="http://www-03.ibm.com/systems/storage/">http://www-03.ibm.com/systems/storage/</a><br />
<br />
IBM ma tylko jednego przedstawiciela: Storwise V7000 Unifed, pozostałe produkty z obszaru storage od tego producenta obsługują tylko jeden z typów ruchu blokowy( XIV, seria DS) lub plikowy ( N-series) tak więc nie zakwaliwikowały się do tego "buyers guide"-a<br />
<br /></div>
</div>
<div>
<span style="font-size: large;"><b>IceWEB</b></span></div>
<div>
<a href="http://www.iceweb.com/">http://www.iceweb.com/</a><br />
<br />
Firma o której produktach nie wiem zbyt dużo. Szybki rzut oka na stronę i na portfolio pokazuje "standardowe" macierze klasy midrange. W porównaniu DCIGa udział wzięły trzy modele: 3000, 6500 oraz 7000<br />
<br /></div>
<div>
<span style="font-size: large;"><b>NetApp</b></span><br />
<a href="http://www.netapp.com/">http://www.netapp.com</a><br />
<br />
Kolejny duży gracz na rynku storage, regularnie "podgryzający" obecnego lidera czyli EMC. Nie wiedzieć czemu w porównaniu DCIGa uczestniczyła tylko seria 3200 (modele FAS3210/3220/3240/3250/3270), topowe macierze serii 6200 nie zostały uwzględnione.</div>
<div>
<ul>
</ul>
<div>
<span style="font-size: large;"><b>Nexsan</b></span><br />
<a href="http://www.nexsan.com/">http://www.nexsan.com/</a><br />
<br />
Jeszcze jedna firma działające w "branży". Jej produkty mają "wyposażenie" i funkcjonalności standardowe dla rozwiązań innych producentów (podwójne kontrolery, replikacja lokalna i zdalna, auto-tiering itd...). W kompendium mamy ocenione modele NST5100/5300/5500<br />
<br /></div>
</div>
<div>
<span style="font-size: large;"><b>Starboard</b></span><br />
<a href="http://www.starboardstorage.com/">http://www.starboardstorage.com/</a><br />
<br />
Druga z mniej mi znanych firm występujących w tym porównaniu. Ocenione zostały dwa jej produkty( AC45 Storage System i AC72 Storage System) i nie wypadły jakoś porywająco.<br />
<br />
<span style="font-size: x-large;"><b>Wyniki:</b></span><br />
<span style="font-size: x-large;"><b><br /></b></span>
Czołówka (pierwsze 4 miejsca) zajmują macierze NetApp z modelem FAS3270 na czele. Ogólne rzecz biorąc, cała konkurencja została znokautowana.<br />
Za serią NetAppa uplasowały się modele EMC VNX (miejsca 5,6 i 8) oraz HDS (7,9,10).<br />
Z tyłu poza pierwszą dziesiątką mamy IBMa, Dell Compellent oraz różne modele Nexsana i IceWeba.<br />
Końcówka czyli druga dziesiątka to pozostałe DELLe, Isilony oraz VNXe z EMC a także Starboard.<br />
<br />
Trochę zaskakująco jeżeli chodzi o zwycięzcę. NetApp zawsze wydawał mi się bardziej "eleganckim" rozwiązanie niż np: VNX gdzie de facto dwa osobne rozwiązania (z czego jedno działające na Windowsie, drugie na Linux-ie) są "upychane" w jednym racku i sprzedawane jako macierz unified, ale jak widzę porównanie także samych możliwości a nie samej architektury wychodzi na plus dla NetApp-a.<br />
Brawo.<br />
<br />
<b><span style="font-size: x-large;">Podsumowanie:</span></b><br />
<br />
Jak zwykle DCIG nie zawiódł i przygotował świetny materiał dla osób przymierzających się do zakupu macierzy midrange lub zainteresowanych tym tematem.<br />
Natomiast już wyszedł kolejny "buyers guide" tym razem o macierzach AFA (All flash arrays) co jest tematem bardzo ostatnio gorącym. Już wiem o czym będzie kolejny wpis,mam nadzieję tylko że uda mi się go przygotować nieco szybciej niż ten ;)<br />
<br />
<span style="font-size: x-large;"><br /></span></div>
</div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com1tag:blogger.com,1999:blog-6066850349722089871.post-7816566120241365632012-10-08T20:39:00.001+02:002012-10-08T20:39:15.130+02:00Backup Appliances - mega poradnik dla kupującychBardzo dobrym źródłem informacji o rynku pamięci masowych i backupu jest portal DCIG (<a href="http://www.dcig.com/">http://www.dcig.com/</a>). Znajdują się tam artykuły, wywiady oraz nowości z tego obszaru, ale najlepszym materiałem jaki tam można znaleźć są publikowane co kilka miesięcy tzw: "buyers guides". Są to <u>darmowe </u>(dostępne po rejestracji), bardzo obszerne (od kilkudziesięciu do kilkuset stron) opracowania i porównanie produktów z danej kategorii.<br />
<br />
Około miesiąca temu pojawił się kolejny "poradnik" tym razem dotyczący urządzeń dedykowanych do backupu.<br />
Można go znaleźć pod tym linkiem:<br />
<a href="http://www.dcig.com/buyersguides/">http://www.dcig.com/buyersguides/</a>
<br />
<br />
<b><br /></b>
<b><span style="font-size: x-large;">Założenia:</span></b><br />
<br />
Aby zostać zakwalifikowanym do porównania jako "backup appliance" urządzenie musiało spełniać następujące kryteria:<br />
<ul>
<li>Musiało być dostępne w sprzedaży jako fizyczne urządzenie ze zintegrowanym oprogramowaniem do wykonywania backup</li>
<li>Musiało być w stanie przechowywać dane na storage podłączonym w modelu DAS,NAS lub SAN</li>
<li>Musiało być dostępne w sprzedaży 1 lipca 2012</li>
</ul>
<div>
Urządzenia były oceniane w pięciu głównych kategoriach (Deduplication,Virtualization,Cloud,Hardware,Software) a każda z nich była punktowana w kilku elementach:</div>
<div>
<br /></div>
<div>
<b><span style="font-size: large;">Deduplication:</span></b><br />
Wszyskie opcje i funkcjonalności związane z deduplikacją danych.</div>
<div>
<ul>
<li><b>Deduplication </b>(Czy jest?)</li>
<li><b>License Included </b>(Czy jej uruchomienie wymaga dotatkowej licencji)</li>
<li><b>Dedupe Options</b> (Na jakim poziomie (blok,plik) jest robiona)</li>
<li><b>Dedupe Mehods</b> (Jaka metoda (inline,post-process) deduplikacji jest używana)</li>
<li><b>Dedupe Implementation Types </b>(Jak deduplikacja została zaimplementowana)</li>
</ul>
<div>
<span style="font-size: large;"><b>Virtualization:</b></span><br />
W jaki sposób applianc-e wspiera i integruje się ze środowiskami zwirtualizowanymi (głównie VMware)</div>
</div>
<div>
<ul>
<li><b>Natively Hosts Virtual OS</b> (Czy OS urządzenia wspiera środowiska wirtualne)</li>
<li><b>Virtual OS(es) </b>(Jeżeli urządzenie może działać w środowisku zwirtualizowanym, jakie hypervisory wspiera - HyperV,VMware,Citrix)</li>
<li><b>Backup SW Runes on VM </b>(Czy można skonfigurować oprogramowanie urządzenia tak żeby działało na wirtualnej maszynie)</li>
<li><b>Automatic VM Creation </b>(Czy urządzenie jest w stanie tworzyć własne wirtualne maszyny)</li>
<li><b>Recover and Host App on VM </b>(Czy można odtworzyć aplikację na wirtualnej maszynie)</li>
<li><b>VADP </b>(Czy urządzenie wspiera vStorage API for Data Protection)</li>
<li><b>VMware vCenter Server Integration </b>(Czy urządzeniem można zarządzać z poziomu vCenter)</li>
<li><b>Monitors Performance from vCenter </b>(Czy można monitorować wydajność urządzenia i backupów z poziomu vCenter)</li>
<li><b>Data Protection for Appliance </b>(Czy urządzenie może zeskładować samo siebie)</li>
</ul>
<div>
<span style="font-size: large;"><b>Cloud:</b></span><br />
A w jaki sposób wspiera składowanie danych do chmury</div>
</div>
<div>
<ul>
<li><b>3rd Party Public Cloud Storage Providers (</b>Czy urządzenie może składować do "chmury publicznej" zwenętrznego dostawcy np:Amazon)</li>
<li><b>WAN Acceleration </b>(Czy i jaka akceleracja przesyłania danych do chmury przez sieć WAN jest wspierana)</li>
<li><b>Own Cloud Backup Service </b>(Czy dostawca urządzenia ma własną "chmurę" do wykorzystania przez appliance)</li>
<li><b>Encryption Methods </b>(Jakie sposoby szyfrowania danych wspiera urządzenie)</li>
<li><b>Encryption (Max) - </b>(Jezeli wspierane - jaki jest najwyższy poziom szyfrowania udostępniany)</li>
<li><b>Replication </b>(Czy urządzenie wspiera replikację danych do chmury)</li>
</ul>
<div>
<b><span style="font-size: large;">Hardware:</span></b><br />
Kilka kryteriów związanych z samym sprzętem i jego możliwościami</div>
</div>
<div>
<ul>
<li><b>Back End Storage Connection</b> (W jaki sposób do urządzenia można podłączyć storage/macierz)</li>
<li><b>Intel Platform Management Interface (IPMI) </b>(Czy urządzenie wspiera standard IPMI)</li>
<li><b>Storage Networking Interfaces </b>(Jakiego rodzaju interfejsy sieciowe np: 1/10Gb są wspierane przez urządzenie)</li>
<li><b>Storage Networking Interfaces (Max) </b>(Ile maksymalnie takich interfejsów może być)</li>
<li><b>Storage Network Protocols </b>(Jakie protokoły wymiany danych są wspierane)</li>
<li><b>Concurrent FC/Ethernet Mix </b>(Czy jednocześnie mogą być obsługiwane składowania po sieci Ethernet i SAN)</li>
<li><b>Network Types Used to Backup VM </b>(Jakie protokoły możemy wykorzystać do składowania maszyn wirtualnych)</li>
<li><b>Dual Controllers </b>(Czy urządzenie ma dwa kontrolery)</li>
<li><b>Scale Out (</b>Czy urządzenia można ze sobą łączyć, tak aby mogły pracować jako jedno o zwielokrotnionej wydajności)</li>
<li><b>Raw Storage (Max) </b>(Maksymalna ilość przestrzeni (surowej) jaką obsługuje dane urządzenie)</li>
<li><b>Cache (Max) </b>(Maksymalna ilość pamięci cache)</li>
<li><b>RAID Levels </b>(Jakie rodzaje RAIDów wspiera urządzenie)</li>
<li><b>HDDs (Max) </b>(Ile dysków HDD - wewnętrznych wspiera dane urządzenie)</li>
<li><b>SSD Capactity (Max) </b>(Analogicznie jak wyżej ale chodzi o maksymalną pojemność dysków SSD)</li>
<li><b>Concurrent HDD/SSD Mix</b> (Czy urządzenie wspiera jednoczesne użycie wewnętrznych dysków HDD i SSD)</li>
<li><b>Tape Library </b>(Czy wspierany jest backup/restore bezpośrednio z biblioteki taśmowej)</li>
<li><b>Internal Tape Drive</b> ( Czy urządzenie może mieć wewnętrzny napęd taśmowy)</li>
<li><b>Removable Disk Storage </b>(Czy urządzenie wspiera obsługę wymiennych pamięci dyskowych - takich jak np dyski RDX lub USB)</li>
<li><b>Redundant Components </b>(Jakie komponenty są redundantne i jeżeli są to czy są hot-swap)</li>
</ul>
<div>
<b><span style="font-size: large;">Software:</span></b><br />
Podobnie jak dla hardware, oprogramowanie badanych urządzeń także było "punktowane" w kilkunastu kategoriach.</div>
</div>
<div>
<ul>
<li><b>Management Interfaces </b>(Lista sposobów zarządzania urządzeniem np: GUI, CLI, Web GUI itd...)</li>
<li><b>Managament Methods </b>(Jakie z trzech metod zarządzania: SMTP Notification, SNMP Logging and Notification, Syslog wspiera urządzenie)</li>
<li><b>Performance Monitoring</b> (Czy urządzenie pozwala monitorować wydajność składowań)</li>
<li><b>PXE Preboot</b> (Czy wspierany jest PXE - Preboot eXectution Environment)</li>
<li><b>Attack Types Protected</b> (Przed jakiego rodzaju zagrożeniami urządzenie jest chronione)</li>
<li><b># Concurrent Backup Streams (Max) </b>(Ile jednocześnie strumieni backupu może iść)</li>
<li><b>Limit Number of Backup Streams (</b></li>
<li><b>Operating Systems </b>(Jakie systemy operacyjne wspiera urządzanie - czyt: z zasobów działających w jakich OSach urządzenie może robić kopie zapasowe)</li>
<li><b>Internal Storage Capacity Alerting </b>(Czy wspierana jest obsługa alarmów przy zblizaniu się do granicy pojemności)</li>
<li><b>Backup Trending</b> (Czy urządzenie potrafi pokazać trendy w ilości składowanych danych per klient/VM)</li>
<li><b>Backup Scheduling</b> (Czy można harmonogramować składowania)</li>
<li><b>Server Prioritization </b>(Czy urządzenie wspiera priorytetyzację wykonywania backupów np: pierwszeństwo dla systemu, który najdłużej jest bez kopii)</li>
<li><b>File Selection and Exclusion </b>(Czy można dodawać/wykluczać z backupu zasoby na poziomie pojedyńczego pliku)</li>
<li><b>Concurrent Backups/Restores</b> (Czy można jednocześnie wykonywać składowania i odtworzenia)</li>
<li><b>Physical Recovery Type </b>(Jakie są opcje odtwarzania maszyny fizycznej)</li>
<li><b>Bare Metal Restore </b>(Czy wspierane jest odtworzenie "bare metal")</li>
<li><b>Replication to other location w/ like HW </b>(Czy wspierana jest replikacja danych między dwoma identycznymi urządzeniami - jeżeli tak to jaki jest jej rodzaj)</li>
<li><b>Replication Fan-in/Fan-out Options</b> (Jeżeli replikacja jest wspierana to jakie są możliwości konfiguracji jej ilości źródeł i celów - np: 1:1 ; 1:N ; N:1 ; N:N)</li>
<li><b>Compression (While Replicating)</b> (Czy używana jest kompresja podczas replikacji) </li>
<li><b>Bandwidth Throttling (Replication) </b>(Czy można ustawić limit na ilość danych replikowanych jednocześnie przez urządzenie)</li>
<li><b>Concurrent Backup and Replication </b>(Czy urządzenie potrafi jednocześnie wykonywać backup i replikować dane)</li>
<li><b>Replication from Copy in 2nd Location </b>(Czy urządzenie potrafi wykonać odtworzenie z kopii danych wysłanych do zdalnej lokacji)</li>
<li><b>Backup Types</b> (Jaki rodzaj backupów jest wspierany: pełne,inkrementalne,przyrostowe)</li>
<li><b>Restore Types </b>(Jaki rodzaj odtworzeń jest wspierany. Do wyboru: V2V (virtual to virtual), V2P (Virtual to physical), P2V (Physical to virtual), P2P (Physical to Physical) )</li>
<li><b>Databases </b>(Czy urządzenie umożliwia składowanie baz danych w online. Jeżeli tak to których)</li>
<li><b>Applications </b>(Czy urządzenie wspiera wykonywanie składowań aplikacji. Jeżeli tak to których - np: Exchange,SharePoint)</li>
<li><b>3rd Party APIs</b> (Czy dostawca udostępnił API dla swojego urządzenia)</li>
</ul>
</div>
<hr />
<br />
<b style="font-size: xx-large;">Przetestowane modele:</b><br />
<br />
Sprawdzona została cała masa rozwiązań od najróżniejszych dostawców.<br />
Poniżej wymieniłem wszystkich uczestników porównania.<br />
<b style="font-size: xx-large;"><br /></b>
<b><span style="font-size: large;">Arkeia:</span></b><br />
<b><a href="http://www.arkeia.com/">http://www.arkeia.com/</a></b><br />
<br />
Firma dostarczająca urządzeń dla małych i średnich firm oraz zdalnych oddziałów (Remote Office).<br />
Jej appliance są proste w obsłudze i przystosowane do obsługi przez pracowników którzy nie są specjalistami w dziedzinie backupow.<br />
<br />
DCIG sprawdził wszystkie cztery modele oferowane przez Arkeia:<br />
<br />
<table border="0" cellpadding="0" cellspacing="0" style="border-collapse: collapse; width: 383px;">
<colgroup><col style="mso-width-alt: 14006; mso-width-source: userset; width: 287pt;" width="383"></col>
</colgroup><tbody>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt; width: 287pt;" width="383"><ul>
<li>R120 Backup
Appliance</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>R220 Backup Appliance</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>R320 Backup Appliance</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>R620 Backup Appliance</li>
</ul>
<div>
Porównanie techniczne:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiAl2M0avHZuaKHMYo_A5rKMiWhg8wdTzN2XEOLWn9vzi8n-qB8wi8bAolVPvFDl2HM4qcPANQy6ZQP2EvMaS2C1DPZR4UDuCj-LXqHBbyfv5pkZb3eWlWbGn9OphRTqm9qppexHcxGYCLJ/s1600/arkeia.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="480" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiAl2M0avHZuaKHMYo_A5rKMiWhg8wdTzN2XEOLWn9vzi8n-qB8wi8bAolVPvFDl2HM4qcPANQy6ZQP2EvMaS2C1DPZR4UDuCj-LXqHBbyfv5pkZb3eWlWbGn9OphRTqm9qppexHcxGYCLJ/s640/arkeia.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.arkeia.com/products/arkeia-network-backup/backup-server/physical-appliance">http://www.arkeia.com/products/arkeia-network-backup/backup-server/physical-appliance</a></td></tr>
</tbody></table>
<br />
<br />
<br /></div>
<div>
<b><span style="font-size: large;">Dell:</span></b><br />
<a href="http://www.dell.com/">www.dell.com</a><br />
<a href="http://www.sonicwall.com/">http://www.sonicwall.com/</a><br />
<b><span style="font-size: large;"><br /></span></b>
Ze "stajni" DELLa do kompedium załapały się dwa rodzaje produktów:<br />
Po pierwsze PowerVault DL2200 który jest przedstawicielem urządzeń typu Disk-to-Disk-to-Tape, które pozwala na wykonywanie kopii zapasowych na dyskach ( i ewentualnie później przenoszenie jej na taśmę).<br />
Druga rodzina produktów to grupa urządzeń firmy SonicWALL, która została przejęta przez Della w marcu tego roku.</div>
<div>
<b><span style="font-size: large;"><br /></span></b></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>PowerVault Backup to Disk DL2200</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>SonicWALL CDP 210</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>SonicWALL CDP 220</li>
</ul>
</td></tr>
<tr height="20" style="height: 15.0pt;"><td height="20" style="height: 15.0pt;"><ul>
<li>SonicWALL CDP 5040B</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>SonicWALL CDP 6080B</li>
</ul>
<div>
Dokładne dane techniczne SonicWALL-i jest dostępne pod tym linkiem:</div>
<div>
<a href="http://www.sonicwall.com/us/en/products/CDP_Appliances.html#tab=compare">http://www.sonicwall.com/us/en/products/CDP_Appliances.html#tab=compare</a>
</div>
<div>
<br /></div>
<div>
Zgrubne porównanie zastosowania poszczególnych modeli:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDm7clDdmgFTlqbvZcFMQNQVcE2ADQ5qkzOdeVFDnL2yfSN83fxoz06u5UR83rkJEk1L0uVF7yjoBgwMuDoVjj1Zm5kgj4pBSj4_GcusKQE1r9eabmgoNUjd5KPCVNE1yPWw59A0QCRDuD/s1600/sonicwall.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="352" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDm7clDdmgFTlqbvZcFMQNQVcE2ADQ5qkzOdeVFDnL2yfSN83fxoz06u5UR83rkJEk1L0uVF7yjoBgwMuDoVjj1Zm5kgj4pBSj4_GcusKQE1r9eabmgoNUjd5KPCVNE1yPWw59A0QCRDuD/s640/sonicwall.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.sonicwall.com/us/en/products/CDP_Appliances.html#tab=overview">http://www.sonicwall.com/us/en/products/CDP_Appliances.html#tab=overview</a></td></tr>
</tbody></table>
<br />
<br /></div>
<div>
<b><span style="font-size: large;">EMC:</span></b><br />
<a href="http://www.emc.com/">www.emc.com</a></div>
<div>
<b><span style="font-size: large;"><br /></span></b>
Tej firmy nie trzeba przestawiać żadnej osobie działającej w branży storage&backup. Jeżeli chodzi o obszar backupów to EMC ma kilka produktów: NetWorker - aplikacja do backupu, DataDomain - sprzętowy deduplikator i VTL oraz Avamar - aplikacja do backupu i software deduplikator.<br />
Ten ostatni występuje także jako tzw: Data Store, czyli pod postacią appliance.<br />
DCIG uwzględnił 4 modele Avamar Data Store:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Avamar Data Store 1.3TB</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Avamar Data Store 2.6TB</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Avamar Data Store 3.9TB</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Avamar Data Store 7.8TB</li>
</ul>
<div>
Tak naprawdę to te 4 wersje różnią się wyłącznie wielkością przestrzeni dyskowej. Data Store ma budowę modułową - docelowe urządzenie może składać się 16 takich składowych węzłów.<br />
Więcej danych: <a href="http://www.emc.com/collateral/software/data-sheet/h3454-avamar-data-stores.pdf">http://www.emc.com/collateral/software/data-sheet/h3454-avamar-data-stores.pdf</a><br />
<br />
<br /></div>
<div>
<b><span style="font-size: large;">EVault:</span></b><br />
<a href="http://www.evault.com/uk/">http://www.evault.com/uk/</a><br />
<br /></div>
<div>
EVault to firma, której właścicielem jest Segate, a skupia się na zagadnieniach związanych z backupem i archiwizacją.<br />
Następujące produkty zostały uwzględnione w kompedium backup appliance-ów:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Express Recovery Appliance (ERA)</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Plug-and-Protect Appliance
PNP1200XE</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Plug-and-Protect Appliance
PNP1200XV</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Plug-and-Protect Appliance PNP300</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Plug-and-Protect Appliance PNP600</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Plug-and-Protect Appliance
PNP600XE</li>
</ul>
<div>
ERA to urządzenie które oprócz backupu oferuje także replikację do zewnętrznej chmury publicznej.</div>
<div class="separator" style="clear: both; text-align: center;">
</div>
"Plug and Protect" to grupa produktów których założeniem jest szybka i bezproblemowa konfiguracja. Porównanie technicznych parametrów poniżej:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiG6cYJjnRAGHdi8uirUmtp1ltocEIrDO0hCF-atjU90vKym98p0wzlFH8zzYoK8prEYA1zkOpR5PdyQ0a0fKjtoEIQxsQKOrE6-KlHrz5Dy5AiABLSlf0AGbEhwdlwSGL9CxFCYGQRRF4F/s1600/PNP.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="448" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiG6cYJjnRAGHdi8uirUmtp1ltocEIrDO0hCF-atjU90vKym98p0wzlFH8zzYoK8prEYA1zkOpR5PdyQ0a0fKjtoEIQxsQKOrE6-KlHrz5Dy5AiABLSlf0AGbEhwdlwSGL9CxFCYGQRRF4F/s640/PNP.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.evault.com/export/sites/www/uk/assets/pdf/spec-sheets/evault-plug-n-protect_A4_ss_uk_w.pdf">http://www.evault.com/export/sites/www/uk/assets/pdf/spec-sheets/evault-plug-n-protect_A4_ss_uk_w.pdf</a></td></tr>
</tbody></table>
<div>
<br /></div>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Eversync:</b></span><br />
<b><a href="http://www.eversyncsolutions.com/">http://www.eversyncsolutions.com/</a></b></div>
<div>
<span style="font-size: large;"><b><br /></b></span>
Kolejna firma działająca w obszarze backupu dla małych i średnich firm. Posiada jedną rodzinę produktów różniących się wielkością i wydajnością.<br />
DCIG sprawdził je wszystkie:<br />
<span style="font-size: large;"><b><br /></b></span></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Eversync 1000</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Eversync 1500</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Eversync 2000</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Eversync 2500</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Eversync 4500</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Everysync 9500</li>
</ul>
<div>
Dane techniczne i funkcjonalności zapewniane przez urządzenia:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgeB9hDUyacZf195U2PBDn4NErgaaMWiHwOgAz4UZWCYZebR2xFFc4x9MJNNpXtXEysBdrt1kCReZsF1J5LsHgj33j-ccCVXudizNTgZkNF63NuTGarx9Esu-c-FCAVJYOK_yrLTH1iYdET/s1600/eversync1.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="336" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgeB9hDUyacZf195U2PBDn4NErgaaMWiHwOgAz4UZWCYZebR2xFFc4x9MJNNpXtXEysBdrt1kCReZsF1J5LsHgj33j-ccCVXudizNTgZkNF63NuTGarx9Esu-c-FCAVJYOK_yrLTH1iYdET/s640/eversync1.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.eversyncsolutions.com/pdf/product-spec-sheet.pdf">http://www.eversyncsolutions.com/pdf/product-spec-sheet.pdf</a></td></tr>
</tbody></table>
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjPJWt9cRKAxZ88dhAjAVEDwnXdv19o1Io_Mp2KuBiu6iITO3TwtjNbe8rIz3SgxlNHG5hT11fM2I8mC_tMABz5oMer5qaYxP8a5K7L4uH9DxbRGZOyVq8ss954G5Yyuox1UcFjrBhLfNtU/s1600/eversync2.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="362" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjPJWt9cRKAxZ88dhAjAVEDwnXdv19o1Io_Mp2KuBiu6iITO3TwtjNbe8rIz3SgxlNHG5hT11fM2I8mC_tMABz5oMer5qaYxP8a5K7L4uH9DxbRGZOyVq8ss954G5Yyuox1UcFjrBhLfNtU/s640/eversync2.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.eversyncsolutions.com/pdf/product-spec-sheet.pdf">http://www.eversyncsolutions.com/pdf/product-spec-sheet.pdf</a></td></tr>
</tbody></table>
<br />
<br /></div>
<div>
<b><span style="font-size: large;">Lortu:</span></b></div>
<div>
<a href="http://www.lortu.com/">http://www.lortu.com/</a>
<br />
<b><span style="font-size: large;"><br /></span></b>
Slogan firmy jest prosty: "Backup appliances with deduplication".<br />
Firma w portfolio ma trzy produkty:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>LDA-1</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>LDA-2</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>LDA-Mini</li>
</ul>
<div>
<br /></div>
<div>
Jeżeli chodzi o zgrubny rzut oka na poszczególne modele:</div>
<div>
<br /></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxY_wKtITzcFkank0ii6zfxtgV5xZT5nF5lTZof_U1am1mrSQA3XbD55mCMx0P0DtoyUnyd2HrZ_FWcm-EcVTucTkBLbo4x5Npj3IaquNIGg3rj0xpgCkseq5_ia4Vc2NDKD9tGk_5PGb7/s1600/lortu.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="200" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxY_wKtITzcFkank0ii6zfxtgV5xZT5nF5lTZof_U1am1mrSQA3XbD55mCMx0P0DtoyUnyd2HrZ_FWcm-EcVTucTkBLbo4x5Npj3IaquNIGg3rj0xpgCkseq5_ia4Vc2NDKD9tGk_5PGb7/s640/lortu.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.lortu.com/">http://www.lortu.com/</a></td></tr>
</tbody></table>
<div>
<br /></div>
<div>
<br /></div>
<div>
<b><span style="font-size: large;">Quorum:</span></b><br />
<a href="http://www.quorumlabs.com/">http://www.quorumlabs.com/</a><br />
<br />
Firma oprócz backupu zajmuje się także DR-em oraz rozwiązaniami opartymi na chmurze hybrydowej. Produkty sprawdzone przez DCIG to także bardziej urządzania do Disaster Recovery niż zwykłego backupu.<br />
W porównaniu uwzględniono następujące urządzania:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>onQ-T10-1 Tower</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>onQ-T140-5</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>onQ-T260-13</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>onQ-T280-13</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>onQ-T288-20</li>
</ul>
<div>
Parametry poszczególnych produktów:</div>
<div>
<br /></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhErAqnpLZJjWQxUR34cZFTQxbXONXe8DEZOO_2hYHCwigq7KyF9VcUEqwNSNdA7nYAGiOnI4UY5mFC28WpoX3WKF-TYi7AQf947WAgiy2QD_VN_bliHl6CXwdZr47RYCm_gOFzFWsDuIj9/s1600/quorum.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="208" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhErAqnpLZJjWQxUR34cZFTQxbXONXe8DEZOO_2hYHCwigq7KyF9VcUEqwNSNdA7nYAGiOnI4UY5mFC28WpoX3WKF-TYi7AQf947WAgiy2QD_VN_bliHl6CXwdZr47RYCm_gOFzFWsDuIj9/s640/quorum.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="http://www.quorumlabs.com/onq-appliance">http://www.quorumlabs.com/onq-appliance</a></td></tr>
</tbody></table>
<div>
<br /></div>
<div>
<br /></div>
<div>
<b><span style="font-size: large;">RackTop:</span></b></div>
<div>
<a href="http://www.racktopsystems.com/">http://www.racktopsystems.com/</a>
<br />
<br />
Kolejna firma w obszarze backup. Ta z bardzo rozbudowanym portfolio produktów z których DCIG wybrał 3 serie:<br />
<br />
EBR-L : Enterprise Backup & Recovery -Local (trzymanie lokalnie kopii danych)<br />
EBR-SC : Enterprise Backup & Recovery - Secure Cloud (kopia danych również w chmurze)<br />
EBR-FE : Enterprise Backup & Recovery - appliance oparty na ZFSie.<br />
<br />
Modele w porównaniu:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-FE</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-L 1000</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-L 1800</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-L 2800</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-L 500</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 100</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 1000</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 1800</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 250</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 2800</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBR-SC 500</li>
</ul>
<div>
DCIG pominął serię EBR-Ti (Titanium) o zwiększonej odporności mechnicznej.<br />
<br />
<br />
<br /></div>
<div>
<b><span style="font-size: large;">Simpaticorp:</span></b><br />
<a href="http://www.simpaticorp.com/index.php">http://www.simpaticorp.com/index.php</a><br />
<b><span style="font-size: large;"><br /></span></b>
Rozwiązania Simpaticorp to hybrydowy storage mogący służyć zarówno jako primary jak i backup.<br />
Firma dostarcza trzy modele:</div>
<div>
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>DR4</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>DR4 Enterprise</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>DRXpress</li>
</ul>
<div>
O następujących parametrach:</div>
<div>
<br /></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi_86TPpgWLFMHaxRpxAht1nY9GV4Kg59gJXe36vdZbwWmmqHY5TY0ikUu4ntlwhfvW-DEYI44jQyJShPb8_np6v_Zp1fDMpvFqwDNHEmeyu1mWpqygGGY3MuC8o1ckPTL_tDoMQEF7M-qf/s1600/simp.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="286" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi_86TPpgWLFMHaxRpxAht1nY9GV4Kg59gJXe36vdZbwWmmqHY5TY0ikUu4ntlwhfvW-DEYI44jQyJShPb8_np6v_Zp1fDMpvFqwDNHEmeyu1mWpqygGGY3MuC8o1ckPTL_tDoMQEF7M-qf/s320/simp.jpg" width="320" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło:
<a href="https://secure.simpaticorp.com/dr4.php">https://secure.simpaticorp.com/dr4.php</a></td></tr>
</tbody></table>
<div>
<br /></div>
<div>
<br /></div>
<div>
<b><span style="font-size: large;">STORServer:</span></b></div>
<div>
<a href="http://www.storserver.com/">http://www.storserver.com/</a>
<br />
<br />
W tej firmie mamy trzy serie backup appliance-ów do różnych zastosowań:<br />
<br />
<br />
<ul>
<li>Seria BA (Backup Appliance)</li>
<li>Seria EBA (Enterprise Backup Appliance)</li>
<li>Seria IR (Instant Restore) - do obsługi placówek regionalnych lub zdalnych</li>
</ul>
<br />
Modeli jest wiele (szczególnie w serii EBA) i nie wszyskie zostały sprawdzone przez DCIG.<br />
W kompendium porównano następujące urządzenia:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>BA851</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBA 1100</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBA 2100</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBA 3100 </li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>EBA 800</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>IR Series of Backup Appliances</li>
</ul>
<div>
Więcej informacji i specyfikacje techniczne są dostępne na stronie producenta w dedykowanych pdf-ach:<br />
<br />
<ul>
<li><a href="http://www.storserver.com/Doc/Data%20Sheets/STOR_DataSheet_EBAppliance.pdf">Seria EBA</a></li>
<li><a href="http://www.storserver.com/Doc/Data%20Sheets/STOR_DataSheet_BAppliance.pdf">Seria BA</a></li>
<li><a href="http://www.storserver.com/Doc/Data%20Sheets/STOR_DataSheet_IR.pdf">Seria IR</a></li>
</ul>
<br />
<br /></div>
<div>
<b><span style="font-size: large;">Symantec:</span></b><br />
<a href="http://www.symantec.com/index.jsp">http://www.symantec.com/index.jsp</a><br />
<br />
Tej firmy przedstawiać nie trzeba. Jeżeli chodzi o backup appliance to przetestowane zostały dwa modele, jeden oparty na oprogramowaniu Backup Exec, drugi na NetBackup-ie.</div>
<div>
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Backup Exec 3600 Appliance</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>NetBackup 5220 Backup Appliance</li>
</ul>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Unitrends:</b></span></div>
<div>
<a href="http://www.unitrends.com/">http://www.unitrends.com/</a><br />
<br />
Aż 10 produktów przetestowanych, niezła gromadka.<br />
Różnią się pojemnościami, możliwościami oraz wydajnością, w sumie każdy z tych modeli można przypisać do jednej z trzech linii: Small Business, Medium Business, Enterprise Level<br />
<br />
Uwzględnione urządzenia:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-172</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-212</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-312</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-612</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-712</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-713</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-813</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-822</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-823</li>
</ul>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Recovery-833</li>
</ul>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Zenith:</b></span><br />
<a href="http://www.zenithinfotech.com/">http://www.zenithinfotech.com/</a></div>
<div>
<br />
Firma bardziej kojarzona z tematem chmury niż backupu ma jednak w swojej ofercie jednego applianca:<br />
<br /></div>
</td>
</tr>
<tr height="20" style="height: 15.0pt;">
<td height="20" style="height: 15.0pt;"><ul>
<li>Zenith Infotech BDR-G12</li>
</ul>
</td>
</tr>
</tbody></table>
<br />
<br />
<span style="font-size: x-large;"><b>Wyniki:</b></span><br />
<span style="font-size: x-large;"><b><br /></b></span>
DCIG prezentuje wyniki pod postacią listy produktów posortowanej pod względem ilości punktów (które otrzymywało się w kategoriach opisanych powyżej w tym wpisie). Dodatkowo urządzenia dostawały odpwiednią "rangę" : ENTERPRISE, Recommended, Excellent,Good, Basic.<br />
<br />
Czołowe miejsca okupywały produkty jednej firmy: STORServer<br />
Model EBA3100 jako jedyny otrzymał rangę ENTERPRISE, następnie na miejscu drugim znalazł się appliance Symanteca, kolejne trzy pozycje to pozostałe urządzenia STORServer z serii EBA. Na tym kończyła się ranga Recommended, oczko niżej w klasie Excellent mamy kolejnego Symanteca a następnie modele firm Unitrends, RackTop i EVault.<br />
<span style="font-size: x-large;"><b><br /></b></span>
<br />
<span style="font-size: x-large;"><b>Podsumowanie:</b></span><br />
<span style="font-size: x-large;"><b><br /></b></span>
Materiały dostarczane przez DCIG są naprawdę wysokiej klasy i bardzo kompleksowo podchodzą do badanego tematu. Osoby/firmy zainteresowane danym produktem na pewno bardzo skorzystają na takich "kompendiach". Z tego co można wyczytać na stronie DCIG szykuje właśnie "Buyer's Guide" dla macierzy "All flash" - będzie ciekawie :D<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com1tag:blogger.com,1999:blog-6066850349722089871.post-83857416959672634722012-08-26T23:27:00.003+02:002012-08-26T23:28:26.762+02:00Clariion - zarządzanie SP,Modułami I/O i PortamiKolejny wpis z serii przygotowujących do egzaminu na Clariion specjalistę. Poprzednio opisywałem zarządzanie dyskami, teraz skupimy się na pozostałych komponentach.<br />
<br />
<br />
<span style="font-size: large;"><b>Zarządzanie Service Procesorem:</b></span><br />
<br />
Jeżeli przejdziemy do menu <b>System-->Hardware</b> na danej macierzy po lewej stronie ekranu będziemy widzieli panel z grupą opcji związanych z zarządzaniem SP A i SP B:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhs6RL9PfzxLylmL655PMhfWdSdGCjrJavTtuHgGWCkxM1mwg_SY9wVvu8GEa6UTLrZm0-mFQnKYItys7S32h7MqRh5srU5r47Y2x_ZpKVe3FUD2_AL46WEmufjYHBpTw_APVIxVVa6mqux/s1600/sp+task.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhs6RL9PfzxLylmL655PMhfWdSdGCjrJavTtuHgGWCkxM1mwg_SY9wVvu8GEa6UTLrZm0-mFQnKYItys7S32h7MqRh5srU5r47Y2x_ZpKVe3FUD2_AL46WEmufjYHBpTw_APVIxVVa6mqux/s320/sp+task.jpg" width="169" /></a></div>
<br />
<br />
Mamy tutaj kilka opcji związanych z zarządzaniem Service Procesorami. Z tego poziomu możemy przeładować kontroler, zebrać pliki Diagnostyczne (tzw: SPCollects), a także przeprowadzić kongfigurację właściwości sieciowych danego SP i zrobić bardzo podstawowy troubleshooting problemów związanych z siecią, za pomocą narzędzi ping i traceroute.<br />
<br />
Po wybraniu opcji <b>Properties </b>otworzy się okno zawierajace osiem zakładek:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzYD-5I_4LwvOYpjFbSSvl8HE0h0-Jyh7yfh-qkP9-bNX6H7DJdwZSMwu7iYh-90Nj_Sbw6bZTZXjEdbKY_UeKSj8uuKEvCqqK-SXWeUkO5XTnrKcxzls-gVxaIargQL_ZHOCE9MT_OOY_/s1600/SP+-+Prop+General.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzYD-5I_4LwvOYpjFbSSvl8HE0h0-Jyh7yfh-qkP9-bNX6H7DJdwZSMwu7iYh-90Nj_Sbw6bZTZXjEdbKY_UeKSj8uuKEvCqqK-SXWeUkO5XTnrKcxzls-gVxaIargQL_ZHOCE9MT_OOY_/s320/SP+-+Prop+General.jpg" width="273" /></a></div>
<br />
W zakłace General mamy podstawowe informacje o stanie kontrolera, firmware, nr seryjnym itd...<br />
Pozostałe także zawierają pewne ogólne dane i statystyki - nic co wymagało by większego tłumaczenia. Jedynym miejscem gdzie warto zajrzeć jest zakładka Network<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiAjV4yjuhA1rdMvN1jhMJnNZp9sfFnWwCa6oXzE2rdEgW8JFEMYfQCi1X3zlzsNFCgb-LdoHNH5n-RmujHlAwI20eWTW_5yAAAp71bGmS5y83kBAPBzKrsTYoI3xBkFn_xGbkaVy8uSATq/s1600/SP+-+Prop+Network.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiAjV4yjuhA1rdMvN1jhMJnNZp9sfFnWwCa6oXzE2rdEgW8JFEMYfQCi1X3zlzsNFCgb-LdoHNH5n-RmujHlAwI20eWTW_5yAAAp71bGmS5y83kBAPBzKrsTYoI3xBkFn_xGbkaVy8uSATq/s320/SP+-+Prop+Network.jpg" width="271" /></a></div>
<br />
<div class="separator" style="clear: both; text-align: center;">
</div>
Możemy w tym okienku ustawić kilka spraw związanych z siecią:<br />
<ul>
<li><b>Management Port Settings - </b>opcje związane z działaniem portu zarządzania SP</li>
<ul>
<li><u>Requested settings</u> - z jaką prędkością i w jakim trybie chcemy żeby pracował (domyślnie: Auto)</li>
<li><u>Link Status </u>- a w jakim naprawdę pracuje</li>
</ul>
<li><b>SNMP Settings - </b>ustawienia SNMP</li>
<ul>
<li><u>Enable/Disable processing of SNMP MIB read requests</u> - włączenie wyłączenie obsługi SNMP dla tego kontrolera</li>
<li><u>SNMP Community</u> - tutaj można ustawić tzw: " SNMP Community String" czyli pewien rodzaj klucza, którym autentyfikować się muszą urządzenia, wymieniające się danymi poprzez SNMP.</li>
</ul>
<li><b>Virtual Port Properties - </b>IP adres oraz tzw: VLAN ID naszego kontrolera. </li>
</ul>
<div>
Po wybraniu przycisku <b>"Properties"</b> możemy przejść do kolejnego okienka z ustawieniami dotyczącymi sieci:</div>
<div>
<br /></div>
<div class="separator" style="clear: both; text-align: center;">
</div>
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhxFDvwgewUAlHX5x85URkBCaudTaURsc2-FPCucMeC3vwRI-JhYqnXrtbDSXl3iVxuFm3n8E2OIyHSU0N2OaxLmMcSdwOv13sJZttDz1YEo-F4k_aAekkEBfCazIsok3qWHGNvTt6M8FEC/s1600/SP+-+Prop+Network+-+Prop.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhxFDvwgewUAlHX5x85URkBCaudTaURsc2-FPCucMeC3vwRI-JhYqnXrtbDSXl3iVxuFm3n8E2OIyHSU0N2OaxLmMcSdwOv13sJZttDz1YEo-F4k_aAekkEBfCazIsok3qWHGNvTt6M8FEC/s320/SP+-+Prop+Network+-+Prop.jpg" width="292" /></a></div>
<div>
<br /></div>
<div>
Tutaj dokonujemy wyboru podstawowych ustawień sieci: IP,Maska,Brama, dodatkowo możemy skonfigurować konroler do pracy w sieci IPv6. Te wielkości które tutaj ustawimy będą adresem sieciowym naszego SP (a tak bardziej szczegółowo portu sieciowego, do którego się będziemy podłączali, gdy trzeba będzie wykonać jakieś akcje na macierzy).<br />
Clariion (od FLARE29) wspiera także wykorzystanie VLANów i tzw: VLAN Tagging.<br />
Czym są VLANy nie będę tutaj opisywał, gdyż jest to jest dość podstawowe pojęcie z dziedziny sieci komputerowych - w razie potrzeby google bez problemu "pomoże" się dokształcić.<br />
W każdym razie porty ethernetowe Clariiona (bądź te używane do zarządzania, jak właśnie opisywany, a takżę połączenia 1GbE i 10GbE do komunikacji iSCSI) mogą być wykorzystywane w sieci VLANowej. Fizyczne Porty iSCSI mogą także być podzielone na kilka portów wirtualnych, co pozwala na dobrą segregację ruchu do nich przychodzącego. Port zarządzający na SP nie może być w ten sposób podzielony, zresztą i tak nie było by powodu aby to robić.<br />
<br />
<span style="font-size: large;"><b>Zarządzanie modułami I/O i portami:</b></span><br />
<br />
Moduły I/O w najnowszych Clariionach noszą nazwe UltraFlex I/O.<br />
Tak jak i wszystkie pozostałe komponenty sprzętowe Clariiona można je obejrzeć w sekcji<b> System-->Hardware,</b> gdzie w lewej części ekranu pokazane jest "drzewko", z pokazanymi zależnościami między poszczególnymi częściami macierzy. Środkowa część ekranu to schematycznie pokazana macierz, razem z zaznaczoną wybraną częścią. Ponieważ opisujemy moduły IO i wchodzące w ich skład porty tak więc na poniższym zrzucie ekranowym mamy zaznaczony właśnie ten komponent:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivebpFTwd9pqjH0WJJOsUbGZ6E5mfC-wkk3dSVHUktmC2cVUrnFbKqNpH1gzIPH3QWd2hd6Js1KDs0FcJXgPGzlUp6JXE2nm3FAtywO6Ww1RnZHnPPHJT6EzPLlqEvcGU1jdzly7UNp-Q_/s1600/hardware.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="376" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEivebpFTwd9pqjH0WJJOsUbGZ6E5mfC-wkk3dSVHUktmC2cVUrnFbKqNpH1gzIPH3QWd2hd6Js1KDs0FcJXgPGzlUp6JXE2nm3FAtywO6Ww1RnZHnPPHJT6EzPLlqEvcGU1jdzly7UNp-Q_/s640/hardware.jpg" width="640" /></a></div>
<br />
<br /></div>
Aby dostać się do właściwości danego komponentu należy go zaznaczyć po czym wybrać przycisk <b>"Properties"</b>.<br />
<br />
<b><u>Właściwości Front-End portu:</u></b><br />
<br />
W zależności czy wybrany port jest portem FC czy iSCSI inne będą jego właściwości.<br />
<br />
<u>Port FC:</u><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi4ScPRPeXTqTNjjOmsXPwoXwBTUfPmqLe-Bjqip21zpHgALx_-zWOUQiscORhCVNAaLZQOLokSmZqnBR5porZ5RS1aZ4kS_b0VBhcr7rkZbIm9mT6h7Ts8YjRdVHD83hlYuVtnihsdBMyq/s1600/Front+End+Port+FC+-+Prop.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="190" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi4ScPRPeXTqTNjjOmsXPwoXwBTUfPmqLe-Bjqip21zpHgALx_-zWOUQiscORhCVNAaLZQOLokSmZqnBR5porZ5RS1aZ4kS_b0VBhcr7rkZbIm9mT6h7Ts8YjRdVHD83hlYuVtnihsdBMyq/s320/Front+End+Port+FC+-+Prop.jpg" width="320" /></a></div>
<br />
Podstawowe dane to WWN portu, Szybkość jego pracy (obecna, wybrana, maksymalna).<br />
Oraz garść informacji o inicjatorach znanych temu portowi (czyli takich które się z nim już komunikowały).<br />
<br />
<u>Port iSCSI:</u><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbjaOEXCDz7TfDkUgoYEaSuVtUf3zaqyA6bgCYr9Rf1A0Iq6fLb27pK6MRIbfc6hvOvI-lUVJ9E-Q0-vr0ADD5KISedFRaWbAXPRovR57RV_8_rgWBnfFZJhYLjKs7LwKXykjdrvG4q7G8/s1600/Front+End+Port+iSCSI+-+Prop.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="313" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbjaOEXCDz7TfDkUgoYEaSuVtUf3zaqyA6bgCYr9Rf1A0Iq6fLb27pK6MRIbfc6hvOvI-lUVJ9E-Q0-vr0ADD5KISedFRaWbAXPRovR57RV_8_rgWBnfFZJhYLjKs7LwKXykjdrvG4q7G8/s320/Front+End+Port+iSCSI+-+Prop.jpg" width="320" /></a></div>
<br />
Jeżeli chodzi o informacje i opcje przedstawione na tym okienku, to mamy tutja możliwość definiowania adresu IQN dla portu iSCSI oraz jego aliasu. Możemy także sprawdzić MAC adres oraz ustawioną i obecną prędkość z jaką pracuje port. Opcja <b>MTU(bytes)</b> określa maksymalny rozmiar ramki iSCSI, jaka zostaje wysłana - jeżeli nasza sieć obsługuje tzw: jumbo frames to warto z tego skorzystać i ustawić MTU na większe niż 1500.<br />
Dolna część okienka to wypis wszystkich wirtualnych portów zdefiniowanych dla tego fizycznego portu iSCSI. Clariion od FLARE29 (jak wspomniałem opisując właściwości sieciowe kontrolera) wspiera VLANy i VLAN tagging, można więc jeden port fizyczny zaprezentować jako kilka portów wirtualnych (każy w innym VLANie). Dodawanie i konfigurowanie tych portów odbywa się w okienkach które otwierają się po wciśnięciu przycisków <b>Add </b>i <b>Properties.</b> Nie różnią się one niczym od analogicznego okienka dotyczącego ustwień sieciowych kontrolera - podobnie wybieramy IP,maskę,bramę oraz ustawiamy VLAN ID.<br />
<br />
Clariion umożliwia także wyświetlenie wszystkich portów i ich podstawowych konfiguracji poza "drzewkiem" sprzętu. Opcja <b>Manage Data Ports</b> jest dostępna po kliknięciu prawym przyciskiem myszy na daną macierz na liście (w okienku Dashboard-u) i wybranie opcji <b>Port Management</b>. Otrzymamy listę wszystkich portów na macierzy, razem z ich opisem, prędkością działania oraz adresami IP lub IQN<br />
<br />
<hr />
<br />
To tyle na temat zarządzania kontrolerem i portami.<br />
W kolejnych wpisach zostajemy w temacie zarządzania poszczególnymi urządzaniami/bytami zdefiniowanymi na macierzy lub w jej "otoczeniu". Zaczniemy od tego w jaki sposób macierz widzi i zarządza korzystającymi z niej hostami.
<br />
<div>
<br /></div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-44230652663097078552012-08-16T20:44:00.001+02:002012-08-16T20:44:25.877+02:00Clariion - zarządzanie hardware (dyski)Po naprawdę długiej przerwie wracam do tematu przygotowania do egzaminu na Clariion specjalistę. Szczerze powiedziawszy mam dość mieszane uczucia co do kontynuowania tego wątku, po pierwsze Clariiony to już zamknięta linia (choć ich następca VNX jest całkiem do nich podobny i podobnie się nim zarządza - przynajmniej jeżeli chodzi o storage blokowy), po drugie ostatnio całkowicie nie mam czasu, żeby porządnie skupić się na przygotowaniach.<br />
Dość narzekania pora wziąć się do nauki, a co dalej będzie z tą serią wpisów to się zobaczy:<br />
<br />
<span style="font-size: large;"><b>Zarządzanie dyskami w Clariionie:</b></span><br />
<br />
Jednym z najważniejszych elementów w macierzy dyskowej jest oczywiście dysk. W zależności od wielkości danego urządzenia może ich być od kilkunastu do około tysiąca (i więcej).<br />
W Clariionach informacje o tym komponencie można znaleźć w menu <b>Storage-->Disks. </b> Wybór tej opcji otwiera okno gdzie mamy wylistowane wszystkie dyski jakie znajdują się w danej macierzy:<br />
Dla każdego dysku wyświetlone jest kilka podstawowych informacji:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEht9ynEEXWZg84gowNPgrT9rV5wytFMvQPJ2JcRLgs8AaUgqvM0ulhgj9HyqBS60Fv1nyaRTrlEh7hJGFpntb6P5vY2_TZAc2p6tb29DkMZ-Q0LDtkpnSQtj2WAwxPZPP1qhXl9veMslKwY/s1600/DYSKI.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="329" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEht9ynEEXWZg84gowNPgrT9rV5wytFMvQPJ2JcRLgs8AaUgqvM0ulhgj9HyqBS60Fv1nyaRTrlEh7hJGFpntb6P5vY2_TZAc2p6tb29DkMZ-Q0LDtkpnSQtj2WAwxPZPP1qhXl9veMslKwY/s640/DYSKI.jpg" width="640" /></a></div>
<br />
<br />
<ul>
<li><b>Name (nazwa) </b>---> dany dysk jest identyfikowany za pomocą trzech liczb oznaczających po kolei: Pętlę (bus) na której znajduje się napęd, Półkę (enclosure) gdzie jest umieszczony i jego pozycję (Disk) na tej półce. </li>
<li><b>State</b> (stan) ---> obecny stan dysku</li>
<li><b>Raw Capacity (</b>Pojemność surowa) - ilość przestrzeni dostepna do wystawiania </li>
<li><b>User Capacity</b> (Pojemność zużyta) - ilość przestrzeni wystawiona do LUNów</li>
<li><b>LUN ID</b> - nr LUNów które mają przestrzeń wystawioną z danego dysku</li>
<li><b>LUN Type</b> - Typ RAIDu w jakim jest dany dysk</li>
<li><b>Hot Spare Replacing </b>- Status dysku Hot Spare</li>
</ul>
<div>
Po wybraniu opcji <b>"Properties"</b> możemy zobaczyć szczegółowe informacje o wybranym napędzie. Dostępne są następujące dane:<br />
<br />
<u>Zakładka "General":</u><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhcoyBcXYMT_4UnaGDve5wLN304LvHHU7cee8FEc8Mkcv9dEYuRrY8O3Yk12QamjZ_j77EYPtSZsj4pLKSD_MXs1qcUBRFRVrvniRr5rhdSW1_wS23gfBZNvq_kfZQY6TRXCkX1VWgf_KQr/s1600/general.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhcoyBcXYMT_4UnaGDve5wLN304LvHHU7cee8FEc8Mkcv9dEYuRrY8O3Yk12QamjZ_j77EYPtSZsj4pLKSD_MXs1qcUBRFRVrvniRr5rhdSW1_wS23gfBZNvq_kfZQY6TRXCkX1VWgf_KQr/s320/general.jpg" width="282" /></a></div>
<br />
Tutaj mamy dużo więcej informacji o wybranym napędzie. Między innymi producenta, model, numer seryjny, wesja firmare itd...<br />
<br />
<u>Zakładka Errors:</u><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiOLsv5bmiNxgowop4YljVxQGHe2l2rotaRTy5nO3hbL1kBWMCHQ-qnr4Bu_gjX4nTwi5bh-L8BG52bu9LSTcFvee5mgaQm77ERjfYsNNBTF2xk1HBmXUTzzOEiXjnSoKzCwrJNn_GRyYuR/s1600/ERRORS.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiOLsv5bmiNxgowop4YljVxQGHe2l2rotaRTy5nO3hbL1kBWMCHQ-qnr4Bu_gjX4nTwi5bh-L8BG52bu9LSTcFvee5mgaQm77ERjfYsNNBTF2xk1HBmXUTzzOEiXjnSoKzCwrJNn_GRyYuR/s320/ERRORS.jpg" width="283" /></a></div>
<br />
Ilość błędów na dysku, z podziałem na te przy odczycie/zapisie oraz "miękkie" (soft) i "twarde" (hard).<br />
Soft zwykle znaczy, że nie ma żadnego problemu z samym dyskiem, a jedynie coś się nie udało przy próbie zapisu lub odczytu. Błędy twarde zazwyczaj sygnalizują uszkodzenia samego dysku (np: bad sectory).<br />
<br />
<u>Zakładka Statisctics:</u><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEglXZ2tl2JoPlN3BAfK6h0LAhN-3V2ugwogl3SyhMCi3Q4hesmkqrmnLsxsT2uaDnzDpfpqgVAqbBptdbHQwEl56bJTqXBT6MDvfbSypdHows_CPideeXgz-SyzSJ2fCcOcnBxSTXrJQquI/s1600/statistic.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEglXZ2tl2JoPlN3BAfK6h0LAhN-3V2ugwogl3SyhMCi3Q4hesmkqrmnLsxsT2uaDnzDpfpqgVAqbBptdbHQwEl56bJTqXBT6MDvfbSypdHows_CPideeXgz-SyzSJ2fCcOcnBxSTXrJQquI/s320/statistic.jpg" width="285" /></a></div>
<br />
Pewne bardzo podstawowe dane wydajnościowe dotyczące pracy dysku. Ilość IOPSów oraz przepustowość, a także utylizacja dysku. Danych raczej mało i dostępny jest tylko "zrzut" stanu obecnego bez możliwości sprawdzenia histroii co raczej ograniczna efektywne wykorzystanie tych informacji.<br />
<br />
<u>Zakładka Power Settings:</u><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhcI20L8hGQAyGLwx6B-KVPaS682toYo087RgLjTL_hqosp42WEs2AzysMNnku-Mty2tzYbIfrCGlwM6-5wscAdLlA8-diog7M8T9cY91cifpGvDlTgCA7bqvEl9jopNpwPBHcH1NXx0HAf/s1600/power+settings.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhcI20L8hGQAyGLwx6B-KVPaS682toYo087RgLjTL_hqosp42WEs2AzysMNnku-Mty2tzYbIfrCGlwM6-5wscAdLlA8-diog7M8T9cY91cifpGvDlTgCA7bqvEl9jopNpwPBHcH1NXx0HAf/s320/power+settings.jpg" width="282" /></a></div>
<br />
Na tej zakładce mamy informację, czy dany dysk wspiera zarządzanie oszczędzaniem energii oraz czy jest ono włączone. Zarządzanie polega na zatrzymaniu ruchu obrotowego dysku, kiedy nie jest on używany, dzięki czemu nie zużywa prądu. Minusem jest to, że po odwołaniu się do danych na nim znajdujących najpierw musi wykonać "rozruch" i rozkręcić się do swojej prędkości pracy.<br />
<br />
<span style="font-size: large;"><b>Oszczędzanie energii (Power Saving) dla dysków:</b></span><br />
Opcję zarządzania energią dla dysków ustawia się na poziomie RAID grupy. Wszystkie napędy w danej grupie muszą wspierać tą funkcjonalność, aby można ją było uruchomić. Jeżeli jest włączona, mechanizm zatrzyma dyski jeżeli przez czas 30 minut nie będzie do żadnego z nich skierowane żądanie I/O. Po zatrzymaniu dyski potrzebują ok 15sekund na ponowne uruchomienie.<br />
Dodatkowymi warunkami (oprócz pół godzinnej nieaktywności) aby można było uruchomić tryb oszczędzania enterii jest aby, na żadnym LUNie z RAID grupy, nie była uruchomiona replikacja oraz żeby grupa nie zawierała metaLUNów.<br />
<br />
<br />
<span style="font-size: large;"><b>Zarządzanie dyskami Hot Spare:</b></span><br />
Dyski Hot Spare są to napędy skonfigurowane nie do przechowywania danych ale do zastępowania dysków uszkodzonych. Jeżeli w macierzy jeden z dysków ulegnie uszkodzeniu, to automatycznie na jego miejsce wskakuje rezerwowy "hot spare.<br />
Zgodnie z "dobrymi praktykami" EMC w Clariionach na każde 30 dysków powinien być jeden "hot spare" przy czym rolę tą może pełnić każdy napęd, wyjątkiem są dyski EFD(SSD) które mogą być hot spare tylko dla innego dysku EFD. Pozostałe "dobre praktyki" przy konfigurowaniu dysków HS, to rozmieszczanie ich na tych samych pętlach (Bus) co dyski, które będą one chroniły, a także stworzenie co najmniej jednego HS dla każdego typu (rodzaj, prędkość, pojemność) dysku jaki mamy w macierzy.<br />
<br />
Dyski HS w Clariionach są globalne, tzn: nie da się ich przypisać do takiego napędu grupy RAID, LUNa czy pojedynczego dysku która będą chroniły. Każdy HS chroni całą macierz i wszystkie napędy (oczywiście jeżeli jest w stanie - czyli ma odpowiednią wielkość i nie jest dyskiem SSD).<br />
<br />
Sytuacje w których dysk HS zastępuje zwykły można podzielić na trzy kategorie:<br />
<ul>
<li>Uszkodzenie dysku</li>
<li>Zainicjowanie proaktywnej wymiany automatycznie przez macierz (FLARE)</li>
<li>Zainicjowanie proaktywnej wymiany manualnie przez administratora (poprzez GUI lub naviseccli)</li>
</ul>
<div>
Pierwsza sytuacja tłumaczy się sama przez się. W drugiej dysk który zostaje zastąpiony HSem działa sprawnie, jednak na podstawie pewnych przesłanek - przekroczenia pewnych progów alarmowych - macierz uznaje go za napęd zagrożony i przeprowadza proaktywną wymianę. Trzeci wariant to oczywiście decyzja administratora. </div>
Między uszkodzeniem a proaktywnymi wymianami jest jedna podstawowa różnica. Po awarii dane na dysku są niedostępne, dlatego aby HS mógł go zastąpić musi nastąpić proces odbudowy (rebuild) - zachodzi to automatycznie i wykorzystuje nadmiarowość zapewnianą przez struktury RAID. W przypadku najpopularniejszych RAID5 i 6 odbudowa to rekalkulacja danych wykorzystując kody parzystości. Jest to proces obciążający macierz i dość czasochłonny (szczególnie w przypadku dużych dysków SATA).<br />
Prędkość odbudowy zależy od następujących czynników:<br />
<ul>
<li>Wielkość dysku</li>
<li>Rodzaj dysku (SATA,SAS,FC, itd...)</li>
<li>Ilości przestrzeni zajętej (przypisanej do LUNów)</li>
<li>Priorytetu odbudowy (od ASAP do Low)</li>
<li>Obciążenia macierzy (ilości IOPSów)</li>
<li>Typu RAID w którym jest uszkodzony dysk</li>
<li>Wielkości grupy RAIDowej (dotyczy R5 i R6)</li>
<li>Rozłożenia dysków na pętlach FC w macierzy</li>
</ul>
<div>
W odróżnieniu do uszkodzenia, proaktywna wymiana nie wymaga odbudowy, a jedynie przekopiowania zawartości (dysk zastępowany przez "Hot spare" ciągle działa). Generuje to zdecydowanie mniejsze obciążenie macierzy.</div>
<div>
Aby zainicjować zastąpienie dysku przez Hot Sprare należy kliknąć w dany dysk na liście i wybrać opcję: "Copy to Hot Spare"</div>
<div>
<br /></div>
<hr />
<div>
<br />
Kolejnymi tematy z cyklu "clariionowych" będą o zarządzaniu pozostałymi komponentami sprzętowymi.</div>
</div>
Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-17069256063413747562012-07-15T20:26:00.001+02:002012-07-15T20:26:21.338+02:00Macierze "solid state" - demony prędkości (Część 3 - Nieco więcej technikaliów)W poprzednich częściach dotyczących dysków SSD oraz macierzy wyłącznie z nich zbudowanych ("Solid state arrays") opisaliśmy podstawy tej technologii oraz firmy, które w tej branży działają. Teraz chciałbym wejść trochę głębiej w mechanizmy działania tego typu urządzeń.<br />
<br />
<span style="font-size: large;"><b>Jak zbudowany jest dysk SSD</b></span><br />
<br />
Dysk SSD jaki jest każdy widzi -główna różnica między nim a jego "tradycyjnymi kolegami" polega na braku mechanicznych obracających się części (talerze, głowica). Z tego powodu dyski SSD są ciche, niezawodne i zużywają mało energii.<br />
<br />
Gdyby otworzyć obudowę dysku i spojrzeć do środka można by wyróżnić następujące komponenty<br />
<ul>
<li>Kontroler</li>
<li>Interfejsy I/O</li>
<li>Pamięci Flash</li>
</ul>
<div>
<br /></div>
<div>
<u>Kontroler:</u></div>
<div>
<br /></div>
<div>
Czyli mózg dysku SSD, odpowiada zarówno za wszyskie "podstawowe" operacje na pamięci flash (zapis/odczyt/skasowanie) jak i za komunikację dysku ze światem zewnętrzny, a także zarządza wszyskimi specjalnymi funkcjami które są specyficzne dla technologii SSD jak np: TRIM czy Garbage Collection (o których będzie później). Sam kontroler to prosty procesor 16 lub 32 bitowy.</div>
<div>
<br /></div>
<div>
Najbardziej znane firmy produkujące kontrolery SSD to:</div>
<div>
<ul>
<li>SandForce (wykupiony z początekiem roku przez LSI)</li>
<li>Indilinx (zależny od OCZ)</li>
<li>JMicron</li>
<li>Marvell</li>
</ul>
</div>
<div>
Udział w produkcji kontrolerów SSD mają także tacy giganci jak Intel i Samsung.</div>
<div>
<br /></div>
<div>
<u>Interfejs I/O:</u></div>
<div>
<br />
Układy łączące dysk ze światem zewnętrznym. Mogą występować w najróżniejszych standardach z których te najbardziej popularne to SATA,FC,SAS, </div>
<div>
<br /></div>
<div>
<u>Pamięci Flash:</u><br />
<br />
Układy pamięci flash mogą być wykonane w dwóch technologiach: NAND i NOR, ponieważ jednak NOR-y są dużo wolniejsze, umożliwiają mniejsze upakowanie danych oraz cechują się mniejszą wydajnością tak więc praktycznie nie są używane przy produkcji flash-y.<br />
Pamięci NAND możemy podzielić na takie które po pojedynczej komórce są w stanie przechować jeden bit danych (SLC) i takie które mogą ich przechowywać dwa (MLC) lub więcej (TLC). Bardziej szczegółowe informacje o tym podziale znajdują się w pierwszym wpisie dotyczącym SSD: <a href="http://metastorage.blogspot.com/2012/04/macierze-solid-state-demony-predkosci.html">LINK</a><br />
<br />
<br /></div>
<b><span style="font-size: large;">Jak działa dysk SSD</span></b><br />
<br />
Tak naprawdę chciałbym tutaj skupić się na kilku pojęciach związanych z dyskami SSD, a przy okazji ich opisu przedstawić także specyfikę działania tego typu napędów.<br />
<br />
Te pojęcia to:<br />
<ul>
<li>Write Amplification</li>
<li>TRIM</li>
<li>Garbage Collection</li>
<li>Wear Leveling</li>
</ul>
<u>Write Amplification (WA):</u><br />
<br />
Dyski SSD są dużo szybsze przy operacjach odczytu niż zapisu, a różnica w prędkości wykonywania tych działań może być nawet kilkunastokrotna. Odpowiedzialny za to jest sposób w jaki dysk SSD zapisuje dane.<br />
Są dwie główne różnice w sposobie zapisu przed dysk tradycyjny i flashowy.<br />
Po pierwsze dysk SSD nie może bezpośrednio nadpisać danych. Jeżeli jakaś komórka już zawiera informacje najpierw musi ona być wyczyszczona i dopiero potem można w niej pisać. Po drugie kontroler SSD nie jest w stanie wyczyścić danych z pojedynczej komórki, musi to zrobić całą tzw: stroną, która ma ich od kilkunastu do kilkudziesięciu. W rezultacie po otrzymaniu polecenia zapisu, kontroler SSD musi odczytać zawartość całej strony, w której znajduje się blok do nadpisania (aby nie utracić przy czyszczeniu strony już zapisanych w niej bloków). Następnie strona zostaje wyczyszczona. Ostatni krok to ponowne zapisanie danych które wcześniej na niej rezydowały a także nowo zmienionego pojedynczego bloku (tak naprawdę działa to nieco inaczej ale to zostanie wyjaśnione w części poświęconej Garbage Collection, w tej chwili dla lepszego zrozumienia zostańmy przy opisanej powyżej wersji)<br />
Współczynnik Write Amplification (WA) wynika z działania tego mechanizmu i określa ile razy więcej danych jest naprawdę zapisywanych na dysku SSD, w porównaniu do danych które zostały do niego "wysłane".<br />
Oczywiście im więcej takich nadmiarowych zapisów trzeba robić, tym dłużej trwa ta operacja - jest to bezpośrednia przyczyna dużo mniejszej wydajności napędów przy zapisach (pojedynczy zapis jest tak naprawdę serią operacji R/W), dodatkowo im wyższe WA tym szybciej dysk się zużyje, gdyż więcej cyklów zapisu jest potrzebnych dla każdego pojedynczego żądania.<br />
Kolejnym negatywnym efektem, jest fakt iż im więcej danych jest na dysku tym wolniej będzie działał (w stronach czyszczonych będzie więcej bloków do przepisania).<br />
<br />
<u>TRIM:</u><br />
<br />
TRIM jest to komenda SATA która pomaga w zmniejszeniu współczynnika WA, a przez to zwiększa szybkość działania i żywotność dysku SSD.<br />
Co robi TRIM?<br />
Jeżeli usuwamy dane (np: pliki) w systemie operacyjnym (obojętnie jakim), system ten odnotowuje sobie ten fakt i traktuje zajmowaną przez nie przestrzeń jako wolną ale nie wysyła informacji o tym do dysku. Z punktu widzenia systemu operacyjnego miejsce jest wolne i może zostać nadpisane, ale dla dysku są to dane istotne, o których bezpieczeństwo trzeba zadbać, do czasu aż nie przyjdzie polecenie ich skasowana lub nadpisania. Dlatego też dane te zostają odczytane i zapisane za każdym razem gdy kontroler czyści stronę na której się znajdują (aby nadpisać jakiś inny blok). Jest to działanie niepotrzebne gdyż dane te są już skasowane tylko dysk nie dostał tej informacji.<br />
Polecenie TRIM wysyła do dysku informację o skasowaniu danych, gdy tylko jest to robione na poziomie systemu operacyjnego. Dzięki temu dane te nie są przepisywane przy czyszczeniu strony i nie zwiększają współczynnika WA. Polecenie TRIM aby działało musi być wspierane zarówno przez system operacyjny jak i przez sam dsyk SSD.<br />
<br />
<u>Garbage Collection (GC):</u><br />
<br />
Nieco wyżej psiałem, że aby nadpisać dane kontroler dysku SSD odczytuje całą stronę czyści go a następnie przepisuje na powrót stare dane + nadpisana nowa. W rzeczywistości odbywa się to nieco inaczej i uczestniczy w tym proces nazywany Garbage Collection (GC).<br />
Nowe dane nie nadpisują starych ale są zapisywane w nowych blokach, natomiast te już nieaktualne dalej rezydują na dysku, są tylko zaznaczone do usunięcia, GC to proces który co jakiś czas przepisuje istotne dane do nowych stron, a na starych zostawiając tylko te już nieaktualne, potem takie strony są automatycznie czyszczone i gotowe na przyjecie nowych zapisów. Zalety stosowania GC to przede wszystkim szybsze zapisy - dane są nagrywane do nowych czystych stron i nie ma potrzeby czyszczenia i nadpisywania. Oczywiście nie ma nic za darmo, sam proces GC obciąża dysk i dlatego uruchamiany jest w okresie gdy generowany jest do niego mniejszy ruch. Problemy zaczynają się gdy sam dysk jest utylizowany bardzo mocno i dodatkowo zaczyna zapełniać się jego pojemność. W takiej sytuacji kontroler często nie jest w stanie znaleźć pustych stron na zapisy i musi uruchamiać proces GC w trakcie pracy, co powoduje spowolnienie samego napędu.<br />
<br />
<u>Wear Leveling (WL):</u><br />
<u><br /></u><br />
Każda komórka z której składa się dysk SSD ma swoją "wytrzymałość", która określa ile razy może ona przejść cykl czyszczenia i zapisu. Ponieważ niektóre dane po zapisaniu prawie się nie zmieniają, natomiast inne modyfikowane są prawie non stop (np: plik stronicowania OSa) część komórek w dysku jest obciążona dużo bardziej i wielokrotnie szybciej niż pozostałe może osiągnąć swoją granicę "używalności". Aby uniknąć takiego przedwczesnego zużycia, kontroler stosuje różne mechanizmy aby równomiernie rozłożyć ruch do/z dysku. Nazywa się do Wear Levelingiem(WL) i zwykle polega na przeadresowywaniu komórek pamięci na dysku. Ponieważ zmieniają się adresy komórek więc nie ma ryzyka że ciągle zapisy tych samych danych będą trafiały w to samo miejsce nadmiernie je eksploatując.<br />
<br />
<br />
<hr />
<br />
Na tym kończę serię wpisów dotyczących technologii SSD i macierzy "solid state" - zajęło mi to dużo więcej czasu niż początkowo zakładałem ale mocno doskwiera michroniczny brak czasu i nadmiar innych zajęć. Co będzie w następnych wpisach jeszcze nie wiem, może wrócę do tematu Clariionów, a może nie.<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-85063109974167467092012-06-02T02:10:00.005+02:002012-06-02T02:11:34.400+02:00Macierze "solid state" - demony prędkości (Część 2.2 - Firmy na rynku)Przed nami kolejna część opisu rynku macierzy "solid state". Ostatnio skończyliśmy na Texas Memory System, teraz pora na opis reszty liczących się graczy.<br />
<span style="font-size: large;"><b><br /></b></span><br />
<span style="color: #073763; font-size: x-large;"><b>Violin</b></span><br />
<a href="http://www.violin-memory.com/">http://www.violin-memory.com/</a><br />
<br />
Firma Violin została zalożona w 2005 i skupia się na produkcji macierzy "solid-state". W Polsce produkty Violina sprzedaje, po "rebrandingu", HP, co sprawia że możliwości dostarczenia serwisu i wsparcia w Polsce są dużo większe niż dla innych producentów. Tak jak i każdy z pozostałych dostawców Violin ma pewne rozwiązania specyficzne dla siebie (często także chronione patentami) - warto wspomnieć chociażby o stosowanym przez Violina rozwiązaniu flash vRAID czyli odpowiednikiem zwykłej struktury RAID ale o funkcjonowaniu opartym o hardware, nie o oprogramowanie. vRAID sklada się z 4 modułów flash na dane + 1 na parzystość<br />
Jeżeli chodzi o portfolio firmy Violin to można wyróżnić w nim trzy serie produktów:<br />
<br />
<b><u>6000 Flash Memory Array</u></b><br />
W skład tej linii wchodzą dwa produkty 6616 i 6632. Pierwszy z nich jest wykonany w technologii SLC, obsługuje ok 1mln IOPSów i ok 10TB przestrzeni, model 6632 jest macierzą MLC, o dwukrotnie gorszych parametrach wydajnościowych natomiast większej (również 2 razy) pojemności.<br />
<br />
<br />
<b><u>3200 Flash Memory Array</u></b><br />
Sztandarowy product firmy Violin Memory - macierz o wielkości 3U mogąca zapewnić do 10TB przestrzeni z bardzo dobrymi parametrami wydajnościowymi.<br />
<br />
<br />
<b><u>3100 Flash Memory Array</u></b><br />
Linia macierzy podobna do serii 3200 ale w przeciwieństwie do niej nie skupiająca się na maksymalnej wydajności ale “upakowaniu” danych. W obudowie o wielkości 3U można zapisać do 30TB danych.<br />
<br />
<hr />
<b><span style="color: #073763; font-size: x-large;"><br /></span></b><br />
<b><span style="color: #073763; font-size: x-large;">Nimbus</span></b><br />
<a href="http://www.nimbusdata.com/">http://www.nimbusdata.com/</a>
<br />
<span style="font-size: large;"><b><br /></b></span><br />
Bardzo obiecująca firma na rynku "solid state" - do jej sukcesów należy na przykład sprzedaż 100TB przestrzeni na macierzach SSD dla amerykańskiego EBay-a. Jest to, na chwilę obecną, jedna z największych transakcji w tym obszarze. Co ciekawe, Nimbus od niedawna ma swojego partnera w Polsce i także na naszym rodzimym rynku może się pochwalić wdrożeniem swojego produktu. Firmą która współpracuje z Nimbusem i świadczy wsparcie oraz serwis dla jej produktów jest COMPAREX.<br />
<br />
<div class="MsoNormal">
Macierze firmy Nimbus działają pod systemem operacyjnym (autorskim) o nazwie HALO. System ten zapewnia (lub będzie zapewniał w najbliższych realeasach) szereg funkcjonalności zarówno
obecnych w produktach konkurencji (np:deduplikacja), jak i takie, które są
standardem dla macierzy tradycyjnych ale nie występują w macierzach „solid
state” (replikacja synchroniczna i asynchroniczna). Wszystkie te
funkcjonalności nie są licencjonowane i dostępne do wykorzystania bez
dodatkowych opłat.<o:p></o:p></div>
<div class="MsoNormal">
<br /></div>
Nimbus dostarcza dwa rodzaje rozwiązań nazwanych: <b><u>S-Class i E-Class</u></b><br />
<br />
<b><u>E-Class (Enterprise)</u></b> to rozwiązanie w pełni redundantne, posiadające dwa kontrolery i brak SPOFów.<br />
<b><u>S-Class (Standard) </u></b>- posiada jedynie pojedynczy kontroler.<br />
<br />
Do każdego z tych rozwiązań dokłada się następnie odpowiedniki półek dyskowych o pojemnościach do 10TB jedna. Maksymalna wielkość to 100TB w przypadku S-Class i 500TB dla E-Class<br />
<br />
<hr />
<br />
<b><span style="color: #073763; font-size: x-large;">PureStorage</span></b>
<br />
<a href="http://www.purestorage.com/">http://www.purestorage.com/</a><br />
<br />
<div class="MsoNormal">
PureStorage to tzw start-up, czyli nowa firma z dużym
potencjałem ale małymi możliwościami do zapewnienia wsparcia i nie rozbudowaną
siecią partnerów/sprzedawców.<o:p></o:p></div>
<div class="MsoNormal">
Macierzy PureStorage wykorzystują autorski system operacyjny:
Purity Operating Envirnoment który zapewnie takie funkcjonalności jak globalna
i działająca in-line deduplikacja wraz z kompresją. Dzięki temu dane zapisywane
na macierzy zajmują od 5 do 20 razy mniej przestrzeni. Pozwala to na obniżenie
kosztu jednostkowego do wartości ok 5$/GB<o:p></o:p></div>
<div class="MsoNormal">
Obecnie firma mają w ofercie dwa rodzaje produktów:<o:p></o:p></div>
<div class="MsoNormal">
<b><br /></b></div>
<div class="MsoNormal">
<b><u>FA-310</u></b></div>
<div class="MsoNormal">
<b><u>FA-320</u><o:p></o:p></b></div>
<div align="center" class="MsoNormal" style="text-align: center;">
<span style="text-align: justify;"><br /></span></div>
<div class="MsoNormal" style="text-align: justify;">
Przy założeniu realistycznego współczynnika deduplikacja dla tzw: primary storage czyli 5:1 macierze te są w stanie przechować odpowiednio 50 i 100TB danych. Dyski w tych urządzaniach wykonane są w technologii MLC, ale system nimi zarządzający posiada mechanizmy wydłużające czas działania. W chwili obecnej macierze dostępne są jedynie na zasadzie „Early Access”, a dostarczenie i zapewnienie serwisu na terenie Polski jest praktycznie niemożliwe.<br />
<br /></div>
<hr />
<br />
<b><span style="color: #073763; font-size: x-large;">SolidFire</span></b><br />
<a href="http://solidfire.com/">http://solidfire.com/</a><br />
<br />
Kolejna nowa firma zajmująca się obszarem „solid-state arrays”.
Podobnie jak Pure Storage jej produkty mają wbudowaną deduplikację, co sprawia,
że efektywna pojemność jest o 5 do 20 razy większa niż rzeczywista ilość
miejsca na dyskach. Produkty SolidFire są głównie przeznaczone do świadczenia
usług w modelu „cloud storage” poprzez wsparcie dla dostępu obiektowego
(protokół REST), który jest głównie wykorzystywany przy tego typu
zastosowaniach. Innymi cechami macierzy SolidFire jest thin provisioning z
wbudowaną opcją reklamacji (odzyskiwania) przestrzeni oraz mocno rozbudowane
mechnizmy QoS (ustawienie max, min IOPSów oraz przepustowości per LUN itd…)<br />
<div class="MsoNormal">
<o:p></o:p></div>
<div class="MsoNormal">
<br /></div>
<div class="MsoNormal">
Pojedyńczy element (node) z którego zbudowane są rozwiązania SolidFire nosi nazwe <b><u>SF3010</u></b> i ma wielkość 1U. Wspierane jest łączenie do 100nodów. Jedynym obsługiwanym w tej chwili interfesjem jest Eternet 10Gb/sec<br />
<br /></div>
<div style="text-align: center;">
<div style="text-align: -webkit-auto;">
<hr />
</div>
</div>
<span style="font-size: large;"><b><br /></b></span><br />
<b><span style="color: #073763; font-size: x-large;">Whiptail</span></b><br />
<a href="http://whiptail.com/">http://whiptail.com/</a>
<br />
<span style="font-size: large;"><b><br /></b></span><br />
Kolejny start-up, do niedawna firma miała w swojej ofercie tylko jeden produkt nazwany XLR8r i pozycjonowany jako rozwiązanie dla środowiski VDI-owych. Około 2 tygodnie temu ogłosiła jednak dużą zmianę i modyfikację swojego portfolio.<br />
Obecnie Whiptail oferuje 2 produkty:<br />
<br />
<b style="text-decoration: underline;">Accela</b> - następca XLR8r, mniejsza z dwóch propozycji Whiptail-a. Jest to moduł o wielkości 2U i pojemności do 12TB.<br />
<b style="text-decoration: underline;">Invicta</b> - "rozbudowana" wersja Acceli. Przede wszystkim jest to rozwiązanie skalowalne (scale-out) tak więc ma możliwość zbudowania dużo większego środowiska.<br />
<br />
System na którym działa zarówno Accella jak i Invicta nosi nazwę: RaceRunner<br />
<span style="font-size: large;"><b><br /></b></span><br />
<hr />
<br />
<b><span style="color: #073763; font-size: x-large;">Kaminaro</span></b><br />
<a href="http://www.kaminario.com/">http://www.kaminario.com/</a>
<br />
<br />
Kaminaro to firma dostarczająca produkty zarówno oparte na flash SSD jak i na kościach DRAM (podobnie jak TMS). Architektura i silnik napędzający macierze tego producenta został nazwany SPEAR (Scale-out Performance Storage Architecture), jak w samej nazwie jest zaznaczone przystosowany jest on dla rozwiązań mogących być mocno skalowane.<br />
<br />
Kaminaro w tej chwili ma w ofercie 3 produkty różniące się od siebie rodzajem wykorzystanego nośnika:<br />
<ul>
<li><b><u>Kaminaro K2-F </u></b>---> Model wyłącznie z modułami flash. Zalecany dla zastosowań w których występuje duża liczba odczytów.</li>
<li><b><u>Kaminaro K2-D</u></b> ---> Model wyłącznie z modułami DRAM. Obsługuje mniejsze pojemności ale dostarcza większą wydajność oraz krótsze czasy odpowiedzi. Zastosowanie do głównie aplikacje generujące ogromne ilości zapisów.</li>
<li><b><u>Kaminaro K2-H</u></b> ---> Model hybrydowy posiadający zarówno moduły DRAM jak i flash. Kaminaro poleca go do ruchu "mieszanego" zarówno z zapisami jak i odczytami.</li>
</ul>
<div>
<hr />
</div>
<span style="font-size: large;"><b><br /></b></span><br />
<b><span style="color: #073763; font-size: x-large;">GreenBytes</span></b><br />
<a href="http://www.getgreenbytes.com/">http://www.getgreenbytes.com/</a>
<br />
<span style="font-size: large;"><b><br /></b></span><br />
Jeżeli chodzi o GreenBytes to firma ta ma w swojej ofercie jedną macierz typu "solid state".<br />
Nosi ona nazwę <u style="font-weight: bold;">Solidarity</u> i jest urządzeniem wspierającym wyłącznie protokół iSCSI. Oczywiście, podobnie jak w pozostałych przypadkach system zarządzający daną macierzą musi mieć swoją "nietypową" nazwę i jest to GO OS (Globaly Optimized OS).<br />
<br />
Z ciekawych spraw to macierz zapewnia bardzo wysoką dostępność, między innymi dzięki redundantnym kontrolerom oraz wspiera mechanizm wewnętrznej deduplikacji w trybie rzeczywistym.<br />
<br />
<hr />
<br />
<b><span style="color: #073763; font-size: x-large;">EMC ( + XtremeIO)</span></b><br />
<span style="font-size: large;"><b><br /></b></span><br />
Oprócz firm specjalizujących się w "solid-state" macierzach, także "wielcy" świata storage przyglądają się bardzo temu segmentowi i próbują zdobyć na nim swoje przyczółki. Pierwsza próba jaką wykonało EMC ciężko mi uznać za udaną. Firma ta doszła do wniosku, że nie ma się co przemęczać i budować nowej architektury, ale warto wykorzystać rozwiązanie już posiadane (w tym przypadku macierz VNX) i skonfigurować ją wykorzystując wyłącznie dyski SSD.<br />
W ten sposób powstał <b><u>VNX 5500F</u></b> --> klasyczna macierz midrange zdolna do obsługi zarówno ruchu blokowego jak i plikowego ale wyposażona wyłącznie w napędy flashowe. Biorąc pod uwagę, że standardowe kontrolery nie są przystosowane do olbrzymiego ruchu generowanego przez SSD, a także nie wykorzystują specyfiki działania takich dysków (np: zupełnie inny mechanizm zapisywania, niż odczytywania) okazało się, że tego typu konstrukcje nie są zbyt atrakcyjne.<br />
<br />
EMC poszło po rozum do głowy i rozpoczęło prace nad czymś co początkowo sprawiało wrażenie przekształcenia się w macierz "solid-state" z prawdziwego zdarzenia. Tym czymś były projekty Lighning i Thunder. Pierwszy z nich okazał się kartą flash instalowaną w serwerze, a drugi najprawdopodobniej finalnie będzie akceleratorem storage w sieci SAN (coś podobnego, ale nie całkiem będącego macierzą SSD). Więcej o tych dwóch projektach można znaleźć <a href="http://metastorage.blogspot.com/2012/02/ligtningthuner-i-vfcache-czyli-bardzo.html">TUTAJ</a>.<br />
Kolejnym krokiem EMC było wykupienie firmy specjalizującej się w solid-state storage, a mianowicie XtremeIO (<a href="http://www.xtremio.com/">http://www.xtremio.com/</a>). To daje już potężne zaplecze do budowy własnego rozwiązania (lub po prostu zaadoptowanie istniejącego w XIO) - EMC zdaje się podążać tą pierwszą drogą i na ostatnim EMC World 2012 ogłosiło powstanie projektu X (<b><u>Project X</u></b>), który wydaj się być niczym innym, jak macierzą "solid state" z prawdziwego zdarzenia.<br />
<br />
Jak zwykle - pożyjemy,zobaczymy.<br />
<br />
<hr />
<br />
<b><span style="color: #073763; font-size: x-large;">HP</span></b><br />
<span style="font-size: large;"><b><br /></b></span><br />
Na zakończenie HP, które całkiem niedawno ogłosiło swój produkt "solid state"-owy. Niestety, podobnie jak w przypadku EMC, nie można powiedzieć, że mamy do czynienia z czymś nowym, a jedynie tradycyjną macierzą wyposażoną wyłącznie w dyski SSD. Urządzenie to nosi nazwę P4900, obsługuje wyłącznie interfejs iSCSI i startowo dostarcza 6,4TB przestrzeni.<br />
<br />
<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-37188981610264422102012-05-02T21:47:00.000+02:002012-05-02T21:47:02.691+02:00Macierze "solid state" - demony prędkości (Część 2.1 - opis rozwiązania+TMS)<br />
<div class="MsoNormal">
W poprzednim wpisie (<a href="http://metastorage.blogspot.com/2012/04/macierze-solid-state-demony-predkosci.html">Część 1</a>) rozpocząłem temat macierzy "solid state" ale skupiłem się wyłącznie na opisaniu dysków SSD. Teraz przyszła kolej na macierze:</div>
<div class="MsoNormal">
<br /></div>
<div class="MsoNormal">
<span style="font-size: large;"><b>Macierze "Solid State":</b></span></div>
<div class="MsoNormal">
<br /></div>
<div class="MsoNormal">
Macierzami „Solid State” nazywamy rozwiązanie wykorzystujące
tylko i wyłącznie dyski SSD. Macierze te dysponują o około klasę mniejszymi
pojemnościami niż odpowiedniki z dyskami mechanicznymi, jednak deklasują je pod
względem wydajności .<o:p></o:p></div>
<div class="MsoNormal">
Potrzeba wykorzystania nośników odmiennych niż dyski mechaniczne
jest związana z szybkim postępem technologii w innych obszarach takich jak moc
procesorów czy przepustowości sieci. Od
roku 2000 wydajność tych "pozostałych" komponentów zwiększyła się od 15 do ponad 400 razy:</div>
<div class="MsoNormal">
</div>
<ul>
<li><b>Procesor</b> rok 2000 (Pentium 4 1,5Ghz) , rok 2012(Octal 2,6 Ghz) około 30 razy szybszy</li>
<li><b>Pamięć RAM</b> rok 2000 (DDR1 PC-2100), rok 2012 (DDR3 PC3-17000) około 16 razy szybsze</li>
<li><b>Sieć</b> rok 2000 (100Mb Ethernet), rok 2012 (40GbE) - szybsze 400 razy.</li>
</ul>
<div class="MsoNormal">
Niestety jeżeli popatrzymy z podobnej perspektywy na prędkości dysków twardych (tradycyjnych), to będzie to dość przygnębiający widok:</div>
<div class="MsoNormal">
</div>
<ul>
<li><b>Dysk </b>rok 2000 (15k RPM) , rok 2012 (15k RPM) - wzrost o 0%</li>
</ul>
<div class="MsoNormal">
Pozostające ciągle na tym samym poziomie wydajności
mechaniczne dyski twarde przestają być nośnikiem mogącym zapewnić prawidłową wydajność
systemu dyskowego i coraz częściej stają się wąskim gardłem wydajnościowym.<o:p></o:p></div>
<div class="MsoNormal">
Obecnie wykorzystywane są różne rozwiązania niwelujące słabą
wydajność podsystemów dyskowych takie jak: caching, automatyczny tierning czy
skalowanie macierzy na wydajność (kupno dużej ilości nadmiarowych dysków), ale są
to tylko pewne obejścia. Za rozwiązanie strukturalne dla najbardziej
wymagających aplikacji powinno się uważać rezygnację z dysków mechanicznych i
przejście całkowicie na dyski SSD oraz macierze „solid-state”.</div>
<div class="MsoNormal">
Warto także zauważyć, że macierz "solid-state" to coś więcej niż tylko zwykła macierz, do której nie dodało się dysków tradycyjnych, a tylko SSD (taką konstrukcje ma np w swoim portfolio EMC: VNX5500-F).</div>
<div class="MsoNormal">
Macierz "solid-state" w prawdziwym tego słowa znaczeniu to urządzenie od początku do końca zaprojektowane wyłącznie z myślą o dyskach SSD, z firmware-m zoptymalizowanym pod wymagania takich dysków.<br />
Oczywistą sprawą jest, że macierze SSD są wielkokrotnie szybsze niż ich odpowiedniki z dyskami HDD, ale traci się na pojemności (choć pojawiają się już rozwiązania z deduplikacją w czasie rzeczywistym). Kolejną cechą, która odróżnia te dwa typy macierzy są dodatkowe możliwości zwiększające bezpieczeństwo - rozwiązania typu redundacja wszyskich komponentów (brak SPOFów), czy funkcjonalności związane z replikacją lokalną i zdalną są dużo bardziej dojrzałe w produktach tradycyjnych.</div>
<div class="MsoNormal">
<o:p></o:p></div>
<div class="MsoNormal">
<br /></div>
<div class="MsoNormal">
Na rynku istnieje w tej chwili kilka (lub kilkanaście) firm specjalizujących się w sektorze macierzy „solid state”. Dwie z nich: TMS i Violin są firmami o ugruntowanej pozycji i posiadające rozbudowaną sieć sprzedaży i partnerów także na terenie Polski. Pozostałe to tzw: Startup-y, zalożone w latach 2010 lub 2011, posiadające bardzo duży potencjał i innowacyjne rozwiąnia ale nie mogące zapewnić odpowiedniego wsparcia na terenie Polski. W tej chwili większość start-upów ma swoje centra w dolinie krzemowej.</div>
<br />
<br />
Przyjrzyjmy się poszczegółnym firmom i ich ofertą:<br />
<br />
<span style="font-size: large;"><b>TMS (Texas Memory System):</b></span><br />
<a href="http://www.ramsan.com/">http://www.ramsan.com/</a>
<br />
<span style="font-size: large;"><b><br /></b></span><br />
Jedna z dwóch "dużych" firm nakierowanych na macierze "solid state". Założona w 1978r, pierwsza macierz oparta na flashach (SAM 300) została wypuszczona na rynek w 1990r.<br />
Macierze TMSa noszą nazwę RamSAN i można podzielić je na dwie linie:<br />
<br />
<b><u>Macierze oparte na dyskach SSD flash:</u></b><br />
Czyli "tradycyjne" modele macierzy "solid-state" (choć tradycyjne dla tej kategorii produktów, brzmi nieco śmiesznie). W tej klasie dostępne obecnie są następujące rozwiązania:<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-810"><b>Ramsan-810</b></a><br />
Macierz oparta na dyskach SSD wykonanych w technologii eMLC (więcej o podziale dysków w poprzednim wpisie). Nie mamy wieć tutaj do czynienia z bardzo drogimi dyskami SLC, ale nie wykorzystuje się również "ekonomicznej" klasy MLC. Sama macierz ma wielkość 1U i dostarcza do 10TB przestrzeni. Dostępne interfejsy to FC i Infinband.<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-710"><b>Ramsan-710</b></a><br />
Podobnie jak 810 macierz wielkości 1U o identycznych dostępnych interfejsach: FC i Infiniband. Główna różnica to wykorzystanie dysków SLC, czyli szybszych, wytrzymalszych ale także o mniejszych pojemnościach, z tego powodu maksymalna pojemność pojedyńczej macierzy to 5TB<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-640"><b>Ramsan-640</b></a><br />
Nieco większy model macierzy opartej na SSD - wysokość 4U, w całości zbudowana na "enterprise"-owych pamieciach SLC. Sumarycznie może dostarczyć 500.000IOPS i to według specyfikacji producenta zarówno w zapisie jak i odczycie. Przestrzeń jedynie 8TB, no ale nie dla dużego capacity kupuje się macierze "solid state". RamSan-640 obsługuje także technologię FlashBrick dzięki której składające się na nią moduły (2TB każdy) mogą być wymieniane bez utraty znajdujących się na nich danych pomiędzy macierzami.<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-630"><b>Ramsan-630</b></a><br />
Macierz o wielkości 3U, pamięciach SLC i pojamności 10TB. Widać od razu, że jest to "upgradowany" jeżeli chodzi o gęstość danych model 640. Prawdziwym zaskoczeniem jest jednak jego wydajność - 1.000.000IOPS (czyt: MILION IOPS). Ile w tym marketingu nie wiem - niestety nie miałem okazji sprawdzić.<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-6300"><b>Ramsan-6300</b></a><br />
A to już można powiedzieć powtarzając za skeczem wykonywanym przez popularny kabaret "chłyt małketingowy". Ta macierz to nic innego jak szafa wielkości 42U wyładowana od dołu do góry RamSan-ami-630 (zmieściło się ich 14).<br />
Dzięki temu mamy urzadzenie które jest w stanie wygenerować 14.000.000IOPSów, zapewnia przepustowość 140GB/s i dostarcza 140TB przestrzeni.<br />
Fajne wartości, można się chwalić w folderach i na prezentacjach :D<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-720"><b>Ramsan-720</b></a><br />
Jeżeli chodzi o ten model to przede wszyskim skupiono się tutaj na dostępności i zapewnieniu ciągłości działania. Pozostałe modele mają wbudowaną pewną redundancje (zasilanie, układ chłodzący) ale same kontrolery były SPOFem. W Ramsan-720 ilość punktów których uszkodzenie spowodowało by zatrzymanie macierzy zostało ograniczone do minimum.<br />
Jeżeli chodzi o szczegóły techniczne to jest to macierz o wysokości 1U i oparta na pamięciach SLC, jak na tak małe wymiary bardzo imponująca jest pojemność - 12TB<br />
<br />
<a href="http://www.ramsan.com/products/rackmount-flash-storage/ramsan-820"><b>Ramsan-820</b></a><br />
Rozwiązanie pod względem architektury analogiczne do RamSan-720 z poświęceniem bardzo dużej uwagi kwestią ciągłości działania. Różnica polega na rodzaju wykorzystanych pamięci SSD, zamiast SLC użyto eMLC, które (kosztem trwałości i szybkości) zapewnia większą pojemność.<br />
1U macierzy RamSan-820 to do 24TB przestrzeni.<br />
<br />
<b><u>Macierze oparte na dyskach SSD DRAM:</u></b>
<br />
<b><br /></b><br />
Superliga jeżeli chodzi o macierze "solid-state", tutaj zamiast pamięci flash do przechowywania danych wykorzystuje się kości DRAM - czasy odpowiedzi są "obłędne", nawet kilka razy mniejsze niż przy "zwykłych" macierzach SSD. Oczywiście ma to swoją cenę, po pierwsze tego rodzaju pamięć jest nieodporna na zanik zasilania, potrzeba więc stosować dodatkowe zabezpieczenia, po drugie pojemności tych urządzeń liczy się raczej w GB niż TB.<br />
Próby liczenia kosztu jednostkowego dla tych urządzeń przyjmując dotychczasowe, najpopularniejsze metryki czyli TB/$ dają przeogromne ceny - wiadomo jednak, że przy tych urządzeniach nie to jest najważniejsze.<br />
<br />
TMS oferuje następujące produkty z tej serii:<br />
<br />
<b><a href="http://www.ramsan.com/products/rackmount-ram-storage/ramsan-420">Ramsan-420</a></b><br />
Zbudowana na kościach DDR2 macierz, zapewniająca 256GB przestrzeni. Wydajność to około 600.000IOPS, natomiast czasy odpowiedzi są poniżej 15milisekund (mili, nie mikro!).<br />
Jak na zatrważającą przestrzeń ćwierci TB, macierz zajmuje "zaledwie" 4U - maleństwo :D<br />
<b><br /></b><br />
<b><a href="http://www.ramsan.com/products/rackmount-ram-storage/ramsan-440">Ramsan-440</a></b><br />
Model podobny do RamSan-420 ale dzięki lepszemu upakowaniu danych mieści 512GB. Pozostałe parametry bez zmian.<br />
<b><br /></b><br />
<b><a href="http://www.ramsan.com/products/rackmount-ram-storage/ramsan-300">Ramsan-300</a></b><br />
Mniejsza i bardziej ekonomiczna wersja od swoich większych braci z serii 4xx. Wielkościowo zmiana jest kosmetyczna (z 4 na 3U) ale pojemność spadała znacznie - do 32GB a ilość obsługiwanych na sekundę operacji wejścia/wyjścia do 200.000.<br />
Jeżeli ktoś chce rozpocząć pracę z macierzami oprartymi na RAMie, a wystarczy mu 32GB przestrzeni to takie rozwiązanie jest pewnie bardzo dobre na start.<br />
<br />
<hr />
Nie chcę tego wpisu rozciągać dalej, a w sumie omówiliśmy dopiero pierwszego z kilku producentów oferujących macierze "solid-state" - dlatego też reszta będzie opisana następnym razem.Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-9697685060314928302012-04-10T21:24:00.002+02:002012-04-10T21:24:59.203+02:002 rocznica blogaDzisiejszego dnia minęły 2 lata odkąd napisałem pierwszy wpis na blogu.<br />
Co prawda inauguracja była dość smutna (z racji katastrofy Tupolewa) i bardzo krótka ale w pewien sposób zaczęła to co udaje mi się kontynuować do tej pory.<br />
<br />
Blog rozwijał się bardzo spokojnie i bez większych rewolucji, ale takie też były założenia. Nie chciałem (i dalej nie chcę) zawojować za pomocą metastorage świata pamięci masowych, trochę to takie "pisanie dla samego siebie" choć oczywiście bardzo mi miło jeżeli, ktoś znajduje to pożyteczne dla siebie informacje.<br />
<br />
Co do statystyk:<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj9shzdnNK357LIwT2gxadvm8SQUTytHDAnnHv8BBcAhhFxLAFiIKYefsEO3HxTdtOvAVdXiowPmQGj1L7rrLQ6iZtQ8tFX1lxSSVqkb5-D6ROuGJ9BWMWCifC26HiYyHwf329MXhS4GEsR/s1600/staty.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="237" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj9shzdnNK357LIwT2gxadvm8SQUTytHDAnnHv8BBcAhhFxLAFiIKYefsEO3HxTdtOvAVdXiowPmQGj1L7rrLQ6iZtQ8tFX1lxSSVqkb5-D6ROuGJ9BWMWCifC26HiYyHwf329MXhS4GEsR/s320/staty.jpg" width="320" /></a></div>
Jak widać w ciągłu tych 2 lat odwiedziło mnie prawie 3400 unikalnych użytkowników ( około 6000 odwiedzin). Na pewno "kokosów" bym nie zarobił umieszczając tutaj reklamy ;)<br />
Niestety bardzo duży współczynnik odrzuceń - średnio 4 na 5 trafiających na mojego bloga nie czytało więcej niż pojedynczej strony - wynika to z pewnością z bardzo dużej ( i niezasłużonej) popularności jednego ze wpisów - tego dotyczącego cloud computingu.<br />
<br />
To co cieszy to fakt, że mam niewielką grupkę osób, które mojego bloga odwiedzają i czytają regularnie:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgJQJsTwpChcViZuc3EoPYIaL5SBZ1rwm6Og1K8A1AHRX4T2ub-ZRwWdBSm_-kWxO1Xoh0pSIv9rrzsYr1MPnSdZJh3iOOOxaHeVH0Ap4XA9ijPzJH2YPQyj6smPHou1mse2mL48VUYC9Ry/s1600/odwiedziny.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="316" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgJQJsTwpChcViZuc3EoPYIaL5SBZ1rwm6Og1K8A1AHRX4T2ub-ZRwWdBSm_-kWxO1Xoh0pSIv9rrzsYr1MPnSdZJh3iOOOxaHeVH0Ap4XA9ijPzJH2YPQyj6smPHou1mse2mL48VUYC9Ry/s640/odwiedziny.jpg" width="640" /></a></div>
<br />
<br />
Najbardziej zadziwiająca sprawa, jaka spotkała mnie przez te 2 lata blogowania, to fakt podlinkowania mnie przez Wikipedię (<a href="http://pl.wikipedia.org/wiki/Cloud_computing">http://pl.wikipedia.org/wiki/Cloud_computing</a>) i co najśmieszniejsze dotyczy to posta o temacie nieco odbiegającym od motywu przewodniego tego bloga. Dzięki temu poznałem siłę Wiki bo z tego jednego niepozornego linku w przypisach mam ponad 2200 wejść.<br />
<br />
Co dalej z blogiem?<br />
Ano nic nowego. Dalej będę pisał o sprawach jakie mi się spodobały w świecie storage, postaram się ciągnąć temat dotyczący Clariionów i przygotowania do certyfikacji EMC w tym obszarze, a może urodzi się w mojej głowie jeszcze coś innego. Pożyjemy zobaczymy.<br />
<br />
Pozdrawiam wszystkich czytających i życzę przyjemnej lektury.<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
</div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-55281311605791326942012-04-05T21:09:00.001+02:002012-04-05T21:09:28.033+02:00Macierze "solid state" - demony prędkości (Część 1 - Dysk SSD)Jednym z najbardziej obecnie obiecujących trendów w obszarze storage i coś co pojawia się bardzo często we wszystkich zestawieniach związanych z przyszłościowymi technologiami to macierze składające się wyłącznie z dysków SSD.<br />
<div>
Ponieważ ostatnio przygotowywałem w pracy analizę rynku takich rozwiązań i zebrałem trochę materiału oraz uzupełniłem swoją wiedzę na ten temat, to z miłą chęcią podzielę się tymi informacjami tutaj.<br />
<br />
Zaczniemy od początku czyli opisania czym w ogóle jest dysk SSD<br />
<br />
<span style="font-size: large;"><b>Dysk SSD</b></span><br />
<br />
<u><b>Podstawy:</b></u><br />
<br />
<div class="MsoNormal">
Dysk SSD jest urządzeniem do przechowywania danych o
zastosowaniach analogicznych jak „tradycyjne” dyski twarde. W odróżnieniu od
nich SSD nie posiada części mechanicznych (talerze, głowice) a dane
przechowywane są na elektronicznych układach półprzewodnikowych.<o:p></o:p><br />
<br />
<u><b>Zalety:</b></u></div>
<div class="MsoNormal">
<ul>
<li>Dużo szybsze od
tradycyjnych dysków (szczególnie podczas tzw swobodnych odczytów - <i>random reads</i>)</li>
<li>Brak
mechanicznych części powoduje iż ich awaryjność jest dużo mniejsza, a odporność
na wstrząsy i wpływ środowiska bardzo duża. </li>
<li>Małe zużycie energii - to także wynika z budowy tych urządzeń.</li>
</ul>
<div>
<u><b>Wady:</b></u></div>
<div>
<ul>
<li>Koszt,
znacząco większy niż dla dysków tradycyjnych. </li>
<li>Mniejsze
pojemności.</li>
<li>Ograniczona żywotność
liczona w tzw cyklach zapisu. Cykl zapisu polega na wykasowaniu zawartości
bloku z danymi i nadpisaniu go nowymi danymi – komórki pamięci na dyskach SSD
mogą wykonać taką operację jedynie ograniczoną liczbę razy. </li>
</ul>
<div>
<u><b>Parametry wydajnościowe:</b></u></div>
<div>
<u><br /></u></div>
<div>
Napędy SSD są dużo szybsze niż ich mechaniczne odpowiedniki. Dysk SAS 15k potrafi osiągnąć około 180IOPSów. Wielkość ta jest zależna od dwóch czynników: szybkości obrotowej dysku oraz tzw "seek time", czyli czasu potrzebnego do głowicy dysku, na ustawienie się nad właściwym sektorem. Czynniki te są zależne od samej fizycznej budowy napędów i w najbliższej przyszłości nie jest możliwe ich podniesienie (np: zwiększenie prędkości obrotowej ponad 15.000obrotów powoduje bardzo duże wzrost siły bezwładności działającej na talerze) - z tego względu można powiedzieć, że dyski "tradycyjne" zbliżyły się do swoich granic wydajnościowych. W przypadku SSD nie ma ograniczeń mechanicznych i potrzeby "pozycjonowania" się głowicy nad danymi do odczytu, dlatego też napęd może obsłużyć dużo większą ilość żądań zapisu/odczytu. Dyski SSD mają jednak bardzo skomplikowany i wprowadzający duże opóźnienia mechanizm zapisu danych - dlatego też występują spore różnice między wydajnością przy zapisach (około 500IOPSów) a odczytach (40.000IOPSów). Przy standardowym "wymieszanym" ruchu dyski SSD są klikanaście razy szybsze od mechanicznych.</div>
<div>
Kolejnym z parametrów wydajnościowych jest czas odpowiedzi. W przypadku HDD dla dysków 15k wynosi on około 3ms , przy dyskach SSD mówimy o wielkościach rzędu 100<span style="background-color: white; text-align: -webkit-left; white-space: nowrap;">µS (0,1ms).</span></div>
<div>
<u><br /></u></div>
<div>
<u><b>Podział dysków SSD -> Flash i DRAM:</b></u></div>
</div>
<div>
<u><br /></u></div>
<div>
Dyski SSD można podzielić według kilu kryteriów,j ednym z nich jest rodzaj układów półprzewodnikowych używanych do przechowywania danych. Można wyróżnić dwie kategorie: SSD zbudowane na modułach flash oraz na kościach DRAM.</div>
<div>
Dyski SSD używane w komputerach stacjonarnych i laptopach, a także zdecydowana większość dysków używanych w serwerach oraz macierzach jest oparta o moduły flash. DRAM obecny jest jedynie w niewielkiej ilości specjalizowanych macierzy opartych na tej technologii oraz w kartach PCIe. Poprzedni paragraf zatytułowany "Parametry wydajnościowe" opisywał tak naprawdę nie ogół dysków SSD ale właśnie ich podkategorię opartą na modułach flash.<br />
<br />
<div style="text-align: left;">
Jeżeli chodzi o różnice między tymi dwoma technologiami to dyski DRAM są o wiele szybsze niż ich flashowe odpowiedniki. Czas odpowiedzi z pamięci DRAM mieści się w granicach 10-50µS, a z dysków flash około 100µS. Różnica jest znaczna, ale obydwie te wartości i tak są bardzo niskie jeżeli porównamy je do dysków tradycyjnych.<br />
<div>
W układach DRAM nie występuje także zjawisko "zużywania" się komórek pamięci, które jest widoczne we flash-ach.<br />
Jedną z ważniejszych różnic w działaniu jest reakcja na utratę zasilania - po odcięciu dopływu prądu komórki DRAM tracą zawartą w nich informację, dyski flash są na to zjawisko niewrażliwe. Z tych powodów macierze oprarte na DRAM muszą być zaopatrzone w baterie, do podtrzymywania zawartości pamięci w przypadku awarii zasilania.<br />
Kolejna sprawa jaka wyróżnia te dwie grupy to wydzielanie ciepła - w przypadku DRAMu jest on dużo większy, co wpływa na potrzebę instalowania dodatkowych modułów chłodzących.</div>
<div>
<br /></div>
<div>
<u><b>Podział dysków SSD --> SLC/MLC/eMLC/TLC</b></u></div>
<div>
<br /></div>
</div>
<div class="MsoNormal">
<o:p></o:p></div>
</div>
<div>
Zostając przy dużo bardziej popularnych dyskach opartych na modułach flash (bardzo często mówiąc SSD myślimy właśnie o dyskach flashowych) to je także można podzielić na kilka kategorii.<br />
Różnica polega na budowie pojedynczej komórki pamięci i ilości przechowywanych w niej danych. Główne rodzaje komórek to SLC i MLC.<br />
Komórki <b><i>SLC (Single Level Cell) </i></b> przechowują jeden bit pamięci i mogą przyjmować tylko dwie wartości (1 i 0). Komórki <b><i>MLC (Multi Level Cell)</i></b> mogą znajdować się w czterech stanach (00,01,10,11) tak więc przechowują dwa bity informacji.<br />
Przechodząc teraz z poziomu pojedynczej komórki do poziomu dysku SSD wykonanego w danej technologii:<br />
Dyski SSD MLC mają dużo większe pojemności (dwa bity zamiast jednego na komórkę), są także tańsze. Jednak większa liczba stanów, w jakich może znajdować się pojedyncza komórka, sprawia, że różnice między nimi się zacierają, przez co dużo większa jest możliwość popełnienia błędów oraz mniejsza odporność na zużywanie. Dyski MLC są także nieco wolniejsze niż SLC.<br />
<br />
Można również spotkać się z dwoma innymi rodzajami flashowych dysków SSD, a mianowicie eMLC i TLC. <b><i>eMLC (Enterprise Multi Level Cell)</i></b> to dysk oparty na komórkach MLC ale o poprawionej odporności na zużycie - "zwykłe" komórki MLC wytrzymują około 10.000 cykli czyszczenia/zapisu, natomiast eMLC to około 30.000cykli (dla porównania SLC - 100.000cykli).<br />
<b><i>TLC (Triple Level Cell)</i></b> - to komórki przechowujące 3 bity danych (8 stanów) - otrzymujemy jeszcze większą gęstość danych ale oczywiście cierpi na tym niezawodność i odporność na "zużycie".<br />
<br />
<hr />
<br />
Na chwilę obecną wystarczy tyle informacji o dyskach SSD, kolejny wpis będzie poświęcony macierzą opartym wyłącznie na tych napędach i firmom które je dostarczają. Jeszcze potem myślę wrócić do tematu samych dysków i opisać trochę dokładniej ich działanie (funkcje takie jak TRIM, Garbage Collection itd...)<br />
<br />
<br />
<b><span style="font-size: large;">Do poczytania:</span></b><br />
<br />
<a href="http://en.wikipedia.org/wiki/Solid-state_drive">SSD - Wikipedia</a><br />
<a href="http://silvertonconsulting.com/blog/2010/10/18/what-emlc-and-eslc-do-for-ssd-longevity/">What eMLC and eSLC do for SSD longevity</a><br />
<a href="http://www.bitmicro.com/press_resources_flash_ssd.php">Flash SSDs - Inferior Technology or Closet Superstar?</a><br />
<a href="http://www.ramsan.com/resources/SSDOverview">Solid State Disk Overview</a><br />
<a href="http://www.storagefocus.pl/raporty/dyski-macierze-dyskowe/slc-kontra-mlc-gdzie-dwoch-sie-bije">SLC kontra MLC gdzie dwóch się bije</a><br />
<br /></div>
</div>
</div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-537590064442762112012-03-28T20:50:00.004+02:002012-03-28T20:50:40.963+02:00Clariion - Watermarki i write cache hit ratioW poprzednim wpisie wspomniałem o watermarkach oraz parametrze write cache hit ratio, oraz zadeklarowałem że wrócę do ich dokładniejszego opisu następnym razem.<br />
<br />
<span style="font-size: large;"><b>Watermarki i działanie write cache:</b></span><br />
<br />
Aby wyjaśnić pojęcie watermarków muszę przybliżyć działanie cache dla Clariiona.<br />
Jeżeli do macierzy dochodzi polecenie zapisu jakiś danych to praktycznie można przyjąć że zawsze (z pewnymi wyjątkami na których nie będę się rozpisywał) te dane trafiają do części pamięci cache odpowiedzialnej za zapisy (<b><i>write cache</i></b>).<br />
Po umieszczeniu danych w cache do serwera, który dane zapisywał, wysłane zostaje potwierdzenie wykonania tej operacji. Następuje ono bardzo szybko, głównie dlatego, że sam cache oparty na modułach flash jest dużo szybszy niż dyski fizyczne. Oczywiście dane zapisane na pamięć flash muszą być docelowo zapisane na dyski (pamięć cache ma ograniczoną wielkość i dodatkowo nie jest odporna na utratę zasilania) - proces "zrzucania" danych z cache na dyski nosi nazwę "flushing", a te dane które jeszcze nie zostały zrzucone to tzw: "dirty pages".<br />
<br />
Podstawowym kryterium mówiącym o tym jak intensywnie kontroler zrzuca "dirty pages" na dyski fizyczne jest wypełnienie write cache. Można wyróżnić trzy rodzaje "flushingu":<br />
<ul>
<li>idle</li>
<li>watermark (nazywane też "high water flushing")</li>
<li>force</li>
</ul>
Najlepiej pokazać to na wykresie (z góry przepraszam, za moje "arcydzieło" paintowe):<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhrMeskUFPv1IoVe-uQHZhPChqr_ITYROemEQGyuelP9w2M35SvkgxWix40LRd2S1ay7gHSSWCJSZ5LanLZMKDwODtFcZd0FfUDwKS_ymXbSz6guNE60pJpKlwHSLoE1m_KOaCYC2CtgTDi/s1600/cache.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="380" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhrMeskUFPv1IoVe-uQHZhPChqr_ITYROemEQGyuelP9w2M35SvkgxWix40LRd2S1ay7gHSSWCJSZ5LanLZMKDwODtFcZd0FfUDwKS_ymXbSz6guNE60pJpKlwHSLoE1m_KOaCYC2CtgTDi/s640/cache.jpg" width="640" /></a></div>
<br />
Oś pionowa przedstawia tutaj zapełnienie cache do zapisu. Są tam zaznaczone trzy progi:<br />
<br />
<ol>
<li>Low watermark - standardowo ustawiony na 60% - może być zmieniony przez administratora</li>
<li>High watermark - standardowo ustawiony na 80% - może być zmieniony przez administratora</li>
<li>Pełne wypełnienie cache - 100% </li>
</ol>
<div>
<b>Żeby była jasność - wykres powyższy pokazuje pewne uproszczenie. <u>To jak działa cache i kiedy zachodzą jego poszczególne rodzaje nie jest całkowicie zgodne z tym wykresem.</u> Zaraz będzie to wyjaśnione w szczegółach.</b></div>
<div>
<b><br /></b></div>
<div>
<b><span style="font-size: large;">Jak działa flushing:</span></b></div>
<div>
<b><br /></b></div>
<div>
Na początku pracy macierzy cache oczywiście jest wypełniony w 0%. Do macierzy zaczynają spływać żądania zapisu, trafiają one do cache i powoli go zapełniają. Cache początkowo działa w trybie "idle flushing" - oznacza to, że Clariion grupuje w cache poszczególne zapisy i zrzuca je na dyski dopiero wtedy, gdy do LUNa do którego dane przynależą nie ma odwołań przez 2 sek (taki LUN jest wtedy uznawany jako nieużywany - idle). Tego typu flushing w bardzo małym stopniu obciąża kontrolery, nie ma także wpływu na szybkość pracy zasobów, ponieważ generuje ruch na LUNie jedynie wtedy gdy jest on nieużywany.</div>
<div>
<br /></div>
<div>
Pierwsza zamiana w pracy flushingu zachodzi kiedy przekroczona zostaje granica określone "High Watermarkiem" (czyli większą z tych dwóch wartości). Wtedy z trybu "idle" przełączamy się na "watermark". W tym trybie Clariion zaczyna dużo bardziej intensywnie zrzucać "dirty pages" na dyski, nawet dla LUNów które są właśnie używane. Ten sposób "czyszczenia" cache trwa do momentu, kiedy jego zajętość spadanie poniżej wartości określonej "Low Watermarkiem", kiedy na powrót trafiamy w"Idle flushing".</div>
<div>
<br /></div>
<div>
Jeżeli mimo włączenia trybu "watermark flushing" zajętość cache ciągle rośnie (tzn: macierz dostaje bardzo duże ilości zapisów i nie nadążą ze zrzucaniem tego na dyski), dochodzimy do fizycznej granicy ile może zmieścić się w cache czyli do 100% jego zapełnienia. W tym momencie macierz nie ma innego wyjścia - cache zostaje wyłączony i zaczyna się tzw: "force flushing" czyli szybkie zrzucanie zawartości cache na dyski. Ponieważ w tym trybie wszystkie nowe zapisy idą bezpośdenio na dysk, a dodatkowo same dyski są przyjmują to co "zapchało" cache, tak więc wydajność macierzy może być mocno obniżona. "Force flushing" trwa do momentu aż wypełnienie cache spadnie poniżej wartości low watermarka.</div>
<div>
<br /></div>
<div>
<b><u>Jaki jest sens tych trzech trybów?</u></b></div>
<div>
Macierz stara się utrzymać zajętość cache pomiędzy low a high watermarkiem. Od góry nie chcemy dobijać "do sufitu" - standardowo zostawiamy 20% cache (od 80 do 100 procent wypełnienia) jako bufor, który może przyjąć nagłe obciążenie ze strony serwerów, jednak z drugiej strony nie chcemy aby nasz cache był cały czas w połowie lub większej ilości pusty - oznaczało by to, że się marnuje i nie jest używany. Dlatego też macierz stara się utrzymywać utylizację cache na poziomie 60-80%, z jednej strony trzymając bufor chroniący przed pikami obciążeniowymi z drugiej dbając aby pamięć podręczna nie była nieużywana.</div>
<div>
<br /></div>
<div>
<span style="font-size: large;"><b>Write cache hit ratio:</b></span></div>
<div>
<br /></div>
<div>
Obiecałem wspomnieć jeszcze o jednym aspekcie a mianowicie o wartości określanej jako "Write cache hit ratio". Cały problem polega na zrozumieniu co tak naprawdę EMC pod tym pojęciem rozumie - skoro z definicji praktycznie wszystkie zapisy mają trafiać do cache tak więc wartość powinna oscylować lub być równa 100% - jeżeli tak się nie dzieje to albo mamy opisany trochę wyżej "force flushing" albo tzw: "write aside" czyli zapis blokiem o dużej wielkości (standardowo 2048 bloków) który automatycznie od razu jest wysyłany na dyski fizyczne.<br />
<br />
Spróbowałem znaleźć w dokumentacji EMC jak definiować należy ten parametr i okazało się że nie ma tutaj żadnej wielkiej filozofii. Definicja jest analogiczna do Read Cache Hit Ratio czyli przedstawia ile % ze wszystkich żądań zapisu trafiło najpierw do pamięci cache.<br />
<br />
Sam nie wiem dlaczego spodziewałem się tutaj czegoś innego.<br />
<br /></div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-79011757936912821102012-03-21T23:34:00.001+01:002012-03-21T23:34:19.608+01:00Clariion - Storage System Properties<br />
W poprzednim wpisie związanym z Clariionami zrobiliśmy szybki "rajd" po podstawowych menu i okienkach Unisphere.<br />
Dzisiaj chciałbym przyjrzeć się niektórym miejscom nieco bardziej.<br />
Na pierwszy ogień idą ustawienia związane z kontrolerami (storage procesorami)<br />
<span style="font-size: large;"><b><br /></b></span><br />
<b><span style="font-size: large;">Własności i konfiguracja Storage Procesorów (kontrolerów)</span></b><br />
<br />
Właściwości, które opisuję, są dostępne w menu <b>Properties</b> dla kontrolerów macierzowych (<b><i>SPA/SPB Tasks-->Properties</i></b>). Okno które się otworzy po wybraniu tej opcji ma 4 zakładki: <b>General,SP Cache, SP Memory, Software.</b><br />
Postaram się opisać każdą z nich.<br />
<br />
<b><span style="font-size: large;">Zakładka General:</span></b><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjTegrAcr0TIiKO-X7YnV0V7NkW0kdKOOVr6ar0f7J8xlVNqjWe8qQKZv4LrD9-E4udf3NYfqcWbUqykN1L5OYFFnBRUBQNyxLjgQrHBYvpz96Dk1E_9Nt2J3OpwLkT-Dmrtnu35Veq8gze/s1600/Storage+Properties+-+General.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="315" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjTegrAcr0TIiKO-X7YnV0V7NkW0kdKOOVr6ar0f7J8xlVNqjWe8qQKZv4LrD9-E4udf3NYfqcWbUqykN1L5OYFFnBRUBQNyxLjgQrHBYvpz96Dk1E_9Nt2J3OpwLkT-Dmrtnu35Veq8gze/s320/Storage+Properties+-+General.jpg" width="320" /></a></div>
<div class="separator" style="clear: both; text-align: center;">
<br /></div>
Są tutaj podstawowe informacje na temat kontrolera.<br />
Mamy tutaj dane o numerze seryjnym, "adresach" w sieci FC (czyli WWN) oraz iSCSI, można również przypisać danemu SP nazwę (pole Name) - nie ma to wpływu na działania kontorlera, a jedynie jest ułatwieniem dla administratora przy jego identyfikacji.<br />
Jeżeli używamy Unix TRU64 to w tym miejscu możemy także ustawić UUID (Unique Unit Indentifier) - w życiu nie pracowałem na tym systemie, więc niestety nie wiem nic więcej o roli i konfiguracji tego parametru.<br />
<br />
Na karcie mamy także trzy opcje pod postacią pól wyboru, przy czym jedna (Mixed Mode) jest nieaktywna. Działanie tych opcji jest następujące:<br />
<ul>
<li><b>Statistics Logging </b>- włączenie zbierania danych wydajnościowych, które możemy potem analizować jeżeli mamy wykupioną licencje na Navisphere/Unisphere Analyzera. Uruchomienie tej opcji może spowodować niewielką (około 1%) utratę wydajności</li>
<li><b>Mixed Mode</b> - aktualnie nieaktywne pole. Za pomocą tego przełącznika w starszych wersjach FLARE można było przełączyć działanie pamięci cache między tzw: "mixed mode" a "bandwidth mode", przy czym ten drugi używany był wyłącznie w przypadku konfiguracji wszyskich dysków w macierzy w struktury RAID3. Bandwidth mode charakteryzował się między innymi brakiem mirroringu dla write cache pomiędzy kontrolerami. Obecnie Clariiony działają cały czas w trybie "mixed" i nie da się tego wyłączyć.</li>
<li><b>Storage Groups </b>- jeżeli ten checkbox nie jest zaznaczony to każdy host podłączony do Clariiona będzie widział i miał dostęp do każdego LUNa stworzonego na macierzy. W 99.9% przypadków nie chcemy takiego scenariusza i wolimy sami konfigurować które zasoby mają być widoczne dla jakich serwerów,</li>
</ul>
<br />
<b><span style="font-size: large;">Zakładka SP Cache:</span></b><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEicXDC24gjcLMHMn3ofQTBmqikgZy7_wD74uHlUfUnuJr-NLIe8pHAYXCOTlfs8ypa4Oc-RnB_mGLNjxpUyLuYBnPrrjyJfonCXOYgw1M4lx-o-XTXT0RDE512lVMTAYi9km2UdGuE5jxDv/s1600/Storage+Properties+-+Cache+SP.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="317" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEicXDC24gjcLMHMn3ofQTBmqikgZy7_wD74uHlUfUnuJr-NLIe8pHAYXCOTlfs8ypa4Oc-RnB_mGLNjxpUyLuYBnPrrjyJfonCXOYgw1M4lx-o-XTXT0RDE512lVMTAYi9km2UdGuE5jxDv/s320/Storage+Properties+-+Cache+SP.jpg" width="320" /></a></div>
<br />
W tym miejscu mamy dość sporo informacji o tym jak ustawiony i jak pracuje cache w naszej macierzy.<br />
Zakładka podzielona jest na dwa obszary: Konfigurację i Statystyke.<br />
<br />
Konfigurować możemy następujące parametry:<br />
<br />
<ul>
<li><b>Page Size </b>- parametr ten określa wielkość pojedyńczej strony w cache (czyli granulację pamięci cache). Możliwe jest ustawienie czterech wartości: 2,4,8,16KB , przy czym 8 jest wartością standardową. Zmiana rozmiaru strony jest zalecana jeżeli nasz Clariion jest dedykowany dla jednej aplikacji (lub grupy podobnych aplikacji) o których wiemy jakiej wielkości blokiem się posługują przy komunikacji z dyskami - dla Exchange będzie to np: 4KB, a Oracle pisze blokami po 16KB.</li>
<li><b>Low Watermark(%)</b> - definiuje poziom na jakim ustawiony jest tzw: "watermark". Wielkośc % oznacza procentowe wypełnienie cache, a przy przekroczeniu tej wartości macierz zmienia swój sposób działania. <strike>Więcej szczegółów o watermarkach i ich wpływie na pracę cache w dalszej części wpisu </strike>(będzie w osobnym)</li>
<li><b>High Watermark(%)</b> - drugi z poziomów przy którym cache zaczyna zachowywać się inaczej. Również będzie opisany dokładniej w dalszej części wpisu</li>
<li><b>Enable Watermarks - </b>odznaczenie tego pola sprawia, że ustawienia watermarków nie będą miały wpływu na działanie pamięci cache.</li>
<li><b>Mirrored Write Cache</b> - pole nieaktywne, nie da się (przynajmniej z poziomu Unisphere) wyłączyć mirrorowania write cache na drugi kontroler. Jest to wymuszone przez względy bezpieczeństwa - gdyby mirror cache nie był włączony to w przypadku awarii jednego kontrolera tracilibyśmy dane zawarte w jego pamięci cache, które nie zostały jeszcze zrzucone na dyski fizyczne.</li>
<li><b>SP A Read Cache - </b>włącza/wyłącza pamięć cache dla odczytów na SP A</li>
<li><b>SP B Read Cache - </b>
włącza/wyłącza pamięć cache dla odczytów na SP B</li>
<li><b>Write Cache(Enabled)</b> -
włącza/wyłącza pamięć cache dla zapisów (lepiej tego nie ruszać, chyba że naprawdę zależy nam na posiadaniu bardzo wolnej macierzy)</li>
<li><b>HA Cache Vault </b>- opcja nieaktywna, nie da się wyłączyć HA Cache Vaulta. Co tak naprawdę to oznacza i dlaczego jest tak skonfigurowane? Vault to 5 pierwszych dysków w Clariionie (mają takie miłe etykietki z napisem - "Nie ruszaj mnie!"), na nich przechowywane są pewne witalne dla działania macierzy informacje. Znajduje się tam także miejsce dla zrobienia zrzutu pamięci cache w przypadku całkowitej utraty zasilania. W momencie kiedy do macierzy przestaje dopływać prąd, prawie wszystko się wyłącza. Gdyby wyłączyło się zupełnie wszystko utracilibyśmy dane z cache do zapisu, które jeszcze nie zostały zapisane na dyski. Aby tego uniknąć w momencie utraty zasilania, uruchamia się podtrzymywanie bateryjne pamięci cache, a macierz wykonuje zrzut tej pamięci na dyski w vault. Dyski w vault są chronione za pomocą RAID5, a HA Cache Vault oznacza, że cache do zapisów zostaje wyłączony, jeżeli jeden z tych dysków zostanie uszkodzony i nie zdąży się jeszcze odbudować z Hot Spare - ma to nas zabezpieczyć przed utratą danych w sytuacji utrat zasilania z jednoczesną podwójną awarią dysków w Vault - no cóż, ostrożonści nigdy za wiele :D</li>
</ul>
<div>
<br /></div>
<div>
Druga część zakładki to statystyki, są tutaj prezentowane informacje o:</div>
<div>
<br /></div>
<div>
<ul>
<li><b>Read Cache Hit Ratio</b> - czyli ile procent żądań odczytu, zostało obsłużonych przez cache bez potrzeby sięgania do dysków fizycznych.</li>
<li><b>Write Cache Hit Ratio</b> - podobnie jak dla powyższego współczynnika tylko dotyczy do żądań zapisu nie odczytu. Wskaźnik ten jest trochę "kontrowersyjny" i wrócę jeszcze do niego <strike>w tym wpisie </strike>(będzie w osobnym).</li>
<li><b>Percent Dirty Pages - </b>ilość (procentowa) stron w write cache zajętych przez dane nie zapisane jeszcze na dyskach fizycznych</li>
<li><b>Percent Unassigned Pages - </b>ilość (procentowa) stron w cache które nie są przypisane ani do SPA ni do SPB</li>
</ul>
</div>
<div>
<br /></div>
<div>
<b>Zakładka SP Memory:</b><br />
<b><br /></b><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiIcad-ik7wocfNf42B_m0j7VL7HHxivNcAGc5bln9G77X5Ff_pRk0QJWr5cKFFmgrxf0upqI7_jTGhEVfStQyxwopxO_fOK_ggtiFXKboPwhIvPmqOGp9Ls-gDL79ZLF5XJYnX0mTPaMSb/s1600/Storage+Properties+-+SP+Memory.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="312" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiIcad-ik7wocfNf42B_m0j7VL7HHxivNcAGc5bln9G77X5Ff_pRk0QJWr5cKFFmgrxf0upqI7_jTGhEVfStQyxwopxO_fOK_ggtiFXKboPwhIvPmqOGp9Ls-gDL79ZLF5XJYnX0mTPaMSb/s320/Storage+Properties+-+SP+Memory.jpg" width="320" /></a></div>
<b><br /></b><br />
<br />
<br />
Na tej zakładce cudów nie ma, tylko jeszcze trochę informacji na temat pamięci cache.<br />
Najważniejsza funkcjonalność tutaj to możliwość ustalenia wielkości pamięci cache dla odczytów (osobno na SPA i SPB) oraz zapisów (z racji tego że write cache jest mirrorowany, więc nie ma możliwości ustawienia różnych wartości na kontrolerach)<br />
<br />
<b>Zakładka Software:</b><br />
<b><br /></b><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjOxGRyymwIK2xyYec5ZX_jQ4G-rfSfan04HyizhlzoBC5mk4xNtouyvkXgo6YXVpFCLPTG6Qn9QtVVQth-HOJqh5kep1E8TpI51AbUvc2zs5ZNc5XRNHCPwTyTWVNajAQHNIRe44LvwVos/s1600/Storage+Properties+-+Software.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="317" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjOxGRyymwIK2xyYec5ZX_jQ4G-rfSfan04HyizhlzoBC5mk4xNtouyvkXgo6YXVpFCLPTG6Qn9QtVVQth-HOJqh5kep1E8TpI51AbUvc2zs5ZNc5XRNHCPwTyTWVNajAQHNIRe44LvwVos/s320/Storage+Properties+-+Software.jpg" width="320" /></a></div>
<br />
Zakładka pokazuje jakie licencje ( i w jakich wersjach) są zainstalowane na macierzy. Na załączonym obrazku jest tylko podstawowy system na Clariionach (FLARE) w wersji 30 i jego dwa komponenty czyli Unisphere i AccessLogix. Z innych rzeczy które mogą się tutaj znaleźć to licencje na replikacje, moduł do QoSa, moduł do zarządzania wydajnością itd...<br />
<br />
<hr />
<br />
I to w sumie było by na tyle jeżeli chodzi o okno z właściwościami kontrolera.<br />
Zostało mi jeszcze opisanie watermarków oraz write cache hit ratio co stanie się w następnym wpisie i będzie można przejść do kolejnego etapu.<br />
<br />
<br /></div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-44956039186137029492012-02-12T13:20:00.000+01:002012-02-12T13:54:25.484+01:00Ligtning,Thuner i VFCache - czyli bardzo, bardzo, bardzo szybka pamięćTadam!!! EMC ogłosiło zupełnie nowy produkt w swoim portfolio.<br />
Będący od pewnego czasu tajemnicą "poliszynela" projekt Lightning, doczekał się swojego oficjalnego przedstawienia i oficjalnego produktu nazwanego VFCache (Very Fast Cache :D )<br />
<br />
Oczywiście na stronach EMC i kibicujących im blogerów zachwalana jest innowacyjność i unikalność nowego produktu, natomiast reszta świata storage i jego komentatorów już tak entuzjastycznie nastawiona nie jest. Słyszy się nawet, że EMC właśnie wynalazło i z wielkim hukiem zaprezentowało koło :D<br />
<br />
<br />
<b><span style="font-size: large;">VFCache a.k.a Project Lightning</span></b><br />
<br />
Czym jest VFCache? W skrócie można powiedzieć, że jest to karta na magistrali PCIe zawierająca moduły pamięci flash. Ma służyć jako bardzo szybka pamięć (szybsza niż SSD czy cache w macierzy) przyłączoną bezpośrednio do serwera. Dzięki temu nie będzie opóźnień związanych z przesyłem danych z/do macierzy a szybkie pamięci flash zapewnią bardzo dobrą wydajność i ekstremalnie niskie czasy odpowiedzi.<br />
<br />
Pomysł fajny ale nie można powiedzieć, że nowy. Oparte na flash karty PCIe do serwerów są już na rynku - jako przykład można podać firmę Fusion-io. Sama idea "przytwierdzenia" storage na sztywno do serwera także może budzić kontrowersje. Takie podejście to przecież "powrót do korzeni" i odejście od wyspecjalizowanych macierzy agregujących w sobie ruch i dane z wielu hostów.<br />
<br />
<u>Trochę szczegółów:</u><br />
<br />
VFCache to karta PCIe, z modułami pamięci NAND Flash wykonanej w technologii SLC (Single Level Cell).<br />
Obecnie oferowany jest jedynie model o pojemności 300GB.<br />
Jeżeli chodzi o wydajność to kształtuje się ona na poziomie 750tyś IOPS przy odczycie, natomiast opóźnienia robią wrażenie gdyż są deklarowane jako nie przekraczające 50mikrosekund (0,05ms).<br />
Oczywiście są to dane oficjalnie podawane przez EMC i pewnie mocno "podrasowane" marketingowo". Wartości robią wrażenie i są obiecujące, ale poczekajmy na jakiś bardziej niezależne i zmierzone na rzeczywistych, a nie maksymalnie zoptymalizowanym pod to rozwiązanie, danych.<br />
<br />
Warto wspomnieć, że VFCache działa tylko dla operacji odczytu, wszystkie żądania zapisu przechodzą dalej do zewnętrznej macierzy (tryb write-through) i przez nią są obsługiwane. Oczywiście w tym przypadku nie ma mowy o przyśpieszeniu działania. Kartę można także uruchomić w tzw: split-mode, część pojemności jest wtedy wykorzystywana jako typowy read cache, natomiast na pozostałej przestrzeni można umieścić zasoby dyskowe (coś jak mała macierz DAS)<br />
<br />
Jeżeli chodzi o uruchomienie VFCache to oprócz samego umieszczenia karty PCIe, trzeba także zainstalować odpowiedni sterownik w systemie operacyjnym. Przy VMware oprócz sterownika w ESXie, muszą także być obecni "agenci" VFCache na każdej maszynie wirtualnej.<br />
<br />
<br />
W czym tkwi siła nowego produktu? Na chwilę obecną na pewno warto wspomnieć o integracji z FASTem czyli oprogoramowaniem EMC do automatycznego-tieringu. VFCache może być uznany za warstwę storage jeszcze szybszą niż dyski SSD i na niego będą przeniesione dane do których system odwołuje się najczęściej. Bardzo ambitne są plany rozwoju - między innymi w tym roku powinna pokazać się obsługa deduplikacji.<br />
Gdzie na chwilę obecną EMC ma jeszcze zaległości? Na pewno trzeba powiększyć liczbę serwerów dla jakich wspierany jest VFCache - w tej chwili lista obejmuje kilkanaście pozycji i nie jest to powalająca liczba. Nie wspierane są blady (nawet Cisco UCS!) - wynika to z potrzeby zmiany architektury dla rozwiązań blade-owych (brak PCIe). Szwankuje także obsługa niektórych funkcji VMware, między innymi to rozwiązanie nie będzie działało z vMotion.<br />
<br />
<u>Podsumowanie:</u><br />
<br />
Moje własne, prywatne zdanie jest takie, że produkt ten w chwili obecnej na pewno nie jest żadną rewolucją ale ma bardzo duże możliwości rozwoju. Największa siła to współpraca z najróżniejszymi funkcjonalnościami innych produktów EMC (np: FASTem).<br />
<br />
<br />
<b><span style="font-size: large;">Project Thunder:</span></b><br />
<br />
EMC zapowiedziało także wprowadzenie nowego produktu, obecnie jest on na etapie projektu i nosi nazwę Thunder.<br />
Projekt Thunder wygląda na nową macierz, różniącą się od pozostałych w portfolio EMC tym iż będzie wyłącznie oparta na dyskach SSD (tzw: "solid state array"). Z tych informacji które dostępne są w tej chwili nowy produkt będzie cechował się, oczywiście poza bardzo dużą wydajnością, także sporymi możliwościami jeżeli chodzi o skalowanie. Oprócz "normalnego" "scale-up" czyli dokładania dodatkowych dysków, będzie można także robić tzw: "scale-out", który polega na łączeniu odrębnych macierzy w jedną (mniej-więcej na zasadzie klastra) - pozwoli to zarówno na zwiększenie mocy kontrolerów, jak i oczywiście na jeszcze większe możliwości rozbudowy dostępnej do wystawiania przestrzeni.<br />
<br />
Więcej informacji o projekcie Thunder na pewno zostanie przedstawiona na majowym EMC World.<br />
<br />
<b><span style="font-size: large;">Do poczytania:</span></b><br />
<a href="http://chucksblog.emc.com/chucks_blog/2012/02/lightning-thunder-and-reverberations.html">Lightning, thunder and reverberations</a><br />
<a href="http://chucksblog.emc.com/chucks_blog/2012/02/from-lightning-to-thunder.html">From lightning to thunder</a><br />
<a href="http://chucksblog.emc.com/chucks_blog/2012/02/vfcache-means-very-fast-cache-indeed.html">Vfcache means very fast cache indeed</a><br />
<a href="http://chucksblog.emc.com/chucks_blog/2012/02/the-next-generation-of-enterprise-flash-storage.html">The next generation of enterprise flash storage</a><br />
<a href="http://storagezilla.typepad.com/storagezilla/2012/02/flashpoint-with-pat-gelsinger.html">Flashpoint with Pat Gelsinger</a><br />
<a href="http://www.storagereview.com/emc_vfcache_server_caching_solution_announced">Emc VFcache - server caching solution announced</a><br />
<a href="http://virtualgeek.typepad.com/virtual_geek/2012/02/vfcache-hello-world-and-covers-come-off-project-thunder.html">Vfcache hello world and covers come off project thunder</a>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-62303643194464995342012-02-07T20:51:00.000+01:002012-02-07T20:54:52.690+01:00Clariion - Rzut oka na Unisphere + menu do zarządzania macierząTrochę czasu upłynęło od ostatniego wpisu związanego z Clariionami i przygotowaniami do egzaminu. Niestety nadmiar zajęć bardziej priorytetowych spowodował, że nieco "odpuściłem" pisanie na blogu.<br />
<br />
Ten wpis skupi się na Unisphere i pokaże pewne podstawowe informacje jaki można sprawdzić za pomocą tego interfejsu. Dość dużo będzie zrzutów ekranu, bo nie ma większego sensu opisywanie słowami tego co ładnie można po prostu pokazać.<br />
<br />
<span style="font-size: large;"><b>Start: Dashboard + okolice</b></span><br />
<br />
Unisphere pojawił się razem z FLARE30 i zastąpił poprzedni interface nazywany NaviSphere.<br />
Zaraz po zalogowaniu się (poprzez wpisanie adresu IP naszego Clariiona do przeglądarki), widzimy tzw: dashboard czyli stonę startową z najróżniejszymi charakterystykami.<br />
<br />
Standardowy dashboard bez modyfikacji wygląda następująco:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzVTF66qOpKE-2ZjUImvofb_cHtZpqFJ0v0AokjJv97L6rOrvpLqQEjdo3uLPxOc6lXO9WOpgaJRhd5Sa6FGP5OdM1-U8fECt0G0RBz67vfdB12JhWHU2eVjiW-OfGe4a0MyC8XmxwyJi3/s1600/Unisphere+-+Dashboard.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="324" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzVTF66qOpKE-2ZjUImvofb_cHtZpqFJ0v0AokjJv97L6rOrvpLqQEjdo3uLPxOc6lXO9WOpgaJRhd5Sa6FGP5OdM1-U8fECt0G0RBz67vfdB12JhWHU2eVjiW-OfGe4a0MyC8XmxwyJi3/s640/Unisphere+-+Dashboard.jpg" width="640" /></a></div>
<br />
<br />
Poszczególne panele można zmieniać wykorzystując obecny w okolicach prawego górnego rogu przycisk <b>Customize.</b><br />
Standardowo dostajemy informację o urządzeniach (Clariionach, Centerach i VNXach) w naszej domenie, alarmach i ostrzeżeniach oraz pewne podstawowe dane dotyczące zarządzania pojemnością - zarówno Clariionów jak i macierzy Celerra.<br />
<br />
W górnej części mamy poziome menu z kilkoma głównymi opcjami.<br />
<br />
<ul>
<li>Dashboard - wyświetlenie dashboardu</li>
<li>System List - Lista naszych urządzeń w domenie</li>
<li>Domains - Informacje o domenach</li>
<li>Alerts - Czyli log z wszyskimi alarmami</li>
<li>Support - Opcje związane z serwisowaniem macierzy</li>
</ul>
<div>
Część z tych pozycji jest rozwijalna i udostępnia kolejne "pod-menu":</div>
<div>
<br /></div>
W tym wpisie chciałbym skupić się na najbardziej rozbudowanej części tego menu czyli pozycji System List<br />
Po przejściu na zakładkę System Lists otrzymamy wykaz naszych macierzy w domenie:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQau_Zn6fXCURPxjsi4b0KdQy68AK11cuDHSs-9M7vco8Wh9-Q0NYM5zY55Oq-0XtQPfA32kVMNFbB70i6UaPWx6wUo1PQK0M-kKm9nMSLsgU_ZnYPmPdEodSgZ5kByO83M2dwy0JitAlL/s1600/Unisphere+-+System+list.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="328" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQau_Zn6fXCURPxjsi4b0KdQy68AK11cuDHSs-9M7vco8Wh9-Q0NYM5zY55Oq-0XtQPfA32kVMNFbB70i6UaPWx6wUo1PQK0M-kKm9nMSLsgU_ZnYPmPdEodSgZ5kByO83M2dwy0JitAlL/s640/Unisphere+-+System+list.jpg" width="640" /></a></div>
<br />
Na tym zrzucie raczej ubogo, jeden samotny Clariion CX-240 :D<br />
Poprzez "prawo-klik" na danym urządzeniu dostajemy się do menu kontekstowego z wieloma opcjami dotyczącycmi zarządzania konkretnym urządzeniem:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgOASjONXzD0Dg1w2LBBR_uO8V5UTU0qkJhFyUVo56ejG1y6WMu95BOkN4EWO5lgXRybratVhTFbirQJ-ZBFZDXq_VqCUdrKm-MoF-yi2prveI8VV95b18SqXIqIE7owkNzJj9WKqxFxldU/s1600/menu+kontekstowe.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgOASjONXzD0Dg1w2LBBR_uO8V5UTU0qkJhFyUVo56ejG1y6WMu95BOkN4EWO5lgXRybratVhTFbirQJ-ZBFZDXq_VqCUdrKm-MoF-yi2prveI8VV95b18SqXIqIE7owkNzJj9WKqxFxldU/s320/menu+kontekstowe.jpg" width="271" /></a></div>
<br />
<br />
Jak widać cała pula opcji do wyboru. Nie będę się rozwodził na temat każdej z nich (większość będzie bardziej lub mniej opisana w kolejnych wpisach).<br />
<b><br /></b><br />
<b><span style="font-size: large;">Menu dla pojedynczego systemu (macierzy)</span></b><br />
<b><br /></b><br />
Po wybraniu jednego z systemów (macierzy), dostajemy kolejne menu i opcje pozwalające nam monitorować/zarządzać nim:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi3e7xJOsXaYl2woJYhMDc19wjW1MRHhadplYql1w_vJpf2kjJ2qs_8UqaDbuMm4srbx1d5Cr6EgnRDPYYw2OL1jMT7vWoNiwgkGOtKzqwf25T-Y4as34uVD9xDZ_L8GSWG34mfMRNajNo1/s1600/menu.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="27" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi3e7xJOsXaYl2woJYhMDc19wjW1MRHhadplYql1w_vJpf2kjJ2qs_8UqaDbuMm4srbx1d5Cr6EgnRDPYYw2OL1jMT7vWoNiwgkGOtKzqwf25T-Y4as34uVD9xDZ_L8GSWG34mfMRNajNo1/s640/menu.jpg" width="640" /></a></div>
<br />
<br />
Menu ma następującą strukturę (zaznaczyłem jedynie "pod-menu" w tych ważniejszych pozycjach):<br />
<br />
<ul>
<li>System</li>
<ul>
<li><span style="font-size: x-small;">System Information</span></li>
<li><span style="font-size: x-small;">Hardware</span></li>
<li><span style="font-size: x-small;">Hot Spares</span></li>
</ul>
<li>Storage</li>
<ul>
<li><span style="font-size: x-small;">Summary</span></li>
<li><span style="font-size: x-small;">Disks</span></li>
<li><span style="font-size: x-small;">Pools/RAID Groups</span></li>
<li><span style="font-size: x-small;">LUNs</span></li>
<li><span style="font-size: x-small;">Storage Groups</span></li>
<li><span style="font-size: x-small;">Folders</span></li>
</ul>
<li>Hosts</li>
<ul>
<li><span style="font-size: x-small;">Summary</span></li>
<li><span style="font-size: x-small;">Host List</span></li>
<li><span style="font-size: x-small;">Virtualization</span></li>
</ul>
<li>Replicas</li>
<li>Monitoring</li>
<ul>
<li><span style="font-size: xx-small;">Reports</span></li>
<li><span style="font-size: xx-small;">SP Event Logs</span></li>
<li><span style="font-size: xx-small;">Event Notification</span></li>
<li><span style="font-size: xx-small;">Analyzer</span></li>
<li><span style="font-size: xx-small;">Quality of Service Manager</span></li>
</ul>
<li>Settings</li>
<li>Support</li>
</ul>
<br />
I przechodząc po kolei:<br />
<br />
<span style="font-size: large;"><b>Menu System:</b></span><br />
<br />
Zakładka <u><b>System Information</b></u> wygląda następująco:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgRr__5h1jCxSsUUWc5dpku3opCSLN7x11d4ME3KuLyhgS5AkxjFTvPXvFfWxL8yT0aj1NXpMVYMWkqCwagSKN94OCg95uEPXO13W3pLKYQeAnTUhESbQFL8q0lxR0g5GECBFbM_sKF9Bl6/s1600/System+Properties.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="312" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgRr__5h1jCxSsUUWc5dpku3opCSLN7x11d4ME3KuLyhgS5AkxjFTvPXvFfWxL8yT0aj1NXpMVYMWkqCwagSKN94OCg95uEPXO13W3pLKYQeAnTUhESbQFL8q0lxR0g5GECBFbM_sKF9Bl6/s640/System+Properties.jpg" width="640" /></a></div>
<br />
<b><br /></b><br />
Główną część okna zajmują podstawowe informacje o danej macierzy takie jak status, nr seryjny adresy IP kontrolerów itd... Na lewo znajduje się panel sterujący podzielony na kilka sekcji, związanych z poszczególnymi typami zadań. <br />
<br />
<br />
Kolejną opcją w menu system jest <b><u>Hardware:</u></b><br />
<div class="separator" style="clear: both; text-align: center;">
</div>
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhXPPMPSnnCtw-42UlY6Hm7uMzrxQXJvRfTcSl3ZnveMUQ4vrySIxNMtaV7gpXyxjD7LZubVKaYYhZG0ZvGcNfvdTgFxwkFBhCJ68qKYK_GuIWFQClKhyphenhyphenEPDjh8pQEORPX472aH0NddbFDH/s1600/System+Properties+-+Hardware.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="346" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhXPPMPSnnCtw-42UlY6Hm7uMzrxQXJvRfTcSl3ZnveMUQ4vrySIxNMtaV7gpXyxjD7LZubVKaYYhZG0ZvGcNfvdTgFxwkFBhCJ68qKYK_GuIWFQClKhyphenhyphenEPDjh8pQEORPX472aH0NddbFDH/s640/System+Properties+-+Hardware.jpg" width="640" /></a></div>
<br />
Środkową część okna zajmuje lista komponentów macierzy pod postacią "drzewka"<br />
Po prawej stronie możemy zobaczyć szczegółowe własności wybranego komponentu oraz w niektórych przypadkach jego graficzny obraz z zaznaczonym położeniem.<br />
<br />
Zakładka <b><u>Hot Spares</u></b> jest "nudna" więc nie będziemy jej tutaj prezentowali. Nazwa dość jednoznacznie tłumaczy jej zawartość.<br />
<br />
<span style="font-size: large;"><b>Menu Storage:</b></span><br />
<br />
<br />
Główna zakładka menu storage zawierająca podsumowanie to <b><u>Summary</u></b>:<br />
<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhdeHtn_PKcEWeztoMlHlOofAMxMJlRLIdPdQMhX5LAio2704wxtniQjSS2YIppWxIEuIb4AqnO1Q_q4PLDXjbYyS0aqI8wz1ywoAphdN3sMwSLADJKG2McAJEQ1UrTutiAqUBgGP_G5kBG/s1600/Storage+-+tab.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="312" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhdeHtn_PKcEWeztoMlHlOofAMxMJlRLIdPdQMhX5LAio2704wxtniQjSS2YIppWxIEuIb4AqnO1Q_q4PLDXjbYyS0aqI8wz1ywoAphdN3sMwSLADJKG2McAJEQ1UrTutiAqUBgGP_G5kBG/s640/Storage+-+tab.jpg" width="640" /></a></div>
<br />
Menu z opcjami po lewej stronie (identyczne dla wszystkich zakładek z grupy Storage) pozwala nam na przeproawdzenie podstawowych operacji na LUNach i Storage grupach, przy czym za najważniejszą należy oczywiście uznać stworzenie nowego LUNa. Dominującą część okna zajmuje coś w stylu "dashboard"-a z ogólnymi informacjami na temat statusu LUNów oraz pojemności i wykorzystania macierzy.<br />
<br />
Pozostałe opcje (poza Summary) w menu Storage pokazują nam po kolei kolejne "struktury" jakie tworzymy na macierzy aby finalnie:<br />
Zakładka <u style="font-weight: bold;">Disks</u> pokazuje nam jakie dyski mamy w macierzy - czyli zaczynamy od podstawowy fizycznych "cegiełek" dostarczających przestrzeń.<br />
Same dyski nie umożliwią nam jeszcze wystawiania przestrzeni do serwerów, należy je odpowiednio skonfigurować - utworzyć z nich grupy ( w przypadku wystawiania tradycyjnego) lub pule (w przypadku użycia "thin provisioningu"). Każda grupa/pula dysków ma przypisany do siebie rodzaj protekcji RAID (0/1/5/6 itd...). Informacje na temat obecnych na macierzy grup/pul są dostępne w zakładce <b><u>Pools/RAID Groups:</u></b><br />
<b><u><br /></u></b><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGWUT8AfbyZTYrUtWifAGrhvovY52Saoio0bSnvhMCZpbQF7QNq3cIvd8S59ArlSvieW5YlPWu5Ki_0-62ozMvgWFjqnwvO0V-rVARqZocxZ0YjDgDk7oIxcOoxGAJEuiuS6B_CG9ZMjkZ/s1600/Storage+-+pools.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="308" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGWUT8AfbyZTYrUtWifAGrhvovY52Saoio0bSnvhMCZpbQF7QNq3cIvd8S59ArlSvieW5YlPWu5Ki_0-62ozMvgWFjqnwvO0V-rVARqZocxZ0YjDgDk7oIxcOoxGAJEuiuS6B_CG9ZMjkZ/s640/Storage+-+pools.jpg" width="640" /></a></div>
<b><u><br /></u></b><br />
Mając stworzone struktury RAID można na nich tworzyć LUNy. Czyli te objekty, które będziemy prezentowali dla hostów.<br />
Jak się nietrudno zorientować zakładka na której są informacje o LUNach nazywa się <b><u>LUNs</u></b>:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjt_FtviqOlBt7pl3mHLfuVEmVVwM4jDD9qLIRg6aSsi1HLx27WaEn6uEeWVNdNrMTYB_396awyn7-K7GhEzN-bA6mC9RWGR93A7lSUoGt4jARylhdg72Ve2_MOxQmUpK0osLi_s-BmJKc8/s1600/Storage-LUNs.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="314" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjt_FtviqOlBt7pl3mHLfuVEmVVwM4jDD9qLIRg6aSsi1HLx27WaEn6uEeWVNdNrMTYB_396awyn7-K7GhEzN-bA6mC9RWGR93A7lSUoGt4jARylhdg72Ve2_MOxQmUpK0osLi_s-BmJKc8/s640/Storage-LUNs.jpg" width="640" /></a></div>
<br />
Oprócz obecnych w każdej zakładce menu Storage opcji "zadokowanych" po lewej stronie okna, pozostałą jego część zajmuje lista wszystkich LUNów zdefiniowanych na macierzy razem z pewnymi podstawowymi informacjami o nich (Nazwa, Numer, Status, Pojemność, Do jakiego hosta został wystawiony)<br />
<br />
Po stworzeniu LUNów została nam jeszcze tylko jedna rzecz do skonfigurowania na macierzy, tak aby z przestrzeni danego LUNa mógł korzystać host.<br />
Należy wykonać tzw: mapowanie czyli zezwolić macierzy na skomunikowanie się ze sobą wybranego hosta z wybranym LUNem. Wykorzystuje się do tego strukturę nazwaną Storage Group, która składa się z dwóch części. W jednej z nich mamy listę LUNów, a w drugiej listę Hostów. To co robi macierz to pozwala aby wszystkie hosty z grupy, miały dostęp do wszystkich LUNów z tej samej grupy.<br />
Oczywiście przy tworzeniu takich grup mamy do dyspozycji różne warianty i opcje, ale w tym wpisie nie chodzi nam o wyjaśnienie tego procesu ale tylko pokazanie miejsca gdzie w Unisphere są okienka i menu związane z takimi objektami.<br />
Znajduje się to w zakładce <b><u>Storage Gropus</u></b>:<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEidxabOCgLTk0_hrl14A-TzelGbrYtoe9XV6y7y7k_-tpwVW_i9QNWw2tY3jjbqMQxXy02RS-_4ckay9AKtUa4xbTgXyku_iRgwq9GEu4wANZWSTCFS91OJCA_Vw_Wry8MlYOA-GNgWWYSX/s1600/Storage+-+sg.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="314" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEidxabOCgLTk0_hrl14A-TzelGbrYtoe9XV6y7y7k_-tpwVW_i9QNWw2tY3jjbqMQxXy02RS-_4ckay9AKtUa4xbTgXyku_iRgwq9GEu4wANZWSTCFS91OJCA_Vw_Wry8MlYOA-GNgWWYSX/s640/Storage+-+sg.jpg" width="640" /></a></div>
<br />
W górnej części widzimy listę zdefiniowanych grup a na dole w zakładkach można sprawdzić jakie LUNy i hosty zostały do niej przypisane.<br />
<br />
Ostatnia pozycja to <b style="text-decoration: underline;">Folders</b> , w przeciwieństiwe do pozostałych opcji nie jest to kolejny "krok" przy tworzeniu i wystawianiu zasobów. W tym oknie możemy zobaczyć sobie LUNy podzielone na różne kategorie (foldery) - między innymi: LUNy nie wystawione do hostów, LUNy przypisane do poszczególnych SP, MetaLUNy (czyli kilka LUNów połączonych w jeden). Można także w tym miejscu zdefiniować swoje katalogi i poprzypisywać do nie zasoby.<br />
<br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjXZNBAQUSXjj9hsog7RquMGuEeQOcpyuT7CJuWDKwhe2s3g-i0nWSoZP7jcRk9QMEPp8DuZKSZnrXOTqkcDX17pLD4YH-gdvlpw8JSXTlg7p_1y5nQ0JIAkyoNrnI0ONcXU7neiC0upNcU/s1600/Storage+-+storage+groups.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="318" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjXZNBAQUSXjj9hsog7RquMGuEeQOcpyuT7CJuWDKwhe2s3g-i0nWSoZP7jcRk9QMEPp8DuZKSZnrXOTqkcDX17pLD4YH-gdvlpw8JSXTlg7p_1y5nQ0JIAkyoNrnI0ONcXU7neiC0upNcU/s640/Storage+-+storage+groups.jpg" width="640" /></a></div>
<br />
<br />
<br />
<span style="font-size: large;"><b>Menu Hosts:</b></span><br />
<span style="font-size: large;"><b><br /></b></span><br />
Tak jak i w pozostałych przypadkach menu host posiada swoją zakładkę <b><u>Summary:</u></b><br />
<span style="font-size: large;"><b><br /></b></span><br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjK3KeeqHlb-uFx219w10NQS3k7LP7mXMdynsmCrCYCY3GUN-IDeMhDJxRC1jBnv_SP1KbGnPpxCk0nM4yjlu8q_iz1XEv85U5HaqJig0BIOds9LYdTdTQiHBj8r2yxBn0ItwykXgH5r6vP/s1600/Hosts+-+dashboard.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" height="318" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjK3KeeqHlb-uFx219w10NQS3k7LP7mXMdynsmCrCYCY3GUN-IDeMhDJxRC1jBnv_SP1KbGnPpxCk0nM4yjlu8q_iz1XEv85U5HaqJig0BIOds9LYdTdTQiHBj8r2yxBn0ItwykXgH5r6vP/s640/Hosts+-+dashboard.jpg" width="640" /></a></div>
<span style="font-size: large;"><b><br /></b></span><br />
<br />
I tak jak się można domyślić znajduje się na niej kilka okienek z podstawowymi informacjami na temat widzianych przez macierz hostów.<br />
<br />
Pozostałe dwie opcje w menu "Hosts" odpowiadają za liste wszystkich serwerów podpiętych do macierzy (<b><u>Host List</u></b>) oraz za integrację z VMware (<b><u>Virtualization</u></b>).<br />
<br />
Dość lakonicznie to opisuję, ale więcej nie trzeba :D<br />
<br />
<br />
<b><span style="font-size: large;">Pozostałe Menu z grupy System List:</span></b><br />
<br />
Zostały jeszcze 4 nieomówione menu z całej grupy opcji związanych z poszczególnymi macierzami.<br />
Są to mianowicie: Replicas, Monitoring, Settings, Support<br />
Nie będę poświęcał im tyle czasu i uwagi w tym wpisie co pozostałym. Jeżeli chodzi o menu Replicas to oczywiście zawiera ono opcje to tworzenia i konfigurowania najróżniejszych tworów związanych z replikami lokalnymi oraz zdalnymi - same mechanizmy będą opisane w innym miejscu i późniejszym czasie.<br />
Jeżeli chodzi o Monitoring, to każda z jego opcji jest jakby osobnym narzędziem, przy czym niektóre z nich są osobno licencjonowane (np Analyzer czy Quality of Service Manager). One także powinny doczekać się swoich własnych wpisów.<br />
Menu Settings oraz Support są średnio ciekawe i nie ma tam fajerwerków - nazwa mówi wszysko.<br />
<br />
<br />
<b><span style="font-size: large;">Podsumowując:</span></b><br />
<b><span style="font-size: large;"><br /></span></b><br />
Wpis dość długi i dodatkowo pełen zrzutów ekranowych. W zasadzie mam co do niego ambiwalentne uczucia, gdyż to wszysko co jest tutaj opisane poznaje się w ciągu kilkunastu minut "przeklikiwania" się przez macierz. Przygotowanie tego wpisu zajęło mi dużo więcej czasu, szczególnie w zakresie przygotowywania zrzutów i zaciemniania wszelkiego rodzaju numerów seryjnych oraz nazw.<br />
Na pewno pojawi się jeszcze jeden (lub nawet więcej) wpisów związanych z Unisphere, ale będą bardziej treściwe i pokażą jak wykonywać pewne (podstawowe) czynności na macierzy lub gdzie szukać bardziej precyzyjnych ustawień - obiecuję nie będzie już takiej treści ogólnej z zdjęciami dashbordów i listw z menu :D<br />
<br />
Choć najprawdopodobniej kolejny post na blogu nie będzie dotyczył Clariionów i przygotowań do nieszczęsnego egzaminu.<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com4tag:blogger.com,1999:blog-6066850349722089871.post-54478189038614653152011-12-17T16:07:00.003+01:002011-12-26T21:52:52.489+01:00Clariion - FAST CachePo wpisie dotyczącym autentyfikacji użytkowników i innych spraw średnio przydatnych przy codziennym administrowaniu macierzami, wracamy do zagadnień "ciekawszych".<br />
Dzisiejszym tematem jest nowa funkcjonalność zaimplementowana we FLARE30 i dostępna w macierzach Clariion CX4 oraz VNX, chodzi mianowicie o FAST Cache. Nazwa może być trochę myląca, ponieważ jest to co innego niż FAST (nazwa na automatyczny tiering w macierzach EMC). Gdyby opisać jednym zdaniem działanie FAST Cache, to jest to wykorzystanie dysków SSD do rozszerzenia pamięci cache.<br />
<br />
<span style="font-size: large;"><b>Podstawy</b></span><br />
<br />
Funkcjonalność FAST Cache została wprowadzona przez FLARE30 i polega ona na wykorzystaniu dysków SSD, nie jako przestrzeni do wystawiania danych, ale jako rozszerzenie pamięci cache. Można (w zależności od konfiguracji i ilości dysków SSD) "rozbudować" cache macierzy o wielkości od 73GB do 2TB.<br />
Celem takiego ruchu jest oczywiście zapewnienie większej wydajności jaką zapewnia zwiększona "pamięć podręczna". Dyski SSD mają dużo lepsze parametry niż ich "tradycyjni", mechaniczni koledzy i dlatego operacje IO są na nich wykonywane dużo szybciej.<br />
Uruchomienie funkcjonalności FAST Cache może być wykonane podczas działania macierzy i nie wymaga jej wyłączenia, to samo dotyczy zmian (zwiększenia/zmniejszenia/usunięcia) ilości przestrzeni o jaką chcemy "rozbudować" nasz cache.<br />
Do FAST Cache możemy dołączać całe dyski SSD, nie jest możliwe podzielenie dysku na części i wykorzystanie np: kawałka na wystawianie przestrzeni, a reszty dla FAST Cache.<br />
Po uruchomienia FAST Cache wszyskie nowo tworzone LUNy mają domyślnie aktywną opcję korzystania z tej funkcjonalności, jeżeli chcemy uruchomić ją także dla już istniejących zasobów, należy to zrobić ręcznie( włączenie/wyłączenie FAST Cache można robić per LUN lub per storage pula). Zasoby znajdujące się na dyskach SSD mają FAST Cache wyłączony.<br />
<br />
<br />
<span style="font-size: large;"><b>Porównanie pamięci cache i FAST cache.</b></span><br />
<br />
Mimo iż dyski SSD są dużo szybsze niż mechniczne to jednak nie zapewnieją tych samych parametrów i czasów odpowiedzi co "natywny" cache macierzy oparty na kościach DRAM.<br />
<br />
W tabelce jest porównanie tych dwóch rodzajów "cache":<br />
<table border="1" bordercolor="#FFCC00" cellpadding="3" cellspacing="3" style="background-color: #ffffcc; width: 600px;">
<tbody>
<tr>
<td><b>Parametr</b></td>
<td><b>DRAM</b></td>
<td><b>Fast Cache</b></td>
</tr>
<tr>
<td>Wielkość</td>
<td>do 32GB (zależy od modelu macierzy)</td>
<td>do 2TB</td>
</tr>
<tr>
<td>Czas odpowiedzi</td>
<td>nanosekundy do milisekund</td>
<td>milisekundy do mikrosekund</td>
</tr>
<tr>
<td>Podział</td>
<td>Osobne obszary dla odczytu i zapisu</td>
<td>Współny obszar używany do "cachowanie" danych na odczyt i zapis</td>
</tr>
<tr>
<td>Ziarnistość (min rozmiar danych jakie można zapisać w cache)</td>
<td>Rozmiar pojedyńczej strony jest możliwy do zdefiniowania prze użytkownika. Możliwy zakres: od 2Kb do 16Kb</td>
<td>Operuje na kawałkach (extends) o wielkości 64Kb</td>
</tr>
<tr>
<td>Odporność na awarie</td>
<td>Nie jest odporny na utratę zasilania (musi być podtrzymany bateryjnie do czasu zrzutu na dysk). Po uszkodzeniu wymagana interwencja serwisanta.</td>
<td>Odporny na zanik zasilania. Uszkodzony dysk SSD w Fast Cache może być zastąpiony hot spare i wymieniony ręcznie.</td>
</tr>
</tbody></table>
<br />
<br />
<span style="font-size: large;"><b>Działanie FAST Cache:</b></span><br />
<br />
Czas na opisanie budowy i działania FAST Cache na nieco większym poziomie szczegółowości.<br />
Na FAST Cache składają się dwa komponenty:<br />
<ul>
<li><b>Policy engine</b> - odpowiada za zarządzanie i odpowiednie kierowanie przepływem żądań IO przez FAST Cache. Ten moduł decyduje który fragmet danych ma być umieszczony w pamięci FAST Cache, dba również o to aby nieużywane fragmenty były z niej usuwane.</li>
<li><b>Memory map - </b>mapa pokazująca jakie dane są w FAST Cache, przechowuje informację o zawartości każdego z 64KB fragmentów na jaki podzielony jest FAST Cache.</li>
</ul>
<div>
<br /></div>
<div>
<u><b>Przepływ danych przy włączonym FAST Cache:</b></u></div>
<div>
<br /></div>
<div>
Żądania IO przychodzące do macierzy są sprawdzane czy dotyczą zapisu/odczytu z LUNu (lub z puli) która ma włączoną funkcjonalność FAST Cache. Jeżeli tak to sprawdzane jest (w memory map) czy dane te są już w FAST Cache czy nie. Jeżeli ich nie ma, to dalsza "droga" danego IO jest taka sama jak w przypadku nie używania FAST Cache. </div>
<div>
<br /></div>
<div>
Jeżeli dane są w fast cache to policy engine przekierowuje IO do Fast Cache. Jeżeli IO jest żądaniem odczytu, a dane znajdują się w pamieci DRAM (czyli natywnym cache) to są stamtąd odczytywane, jeżeli ich tam nie ma, do odczyt ma miejsce z dysku SSD, a dodatkowo dane te są także zapisywane w DRAMie.<br />
Jeżeli od strony hosta przychodzi żądanie zapisu, to jest ono obsługiwane w ten sam sposób, co normalnie (czyli z wyłączonym FAST Cache) - dane trafiają do DRAMu. Różnica polega na tym, że tzw "de-stagingig" czyli zrzucanie danych z pamięci cache na dyski, odbywa się dwuetapowo, najpierw dane są przegrywane z wewnętrznego cache (DRAM) na dyski SSD (Flash Cache), a dopiero potem na dyski mechaniczne. Pozwala to na dużo szybsze czyszczenie pamięci cache na DRAM z tzw "dirty pages", czyli danych które już zostały zaraportowane hostowi jako zapisane, ale ciągle są obecne jedynie w natywnej pamięci cache (DRAM), która nie jest odporna na zanik zasilania.<br />
<br />
O tym, które dane są obecne w FLASH Cache, decyduje policy engine. Algorytm który jest wykorzystywany opiera się częstości w jakie hosty wykonują operacje IO na konkretnych blokach danych.<br />
Proces przenoszenia często używanych danych z dysków mechanicznych na SSD nazywany jest <b><i>Promotion</i></b>. Przeniesienie danych do których częstość odwołań spadła z FLASH Cacha spowrotem na dyski mechaniczne nazywana jest <b><i>Write Back.</i></b><br />
Co do Write Back to nie mam pełnej jasnosci jak on dokładnie działa: W dokumentacji EMC (h8046-fast-cache-wp) pisze wyraźnie, że dane są kopiowane z SSD na HDD. Nieścisłość według mnie polega na tym, że podczas promocji do FAST Cache dane nie są przenoszone, ale kopiowane, czyli cały czas rezydują w swoim orginalnym miejscu, w cache - czy to zwykłym, czy FAST - znajduje się tylko ich kopia. Operacja odwrotna czyli Write Back nie powinien nic kopiować tylko zaznaczać na memory map, że dany blok nie jest już w tej pamięci obecny.<br />
<br />
<br />
<b><span style="font-size: large;">Jak uruchomić FAST Cache:</span></b><br />
<br />
Z poziomu Unisphere Fast Cache uaktywnia się po wyborze opcji <b>Storage System Properties</b> na zakładce <b>FAST Cache. </b>Po uruchomieniu funkcjonalność ta jest domyślnie włączona dla wszyskich nowych zasobów.<br />
Przy tworzeniu LUNa można włączyć/wyłączyć używanie przez niego FAST Cache w zakładce <b>Create LUN-->Advanced</b> poprzez zaznaczenie/odznaczenie odpowiedniego pola wyboru.<br />
Dla istniejących LUNów zmiana tego parametru jest możliwa miejscu <b>Properties-->Cache, </b>w przypadku thin pool-i ustawienia FAST Cache są w <b>Properties-->Advance.</b><br />
<b><br /></b><br />
Uruchamiać i konfigurować FAST Cache można również z poziomu CLI:<br />
<br />
<u>Uruchamianie FAST Cache:</u><br />
<br />
<i>cache -fast -create -disks -rtype -mode</i><br />
<br />
gdzie:<br />
<br />
-disks <-- dyski z których chcemy stworzyć FAST Cache.<br />
-rtype <-- rodzaj protekcji (powinien być RAID1)<br />
-mode <-- tryb ro (read only) lub rw (read write)<br />
<br />
Usunięcie FAST Cache:<br />
<br />
<i>cache -fast -destroy</i><br />
<br /></div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com1tag:blogger.com,1999:blog-6066850349722089871.post-38182273780674508702011-12-12T21:20:00.000+01:002011-12-12T21:20:56.664+01:00Magiczny kwadrat Gartnera dla macierzyDzisiaj krótki wpis nie związany z wątkiem Clariionów i przygotowania do certyfikacji z tego zakresu.<br />
Gartner, czyli jedna z największych firm doradczych specjalizujących się w nowych technologiach, opublikowała swój tzw: "magiczny kwadrat" za rok 2011 dla macierzy mid-range oraz high-end.<br />
<br />
Kwadrat ten jest układem współrzędnych, gdzie na osi poziomej mamy "completness of vision" co można nazwać innowacyjnością i potencjałem jaki tkwi w danej firmie, na osi pionowej natomiast "ability to execute" czyli jaką siłę przebicia i pozycję na rynku ma dany dostawca.<br />
Te dwie linie dzielą cały duży "kwadrat" na cztery mniejsze. Obecność w danym "kwadraciku" pozwala (oczywiście w przybliżeniu) zaklasyfikowac daną firmę i ocenić jej produkty.<br />
<br />
Te cztery mniejsze "kwadraciki" to:<br />
<br />
<ul>
<li><b>Leaders (wysoka "completness of vision" i wysoka "ability to execute") </b>- firmy liderzy, dobra pozycja na rynku, duże możliwości i duży potencjał na rozwój</li>
<li><b>Challengers (niska"completness of vision" i wysoka "ability to execute") - </b>firmy o dużych możliwościach marketingowo-sprzedażowych, silnej pozycji ale nieco w stagnacji. Mniej innowacyjne i nowoczesne.</li>
<li><b>Visionares(wysoka "completness of vision" i niska "ability to execute") - </b>zwykle małe firmy z małym udziałem na rynku, ale oferującym bardzo nowatorskie rozwiązania.</li>
<li><b>Niche players(niska</b><b> "completness of vision" i niska "ability to execute") - </b>gracze "niszowi" zwykle nie liczący się na danym rynku i z gorszymi rozwiązaniami niż konkurencja</li>
</ul>
<div>
<br /></div>
<div>
Dla macierzy mid i hig-end Gartner widzi obecną sytuację następująco:</div>
<div>
<br /></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisIIy-BxAxg0FT6ED91ntXaN-3aS5vTf4bxOUP_pB6uiP1edLU7VytxUBPyq_c8GnqAv90AjHsgAUy5XuHjjT_Z1mHmjZnaUBdDVWFuU0I8ym4RuUBLRuAyMlWl9Q8gL5JT-XhVUq8TYWV/s1600/219289_1.png" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisIIy-BxAxg0FT6ED91ntXaN-3aS5vTf4bxOUP_pB6uiP1edLU7VytxUBPyq_c8GnqAv90AjHsgAUy5XuHjjT_Z1mHmjZnaUBdDVWFuU0I8ym4RuUBLRuAyMlWl9Q8gL5JT-XhVUq8TYWV/s1600/219289_1.png" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Źródło: Gartner (październik 2011)</td></tr>
</tbody></table>
<div>
Można powiedzieć, NetApp na czele ale bardzo blisko EMC a także HP,IBM i DELL.</div>
<div>
EMC mimo iż wciąż wśród liderów to jednak pod względem innowacyjności zostało ocenione nieco gorzej.</div>
<div>
Najgorsi z najlepszych to Hitachi. Pojawia się tutaj także firma o której szczerze przyznam mało wiem (i chyba trzeba będzie to zmienić) czyli XIO - jedyny z wizjonerów według Gartnera.</div>
<div>
<br /></div>
<div>
Pozostali gracze to w zasadzie albo "niche players", albo na granicy tak jak Fujitsu i Oracle. Muszę przyznać, że wypozycjonowanie tego ostatniego mnie nieco zaskoczyło - myślałem że będzie lepiej. </div>
<div>
<br /></div>
<div>
Oprócz samego "magicznego kwadratu" Gartner daje także dość dokładne wytyczne według jakich kryteriów był on wyznaczany oraz wskazuje silne i słabe strony każdego z uwzględnionych producentów.</div>
<div>
Nie będę się powtarzał i zainteresowanych odsyłam do samego raportu:</div>
<div>
<br /></div>
<div>
<a href="http://www.gartner.com/technology/reprints.do?id=1-181JXLD&ct=111118&st=sb">Raport Gartnera (mid-range & high-end arrays)</a></div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-66955743882621036552011-11-15T20:21:00.001+01:002011-12-12T21:21:41.922+01:00Clariion - Unisphere Security FeaturesTytuł po angielsku (brakło weny do stworzenia jakiegoś w miarę dobrego tłumaczenia) ale sama treść już w języku ojczystym ;)<br />
Tym razem będzie o czymś na co w praktyce (przynajmniej mojej osobistej) raczej nie zwracałem uwagi. Temat przewodni to bezpieczeństwo a konkretnie sposoby na jakie Clariion (a w zasadzie Unisphere) pilnuje, aby dostępu do niego miały tylko uprawnione osoby i tylko w tym zakresie jaki został im udostępniony.<br />
Ponieważ operacje zakładania i dawania dostępu nowym użytkownikom do macierzy to nie jest coś, co się przeprowadza regularnie i często, tak więc zwykle nie pamięta się wszyskich możliwości i niuansów jakie są z tym związane.<br />
Podejrzewam jednak, że udane podejście do egzaminu na Clariion Specialist wymaga odświeżenia i uporządkowania sobie wiedzy w tym zakresie.<br />
<br />
Do rzeczy.<br />
<br />
Macierzą można zarządzać przez dwa główne interfejsy. Unisphere - czyli GUI dostępne poprzez przeglądarkę sieciową lub za pomocą linii komend.<br />
<br />
<span class="Apple-style-span" style="font-size: large;"><b>Unisphere:</b></span><br />
<br />
Aby dostać się do Unisphere należy w przeglądarce wpisać adres http://<clariion_ip> - powoduje to uruchomienie apletu Javy. Aplet ten zestawia bezpieczne, szyfrowane połączenie ( SSL/TLS na porcie 443) z storage management serwerem na macierzy. Dzięki temu, mimo iż nie jest bezpośrednio używany https, połączenie jest zabezpieczone.<br />
Szyfrowana jest także cała komunikacja pomiędzy storage management serwerami na różnych macierzach.<br />
<br />
Podczas logowania się do macierzy za pomocą Unisphere użytkownik autentyfikuje się podając login, hasło oraz tzw zakres (scope)<br />
<br />
<span class="Apple-style-span" style="font-size: large;"><b>SecureCLI:</b></span><br />
<br />
Podczas używania linii poleceń komunikacja z macierzą jest zabezpieczona w ten sam sposób, co przy łączeniu poprzez Unisphere (szyfrowanie połączenia).<br />
Jeżeli chodzi o autoryzację, to administrator przy wpisywaniu komend, każdorazowo powinien podać login,hasło oraz zakres. Ponieważ takie rozwiązanie nie jest zbyt wygodne mamy możliwość stworzenia tzw "Security File". "Security File" jest przypisany do danego użytkownika na systemie operacyjnym, z którego wydaje się polecenia do clariiona i zawiera w sobie zaszyfrowany login,hasło i scope. Dzięki temu dany użytkownik nie musi ich podawać razem z każdą wysłaną komendą.<br />
Komenda tworząca "Security File" to addusersecurity i ma następującą składnię:<br />
<i>naviseccli -addusersecurity -user <username> -password <pw> -scope<0|1|2></i><br />
<i><br /></i><br />
Sam "Security file" to tak naprawdę dwa pliki które umiejscawiają się na home folderze użytkownika:<br />
SecuredCLISecurityFile.xml i SecuredCLIXMLEncrypted.key<br />
<br />
Usunięcie "Security Pliku" wykonuje się poleceniem:<br />
<i>naviseccli -removeusersecurity</i><br />
<br />
<b><span class="Apple-style-span" style="font-size: large;">Zakres (scope):</span></b><br />
<br />
Każde konto do zarządzania Clariionami ma jeden z trzech zakresów:<br />
<br />
<ul>
<li><b>Local </b>- konto zdefiniowane na jednej macierzy</li>
<li><b>Global</b> - konto umożliwiające administrowanie każdą z macierzy w domenie</li>
<li><b>LDAP</b> - konto zdefiniowane na serwerze LDAP (np: w domenie AD) i umożliwiające zalogowanie się do każdej macierzy używającej LDAPu do autentyfikacji</li>
</ul>
<br />
<br />
<br />
<b><span class="Apple-style-span" style="font-size: large;">Autentyfikacja przez serwer LDAP:</span></b><br />
<br />
Metoda wykorzystania do zarządzania Clariionami konta z domeny jest najbardziej wygodna. Dzięki temu nie musimy wyodrębniać zarządzania użytkownikami macierzą do innego miejsca i możemy utrzymać centralny punkt (domena np: AD) do zarządzania uprawnieniami.<br />
Macierz musi być najpierw odpowiednio skonfigurowana aby móc na niej korzystać z użytkowników domenowych. Z poziomu Unisphere ustawienia dotyczące LDAPa można znaleźć w menu:<br />
<br />
<i>All Systems > Domains > Configure LDAP for CLARiiON Systems</i><br />
<br />
W tym miejscu można przede wszystkim dodać(i zmienić) adresy naszych kontrolerów domeny.<br />
Tutaj także ustawia się interwał synchronizacji. Storage server przechowuje (cache-uje) informacje o kontach i ich uprawnieniach pobrane z domeny tak, żeby każde wydane polecenie nie musiało być autentyfikowane z kontrolerem. Standardowo ten cache jest czyszczony co 24h, ale jeżeli chcemy aby czas ten uległ skróceniu i macierz częściej odświeżała/synchronizowała informacje z domeny możemy zmienić.<br />
<br />
<br />
<span class="Apple-style-span" style="font-size: large;"><b>Role użytkowników:</b></span><br />
<span class="Apple-style-span" style="font-size: large;"><b><br /></b></span><br />
Ostatni temat jaki zostanie omówiony w tym wpisie, to role czyli rodzaje kont jakie można założyć na macierzy. Różnią się one, oczywiście, rodzajem uprawnień, a przez to działaniami jakie dany użytkownik może wykonywać.<br />
Dostępne są następujące role:<br />
<br />
<ul>
<li><b>Monitor</b> - użytkownik z uprawnieniami read-only</li>
<li><b>Manager</b> - użytkownik mogący zarządzać macierzą ale nie mający uprawnień do tworzenia i zarządzania kontami użytkowników na niej.</li>
<li><b>Administratror</b> - użytkownik posiadający maksymalne uprawnienia zarówno jeżeli chodzi o zarządzanie macierzą (tworzenie, wystawianie LUNów, definiowanie RAID grup itd..) jak i o zarządzanie użytkownikami</li>
<li><b>Security Administrator</b> - użytkownik mogący tworzyć i zarządzać innymi użytkownikami, ale nie mogący konfigurować macierzy.</li>
</ul>
<div>
Od FLARE29 dostępne są także 3 role do działań związanych z replikacją:</div>
<div>
<ul>
<li><b>Local Replication - </b>użytkownik może wykonywać operacje związane z replikacją lokalną SnapView</li>
<li><b>Replication - </b>użytkownik może wykonać operacje związane z replikcją zdalną - MirrorView, oraz lokalną.</li>
<li><b>Replication/Recovery -</b> rola podobna jak Replication ale dodatkowo użytkownik może wykonywać operacje "odzyskania" np: roll-back z kopii migawkowej.</li>
</ul>
</div>
<br />
Co istotne żadna z tych 3 ról "replikacyjnych" nie zezwala na tworzenie nowych bytów związanych z replikacją (jak klony, kopie migawkowe itd...). Możliwe jest jedynie zarządzanie już istniejącymi obiektami.<br />
<br />
<br />
<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-54463673898074772832011-11-15T19:45:00.001+01:002011-11-15T19:56:03.025+01:00Przejście na konto z Google+Mała zmiana na tym blogu.<br />
Połączyłem swoje konto Bloggerowe z kontem Google+<br />
<br />
Bezpośrednie zmiany dla czytających są takie, że teraz z prawego górnego rogu będzie straszyło zdjęcie mojej facjaty, a link zamiast do profilu na Bloggerze poprowadzi do Google+<br />
Niestety wszystkie komentarze jakie zrobiłem do tej pory będą dalej wyświetlały jako autora Akodo (czyli nazwę mojego profilu Bloggerowego). Niezbyt to fajne, ale do przeżycia.<br />
<br />
Jeżeli z jakiś powodów takie ustawienie mi się "odwidzi" to wrócę na powrót do odseparowania tych dwóch "tożsamości" ale nie widzę zbytnio powodów czemu miałbym tak robić.<br />
<br />
Profile połączyłem bo chciałem. Nie stoi za tym żadna większa przyczyna :D<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com0tag:blogger.com,1999:blog-6066850349722089871.post-89845247522792710782011-11-07T20:40:00.001+01:002011-11-11T20:28:17.748+01:00Clariion - software (przegląd)Dzisiaj na tapetę bierzemy software na jakim działa Clariion.<br />
Całe oprogramowanie związane z tą macierzą można podzielić na dwie kategorie:<br />
<ol>
<li><b>Software na macierzy</b></li>
<ul>
<li>Management Server & User Interface server</li>
<li>Unisphere Agent</li>
<li>FLARE</li>
</ul>
<br />
<li><b>Software zainstalowany na serwerze podpiętym do macierzy</b></li>
<ul>
<li>Unisphere</li>
<li>Unisphere agent (opcjonalnie)</li>
<li>Navisphere Secure CLI</li>
<li>Unisphere Server Utility</li>
<li>Unisphere Storage System Initialization Utility</li>
<li>Unisphere Service Manager</li>
<li>Management Server & User Interface server (opcjonalnie)</li>
</ul>
</ol>
<div>
<br />
Nieco więcej szczegółów opisujących działanie najważniejszych z tych pozycji oraz wzajemne interakcje między nimi:<br />
<br />
<b><i>Unisphere</i></b><br />
Jest to interejs, który pozwala nam poprzez przeglądarke i aplet JAVA podłączyć się do macierzy. Unisphere łączy się z Management Serverem zainstalowanym na Service Procesorze macierzy i dostarcza wygodnego interfejsu do zarządzania jej zasobami.<br />
Unisphere pojawił się razem z FLARE30, w poprzednich wersjach firmwaru powłoka i GUI nazywało się NaviSphere.<br />
<br />
Unisphere ( a konkretnie jeden z jego ekranów pokazujący stan komponentów hardware) wygląda następująco:<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgHSVut7SQRcFhZr2cyBzdsB6WnwwAl6YBr4fHDXuqbo6j1CFsxkNEuf7Iu4rzyplrTrWdFF7kba2dYri4hSN9xB-oR-POA6L0kQhUyLLr2DmtnpF-GNCAtPila2hi1uSJs4mClEGOYnzYE/s1600/Unisphere.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="250" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgHSVut7SQRcFhZr2cyBzdsB6WnwwAl6YBr4fHDXuqbo6j1CFsxkNEuf7Iu4rzyplrTrWdFF7kba2dYri4hSN9xB-oR-POA6L0kQhUyLLr2DmtnpF-GNCAtPila2hi1uSJs4mClEGOYnzYE/s400/Unisphere.jpg" width="400" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">źródło: Screenshot z własnego ekranu ;) Uruchomione EMC VNXe Demo</td></tr>
</tbody></table>
<br />
Co prawda ten zrzut nie jest z Unisphere działającego na Clariionie ale na jego "następcy" VNXie ale wygląd jest identyczny.<br />
W materiałach EMC Unisphere jest zakwalifikowany jako oprogramowanie "host based" (zainstalowany na serwerze podpiętym do macierzy) ale ja jakoś bardziej bym go umiejscawiał w samym SP - jako część FLARE.<br />
<br />
<b><i>FLARE</i></b><br />
Flare (Fibre Logic Array Runtime Environment) jest głównym oprogramowaniem działającym na Clariionie i zapewnia macierzy jej podstawową funkcjonalność (tworzenie RAIDów, obsługa cache etc...). FLARE jest umieszczony w tzw: vaulcie (5 pierwszych dysków na pierwszej półce dyskowej) i podczas ładowania/startu Service Procesorów jest na nie wgrywany. FLARE tak naprawdę jest to Windows XP z "nakładką" przygotowaną przez EMC.<br />
<br />
<b><i>(Storage) Management Server </i></b><br />
Oprogramowanie działające albo na samym SP w Clariionie albo (opcjonalnie) na wydzielonym serwerze Windowsa. Polecenia jakie użytkownik(administrator) wysyła do macierzy poprzez przeglądarkę sieciową(Unisphere) lub z linii poleceń trafiają do Management Servera. Management Server kieruje następnie dane polecenia do odpowiedniego modułu nimi zarządzającego (np: Performance, Security, Raporty itd...). Wszyskie komendy wymagające zmiany na samej macierzy idą do FLARE.<br />
Management server zajmuje się także zarządzanie tzw: domeną.<br />
Domena jest to grupa Clariionów zarządzana z jednego miejsca. Posiadając więcej macierzy tego typu niezbyt wygodne było by zarządzanie każdą z nich poprzez bezpośrednie logowanie - dlatego tworzy się domenę - pojedynczy punkt zarządzania - i możemy administrować nimi logując się tylko do jednej, wybranej macierzy, która staje się wtedy kontrolerem domeny (nie ma to oczywiście nic wspólnego z kontrolerem domeny Acitve Directory znanego z produktów Microsoft-u).<br />
Jeżeli posiadamy naprawdę dużą liczbę Clariionów (kilkaset) i chcemy je umieścić w jednej domenie, można rozważyć instalację Management Servera na dedykowanym serwerze z Windowsem i w ten sposób odciążymy Service Procesor macierzy od kontrolowania tak dużej domeny. Ma to jednak sens jedynie w naprawdę dużych środowiskach.<br />
<br />
<b><i>NaviSphere Secure CLI</i></b><br />
Jest to interfejs tekstowy (Command Line Interface) za pomocą którego można administrować Clariionami. Jest to metoda alternatywna do graficznego interfejsu dostępnego poprzez przeglądarkę sieciową i Unisphere. Wykorzystując tą metodę zarządzania wydajemy polecenia bezpośrednio do macierzy (do Management Servera) - nie ma tutaj użycia domeny i pojedynczego punktu do zarządzania i monitorowania.<br />
<br />
<br /></div>Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com2tag:blogger.com,1999:blog-6066850349722089871.post-43321264970300553822011-10-21T19:05:00.003+02:002011-10-21T19:06:50.907+02:00Clariion - architektura (Storage Processor)Kontynujemy opis architektury Clariiona - tym razem skupimy się na głównym jego komponencie czyli storage procesorze:<br />
<br />
<b><i>Storage Processor (SP)</i></b> to "mózg" kierujący macierzą (duża część Clariionów ma takich "mózgów" dwie sztuki). On obsługuje żądania I/O jakie trafiają i pilnuje bezpieczeństwa danych i zapewnia żeby odpowiednie hosty miały dostęp do odpowiednich LUNów.<br />
<br />
Każdy SP posiada jeden lub dwa (w zależonści od modelu) processory Intel Xeon oraz od 3 do 16GB RAMu.<br />
<br />
<table border="1" bordercolor="#FFCC00" cellpadding="3" cellspacing="3" style="background-color: #ffffcc;">
<tbody>
<tr>
<td><b>MODEL</b></td>
<td><b>CX4-120</b></td>
<td><b>CX4-240</b></td>
<td><b>CX4-480</b></td>
<td><b>CX4-960</b></td>
</tr>
<tr>
<td>Procesor</td>
<td>1 dual core<br />
1,2GHz</td>
<td><br />
1 dual core<br />
1,6GHz</td>
<td><br />
1 dual core<br />
2,2GHz</td>
<td><br />
2 dual core<br />
2,33GHz</td>
</tr>
<tr>
<td>Ilość RAMu</td>
<td>3GB</td><td>4GB</td><td>8GB</td><td>16GB</td>
</tr>
<tr>
</tr>
</tbody></table>
<br />
<br />
Oprócz tego SP zawiera pamięć cache, która jest podzielona na trzy obszary. W pierwszym znajduje się systemu operacyjny/firmware kontrolera. Nazywa się on FLARE (Fibre Logic Array Runtime Environment) i tajemnicą poliszynela jest, że tak naprawdę to Windows XP z "nakładką" do obsługi macierzy. Obecnie najnowsza wersja flare w macierzach Clariion to FLARE30.<br />
Pozostałe dwa obszary cache to cache zapisów(write) i cache odczytów(read). Wielkość części zajętej przez system jest stała, natomast możemy zmieniać ilość pamięci przydzielonej na read i write.<br />
Ponieważ pamięć cache jest bardzo szybka w porównaniu do dysków mechanicznych (czy nawet SSD) tak więc jej oczywistym zastosowaniem jest przyśpieszenie obsługi i/o jakie trafiają do macierzy.<br />
Pamięć cache odczytu jest zapełniana danymi, co do których kontroler podejrzewa, że będą potrzebne w najbliższej przyszłości, natomiast do pamięci cache zapisu trafiają wszyskie (z kilkoma wyjątkami) dane wysyłane do macierzy. Po zapisaniu danych do cache macierz wysyła do hosta potwierdzenie udanego zapisu (duży uzysk na czasie niż gdyby host miał czekać aż dane zostaną zapisane na dyskach) a następnie w "czasie wolnym" przerzuca dane z cache na dyski. Więcej o działaniu pamięci cache będzie w jednym z następnych wpisów.<br />
<br />
Oprócz CPU,RAMu i pamięci cache , SP zawiera także karty I/O służące do podłaczania do kontrolera serwerów i napędów. Karty mogą być trojakiego typu: FC (z portami o prędkościach do 8Gb/s) lub iSCSI (porty 10Gb/s). Razem z najnowszym release-m firmwaru (FLARE 30,5) Clariion zaczął wspierać także FCOE (Fibre Channel over Ethernet) i jest możliwość dołączenia do niego kart obsługujących ten protokół.<br />
<br />
<br />
<br />
<br />Anonymoushttp://www.blogger.com/profile/07988208293277521011noreply@blogger.com3