Artykuł Gartner: Dell EMC liderem na rynku macierzy dla danych plikowych i obiektowych pochodzi z serwisu CRN.
]]>System Dell EMC ECS jest macierzą obiektową, co oznacza, że dane przechowywane są w formie obiektów, a nie plików, jak dzieje się w serwerach NAS. Są to elementy, na które składają się dane, metadane systemowe i własne oraz polityki przechowywania. Metadane ułatwiają indeksowanie i szybkie wyszukiwanie informacji. Macierze obiektowe ECS mogą być rozmieszczone w jednej lub wielu lokalizacjach geograficznych, tworząc skonsolidowany magazyn danych. Ich użytkownik dostaje się do obiektów bez konieczności wskazywania dokładnej ścieżki prowadzającej do fizycznej lokalizacji. Najlepszym przykładem korzystania z dostępu obiektowego do danych jest wyszukiwanie informacji np. analogicznie do wyszukiwania danych w przeglądarce. Producent rekomenduje Dell EMC ECS do następujących zastosowań:
– archiwizacja danych, gdzie wymagana jest obsługa dodatkowych metadanych na poziomie macierzy, czyli dostęp obiektowy przez S3 lub REST-API,
– przechowywanie setek milionów drobnych dokumentów z uwagi na płaską przestrzeń bez zbędnej struktury katalogów,
– tzw. trwały nośnik czyli niezaprzeczalna (obsługa WORM) i długoterminowa archiwizacja danych o małej zmienności również z optymalizacją zajętości dysków w rozproszeniu geograficznym.
Radosław Piedziuk
Unstructured Data Solutions Sales Manager, Dell EMC
Dell EMC wychodzi z założenia, że do efektywnej obsługi dużych zbiorów danych o pojemności setek terabajtów, w przypadku której ważna jest wydajność i dostępność, najlepiej stosować proste rozwiązania. Z tego powodu rekomendujemy dobór platformy storage’owej w zależności od planowanego scenariusza jej wykorzystania (np. zasoby plikowe lub współpraca z aplikacjami korzystającymi z danych obiektowych). W przypadku obsługi setek terabajtów ilość i ciągły przyrost danych stanowią główne wyzwanie, a specjalistyczne rozwiązania zapewniają uniknięcie bolesnych kompromisów, związanych z wydajnością oraz skalowalnością rozwiązań typu 2w1.
Koncepcja tradycyjnej architektury NAS (tzw. Scale Up) została opracowana przy założeniu, że użytkownik korzysta z danych w skali gigabajtów lub pojedynczych terabajtów. Gwałtowny wzrost danych spowodował zainteresowanie systemami o wysokiej skalowalności. Takim rozwiązaniem jest Dell EMC Isilon, a więc macierz NAS typu Scale Out, która zapewnia możliwość liniowej i jednoczesnej rozbudowy przestrzeni dyskowej i kontrolerów. System najczęściej wykorzystuje się do:
– obsługi współużytkowanych zasobów roboczych dla setek/tysięcy użytkowników, np. architektura typu VDI,
– streamingu multimediów,
– współpracy z serwerami HPC i zapewnienia wydajnego współużytkowanego zasobu, potrzebnego np. do zastosowań w sejsmice, sekwencjonowaniu DNA itp.,
– archiwizacji danych, gdzie dodatkowe metadane nie są wymagane lub są obsługiwane na poziomie aplikacji, czyli chodzi np. o digitalizację dokumentów z funkcją niezaprzeczalności (WORM), obsługę archiwum systemów PACS (archiwizacja diagnostyki obrazowej) itp.
Autoryzowanym dystrybutorem Dell EMC jest firma Arrow ECS.
Artykuł Gartner: Dell EMC liderem na rynku macierzy dla danych plikowych i obiektowych pochodzi z serwisu CRN.
]]>Artykuł Nie wszystko szybkie, co się nie kręci pochodzi z serwisu CRN.
]]>Otóż nawet firmy, które obracają grubymi milionami, niechętnie płaciły setki tysięcy dolarów za małe pudełko z dyskami SSD. Co prawda, zapewniało ono duży wzrost wydajności i oszczędności na energii elektrycznej, ale jednocześnie powodowało inne problemy. Z reguły było to urządzenie marki nieobecnej dotąd w centrum danych, więc konieczne było m.in. wprowadzenie kolejnego oprogramowania do zarządzania infrastrukturą, zawarcie kolejnej umowy na utrzymanie itd.
Zarzuty stawiano także samej wydajności, która była filarem marketingowej komunikacji dostawców. Nowe urządzenie działało świetnie przez pierwsze miesiące, a potem nagle spowalniało, często do poziomu… zwykłej macierzy dyskowej. Do powstania problemu z reguły przyczyniały się kontrolery nieprzystosowane do obsługi tak szybkich nośników, jak też niedopracowane algorytmy odpowiedzialne za zapis danych na dyskach SSD.
W nośnikach zawierających pamięć flash odczyt danych jest „za darmo”, ale płaci się za ich zapis. Sam proces zapisu jest skomplikowany z technicznego punktu widzenia: komórka musi być pusta, więc wcześniej czasem trzeba ją oczyścić. Każdy cykl zapisu „zużywa” komórkę (producenci porównują to do pisania ołówkiem i ciągłego wycierania gumką), przez co sam proces zapisu okazuje się znacznie wolniejszy niż odczyt danych. Dlatego właśnie kwestii związanych z zapisem dotyczyły zmiany, które w ostatnich latach można było zaobserwować w macierzach all flash.
Przede wszystkim postawiono na mechanizmy redukujące ilość zapisywanych danych: deduplikację i kompresję. Nie dość, że zapewniają one zapisanie większej ilości informacji, co ma szczególne znaczenie przy wciąż wysokich cenach układów flash, to jeszcze ograniczają liczbę cykli zapisu, co z kolei pozytywnie wpływa na trwałość nośnika. Kompresja okazuje się najbardziej efektywna w przypadku baz danych, zaś deduplikacja – poczty elektronicznej i wirtualizacji. Oba procesy nie sprawdzą się tylko tam, gdzie generowanych jest dużo unikalnych i wcześniej skompresowanych danych (np. jeśli chodzi o pliki multimedialne).
Przez długie lata najbardziej trwałymi – ale też najmniej pojemnymi – kośćmi pamięci flash były te wykonane w technologii SLC (Single Level Cell). Kompromisem miały być kości MLC (Multi Level Cell) i cMLC (consumer-MLC) – bardziej pojemne i tylko trochę mniej trwałe, ale wciąż drogie. Paradoksalnie problem rozwiązały nowe kości 3D NAND TLC (Triple Level Cell), które zapewniają bardzo duże pojemności (kilka lub kilkanaście TB w jednym dysku) i są… najmniej trwałe. W jaki sposób zatem wpłynęły na ogólną trwałość zapisu w całej macierzy?
Trik polega na umiejętnym rozproszeniu danych w komórkach kości pamięci. Gdy nośnik ma dużą pojemność, a danych do zapisu nie jest zbyt wiele, prawdopodobieństwo konieczności częstego zapisywania danych w tych samych komórkach jest bardzo małe. Dzięki temu zarówno pod kątem ceny, jak i trwałości bardziej opłaca się kupić pojemny nośnik, w którym jedna komórka „wytrzyma” np. 100 cykli zapisu, niż drogi dysk o niskiej pojemności, w którym wytrzymałość komórki pamięci flash określono np. na 1000 cykli zapisu. Z tego powodu niemal w zapomnienie poszły dyski SLC, a wszyscy producenci oferujący macierze z dyskami MLC uważnie obserwują konkurentów, którzy jako pierwsi zdecydowali się zaoferować rozwiązania klasy enterprise właśnie z dyskami TLC.
Jeszcze niedawno niewystarczająca trwałość nośników była przytaczana przez przeciwników pamięci flash w macierzach jako główny argument w dyskusjach. Dziś jest to parametr praktycznie pomijalny – oto główne przyczyny:
>> Pojemność dysków stosowanych w urządzeniach konsumenckich wynosi przykładowo 120, 240, 480, 960 GB, podczas gdy certyfikowanych dysków klasy enterprise, stosowanych w profesjonalnych rozwiązaniach, odpowiednio: 100, 200, 400 i 800 GB. Różnica stanowi zapas, który jest wykorzystywany, gdy w niektórych komórkach pamięci flash przekroczona zostanie liczba cykli zapisu i staną się one nietrwałe. Procesem tym zarządza kontroler dysku SSD, który dodatkowo w swojej pamięci dokonuje optymalizacji danych, aby zminimalizować liczbę operacji zapisu.
>> Dzięki obecnej w większości macierzy all flash deduplikacji i kompresji możliwe jest ograniczenie ilości zapisywanych danych na dyskach SSD.
>> Duża pojemność dysków w technologii TLC (3D NAND) powoduje, że w każdej z komórek pamięci dane zapisywane są rzadziej, a przez to maleje prawdopodobieństwo jej zużycia wskutek wyczerpania limitu maksymalnej liczby cykli zapisu.
>> Także zwykłe mechaniczne dyski twarde mają określoną maksymalną objętość zapisywanych danych, która częściowo wynika z ograniczonej wytrzymałości mechanicznej. Według Seagate’a w dyskach desktopowych można zapisać „tylko” 55 TB/rok (w bardziej zaawansowanych modelach: 180 lub 300 TB/rok), co oznacza, że w przypadku takiego dysku o pojemności 10 TB można dokonać pełnego skasowania i ponownego zapisania co dwa miesiące. Dysponując nowoczesnymi dyskami SSD klasy enterprise, taką operację można wykonywać… codziennie!
Sprzedaż systemów all flash stale rośnie, chociaż nie w aż tak dużym tempie, jak oczekiwaliby tego ich dostawcy. Dlatego od paru lat widać rysujące się nowe trendy w sprzedaży. Powszechny stał się model „all included”, w którym klient kupuje urządzenie i nie musi za nic dopłacać. Tymczasem gdy mowa o tradycyjnych macierzach, dołączone do nich oprogramowanie do zarządzania lub replikowania danych jest licencjonowane według pojemności lub liczby kontrolerów (u niektórych dostawców jest ono tak drogie, że już po wyeliminowaniu tego kosztu kupno macierzy all flash może okazać się bardzo korzystne). Jakiś czas temu pojawiła się możliwość wykupienia gwarancji na trwałość zapisu danych na nośnikach SSD sięgającej nawet siedem lat.
Klienci, widząc błyskawiczny rozwój technologii zapisu danych w pamięci flash, często wstrzymują się z zakupem macierzy, argumentując, że za dwa, trzy lata będzie ona przestarzała. Jako pierwsza odpowiedź na tego typu zarzut przygotowała firma Pure Storage, która w ramach swojego programu Evergreen Storage zapewnia klientom nieprzerwanie korzystającym z pakietu wsparcia technicznego możliwość bezpłatnej wymiany kontrolerów na nowsze w 4., 7. i 10. roku trwania kontraktu. Dodatkowo Pure jako pierwszy producent zagwarantował zgodność swoich urządzeń z wykorzystującymi technologię all flash dyskami NVMe, które mają być dostępne za około rok. Umożliwią one podłączenie nośnika bezpośrednio do szyny danych macierzy, z pominięciem interfejsu SAS lub FC, z którego konieczne było korzystanie przy dyskach twardych.
Pomysł ominięcia interfejsów stosowanych w HDD w celu zwiększenia wydajności macierzy all flash nie jest zresztą nowy. Już ponad dekadę temu skorzystała z niego firma Texas Memory Systems, która w ogóle była pionierem rynku rozwiązań all flash, a później w 2012 r. została kupiona przez IBM. Z podobnej koncepcji korzystał drugi z pionierów tego rynku – Violin Memory. W tym przypadku niestety historia nie zakończyła się happy endem – producent ten na początku bieżącego roku złożył wniosek o bankructwo. Sam pomysł rezygnacji ze zwykłych dysków SSD jednak zyskał uznanie, bowiem bazujące na nim moduły wprowadziły w 2016 r. do oferty firmy HDS i Pure Storage.
Dzięki rosnącym potrzebom klientów oraz dużemu potencjałowi marketingowemu do pociągu o nazwie all flash chciałby wskoczyć każdy producent, który ma cokolwiek wspólnego z pamięciami masowymi. Roczna wartość sprzedaży na tym rynku w ciągu najbliższych lat ma sięgnąć kilkudziesięciu miliardów dolarów. Sytuacja stała się ciekawa w 2014 r., gdy Gartner po raz pierwszy opublikował swój magiczny kwadrant z dostawcami macierzy all flash. Wielu producentów zwykłych rozwiązań nie pojawiło się w nim w ogóle (m.in. Dell, Fujitsu, HDS), a inni (głównie HP i NetApp) zajęli niesatysfakcjonujące pozycje.
Z klientem zawsze warto rozważyć jego rzeczywiste zapotrzebowanie na wydajność. Tym bardziej że dla większości znacznie ważniejsze są takie kwestie jak integracja z już posiadanymi aplikacjami (np. do zarządzania środowiskiem wirtualnym lub backupu) oraz narzędziami do zarządzania całą infrastrukturą IT. Wydajność wymieniana jest w dalszej kolejności, ponieważ w Polsce w znakomitej większości firm nie ma sensu stosowanie macierzy zapewniających więcej niż 200 tys. IOPS. A taki wynik bez problemu można uzyskać na zwykłej macierzy hybrydowej z warstwą dysków SSD (przy okazji znacznemu skróceniu ulegnie czas dostępu: z ponad 10 ms do ok. 3–5 ms). Prawdopodobnie dlatego popularyzacja macierzy all flash w naszym kraju jeszcze trochę potrwa.
W efekcie w 2015 r. na rynek trafiło wiele modeli macierzy all flash, które de facto były… zwykłymi rozwiązaniami hybrydowymi wyposażonymi wyłącznie w dyski SSD. Jedyną różnicą była nazwa modelu i czasami drobne zmiany w oprogramowaniu. W kolejnym raporcie – siłą rzeczy – analitycy musieli już uwzględnić nowych graczy, chociaż nie przyznali im zbyt wielu punktów. Dopiero 2016 r., ogłoszony zresztą przez EMC rokiem pamięci flash, przyniósł pewną stabilizację i wzrost pozycji głównych graczy w oczach firm badawczych.
Pojawiły się też ciekawostki. W połowie 2016 r. obserwatorów tego rynku zaskoczyła firma Synology, która – znana przede wszystkim z oferowania serwerów NAS dla małych i średnich firm – zaprezentowała macierz all flash. Jednak, w porównaniu z tradycyjnymi rozwiązaniami pamięci masowych wyposażonymi w pamięć półprzewodnikową, system Synology okazuje się nieco odmienny: to klient jest odpowiedzialny za dobór dysku SSD z długiej listy kompatybilności.
– Rozwiązanie to kierujemy przede wszystkim do firm, które potrzebują dużej wydajności, np. dla wirtualizacji czy baz danych – tłumaczy Renata Krajewska, Product Manager w Synology. – Na razie oferujemy tylko jeden model, ale wkrótce zaprezentujemy kolejne. Rzeczywiście, podobnie jak w przypadku naszych pozostałych serwerów, to klient musi zadbać o dobór właściwego dysku. Jednak my gwarantujemy, że napędy, które trafiły na listę kompatybilności, przeszły wiele rygorystycznych testów, zarówno pod kątem wydajności, jak też trwałości. Część testowanych przez nas dysków tego egzaminu nie zdała.
Jak dowiedzieliśmy się w tajwańskiej centrali firmy, testy były prowadzone przede wszystkim pod kątem tego, czy w całkowicie wypełnionej dyskami macierzy uda się uzyskać wydajność na poziomie 200 tys. IOPS. Przedstawiciele producenta podkreślają też, że obecnie większość nawet konsumenckich dysków SSD oferowanych jest z pięcioletnią gwarancją, co częściowo uzasadnia ich ewentualny wybór do pracy w macierzy all flash. Na liście kompatybilności opublikowanej przez Synology znajduje się prawie 100 dysków, z których 10 opisanych jest jako urządzenia klasy desktop lub wręcz konsumenckiej. Producent prezentuje też listę dysków, które testu nie przeszły – jest tam tylko 20 dysków, w tym, co ciekawe, także cztery klasy enterprise.
QNAP, czyli największy konkurent Synology, na razie nie wprowadził do oferty macierzy all flash. W urządzeniach tego producenta bez problemu można instalować tradycyjne dyski SSD z interfejsem SAS/SATA i skonfigurować jako zwykłe dyski lub cache tylko do odczytu. W wybranych modelach istnieje też możliwość zainstalowania pamięci flash M.2 SSD podłączanej bezpośrednio do szyny danych PCIe. Także QNAP publikuje listy kompatybilności dysków, chociaż nie wskazuje tych, które testów pozytywnie nie przeszły.
dyrektor technicznego wsparcia sprzedaży, Dell EMC
W Polsce widać systematycznie rosnące zainteresowanie macierzami wyposażonymi wyłącznie w pamięci flash. Co prawda, nie jest ono tak duże jak w Europie Zachodniej lub w USA, gdzie wartościowo sprzedaje się ich więcej niż zwykłych macierzy, ale już teraz w Europie Wschodniej możemy mówić o ich 25-proc. udziale w rynku pamięci masowych. Polscy klienci coraz częściej wpisują inwestycję w rozwiązania all flash w swoją strategię długoterminowego rozwoju centrów danych, ponieważ bardzo szybko rośnie liczba zastosowań, w przypadku których wykorzystanie pamięci półprzewodnikowych jako nośnika danych ma sens ze względu na jego wydajność i łatwość zarządzania.
Klienci są coraz bardziej świadomi korzyści płynących z używania dysków SSD. Poszukują właściwego dla siebie rozwiązania – takiego, które przyspieszy działanie ich aplikacji, ale jednocześnie nie doprowadzi do bankructwa. Dlatego w firmach, dla których cena ma szczególne znaczenie, nową młodość przeżywają macierze hybrydowe.
Możliwość uzupełnienia zwykłych macierzy o dyski SSD istniała już od dawna – proponowali to wszyscy główni dostawcy na opisywanym rynku, m.in. Dell, EMC, Fujitsu, HP, IBM czy NetApp. Klienci, którzy skorzystali z tego modelu, obserwowali wzrost wydajności, ale nie był on radykalny. Problem stanowiła niewystarczająca wydajność kontrolera macierzowego oraz jego oprogramowanie, które nie było dostosowane do szybkiego przetwarzania tak dużych ilości danych.
– W nowoczesnych macierzach all flash oraz hybrydowych, które są przystosowane do obsługi nośników półprzewodnikowych, w inny sposób zarządza się metadanymi dotyczącymi zapisywanych informacji – mówi Radomir Bordon, dyrektor technicznego wsparcia sprzedaży w Dell EMC. – Zwiększona jest też wielkość pamięci cache, bo to tam najpierw trafiają dane, które są poddawane procesom deduplikacji i kompresji, dzięki czemu zmniejszana jest liczba cykli zapisu na nośniku flash, a przez to wydłużana jego trwałość.
Dlatego od pewnego czasu widać nowy trend: producenci macierzy hybrydowych prezentują ich nowe wersje, które przedstawiane są jako te przygotowane do pracy z dowolną liczbą dysków SSD. Klient na początku może wypełnić macierz zwykłymi napędami, np. w 80 proc., aby później wyrównać te proporcje do 50/50, a być może w przyszłości zdecydować się na całkowite wypełnienie tylko dyskami flash. Takie podejście jest ciekawe, chociaż – jak podkreślają przedstawiciele branży – trudno oczekiwać, że klient co roku będzie się decydował na tak duże (i kosztowne) zmiany. Bardziej prawdopodobne jest, że jakiejś drobnej modyfikacji proporcji dokona raz, a po czterech lub pięciu latach pracy macierzy wymieni ją na nową, z nowymi kontrolerami.
Uznanie na rynku pamięci masowych w ciągu ostatnich lat zdobyła firma Nimble Storage – twórca hybrydowych macierzy, którego inżynierowie stworzyli mechanizm inteligentnej analizy danych i zapisu tych najczęściej odczytywanych na dyskach SSD, wykorzystywanych jako cache. Dzięki temu za ułamek ceny macierzy all flash można było uzyskać rozwiązanie zbliżone do niej wydajnością. Przez kilka lat Nimble był wskazywany jako firma, którą chętnie przejmie konkurencja – właśnie w celu uzyskania praw do tego mechanizmu. W marcu br. na zakup tej firmy za ponad miliard dolarów zdecydowało się HPE.
Presales Manager, Fujitsu
Klienci mogą być zaskoczeni tym, że nowy model macierzy all flash to nie do końca proste sklonowanie istniejącej macierzy hybrydowej i wyposażenie jej w nowe dyski SSD. Uzyskany znaczny wzrost wydajności pokazuje, że producenci potrafią stworzyć wyrafinowane mechanizmy obsługi standardowych i przystępnych cenowo dysków SSD, które nie są spotykane w oferowanych obecnie rozwiązaniach hybrydowych. Głównym celem jest tu zapewnienie bezpieczeństwa danych i stabilnej wydajności. Czasami w rozmowach z potencjalnymi klientami pojawia się też kwestia trwałości nośników SSD, ale szybko udaje się im wykazać, że przy tak dużych pojemnościach dysków bardzo trudno jest wykorzystać maksymalną liczbę cykli zapisu dla poszczególnych komórek pamięci flash.
Artykuł Nie wszystko szybkie, co się nie kręci pochodzi z serwisu CRN.
]]>Artykuł Uniwersalne macierze Infortrend pochodzi z serwisu CRN.
]]>Odpowiedzią firmy Infortrend na to zapotrzebowanie jest rodzina macierzy dyskowych EonStor GS przechowujących różnego typu dane w jednym uniwersalnym urządzeniu o wysokości 2U, 3U lub 4U. W przypadku większości konkurencyjnych rozwiązań uzyskanie tak dużej uniwersalności nie jest możliwe i trzeba kupić dodatkowy sprzęt, który nie tylko zabiera miejsce w serwerowni i wpływa na zwiększony pobór energii, ale także komplikuje zarządzanie systemem przechowywania danych i spowalnia jego pracę.
Systemy dyskowe Infortrend EonStor GS wyposażono w komplet funkcji komunikujących się z zasobami w chmurze (usługi Alibaba AliCloud, Amazon S3, Google Cloud, Microsoft Azure oraz OpenStack Swift). Użytkownicy mogą przede wszystkim wykorzystywać zasoby w centrum danych usługodawcy jako kolejną warstwę danych. Macierz EonStor GS automatycznie, bazując na obliczeniach wbudowanego, inteligentnego algorytmu, przenosi tam dane archiwalne lub te, z których dawno już nikt nie korzystał. Dzięki temu pojemność macierzy dyskowych staje się praktycznie nieskończona, co rozwiązuje wszystkie problemy ze skalowalnością.
Przestrzeń w chmurze może być także wykorzystana do przechowywania kopii zapasowych zgromadzonych w macierzy danych. Ma to szczególne znaczenie dla firm, które nie dysponują własnymi zapasowymi centrami danych. W takiej sytuacji backup realizowany jest w modelu D2C (disk to cloud) oraz D2D2C (disk to disk to cloud).
W macierzach Infortrend zapewniono bardziej niezawodną niż w konkurencyjnych rozwiązaniach ochronę danych znajdujących się w pamięci cache. Zastosowano w nich tzw. superkondensator, który chroni dane, znajdujące się w kościach pamięci operacyjnej, przed utratą. W większości oferowanych na rynku macierzy stosowane są specjalne, podtrzymujące zasilanie moduły bateryjne, które co pewien czas wymagają wymiany, a w przypadku awarii mogą stanowić źródło ognia i doprowadzić do pożaru w serwerowni.
Większą dostępność danych zapewnia także funkcja IDR (Intelligent Drive Recovery). Dba ona o ciągłą weryfikację aktualnego stanu twardych dysków i ostrzega administratorów o ryzyku wystąpienia problemów. Dzięki temu mogą oni działać proaktywnie i unikać stresującego procesu odbudowywania struktury macierzy RAID w przypadku całkowitej awarii jednego z napędów.
Maksymalna wydajność macierzy EonStor GS, którą udało się uzyskać w testach, wynosi 450 tys. operacji wejścia-wyjścia na sekundę (IOPS). Bloki danych były zapisywane i odczytywane z maksymalną prędkością – odpowiednio – 6,4 oraz 11 Gb/s. We wszystkich modelach macierzy można wykorzystywać dyski SSD (jako jedną z warstw lub w całości wypełnić nimi urządzenie, a także jako rozszerzenie pamięci cache). Istnieje też możliwość replikacji do innej macierzy znajdującej się w tym samym lub oddalonym centrum danych.
Łatwość obsługi macierzy EonStor GS zapewnia panel administratora EonOne. Gwarantuje on dostęp do każdego rodzaju zapisywanych danych (plików, bloków, obiektów, chmury) oraz ułatwia monitorowanie stopnia wykorzystania urządzenia.
Dystrybutorami urządzeń Infortrend w Polsce są Alstor i Veracomp.
Dodatkowe informacje:
Lucie Klaudova, Sales Account Manager,
Infortrend, lucie.klaudova@infortrend.com
Artykuł powstał we współpracy z firmą Infortrend.
Artykuł Uniwersalne macierze Infortrend pochodzi z serwisu CRN.
]]>Artykuł Macierze all-flash – fakty i mity pochodzi z serwisu CRN.
]]>Pierwsze urządzenia wyposażone w pamięć flash, które
miały zastąpić dyski twarde w korporacyjnej infrastrukturze, powstały na
początku ubiegłej dekady, chociaż do ich wysypu doszło dopiero kilka lat
później. Na początku były przeznaczone wyłącznie do zwiększania wydajności
pracy konkretnych aplikacji. Obecnie dostawcy macierzy all-flash próbują
pozycjonować je w charakterze głównego, centralnego nośnika wszystkich
firmowych danych. Niestety, mało skutecznie, bowiem szybki i niekontrolowany
rozwój tego segmentu rynku IT spowodował, że klienci mają dziś olbrzymie
problemy z wyborem właściwego rozwiązania. Brak standardów dotyczących
testowania wydajności wpłynął na to, że podawane przez dostawców liczby są
dalekie od rzeczywistości. Co gorsza, powszechne stało się zwracanie uwagi na
parametry, które w istocie nie mają zbyt dużego znaczenia.
Pamięci flash mają jedną
podstawową wadę, która w stosunkowo niewielkim stopniu dotyczy dysków
twardych – są od nich o wiele mniej trwałe. Nośnik NAND został
stworzony głównie do zastosowania w aparatach cyfrowych i na początku
nie przewidywano dla niego żadnych profesjonalnych zastosowań. Komórki pamięci
flash przy każdym zapisie tracą swoje właściwości, dlatego można je przyrównać
do kartki, na której non stop piszemy ołówkiem, aby za każdym razem tekst
wycierać gumką. Ich trwałość określana jest w cyklach zapisu
i kasowania. Obecnie liczba takich cykli, w ramach których dostawca
pamięci gwarantuje trwałość danych, określana jest na poziomie tysiąca. To
niewiele, ale w praktyce, dla zwykłych konsumentów, wartość ta jest
wystarczająca.
Problem rodzi się, gdy dane są zapisywane i kasowane
bardzo często. Dlatego dostawcy rozpoczęli produkcję specjalnych kontrolerów,
wyposażonych w oprogramowanie, które w odpowiedni sposób „rozrzuca”
dane po nośniku. W ten sposób minimalizuje się prawdopodobieństwo częstego
wykorzystania tych samych komórek pamięci. Dodatkowy problem stanowi to, że
w pamięciach flash nie można tak po prostu skasować jednej komórki.
W tym przypadku trzeba wymazać zawartość całego sektora. Dlatego, gdy
zapełniona zostanie pojemność takiego nośnika, a część danych zostanie
przeznaczona do skasowania, wspomniane oprogramowanie musi analizować, które
sektory nadają się do oczyszczenia w całości,
a z których należy
przekopiować część potrzebnych jeszcze danych do innego sektora. Proces ten
nazywa się zbieraniem śmieci (od angielskiego: garbage collection)
i znacząco wpływa na wydajność pamięci – o konsekwencjach tego faktu
w dalszej części artykułu.
Sposoby wykorzystania
pamięci flash w systemach IT
• Karta PCIe z pamięcią flash
instalowana w serwerze aplikacyjnym
Za: najlepsza wydajność (pamięć niewspółdzielona,
brak łączy i kart sieciowych), małe wykorzystanie przestrzeni, umożliwia
zredukowanie ilości pamięci RAM w serwerze
Przeciw: mała pojemność (setki gigabajtów), tworzy
odizolowane „wyspy” pamięci flash w każdym serwerze, droga, trudna
w zarządzaniu oraz zabezpieczaniu zgromadzonych danych (backup, wysoka
dostępność)
u Pamięć flash (na karcie PCIe lub
w dysku SSD) jako cache w klasycznej macierzy dyskowej
Za: znaczne skrócenie czasu odpowiedzi, większa
niezawodność mechanicznych dysków dzięki zmniejszeniu liczby cykli zapisu
i odczytu
Przeciw: z reguły jest to cache tylko do odczytu,
brak efektu przy strumieniach losowych danych, wymaga pamięci SLC ze względu na
bardzo duże obciążenie, efekty widoczne dopiero po kilku tygodniach pracy
produkcyjnej
u Warstwa składająca się z dysków SSD
w klasycznej macierzy dyskowej
Za: umożliwia przechowywanie na dyskach SSD często
odczytywanych danych, a na dyskach HDD wszystkich pozostałych, kosztuje
mniej niż macierz all-flash
Przeciw: aby uzyskać dobre wyniki, konieczne jest
posiadanie w macierzy mechanizmu automatycznej dystrybucji danych między
warstwami (AST)
u Macierz
all-flash (z dyskami SSD lub specjalnymi modułami z pamięcią flash)
Za: najbardziej wydajne rozwiązanie pamięci masowych,
bardzo mały pobór prądu, bardzo szybka odbudowa struktury RAID po awarii
Przeciw: wysoki
koszt zakupu, trudności w doborze rozwiązania odpowiadającego potrzebom
firmy, ograniczona liczba scenariuszy użycia
Kolejnym czynnikiem, który negatywnie wpływa na trwałość
pamięci flash, jest potrzeba powiększenia ich pojemności. Jak nietrudno się
domyślić, im bardziej trwałe kości pamięci, tym droższe. Przez wiele lat na
rynku był obecny tylko jeden rodzaj kości stosowany w rozwiązaniach
komercyjnych – Single-Level Cell (SLC), gdzie w jednej komórce
zapisywany jest jeden bit. Dzisiaj jednak urządzenia z pamięciami flash,
stworzonymi w technologii SLC, praktycznie wychodzą z użycia. Jedyną
chyba firmą, która nadal ma takie produkty w ofercie, jest Violin Memory.
– Pamięć SLC zapewnia rewelacyjną wydajność, ale bardzo małą
pojemność, więc efektywnie dla klientów to rozwiązanie jest bardzo drogie
– mówi Allan Fenwick, EMEA SE Director. – Zainteresowanie pamięciami SLC
systematycznie spada, ponieważ za ułamek tej ceny możemy zaoferować macierz
z pamięciami MLC, która dzięki zastosowaniu oprogramowania do zarządzania
przepływem danych zapewnia podobną wydajność.
Rodzaje zastosowań
Charakterystyka
macierzy all-flash pozwala na uzyskanie korzyści w kilku obszarach
zastosowań. Najpopularniejszym są bazy
danych i systemy
przetwarzania transakcyjnego (OLTP), ponieważ charakteryzują się bardzo dużą liczbą operacji wejścia-wyjścia.
Tego typu dane dobrze się też kompresują.
Kolejnym popularnym
zastosowaniem są wirtualne desktopy. Mimo że tego typu środowisko samo w sobie
jest drogie w utrzymaniu, użycie macierzy all-flash jeszcze bardziej
podnosi ten koszt. Czasami jednak kwestie bezpieczeństwa biorą górę
i wirtualne desktopy stają się najbardziej optymalną metodą osiągnięcia
celu. Dlatego warto rozważyć możliwość przyspieszenia ich pracy
z wykorzystaniem macierzy all-flash. Tutaj deduplikacja jest niemalże
koniecznością, ponieważ zapewnia nawet 30-krotny współczynnik redukcji ilości
przechowywanych danych.
Poza tym zastosowanie
macierzy all-flash ma sens przy wszelkiego typu aplikacjach
biznesowych wymagających szczególnej
wydajności serwerów i dołączonych pamięci masowych. Nadają się one także
do zastosowania przy serwerach
pocztowych i w środowiskach HPC.
Nie ma natomiast sensu wykorzystywanie macierzy all-flash do
przechowywania plików, do backupu czy streamingu treści multimedialnych.
Pamięci MLC (Multi-Level
Cell) charakteryzują się tym, że w jednej komórce mieszczą się dwa bity
informacji. To w oczywiście korzystnie wpływa na wzrost pojemności całego
nośnika i cenę za gigabajt. Natomiast negatywnie na wydajność
i trwałość, bo procedura związana z kolekcjonowaniem śmieci robi się
jeszcze trudniejsza. Jednak w najbliższym czasie należy spodziewać się
kolejnych innowacji w tej dziedzinie. Niedawno zaprezentowane zostały dwie
odmiany tych pamięci – cMLC (o obniżonej trwałości i wydajności
– do zastosowań konsumenckich) oraz eMLC (o podwyższonej trwałości
i wydajności – do zastosowań profesjonalnych). Już wkrótce do masowej
produkcji mają trafić też pamięci TLC (Triple-Level Cell), w których jedna
komórka będzie przechować trzy bity informacji. Jednak na razie ich producenci
podkreślają, że trwałość tego typu nośników jest z pewnością
niewystarczająca do profesjonalnych zastosowań.
Trwałość nośników flash to niejedyne wyzwanie, z którym
przyszło się zmierzyć ich producentom, sprzedawcom i użytkownikom. Drugim
i obecnie chyba najważniejszym jest wydajność. W końcu przyspieszenie
pracy aplikacji stanowi dziś główny powód, dla którego kupuje się macierze
all-flash. Wydajność można mierzyć na kilka sposobów, ale niestety, każdy
dostarcza tylko częściowych informacji. Na dodatek uzyskanymi wynikami łatwo
jest manipulować, z czego dość skrzętnie korzystają działy marketingu
niektórych producentów…
Jednym z parametrów, którym można opisać wydajność
każdego urządzenia pamięci masowych, jest liczba wykonanych operacji wejścia-wyjścia
na sekundę (Input-Output Per Second). Dobrze znają ten parametr administratorzy
baz danych, ponieważ to oni najlepiej wiedzą, jakie są ich oczekiwania
w tym zakresie. Aby pomiar liczby IOPS był porównywalny, musi być dokonany
przy konkretnej, ustalonej wielkości bloku danych. I tu pojawia się
pierwszy problem utrudniający wybór właściwego urządzenia, zaspokajającego
potrzeby klienta. Wśród dostawców macierzy all-flash przyjęło się, że podawana
jest maksymalna liczba IOPS obliczona tylko przy odczycie danych (bez zapisu,
który trwa znacznie dłużej niż odczyt), przy bloku danych o wielkości
4 kB i bez wykorzystania pamięci cache.
Cena, czyli cuda
Ceny
macierzy all-flash zaczynają się od kilkudziesięciu tysięcy dolarów,
a urządzenia klasy średniej kosztują kilkaset tysięcy. Dlatego wśród
potencjalnych klientów są głównie duże przedsiębiorstwa, ale nie tylko.
Podsumowanie kosztu zakupu oraz użytkowania zwykłej macierzy dyskowej
i urządzenia typu all-flash może łatwo wypaść na korzyść tego drugiego.
Wystarczy, że firma przetwarza niewielką ilość danych w bazie (kilkanaście
TB), ale chce zagwarantować jej bardzo wysoką wydajność. W przypadku wykorzystania
dysków twardych musiałaby zainwestować w macierz z minimum setką
napędów wysokiej wydajności (łącznie zapewnią one odpowiednią liczbę IOPS, ale
na pewno nie zagwarantują krótkiego czasu odpowiedzi). Taką samą liczbę IOPS
można uzyskać, kupując małą macierz all-flash z kilkunastoma dyskami SSD,
zapewniając sobie jednocześnie czas odpowiedzi krótszy o kilka rzędów
wielkości oraz… gigantyczne oszczędności na poborze prądu. Taka mała macierz
potrzebuje mocy rzędu 600–700 W, czyli tyle co mały serwer. Macierz
dyskowa ze 100 dyskami potrzebuje zasilania trójfazowego, specjalnych UPS-ów
i o wiele większej przestrzeni w centrum danych.
W stworzonym w ten
sposób środowisku testowym da się uzyskać ogromne wartości, ale są one tylko
teoretyczne. W zasadzie mogą służyć wyłącznie do porównywania ze sobą
różnych modeli macierzy, ale nie do doboru ich do rzeczywistych potrzeb
klienta. W najczęściej spotykanych scenariuszach użycia przyjmuje się
około 70 proc. operacji odczytu i 30 proc. zapisu. Poza tym blok
danych o wielkości 4 kB prawie nigdy nie jest stosowany
– najczęściej wykorzystuje się bloki wielkości 8 kB dla baz danych
i 32 kB dla wirtualizacji.
– Do świadomości klientów przebił się tylko parametr IOPS,
a nim wyjątkowo łatwo manipulować – podkreśla Piotr Biskupski, Storage Solutions Technical Leader w IBM. – Wystarczy zmienić
wielkość bloku danych, aby otrzymać zupełnie inne wyniki. Poza tym dostawcy
„walczą” dziś na poziomie milionów IOPS, podczas gdy znakomita większość
klientów nie potrzebuje ich więcej niż 200 tys. przy bloku wielkości 4 kB.
Zdecydowanie ważniejszym
parametrem, ale traktowanym po macoszemu, jest tzw. czas odpowiedzi (response
time). Opisuje konkretny czas, począwszy od wysłania żądania informacji do momentu
jej otrzymania. Ten parametr często jest mylony z opóźnieniem (latency),
opisującym fizyczne właściwości różnych elementów po drodze, którą przemierza
paczka z danymi, i nie oddaje rzeczywistego czasu oczekiwania serwera
na informacje.
Co warto sprzedawać…
Macierze all-flash, których sprzedaż warta jest rozważenia,
oferuje na świecie kilkanaście firm. Urządzenia te można podzielić na trzy
grupy:
– klasyczne macierze dyskowe z zainstalowanymi wyłącznie dyskami
SSD (EMC VNXe All-Flash, Fujitsu TS, HP, Infortrend, NetApp)
– najtańsza oferta przy bardzo dobrej wydajności,
– macierze zaprojektowane od podstaw do pracy z dyskami SSD
(Cisco, EMC XtremIO, Huawei, Kaminario, Nimbus Data, Pure Storage,
SolidFire, Tegile) – zapewniają różnorodną funkcjonalność,
– macierze wykorzystujące jako pamięć flash specjalne moduły
z kośćmi NAND (IBM, Violin Memory) – zajmują mniej miejsca
niż klasyczne macierze z dyskami SSD, a przy niektórych scenariuszach
użycia mogą być od nich znacznie wydajniejsze.
Pomiar czasu odpowiedzi też nastręcza trudności, bowiem
parametr ten proporcjonalnie zależy od liczby IOPS – im więcej operacji
wejścia-wyjścia (większe obciążenie macierzy), tym dłuższy czas odpowiedzi.
Mimo wszystko daje on lepsze wyobrażenie na temat ogólnej wydajności całego
urządzenia, gdyż opisuje właściwości nie tylko nośnika, ale też kontrolera
macierzowego.
– Macierze, które oferują czas odpowiedzi powyżej jednej
milisekundy, powinny być traktowane przez klientów jako dość wolne – mówi
Wojciech Wróbel, Product Manager ds. pamięci masowych w Fujitsu TS. –
Natomiast aktualne rekordy oscylują wokół 100 mikrosekund. Niestety, wielu
producentów w dokumentacji nie podaje precyzyjnych danych, umieszczając
tam informacje w rodzaju: „mniej niż 1 ms”.
Kolejnym parametrem podawanym czasami przez producentów jest
transfer mierzony w jednostce czasu (GB/s). To też w gruncie rzeczy
trick marketingowy, bowiem przy macierzach all-flash nie ma on żadnego
zastosowania. Wyniki podobne do podawanych wartości tego parametru można byłoby
uzyskać, posługując się takimi urządzeniami w środowiskach backupu lub
streamingu wideo. Natomiast z ekonomicznego punktu widzenia macierze
all-flash do takich celów zupełnie się nie nadają.
I jeszcze słowo o interfejsach przyłączeniowych.
W macierzach all-flash najczęściej spotyka się interfejs Fibre Channel.
Praktycznie we wszystkich modelach obecny jest też interfejs iSCSI – przez
administratorów uważany za zbyt wolny i niepraktyczny, ponieważ wydłuża
czas odpowiedzi. W kilku modelach można też spotkać interfejs FCoE
– wystarczający do wielu zastosowań, ale nie tak szybki, jak FC (jedno
łącze FC 16 Gb/s zapewnia krótszy czas odpowiedzi niż dwa zagregowane łącza
FCoE 10 Gb/s). W niektórych modelach zainstalowano także łącze Infiniband,
stosowane przede wszystkim w środowiskach wysokowydajnego przetwarzania
(HPC).
Rozbudowa macierzy dyskowych
Dostawcy macierzy dyskowych umożliwiają ich rozbudowę na
trzy sposoby:
Scale-in – możliwość instalacji dodatkowych dysków
lub kontrolerów wewnątrz obudowy.
Scale-up – możliwość instalacji półek dyskowych
z dodatkowymi napędami, ale bez kontrolerów, a więc bez zwiększania
wydajności.
Scale-out – możliwość instalacji półek dyskowych
z dodatkowymi napędami i kontrolerami, co zapewnia dodatkową
pojemność i wydajność.
Niektórzy producenci mają w ofercie oba typy półek
dyskowych: z dodatkowymi kontrolerami (scale-out) i bez nich (scale-up).
Macierze typu all-flash powstały w celu przyspieszania
pracy aplikacji. Dlatego teoretycznie mogłyby być pozbawione wielu dodatkowych
funkcji obecnych w klasycznych macierzach dyskowych. Producenci jednak
także w tym obszarze starają się sprawić, aby ich rozwiązania wyróżniały
się od konkurencyjnych. W związku z tym… decyzja o wyborze staje
się jeszcze trudniejsza.
Ponieważ nośniki flash
nadal są dość drogie, producenci proponują zastosowanie technik zmniejszających
objętość przechowywanych danych: deduplikację i kompresję (są one obecnie
wykorzystywane mniej więcej w połowie dostępnych na rynku urządzeń). Kompresja
dobrze sprawdza się w przypadku każdego rodzaju danych, które nie są
skompresowane z natury (jak pliki multimedialne czy zdjęcia),
a szczególnie w bazach danych. Deduplikacja natomiast –
w środowiskach wirtualnych, a przede wszystkim przy wirtualizacji
desktopów. Jednak równoległe korzystanie z obu tych technik nie ma
większego sensu, bo wzrost korzyści (liczonej w odzyskanej przestrzeni)
będzie wówczas bardzo niewielki. Poza tym zarówno deduplikacja, jak też
kompresja wpływają negatywnie na wydajność, a więc „zabijają” główną
korzyść, dla której firmy inwestują w macierze all-flash.
Dobierając takie urządzenia dla klienta, trzeba baczną uwagę
zwracać na to, czy podawane przez producenta parametry dotyczące pojemności nie
są wyliczone właśnie z zastosowaniem kompresji i/lub deduplikacji (często
dostępne na stronach internetowych producentów kalkulatory korzyści dokonują
obliczeń z włączonymi tego typu opcjami, co jest oczywistą manipulacją).
Siłą rzeczy dane te nie będą wiarygodne, bo współczynniki skuteczności obu tych
procesów nie będą znane, póki macierz nie zostanie zasilona właściwymi danymi
klienta. Dlatego podczas porównywania urządzeń zawsze należy zwracać uwagę na
rzeczywistą, „surową” pojemność (raw capacity).
Ważnym parametrem, który może mieć wpływ na ostateczną cenę
– zarówno zakupu, jak też użytkowania – jest kwestia oprogramowania
do zarządzania macierzą. Nierzadko bywa ono dołączane do urządzenia gratis
i nielimitowane w żaden sposób. Jednak niektórzy dostawcy stosują
model znany z klasycznych macierzy dyskowych, gdzie cena udzielonych
licencji może być zależna od pojemności nośników czy liczby kontrolerów.
Jerzy Adamiak
Rośnie zainteresowanie
dyskami SSD, które wykorzystywane sa najczęściej do budowy szybkiej warstwy
nośników w macierzach dyskowych, pełniącej de facto funkcję rozbudowanego
cache’u. Klienci doceniają tę możliwość, ponieważ zazwyczaj zwykły cache,
bazujący na pamięci RAM, trudno rozbudować do pojemności większej niż 32–64 GB.
Poza tym w środowiskach, gdzie potrzebna jest przede wszystkim wydajność, a
mniej dostępność, zastąpienie napędów mechanicznych dyskami SSD wychodzi
korzytniej finansowo – jeden dysk SSD zapewnia taką wydajność jak kilkadziesiąt
zwykłych napędów.
Cechy macierzy all-flash powodują, że ich sprzedaż nie
należy do najprostszych. Konieczna jest ciągła edukacja klientów, bo rzadko
zdają sobie oni sprawę, że dzięki tego typu inwestycjom mogą zastąpić posiadane
systemy pamięci masowych i znacznie oszczędzić, chociażby na poborze
energii elektrycznej (więcej na ten temat w ramce „Cena, czyli cuda”).
W Polsce bez problemu można kupić macierze all-flash od dostawców, którzy
specjalizują się także w ofercie tradycyjnych rozwiązań pamięci masowych.
Pozostali nie mają tu swoich przedstawicielstw, ale dla chętnych do współpracy
integratorów nie powinno stanowić to problemu.
– Faktycznie, nie mamy stałego reprezentanta w Polsce,
ale nasi przedstawiciele regularnie odwiedzają wasz kraj – zapewnia Ben Savage,
Director Channels & Alliances EMEA, Pure Storage. – Mamy natomiast jednego
partnera i jest nim firma Polcom Storage z Krakowa.
O tym, że obecność na tym rynku nie należy do
najłatwiejszych, przekonało się już kilka firm. NetApp przez ponad rok pracował
nad projektem FlashRay, który miał zrewolucjonizować tego typu systemy
(w trakcie prac producent uzyskał ponad 200 patentów w tym zakresie).
Do klientów dostarczone zostały już nawet pierwsze prototypowe rozwiązania.
Niestety, przyszłość projektu okazała się bardzo niepewna. W marcu
2015 r. odszedł jego kierownik, zaś NetApp usunął informacje
o FlashRayu ze swojej strony internetowej. Producent przyznaje, że zdobytą
wiedzę i patenty wykorzystuje w nowej rodzinie macierzy AFF8000.
EMC (lider tego rynku) ma
w ofercie rodzinę macierzy all-flash XtremIO, kupioną w 2012 r.
wraz z firmą o tej samej nazwie, ale producent chciał też stworzyć
macierz wykorzystującą nie dyski SSD, ale własne moduły, na kształt oferty firm
IBM i Violin Memory. W tym celu za około miliard dolarów kupił
w maju 2014 r. firmę DSSD, która nie wprowadziła na rynek
komercyjnego produktu, ale opracowała kilka innowacyjnych rozwiązań. Niestety,
po ponad roku nowe systemy nadal nie trafiły do klientów, zaś producent
przyznaje, że ma trudności ze skompletowaniem zespołu rozwijającego te
rozwiązania (w siedzibie byłej już firmy DSSD w kalifornijskim Menlo
Park)
Szeroko komentowanym
wydarzeniem ostatnich tygodni było upublicznienie złożonej przez Pure
Storage dokumentacji finansowej przed planowanym jeszcze w tym roku
wejściem firmy na giełdę. Pure charakteryzuje się tym, że od wielu lat prowadzi
bardzo agresywną, negatywną kampanię marketingową przeciwko dwóm największym
konkurentom – EMC i NetApp. Równocześnie firma przez lata dość
skutecznie ukrywała wyniki finansowe. Liczby ujawnione w giełdowej
dokumentacji wywołały szeroki uśmiech na twarzach konkurencji – sprzedaż
Pure co prawda rośnie z roku na rok (z 6 mln dol.
w 2013 r. do 174 mln w 2015 r.), ale jednocześnie
firma ponosi gigantyczne straty (23 mln dol. w 2013 r. i aż
183 mln w 2015 r.). Analitycy rynku zaczęli komentować, że Pure
Storage może podzielić los Violin Memory, która weszła na giełdę we wrześniu
2013 r., po czym ceny jej akcji szybko spadły z 9 do 2 dol.
Piotr Sękowski
Klasyczne macierze z
zainstalowanymi dyskami SSD i rozwiązania zaprojektowane od podstaw do
korzystania z pamięci flash to dwie zupełnie inne ligi. To tak jakby porównywać
usportowiony samochód do bolidu Formuły 1. W prawdziwych macierzach all-flash
wyeliminowane zostały wszystkie wąskie gardła w kontrolerach, jak też zmieniony
został sposób wyboru danych do zapisania w poszczególnych kościach pamięci
flash.
Ofiarą nieobiektywnego podejścia do rynku pamięci all-flash
okazał się również Gartner. W czerwcu br. analitycy agencji badawczej po
raz pierwszy opublikowali magiczny kwadrat dotyczący tego tematu, który
wzbudził wiele protestów wśród zainteresowanych producentów. Wskazywali oni
przede wszystkim na to, że przy ocenie ofert poszczególnych dostawców,
analitycy skupili się głównie na dodatkowej funkcjonalności, zamiast na…
wydajności, która jest głównym powodem zakupu tego typu rozwiązań.
Scenariuszy, w których
macierze all-flash mogą stanowić bardzo rozsądną alternatywę wobec klasycznych
macierzy dyskowych, wciąż przybywa. Zarówno jeśli chodzi o wydajność, jak
też cenę. Bardzo ważne jest jednak, aby proponowaną klientowi macierz
udostępnić do testów i zrealizować projekt Proof-of-Concept. Większość
producentów bez problemu udostępnia w tym celu swoje urządzenia. Są bowiem
świadomi, że tylko w ten sposób klient będzie w stanie oszacować możliwe
do uzyskania korzyści. Jednak trzeba pamiętać o czających się tutaj
pułapkach…
– W przypadku macierzy all-flash trzeba być bardzo
świadomym wszystkich zachodzących w nich procesów – podkreśla
Jean-Francois Marie, dyrektor marketingu produktowego NetApp. – Dużym
błędem klientów jest to, że przyjmują do testów macierze z zupełnie nowymi
nośnikami. Ze względu na
brak konieczności oczyszczania ich komórek przed zapisem w procesie
zbierania śmieci, na początku obserwowana wydajność będzie ogromna, ale po paru
tygodniach użytkowania szybko spadnie. Dlatego podczas testów wydajnościowych
zawsze trzeba przez wiele dni zapisywać nośniki w macierzy all-flash do
samego końca, a następnie je kasować. Dopiero po takiej operacji będzie można
ocenić ich rzeczywistą wydajność we własnym środowisku aplikacyjnym.
Warto sobie wziąć tę radę
do serca, aby stać się w pełni świadomym i zaufanym sprzedawcą
macierzy all-flash…
Jean-Francois Marie
Z naszych doświadczeń,
zdobytych przy projekcie FlashRay, wynika, że aby zapewnić jak największą
trwałość nośnika flash, trzeba stosować mieszany rozmiar bloków danych.
Prowadziliśmy testy przy tym modelu zapisu przez 14 miesięcy i po tym czasie
zużycie komórek pamięci wyniosło 5 proc. To oznacza, że taki system będzie mógł
pracować z zagwarantowaną trwałością danych przez kilkanaście lat.
Artykuł Macierze all-flash – fakty i mity pochodzi z serwisu CRN.
]]>Artykuł Dane zawsze bezpieczne w macierzach Lenovo pochodzi z serwisu CRN.
]]>
Do obu macierzy producent oferuje napędy mechaniczne z interfejsami NL-SAS (7,2 tys. obr./min) i SAS (10 oraz 15 tys. obr./min), a także dyski SSD (nie można instalować własnych napędów, wszystkie dostarczane są przez Lenovo i muszą być certyfikowane przez producenta). Mechaniczne dyski są dostępne w wersji szyfrowanej SED (Self-Encrypted Drives).
Obudowa Lenovo Storage S2200 mieści 12 twardych dysków o średnicy 3,5 cala lub 24 napędów 2,5-calowych. Macierz wyposażona jest w maksymalnie dwa kontrolery działające w trybie active-active, każdy z dwoma portami do wyboru: Fibre Channel 8 Gb/s, Ethernet iSCSI 1/10 Gb/s lub SAS 6/12 Gb/s (w jednej macierzy nie wolno mieszać rodzajów portów). Do macierzy można dołączyć maksymalnie trzy półki dyskowe, rozbudowując jej maksymalną pojemność do 48 dysków 3,5-calowych lub 96 napędów 2,5-calowych.
Macierz S3200 zapewnia podobne funkcje jak model S2200, ale ma dwa razy większą wydajność i skalowalność (do siedmiu półek dyskowych, po cztery porty I/O na kontroler). Ważną różnicą jest też dostępność kontrolerów hybrydowych, wyposażonych w dwa porty FC 16 Gb/s i dwa Ethernet-iSCSI. Urządzenie standardowo jest wyposażone w dwa kontrolery. Użytkownicy macierzy S3200 mogą wykonać dwukrotnie więcej kopii migawkowych niż w modelu S2200.
Marcin Czerwiński
Macierze dyskowe S2200 i S3200 zostały zaprojektowane z myślą o tym, aby zapewnić małym i średnim firmom jak największe bezpieczeństwo zgromadzonych danych – zarówno ochronę przed ich utratą, jak też ciągłość pracy, gwarantującą możliwość nieprzerwanego prowadzenia działań biznesowych.
Producent zagwarantował ochronę inwestycji klientów przez możliwość rozbudowania macierzy S2200 do modelu S3200, bez przenoszenia danych i rekonfiguracji hostów. Dzięki temu, że wszystkie metadane dotyczące zapisanych informacji na dyskach znajdują się w module midplane, wystarczy szybka wymiana kontrolera na nowy (do tej operacji konieczne jest jednak wyłączenie urządzenia).
Trzy pytania do…
CRN Rozwój oferty pamięci masowych Lenovo jest efektem utworzenia działu rozwiązań dla firm, oferującego przede wszystkim serwery kupione od IBM-a. Czy i w jakim stopniu ma miejsce współpraca producentów dotycząca systemów pamięci masowych?
Michał Gąsior Po przejęciu od IBM-a rozwiązań serwerowych zrezygnowaliśmy całkowicie z urządzeń klasy NAS i skupiliśmy się na systemach dyskowych klasy podstawowej, podłączanych do sieci SAN. Obecnie wprowadzamy do oferty dwie macierze, które zostały od początku zaprojektowane przez inżynierów Lenovo. Dla niektórych mylące może być to, że ich dokumentacja techniczna ulokowana jest na serwerach IBM-a. Zdecydowaliśmy się na to, ponieważ wciąż znajdują się tam dokumenty dotyczące rozwiązań serwerowych i nie chcieliśmy tworzyć dwóch odrębnych repozytoriów wiedzy. W ofercie mamy też macierz dyskową Storwize V3700, której producentem jest IBM, a my sprzedajemy ją w modelu OEM. Planujemy jednak rozbudowywanie portfolio pamięci masowych o kolejne własne systemy.
CRN Do jakiego typu klientów kierujecie ofertę pamięci masowych?
Michał Gąsior Macierze Lenovo Storage S2200 są przeznaczone dla klientów, którzy widzą potrzebę wdrożenia pierwszego systemu macierzowego w sieci SAN, bo „wyrośli” już z dysków wbudowanych w serwery, bądź ich systemy NAS przestały wystarczać. Natomiast model S3200 jest dla tych, którzy potrzebują większej pojemności i wydajności pamięci masowych. Co ważne, gdy ilość danych przetwarzanych przez klienta korzystającego z macierzy S2200 znacznie wzrośnie, może bardzo łatwo rozbudować ją do modelu S3200 – wystarczy kupienie kontrolera S3200 i zainstalowanie go. Nie jest potrzebne przenoszenie danych, można od razu korzystać ze wszystkich zapisanych informacji. Wymontowany kontroler S2200 natomiast można zainstalować w jednej posiadanych lub dokupionych półek dyskowych i w ten sposób stworzyć drugą pełnoprawną macierz, która będzie pełnić np. rolę urządzenia backupowego.
CRN Jakie kompetencje powinien mieć partner, żeby sprzedawać macierze dyskowe Lenovo?
Michał Gąsior Produkty te nie są trudne w instalacji i obsłudze, ale oczywiście trzeba mieć podstawową wiedzę z zakresu pamięci masowych. Obecnie prowadzimy cykl szkoleń w całej Polsce, organizujemy też pokazy dla partnerów i klientów w naszym laboratorium. Jeszcze w bieżącym roku rozpoczniemy cykl klasycznych szkoleń certyfikacyjnych, dzięki którym każdy reseller będzie mógł zyskać pełną wiedzę o tym produkcie. Ale partnerzy nie muszą zdobywać certyfikatów, by otrzymać wsparcie techniczne oraz ceny specjalne. Natomiast dla partnerów ze statusem Premium i Gold mamy przygotowane dodatkowe bonusy posprzedażowe, których wysokość zależy od zrealizowanego obrotu.
Podstawowym rozwiązaniem zapewniającym dostęp do danych jest zdublowanie kluczowych elementów macierzy w celu wyeliminowania tzw. pojedynczego punktu awarii: zasilaczy oraz kontrolerów i znajdujących się w nich portów. Wymienione komponenty pracują w trybie aktywnym, więc gdy jeden z nich ulegnie awarii, drugi natychmiast automatycznie przejmuje jego zadania. Macierze serii S2200/S3200 od podstaw zaprojektowano dla zapewnienia dostępności 99,999 proc., co rzadko ma miejsce w sprzęcie tej klasy.
Ciekawostką jest fakt, że zapis danych do pamięci cache w macierzach S2200 i S3200 odbywa się równolegle w obu kontrolerach. W dotychczas używanych macierzach dyskowych tej klasy z reguły informacje zapisywane są w jednym kontrolerze i synchronizowane z drugim, co zmniejsza wydajność całego rozwiązania w związku z koniecznością potwierdzenia poprawności synchronizacji.
Ważnym wyróżnikiem nowych urządzeń jest też to, że do podtrzymania pamięci cache w przypadku awarii zasilania nie jest wykorzystana bateria, ale tzw. superkondensator. Funkcjonuje jak bateria, ale czas jego ładowania wynosi tylko 2–3 minuty, a jego żywotność określa się na około dziesięć lat. Dla zwykłej baterii wynosi ona rok lub dwa lata, więc z reguły konieczna jest jej wymiana w trakcie eksploatacji macierzy. Najczęściej wiąże się to z koniecznością wyłączenia urządzenia, co skutkuje niedostępnością danych dla firmowych aplikacji biznesowych.
Zastosowanie samoszyfrujących dysków SED chroni zgromadzone na nich dane przed dostępem niepowołanych osób. To idealne zabezpieczenie w przypadku kradzieży całego urządzenia lub samych dysków, ale też chroni dane, gdy macierz lub pojedyncze dyski muszą trafić do serwisu lub utylizacji.
Modele S2200 i S3200 projektowane były tak, aby spełniać wymogi militarnego standardu MIL-STD (obecnie trwa finalizacja certyfikacji zgodności z tym standardem). Urządzenia mogą pracować w bardzo dużym zakresie temperatury, są odporne na wibracje, zanieczyszczenie powietrza, działanie szkodliwych gazów itp.
Autoryzowanymi dystrybutorami oferującymi macierze Lenovo Storage S2200 i S3200 są: AB, ABC Data, Action, Arrow ECS, Avnet, RRC i Tech Data.
Artykuł powstał we współpracy z firmą Lenovo.
Artykuł Dane zawsze bezpieczne w macierzach Lenovo pochodzi z serwisu CRN.
]]>Artykuł Pamięci masowe flash rosną jak na drożdżach pochodzi z serwisu CRN.
]]>W przypadku systemów klasy high-end odnotowano 33-procentowy spadek, ale przychody ze sprzedaży pamięci masowych flash wzrosły w dwucyfrowym wymiarze. Na plus wyróżniały się zwłaszcza macierze All-flash (+113 proc.). W sumie segment storage’y flash (macierze All-flash oraz hybrydowe) odpowiadał już za połowę sprzedaży zewnętrznych pamięci masowych w regionie. Łączna pojemność ESS w krajach EMEA zwiększyła się o 2 proc., do 2,8 eksabajta.
Wpływ na ujemny wynik wartościowy miał przede wszystkim silny dolar. Przychody liczone w euro zwiększyły się jednak o ponad 10 proc., do blisko 1,5 mld euro. Tym niemniej według IDC wzrost hamowała niekorzystna kombinacja zawirowań na rynkach walutowych i dłuższego cyklu wymiany sprzętu oraz niestabilna sytuacja gospodarcza w regionie. Ponadto coraz większa popularność nowych rozwiązań, jak pamięci masowych definiowanych programowo, dodatkowo zmniejsza popyt na storage.
W Europie Środkowej i Wschodniej spadek sprzedaży ESS w II kw. br. był znaczny (-29 proc. rok do roku), ale głównie z powodu załamania popytu w Rosji. Bez uwzględnienia tego kraju wzrost wyniósł 6 proc. Stoją za nim przede wszystkim projekty w dużych centrach danych oraz rosnąca sprzedaż pamięci masowych flash w środkowym segmencie rynku.
Rynek zewnętrznych pamięci masowych w regionie EMEA
Producent |
Wartość |
Udział |
Wartość |
Udział |
Wzrost rok do roku |
EMC |
493,5 |
26,8% |
432,1 |
26,4% |
-12,5% |
HP |
298,1 |
16,2% |
254,7 |
15,6% |
-14,5% |
NetApp |
263,2 |
14,3% |
230,0 |
14,1% |
-12,6% |
IBM |
273,4 |
14,8% |
212,8 |
13,0% |
-22,1% |
Dell |
122,3 |
6,6% |
113,9 |
6,9% |
-6,9% |
Inni |
392,2 |
21,3% |
391,3 |
23,9% |
-0,2% |
Razem |
1842,7 |
100,00% |
1634,9 |
100,00% |
-11,3% |
Źródło: IDC
Artykuł Pamięci masowe flash rosną jak na drożdżach pochodzi z serwisu CRN.
]]>Artykuł IDC: w Polsce rośnie popyt na macierze dyskowe pochodzi z serwisu CRN.
]]>Szybko powiększające się pojemności dysków powodują, że wzrost sprzedaży liczony w petabajtach wyprzedza wzrost wartości – w ub.r. wyniósł on 12,3 proc., osiągając wielkość 114,4 PB, choć na rynku sprzedało się praktycznie tyle samo macierzy co w 2013 r. (6379 sztuk). Oznacza to, że wzrasta zapotrzebowanie na lepiej wyposażone maszyny o większych pojemnościach.
Liderem rynku po raz trzeci z rzędu zostało EMC, powtarzając wynik z 2013 r. i utrzymując swój udział na niemal niezmienionym poziomie (29,4 proc.). Głównym motorem wzrostu EMC jest sprzedaż macierzy klasy midrange, których wartość w 2014 r. była wyższa o blisko 10 proc. w stosunku do roku poprzedniego. EMC miało 38,9 proc. udziału w tym segmencie. Analitycy spodziewają się, że producent umocni swoją pozycję w br.
Artykuł IDC: w Polsce rośnie popyt na macierze dyskowe pochodzi z serwisu CRN.
]]>Artykuł Qsan: TrioNAS z Fibre Channel pochodzi z serwisu CRN.
]]>W skład serii wchodzą dwa modele: U300-P10-S212 oraz U300-P10-S424 z portami 1 GbE x 7 i 12- lub 24-dyskową obudową rack. W maszynach można dodać opcjonalnie dwa porty 10GbE x 2 lub dwa porty FC 8 Gb. Każdy z modeli jest dostępny w dwóch wersjach 3U 16-dyskowy i 4U 24-dyskowy.
Ceny netto: U300-P10-C316 – 13950 zł, U300-P10-C424 – 17151 zł. Gwarancja: 3 lata. Gwarancję na macierz i dyski można przedłużyć do 5 lat NBD on-site z czasem reakcji do 4 godzin.
Artykuł Qsan: TrioNAS z Fibre Channel pochodzi z serwisu CRN.
]]>Artykuł Infortrend – pamięci masowe na lata pochodzi z serwisu CRN.
]]>
Flagowym rozwiązaniem Infortrend jest seria macierzy EonStor DS 3000. Charakteryzują się dużą możliwością rozbudowy pojemności, wysoką wydajnością i potwierdzoną w praktyce niezawodnością. W zestawie z macierzą są liczne licencje na oprogramowanie, w tym na dynamiczne przydzielanie przestrzeni dyskowej (thin provisioning). Poza tym dzięki wydajnym zasilaczom, inteligentnemu chłodzeniu i spowolnianiu dysków, gdy nie są z nich odczytywane dane, zmniejszone zostaje zużycie energii.
Modułowa architektura umożliwia wymianę samych portów łączących macierz z serwerem lub siecią SAN, co pozwala na zminimalizowanie wydatków, gdy na przykład zaistnieje potrzeba migracji z sieci 1 do 10 GbE lub z 8 Gb do 16 Gb FC. Ponadto możliwe jest wykorzystanie dysków twardych ogólnie dostępnych na rynku, także najnowszej generacji – obecnie są to modele o pojemności 6 TB.
Michał Paszkiewicz
Ponieważ polski rynek pamięci masowych staje się coraz bardziej atrakcyjny dla Infortrend, zostałem wyznaczony jako osoba do współpracy handlowej i marketingowej m.in. z resellerami i dystrybutorami. Wiele podróżuję po kraju i spotykam się z firmami z kanału dystrybucyjnego. W Polsce wdrażamy obecnie w życie program partnerski Infortrend, poprzez który chcemy wynagrodzić zaangażowanie oraz ciężką pracę naszych resellerów związaną ze sprzedażą rozwiązań naszej firmy.
Urządzenia Infortrend EonNAS 3000 są zunifikowanym systemem pamięci masowej, oferującym nie tylko dużą skalowalność, ale wybór sposobu udostępniania danych (w zależności od potrzeb – w postaci plików lub bloków). Nad integralnością danych czuwa system plików ZFS, który zapobiega ich uszkodzeniom.
Systemy EonNAS 3000 można bez problemu dostosowywać do zmieniających się wymagań użytkowników, wynikających z rozwoju firmy. Jeżeli wzrośnie obciążenie urządzenia, można zastosować dyski SSD do akceleracji pracy pamięci podręcznej, a gdy zmieni się infrastruktura – wymienić interfejs łączący z hostem lub siecią, natomiast gdy konieczne jest zapewnienie wysokiej dostępności, można rozbudować urządzenie o redundantny kontroler. Wszystkie funkcje dostępne w macierzach EonNAS, takie jak deduplikacja, kompresja, kopie migawkowe, replikacja, Global Namespace i wiele innych, są wliczone w cenę urządzenia.
Systemy EonNAS Pro i 1000 są najmniejszymi rozwiązaniami w portfolio Infortrend. Oferowane w obudowach typu desktop i rack, mogą pomieścić od 2 do 12 dysków twardych i przeznaczone są dla małych przedsiębiorstw, a nawet mikrofirm. Zaprojektowane zostały pod kątem optymalizacji współużytkowania plików oraz ułatwienia obsługi. Są wyposażone w funkcje wykorzystywane przez użytkowników biznesowych, takie jak: deduplikacja, kopie migawkowe, replikacja, WORM, obsługa Active Directory czy backup. Dzięki temu macierze EonNAS Pro i 1000 są idealnym rozwiązaniem jako pierwszy system pamięci masowej w firmie.
Dodatkowe informacje:
Michał Paszkiewicz,
Country Sales Manager, Infortrend, michal.paszkiewicz@infortend.com
Tomasz Melion,
Product Manager, Alstor, t.melion@alstor.com.pl
Artykuł powstał we współpracy z firmami Infortrend i Alstor.
Artykuł Infortrend – pamięci masowe na lata pochodzi z serwisu CRN.
]]>Artykuł Alstor: nowa seria macierzy Infortrend EonStor DS 3000 pochodzi z serwisu CRN.
]]>Rozwiązania zastosowane w macierzach serii EonStor DS 3000 przyspieszają istotne operacje, takie jak odbudowa wolumenów. Na przykład, jak zapewnia dostawca, 4TB dysk NL-SAS może zostać odbudowany w ciągu 9 godzin – o 57 proc. szybciej niż w przypadku poprzednich generacji EonStor. Proces odbudowy może zostać zaplanowany automatycznie i przebiegać poza godzinami wzmożonego ruchu, bez wpływu na efektywność i wydajność systemu. Wyposażone w dyski SDD macierze tej serii mogą obsługiwać do 350 tysięcy operacji I/O na sekundę. Urządzenia mają podwójne kontrolery i zasilacze. Komponenty działają w trybie hot-swap. System można rozbudować do 360 dysków.
Seria EonStor DS 3000 dostarczana jest wraz z nową wersją aplikacji SANWatch 3.0, która umożliwia tworzenie szczegółowych raportów na temat statusu urządzenia, przyspieszając obsługę, zarządzanie i diagnozowanie problemów. Wszystkie modele serii DS 3000 dostarczane są z licencją na thin provisioning. Gdy aktywność systemu jest niska, spowalniana jest praca dysków, co redukuje pobór energii i zwiększa żywotność napędów. Zastosowano zasilacze klasy 80 PLUS.
Macierze serii EonStor DS 3000 będą dostępne na polskim rynku pod koniec listopada. Przewidywane ceny: od 4 tys. dol.
Artykuł Alstor: nowa seria macierzy Infortrend EonStor DS 3000 pochodzi z serwisu CRN.
]]>