Artykuł Huawei Dorado – macierz all-flash dla każdego pochodzi z serwisu CRN.
]]>Dobrym przykładem jest Huawei Enter-prise, który sukcesywnie przekonuje klientów do przejścia na macierze wykorzystujące szybkie dyski SSD. Celem producenta jest umocnienie pozycji wśród liderów tego segmentu rynku pamięci masowych. W ubiegłym roku ogromnym sukcesem okazała się promocja Flash Only, dzięki której klienci mogli otrzymać tę samą pojemność na dyskach SSD w cenie HDD SAS (10k rpm).
Sygnały płynące z rynku jednoznacznie wskazują, że firmy przygotowują się do sytuacji, w której konieczny będzie powrót do pracy zdalnej. Elementem tych przygotowań jest inwestycja we własne serwerownie. Ilość danych oraz tempo ich przetwarzania z pewnością ulegną zwiększeniu, a zatem być może jest to najlepszy moment, żeby wypróbować macierz all-flash oraz przekonać się, że jest ona w stanie spełnić potrzeby przedsiębiorstw każdej wielkości.
Nośniki flash rozwiązują wiele problemów
Sztandarową rodziną macierzy all-flash firmy Huawei jest seria OceanStorDorado V6. Składają się na nią urządzenia wykorzystujące własny procesor producenta (Kunpeng 920), dzięki któremu możliwe było uzyskanie najwyższej wydajności wśród systemów dyskowych (20 mln IOPS), wysokiej przepustowości i opóźnień nieprzekraczających 0,1 ms.
Inwestycja w macierze all-flash jest korzystna nie tylko z punktu widzenia szybkości i wydajności, ale także stabilności całej infrastruktury. Warto przypomnieć, że urządzenia OceanStor Dorado V6 jako jedyne na rynku są w stanie działać przy awarii siedmiu z ośmiu kontrolerów dyskowych. Tę niezwykłą odporność zapewnia architektura full-mesh i komunikacja za pośrednictwem protokołu RDMA (Remote Direct Memory Addressing) zapewniającego transfer na poziomie 100 Gb/s.
Właścicielom małych i średnich firm można polecić urządzenie OceanStor Dorado 3000 V6, wykorzystujące mechanizmy sztucznej inteligencji, w którym można znaleźć wszystkie najważniejsze funkcje, przesądzające o globalnym sukcesierodziny OceanStor. Klienci otrzymują niezwykle szybką macierz zapewniającą inteligentną deduplikację, kompresję danych, mechanizm tworzenia migawek, zdalną replikację oraz możliwość wykonywania backupu do chmury. Ponadto, urządzeniem tym można zarządzać za pośrednictwem wygodnego oprogramowania DeviceManager, wspieranego przez moduł UltraPath (wielościeżkowość) oraz eService, który, dzięki sztucznej inteligencji, przewiduje potencjalne awarie. Pozwala to wynieść infrastrukturę przetwarzania danych niewielkiej firmy na bardzo wysoki poziom, porównywalny z klasą korporacyjną.
Integratorzy zajmujący się budową centrów danych mogą liczyć na pomoc firmy Veracomp – dystrybutora rozwiązań Huawei Enterprise. Niedawno w siedzibie dystrybutora powstało nowe centrum danych bazujące na produktach Huawei. Dzięki niemu specjaliści Veracompu mogą nie tylko wesprzeć proces projektowania infrastruktury, ale także zaprezentować część rozwiązań „w akcji”.
![]() | ![]() | ![]() |
Dodatkowe informacje: Michał Wielgus, Product Manager, Veracomp, michal.wielgus@veracomp.pl
Artykuł Huawei Dorado – macierz all-flash dla każdego pochodzi z serwisu CRN.
]]>Artykuł Dell Technologies Unity XT – bezkompromisowa pamięć masowa klasy midrange pochodzi z serwisu CRN.
]]>Dell Technologies Unity XT Series to następna generacja Unity. Zapewnia znaczną poprawę wydajności i daje dostęp do nowych usług zaprojektowanych z myślą o multicloudzie, co zapewnia bezproblemowe przenoszenie danych do chmury w ramach Dell EMC Cloud Tiering Appliance (CTA). Bezpłatny serwis monitoringu w chmurze – CloudIQ – umożliwia przy tym kompleksowe monitorowanie i analizę stanu systemu, wydajności i pojemności w czasie rzeczywistym (patrz ramka obok).
W porównaniu z urządzeniami poprzedniej generacji macierz Dell Technologies Unity XT zapewnia do dwóch razy wyższą wydajność z lepszym o 75 proc. czasem reakcji i obsługuje do 52 proc. więcej wirtualnych desktopów bez żadnego negatywnego wpływu na wydajność. Ponadto jest nawet do 67 proc. szybsza niż jej starszy odpowiednik. Unity XT umożliwia osiągnięcie stopnia redukcji danych nawet do 5:1. Mimo że tempo redukcji danych jest wyjątkowo duże, to ogólna wydajność systemu jest nadal na wysokim poziomie.
Analiza pamięci w czasie rzeczywistym
CloudIQ to bezpłatna, działająca w chmurze aplikacja do analizy oraz monitoringu pamięci masowych, sieci SAN oraz warstwy wirtualizacyjnej opartej o hypervisor vSphere w czasie rzeczywistym. Jest dostępna do użytku ze wszystkimi macierzami z portfolio Dell EMC Unity XT. Zapewnia kompleksowe monitorowanie stanu systemu, wydajności, pojemności, konfiguracji i wskaźników ochrony w macierzy. Łączy te pomiary z algorytmami machine learning i predykcyjnymi pomiarami analitycznymi, aby usprawnić planowanie wydajności i rozwiązać problemy przed zakłóceniem działania urządzenia. CloudIQ tworzy kompleksową i proaktywną ocenę kondycji dla każdej macierzy. W ten sposób każda macierz Dell EMC Unity XT jest optymalna do przechowywania danych i uruchamiania aplikacji biznesowych o najwyższej dostępności.
Macierz Dell Technologies Unity XT jest gotowa do pracy z NVMe, co jeszcze bardziej przyspieszy działanie, a wszystko to dzięki kontrolerom dyskowym z najnowszym procesorem Skylake działającym w nowym systemem operacyjnym Unity OS. Te ulepszenia wydajności oznaczają szybsze operacje, przez co można poprawić poziom usług świadczonych klientom, a tym samym spowodować przyśpieszenie transformacji ich infrastruktury IT.
Seria Unity XT jest dostępna w wersji all flash i hybrydowej, co daje wiele możliwości konfiguracji. Tylko w dostarczanej obudowie 2U można zamontować do 25 dysków. Możliwości rozbudowy wersji all flash przewidują półki 2U do 25 dysków oraz 3U do 80 dysków. Wersję hybrydową można rozbudować o 15-dyskowe (3,5 calowe) półki 3U.
Za pośrednictwem Ingram Micro, autoryzowanego dystrybutora Dell Technologies, można wypożyczyć wersję demo Unity XT 480, aby przeprowadzić testy w wybranym środowisku IT.
Kontakt dla partnerów:
Mariusz Kubala, Dell Technologies Business Development Manager, Ingram Micro, tel. 697 469 000, pldelltechnologies@ingrammicro.com
Artykuł Dell Technologies Unity XT – bezkompromisowa pamięć masowa klasy midrange pochodzi z serwisu CRN.
]]>Artykuł OceanStor – macierze dla małych i dużych pochodzi z serwisu CRN.
]]>We wszystkich modelach pamięci masowych Huawei można stosować dyski z pamięcią flash, co daje wzrost wydajności macierzy o kilka rzędów wielkości w porównaniu z zapewnianą przez urządzenia z dyskami mechanicznymi. Producent dba, aby wszystkie oferowane przez niego urządzenia – jeśli tylko jest to możliwe – były uniwersalne, zapewniały dostęp blokowy i plikowy (SAN i NAS) oraz ochronę zgromadzonych danych w postaci migawek (snapshot). Dzięki temu sprawdzają się w dwóch najpopularniejszych obecnie zastosowaniach macierzy dyskowych w przedsiębiorstwach – do przechowywania baz danych oraz środowisk wirtualizacyjnych.
W ofercie Huawei znajduje się również oprogramowanie OceanStor DJ umożliwiające zarządzanie środowiskiem pamięci masowych i usługami świadczonymi z ich użyciem. Jedną z funkcji tego systemu jest konsolidacja zasobów pamięci masowych Huawei (wirtualizacja), a następnie przydzielanie ich serwerom aplikacyjnym zgodnie ze zdefiniowanymi przez administratora wymogami dotyczącymi wydajności.
Huawei ma w asortymencie także dziesięć różnych modeli przełączników z rodziny OceanStor SNS służących do budowy infrastruktury sieci Storage Area Network bazującej na protokole Fibre Channel. Urządzenia zapewniają płynny transfer z przepustowością do 16 lub 32 Gb/s na każdym porcie, dzięki czemu nadają się do budowy nowoczesnego i niezawodnego centrum danych.
Na ofertę macierzy hybrydowych Huawei dla przedsiębiorstw składają się zarówno urządzenia dla małych firm, jak i systemy z 16 kontrolerami, mieszczące niemal 10 tys. dysków.
Podstawę portfolio macierzy Huawei stanowi rodzina OceanStor 5000 V5. Urządzenia te umożliwiają zapis bloków i plików, są wyposażone w maksymalnie osiem kontrolerów, 4 TB pamięci cache i 1,5 tys. dysków twardych klasy korporacyjnej. Model wyższej klasy – OceanStor 6800 V5 – zapewnia wydajność do 1 mln IOPS, jest wyposażony w maksymalnie osiem kontrolerów, 8 TB pamięci cache i 3,2 tys. dysków.
Dla największych przedsiębiorstw Huawei produkuje macierze OceanStor 18000 V5. Bazują one na architekturze SmartMatrix 2.0, są wyposażone w maksymalnie 16 kontrolerów, 16 TB pamięci cache i 9,6 tys. dysków. Producent oferuje też unikalny system do przechowywania danych z monitoringu wizyjnego – macierz OceanStor 2800 V5. Zawiera ona do 96 GB pamięci cache oraz 750 dysków klasy enterprise, dzięki czemu przyjmuje obraz z nawet 1,6 tys. strumieni wideo.
Także oferta macierzy all-flash Huawei jest bardzo rozbudowana. Urządzenia z rodziny OceanStor Dorado V3 zostały zaprojektowane dla firm wymagających największej wydajności do obsługi m.in. baz danych, środowisk wirtualnych serwerów i desktopów. Wybrane modele umożliwiają zainstalowanie najszybszych obecnie nośników pamięci flash bazujących na protokole NVMe.
W macierzach Dorado V3 można zainstalować aż 16 kontrolerów, co zapewni wydajność nawet rzędu 7 mln IOPS (to obecnie najwydajniejsza macierz na świecie). Zastosowana architektura FlashLink gwarantuje znaczne skrócenie czasu reakcji macierzy – nie przekracza on 0,5 ms. Uruchamiane w macierzowych kontrolerach oprogramowanie obsługuje deduplikację i liniową kompresję, co zapewnia redukcję objętości zapisanych danych w proporcji minimum 3:1.
Wybrane modele (5000, 6800 i 18000) hybrydowych macierzy z rodziny Ocean-Stor V5 także oferowane są w wersji all-flash (oznaczone są literą F, np. OceanStor 6800F V5). Mają takie same funkcje jak macierze hybrydowe, wyposażone również w napędy mechaniczne, ale dzięki zastosowaniu wyłącznie dysków flash znacznie zwiększono ich wydajność.
Macierze dyskowe Huawei oraz wszystkie pozostałe rozwiązania dla przedsiębiorstw tego producenta, dostępne są w dystrybucyjnej ofercie Veracompu.
Michał Wielgus, Product Manager, Veracomp, michal.wielgus@veracomp.pl
Artykuł OceanStor – macierze dla małych i dużych pochodzi z serwisu CRN.
]]>Artykuł Nowe życie pamięci flash dzięki NVMe pochodzi z serwisu CRN.
]]>W pewnym momencie wyglądało wręcz na to, że tradycyjni dostawcy rozwiązań bazujących na klasycznych dyskach mogą poczuć się zagrożeni, choć przez długi czas wydawali się ignorować nowopowstający rynek. Prawdopodobnie było to jednak działanie z premedytacją – czekali cierpliwie, aż nowe podmioty wyedukują klientów w zakresie macierzy all-flash, ponosząc duże koszty na marketing i rozwój produktów, aby później kupić je za korzystną cenę i zintegrować ich urządzenia z własną ofertą. Pierwszego zakupu dokonało EMC (w maju 2012 r. producent nabył izraelskie XtremIO, a potem w 2015 r. firmę DSSD), następnie wspomniany IBM, a potem Cisco, które w 2013 r. przejęło Whiptail (zaprzestało jednak produkcji macierzy all-flash w 2015 r.). Nieco później do „ataku” ruszył NetApp, kupując w 2015 r. SolidFire, a w jego ślady w 2017 r. poszły HPE (przejęło Nimble Storage) oraz Western Digital (zostając właścicielem Tegile Systems).
W międzyczasie niemal wszyscy producenci klasycznych macierzy dyskowych zaprezentowali także ich wersje w wydaniu all-flash – z reguły z nieco usprawnionym kontrolerem, większą pamięcią cache, ale z taką samą podstawową funkcjonalnością. Obecnie nie ma producenta na rynku storage, który nie miałby w ofercie macierzy all-flash. Ale z dawnych startupów na rynku liczą się tylko dwa podmioty, wymienione przez Gartnera w kwadracie liderów: Pure Storage i Kaminario. Analitycy zalecają zwrócenie uwagi także na Tintri (wizjoner) i X-IO Technologies (niszowy gracz). Pozostałe firmy (ze szczególnym wskazaniem na Violin Memory, jednego z pierwszych graczy na rynku all-flash), albo są na granicy bankructwa, albo już nie istnieją.
Sytuację na rynku macierzy all-flash można już zatem uznać za ustabilizowaną i dojrzałą. Przez długi czas spekulowano jeszcze, kto kupi firmę Pure Storage, ale przedstawiciele zarządu tego producenta wielokrotnie podkreślali, że nie dopuszczą do jego przejęcia przez inny podmiot. Pewności siebie dodaje im zresztą najwyższa pozycja w magicznym kwadrancie Gartnera dotyczącym dostawców macierzy all-flash. Poza tym każdy z poważnych graczy na rynku storage ma już kompletną ofertę, więc inwestycja w Pure Storage nie miałoby większego sensu.
Po co klientowi all-flash?
Od strony funkcjonalnej macierze all-flash mogą być wykorzystywane do tych samych zastosowań co systemy dyskowe, ale na razie nie ma to sensu ze względów ekonomicznych. Rozwiązania te zapewniają ogromny wzrost wydajności pracy aplikacji, uzyskany dzięki skróceniu o kilka rzędów wielkości czasu dostępu do danych. Można to zauważyć głównie w przypadku operacji losowego ich odczytu, które są charakterystyczne przede wszystkim dla baz danych, dużych systemów transakcyjnych oraz środowisk wirtualnych serwerów i desktopów. Ma to duże znaczenie, szczególnie w przypadku wirtualnych maszyn. Nawet jeśli wewnątrz nich ruch ma charakter sekwencyjny, to dla macierzy dyskowej praca kilku takich maszyn wygląda podobnie jak w przypadku losowego odczytu i zapisu (zjawisko to określane jest mianem I/O blender).
Do czego natomiast nie należy stosować macierzy all-flash? Na pewno do przechowywania plików ani ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku niewielki wzrost wydajności nie zrekompensuje znacznie wyższej ceny samego urządzenia, jak i znajdujących się w nim nośników. Wyjątek mogą stanowić jedynie rozwiązania IoT oraz różnego typu systemy analityczne, w których zapisywane są i odczytywane miliony bardzo małych plików. Wówczas skrócenie czasu dostępu do nich, a to jest główna zaleta nośników flash, może znacznie wpłynąć na ogólną wydajność ich przetwarzania.
Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach monitoringu wideo. Zapis w nich ma charakter ciągły, i do tego wykonywany jest w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Zdecydowanie tańsza będzie zwykła macierz lub serwer NAS, a do tego trzeba też pamiętać o zainstalowaniu specjalnych dysków, których mechanika przystosowana została do ciągłego zapisu (zwykłe twarde dyski zostały zaprojektowane z założeniem, że zapis i odczyt będą odbywały się w równych proporcjach).
Jak zadbać o komórki?
Pamięci flash mają jedną podstawową wadę – ich komórki podczas każdej operacji zapisu tracą elektroniczne właściwości, co sprawia, że w pewnym momencie nie będą w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. W popularnych obecnie dyskach liczba takich cykli, w ramach których dostawca pamięci gwarantuje trwałość danych, określana jest na poziomie tysiąca. To niewiele, ale w praktyce, dla zwykłych konsumentów, jest to wartość wystarczająca. Problem rodzi się wówczas, gdy dane są zapisywane i kasowane bardzo często. Dlatego w nośnikach SSD znajdują się specjalne kontrolery wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku. W ten sposób minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci.
Dodatkowy problem stanowi fakt, że w pamięciach flash nie można tak po prostu skasować danych z jednej komórki. Gdy zajdzie taka konieczność trzeba wymazać zawartość całego sektora. Dlatego, gdy zapełniona zostanie pojemność nośnika, a część danych zostanie przeznaczona do skasowania, oprogramowanie kontrolera musi analizować, które sektory można oczyścić w całości, a z których sektorów należy przekopiować część potrzebnych jeszcze danych do innego sektora. Proces ten nazywa się z angielskiego zbieraniem śmieci (garbage collection) i niestety znacząco wpływa na wydajność pamięci flash.
Pierwsze dyski SSD miały małą pojemność oraz wysoką cenę w przeliczeniu na gigabajt, co blokowało wzrost ich popularności. Przez długi czas w nośnikach przeznaczonych do zastosowań korporacyjnych królowały kości wyprodukowane w technologii SLC (Single-Level Cell – jeden bit na komórkę) i MLC (Multi-Level Cell – dwa bity na komórkę). Dopiero od dwóch lat popularność zyskują tańsze kości TLC (Triple-Level Cell), w których jedna komórka jest w stanie przechować trzy bity informacji. Planowane jest też stworzenie kości QLC (Quadriple-Level Cell), ale pierwsze prototypy są wciąż na tyle nietrwałe, że nie nadają się do profesjonalnych zastosowań. Natomiast dzięki zwiększonej w ten sposób gęstości zapisu w macierzach all-flash pojawiają się dziś dyski o pojemności nawet 30 TB.
Wyzwania i paradoksy
Ponieważ nośniki zawierające pamięć flash nadal są dość drogie, producenci zaczęli wyposażać macierze all-flash w mechanizmy umożliwiające zmniejszenie objętości przechowywanych danych – kompresję i deduplikację. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które nie są zaszyfrowane lub skompresowane z natury (jak pliki multimedialne czy zdjęcia), a szczególnie w bazach danych. Deduplikacja natomiast doskonale działa w środowiskach wirtualnych, a przede wszystkim wobec wirtualizacji desktopów. Jednak równoległe korzystanie z obu tych technik nie ma większego sensu, bo ilość odzyskanej przestrzeni będzie wówczas bardzo niewielka. Poza tym, zarówno deduplikacja, jak też kompresja, wpływają negatywnie na wydajność, a więc „zabijają” główną korzyść, dla której firmy inwestują w macierze all-flash.
Dobierając macierz all-flash dla klienta trzeba baczną uwagę zwracać na to, czy podawane przez producenta parametry dotyczące pojemności nie są wyliczone właśnie z zastosowaniem kompresji i/lub deduplikacji (często dostępne na stronach internetowych producentów kalkulatory korzyści dokonują obliczeń z włączonymi tego typu opcjami, co jest oczywistą manipulacją). Siłą rzeczy dane te nie będą wiarygodne, bo współczynniki skuteczności obu tych procesów nie będą znane, póki macierz nie zostanie zasilona właściwymi danymi klienta. Dlatego podczas porównywania urządzeń zawsze należy zwracać uwagę na rzeczywistą, „surową” pojemność (raw capacity).
Ważnym parametrem, który może mieć wpływ na finalną cenę – zarówno zakupu, jak też użytkowania – jest kwestia oprogramowania do zarządzania macierzą. W wielu przypadkach jest ono dołączane do urządzenia gratis i nielimitowane w żaden sposób. Jednak niektórzy dostawcy stosują model znany z klasycznych macierzy dyskowych, gdzie cena udzielonych licencji może być zależna od pojemności nośników czy liczby kontrolerów.
Magdalena O’Dwyer
Product Manager, Synology
Dyski z interfejsem NVMe zdecydowanie są nośnikiem przyszłości. Ich wydajność jest w zupełności wystarczająca do dzisiejszych zastosowań, a wiemy, że producenci w tej kwestii nie powiedzieli jeszcze ostatniego słowa i prace rozwojowe wciąż trwają. Moduły NVMe już dziś są powszechnie stosowane w zwykłych serwerach NAS jako cache, a wprowadzenie ich jako podstawowego nośnika w rozwiązaniach all-flash to tylko kwestia czasu.
NVMe bierze wszystko
Interfejsy SATA/SAS stosowane w dyskach SSD wprowadzają wiele ograniczeń związanych z transferem danych, a wśród nich najbardziej znaczącym jest limit jego prędkości. Dlatego już dekadę temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak też nowym interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejs M.2 pozwalający na podłączenie pamięci flash bezpośrednio do magistrali PCIe.
Jednym z podstawowych ograniczeń twardych dysków jest to, że w danym momencie są w stanie przetwarzać tylko jedno żądanie (głowica dysku nie jest w stanie znajdować się w dwóch miejscach w tym samym czasie), a więc transfer danych ma charakter sekwencyjny. Dlatego też interfejsy stosowane w dyskach w ogóle nie przewidują możliwości równoległego przesyłania większej ilości danych, z czym w ogóle nie ma problemu w przypadku pamięci flash. Tam w jednym cyklu teoretycznie możliwe jest wykonanie nawet 64 tys. żądań odczytu, do czego jeszcze dziś nie są gotowe same procesory, magistrale komputerów ani aplikacje, teoretycznie wydajność pamięci flash daje nam więc duży zapas.
W firmach, które korzystają z serwerów i pamięci masowych wyposażonych w nośniki NVMe, wąskie gardło często stanowi infrastruktura sieciowa. Dlatego już dwa lata temu zaprezentowano pierwszą wersję protokołu sieciowego NVMe-oF (NVM Express over Fabrics), który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie będzie ograniczał wydajności tych nośników. Obecnie sterowniki większości nowych kart sieciowych są już zgodne z NVMe-oF, więc gdy te nośniki zaczną zyskiwać należną im popularność, nie powinno być problemów z ich wdrażaniem.
Protokół NVMe przynosi ogromną korzyść w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoli na uzyskanie dużej wydajności za ułamek ceny, którą obecnie trzeba zapłacić za urządzenie z setkami dysków. Nośniki bazujące na protokole NVMe bardzo dobrze przyjmują się obecnie jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyski w zainstalowanych tam serwerach. Powoli trafiają też do macierzy dyskowych – większość producentów zapowiedziało wprowadzenie modeli z takimi nośnikami na rynek w 2019 r. Natomiast w ogromnej większości firm barierę będzie w tym przypadku stanowiła posiadana infrastruktura sieciowa oraz wykorzystywane w niej protokoły (CIFS i NFS dla serwerów NAS oraz FC i iSCSI w sieciach SAN). Dlatego realnych korzyści z dysków NVMe oraz protokołu NVMe-oF należy zatem spodziewać się dopiero w perspektywie kilku najbliższych lat.
Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zastosowane w oprogramowaniu algorytmy są „świadome”, że dane będą spływały umiarkowanie powoli ze zwykłych twardych dysków, więc one też nie muszą się spieszyć. Dlatego, aby uzyskać pełną korzyść z nowych rodzajów nośników, klienci powinni sprawdzić czy na tą swego rodzaju rewolucję gotowe jest też ich oprogramowanie.
Mirosław Chełmecki
dyrektor działu serwerów i pamięci masowych, Veracomp
Zaawansowane cechy i funkcje macierzy all-flash powodują, że ich sprzedaż nie należy do najprostszych. Konieczna jest ciągła edukacja klientów i prezentowanie zalet tego typu rozwiązań, z których rzadko zdają sobie sprawę. Jedną z dobrych praktyk, jaką zawsze proponujemy współpracującym z nami integratorom, jest wypożyczenie macierzy all-flash i przetestowanie jej zalet w środowisku IT potencjalnego klienta końcowego.
Artykuł Nowe życie pamięci flash dzięki NVMe pochodzi z serwisu CRN.
]]>Artykuł Macierze Fujitsu – gwarancja wydajności i skalowalności pochodzi z serwisu CRN.
]]>Na wydajność urządzeń pozytywnie wpływa także funkcja automatycznego zarządzania jakością dostarczanych usług (Automated Quality of Service). Dzięki niej administrator może wskazać aplikację, która powinna mieć dostarczane dane bez jakichkolwiek opóźnień – o wprowadzenie odpowiednich zmian konfiguracyjnych i optymalizacyjnych zadba wbudowane w macierz oprogramowanie. Wszystkie dane zgromadzone w systemach dyskowych Fujitsu mogą być też poddane deduplikacji i kompresji.
Spójna koncepcja macierzy ETERNUS zapewnia ten sam system zarządzania dla wszystkich urządzeń z rodziny, także tych starszej generacji, co gwarantuje kompatybilność danych na nośnikach oraz eliminuje konieczność prowadzenia szkoleń dla administratorów. Natomiast możliwość połączenia dwóch systemów w klaster zapewnia ciągłość działania wszystkich usług dzięki automatycznemu przełączaniu z jednej macierzy na drugą w przypadku awarii (funkcja Transparent Failover).
Presales Manager Fujitsu
W firmach, w których następuje ciągły wzrost ilości danych, ważne jest zagwarantowanie skalowalności i możliwości rozbudowy w kontrolowany – także finansowo – sposób. Często na sprawność działania aplikacji ma wpływ spadek wydajności systemu dyskowego, dlatego konieczne jest również zapewnienie mechanizmu QoS, który zsynchronizuje zarządzanie danymi i udostępnianie ich serwerom ze zdefiniowanymi wcześniej priorytetami biznesowymi.
Wszystkie hybrydowe macierze Fujitsu mogą być w 100 proc. wypełnione dyskami SSD i w ten sposób zagwarantować jeszcze większą wydajność systemu pamięci masowych. Jednak ze względu na błyskawiczny wzrost zainteresowania klientów macierzami all-flash producent przygotował ofertę także w tym zakresie.
Urządzenia z rodziny ETERNUS AF (modele AF250 i AF650) zachowały większość funkcji macierzy dyskowych ETERNUS DX, w tym najbardziej doceniane przez klientów automatyczne przełączanie sklastrowanych systemów podczas awarii jednego z nich oraz mechanizm gwarantujący wysoką wydajność przetwarzanych danych. Niemal wszystkie zaawansowane funkcje dostępne są w dołączonym do macierzy oprogramowaniu, więc nie trzeba ponosić dodatkowych kosztów licencyjnych ani opłat za przestrzeń dyskową, którą ono zarządza.
Wszystkie macierze z rodzin DX i AF są ze sobą w pełni kompatybilne i mogą być zarządzane za pomocą tego samego oprogramowania. Bez problemu można też prowadzić replikację danych między obydwoma rodzajami urządzeń.
Dystrybutorami rozwiązań Fujitsu w Polsce są firmy: AB, ABC Data, Action, Ingram Micro i Veracomp.
Macierze dyskowe Fujitsu ETERNUS DX i AF uzyskały rekordowe wyniki w testach SPC-1 – zarówno w zakresie efektywności kosztowej (cena jednostki IOPS), jak i czasu dostępu do danych (znacznie poniżej 1 ms). Wszystkie raporty z testów można pobrać ze strony SPC.
Dodatkowe informacje:
Wojciech Wróbel, Presales Manager Fujitsu,
wojciech.wrobel@ts.fujitsu.com
Artykuł powstał we współpracy z firmą Fujitsu.
Artykuł Macierze Fujitsu – gwarancja wydajności i skalowalności pochodzi z serwisu CRN.
]]>Artykuł Lenovo: nowe macierze dla małych i średnich firm pochodzi z serwisu CRN.
]]>
Macierze mają funkcję Intelligent
Real-Time Tiering, dzięki której często używane dane co pięć
sekund automatycznie przenoszone są na szybsze dyski. Urządzeniom
S2200 i S3200 towarzyszy oprogramowanie Lenovo SAN Manager.
Graficzny interfejs użytkownika udostępnia zaawansowane funkcje,
takie jak:
warstwowanie danych
(tiering) — automatyczne przenoszenie danych między
warstwami pamięci masowej w celu zwiększenia ogólnej
wydajności;
dynamiczne
przydzielanie zasobów (thin provisioning) — pomaga klientom
w zakupie tylko takiej ilości pamięci, jaka jest potrzebna do
działania;
pamięć podręczna
SSD do odczytu — umożliwia priorytetowy dostęp do często
używanych danych, przez co zwiększa szybkość odczytu
szybka odbudowa
konfiguracji RAID — minimalizuje czas odzyskiwania danych oraz
przywracania systemu po awarii dysku;
migawki — kopie
danych z określonego punktu w czasie eliminują spadki
wydajności związane z przywracaniem danych;
pule pamięci
masowej — wirtualizują pamięć masową w skali wielu
dysków różnych typów, zwiększając liczbę operacji
wejścia/wyjścia nawet o 2,5x bez negatywnego wpływu na
aplikacje.
Urządzenia te zostały opracowane
przez Lenovo z myślą o dostępności na poziomie 99,999
proc. Są wyposażone w nadmiarowe zasilacze i umożliwiają
wymianę wentylatorów oraz dysków bez konieczności wyłączania.
Artykuł Lenovo: nowe macierze dla małych i średnich firm pochodzi z serwisu CRN.
]]>Artykuł Bezpieczny rejs po morzu danych z OceanStor UDS pochodzi z serwisu CRN.
]]>OceanStor UDS jest zbudowany z połączonych ze sobą modułów SmartDisk. Każdy z nich zawiera procesor ARM, twardy dysk oraz interfejsy komunikacyjne. Moduły instalowane są w półkach dyskowych o wysokości 4U, mieszczących maksymalnie po 75 SmartDisków. W modułach zastosowano dyski Enterprise SATA, przystosowane do ciągłej pracy w środowisku o wysokiej gęstości. W szafie mieści się siedem półek po 300 TB, co daje 2,1 PB przestrzeni dyskowej. W każdej szafie muszą być zainstalowane także minimum dwa moduły Access Node oraz dwa przełączniki sieciowe Ethernet 10 Gb/s. Taka duża gęstość zapisu oraz zastosowanie procesorów ARM wpłynęły na obniżenie poboru mocy nawet o 50 proc. względem innych rozwiązań tej skali. Rzeczywisty pobór mocy na 1 TB w module SmartDisk wynosi tylko 4,2 W. Z kolei oszczędność przestrzeni dyskowej zapewnia deduplikacja danych oraz możliwość ich kompresji.
Dzięki modularnej budowie rozwiązania OceanStor UDS i wykorzystaniu modułów SmartDisk oraz półek dyskowych o dużej pojemności możliwe jest wdrożenie go w różnych, odległych od siebie centrach przetwarzania danych i połączenie w sieć P2P. W ten sposób zapewniona zostaje wysoka dostępność i niezawodność oraz skalowalność całego systemu – zarówno pojemności (od terabajtów aż do eksabajtów), jak i wydajności, bez wyłączania urządzenia podczas rozbudowy. Dane mogą być replikowane nie tylko lokalnie (w ramach jednego urządzenia), ale także między modułami SmartDisk i półkami dyskowymi znajdującymi się w oddalonych od siebie centrach danych.
Zastosowanie jednostek SmartDisk umożliwiło zabezpieczenie macierzy UDS przed nagłymi przerwami w udostępnianiu zasobów. Uszkodzenie pojedynczego modułu nie ma wpływu ani na pozostałe komponenty, ani na działanie całej architektury. Rozwiązanie wyposażono w inteligentny system monitoringu i analizowania usterek. Dzięki temu możliwe stało się automatyczne zarządzanie zasobami (samouzdrawianie). Zapewnia to m.in. wyeliminowanie konieczności natychmiastowej wymiany uszkodzonych części – wykwalifikowany zespół może dokonywać prac serwisowych według wyznaczonego wcześniej harmonogramu, np. raz na tydzień.
Wysoki poziom ochrony jest zagwarantowany nie tylko dla samej macierzy, ale przede wszystkim dla zmagazynowanych w niej danych. Ich bezpieczeństwo zapewniają funkcje szyfrowania, partycjonowania oraz rozbudowanej kontroli dostępu do zasobów.
Jednym z ciekawszych zastosowań macierzy OceanStor UDS jest wykorzystywanie jej w scentralizowanym systemie wykonywania kopii zapasowych w instytucjach przetwarzających bardzo duże ilości danych, np. w placówkach naukowych, szpitalach, archiwach telewizyjnych, centrach danych dostawców usług w chmurze itd. Rozwiązanie to jest przystosowane do współpracy z oprogramowaniem Symantec NBU (wersja 7.0 lub późniejsze) oraz CommVault Simpana (wersja 9.0 lub późniejsze). Świetnie sprawdzi się w firmach, które wymagają tworzenia i przechowywania kopii zapasowych, a nie chcą wykorzystywać do tego bibliotek taśmowych i klasycznych taśm.
UDS można łatwo zintegrować z różnorodnym oprogramowaniem za pomocą zestandaryzowanych interfejsów API/SDK. Dzięki temu możliwa jest jednoczesna obsługa szeregu aplikacji na jednej platformie, np. usług przechowywania danych w chmurze, takich jak Amazon S3. Wszystkie zasoby dyskowe OceanStor, także te rozproszone między wieloma centrami danych, mogą być połączone w jedną centralną pulę, ze wspólną przestrzenią nazw (ang. global name-space).
Dystrybutorami Huawei w Polsce są: S4E i Sequence.
Dodatkowe informacje:
Artur Pająk,
Senior Product Manager, Huawei Enterprise,
Artykuł powstał we współpracy z firmą Huawei Enterprise.
Artykuł Bezpieczny rejs po morzu danych z OceanStor UDS pochodzi z serwisu CRN.
]]>Artykuł NetApp: pamięci masowe klasy enterprise pochodzi z serwisu CRN.
]]>NetApp zaprezentował także macierz flash EF540, przeznaczoną dla aplikacji korporacyjnych. System umożliwia według producenta ponad 300 tys. operacji wejścia-wyjścia na sekundę (IOPS) oraz dostęp do danych w niespełna milisekundę. NetApp ocenia, że dzięki nowej macierzy krytyczne aplikacje bazodanowe mogą działać nawet o 500 proc. szybciej niż w tradycyjnych środowiskach storage’owych.
Artykuł NetApp: pamięci masowe klasy enterprise pochodzi z serwisu CRN.
]]>