Artykuł S4E o dostępności Huawei i nowych serwerach XFusion pochodzi z serwisu CRN.
]]>Piotr Gastoł Czas oczekiwania na sprzęt sieciowy oraz pamięci masowe Huawei wynosi od 3 do 4 tygodni. Zatem nic się w tej kwestii nie zmieniło, podczas gdy, jak powszechnie wiadomo, u niektórych innych producentów występują problemy z dostępnością sprzętu. To sprawia, że partnerzy wykazują rosnące zainteresowanie ofertą Huawei i przychodzą właśnie do nas. Najlepiej widać to zjawisko na przykładzie produktów sieciowych. Routery i przełączniki sieciowe oraz acces pointy Huawei posiadają własne chińskie chipsety, dzięki czemu realizujemy zamówienia w terminie. W pierwszym półroczu bieżącego roku nasz dział zajmujący się sprzedaż produktów Huawei zwiększył swoją sprzedaż w porównaniu z analogicznym okresem ubiegłego roku.
Czy to oznacza, że obecna sytuacja przynosi chińskim producentom korzyści?
Zdecydowanie tak. To doskonale widać właśnie na przykładzie sprzętu sieciowego. Specjalistyczne media informują, że Chiny stały się w ubiegłym roku samowystarczalne pod kątem produkcji chipsetów w technologii 28nm, zaś w w technologii 14nm ma to się stać w roku bieżącym. A ponieważ w standardowych urządzeniach sieciowych wykorzystuje się właśnie chipsety w technologii 14 i 28 nm, stąd brak problemów z dostępnością urządzeń sieciowych Huawei.
W segmencie rozwiązań sieciowych jednym z modniejszych trendów jest standard WiFi 6. Jak postępuje adaptacja tej technologii wśród rodzimych klientów?
WiFi 6 zaspokaja rosnące zapotrzebowanie użytkowników sieci na wydajność. W przypadku Huawei dodatkową wartość stanowią tzw. inteligentne anteny, zapewniające wysoką niezawodność połączeń oraz pokrycie radiowe. Klienci mają też coraz większą świadomość w zakresie bezpieczeństwa sieci, co nie pozostaje bez wpływu na wdrażanie mechanizmów WPA3, dostępnych we wszystkich produktach sieciowych obsługujących WiFi 6. Warto też wspomnieć o mechanizmach związanych automatyzacją. Na przykład autonomiczne pojazdy stosowane w centrach logistycznych będą wymuszały stosowanie zaawansowanych technologii WiFi, zapewniających bezstratny roaming pomiędzy punktami bezprzewodowymi.
A jak przedstawiają się tendencje związane z zarządzaniem i obsługą sieci?
W najbliższych latach będziemy obserwować umacniający się trend związany z wykorzystywaniem mechanizmów automatyzacji w procesie zarządzania i konfiguracji sieci komputerowych oraz oswajanie się polskich klientów z technologiami zarządzania urządzeniami sieciowymi z poziomu chmury. Odpowiedzą na ten trend jest system Huawei iMaster NCE-Campus, który może działać w chmurze publicznej bądź hybrydowej. To otwiera możliwości przed integratorami lub firmami ISP w zakresie świadczenie własnych usług, w tym również rozwiązań oferowanych w środowisku lokalnym.
Obecnie każdy liczący się producent w segmencie sprzętu sieciowego oferuje systemy SD WAN. Jak wygląda to w przypadku Huawei?
Rzeczywiście klienci zaczynają nas pytać o rozwiązania typu SD WAN. Część z nich nich postrzega ten termin bardziej jako hasło marketingowe, inni jako technologię usprawniającą proces wdrożenia i zarządzania sieciami VPN pomiędzy oddziałami. W firmie Huawei, dzięki integracji SD-WAN z systemem iMaster NCE-Campus, mamy możliwość zarządzania z jednego miejsca zarówno siecią WAN, jak i siecią LAN. Nie można zapomnieć o możliwości zastosowania w routerach Huawei kart w technologii 5G, co zapewnia dużo większą wydajność w porównaniu z technologią LTE.
Huawei to nie tylko producent sprzętu sieciowego. Firma całkiem nieźle radzi sobie w segmencie pamięci masowych, co pokazują chociażby globalne zestawienia sprzedaży IDC czy Gartnera. Czy w Polsce producent może pochwalić się podobnymi osiągnięciami?
Rodzina macierzy z serii Dorado wypracowała sobie bardzo silną pozycję na polskim rynku. To produkty cieszące się u nas dużą renomą. Szczególnie cieszy mnie to, że bardzo często wygrywamy z konkurentami po realizacji projektów Proof Of Concept. Klienci szczególnie doceniają wydajność, jaką zapewniają pamięci masowe Huawei. Dla części potencjalnych nabywców liczy się cena, ale to nie ma być produkt tani, lecz gwarantujący bardzo dobre parametry techniczne. W przypadku rodziny Dorado staje się to możliwe dzięki zastosowaniu najnowocześniejszych technologii.
Dla niektórych potencjalnych nabywców cena jest ważna, ale cena nie powinna przebijać wydajności. Rozwiązanie powinno gwarantować bardzo dobre parametry techniczne.
Czym wyróżniają się macierze Dorado na tle konkurencji?
Na pierwszym miejscu należałoby zaznaczyć, ze wykorzystują wysoko wydajne procesory ,własnej produkcji w architektury ARM. Ponadto, jako jedni z pierwszych dostarczyliśmy na rynek macierze w pełni bazujące na nośnikach NVMe. Umożliwiają one pełną skalowalność z wykorzystaniem protokołów RDMA oraz PCIE. Poza tym każda macierz posiada architekturę Unified, czyli może udostępniać dane blokowo z wykorzystaniem najbardziej zaawansowanych protokołów NVMeoFC oraz ROCE, jak również w postaci plików poprzez NFS czy CIFS. Wszystkie modele macierzy Huawei pracują w trybie symetrycznym active-active, a rozwiązania z najwyższej półki nawet w mesh-active, co zapewnia nie tylko doskonałą wydajność, ale również wysoką niezawodność. Macierz potrafi być odporna na awarię nawet siedmiu z ośmiu kontrolerów, a dzięki zastosowaniu technologii HyperMetro możemy zapewnić niezawodność na poziomie 99,99999 proc.
Wspomina Pan o zastosowaniu w macierzach z serii Dorado dysków NVMe. Jak obecnie kształtuje się zainteresowanie klientów systemami all-flash?
Huawei w ostatnim okresie wykonał wyjątkowy skok technologiczny zrównując ceny dyskow Nvme z dyskami sas dzięki czemu większość sprzedawanych obecnie przez nas rozwiązań to najnowocześniejsza obecnie architektura NVM’e. Takie rozwiązania pozwalają osiągać klientom wydajność infrastruktury na nieosiągalnym wcześniej poziomie.
Nie jesteście wyłącznym dystrybutorem sprzętu Huawei w Polsce. Co robicie, aby partnerzy kupowali sprzęt właśnie w S4E?
Huawei ma bardzo atrakcyjny program partnerski. Jeszcze do niedawna nieliczni resellerzy korzystali z tych benefitów. Większość działała na zasadzie: sprzedaliśmy product, otrzymaliśmy prowizję i to nam w zupełności wystarczy. Jednak od pewnego czasu zauważamy, że partnerzy walczą o wyższe statusy i osiągają wyznaczone limity. Resellerzy oraz integratorzy stają się otwarci na współpracę z Huawei, bo to im się po prostu opłaca. Wielu z nich przychodzi do S4E. Dlaczego? Myślę, że doceniają nasz profesjonalizm i zaangażowanie. S4E ma pięć gwiazdek serwisowych Huawei, zarówno w obszarze IT, jak IP. To stwarza nam lepsze warunki do oferowania usług serwisowych dla partnerów. Potrafimy w tym zakresie zaoferować więcej niż konkurencja. Na marginesie chciałbym dodać, że jesteśmy pierwszą firmą w Polsce, która otrzymała od Huawei pięć gwiazdek w obszarze IT.
Od niedawna rozpoczęliście współpracę z XFusion. Jakie argumenty powinny przekonać partnerów do zaangażowania w sprzedaż serwerów tej marki?
Serwery XFusion stanowią uzupełnienie naszej oferty. Ich brak w naszym portfolio nieco utrudniał nam opracowanie kompleksowego portfolio dla konkretnych projektów. Pojawienie się serwerów XFusion może okazać się impulsem dla naszych partnerów. I chociaż to nowa organizacja, to większość pracowników pochodzi z Huawei. A ponieważ nowi gracze zawsze mocno walczą o rynek, cena urządzeń XFusion będzie na pewno jednym z ich dużych atutów. Nie bez znaczenia jest fakt, że producent ten stawia mocno na kanał partnerski – prowadzi rejestrację projektów, jak też zapewnia elastyczne warunki finansowe w postaci zwrotów i rabatów. Dobrym przykładem jest tutaj system back-end rebates, którego Huawei nie oferowało w obszarze serwerów.
Do jakich odbiorców chcecie dotrzeć w pierwszej kolejności?
Oczywiście ofertę adresować będziemy do grupy naszych partnerów. W obszarze użytkowników końcowych w pierwszym rzędzie będą to instytucje publiczne. Ten segment rynku najbardziej otwarty na tego typu dostawców. W dłuższej perspektywie czasu myślimy też o klientach komercyjnych, aczkolwiek trzeba będzie popracować nad promocją marki. Choć na ten moment nie zamykamy się całkowicie na tę grupę klientów.
Jakie są podstawowe atuty urządzeń XFusion?
Każdy serwer posiada płytę główną z obsługą dwóch procesorów aż do 4TB RAM lub nawet 12TB w przypadku zastosowania pamięci IntelOptane oraz pełną licencję karty zarządzającej. Ponadto posiadają podwójne sloty OPC 3.0, które umożliwiają wymianę portów LAN w trybie Hot-Swap. Atutem serwerów jest też skalowalność – pozwalają one na instalację aż 34 dysków NVMe w obudowie 2U. Warto też wspomnieć o wsparciu dla dla akceleracji obliczeń za pomocą kart GPU. Użytkownik może można zainstalować aż osiem tego typu jednostek w pojedynczym serwerze.
Kierowany przez Pana dział rozszerzył ofertę w zakresie bezpieczeństwa. Czy będzie ona wykraczać poza rozwiązania Huawei?
Choć cały czas będziemy oferować systemy bezpieczeństwa Huawei, to jednak chcemy wzbogacić ofertę o rozwiązania innych vendorów. Zamierzamy mocno stawiać między innymi na rozwiązania McAfee, Trustwave, LogManager, Hillstone Networks. Najszybciej rozwijającym się obszarem rynku IT jest segment bezpieczeństwa. Coraz częściej stosuje się w tym przypadku rozwiązania oparte o Threat Intelligence, wykorzystujące język maszynowy (ML) i sztuczną inteligencję (AI). Zauważamy również powolne odchodzenie od rozwiązań w środowisku lokalnym na rzecz usług chmurowych, o czym decydują rozmaite czynniki – skalowalność, dostępność czy sposób rozliczana w modelu subskrypcyjnym. Jako dystrybutor VAD chcemy mieć pełną wiedzę na temat oferowanych rozwiązań, tak aby nasi partnerzy mogli liczyć na wsparcie projektowe. Dlatego chcemy się skupiać na ograniczonej liście dostawców, których rozwiązania realnie przynoszą korzyści klientom, nie rujnując przy okazji ich budżetów.
Materiał powstał przy współpracy z S4E.
Artykuł S4E o dostępności Huawei i nowych serwerach XFusion pochodzi z serwisu CRN.
]]>Artykuł Gdzie sprzęt się bije tam… oprogramowanie korzysta pochodzi z serwisu CRN.
]]>Walka macierzy all-flash z hybrydowymi trwa. Jej nowy front otworzyło dwa lata temu kilku dostawców, którzy „obudowali” swoje rozwiązania dodatkowymi bonusami. Wówczas popularne stały się gwarancje, w ramach których producenci zapewniają uzyskanie przez klienta konkretnego współczynnika kompresji i deduplikacji. Z reguły wynosi on 3:1 lub 5:1 (w przypadku gdy gwarancja nie zostanie dotrzymana, producent zobowiązuje się do dostawy bezpłatnych dysków flash, które zapewnią brakującą pojemność). Jednak każda taka promocja jest obłożona ograniczeniami, np. dane nie mogą być zaszyfrowane lub wcześniej poddane kompresji. Niektórzy producenci gwarantują też teoretycznie bezpłatną wymianę co kilka lat kontrolera macierzy na nowszy model. Teoretycznie, bo gwarancja taka obowiązuje tylko wtedy, gdy klient regularnie korzysta z usług wsparcia, a więc rozliczając się za nie, bierze na siebie koszt wymiany kontrolera.
Według opublikowanych przez IDC w grudniu ub.r. danych wartość sprzedaży macierzy dyskowych na świecie wzrosła tylko o 1,3 proc., a sprzedana pojemność – o 6,8 proc. (ta różnica oczywiście ma związek z taniejącymi nośnikami, głównie półprzewodnikowymi). Długofalowo jest także przewidywana stagnacja, jeśli chodzi o wartość sprzedaży macierzy albo wręcz trend spadkowy. Wszystko z powodu tego, że w coraz mniejszej liczbie firm istnieje konieczność instalowania dużych, zajmujących nieraz całą szafę macierzy dyskowych, by zapewniły oczekiwaną przez działy biznesowe wydajność, np. bazy danych lub środowisk wirtualnych. Do takich zastosowań są wybierane coraz tańsze, ale przede wszystkim pojemniejsze i niepobierające tak dużo prądu pamięci flash (w macierzach all-flash lub jako najszybsza warstwa w systemach hybrydowych).
Co więcej, w celu eliminacji potrzeby budowania fizycznej sieci SAN, bazującej na protokole Fibre Channel, łączącej serwery z dyskami w macierzy, coraz częściej instalowane są nośniki o dużej pojemności bezpośrednio w serwerach. Dzięki temu droga, którą muszą pokonać dane przesyłane między dyskiem i serwerem, jest skrócona do absolutnego minimum.
Dużo zamieszania w 2019 r. wprowadziło pojawienie się nośników z interfejsem NVMe w macierzach dyskowych, który umożliwia połączenie kości pamięci bezpośrednio z magistralą PCIe. Co prawda prace nad nim rozpoczęto ponad 10 lat temu, by wyeliminować wprowadzające w dyskach SSD wąskie gardła interfejsy SATA i SAS, ale dopiero teraz zyskał należne mu zainteresowanie, głównie dzięki nasilonym akcjom marketingowym producentów.
Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków – w danym momencie mogą przetwarzać tylko jedno żądanie (głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie), a więc transfer danych ma charakter sekwencyjny. Dlatego też interfejsy stosowane w dyskach w ogóle nie przewidywały możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku pamięci flash – tam w jednym cyklu teoretycznie możliwe jest przetwarzanie nawet 64 tys. żądań odczytu.
Równolegle NVMe eliminuje kolejne wąskie gardło, jakim jest infrastruktura sieciowa. Chwilę po stworzeniu protokołu opisującego, jak są przesyłane dane wewnątrz urządzenia, rozpoczęto pracę nad protokołem sieciowym NVMe-oF (NVM Express over Fabrics), który jest w pełni zgodny z NVMe i gwarantuje brak ograniczeń wydajnościowych przy transmisji danych przez sieć. Obecnie sterowniki większości nowych kart sieciowych są już zgodne z nowym protokołem, więc wdrożenie go w serwerach nie powinno stanowić problemu. Niestety, nie są jeszcze gotowi wszyscy producenci macierzy dyskowych, także tych, w których są już wykorzystywane nośniki NVMe, ale rozszerzenie ich funkcjonalności to tylko kwestia czasu i nie będzie wymagało instalacji dodatkowego sprzętu (wystarczy aktualizacja oprogramowania).
Obecnie dyski NVMe bardzo dobrze są przyjmowane jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz nośniki w zainstalowanych tam serwerach. Decyzja o ich wdrożeniu powinna być jednak podejmowana także na bazie przeprowadzonego u klienta projektu proof-of-concept. Nie zawsze bowiem na współpracę z tak szybkim nośnikiem danych gotowe są aplikacje. Zaobserwowano już przykłady, gdy nie były one w stanie przetworzyć tak dużej ilości informacji, bowiem projektanci oprogramowania założyli, że dane będą spływać relatywnie powoli, z maksymalną prędkością dostępnych w trakcie jego tworzenia twardych dysków.
Projekt proof-of-concept powinien być też przeprowadzony pod kątem sprawdzenia efektywności technik zmniejszających objętość przechowywanych danych – kompresji i deduplikacji. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które nie są zaszyfrowane lub skompresowane z natury (jak pliki multimedialne lub zdjęcia), a szczególnie w bazach danych. Deduplikacja zaś doskonale działa w środowiskach wirtualnych (głównie wirtualizacji desktopów). Problem jednak w tym, że zarówno deduplikacja, jak i kompresja wpływają negatywnie na wydajność, a więc „zabijają” główną korzyść, dla której firmy inwestują w nośniki flash.
Klienci, którzy zastanawiają się nad doborem odpowiednich macierzy dyskowych do zbudowania środowiska pamięci masowych, powinni przyjrzeć się rozwiązaniom alternatywnym, w których główną rolę odgrywa nie sprzęt, ale zarządzające nim oprogramowanie. Co prawda, rozwiązania oferowane pod hasłem Software Defined Storage (SDS) zapewniają różną funkcjonalność, ale obecność na rynku ponad 30 różnych tego typu narzędzi powoduje, że praktycznie każda firma może znaleźć coś, co zaspokoi jej potrzeby w takich obszarach, jak: wirtualizacja serwerów i desktopów, tworzenie chmur hybrydowych, automatyzacja procesów zarządzania infrastrukturą IT czy obsługa elastycznych środowisk DevOps.
Początkowo rozwiązania klasy SDS zapewniały przede wszystkim wirtualizację zasobów pamięci masowych i miały stanowić konkurencję dla bardzo drogich wirtualizatorów sprzętowych, oferowanych przez długi czas wyłącznie przez IBM-a. Ich zadanie polegało na skonsolidowaniu dostępnej w firmowej infrastrukturze IT przestrzeni dyskowej (macierzy z nośnikami o różnej wydajności, napędów w serwerach, kart rozszerzeń z pamięcią flash itp.), zwirtualizowaniu jej, podziale na różne klasy wydajności i udostępnieniu serwerom w wirtualnej sieci SAN w postaci jednego zasobu z gwarantowanym czasem dostępu i transferu danych. Narzędzia te cieszyły się umiarkowanym zainteresowaniem, a przeszkodą wzrostu ich popularności okazała się szybko rosnący popyt na pamięci flash. Dziś funkcja wirtualizacji nadal jest obecna w oprogramowaniu SDS (jej zastosowanie jest konieczne do zapewnienia innych korzyści), ale nie dominująca.
– W obecnych czasach klienci nie są zainteresowani konsolidacją posiadanych starszych zasobów dyskowych. Z reguły nie są one już objęte wsparciem technicznym, są wyposażone w relatywnie wolne dyski o małej pojemności, a przez to pobierają dużo prądu – mówi Jerzy Adamiak, konsultant ds. pamięci masowych w Alstor SDS.
Klasyczne wirtualizatory macierzy dyskowych oczywiście nadal są dostępne. Są w nie wyposażone niektóre modele macierzy dyskowych IBM, Hitachi Vantara, HPE i Huawei. Nadal też można do tego celu wykorzystywać wspomniane wcześniej oprogramowanie klasy SDS (instalowane bezpośrednio jako aplikacja w serwerowym systemie operacyjnym, w wirtualnej maszynie lub uruchamiane w oferowanym przez producentów specjalnym urządzeniu). Jednak głównym celem jego pracy nie jest już wirtualizacja sama w sobie.
Użytkownicy narzędzi typu SDS doceniają przede wszystkim możliwość relatywnie taniego tworzenia klastrów wysokiej dostępności, dzięki którym w przypadku awarii jednego z węzłów drugi nadal pracuje i zapewnia pracownikom dostęp do danych. Rozwiązania te świetnie też sprawdzają się podczas różnego typu prac serwisowych – nie ma konieczności wstrzymywania usług przy aktualizacji oprogramowania macierzy, wymianie kontrolerów, a także podczas dodawania do infrastruktury nowych urządzeń. Łatwiejsza jest migracja danych ze starych na nowe macierze (odbywa się w tle, bez wpływu na dostępność środowiska dla użytkowników), a firmy bez problemu mogą decydować się na zakup sprzętu od innego dostawcy niż ten, z którego systemów korzystali wcześniej.
Jedyną trudnością, którą mogą napotkać przyszli użytkownicy rozwiązań SDS (i ich sprzedawcy), jest stosowany przez ich producentów w komunikacji marketingowej nieprecyzyjny język, rzadko opisujący, co dane rozwiązanie robi w rzeczywistości, ale skupiający się na korzyściach (elastyczności, obniżeniu kosztów, integracji ze środowiskiem chmurowym itd.). Dla kogoś, kto w tej dziedzinie nie jest ekspertem, może to stanowić duże utrudnienie, np. w porównaniu do konkurencyjnych produktów. Tu zatem pojawia się niełatwe i odpowiedzialne zadanie dla
integratorów.
Trudności mogą przysporzyć też kwestie związane z finansowaniem. Ze względu na różnorodność funkcji producenci nie wypracowali jednego uniwersalnego standardu wyceny oferowanego oprogramowania. Opłatę można uiszczać jednorazowo, wykupując licencję, a także dokonywać jej w postaci subskrypcyjnej albo płacić za zwirtualizowaną pojemność lub czas korzystania z danego rozwiązania.
Zdaniem specjalisty
Jerzy Adamiak
konsultant ds. pamięci masowych, Alstor SDS
Sytuacja na rynku pamięci masowych bardzo się zmienia dzięki rosnącej popularności dysków NVMe. Oczywiście wciąż są relatywnie drogie, ale jeśli ktoś potrzebuje bardzo szybkiej przestrzeni o dużej pojemności, to raczej będzie go stać na taką inwestycję. Zapewniają niezwykle krótki czas dostępu do danych i ich transfer sięgający gigabajtów na sekundę (kilkunastokrotnie szybszy niż dyski SSD sprzed kilku lat), są też bardzo małe, pojemne i nie pobierają wiele prądu. Dlatego bez problemu w jednym serwerze można zainstalować nośniki zapewniające kilkadziesiąt, a nawet kilkaset terabajtów przestrzeni. Odpada więc konieczność wdrażania skomplikowanych w obsłudze macierzy dyskowych, podłączanych do sieci SAN, niełatwej w konfiguracji i wymagającej ciągłego nadzoru. Jedyne, co jest zalecane, to stworzenie klastra, w którym dane zebrane w serwerze będą replikowane ze względów bezpieczeństwa.
Wojciech Wróbel
Presales Manager, Fujitsu
Macierze all-flash sprawdzają się w coraz większej liczbie zastosowań ze względu na wydajność, o kilka rzędów wielkości większą od tradycyjnych rozwiązań dyskowych. Jednak wciąż w kilku obszarach większy sens ma zastosowanie urządzeń hybrydowych. Moc systemów wyłącznie z dyskami SSD nie zostanie wykorzystana, jeśli będą stosowane do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku niewielki wzrost wydajności nie zrekompensuje znacznie wyższej ceny samego urządzenia i znajdujących się w nim nośników. Macierze all-flash zdecydowanie rzadziej stosuje się w rozwiązaniach monitoringu wideo, nie tylko z uwagi na pojemność pojedynczych dysków, gdyż obecnie wynosi ona ponad 30 TB. Innymi istotnymi czynnikami są także koszty składowania takich danych (póki co wyższe niż przy dyskach NL-SAS) oraz to, że ich zapis ma charakter ciągły i jest wykonywany w trybie sekwencyjnym, natomiast odczyt jest sporadyczny.
Artykuł Gdzie sprzęt się bije tam… oprogramowanie korzysta pochodzi z serwisu CRN.
]]>Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.
]]>Wciąż jednak dyskusyjne jest stosowanie nośników SSD do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku wzrost wydajności nie zrekompensuje znacznie wyższej ceny zarówno urządzenia, jak i znajdujących się w nim nośników. Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach do monitoringu wideo, gdyż zapis w nich ma charakter ciągły i do tego jest wykonywany w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Jeszcze przez pewien czas zdecydowanie tańsza będzie zwykła macierz lub serwer NAS.
Pamięci flash niezmiennie charakteryzują się podstawową wadą, która w stosunkowo niewielkim stopniu dotyczy twardych dysków. Chodzi oczywiście o komórki pamięci, które podczas każdej operacji zapisu tracą elektroniczne właściwości. To sprawia, że w pewnym momencie nie są w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. Dlatego dostawcy montują w dyskach SSD specjalne kontrolery, wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku, dzięki czemu minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci. To szczególnie ważne ze względu na fakt, że kości produkowane w nowszych technologiach są wprawdzie coraz bardziej pojemne i tańsze, ale mniej trwałe – szczegóły w tabelce poniżej. Dlatego jakość zastosowanego w dysku SSD kontrolera i jego oprogramowania zaczęła być ważniejsza niż jakość samych komórek pamięci.
Interfejsy SATA i SAS, stosowane w dyskach SSD, wprowadzają ograniczenia związane z transferem danych, wśród których najbardziej znaczący jest limit jego prędkości. Dlatego już ponad dziesięć lat temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak i nowym interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejsy M.2 i U.2, które umożliwiły podłączenie pamięci flash bezpośrednio do magistrali PCIe.
Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków. Otóż w danym momencie przetwarzają one tylko jedno żądanie, bo głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie. Siłą rzeczy transfer danych ma w tym przypadku charakter sekwencyjny. Dlatego twórcy interfejsów stosowanych w dyskach w ogóle nie przewidzieli możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku dysków SSD – w jednym cyklu teoretycznie zapewniają wykonanie nawet 64 tys. żądań odczytu.
Pojawienie się nośników NVMe ujawniło kolejne wąskie gardło, którym jest infrastruktura sieciowa. Dlatego konieczne było zaprojektowanie i wdrożenie protokołu sieciowego, który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie ograniczy wydajności tych nośników. Nazwano go NVMe-oF (NVM Express over Fabrics) i obecnie sterowniki większości nowych kart sieciowych są już z nim zgodne. Tym samym wdrożenie go w serwerach nie powinno stanowić problemu, choć nie są jeszcze na to gotowi wszyscy producenci macierzy dyskowych, także tych, w których wykorzystywane są nośniki NVMe. Zastosowanie tego typu nośników przynosi ogromną korzyść przede wszystkim w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoliłyby użytkownikowi na uzyskanie bardzo krótkiego czasu dostępu do danych za ułamek ceny, którą obecnie musi zapłacić za dużą macierz z setkami dysków.
Większość znanych producentów pamięci masowych wprowadziło już nośniki NVMe do swoich macierzy. Nie mają ich jedynie urządznia firm HPE i Fujitsu (obie umożliwiają wykorzystanie ich tylko jako cache SSD), ale zapowiedziano ich premierę na przyszły rok.
– Na razie dyski NVMe bardzo dobrze sprawdzają się jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyskiw zainstalowanych tam serwerach. Jednak pełnej popularyzacji dysków NVMe oraz protokołu NVMe-oF należy się spodziewać dopiero w perspektywie kilku najbliższych lat, gdy rozwiązanie to nabierze oczekiwanej w branży IT dojrzałości – mówi Jerzy Skiba, konsultant ds. pamięci masowych w Veracompie.
Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zostały zaprojektowane ze „świadomością”, że dane będą spływały dość wolno ze zwykłych twardych dysków. To kolejna przyczyna, z powodu której nośniki NVMe mogą osiągnąć popularność dopiero za jakiś czas.
Coraz więcej regulacji prawnych wymusza na firmach konieczność długoterminowego archiwizowania cyfrowych danych – czasem nawet przez kilkadziesiąt lat. Stwarza to wiele wyzwań natury technicznej oraz proceduralnej. Trudno bowiem dziś przewidzieć, z jakiego typu nośników będziemy korzystać za dziesięć lat i czy w ogóle będziemy w stanie „zrozumieć” zgromadzone dane.
Obecnie za najbardziej ekonomiczny, a jednocześnie zgodny z wymogami prawnymi nośnik najczęściej uznawane są taśmy. Od wielu lat wróży się im naturalną śmierć, ale coraz większa liczba ekspertów i analityków branży IT zauważa, że prawdopodobnie prędzej będziemy świadkami zmierzchu twardych dysków. Taśmy mają bowiem wiele zalet i tylko jedną wadę. Do tych pierwszych zaliczyć należy z pewnością fakt, że jest to nośnik wymienny, niezintegrowany z urządzeniem przeznaczonym do jego odczytu, dzięki czemu można go wywieźć z centrum danych i zdeponować w bezpiecznym miejscu, chociażby w bankowym schowku. Tym samym posiadanie bardzo dużej ilości archiwalnych danych w żaden sposób nie wpływa na wysokość rachunku za energię.
Co więcej, chociaż taśmy uważane są przez wielu za przestarzałe rozwiązanie, cały czas technologia zapisu danych na tym magnetycznym nośniku jest rozwijana. Obecnie na jednym kartridżu w standardzie LTO-8 można zapisać 12 TB „surowych” danych (przed kompresją), ale firmy zaangażowane w rozwój standardu LTO Ultrium (HPE, IBM i Quantum) zapowiedziały już jego kolejne cztery wersje. W każdej z nich pojemność jednej taśmy ma być podwajana – LTO-9 zmieści 24 TB, a dostępny w przyszłości LTO-12 aż 192 TB.
Kolejną zaletą taśm jest bezpieczeństwo zgromadzonych danych. Każdy nośnik jest dostępny w wersji WORM (Write Once, Read Many) – po włożeniu go do napędu taśmowego blokowana jest możliwość skasowania wybranych danych lub całej taśmy. Gwarantuje to ich niezmienność, wymaganą przez wiele przepisów. Każde oprogramowanie do backupu ma także funkcję szyfrowania kopiowanych informacji, więc ewentualna kradzież nośnika nie pociąga za sobą żadnych konsekwencji.
Wadą taśm jest natomiast to, że trzeba nimi w umiejętny sposób zarządzać. Konieczne jest stosowanie oprogramowania indeksującego gromadzone dane, bo bez niego znalezienie właściwego nośnika, szczególnie gdy archiwum jest pokaźnych rozmiarów, graniczy z cudem. Również czas dostępu do danych jest dłuższy niż w twardych dyskach (trzeba znaleźć taśmę, załadować ją do napędu, przewinąć i odczytać dane), ale w przypadku danych z archiwów, do których sięga się nizbyt często, nie stanowi to wielkiego problemu.
Mimo że płyty optyczne coraz rzadziej wykorzystywane są jako nośnik danych przez użytkowników prywatnych i pracowników biur, nadal sprawdzają się w zastosowaniach archiwizacyjnych. Dla przykładu, Panasonic gwarantuje, że na produkowanych przez niego płytach Freeze-Ray można długo przechowywać dane, według przeprowadzonych symulowanych testów nawet przez 100 lat. Zapewniona jest także kompatybilność wsteczna dla odczytu, dzięki której nie ma konieczności systematycznego kopiowania danych na nośniki nowszej generacji.
– Płyty to wciąż ciekawa opcja, jeśli chodzi o długoterminowe przechowywanie danych, np. medycznych. Także my daliśmy użytkownikom możliwość integracji tego typu nośników z naszymi serwerami NAS, aby rozszerzyć ich funkcjonalność – mówi Grzegorz Bielawski, Country Manager polskiego oddziału QNAP.
Niektóry producenci systemów pamięci masowych wybiegają daleko w przód, jeśli chodzi o wizje systemów archiwizacyjnych. Jak wspomnieliśmy, największym problemem związanym z pojemnymi
kośćmi pamięci flash jest ograniczona liczba cykli zapisu. Ale w przypadku archiwów wielokrotny zapis nie jest potrzebny. Dlatego teoretycznie nic nie stoi na przeszkodzie, żeby stworzyć bardzo pojemne nośniki SSD, których trwałość wystarczy np. na pięciokrotny zapis danych. Ich cena byłaby zdecydowanie niższa niż oferowanych obecnie dysków flash, a szybkość dostępu do archiwum biłaby wszelkie rekordy.
Nierozwiązana natomiast pozostaje kwestia gwarancji zrozumienia danych w plikach przechowywanych przez dziesiątki lat w cyfrowym archiwum. Oczywiście można założyć, że popularne formaty, w których przechowywana jest grafika czy dokumenty, przetrwają albo powstaną odpowiednie konwertery. Gdy jednak firma z jakiegoś powodu korzysta z własnego formatu danych, konieczne jest zapewnienie jego bardzo szczegółowej dokumentacji, aby w przypadku wycofania danego oprogramowania z użytku możliwe było stworzenie odpowiedniego konwertera.
Magdalena O’Dwyer, Product Manager, Synology
Widzimy nieustannie rosnące zainteresowanie macierzami all-flash. Wyzwaniem pozostaje jedynie bardzo częste pojawianie się nowych standardów zapisu w pamięciach flash, co prowadzi do wielu nieporozumień dotyczących przede wszystkim trwałości nośników. Dlatego zawsze zalecamy skrupulatną weryfikację kompatybilności nabywanych nośników z posiadanymi macierzami oraz rezygnację z kupowania najtańszych dysków, co do trwałości których można mieć wątpliwości.
Wojciech Wróbel, Presales Manager, Fujitsu
Archiwizacja na taśmach sprawdza się przede wszystkim w przypadku bardzo dużych repozytoriów, gdzie korzyści, chociażby nie pobieranie prądu przez nośniki, są rzeczywiście odczuwalne. Widzę jednak kilka scenariuszy, w których z klasycznymi taśmami wygrają macierze dyskowe pełniące funkcję wirtualnych bibliotek taśmowych lub NAS-ów ze specjalnym oprogramowaniem wspierającym procesy archiwizacji cyfrowych danych. Ich zastosowanie ma sens tam, gdzie archiwum jest niewielkie, a klienci muszą relatywnie często uzyskiwać dostęp do danych, na przykład w celu ich analizy umożliwiającej wyciąganie wniosków pomocnych w podejmowaniu decyzji biznesowych.
Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud
Operator usług chmurowych powinien zapewniać pełne bezpieczeństwo zgromadzonych danych oraz zgodność procesów ich przetwarzania z obowiązującymi przepisami. RODO wymaga, aby nie opuszczały one Unii Europejskiej i nigdy nie były dostępne dla niepowołanych osób ani wykorzystywane w żaden niewłaściwy sposób. Dzięki temu klienci mogą bezpiecznie powierzyć integratorom wszelkie dane i zachować pewność, że nie narażą się na kary. Dodatkowym argumentem dotyczącym bezpieczeństwa jest deklaracja ze strony usługodawcy, że gwarantuje zgodność swoich praktyk z Kodeksem Postępowania CISPE, czyli Europejskiego Zrzeszenia Dostawców Usług Chmurowych.
Już od niemal dekady wzrost ilości generowanych i przechowywanych przez firmy danych nie idzie w parze ze wzrostem środków przeznaczonych na systemy pamięci masowych. Budżety są relatywnie stałe, co powoduje, że przedsiębiorcy muszą szukać sposobów redukcji objętości danych (do najpopularniejszych należą deduplikacja i kompresja) lub innych sposobów ich przechowywania. W tej dziedzinie wiele do zaoferowania mają dostawcy rozwiązań chmurowych. Ostatnie lata wyłoniły niekwestionowanych liderów tego rynku. Jako pierwszy swoje usługi Simple Storage Services (S3) zaczął oferować Amazon Web Services. Później dołączył do niego Microsoft (Azure Storage), a następnie Google z usługą Cloud Storage.
Początkowo jednak usługodawcy nie dysponowali globalną infrastrukturą, która zapewniłaby małe opóźnienia w transmisji danych, a także zgodność z regulacjami prawnymi. W efekcie mogliśmy zaobserwować pojawianie się lokalnych – polskich lub europejskich – usługodawców zapewniających, że oferują usługi pamięci masowych w chmurze. Wierzyli oni, że na powodzenie ich działalności wpłynie projektowane wówczas RODO oraz cały czas aktualizowane ustawodawstwo branży medycznej i finansowej.
Realia rynkowe zweryfikowały jednak ich ofertę i model działalności chmurowej. Naturalnie niemożliwe było osiągnięcie takiego efektu skali jak najwięksi na tym rynku, siłą rzeczy różnice cenowe też były znaczne. Trudno było także określić poziom bezpieczeństwa infrastruktury zapewniany przez rodzimych dostawców. Mocnym argumentem pozostawała zgodność z regulacjami prawnymi, ale wraz z rozszerzaniem działalności globalnych dostawców na kolejne kraje i kontynenty – w tym otwieranie lokalnych centrów danych lub podpisywanie umów partnerskich z działającymi już wcześniej niezależnymi operatorami centrów danych – przestało to mieć kluczowe znaczenie. Prawnicy największych usługodawców chmurowych dokonali wielu ekspertyz, które dowodzą, że korzystanie z ich usług w większości przypadków nie narusza lokalnego prawa. Duże koncerny zaczęły także wygrywać publiczne, lokalne przetargi. Przykładem z polskiego podwórka jest przesyłanie Jednolitych Plików Kontrolnych do Ministerstwa Finansów w usłudze Microsoft Azure. Natomiast dla przedsiębiorców koronnym argumentem – jak w przypadku większości innych decyzji związanych z infrastrukturą IT – stała się cena.
Dane w infrastrukturze chmury publicznej – podobnie jak na twardych dyskach serwerów i macierzy dyskowych w lokalnej serwerowni – mogą być przechowywane w blokach, obiektach i plikach. Model blokowy, znany przede wszystkim z sieci Storage Area Network, wykorzystywany jest głównie do udostępniania baz danych i środowisk wirtualnych. Natomiast chmurowe serwery plików służą przede wszystkim do dzielenia się nimi ze współpracownikami lub osobami z zewnątrz (partnerami biznesowymi, klientami itp.).
Jednak najpopularniejszy w chmurze i gwarantujący największą elastyczność stał się model obiektowy. Dzięki dodatkowej warstwie wirtualizacyjnej użytkownika nie obchodzi, w jaki techniczny sposób przechowywana jest dana informacja. Interesuje go jedynie konkretny obiekt – utwór muzyczny, grafika, wideo, repozytorium kopii zapasowych, zreplikowana baza danych itd. Główną zaletą takiej formy składowania danych jest ogromna skalowalność, zarówno pod względem liczby obiektów, jak i ich rozmieszczenia geograficznego (komunikujące się ze sobą serwery mogą znajdować się na różnych kontynentach i replikować między sobą dane, aby zagwarantować użytkownikowi dostęp do nich bez opóźnień).
W większości przypadków za korzystaniem z chmurowych usług przechowywania danych przemawia płatność za rzeczywiście wykorzystane zasoby. Ma to szczególne znaczenie dla mniejszych przedsiębiorstw, w których inwestycja we własne centrum danych (zarówno koszt stworzenia infrastruktury, jak i wyposażenia) stanowi istotną barierę, a w przypadku niepowodzenia biznesu bardzo szybko może sprowadzić firmę na dno. Wspomniany sposób rozliczania jest także preferowany przez partnerów – z reguły otrzymują od operatorów centrów danych comiesięczną prowizję za poleconych klientów lub współpracują z dostawcami usług w modelu white label, w ramach którego sami wykupują abonament i tworzą własne usługi z wykorzystaniem chmurowych zasobów. Tak duża swoboda i elastyczność zapewniają możliwość skupienia się na własnym biznesie i pozostawienie zarządzania infrastrukturą IT profesjonalistom.
Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.
]]>Artykuł Nowe życie producenta macierzy pochodzi z serwisu CRN.
]]>Nowy właściciel podjął szereg działań mających na celu uratowanie przejętej marki, która obecnie funkcjonuje pod nowym szyldem Tintri by DDN. Warto przypomnieć, że Tintri powstało w 2011 roku i specjalizuje się w opracowywaniu macierzy hybrydowych oraz all flash adresowanych do pracy w środowiskach zwirtualizowanych VMware, Hyper V czy KVM. Na liście klientów producenta znajduje się ponad tysiąc firm, w tym GFK Polonia. Historia DDN jest o wiele dłuższa. Producent z Kalifornii niemal do dwóch dekad dostarcza zaawansowane systemy pamięci masowej przeznaczone do obsługi niestrukturalnych danych i środowisk dużych zbiorów informacji. Produkty znajdują zastosowanie w studiach filmowych, placówkach naukowych czy instytucjach finansowych. W ostatnim magicznym kwadrancie Gartnera dla macierzy dyskowych DDN znalazł się w segmencie „Challengers”. Firma włączając do swojej oferty macierze Tintri, otwiera sobie drogę na rynek systemów midrange, gdzie do tej pory był nieobecna.
– Najtrudniejszy okres jest już za nami. Rozpoczęliśmy proces odbudowy kanały partnerskiego i zatrudniliśmy niemal nowych pracowników, w tym inżynierów związanych z Tintri, aby utrzymać cykl życia produktu. Zresztą proces rekrutacji rozpoczęliśmy jeszcze przed sfinalizowaniem umowy. – tłumaczy Kurt Kuckein, Senior Director of Marketing w DDN.
Tintri by DDN kilkanaście dni temu przedstawiło system Tintri Global Center 4, przeznaczony do zarządzania macierzami. Rozwiązanie zwiększa widoczność całej infrastruktury wirtualnej wykorzystującej Tintri VMstore, a także rozszerza możliwości w zakresie analityki oraz diagnostyki. James Coomer, Vice President for Product Management w DDN, zdradził dalsze plany dotyczące produktów pozyskanej firmy.
– Tintri skupiło się na perfekcyjnej obsłudze maszyn wirtualnych. Chcemy zastosować analogiczne rozwiązania do pracy z kontenerami oraz bazami danych. Bardzo ważne są dla nas analizy, zamierzamy rozszerzyć ich możliwości, bowiem jednym z kluczowych trendów jest rozwój autonomicznych systemów pamięci masowych. Musimy zrobić kilka kroków, aby osiągnąć ten etap. Klienci zamiast analizować logi czy alerty, będą otrzymywać odpowiednio wyselekcjonowane porady – wyjaśnia James Coomer,.
Artykuł Nowe życie producenta macierzy pochodzi z serwisu CRN.
]]>Artykuł Nowe akcenty na rynku storage pochodzi z serwisu CRN.
]]>Powtórka ze Storwize?
Czternaście lat temu Gal Naor wspólnie z Jonathanem Amitem założyli firmę Storwize, zajmującą się macierzami dyskowymi. Sześć lat później IBM wyłożył na jej zakup 140 mln dol. Wówczas unikalną wartością systemu była kompresja w czasie rzeczywistym, która umożliwiała znaczne ograniczenie kosztów przechowywania danych. Po transakcji życia Gal Naor założył firmę StorOne i zajął się przygotowaniem oprogramowania Total Resource Utilization.
– Producenci biorą udział w wyścigu, wprowadzając co kilkanaście miesięcy nowe rozwiązania. Za każdym razem próbują wmówić klientom, że są one innowacyjne. Ale czy w tak krótkim okresie można stworzyć przełomową technologię? – zastanawia się Izraelczyk, który w ten sposób daje swoim potencjalnym partnerom do zrozumienia, że woli konkrety od sloganów.
Wdrożenie aplikacji TRU umożliwia ograniczenie liczby urządzeń oraz nośników danych. Oprogramowanie obsługuje fizyczne serwery lub urządzenia wirtualne z różnymi nośnikami (SSD, HDD czy NVMe), a także zapewnia możliwość przechowywania danych w postaci plików, bloków i obiektów. Testy przeprowadzone przez StorOne pokazują, że użycie zaledwie kilku dysków SAS SSD umożliwia uzyskanie setek tysięcy IOPS, natomiast zainstalowanie kilku modułów NVMe pozwala przekroczyć milion IOPS.
– Gdyby zapytać użytkowników macierzy dyskowych, czego oczekują od swoich urządzeń, zapewne odpowiedzieliby, że bardziej wydajnego sprzętu. Ja uważam, że powinni raczej rozważyć, czy warto inwestować w bardziej złożony system pamięci masowych, żeby uzyskać, dajmy na to, 250 tys. IOPS, jeśli taki sam wynik można osiągnąć za pomocą kilku zwykłych dysków – mówi Gal Naor.
Trzeba przyznać, że CEO StorOne zdecydował się na odważny krok, jakim było przygotowanie aplikacji wykorzystującej potencjał procesorów oraz nośników – dwóch komponentów pamięci masowych, których parametry w ostatnich latach uległy znacznej poprawie. Większość producentów zmierza w innym kierunku, opracowując uniwersalne oprogramowanie do obsługi różnorodnych systemów, w tym także starszych modeli. W rezultacie software staje się bardziej złożony, a tym samym mniej efektywny. Czy w takim razie klienci docenią odwagę izraelskiego przedsiębiorcy? Do tej pory produkt został dostrzeżony przez inwestorów, którzy przeznaczyli na rozwój StorOne 38 mln dol.
Infrastruktura ze sztuczną inteligencją
Wizję Gal Naora podzielają założyciele firmy Datera. Ich zdaniem tempo rozwoju rynku pamięci masowych zależeć będzie od oprogramowania. Dlatego kalifornijski startup wprowadził na rynek system Data Services Platform, służący do obsługi danych w nowoczesnych hybrydowych środowiskach IT. Jednolita platforma ma zaspokajać potrzeby przedsiębiorstw w zakresie przechowywania baz danych, kontenerów czy aplikacji chmurowych. Jej twórcy przyznają, że podczas projektowania wzorowali się na hiperskalowalnych systemach chmurowych.
Oprogramowanie DSP może być uruchamiane na serwerach x86, dostarczanych bezpośrednio przez Daterę lub zewnętrznych dostawców – Cisco, Della, HPE czy Supermicro. System zapewnia m.in. deduplikację, kompresję, automatyczny tiering i migrację danych w czasie rzeczywistym. Przedstawiciele startupu podkreślają, że ich produkt bazuje na procesach uczenia maszynowego, optymalizujących efektywność i koszty pracy infrastruktury. W rezultacie wpływ czynnika ludzkiego na funkcjonowanie platformy jest zredukowany do minimum.
– Elastyczność jest bardzo ważną cechą pamięci masowych, ale nie mniej istotną rolę odgrywa wydajność, o której decydują parametry sprzętu oraz inteligencja systemu – tłumaczy Hal Woods, CTO Datery.
Warto dodać, że firma z Santa Clara nie uwzględnia w swojej architekturze macierzy dyskowych. Zdaniem jej specjalistów im prościej, tym lepiej, bo – jak podkreślają – „złożoność IT zabija innowacje”.
Startup działa od 2013 r. i od tego czasu pozyskał od funduszy inwestycyjnych 40 mln dol. Niemniej jego szefowie liczą na kolejne zastrzyki finansowe, które mają pozwolić na promocję i ekspansję Data Services Platform w Europie. Rozwiązanie Datery doceniła redakcja amerykańskiego wydania CRN, umieszczając DSP na liście 50 najlepszych aplikacji przeznaczonych do obsługi centrów danych.
Dane w kontenerach
Kontenery w ostatnich latach zawładnęły sercami i umysłami programistów. Gartner przewiduje, że do końca 2020 r. ponad 50 proc. przedsiębiorstw będzie korzystać z tych rozwiązań. Dla porównania: w ubiegłym roku wskaźnik ten wynosił niespełna 20 proc. Według analityków z 451 Research w ciągu najbliższych dwóch lat rynek kontenerów będzie rósł w tempie 40 proc. rocznie i w 2020 r. osiągnie wartość 2,7 mld dol.
Pojawienie się kontenerów oznacza nowe wyzwania dla działów IT. Te największe są związane z zarządzaniem i ochroną danych. Użytkownicy potrzebują pamięci masowej, która przechowywałaby dane dłużej, niż wynosi czas życia kontenerów. Są one bowiem z natury tymczasowe i mobilne, a więc potrzebują platformy storage uwzględniającej obie cechy. Takim rozwiązaniem jest oprogramowanie z rodziny PX firmy Portworx. Platforma łączy istniejące serwery, macierze SAN, NAS, DAS, a także instancje chmurowe, świadcząc usługi z zakresu obsługi danych dla kontenerów. Narzędzia PX zapewnia ją klonowanie, tworzenie migawek, replikację czy szyfrowanie danych. Oprogramowanie jest zintegrowane z Docker Swarm, Kubernetes, Rancher i Mesosphere DC/OS.
– Nasz produkt powstał specjalnie z myślą o środowisku kontenerowym i realizuje niezbędne zadanie związane z przechowywaniem, zarządzaniem oraz ochroną danych, zapewniając ich trwałość, wydajność oraz wysoką dostępność. Wdrożenie PX-Series umożliwia oszczędzenie od 40 do 60 proc. kosztów związanych z obsługą pamięci masowych – tłumaczy Murli Thirumale, założyciel i CEO Portworx.
Startup z Los Altos, założony w 2014 r., może pochwalić się takimi klientami jak: Carrefour, DreamWorks, Lufthansa Systems, American Express czy Lloyds Bank. To poważny argument dla resellerów oraz integratorów, którzy rozważają sens współpracy z szerzej nieznanymi dostawcami.
– Portworx pozwolił nam uruchomić w kontenerach wymagające najwyższej wydajności aplikacje, takie jak Cassandra, Postgres i Kafka. To było jedno z kluczowych zadań mających na celu modernizację naszego studia odpowiedzialnego za tworzenie software’u – wyjaśnia Ali Zaidi, Director of Platform Services w DreamWorks.
Porządkowanie zimnych danych
Kilka miesięcy temu branżowe media poinformowały o rozpoczęciu współpracy IBM-u z Komprise. Big Blue nie wybrał nowego partnera przypadkowo i niewykluczone, że w nieodległej przyszłości koncern wchłonie kalifornijski startup. Przy czym lista chętnych do zakupu młodej firmy z siedzibą w Campbell może być znacznie dłuższa, gdyż z Komprise kooperują ponadto AWS, NetApp, Dell EMC, Microsoft, Google i HPE. Nie mniej interesująco przedstawia się lista klientów wciąż młodej firmy, na której znajdują się m.in.: Electronic Arts, AIG, Yale czy Stanford University. Co sprawia, że istniejący od zaledwie czterech lat startup przyciąga gigantów ze świata IT oraz renomowanych klientów?
Otóż Komprise oferuje oprogramowanie łączące funkcje zarządzania pamięciami masowymi z zaawansowaną analityką. Software analizuje dane przechowywane zarówno w środowisku lokalnym, jak i chmurze, niezależnie od tego, czy znajdują się na systemach Dell EMC, NetApp, IBM bądź innych producentów. Administrator korzystający z rozwiązań Komprise może definiować rozmaite reguły dotyczące przenoszenia danych oraz ich archiwizacji. Oprogramowanie tworzą dwa elementy: Komprise Director oraz Komprise Observer. Pierwszy z nich administruje danymi i zazwyczaj uruchamia się go w modelu SaaS lub (rzadziej) jako maszynę wirtualną. Drugi jest „wirtualką” umieszczaną w środowisku klienta, która odpowiada za inwentaryzację pamięci masowych oraz realizację polityk zdefiniowanych przez Komprise Directora.
– O ile koszty przechowywania zasobów cyfrowych nie są zbyt wielkie, o tyle ręczne zarządzanie nimi generuje poważne wydatki. Komprise automatyzuje proces przenoszenia tzw. zimnych danych (rzadko używanych) na tańsze i pojemniejsze nośniki – wyjaśnia Kumar Goswami, CEO i założyciel Komprise.
Przykładowo Government Utilities Technology Service dzięki wdrożeniu Komprise obniżyło koszty storage’u o 70 proc., samego backupu zaś o 88 proc.
– Obsługujemy ponad 100 PB danych. Z naszych obserwacji wynika, że 76 proc. zalicza się do zimnych zasobów, ale w niektórych branżach ten wskaźnik jest wyższy od średniej. W grupie firm reprezentujących media i rozrywkę wynosi on 88 proc., a w przypadku opieki zdrowotnej aż 82 proc. Jednak najbardziej perspektywicznym obszarem wydaje się genomika, gdzie roczny przyrost zimnych danych przekracza 300 proc. – mówi Kumar Goswami.
Pamięć obiektowa z ludzką twarzą
George Dochev, CTO i współzałożyciel LucidLink, jeszcze kilka lat temu pracował w DataCore Software. Większość zadań wykonywał zdalnie ze swojego domowego biura we Francji, łącząc się z główną siedzibą na Florydzie, a także oddziałem w Bułgarii. Kod źródłowy oprogramowania SANsymphony składał się z dziesiątek tysięcy plików, a wymiana informacji pomiędzy pracownikami działającymi w różnych placówkach stała się bardzo kłopotliwa i wymagała zastosowania specjalnego sprzętu. Nie było to jednak optymalne rozwiązanie.
W 2016 r. George Dochev oraz Peter Thomson z DataCore Software założyli firmę LucidLink, która opracowała produkt przeznaczony do dystrybucji rozproszonych systemów plików. Użytkownicy przechowujący dokumenty tekstowe, zdjęcia lub filmiki w chmurze Amazona czy Dropboxie nie mają problemów z ich synchronizacją ani pobieraniem na lokalny komputer. Jednak w przypadku plików o dużej objętości oraz środowisk produkcyjnych sprawy poważnie się komplikują. Wprawdzie można korzystać z różnego rodzaju przejściówek (Nasuni, Panzura), ale nie wpływają one korzystnie na wydajność środowiska. Natomiast LucidLink umożliwia strumieniowe przesyłanie danych bezpośrednio z chmury AWS S3 bez konieczności ponownego ich pobierania lub synchronizacji. Po rozwiązanie mogą sięgać użytkownicy urządzeń działających pod kontrolą systemów Linux i nie wymaga ono instalacji jakiegokolwiek sprzętu lub aplikacji.
– Promujemy nasz produkt wśród użytkowników chmury publicznej i nie musimy ich przekonywać do tego modelu. Niemniej chcemy im pokazać, że można dużo łatwiej niż dotychczas korzystać z zasobów. Automatyzacja procesów znacznie ułatwia dostęp do danych w trybie obiektowym – wyjaśnia Peter Thompson, CEO i współzałożyciel LucidLink.
LucidLink zgromadził od funduszy inwestycyjnych 5 mln dol., ale na razie nie ma na koncie spektakularnych wdrożeń. Wydaje się jednak, że przyszłość startupu rysuje się w jasnych barwach. Nietuzinkowy produkt to niejedyny atut firmy z San Francisco – nie mniej istotne znaczenie ma rosnąca popularność pamięci obiektowej.
Artykuł Nowe akcenty na rynku storage pochodzi z serwisu CRN.
]]>Artykuł Wysoka dostępność i ciągłość biznesowa w macierzach all-flash Huawei pochodzi z serwisu CRN.
]]>W modelach OceanStor Dorado5000 V3 oraz OceanStor Dorado6000 V3 można obecnie zainstalować odpowiednio 100 lub 200 dysków SSD z interfejsem SAS 12 Gb/s. Macierz Dorado5000 V3 jest też dostępna w wersji z dyskami NVMe, w której można stosować maksymalnie 25 dysków NVMe.
Urządzenia różnią się wydajnością (Dorado6000 V3 ma dwa procesory w kontrolerze a także dwukrotnie więcej pamięci cache). W obu macierzach zainstalowane są na wstępie co najmniej dwa kontrolery, a producent deklaruje, że niebawem będzie można rozszerzyć ich liczbę aż do 16, co zapewni liniowe skalowanie wydajności. Dzięki temu możliwe stanie się też ośmiokrotne zwiększenie pojemności (do odpowiednio 200 dysków NVMe i 800 dysków SSD w macierzy Dorado5000 V3 oraz 2400 dysków SSD w modelu Dorado6000 V3).
W wielu firmach prędkość i skala rozwoju biznesu są trudne do przewidzenia, co przekłada się na wyzwania związane z przechowywaniem danych. Dlatego warto zainwestować w skalowalny – zarówno pod względem wydajności, jak i pojemności – system pamięci masowych.
Macierze all-flash OceanStor Dorado V3 zapewniają dużą elastyczność w budowaniu środowiska wysokiej dostępności. Gdy konieczne jest korzystanie z drugiego urządzenia, na które wykonywana jest kopia danych, z reguły pracuje ono w trybie pasywnym i rozpoczyna działanie tylko wtedy, gdy podstawowa macierz ulegnie awarii. Aby ochronić klientów przez nadmiernymi wydatkami, Huawei zapewnił kompatybilność macierzy all-flash i hybrydowych rozwiązań dyskowych z rodziny OceanStor V3. Dzięki temu replikacja może odbywać się między urządzeniami obu grup, co gwarantuje dużą oszczędność i tylko niewielki spadek wydajności w momencie awarii macierzy all-flash.
Niemałym wyzwaniem dla administratorów jest też rozbudowa już funkcjonującego środowiska pamięci masowych np. o macierze all-flash. Dlatego urządzenie OceanStor Dorado V3 wyposażono w moduł wirtualizacyjny, dzięki któremu możliwa jest migracja danych z ponad 300 modeli macierzy dyskowych różnych producentów bez przerywania ich pracy. Zadbano też o bezpieczeństwo – wykonywanie kopii migawkowych (snapshot) nie wpływa na wydajność całego rozwiązania w trakcie tego procesu.
Większość oferowanych na rynku macierzy all-flash powstało na bazie klasycznych, dyskowych rozwiązań pamięci masowych. Z tego powodu nie są w stanie w pełni wykorzystać potencjału dysków SSD. W macierzy Huawei OceanStor Dorado5000 V3 zastosowano architekturę bazującą na dwukrotnie wydajniejszym niż SAS protokole NVMe, w której nie ma wymogu stosowania konwersji SCSI-SAS, skrócona jest ścieżka transmisji danych i znacznie zmniejszone opóźnienie ich odczytu.
Inżynierowie Huawei zdecydowali się też na zaprojektowanie i stworzenie własnych dysków SSD (są wykorzystywane w obu modelach macierzy OceanStor Dorado V3 i hybrydowych macierzach dyskowych OceanStor V3), w których zastosowano algorytm Flash Translation Layer, umożliwiający przyspieszenie odczytu i zapisu danych, a także skrócenie opóźnienia – nawet do 40 μs (wtedy wynosi ono 20 proc. mniej niż średnia w branży).
Gdy w macierzy dyskowej stosowane są nośniki wysokiej pojemności, proces odbudowy struktury RAID po wymianie jednego z nich trwa dość długo, a związane z tym obciążenie pozostałych dysków może doprowadzić do awarii kolejnego. Dlatego już wiele lat temu powstał standard RAID-6 umożliwiający utrzymanie dostępu do danych nawet w przypadku jednoczesnej awarii dwóch napędów. Zdarzały się jednak przypadki, gdy w trakcie procesu odbudowy awarii ulegał trzeci dysk. Dlatego w macierzach OceanStor Dorado V3 producent zaimplementował własne rozwiązanie RAID-TP (Triple Parity), dzięki któremu gwarantowane jest bezpieczeństwo danych przy awarii trzech dysków. Dodatkowo skrócony został czas rekonstrukcji struktury RAID, w efekcie dla 1 TB danych wynosi on 30 minut.
W macierzach OceanStor Dorado V3 wykorzystywane są specjalne karty sieciowe SmartIO bazujące na opracowanej przez Huawei implementacji najbardziej popularnych protokołów komunikacyjnych. Cechą charakterystyczną tych kart jest możliwość elastycznego przełączania trybów pracy. Dlatego, w sytuacji gdy firma potrzebuje zmiany protokołów komunikacyjnych, nie trzeba wymieniać całej infrastruktury sieci SAN, jedynie zmienić tryb działania karty i zainstalować odpowiednie moduły optyczne: Ethernet 10 Gb/s lub Fibre Channel 8/16 Gb/s. Dzięki temu zabiegowi zredukowano o jedną trzecią ilość potrzebnego okablowania, a liczbę kontrolerów sieciowych – o 75 proc.
W przypadku wprowadzonych na rynek pierwszych modeli dysków SSD występował problemem trwałości – zużywały się zbyt szybko podczas zapisu danych. I chociaż jakość stosowanych kości pamięci jest dziś nieporównywalnie wyższa, problem w całości nie zniknął. Huawei opatentował mechanizm, dzięki któremu komórki pamięci flash podczas działania macierzy zużywają się znacznie wolniej.
Dłuższy czas życia nośnika zapewniono w taki sposób, że metadane (czyli najczęściej modyfikowane informacje) przechowywane są oddzielnie od zwykłych danych, które zmieniane są bardzo rzadko. W rezultacie komórki pamięci z danymi mają zagwarantowany dłuższy żywot. Natomiast dla metadanych przewidziano duży zapas przestrzeni pamięci flash, który może być wykorzystany w przypadku zużycia się często wykorzystywanych komórek. Taki model zapisu danych wpływa również pozytywnie na wydajność macierzy.
Deduplikacja i kompresja prowadzone w czasie rzeczywistym umożliwiają odzyskanie przestrzeni dyskowej zajmowanej przez powtarzające się dane. W efekcie dają oszczędności na TCO sięgające nawet 50 proc. Znacznie mniej bowiem trzeba wydać na sprzęt do przechowywania danych, mniej płaci się za prąd i utrzymanie systemu.
Huawei gwarantuje klientom, że w macierzach OceanStor Dorado V3 współczynnik redukcji danych wyniesie przynajmniej 3:1. Podkreśla jednocześnie, że są to bardzo bezpieczne szacunki, ponieważ w przypadku baz danych lub maszyn wirtualnych będzie on znacznie większy. A to powoduje, że w efekcie na dyskach SSD można przechować gigabajt danych za podobne pieniądze jak na zwykłych napędach niepoddanych deduplikacji i kompresji, zapewniając jednocześnie dużo większą wydajność.
Jeśli klient (lub firma świadcząca usługi IT klientom), stosując nowe macierze Huawei, nie uzyska obiecanego współczynnika redukcji danych (przynajmniej 3:1), producent w ramach programu Huawei OceanStor Dorado V3 Effective Capacity Guarantee zapewnia za darmo dyski flash o brakującej pojemności. Ma to sprawić, że użytkownicy będą mogli przechowywać trzykrotnie więcej danych, niż wynosi fizyczna pojemność nośników, za którą zapłacili.
Aby skorzystać z programu, konieczne jest zweryfikowanie aktualnego współczynnika redukcji danych za pomocą specjalnego narzędzia dostarczanego przez Huawei. Należy też spełnić szereg warunków. Deduplikacja i kompresja muszą być włączone dla wszystkich woluminów w systemie pamięci masowych. Całkowita objętość danych, które są wewnętrznie skompresowane lub nie poddają się kompresji (grafika, wideo, pliki XML, dane szyfrowane i naukowe), nie może przekroczyć 10 proc. Przed dostarczeniem klientowi dodatkowych nośników, inżynierowie Huawei sprawdzą, czy system jest poprawnie skonfigurowany. Z programu mogą skorzystać przedsiębiorstwa, które dokonały zakupu lub złożyły zamówienie na nowe macierze OceanStor Dorado V3 przed końcem 2017 r.
Artykuł powstał we współpracy z firmą Huawei.
Artykuł Wysoka dostępność i ciągłość biznesowa w macierzach all-flash Huawei pochodzi z serwisu CRN.
]]>Artykuł HPE przejmuje Nimble Storage pochodzi z serwisu CRN.
]]>Wyróżnikiem produktów Nimble Storage jest platforma InfoSight Predictive Analitics. System analizuje i agreguje dane napływające z działających macierzy, a w przypadku wykrycia źródła potencjalnej awarii, wysyła informacje do administratorów.
Firma Nimble Storage od 2013 roku jest notowana na nowojorskiej giełdzie papierów wartościowych NASDAQ. Informacja o transakcji HPE spowodowała wzrost cen akcji Nimble Storage o 45.3 procent, osiągając kurs 12.50 USD.
HPE liczy na to, że pozyskanie producenta z Sunnyvale, pozwoli zwiększyć udziały w segmencie produktów klasy midrange. Warto zauważyć, że w ostatnim kwartale przychody ze sprzedaż pamięci masowych HPE skurczyły się o 13 procent.
To już druga ciekawa transakcja HPE w 2017 roku. Wcześniej koncern poinformował o przejęciu za 650 mln USD startupu Simplivity – jednego z liderów na rynku rozwiązań hiperkonwergentnych.
Artykuł HPE przejmuje Nimble Storage pochodzi z serwisu CRN.
]]>Artykuł NetApp znowu zwalnia pochodzi z serwisu CRN.
]]>NetApp zapewnia, że przyjęta strategia pozwoli wejść na umiarkowaną ścieżkę wzrostu w roku finansowym 2018 , który rozpoczyna się w maju 2017 roku.
Firma w pierwszym kwartale 2017 roku, zakończonym 29 lipca, wypracowała obroty w wysokości 1,29 mld dolarów i zysk netto 64 mln dolarów. Dla porównania w tym samym kwartale ubiegłego roku do kasy producenta wpłynęło 1,34 mld dolarów przy stracie 30 mln dolarów.
Artykuł NetApp znowu zwalnia pochodzi z serwisu CRN.
]]>Artykuł Rynek pamięci masowych zastygł w bezruchu pochodzi z serwisu CRN.
]]>Największą popularnością wśród użytkowników biznesowych cieszyły się macierze dyskowe. Ich producenci wygenerowali obrót w wysokości 5,7 mld dolarów, powtarzając wynik z drugiego kwartału 2015 roku. – Po słabym początku roku, w drugim kwartale segment pamięci masowych nieco się uspokoił. Cały czas rosną wydatki na pamięci flash, napędzając w ten sposób rynek. Spadające ceny nośników flash, coraz większa liczba wdrożeń, a także powszechna dostępność tego typu rozwiązań, przyspieszyły proces adaptacji systemów all-flash – mówi Liz Corner z IDC.
Na szczycie globalnego zestawienia sprzedaży pamięci masowych znalazły się firmy EMC (18,1%) oraz HP (17,6%), zaś trzecia pozycja przypadła Dellowi (11,5%)
Najwięksi producenci systemów storage dla klientów biznesowych, 2Q16 (w mln dolarów)
W segmencie macierzy dyskowych niekwestionowanym liderem od lat pozostaje EMC (29,9%). Kolejne miejsca w zestawieniu zajęły NetApp (10,9%) i HP (10,5%). Na uwagę zasługuje bardzo dobry wynik Hitachi Data System. Japoński producent zwiększył sprzedaż o 14, 7% w ujęciu rocznym.
Przychody ze sprzedaży systemów all-flash osiągnęły poziom 1,1 mld dolarów – o 94,5% więcej niż rok wcześniej. Natomiast macierze hybrydowe wygenerowały obrót w wysokości 2,3 mld dolarów, co daje im 26% udział w rynku systemów pamięci masowych.
Najwięksi producenci macierzy dyskowych, 2Q16 (przychody w milionach dolarów)
Artykuł Rynek pamięci masowych zastygł w bezruchu pochodzi z serwisu CRN.
]]>