Artykuł Arrow Electronics podpisuje umowę z Vast Data w Europie pochodzi z serwisu CRN.
]]>W 2019 r. dostawca uruchomił platformę Universal Storage typu NAS, która łączy algorytmy oprogramowania ze sprzętem i technologiami sieciowymi, umożliwiając klientom skalowanie zasobów obliczeniowych i pamięci masowej. Pozwala ona na konsolidację wszystkich danych i aplikacji w jednej warstwie pamięci flash, wgląd w dane z wykorzystaniem AI, analizę big data, ochronę danych i in. Uniwersalna platforma macierzowa jest dostarczana jako gotowa do użycia macierz dyskowa.
„Coraz więcej firm poszukuje nowych rozwiązań łączących przechowywanie danych, sztuczną inteligencję i analizę dużych zbiorów danych, które pozwalają na innowacyjne podejście do swoich strategii biznesowych jak i ochrony danych”– komentuje Alexis Brabant, wiceprezes ds. sprzedaży w Arrow Enterprise Computing Solutions w Europie.
Artykuł Arrow Electronics podpisuje umowę z Vast Data w Europie pochodzi z serwisu CRN.
]]>Artykuł Startupy podkręcają tempo na rynku storage pochodzi z serwisu CRN.
]]>Na polskim rynku, jak na razie, dostępne są jedynie rozwiązania Qumulo. Wynika to z faktu, że amerykańska firma w ostatnich miesiącach rozbudowuje zespół i rozszerza swoją działalność w Europie Środkowo-Wschodniej. Ponadto oficjalnym OEM-em i partnerem strategicznym tego producenta w Polsce jest HPE. Qumulo opracowuje systemy do przechowywania i zarządzania plikami w lokalnej serwerowni i chmurze publicznej. Oprogramowanie tej marki może być instalowane na standardowych serwerach x86, a także występować jako natywna aplikacja w chmurze publicznej. Produkt cieszy się popularnością wśród firm działających w branży szeroko pojętej rozrywki – systemu Qumulo używa dziesięć największych studiów filmowych na świecie. Tego typu klienci zazwyczaj mają specyficzne wymagania i potrzebują rozwiązań, które zapewniają nie tylko dużą pojemność, ale również wysoką wydajność. Ta ostatnia jest konieczna chociażby do renderowania plików wideo. W związku z tym Qumulo obsługuje również konfiguracje obejmujące wyłącznie nośnik flash, co w przypadku rozwiązań typu NAS scale-out było do niedawna rzadko spotykanym zjawiskiem. Warto przy okazji dodać, że jednym z użytkowników Qumulo jest Instytut Metryki i Oceny Zdrowia (IHME) działający przy Szkole Medycznej Uniwersytetu Waszyngtońskiego. IHME codziennie tworzy raporty na temat rozprzestrzeniania się COVID-19 na świecie, w tym również prognozy dotyczące rozwoju epidemii. Instytut wykorzystuje Qumulo do przetwarzania nawet do 2 PB danych dziennie i obsługi wizualizacji na platformie Microsoft Azure.
Podkręcanie tempa
Nie ulega wątpliwości, że dalsze losy rynku pamięci masowych dla klientów biznesowych w znacznym stopniu zależą od rozwoju i spadku cen pamięci flash. Zresztą pokazują to dane dotyczące sprzedaży macierzy dyskowych w regionie EMEA. Według IDC w 2020 r. rynek w ujęciu wartościowym skurczył się o 6,5 proc., aczkolwiek segment systemów all-flash (AFA) wzrósł o niemal 4 proc. Ponadto udziały AFA w całym rynku macierzy dyskowych w regionie EMEA wyniosły 44 proc., podczas gdy w przypadku systemów hybrydowych było to 37 proc., a w segmencie urządzeń wyposażonych jedynie w nośniki HDD – 19 proc.
Rozwiązania AFA posiada w swojej ofercie każdy producent macierzy dyskowych, a do gry włączają się nowi gracze. Każdy z nich stara się zastosować w praktyce jakąś innowacyjną koncepcję i każdy ma swój pomysł na dalszy rozwój systemów tej klasy. Jednym z ciekawszych trendów jest wykorzystanie w systemach pamięci masowych procesorów GPU. W ostatnim czasie do współpracy z Nvidią przystąpiły dwa obiecujące startupy – Pavilion oraz VAST. Doświadczony dostawca półprzewodników niespełna dwa lata temu opracował schemat transmisji danych GPU Direct Storage, który pozwala zestawić bezpośrednią ścieżkę pomiędzy pamięcią masową a procesorami graficznymi. W ten sposób udaje się wyeliminować tzw. wąskie gardła w operacjach wejścia/wyjścia dla aplikacji intensywnie korzystających z danych. W testach przeprowadzonych przez Pavilion podczas przesyłania bloku danych z macierzy AFA do serwera DGX-A100 uzyskano 182 GB/s przy odczycie oraz 149 GB/s przy zapisie. Natomiast w przypadków plików było to 191 GB/s dla odczytu oraz 118 GB/s dla zapisu.
Tak zawrotne prędkości, jak na razie, przydają się tylko w nielicznych zastosowaniach – budowaniu modeli sztucznej inteligencji, analizy zetabajtów danych czy modelowania wolumetrycznego 3D. Na początku bieżącego roku Nvidia oraz VAST Data poinformowały o opracowaniu architektury referencyjnej dla wspólnie skonfigurowanych systemów przeznaczonych do obsługi dużych obciążeń. Natomiast lwia część klientów sięga po tradycyjne rozwiązania, które nie muszą korzystać z tak zaawansowanych technologii. Dlatego właśnie system VAST Data w klasycznej konfiguracji osiąga czterokrotnie niższą przepustowość od wersji z GPU Direct Storage. Co ciekawe, startup wykorzystuje w swoich systemach do przetwarzania danych znane z niezbyt dużej wytrzymałości nośniki QLC. W przypadku tych pamięci cykl zapisów na komórki wynosi 100, podczas gdy w przypadku MLC ten wskaźnik wynosi 10 tysięcy. Pomimo tego VAST Data udziela 10-letniej gwarancji na nośniki, co Jeff Denworth, CMO startupu tłumaczy zastosowaniem wydajnej redukcji danych oraz modelu zabezpieczeń Erasure Coding. Metoda zmniejszania liczby zapisów na dyskach flash obniża koszty całego rozwiązania i zwiększa jego wytrzymałość w porównaniu z klasycznymi macierzami all-flash.
Nietuzinkowe rozwiązania stosuje też Pavilion Data. Szefowie tej firmy stawiają na systemy wyposażone w co najmniej kilka kontrolerów. Ich zdaniem tradycyjna architektura macierzy z dwoma kontrolerami nijak pasuje do obecnych realiów i wymagań użytkowników. Natomiast system pamięci masowej z wieloma kontrolerami pozwala liniowo skalować pojemność i wydajność. Modułowa konstrukcja 4RU sytemu Pavilion Data pozwala na wykorzystywanie 20 aktywnych kontrolerów z portami 40 Gigabit Ethernet oraz 100 Gigabit Ethernet bądź InfiniBand i 72 standardowe dyski SSD NVMe 2,5. System charakteryzuje uniwersalność, o czym świadczy obsługiwanie bloków, plików oraz obiektów.
Migracja do chmury
Prędkość przetwarzania danych to jedno, ale nie mniej istotna jest kwestia ich lokalizacji. W tym przypadku ścierają się dwie szkoły – zwolenników przechowywania zasobów na lokalnych serwerach oraz sympatyków usług chmurowych.
– Ostatnie wydarzenia zmieniają sposób zakupu i użytkowania infrastruktury IT. Wymagania dotyczące modeli konsumpcji podobnych do chmury, w połączeniu z rozproszonym wdrażaniem IT i rozwojem cyfrowej transformacji będą wpływać na innowacje i konkurencyjność w okresie ożywienia – uważa Silvia Cosso, zastępca dyrektora ds. badań w IDC Western Europe.
W ostatnim czasie pojawiło się wiele koncepcji związanych z przechowywaniem danych w środowiskach chmurowych. Na ich tle wyróżnia się projekt amerykańskiego startupu Nasuni, który określa swój produkt jako NAS opracowany specjalnie dla chmury. Firma oferuje w modelu usługowym platformę do przechowywania plików zarówno w środowisku lokalnym, jak i chmury publicznej (AWS, Microsoft Azure, Google Cloud Platform). W rezultacie system Nasuni zapewnia nieograniczoną pojemność pamięci masowej, eliminując potrzebę planowania i przeprowadzania skomplikowanych aktualizacji sprzętu przez klientów za każdym razem, gdy ich zasoby danych przerastają ich wewnętrzną infrastrukturę. Ponadto usługa Nasuni obejmuje tworzenie kopii zapasowych, odtwarzanie danych po awarii i synchronizację plików znajdujących się na wielu serwerach. Rozwiązanie to, jako chyba jedyne na rynku, łączy globalny system plików z magazynem obiektowym.
– Modernizacja centrum danych to ogromna szansa rynkowa dla Nasuni i naszych partnerów. Chcemy dokonać przełomu na rynku przechowywania plików i kopii zapasowych o wartości ponad 30 miliardów dolarów dzięki nowemu podejściu opartemu na chmurze. Pandemia i związane z nią blokady przyspieszyły przejście z tradycyjnej infrastruktury centrum danych do chmury, ale większość pamięci masowych dla przedsiębiorstw nadal znajduje się w centrach danych – podsumowuje Paul Flanagan, CEO Nasuni.
Artykuł Startupy podkręcają tempo na rynku storage pochodzi z serwisu CRN.
]]>