Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Proces tworzenia backupu powinien być wieloetapowy, a doświadczenie pokazuje, że warto trzymać kopie danych także w wersji sprzed długiego czasu, nawet trzech kwartałów. Innym ważnym aspektem jest konieczność zagwarantowania niezmienności kopii zapasowych, realizowanej poprzez ich zamrażanie lub ukrywanie, funkcję WORM (Write Once, Read Many) i przechowywanie danych w różnych lokalizacjach (zapasowe centrum danych lub zasób w chmurze).
Najpopularniejszym obecnie nośnikiem backupu są twarde dyski, gdyż zapewniają najszybszy czas dostępu do danych i możliwość równoległego zapisywania danych w wielu strumieniach. Jednak, aby zapewnić zgodność z regułą 3-2-1-1, konieczne jest uzupełnienie środowiska backupu o dodatkowe warstwy. Jedną z nich może być repozytorium w chmurze publicznej, które sprawdzi się jako zabezpieczenie na wypadek katastrofy, kradzieży czy sabotażu, gdyż umożliwi firmie wznowienie działalności i niejednokrotnie ratunek przez bankructwem. Jednak chmura, ze względu na ograniczenia wydajności, nie powinna być wyłącznym miejscem składowania kopii.
Do tworzenia backupu umożliwiającego odzyskanie danych po skutecznym zaszyfrowaniu środowiska podstawowego w ramach ataku ransomware idealnie nadają się taśmy. Umożliwiają niedrogie i bezpieczne przechowywanie danych przez dziesięciolecia. Są łatwe w transporcie i zapewniają wysoką pojemność: 12 TB dla standardu LTO-8 oraz 18 TB dla LTO-9 (dane dodatkowo mogą być poddane kompresji). Zapisywane informacje mogą być szyfrowane, a także weryfikowane pod kątem poprawności odczytu. W odróżnieniu od dysków, które cały czas wymagają zasilania i chłodzenia, taśma umieszczona w slocie biblioteki taśmowej lub znajdująca się na półce w magazynie nie generuje żadnych kosztów eksploatacyjnych.
Quantum ma bardzo rozległą ofertę produktów, które umożliwiają zbudowanie systemu backupu w modelu 3-2-1-1. Dane mogą trafiać na klasyczne macierze dyskowe z rodziny QXS lub serii H. Alternatywnie można zastosować dyskowe urządzenia do tworzenia kopii zapasowych DXi, które zapewniają wysokowydajną pamięć dyskową z deduplikacją zmiennoblokową, co pozwala połączyć maksymalną wydajność backupu z minimalnymi kosztami eksploatacyjnymi. Dostępny jest także bezpłatny wirtualny deduplikator DXi V5000, który można pobrać ze strony quantum.com.
Do backupu dużych ilości danych nieustrukturyzowanych, wymagających najwyższej dostępności i bezpieczeństwa, a niekoniecznie poddających się skutecznej deduplikacji, zalecane jest obiektowe, skalowalne do wielu petabajtów repozytorium Quantum ActiveScale. Jego zasoby są dostępne za pośrednictwem interfejsu Amazon S3, zapewniono też funkcję blokady kopii zapasowych przed modyfikacją.
Z kolei najwyższy możliwy poziom bezpieczeństwa danych podczas ich długoterminowego przechowywania można uzyskać niewielkim kosztem, stosując biblioteki taśmowe Scalar z technologią LTO, dzięki fizycznemu odseparowaniu kopii zapasowych od środowiska produkcyjnego.
Dystrybutorami rozwiązań Quantum w Polsce są: AB, Also, Arrow ECS, Exclusive Networks oraz S4E.
Dodatkowe informacje: Marcin Kabaj, Regional Sales Manager, Quantum, marcin.kabaj@quantum.com
Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Artykuł Pamięci masowe: od LTO-9 do NVMe pochodzi z serwisu CRN.
]]>Lighgtbits stawia na NVMe
Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology.
Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud.
Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe.
– Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits.
Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt.
Taśmy z Kolorado
Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood.
Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware.
Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów.
–Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier.
Nie tylko taśmy
Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu.
– Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum.
Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu.
Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami.
– Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner.
Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie.
Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych.
– Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic.
Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik.
Czas na autonomiczny backup
Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR.
O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie.
– Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas.
Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie.
– Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas.
Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+.
Artykuł Pamięci masowe: od LTO-9 do NVMe pochodzi z serwisu CRN.
]]>Artykuł Światowy dostawca nagrodził polską firmę pochodzi z serwisu CRN.
]]>Quantum, amerykański specjalista od zarządzania i przechowywania danych, w tym danych nieustrukturyzowanych i plików wideo, wyróżnił nagrodą „Innovation Partner of the Year” polską spółkę Studiotech.
Studiotech koncentruje się na klientach z branży medialnej i rozrywkowej. Świadczy usługi w zakresie doradztwa, konsultacji technicznych, projektowania, sprzedaży urządzeń, instalacji i serwisu. Jak podaje Quantum, warszawska firma była pierwszym partnerem w Europie, który sprzedał systemy Quantum serii F i H.
Spółka okazała się jedyną firmą z Polski wśród 6 nagrodzonych przez Quantum w krajach EMEA.
Pozostali zdobywcy nagród:
New Partner of the Year: Mediatech (Włochy)
Growth Partner of the Year: Computacenter (Francja)
M&E Partner of the Year: Trams Econocom (Wielka Brytania)
Enterprise Partner of the Year: Logicalis (Niemcy)
Solution Partner of the Year: MR-Datentechnik (Niemcy).
Artykuł Światowy dostawca nagrodził polską firmę pochodzi z serwisu CRN.
]]>Artykuł Połączyć dwa światy IT pochodzi z serwisu CRN.
]]>Tożsame dylematy występują w przypadku oprogramowania. Działy IT miewają niemałe problemy z radzeniem sobie z wszechobecnym chaosem. Czasami brakuje kompetencji, a niekiedy po prostu pieniędzy. Jakiś czas temu Gary Gagnon, były Chief Security Officer w Amazonie, przyznał w rozmowie z portalem „Wired”, że zaskoczyła go nie tylko wielkość koncernu, ale też niesamowity bałagan panujący w jego infrastrukturze IT. „Wszystko było połączone taśmą i gumą do życia, plątaniną starego i nowego oprogramowania” – mówił Gagnon. Jednak kiedy zwrócił się o dodatkowe fundusze potrzebne na uporządkowanie chaosu, usłyszał od swoich zwierzchników o „oszczędnościach wpisanych w DNA korporacji”.
Tego typu sytuacje występują w niejednej organizacji, choć zwykle nikt głośno się do tego nie przyznaje. Jednak dane nie kłamią, co pokazuje chociażby przykład z rynku pamięci masowych. Według szacunków IDC zapotrzebowanie na tej klasy produkty rośnie w tempie 30 proc. rocznie, podczas gdy budżety na infrastrukturę jedynie o 10-15 proc. W jakiś sposób trzeba sobie poradzić z tym wyzwaniem i pogodzić dwa różne światy, uwzględniając przy tym koszty. Szczęśliwie działy IT nie są osamotnione w walce z cyberprzestępcami. Na rynku pojawiają się rozwiązania, które pomagają w uporaniu się z tym problemem. Są oferowane zarówno przez nowicjuszy, jak i dostawców z długim stażem rynkowym.
Trzy problemy z danymi
Jednym ze wspomnianych graczy rynkowych jest Atempo, które dostarcza rozwiązania do backupu oraz DR zarówno dla małych firm, jak i wielkich korporacji. Jednym z kluczowych elementów portfolio tego producenta jest Miria – system przeznaczony do ochrony danych w dużych przedsiębiorstwach oraz instytucjach. Platforma składa się z pięciu elementów realizujących funkcje związane backupem, archiwizacją, migracją danych, analityką, synchronizacją i przesuwania danych. Szefowie Atempo twierdzą, że produkt wychodzi naprzeciw trzem wyzwaniom, z jakimi na co dzień przychodzi się zmierzyć działom IT – suwerenności cyfrowej, atakom ransomware oraz lawinowemu przyrostowi danych.
Pierwsza z wymienionych kwestii dotyczy kontrolowania danych, sprzętu i oprogramowania. Decydenci narzekają, że kontrola jest oddana w ręce kilku globalnych usługodawców. Taki stan rzeczy ogranicza wybór technologiczny oraz konkurencję na rynku. Z kolei ransomware przynosi ogromne profity napastnikom. Według Sophosa całkowite koszty odzyskiwania danych podwoiły się w ciągu ostatniego roku i obecnie wynoszą 1,85 mln dol. Trudno zatem liczyć na to, że gangom ransomware znudzi się ten proceder. Wręcz przeciwnie, napastnicy będą sięgać po wysublimowane metody, aby przechytrzyć systemy bezpieczeństwa IT. Wreszcie kwestia przyrostu danych to zjawisko znane od co najmniej od kilku lat i problemem jest w tym przypadku nie tylko wielkość zasobów, ale także ich rozproszenie.
– Przywiązujemy bardzo dużą wagę do przenoszenia i synchronizacji wielkich zbiorów danych w heterogenicznych magazynach. Dlatego nasz system umożliwia przenoszenie petabajtów danych i milionów, a nawet miliardów plików – tłumaczy Hervé Collard, wiceprezes Atempo.
Jednak, aby sprostać tym zadaniom, Miria musi być kompatybilna z szerokim spektrum produktów od zewnętrznych dostawców. Dlatego też oprogramowanie wspiera systemy typu scale out wiodących producentów (w tym Dell i NetApp) i mniej znanych firm (jak VAST Data czy Qumulo), a także pamięci obiektowe (Dell, NetApp, Huawei, Cloudian, Caringo Scality i in.). Miria została w tym roku wzbogacona o nową funkcjonalność Snapstor, która umożliwia szybkie odzyskiwanie danych po awarii dla dużych zbiorów danych.
Warto wspomnieć, że w czasie grudniowego spotkania z europejskimi dziennikarzami Hervé Collard przedstawił kilka pomysłów na walkę ze złośliwym oprogramowaniem ransomware. Jednym z nich jest zastąpienia zasady tworzenia backupu 3-2-1 metodą 3-2-1-1, która zakłada zachowanie co najmniej trzech kopii danych, przechowywanie ich na co najmniej dwóch różnych typach nośników pamięci, w tym jedną kopię poza siedzibą firmy, a jedną w trybie offline. Kolejnym krokiem miałaby być pełna automatyzacja, czyli zaplanowane i częstsze operacje minimalizujące utratę danych po cyberataku. Kolejnym sposobem sugerowanym przez wiceprezesa Atempo jest natywne szyfrowanie komunikacji i danych, mające zapobiec ewentualnemu ich wykorzystaniu lub dystrybucji przez napastników. Hervé Collard zaleca ponadto rozważenie opcji „Linux First”.
Technologia z drugiego końca świata
Nowa Zelandia najczęściej kojarzy się z pięknymi krajobrazami i serią filmów „Władca Pierścieni”. Mało kto utożsamia ten kraj z nowinkami technologicznymi, ale jak się okazuje również w tym kraju rodzą się ciekawe projekty IT. Autorem jednego z nich jest startup Nexustorage, który opracował system Nexfs. To rozwiązanie należące do grupy produktów „software defined storage”, które łączy w ramach pojedynczej puli pamięci masowej pliki, bloki oraz obiekty.
Oczywiście każdy z wymienionych sposobów przechowywania danych ma swoje mocne i słabe strony. Bloki oraz pliki mają w porównaniu z obiektami ograniczoną skalowalność, ale pozwalają uzyskać wyższą wydajność niż konkurencyjny standard. Poza tym obiekty nie obsługują danych strukturyzowanych. Powyższe rozbieżności, a także kilka innych, pokazują, że bloki, pliki i obiekty muszą ze sobą koegzystować. Zasadniczym problemem jest złożoność takiego środowiska, a próby dopasowania do siebie poszczególnych standardów generują wysokie koszty.
– Technologia Nexfs usuwa lukę występującą pomiędzy światem przechowywania plików i bloków z jednej strony, a obiektową pamięcią masową z drugiej. Nasz zunifikowany, skalowalny system z obsługą cyklu życia danych zapewnia redukcję wykorzystywanej pamięci masowej nawet o 95 proc. – wyjaśnia Glen Olsen, CEO i założyciel Nexustorage.
Nexfs dzieli pliki na porcje o wielkości od 1 do 8 MB i przechowuje na trzech warstwach nośników: szybkich dyskach SSD, wolniejszych dyskach SATA i obiektowej pamięci masowej. Części plików są rozmieszczane na poszczególnych poziomach (gorącym, ciepłym, zimnym) zgodnie z ich profilem dostępu i mogą być przesuwane w górę lub w dół za pomocą funkcji SmartTier. Ten działający w tle proces wykorzystuje tzw. znaki wodne odpływu i przypływu, aby decydować czy i kiedy przenosić dane między warstwami. Migracja może zostać wywołana zamknięciem pliku, zmianą fragmentu danych lub zgodnie z ustalonym harmonogramem. Za ochronę danych odpowiada funkcja SmartProtect, która automatycznie kopiuje dane z gorącej warstwy do zimnej, a także kopiuje metadane plików POSIX do gorącej i zimnej warstwy.
To gwarantuje, że podstawowe dane są nadal dostępne po awarii dysku lub systemu. Nexfs prezentuje dane przez interfejsy blokowe lub plikowe i obsługuje interfejsy iSCSI, NFS i SMB/CIFS. Jak na razie system nie oferuje bezpośredniego dostępu do bazowej pamięci obiektów, ale w planie jest dołączenie serwera proxy typu open source zapewniającego dostęp S3. Warto dodać, że choć produkt z Nowej Zelandii to rozwiązanie innowacyjne, podobne funkcje realizują takie rozwiązania, jak Pavilion Data i StorOne. Ponadto rozwijany jest też projekt open source Ceph.
Taśma niczym wino
Taśmy są z nami od ponad siedemdziesięciu lat. Jeszcze do niedawna mówiło się o odejściu tego nośnika do lamusa, ale tak się nie stało. Zabawne jest przy tym to, że EMC, które przy każdej narażającej się okazji zapowiadało koniec ery taśm, zdążyło zniknąć ze sceny (w 2015 r. zostało przejęte przez Della), podczas gdy taśmy trzymają się mocno. Dzieje się tak z kilku powodów, a jednym z nich jest pojawienie się złośliwego oprogramowania ransomware. Napędy taśmowe stały się bowiem jedną z najskuteczniejszych metod obrony przez skutkami tego typu ataków. Ponadto jest to najtańszy rodzaj nośnika, a na dodatek najbardziej energooszczędny.
Co istotne, technologia taśm cały czas się rozwija, czego najlepszym przykładem jest standard LTO. Jego pierwsza wersja zapewniała pojemność 100 GB (200 GB z kompresją), a prędkość transmisji danych 40 MB/s. Natomiast najnowszy LTO-9 oferuje 18 TB pojemności bez kompresji (do 45 TB z kompresją) i zapewniają transfer skompresowanych danych z prędkością do 1000 MB/s. IBM szacuje, że obecnie w taśmowych systemach pamięci znajduje się ponad 345 tys. EB danych.
Eric Bassier, Senior Director Product Marketing w Quantum, zwraca uwagę na inne czynniki, które przyczyniły się do renesansu taśm. Najważniejsze z nich to gwałtowny wzrost ilości danych (w większości nieustrukturyzowanych), konieczność długoterminowego przechowywania cyfrowych informacji, wysokie koszty magazynowania w chmurach publicznych oraz niechęć powierzania kontroli nad zasobami zewnętrznym usługodawcą. Należy też zauważyć, że według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które sięga się bardzo rzadko. Natomiast tylko 10 proc. to dane „gorące”, a 30 proc. „ciepłe”.
Na największą część tego tortu ma chrapkę Quantum. Firmy oraz instytucje przechowują na urządzeniach tej marki ponad 30 eksabajtów danych. Nową bronią producenta jest ActiveScale Cold Storage – nowa klasa obiektowej pamięci masowej przeznaczonej do przechowywania zimnych danych. System bazuje na architekturze hiperskalowalnej i jest dostarczany w formie usługi. ActiveScale Cold Storage łączy oprogramowanie obiektowej pamięci masowej i biblioteki taśmowe Quantum Scalar.
– Użytkownicy usługi nie uiszczają opłat za dostęp do danych, tak jak ma to miejsce chociażby w przypadku Amazona. Według naszych obliczeń oszczędności w stosunku do usług przechowywania danych w chmurze wynoszą około 30 i 80 proc. w porównaniu z dyskami – mówi Eric Bassier.
System ActiveScale zapewnia pojedynczy panel do zarządzania klastrem bibliotek modułowych (co rozwiązuje problem zarządzania wieloma oddzielnymi bibliotekami), a oprogramowanie CatDV tworzy dla nich schematy indeksowania treści.
Uderzeni przez ransomware
Ransomware stał się prawdziwą plagą ostatnich lat, a informacje o spektakularnych atakach trafiają na pierwsze strony gazet i serwisów internetowych. Jedną z ofiar został amerykański dostawca systemów pamięci masowych Spectra Logic. Incydent miał miejsce na początku maja 2020 r., a napastnicy zażądali za odszyfrowanie danych okupu w wysokości 3,6 mln dol. Jednak firma odmówiła i powróciła do pełnej sprawności po trzech tygodniach. To zdarzenie sprawiło, że producent wprowadził do swoich urządzeń oraz oprogramowania kilka innowacji, które mają zapobiec atakom ransoware lub przynajmniej zminimalizować ich skutki.
W drugiej połowie 2021 r. Spectra Logic zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie.
– Klienci mogą w pełni korzystać z aplikacji lokalnych, a także usługi chmurowej za pomocą pojedynczego, przyjaznego w obsłudze interfejsu. Wraz ze wzrostem ataków ransomware, a przede wszystkim naszych doświadczeń w zmaganiach z tym rodzajem malware’u, dodaliśmy do naszego portfolio rozwiązanie zwiększających odporność naszych klientów, a jednym z nich jest właśnie Vail – mówi Nathan Thompson, CEO Spectra Logic.
Kolejna innowacja dotyczy Black Pearl, urządzenia instalowanego przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. W najnowszej wersji produkt zawiera zestaw funkcji określanych jako Attack Hardened. W skład pakietu wchodzą wyzwalane migawki, uwierzytelnianie wieloskładnikowe, szyfrowanie, replikacja i wirtualna luka powietrzna w celu łagodzenia skutków ataków ransomware. Ciekawe zmiany zaszły przy tym w bibliotekach taśmowych. Spectra Logic, oprócz tradycyjnej fizycznej szczeliny powietrznej między kasetami a napędami, korzysta z zimnej partycji, która blokuje taśmy, uniemożliwiając napastnikom przejęcie kontroli nad biblioteką.
Artykuł Połączyć dwa światy IT pochodzi z serwisu CRN.
]]>Artykuł WD sprzedał część biznesu pochodzi z serwisu CRN.
]]>Już w ub.r. WD zapowiadał, że zamierza skoncentrować się na platformach pamięci masowej, jak OpenFlex, a nie na systemach. Sprzedał biznes IntelliFlash firmie DDN (DataDirectNetworks).
Quantum specjalizuje się m.in. w rozwiązaniach do przechowywania i zarządzania nagraniami wideo, a także w backupie i archiwizacji. Ma spore doświadczenie w zakresie ActiveScale. Od ok. 5 lat sprzedaje te rozwiązania. Zgodnie z umową z WD w przyszłości Quantum przejmie także wsparcie aktualnych i nowych klientów ActiveScale, zajmie się również dalszym rozwojem tych produktów.
ActiveScale pozwala na dostęp do plików i obiektów, replikację do chmury. Dla Quantum ma być dobrym uzupełnieniem portfolio jako chmurowe repozytorium dla danych, backupu i archiwizacji albo dla nagrań z monitoringu wideo. W przyszłości Quantum chce wspierać ekosystem różnych dostawców pamięci obiektowej, tak aby użytkownicy mogli łatwo przenosić między nimi dane.
Artykuł WD sprzedał część biznesu pochodzi z serwisu CRN.
]]>Artykuł Znany producent na zakręcie pochodzi z serwisu CRN.
]]>Wideo i autonomiczne samochody
Warto przypomnieć, iż w 1999 roku Quantum wspólnie z HP oraz IBM zawiązał konsorcjum, które opracowało technologię Linear Tape-Open (LTO). Do dnia dzisiejszego cieszy się ona dużą popularnością i jest cały czas rozwijana. Taśmy wciąż mają wielu zwolenników, aczkolwiek budowanie portfolio wyłącznie w oparciu o ten rodzaj nośnika, byłoby krótkowzroczną strategią. Kwartalne przychody Quantum ze sprzedaży produktów taśmowych wynoszą około 50 milionów dolarów. Niemniej producent w ostatnich latach rozszerzył portfolio o nowe systemy takie jak DXi – oprogramowanie do deduplikacji, macierze Xcellis czy Rook. Ten ostatni to projekt open source, który umożliwia uporządkowanie rozproszonych systemów pamięci masowych. Jednak największym atutem producenta z San Jose wydaje się być StorNext – system przeznaczony do współdzielenia i archiwizacji danych. Najchętniej korzystają z niego stacje telewizyjne oraz firmy zajmujące się produkcją materiału wideo.
– Kiedy przyszedłem do Quantum, jednym z pierwszych i najważniejszych zadań było odwiedzenie klientów. Odwiedziłem studia filmowe, które przechowują dane nawet od ponad pięćdziesięciu lat, kluby sportowe czy instytucje rządowe. Nasze produkty pracują w wielu ciekawych miejscach, gdzie służą do przetwarzania i archiwizacji danych – mówi Jame Lenier.
Quantum planuje koncentrować się na wertykalnych rynkach oraz rozwijać narzędzia analityczne. Jednym z najbardziej z perspektywicznych segmentów rynku jest branża filmowa. Lenier zwraca uwagę na fakt, iż obok Hollywood bardzo dynamicznie rozwija się Bollywood i chińskie wytwórnie filmowe. Również agencje informacyjne są ważnym odbiorcami systemów do przechowywania i organizacji danych.
– Jednym z ciekawszych zjawisk jest gromadzenie ogromnej ilości metadanych przez duże sieci telewizyjne, takie jak CNBC czy FoxNews. W studiach pracują całe sztaby ludzi, zajmujące się opisywaniem emitowanych programów informacyjnych. Metadane pozwalają w przyszłości szybko znaleźć odpowiednie fragmenty reportaży, wystąpień polityków czy innych programów – wyjaśnia Jame Lenier..
Szefowie Quantum duże nadzieje pokładają w branży motoryzacyjnej, a zwłaszcza tworzącym się rynkiem samochodów autonomicznych. Tego typu pojazdy muszą gromadzić i przetwarzać ogromne ilości danych.
– W ciągu dnia ponad 270 milionów użytkowników Twittera wytwarza ok. 100 GB danych, zaś testowy samochód autonomiczny w tym samym czasie generuje około 30 TB. – tłumaczy Jame Lenier. W pierwszym kwartale bieżącego roku producent wprowadzi na rynek „mobile storage” – przenośną skrzynkę z nośnikami montowaną w samochodach, którą można następnie łatwo umieścić w urządzeniu StorNext
Quantum nie zamierza też rezygnować ze swojej najsilniejszej broni. Z badań przeprowadzonych przez firmę wynika, iż trzyletnie koszty przechowywania 1 PB danych wynoszą w przypadku taśm około 107 tysięcy dolarów, zaś dysków NAS 2,5 miliona dolarów. Lenier zacytował zdanie wypowiedziane trzy lata temu przez Aarona Ogusa z Microsoftu.
– Wszyscy dostawcy usług chmurowych będą używać taśm i to w niespotykanej do tej pory skali.
W jaki sposób Quantum zamierza konkurować z Dell EMC, HPE czy IBM? Szefowie firmy wychodzą z założenia, że koncentracja na wybranych grupach odbiorców i przystosowanie produktów do ich indywidualnych potrzeb pozwoli uzyskać przewagę konkurencyjną. W przypadku obrazu wideo tradycyjne rozwiązania nie zdają egzaminu z kilku powodów. Jednym z nich jest objętość niestrukturyzowanych zasobów – nawet pięćdziesiąt razy większa w porównaniu z danymi przetwarzanymi i gromadzonymi w organizacjach. W tego typu zastosowaniach nie sprawdzają się też popularne funkcje oferowane przez macierze dyskowe, takie jak klonowanie, replikacja czy deduplikacja. Dużym wyzwaniem jest też analiza plików wideo, a zwłaszcza wyszukiwanie fragmentów filmów.
Artykuł Znany producent na zakręcie pochodzi z serwisu CRN.
]]>Artykuł Profesjonalna archiwizacja: biznes będzie jej potrzebował pochodzi z serwisu CRN.
]]>Podkreślać różnicę
Uświadomienie klientom różnicy między backupem a archiwizacją okazuje się niezwykle istotne. Tym bardziej że nawet wśród samych specjalistów IT pojawiają się rozbieżności w podejściu do tych dwóch procesów i wspomagających je narzędzi informatycznych. Producenci systemów backupu nierzadko dołączają do nich funkcje charakterystyczne dla archiwizacji, co powoduje, że klienci biznesowi te pojęcia mylą. Trzeba więc wyraźnie powiedzieć, że backup to nie odpowiednik archiwum, choć próbuje się go używać również do tych celów.
W wielu przedsiębiorstwach administratorzy regularnie (np. raz w miesiącu) zatrzymują taśmy z kopią danych z back-
upu, uważając, że w ten sposób tworzą dodatkowo archiwum. W ocenie specjalistów może tak postępować ponad 70 proc. organizacji. Tymczasem, o ile backup to regularnie sporządzana kopia zmiennych danych produkcyjnych, umożliwiająca szybkie odtworzenie środowiska po awarii w możliwie aktualnym stanie, o tyle archiwizacja to bezpieczne, długoterminowe składowanie statycznych danych i informacji, w celu ewentualnego ponownego ich wykorzystania w bliżej nieokreślonej przyszłości.
W podejściu do archiwum priorytetem jest koszt jego utrzymywania (niektóre dane według prawa trzeba przechowywać nawet przez 50 lat) i zastosowanie technologii zapisu odpornej na upływ czasu. W dodatku stosunkowo łatwy dostęp do danych archiwalnych powinien być połączony ze skuteczną ochroną przed działaniem osób niepowołanych, możliwością sfałszowania plików czy po prostu ich utraty. Dlatego procesy backupowe i archiwizacyjne powinno się zdecydowanie rozdzielać. Mało tego, regularny backup może być wisienką na torcie, gdy mowa o zabezpieczeniu firmowego archiwum.
Archiwizacja: czasy jej sprzyjają
Do niedawna jeszcze organizacje nie przetwarzały tak ogromnych ilości danych, jak obecnie. Stosunkowo łatwo orientowały się też, jakimi danymi dysponują – operowały setkami gigabajtów, podczas gdy obecnie mówi się o petabajtach, w tym zupełnie nowego rodzaju danych, np. agregowanych z sieci społecznościowych czy multimedialnych. Gromadzą je np. działy HR, szkoleniowe, marketingu, sprzedaży. Z nimi też należy rozmawiać w pierwszej kolejności o kłopotach związanych z archiwizacją i rozwiązaniach stanowiących remedium na nie.
Podczas debaty padł przykład firmy zajmującej się hodowlą kur. Jej szefowie zamierzają nagrywać ruch ptactwa na farmie, co pomoże w szybkiej reakcji na odchylenia w zachowaniu zwierząt będące zwiastunami chorób. Coraz więcej zakładów wytwórczych chce stale rejestrować procesy produkcyjne, aby wychwytywać nieprawidłowości. Dane multimedialne zaczyna też regularnie generować sektor publiczny. Przykładowo samorządy nagrywają sesje rady i zamieszczają je w sieci. W wielu województwach są realizowane projekty udostępniania informacji publicznej w postaci cyfrowej. Tak więc podłoże do sprzedaży specjalistycznych rozwiązań archiwizacyjnych już jest…
Choć firmy mają potrzeby w tym zakresie, to często próbują je zaspokajać, działając schematycznie – czyli nieskutecznie. Jak chociażby jedno z polskich przedsiębiorstw realizujące zlecenia dla zagranicznego inwestora. Dysponuje kilkunastoma petabajtami zebranych danych archiwalnych, które chce zachować, posługując się backupem, co w tym przypadku się nie sprawdzi. Dlatego rola archiwizacji rośnie i coraz więcej klientów, dzisiaj tylko pytających o backup, będzie nią zainteresowanych. Oni też będą potrzebować profesjonalnej pomocy ze strony integratorów w doborze konkretnych rozwiązań.
Od chaosu do struktury
Debatujący przyznali, że klienci mogą czuć się zdezorientowani, próbując zapanować nad przyrostem różnorodnych danych w swoich przedsiębiorstwach. Tym bardziej że przechowywanie części z nich podlega regulacjom prawnym. Ogromna więc rola doradcza integratorów, dystrybutorów i producentów, aby skutecznie pomagać w tym zakresie. Według specjalistów punktem wyjścia jest zrozumienie, jak zarządza się danymi i informacją w danej firmie, co wymaga dużego zaangażowania zarówno po stronie klienta, jak i integratora. Pomoże w tym analiza środowiska, która odpowie na pytanie, jakiego rodzaju dane i informacje ich użytkownik posiada w swoich systemach, a następnie stworzenie ich map, zaimplementowanie mechanizmów retencji i sposobów chronienia (muszą odpowiadać nie tylko potrzebom biznesowym organizacji, ale też warunkom prawnym). To wielowymiarowa praca koncepcyjna, w której mogą również pomóc producenci, służąc odpowiednimi rozwiązaniami do klasyfikacji danych i lokalizowania ich w systemach przedsiębiorstw, a ponadto własnym doświadczeniem w ich implementacji.
Podczas dyskusji nie mogło oczywiście zabraknąć wątku RODO. Podkreślano, że zmiana prawa czy zaostrzenie istniejących już przepisów nie skutkują od razu dużymi inwestycjami w odpowiednie rozwiązania IT. To często proces zakupowy rozłożony w czasie, w którym firmy informatyczne pełnią bardzo ważną rolę – pomagają klientom końcowym w dostosowaniu się do bardzo ogólnie sformułowanych przepisów. RODO zdaniem debatujących nie można traktować jako wytrychu do szybkiego zwiększenia sprzedaży – również profesjonalnych systemów archiwizacyjnych – tym bardziej, że mało która firma przyzna, iż nie jest na te przepisy gotowa. W przygotowaniu klienta do RODO, biorąc pod uwagę jego potrzeby związane z archiwizacją danych czy informacji, sprawdzi się metoda małych kroków, czyli zabezpieczenie zgodne z wymogami prawnymi na daną chwilę.
Integratorzy bacznie śledzący zmiany prawne zawsze będą o krok przed klientem pod względem tej specjalistycznej wiedzy, co pozwoli im na regularne proponowanie odpowiednich rozwiązań bez narażania go na jednorazowe duże nakłady finansowe. Trzeba pamiętać, że w odróżnieniu od backupu, który jest procesem stosunkowo prostym, a właściwie opanowaną już czynnością administracyjną, archiwizacja wymaga podejścia biznesowego. Procesów archiwizacyjnych nie da się dobrze wdrożyć bez odpowiedniego przygotowania klienta, audytu, który odpowie na pytanie, jakie de facto znaczenie mają różnego rodzaju gromadzone przez niego informacje.
Więcej informacji: http://www.backup.info.pl
Artykuł Profesjonalna archiwizacja: biznes będzie jej potrzebował pochodzi z serwisu CRN.
]]>Artykuł Quantum rzuca rękawicę Dell EMC pochodzi z serwisu CRN.
]]>Quantum w Polsce jest najczęściej utożsamiane z napędami taśmowymi, a jego flagowym produktem jest rodzina systemów StorNext przeznaczonych do współdzielenia i archiwizacji danych. Jednakże w bieżącym roku producent zadebiutuje w segmencie systemów NAS Scale-Out z Xcellis. To niełatwy obszar, gdzie przyjdzie mu konkurować z Dell EMC Isilon czy NetApp FAS.
– Rynek korporacyjny NAS można generalnie podzielić na trzy segmenty. Pierwsza grupa urządzeń koncentruje się na funkcjach związanych z zarządzaniem danymi. Są też systemy zapewniające przechowywanie dużych puli pamięci. Ich zaletą jest stosunkowo niska cena, ale mają ograniczoną funkcjonalność. Trzecią kategorię tworzą rozwiązania HPC zoptymalizowane pod kątem szybkości przetwarzania danych. Xcellis łączy wszystkie wymienione cechy – tłumaczy Molly Presley, wiceprezydent ds. marketingu w Quantum.
System jest oferowany w kilku wersjach i może być skalowalny od 50 TB do petabajtów danych. W opcji entry ceny zaczynają się od ok. 100 dol. za terabajt. Model all flash obsługuje od 370 TB do 925 TB, a maksymalna konfiguracja pozwala uzyskać 1 milion IOPS. Quantum wprowadziło do swojej oferty Xcellis już wcześniej, niemniej produkt spełniał nieco inną rolę. Co się zatem zmieniło?
– Mówiąc najprościej, przeszliśmy z architektury bramy NAS do kompletnego urządzenia o wysokiej dostępności i skalowalności – wyjaśnia Molly Presley.
Quantum duże nadzieje pokłada również projekcie open source Rook, który umożliwia uporządkowanie rozproszonych systemów pamięci masowych. To rozwiązanie zapewnia korzyści zarówno użytkownikom chmury publicznej, jak i zasobów w środowisku lokalnym. Są to możliwości w zakresie elastycznego przydzielania obiektów, bloków, a w przyszłości również plików, do różnych aplikacji i jednostek biznesowych.
– Planujemy wdrożyć Rook w komercyjnych systemach pamięci masowych dla klientów korporacyjnych już od kwietnia bieżącego roku – zapowiada Molly Presley.
Artykuł Quantum rzuca rękawicę Dell EMC pochodzi z serwisu CRN.
]]>Artykuł Pamięci masowe AD 2017: koniec z rutyną pochodzi z serwisu CRN.
]]>– Inny punkt widzenia mają twórcy aplikacji. Oni poszukują narzędzi do łatwego i szybkiego rozwiązywania określonych problemów – zauważa Robert Triendl, wiceprezes ds. sprzedaży i marketingu w DataDirect Networks.
Która postawa ostatecznie zwycięży? Czy słynne powiedzenie „nikt jeszcze nie wyleciał z pracy za to, że kupił IBM” przejdzie do historii? Zanim do tego dojdzie, działy informatyczne coraz częściej będą stawać przed trudnymi wyborami. Dlatego warto trzymać rękę na pulsie i śledzić to, co dzieje się nie tylko na lokalnym rynku, ale również za oceanem, w Dolinie Krzemowej.
Jon Gacek, choć zarządza technologiczną spółką, nie lubi zanudzać dziennikarzy techniczną nowomową. Zresztą taką samą zasadę stosuje wobec klientów. Jednak nie zawsze tak było. Jeszcze do niedawna sam CEO Quantum, jak też jego ludzie prezentowali produkty, zachwalając ich parametry. Tłumaczyli, że są szybkie, gwarantują lepsze upakowanie nośników itp.
– Przestawiliśmy się na nowy model sprzedaży. Teraz dyskutujemy o celach biznesowych. Klient kupuje serwer, żeby rozwiązać określony problem i nie interesuje go, co jest w środku – podsumowuje Jon Gacek.
Wiele osób utożsamia Quantum z bibliotekami taśmowymi. Wprawdzie firma nie zamierza budować swojej przyszłości, bazując na taśmach, ale wciąż nie odżegnuje się od tego nośnika.
– W rozwiązaniach do backupu znaczenie taśm spada, aczkolwiek nadal będą one wykorzystywane do archiwizacji. To wciąż najtańszy z dostępnych nośników. Średni koszt przechowywania petabajta danych w okresie trzyletnim przez system NAS wynosi 1,6 mln dol., zaś na taśmie tylko 194 tys. dolarów – wylicza Jon Gacek.
Quantum oferuje oprogramowanie Store-Next do współdzielenia i archiwizacji danych oraz systemy do tworzenia kopii zapasowych DXi. Przedstawiciele producenta podkreślają, że nie przywiązują wagi do nośników i sprzedają przede wszystkim przestrzeń i technologię do zarządzania danymi, gdzie jedną z kluczowych ról odgrywa tiering.
Quantum w ciągu najbliższych pięciu lat spodziewa się wzrostu przychodów w trzech obszarach: infrastrukturze dla chmury publicznej (19 proc.), archiwizacji danych z monitoringu (17 proc.) oraz mediów i rozrywki (15 proc.). Firma z San Jose opracowała specjalne rozwiązania, a także referencyjną architekturę do zarządzania danymi pochodzącymi z zapisów wideo.
– To bardzo lukratywny rynek, a w Hollywood nie wiedzą, co to kryzys – uśmiecha się Molly Rector, wiceprezes Quantum ds. marketingu.
Alex Bouzari i Paul Bloch, szefowie i współzałożyciele DataDirect Networks (DDN), jeszcze do niedawna chwalili się, że zarządzają największym prywatnym przedsiębiorstwem w branży storage. Ale wraz z przejęciem EMC przez Michaela Della firma z Santa Clara spadła na drugą pozycję w rankingu. DDN dostarcza m.in. rozwiązania HPC (High Performance Computing), które pozwalają w mgnieniu oka wykonywać złożone operacje matematyczne i symulacje. Inteligentne systemy tworzą serwery połączone bardzo szybką siecią z dostępem do dużych magazynów danych. Skalę możliwości produktów DDN obrazuje rodzina rozwiązań 14 K, które obsługują pamięć blokową. Platforma wykorzystuje SAS SSD, NVMe, łącza InfiniBand, architekturę Omni-Path, a także piątą generację procesorów Intel Broadwell. Zastosowane podzespoły i technologie pozwalają wycisnąć z systemu wydajność powyżej 6 mln IOPS i przepustowość 60 GB/s w obudowie 4U.
Rozwiązania HPC kojarzą się zazwyczaj z ośrodkami badawczymi oraz instytucjami naukowymi. Jednak w ostatnim czasie duże zainteresowanie HPC wykazują instytucje finansowe (gdzie niezwykle ważne staje się ekspresowe przetwarzanie i analizowanie danych), a także branża samochodowa.
– Jeszcze pięć lat temu przemysł motoryzacyjny wyglądał inaczej. Nikogo nie interesowały dane. Ale nastąpił zwrot o 180 stopni. Producenci aut bardzo wnikliwie przyglądają się danym i wykorzystują je przy opracowywaniu silników, projektowaniu linii wzorniczych czy symulacji wypadków samochodowych – przyznaje Robert Triendl, Senior Vice President of Global Sales w DDN.
Philippe’a Nicholasa, pełniącego rolę doradcy startupów działających w Dolinie Krzemowej
CRN Które ze startupów szczególnie warto zarekomendować polskim integratorom i resellerom?
Philippe Nicholas W 2016 r. rozwinęło skrzydła wiele ciekawych, młodych przedsięwzięć. Są to Cohesity, Datos IO, Rubrik, Cloudian, Datrium, Minio, Igneous. Ale oprócz wymienionych firm z Doliny Krzemowej na uwagę zasługują także startupy z Izraela, takie jak iguazio, infinidat, Kaminario, Reduxio. Każdy z tych graczy wnosi coś nowego do branży pamięci masowych, a ich rozwiązania pozwalają zoptymalizować infrastrukturę IT i tym samym obniżyć koszty.
CRN Ile potrzeba czasu, żeby ciekawy produkt opracowany przez startup w Dolinie Krzemowej trafił do Europy?
Philippe Nicholas Rynek amerykański i europejski różnią się od siebie. Wynika to z kilku przyczyn, między innymi kultury pracy. Większość innowacji powstaje za oceanem, więc są najpierw wprowadzane na lokalny rynek, a potem trafiają do Europy. Proces adaptacji na Starym Kontynencie bywa bardzo różny, ale z reguły potrzeba od roku do trzech lat, żeby produkt zadomowił się na rynku.
CRN Czego można się spodziewać w 2017 r. po takich tuzach, jak Dell Technologies, HPE czy IBM?
Philippe Nicholas Każda z wymienionych firm znajduje się w innej sytuacji. Dell po zakupie EMC stał się niekwestionowanym liderem na rynku pamięci masowych. Dell Technologies ma pełne portfolio rozwiązań do budowy infrastruktury IT. To komfortowa sytuacja dla przedsiębiorców. HPE poszło w innym kierunku, dokonując podziału. Nie wiem, jak wyglądać będzie przyszłość tego producenta. Niewykluczone, że straci pozycję na rynku, tym bardziej że jego strategia jest mało klarowna. Natomiast z IBM-em trzeba się liczyć. Ostatnia akwizycja, zakup Cleversafe, była doskonałym ruchem. Poza tym ten producent się nie poddaje i wciąż zamierza walczyć o prymat w chmurze z Amazonem, Microsoftem i Google’em.
——————————————–
Philippe Nicholas od jedenastu lat doradza startupom z Doliny Krzemowej, a od dwudziestu jest związany z branżą pamięci masowych. Dwa lata temu przeniósł się z Paryża do San Francisco. Przez 9 lat pełnił funkcję prezesa SNIA (Storage Networking Industry Association), pracował w takich firmach, jak Symantec, Veritas, Brocade i Scality.
Rosnący popyt na zaawansowane systemy obliczeniowe przetwarzające petabajty danych sprawia, że DDN wychodzi z głębokiej niszy i konkuruje z takimi tuzami, jak IBM, Dell EMC czy NetApp.
– Często zastępujemy w instytucjach finansowych macierze NetApp, ponieważ nasze produkty zapewniają większą wydajność. Ciekawym przykładem jest wdrożenie w Fannie Mae, gdzie wygraliśmy rywalizację z IBM. System DDN pozwolił o ponad 400 proc. przyspieszyć i zwiększyć dokładność analizy ryzyka – mówi Paul Bloch.
Wraz z ekspansją HPC ewoluują potrzeby użytkowników. Jedną z najbardziej pożądanych cech jest skalowalność pozioma (scale out). Dlatego – jak twierdzą specjaliści DDN – wielu klientów zaczyna od niewielkich pojemności, a po krótkim czasie rozbudowuje systemy tak, że zawierają petabajty danych.
W 2016 r. 73 proc. organizacji korzystających z systemów DDN przechowywało powyżej 1 petabajta danych, zaś 30 proc. więcej niż 10 petabajtów. Lwia część klientów tej firmy nie wierzy, że aktualnie używane systemy plików czy technologie do zarządzania danymi sprawdzą się w centrach danych wymagających dużej skalowalności. Niemal 75 proc. respondentów uczestniczących w badaniu przeprowadzonym przez firmę zadeklarowało, że branża potrzebuje innowacji.
Steve Wozniak, współtwórca legendy Apple, nie ogranicza swojej aktywności w branży do roli komentatora bądź celebryty. Popularny „Woz” zasiada w zarządzie Primary Data jako chief scientist. To startup, który wypowiedział wojnę silosom działającym w centrach danych. Jak twierdzi Lance Smith, szef Primary Data, nieco ponad połowa światowych przedsiębiorstw (pow. 100 zatrudnionych) zarządza co najmniej dziesięcioma systemami storage, zaś 34 proc. musi zmagać się z dwudziestoma lub więcej. Smith ze swoimi ludźmi zamierza uporządkować ten bałagan, wykorzystując do tego celu platformę DataSphere.
System oddziela warstwę danych od sprzętu, zapewniając użytkownikom możliwość łatwego dotarcia do zasobów, niezależnie od tego, czy są przechowywane w postaci plików, bloków bądź obiektów. Nie ma także znaczenia, czy dane znajdują się na lokalnym serwerze czy w prywatnej lub publicznej chmurze. Co to oznacza w praktyce? Jeden z klientów Primary Storage – firma z sektora mediów i rozrywki – zaoszczędziła dzięki wdrożeniu platformy ponad 60 proc. kosztów eksploatacji pamięci masowych. Warto dodać, że DataSphere umożliwia równomierne przenoszenie obciążeń pomiędzy serwerami. Rozwiązanie pozwala korzystać z zasobów platformy 600 pracownikom, którzy mogą jednocześnie renderować różne fragmenty filmu. Nic dziwnego, że Lance Smith widzi przyszłość software-defined storage w jasnych kolorach, choć nie ukrywa, że należy uzbroić się w cierpliwość.
– Od czasu pierwszej rozmowy z klientem do podpisania kontraktu mija zazwyczaj kilka miesięcy, ale zdarzają się przypadki, że potrzeba jeszcze więcej czasu na finalizację transakcji – dodaje Lance Smith.
Na rynku rozwiązań do backupu robi się tłoczno. Czy znajdzie się miejsce dla kolejnego gracza? Tarun Thakur oraz Prasenjit Sarkar, którzy mają spory bagaż doświadczeń z realizacji projektów z Data Domain,
IBM czy Nimble Storage, twierdzą, że właśnie odkryli kolejną wolną przestrzeń. Co ciekawe, do podobnych wniosków doszli analitycy Gartnera, a także redaktorzy amerykańskiego wydania CRN, umieszczając startup Datos IO na liście najbardziej obiecujących młodych firm w branży storage. Tarun Thakur, CEO młodej firmy, zwraca uwagę na szereg nowych procesów zachodzących w środowiskach IT.
– Wiele aplikacji uruchamianych jest w chmurze publicznej. Rośnie popularność nierelacyjnych baz danych, takich jak Cassandra, MongoDB, Redis czy Neo4j. Organizacje zaczynają powszechnie korzystać z Hadoopa czy Sparka. Ale nikt do tej pory nie znalazł optymalnego rozwiązania do ochrony danych i aplikacji funkcjonujących w nowych środowiskach – mówi Tarun Thakur.
W pierwszym etapie Datos IO zajmie się wsparciem dla IT menedżerów korzystających z nierelacyjnych baz danych Cassandra i MangoDB. Autorskie rozwiązanie RecoverX zapewnia ochronę w dowolnym przedziale czasu, niezależnie od ziarnistości danych, zaś proces ich odzyskiwania zajmuje co najwyżej kilka minut.
Tarun Thakur spodziewa się, że bieżący rok przyniesie dalszą ekspansję aplikacji związanych ze sztuczną inteligencją, Internetem rzeczy czy uczeniem maszynowym. Taki stan rzeczy sprawi, że organizacje zaczną poszukiwać narzędzi do zarządzania nowymi aplikacjami. To woda na młyn dla takich dostawców jak Datos IO.
Nie wszystkie trendy, o których wspominają rozmówcy CRN Polska z Doliny Krzemowej, zawitają w tym roku do Polski. Ale warto bacznie przyglądać się zmianom, a zwłaszcza pomysłom graczy z drugiego szeregu i dopiero rozpychających się łokciami startupów. Jak słusznie zauważył w jednym z wywiadów Roman Kluska, twórca potęgi Optimusa, duża firma nigdy nie zrobi postępu, jeżeli nie zostanie do tego zmuszona.
Artykuł Pamięci masowe AD 2017: koniec z rutyną pochodzi z serwisu CRN.
]]>Artykuł Backup w odwrocie? pochodzi z serwisu CRN.
]]>„Rynek PBBA w trzecim kwartale bieżącego roku spowolnił, podobnie jak sprzedaż systemów pamięci masowych dla klientów korporacyjnych. Największy spadek wystąpił w regionach rozwiniętych, natomiast na rynkach wschodzących odnotowano wzrost popytu. Zauważalne jest także przesunięcie inwestycji w kierunku rozwiązań sprzętowych commodity – mówi Liz Conner z IDC.
Niekwestionowanym liderem w segmencie PBBA jest Dell Technologies z 60% udziałem rynku. Na uwagę zasługuje bardzo dobry wynik firmy IBM, która zwiększyła w badanym okresie sprzedaż o 42%.
Rynek urządzeń PBBA według IDC. Przychody w mln USD.
Producent | Przychody 3Q2016 | Udział w rynku 3Q2016 | Przychody 3Q2015 | Udział w rynku 3Q2015 |
3Q2016/3Q2015 wzrost |
Dell Technologies | 444.9 | 60.3% | 522.9 | 65.3% | -14.9% |
Veritas/Symantec | 111.8 | 15.2% | 116.5 | 14.5% | -4.0% |
IBM | 41.8 | 5.7% | 29.4 | 3.7% | 42.0% |
HPE | 35.2 | 4.8% | 40.4 | 5.0% | -12.9% |
Quantum | 18.5 | 2.5% | 18.0 | 2.3% | 2.8% |
Inni | 85.3 | 11.6% | 73.9 | 9.2% | 15.5% |
Razem | 737.5 | 100.0 | 801.0 | 100.0 | -7,9% |
Artykuł Backup w odwrocie? pochodzi z serwisu CRN.
]]>