Artykuł Walka z chaosem w serwerowniach pochodzi z serwisu CRN.
]]>– Na rynku pamięci masowych mamy do czynienia z zaszłościami historycznymi. EMC zbudowało swój wielki biznes na macierzach obsługujących bloki, NetApp posiada silną pozycją w segmencie systemów do przetwarzania obsługi plików. Do tej dwójki dołączyli kolejni producenci. W rezultacie firmy mają problemy z zarządzeniem urządzeniami pochodzącymi od różnych vendorów. My jesteśmy agnostyczni względem sprzętu – tłumaczy Dave Zabrowski, CEO DataCore Software.
Sztandarowy produkt SANsymphony umożliwia centralną automatyzację i zarządzanie danymi zróżnicowanym środowisku pamięci masowej (dowolne SAN, DAS, HCI lub JBOD). DataCore Software oferuje też rozwiązanie SDS przeznaczone wyłącznie do integracji systemów NAS. Ogółem użytkownicy rozwiązań tej amerykańskiej firmy zarządzają 276 petabajtów danych
Dave Zabrowski zwraca uwagę na fakt, iż w ostatnim czasie wśród organizacji bardzo szybko rośnie zainteresowanie obiektową pamięcią masową. W przyszłym roku globalne przychody ze sprzedaży tej klasy rozwiązań osiągną około 20 mld dolarów – o 8 mld dolarów niż w 2019 roku. Warto w tym miejscu przypomnieć, że na początku ubiegłego roku DataCore Software przejęło Caringo – firmę specjalizującą się w opracowywaniu oprogramowania od obsługi pamięci obiektowej, co pozwala zastosować SDS nie tylko dla bloków, plików, ale również obiektów.
– Wprowadzenie do oferty rozwiązania bazującego na technologii Caringo nie spowodowało odpływu klientów zainteresowanych integracja macierzy blokowych. Nie zauważamy czegoś takiego jak kanibalizacji produktów – wyjaśnia Dave Zabrowski.
Innym ważnym trendem jest przetwarzanie danych na brzegu sieci. Według prognoz Gartnera do 2025 roku więcej niż połowa zasobów cyfrowych będzie wytwarzanych przez korporacje poza centrum danych i chmurą. W Paryżu miała miejsce premiera nowego rozwiązania SymplyPerifery, opracowanego przez DataCore Software wspólnie z firmą Symply. Korzystając z tego urządzenia, firmy medialne mogą sprawnie archiwizować dane z macierzy NAS i SAN i w razie potrzeby mieć do nich bardzo szybki dostęp. Jednym z przykładów zastosowań jest proces nagrywania filmów, gdzie objętość danych jest zbyt duża i nie nadaje się do migracji do chmury publicznej.. Firma liczy na to, że produkt znajdzie też zastosowanie w sektorze opieki zdrowia, gdzie funkcjonuje mnóstwo urządzeń brzegowych.
Dyski mechaniczne i taśmy nadal w grze
PoINT Software & Systems, niemiecka firma specjalizująca się w rozwoju oprogramowania do archiwizacji danych, działa od 1985 roku. Być może starsi czytelnicy kojarzą ją z systemem Jukebox Manager, który ujrzał światło dzienne w 1997 roku. Było to oprogramowanie służące to zarządzania nośnikami optycznymi: DVD, CD, BD, MO/WORM. Wraz z upływem czasu firma rozbudowywała swoje portfolio, wprowadzając rozwiązania przystosowane do obsługi nie tylko nośników optycznych. Takim przykładem jest chociażby PoINT Storage Manager pozwalający zarządzać danymi z serwerów NAS i bibliotek taśmowych.
– Czasami firmy uważają, że stosowanie kilku warstw pamięci masowych nie ma sensu, bo można korzystać wyłącznie z nośników SSD. Jednak przy dużej ilości danych, pojawia się problem kosztów. Dlatego dyski mechaniczne oraz taśmy cały czas znajdują zastosowanie w procesie przechowywania danych. – tłumaczy Thomas Thalmann, dyrektor zarządzający PoINT Software & Systems
Według szacunków niemieckiej firmy w przedsiębiorstwach zdecydowanie przeważają dane niestrukturyzowane stanowiące 80 proc. spośród wszystkich zasobów cyfrowych. Co ciekawe, jedynie 10 proc. to tzw. dane gorące, a 70 proc. nieaktywne. PoINT Software & Systems koncentruje się na rozwiązaniach adresowanych dla klientów poszukujących produktów do archiwizacji. Jej najnowszym dzieckiem jest jest PoINT Archival Gateway — Unified Object Storage, definiowana programowo obiektowa pamięć masowa S3, która łączy dyski twarde i taśmy w jednej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia, gdzie znajdują się dane, bowiem ma do nich dostęp do pojedynczego panelu. Istnieje możliwość stosowania różnych konfiguracji – np. tylko taśmy lub dyski, a także dodania w dowolnym momencie innej klasy pamięci. W porównaniu z obiektową pamięcią masową opartą na taśmach, dodanie klasy pamięci masowej na dysku mechanicznym pozwala na dodatkowe zastosowania, gdzie wymagane są małe opóźnienia np. HPC czy aplikacje do backupu.
Belgowie zarządzają petabjtami danych
Nodeum to belgijski startup założony w 2016 roku. Firma, podobnie jak jej niemiecki konkurent, oferuje oprogramowanie do zarządzania zasobami cyfrowymi umieszczonymi na różnych nośnikach. System umożliwia użytkownikom archiwizowanie, ochronę i migrację danych w dowolnym serwerze NAS, chmurze publicznej bądź bibliotece taśmowej. Użytkownik zarządza zasobami za pomocą pojedynczego panelu sterowania i może płynnie regulować przepływ danych pomiędzy środowiskiem lokalnym a chmurą publiczną, a także chmurami różnym usługodawców. Nodeum jest dostępny jako oprogramowanie lub może być dostarczony na certyfikowanym sprzęcie serwerowym.
– Spędziłem w branży IT niemal dwadzieścia lat, zanim zdecydowałem się na rozpoczęcie własnego biznesu. Skłoniła mnie to tego sytuacja na rynku, chcemy przekształcić tradycyjny ekosystem pamięci masowej i wprowadzić ujednolicone zarządzanie dla systemów hybrydowych pracujących w środowisku lokalnym i chmurze – tłumaczy Valery Guilleaume, dyrektor generalny Nodeum,
Belgijska firma opracowała system zaprojektowany specjalnie dla branż, gdzie wykorzystuje się duże ilości danych liczone w petabajtach. Generowanie treści cyfrowych rozwija się w zawrotnym tempie, co szczególnie widać w genetyce i naukach przyrodniczych, medycynie, a także nadzorze wideo, branży mediów i rozrywki czy dziedzinach związanych z ochroną środowiska naturalnego. Nodeum łączy bliska współpraca z Quantum oraz DataCore Software, pomagając wymienionym producentom w procesach archiwizacji, ochrony i migracji danych. Na liście największych klientów startupu znajdują się Uniwerystet Medyczny Graz, Uniwersytet w Rostocku czy RTL Belgia.
Artykuł Walka z chaosem w serwerowniach pochodzi z serwisu CRN.
]]>Artykuł Commvault w nowej odsłonie pochodzi z serwisu CRN.
]]>– Ogromny wpływ na rynek IT mają nowe trendy, takie jak- multi-cloud, natywne aplikacje chmurowe, automatyzacja, DevOps. Stawiają one wyzwania wobec dostawców rozwiązań do ochrony danych, którzy muszą sobie poradzić z fragmentaryzacją zasobów cyfrowych, złożonością zarządzania, deficytem specjalistów w działach IT czy gotowością do odzyskania plików. – tłumaczy szybkie tempo zmian Chris Powell, CMO w Commvault.
Choć firma posiada ustabilizowaną pozycję w segmencie rozwiązań do zarządzania i ochrony danych, aczkolwiek rosnące potrzeby klientów, a także ofensywa nowej fali producentów ( Cohesity, Rubrik), nie pozwalają na bezczynność. Flagowym produktem Commvaulta jest oprogramowanie Complete Backup & Recovery – system zapewniający kompleksową ochronę danych znajdujących się na komputerach PC, serwerach fizycznych i wirtualnych, pracujących w różnych środowiskach IT.
W portfolio producenta znajdują się też Commvault Activate, narzędzie służące do analizy danych pochodzących z różnych źródeł: plików, e-maili, urządzeń końcowych, baz danych, chmur publicznych czy witryn internetowych. Jednak podczas spotkania z dziennikarzami w Menlo Park, menedżerowie amerykańskiego producenta skoncentrowali się na innych rozwiązaniach.
Nowe karty w talii Commvaulta
W obecnych czasach coraz mniej firm decyduje się na przechowywanie danych w pojedynczej lokalizacji. W większości przypadków przedsiębiorcy korzystają z rozwiązań hybrydowych, przesuwając część zasobów cyfrowych do zewnętrznego usługodawcy. Nowym zjawiskiem szybko przybierającym na sile jest korzystanie z usług chmurowych oferowanych przez kilku dostawców. Jak wynika z badań przeprowadzonych przez RightScale aż 84 proc. przedsiębiorstw posiada strategię dotyczącą multi-cloudu. Do nowych warunków muszą dostosować się dostawcy systemów do ochrony danych, co nie jest łatwym zadaniem. Commvault, aby nadążyć za tempem zmian zachodzących w segmencie systemów do zarządzania i ochrony danych, wykonał dwa kroki. Pierwszym jest zakup startupu Hedvig za 225 milionów dolarów. Co ciekawe, jest to pierwsze akwizycja w 23 letniej historii firmy.
Hedvig powstał w 2012 roku, a jego flagowym produktem jest Hedvig Distributed Storage Platform. System obsługuje pliki, bloki oraz obiekty w środowisku lokalnym, a także w chmurach AWS, Azure oraz Google, łącząc zasoby pamięci we wspólną pulę. Oprogramowanie oferuje m.in usługi replikacji, przywracania po awarii, kompresji oraz deduplikacji.
– Rozwiązanie opracowane przez Hedvig pozwoli nam dotrzeć do klientów, którzy dystrybuują dane w wielu serwerowniach, różnych obszarach geograficznych, w tym także środowiskach chmury publicznej. Dzięki połączeniu technologii Commvault oraz Hedvig będą mogli zapisywać i odzyskiwać dane w dowolnej lokalizacji przy zachowaniu elastyczności i optymalizacji. Hedvig jest dojrzałym produktem, a jedynym słabym punktem była strategia marketingowa – wyjaśnia Chris Powell,
Założycielem startupu jest nietuzinkowa postać – Lavinash Lakshman. To twórca nierelacyjnej bazy danych Cassandra dla Facebooka, a także współautor Amazon Dynamo NoSQL. Wraz z przejęciem objął w Commvault stanowisko Chief Storage Strategist
Jednym z najbardziej intratnych obszarów na rynku ochrony odzyskiwania danych jest oprogramowanie do tworzenia kopii zapasowych i odzyskiwania danych z SaaS. O ile konkurenci Commvaulta tworzą specjalne grupy produkty adresowane dla aplikacji chmurowych, o tyle zdecydował się wdrożyć nową markę Metallic. W ramach tego brandu firma oferuje trzy usługi Core, Office 365 oraz Endpoint Backup & Recovery. Klienci mogą wybrać roczną lub miesięczną subskrypcją.
– Produkty z oferty Mettalic sprzedajemy wyłącznie za pośrednictwem naszych partnerów. Mogą oni skorzystać z wersji trial dostępnej na witrynie internetowej. Oferujemy też automatyzowany mechanizm kierowania potencjalnych klientów do partnerów. Naszymi globalnymi dystrybutorami są Ingram Micro i Arrows. Ale jeśli na lokalnym rynku, także w Polsce, działają inni dystrybutorzy, to oczywiście nie widzimy żadnych przeszkód, żeby oferowali nasze usługi. – wyjaśnia Rob Kaloustian, Senior VC and General Manager of Metallic.
Artykuł Commvault w nowej odsłonie pochodzi z serwisu CRN.
]]>Artykuł Nowa siła na rynku pamięci masowych pochodzi z serwisu CRN.
]]>– Na rynku rozwiązań storage adresowanych dla klientów korporacyjnych pojawiają się zupełnie nowe możliwości. Zauważamy, że przedsiębiorcy oczekują kompleksowej oferty od jednego vendora. Wprawdzie w tym obszarze działa wiele startupów i każdy z nich deklaruje, iż posiada najszybsze systemy do przetwarzania i przechowywania danych, aczkolwiek klienci pochodzą do tego typu ofert nieufnie. – tłumaczy Kurt Kuckein Senior Director Marketing w DDN Storage.
W ubiegłym roku producent uratował stojące nad przepaścią Tintri (w czerwcu 2019 roku firma złożył w amerykańskim sądzie wniosek o upadłość według Rozdziału 11 Kodeksu Upadłościowego). DDN pozyskał tego vendora za 60 milionów dolarów. W pierwszych 12 miesiącach od daty przejęcia przychody ze sprzedaży produktów Tintri wyniosły 80 mln dolarów, zaś szefowie DDN zapewniają, że biznes jest rentowny i pracują nad dalszym rozwojem macierzy. Jak wiadomo Tintri opracowało system perfekcyjne współpracujący z maszynami wirtualnymi. DDN w pewnym stopniu kontynuuje tę misję, udoskonalając macierze. W pierwszym etapie producent wprowadził funkcjonalności pozwalające na głęboką integrację systemów z bazami danych SQL. Nie mniej istotną kwestią jest analityka. Tom Ellery, General Manager and SVP Field Operations w Tintri by DDN, uważa, iż macierze Tintri VMstore idealnie wpisują się w najnowsze trendy związane z rozwojem autonomicznych systemów pamięci masowych. Klienci zamiast analizować logi czy alerty, będą otrzymywać odpowiednio wyselekcjonowane porady. W tym kontekście pojawia się pojęcie inteligentnej infrastruktury, która wykorzystuje uczenie maszynowe oraz sztuczną inteligencję w celu usprawnienia operacji IT (AIOps). W bieżącym roku sprzedaż tego typu rozwiązań była śladowa, niemniej Gartner prognozuje, że w 2022 roku wartość segmentu rynku systemów AIOps przekroczy 5 miliardów dolarów.
SDS i szybkie macierze
Tintri to nie jedyna nową karta w talii DDN. W drugiej połowie bieżącego roku producent z Santa Clara kupił startup Nexenta oraz dział IntelliFlash od Western Digital. Pierwsza z wymienionych firm dostarcza rozwiązania Software Defined Storage (SDS), które mogą być wdrażane na serwerach x86 bare metal lub jako Virtual Storage Appliance (VSA). NexentaStore oferuje zunifikowane usługi plikowe (NFS i SMB) oraz blokowe (Fibre Channel i iSCSI), umożliwiając skalowanie pojemności do poziomu petabajtów.
Dużo większym echem w świecie pamięci masowych odbiła się transakcja zawarta pomiędzy DDN i Western Digital. Amerykański koncern dwa lata temu kupił Tegile Systems – startup specjalizujący się w konstruowaniu macierzy all flash i hybrydowych. Western Digital utworzył nawet specjalną dywizją Intelliflash, którą we wrześniu 2019 roku dość nieoczekiwanie odsprzedał DDN. Wartość transakcji nie została ujawniona, aczkolwiek producenci zapowiedzieli realizację wspólnej globalnej strategii. DDN zobowiązało się kupować od WD więcej dysków twardych oraz nośników SSD. Dzięki temu zakupowi portfoflio DDN powiększyło się o nowe modele macierzy: T Series (hybrydowe), HD Series (All-Flash), N Series (NVMe All-Flash). Analitycy i dziennikarze nie do końca wierzą w powodzenie tego projektu, zwłaszcza, że z rozwoju i sprzedaży IntelliFlash zrezygnował jeden z najważniejszych producentów działających na rynku storage.
– Myślę, że Western Digital nie potrafił znaleźć synergii z innymi produktami. Poza tym błędy, szczególnie popełniane przez wielkie koncerny, spowodowane są najczęściej niewłaściwą alokacją środków na sprzedaż i marketing. – mówi Tom Ellery,
To nie koniec HPC
Pomimo dużego zaangażowania w segmencie pamięci masowych, DDN nie zamierza rezygnować z rozwoju systemów HPC. Jeszcze do niedawna były one adresowane przede wszystkim dla instytutów badawczo-rozwojowych. Lista potencjalnych odbiorców nie był zatem zbyt długa, ale to się powoli zmienia. HPC znajduje coraz szersze zastosowania w biznesie, a zwłaszcza w instytucjach finansowych czy przemyśle motoryzacyjnym. Zmieniają się też produkty. Jak do tej pory superkomputery były przeznaczone do realizacji wielkoskalowych symulacji numerycznych. Innowacje wprowadzane przez DDN pozwalają pójść krok dalej i wykorzystać mechanizmy uczenia maszynowego, a także skalowalnej analizy danej. Producent z Santa Clara podczas spotkania z europejskimi dziennikarzami przedstawił m.in EXA5 – piątą generację rozwiązania EXAScaler bazującą na równoległym systemie plików Lustre Lustre v2.12. To produkty zoptymalizowany pod kątem pracy nie tylko z obciążeniami charakterystycznymi dla HCP, ale również AI. DDN oznajmił również, że EXA5 jest prostszy w implementacji oraz skalowaniu od poprzednich wersji EXAScaler. System można skonfigurować z napędami flash all-NVMe lub jako hybrydę z nośnikami SSD. Kolejną innowacją jest obsługa plików NFS/SMB, S3, co sprawia, że użytkownik uzyskuje dostęp do danych za pośrednictwem pojedynczej platformy.
Artykuł Nowa siła na rynku pamięci masowych pochodzi z serwisu CRN.
]]>Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>Wraz z Software Defined pojawiły się też obawy ze strony administratorów IT u klientów, związane z tym, że automatyzacja może ograniczać zapotrzebowanie na informatyków w firmach. Te zarzuty są przez integratorów odpierane.
– Dzisiaj na rynku brakuje inżynierów, a będzie brakować ich jeszcze bardziej. Automatyzacja nie odwróci tego trendu, a informatycy powinni zaznajamiać się z nowymi narzędziami bez względu, czy będzie to SDN, czy inne rozwiązanie – twierdzi Marcel Guzenda, Business Solutions Architect w Sevenecie.
Dziś wciąż trudno mówić o przełomie. O ile jednak SDN (Software Defined Networking), a także SDS (Software Defined Storage) czy całościowa koncepcja SDDC (Software Defined Data Center) nie zyskały jeszcze powszechnego uznania w przedsiębiorstwach, o tyle nowe technologie przyczyniły się do zmiany ukierunkowania branży IT – ze sprzętu na oprogramowanie. Warto dodać, że dwa lata temu Gartner radził, by przedsiębiorstwa koncentrowały się nie na wyborze i zakupie konkretnych rozwiązań SDN, ale na celach do osiągnięcia takich jak: zwiększona automatyzacja, większa elastyczność, niższe koszty i mniejsze uzależnienie od jednego dostawcy. I właśnie to integratorzy, którzy chcą oferować omawiane technologie, powinni mieć na uwadze.
Koncepcja SDN zapowiadała początek nowej ery w rozwoju sieci, z programowym, scentralizowanym kontrolerem oddzielonym od warstwy sprzętowej, protokołem sterowania OpenFlow, interfejsami API i niedrogimi urządzeniami sieciowymi. Rzeczywistość okazała się jednak bardziej skomplikowana, i to w momencie, gdy do akcji wkroczyli rynkowi potentaci branży IT.
Obecnie liderami rynku, walczącymi o pierwsze miejsce w sprzedaży SDN, są Cisco i VMware. Liczy się także Arista oraz dostawcy rozwiązań typu white box, a pierwszą piątkę zamyka Huawei.
SDN w wydaniu Cisco to oferta „sieci intuicyjnych” (Intent-Based Networking) z programową platformą Cisco DNA i narzędziem do centralnego zarządzania Cisco DNA Center. Jak twierdzi producent, dzięki tej platformie każde urządzenie sieciowe – przewodowe, bezprzewodowe lub szerokopasmowe – staje się częścią ujednoliconej architektury sieciowej (unified fabric), a działy IT w przedsiębiorstwach mogą łatwiej, bardziej ekonomicznie i skutecznie kontrolować infrastrukturę sieciową. Cisco zwraca uwagę na otwartość DNA Center, co ma ułatwiać klientom i partnerom firmy rozwijanie ekosystemu aplikacji.
Jak tłumaczy Marcel Guzenda z Sevenetu, jednego z parterów Cisco, zapotrzebowanie na programowalną infrastrukturę pojawiło się najpierw w centrach danych, co wynikało z konieczności automatyzacji, orkiestracji i szybszego tworzenia środowisk dla aplikacji, ale obecnie można mówić o Software Defined Everything. Wcześniej konfigurowanie serwerów, pamięci masowych, sieci i wirtualizacji to był długi proces. Obecnie trzeba wprowadzać zmiany z dnia na dzień, jeśli zażyczy sobie tego klient biznesowy.
– Wyobraźmy sobie, że w sieci dużej korporacji czy banku trzeba dodać 100 nowych przełączników. Jeśli są one podłączane do SDN, to w systemie nadajemy im role, a wówczas automatycznie spłyną do nich konfiguracje, polityki i wszystko to, co wcześniej zdefiniowaliśmy. Co ważne, dochodzi do zniwelowania różnic pomiędzy połączeniami kablowymi a bezprzewodowymi – przede wszystkim na poziomie zabezpieczeń – mówi Marcel Guzenda.
Klienci uzyskują dostęp do możliwości oprogramowania Cisco DNA w ramach subskrypcji, gdy kupią sprzęt tego producenta z nowej serii przełączników Catalyst 9000. Takie podejście do SDN, jedynie na własnej platformie sprzętowej, jest przedmiotem krytyki ze strony rywali Cisco. Przede wszystkim VMware’a, który podkreśla, że jego oprogramowanie do wirtualizacji i programowania sieci – NSX – można uruchamiać na dowolnym sprzęcie.
– Istotą działania sieci w modelu Software Defined jest wykorzystywane oprogramowanie, więc technologia ta jest niezależna od sprzętu. Jeśli mamy definiowaną programowo sieć, związaną z układami ASIC, to znacznie trudniej ją wdrożyć i zoperacjonalizować. Okazuje się też znacznie droższa, ponieważ trzeba kupić odpowiednie przełączniki – mówi w wywiadzie dla amerykańskiego CRN-a Tom Gillis, wiceprezes i szef działu Networking and Security w VMware.
Wdrażający SDN amerykańscy partnerzy Cisco zwracają jednak uwagę na duży zwrot z inwestycji, jaki uzyskują klienci, którzy dotąd sporo zainwestowali w opartą na układach ASIC architekturę sieciową Cisco. Do tego dochodzą tysiące wysoko wykwalifikowanych architektów sieciowych, zarówno w kanale sprzedaży, jak i po stronie klientów, mogących być ekspertami we wprowadzaniu bezpiecznej automatyzacji sieci. Bez porównania więcej integratorów dysponuje certyfikowanymi i przeszkolonymi inżynierami Cisco. Tych, którzy mają specjalistów od NSX-a, jest bardzo mało.
Cisco Intent-Based Networking
Cisco dużo inwestuje we własną platformę sieci intuicyjnej, która ma przewidywać zdarzenia, blokować zagrożenia bezpieczeństwa oraz stale się rozwijać i uczyć. Wraz z nią wprowadza do podstawowego portfolio sieciowego model oparty na subskrypcji i tworzy bardziej otwartą, programowo definiowaną architekturę. Producent udostępnia DNA Center – platformę kontroli i zarządzania dla sieci intuicyjnej, która umożliwia partnerom opracowywanie niestandardowych aplikacji i oferowanie klientom większego wyboru rozwiązań SDN. Firmy uzyskują dostęp do możliwości oprogramowania DNA w ramach subskrypcji, gdy kupią sprzęt z nowej serii przełączników Catalyst 9000.
VMware NSX Cloud
Nowa platforma NSX Cloud to część nowej strategii VMware’a. Rozwiązanie zapewnia spójne środowisko sieciowe i bezpieczeństwo aplikacjom działającym zarówno w prywatnych, bazujących na sprzęcie VMware centrach danych, jak i natywnie w chmurach publicznych (oferując funkcjonalności dla Microsoft Azure i AWS). Zadaniem NSX Cloud jest rozwiązanie problemów, które wynikają z wykorzystywania wielu chmur publicznych, takich jak niespójne reguły polityki, konieczność ręcznego ich tworzenia dla każdej chmury z osobna i używania specyficznych narzędzi w różnych chmurach publicznych.
Dell EMC Open Networking
Inicjatywę Open Networking producent rozpoczął w 2014 r. Ma ona być sposobem na propagowanie idei oddzielenia sieciowego sprzętu przełączającego od oprogramowania. Dell EMC stworzył Open Network Install Environment wraz z firmą Cumulus Networks, a następnie nawiązał współpracę z większą liczbą partnerów dostarczających sieciowy system operacyjny, w tym Big Switch Networks, IP Infusion i Pluribus Networks. Nie tak dawno udostępnił też własny system (OS10), który dezagreguje oprogramowanie sieciowe, oferując większy wybór sposobów jego wykorzystania. W obszarze SDN firma współpracuje także z Microsoftem.
DataCore SANsymphony
DataCore to producent, który nigdy nie posiadał własnej platformy sprzętowej i z ofertą SANsymphony jest jednym z pionierów w branży programowo definiowanej pamięci masowej. Rozwiązanie zapewnia typowy zestaw usług klasy enterprise świadczonych przez pamięć masową, która może się składać z wielu urządzeń rozproszonych w różnych lokalizacjach. SANsymphony umożliwia łączenie ich pojemności (wirtualizację) i zarządzanie nimi w sposób centralny i jednolity. Zapewnia także wysoką dostępność, asynchroniczną replikację przy odtwarzaniu po awarii oraz ciągłą ochronę danych.
NetApp Ontap Select
Rozwiązanie jest programowo definiowaną wersją platformy NetApp Ontap. Ontap Select można wdrażać na standardowym sprzęcie, przekształcając posiadane zasoby pamięciowe serwerów w platformę o funkcjonalności podobnej do tej, jaką zapewniają specjalistyczne macierze NetApp Ontap. Integruje się ona z oprogramowaniem do zarządzania w chmurze, takim jak OpenStack i VMware vSphere, i może być przeznaczona do wielu zastosowań – od rozwoju oprogramowania i testowania aplikacji po budowę centrum danych bazującego na pojedynczym serwerze.
VMware vSAN
VMware vSAN udostępnia programowo definiowaną technologię pamięci masowej przeznaczoną dla zwirtualizowanych i chmurowych środowisk VMware. Tworzy w nich pojedynczą pulę pamięci współużytkowaną przez wszystkie hosty w klastrze vSAN. Chociaż vSAN może być zakupiony jako samodzielne rozwiązanie, zwykle jest sprzedawany przez dostawców OEM w ramach gotowych sprzętowych platform Ready Nodes, jako komponent odpowiadający za pamięć masową w infrastrukturze hiperkonwergentnej Dell EMC VxRail lub jako część platformy programowo definiowanego centrum danych VMware.
Za to, co proponują zarówno Cisco, jak i VMware, trzeba sporo zapłacić. Obietnicą tanich sieci SDN kuszą producenci rozwiązań typu white box – przełączników bazujących na standardowych platformach sprzętowych, na których można wdrażać systemy operacyjne od niezależnych dostawców. I jak wykazują badania analityków rynkowych, taka oferta znajduje nabywców. Jednak dla klientów chcących wykorzystać w firmowych środowiskach produkcyjnych SDN jeszcze ważniejszą kwestię od samego rozwiązania stanowi wsparcie techniczne, o które w przypadku white box może być trudno.
Marcel Guzenda podkreśla, że w środowisku enterprise nie ma miejsca na eksperymenty. W przypadku wdrożenia SDN, gdy jest to np. platforma Cisco, producent bierze odpowiedzialność za ewentualne problemy i pomaga w ich rozwiązaniu.
– Gdy natomiast poszczególne elementy składamy z rozwiązań różnych dostawców, zaczyna się przerzucanie odpowiedzialności, mogą być kłopoty na przykład z walidacją – zauważa przedstawiciel integratora.
Połączyć z jednej strony ekonomiczność rozwiązania, z drugiej kwestie wsparcia, a z trzeciej możliwość instalowania jednego systemu operacyjnego dla SDN, wybranego spośród wielu różnych – próbuje Dell EMC. Tom Burns, wiceprezes i szef działu Networking and Solutions w tej firmie, zwraca uwagę, że tradycyjnie wdrażana sieć wymaga firmowych architektur, narzędzi do zarządzania, systemów operacyjnych i specjalizowanych układów scalonych (ASIC). W przypadku oferty Open Networking wykorzystuje się natomiast standardową architekturę i narzędzia do orkiestracji, opcjonalne kontrolery SDN/NVO, dowolny sieciowy system operacyjny oraz zgodny z otwartymi standardami sprzęt.
Przy takim podejściu SDN zapewnia wybór platform programowych, co ma umożliwiać wdrożenia bardziej zgodne z konkretnymi potrzebami. Jeden system może być najbardziej odpowiedni dla centrum danych, inny dla sieci kampusowych, a jeszcze inny ułatwi osiągnięcie największej wydajności sieci.
Według Arkadiusza Możdżenia, CTO i członka zarządu ds. rozwoju w S4E, oferta Dell EMC zyskuje uznanie mniejszych operatorów, którzy chcą otrzymać z jednej strony tanie rozwiązanie, z drugiej – wydajne. Zależy im na tym, by koszty utrzymania sieci w kolejnych latach były jak najniższe. Kupują więc sprzęt ze wsparciem i dokładają do tego wybrany sieciowy system operacyjny, którym potem zajmują się sami. Dlatego uwolnienie sprzętu od oprogramowania wymaga od klientów (albo integratorów, którzy będą chcieli świadczyć usługi zarządzania siecią) większych kwalifikacji.
– Klienci decydujący się na takie rozwiązanie mają swoich inżynierów, którzy potrafią później dostrajać tworzone w modelu SDN środowisko sieciowe. Tak jest w przypadku mniejszych ISP, kupujących dużo sprzętu i chcących robić to jak najtaniej – mówi CTO S4E.
Maciej Kałużyński, prezes zarządu One System
Obecnie największe zainteresowanie naszą ofertą programowo definiowanego centrum danych i sieci wykazują międzynarodowe korporacje, w których decyzje o wyborze rozwiązania podejmowane są przez zagraniczne działy IT. Wśród małych i średnich firm widać zainteresowanie tematem, ale na razie nie przekłada się ono na liczbę finalnych transakcji. Rozwiązania Software Defined, które nie wymagają zakupu zaawansowanego sprzętu i mogą być instalowane na łatwo dostępnych komponentach – zarówno znanych producentów, jak i tańszych dostawców – z założenia powinny być atrakcyjniejsze cenowo od rozwiązań tradycyjnych. Tymczasem w praktyce wielokrotnie przekonaliśmy się, że koszty licencji na przykład na Software Defined Storage przekraczają koszty zakupu klasycznej macierzy dyskowej. Właśnie w tym upatrujemy przyczyny wciąż niewielkiego zainteresowania tą technologią wśród małych i średnich przedsiębiorstw. Rozwiązania Software Defined to niewątpliwie bardzo interesujący kierunek, któremu wnikliwie się przyglądamy, ale obecnie traktujemy go raczej w kategoriach alternatywy dla tradycyjnej oferty niż jako pierwszy rekomendowany wybór.
Marcel Guzenda, Business Solutions Architect, Sevenet
Jest zainteresowanie SDN wśród klientów i mamy już za sobą pierwszą implementację w branży finansowej. Prowadzimy też sporo projektów na poziomie PoC, które mogą się zmienić we wdrożenia. Są dzisiaj trzy drogi do nowej technologii. Po pierwsze, jeśli kończy się cykl życia posiadanej infrastruktury, to zastąpią ją urządzenia sieciowe nowej generacji, które umożliwią budowanie środowiska w inny sposób. Wiele firm, wymieniając infrastrukturę, decyduje się na razie uruchomić ją w sposób tradycyjny, ale w przyszłości może zrobić to po nowemu. Drugie podejście to uruchomienie już dziś części funkcjonalności Software Defined – na przykład siecią zarządza kontroler, ale funkcje bezpieczeństwa są realizowane w sposób tradycyjny. Wreszcie trzeci wariant, dotyczący zupełnie nowych projektów, a nie migracji – to stuprocentowe wejście w SDN.
Kompetencje są istotne także z tego powodu, że SDN pod wieloma względami różni się od podejścia tradycyjnego. Mamy w tym przypadku do czynienia z nowymi protokołami oraz innymi spojrzeniami na architekturę sieci. Potrzeba wiedzy na poziomie inżynierskim, ale też umiejętności wytłumaczenia klientowi nowych rzeczy i pokazania z jednej strony korzyści na poziomie biznesowym, a z drugiej ograniczeń. Jeśli chodzi o wdrożenie, to dużo łatwej jest w przypadku projektu tworzonego od zera (green field).
– Wyzwaniem pozostaje migracja posiadanej sieci z dotychczasowymi regułami polityki, listami dostępu itp. – wszystko trzeba ustawiać na nowo. Ale później, gdy mamy już za sobą wdrożenie, w codziennej administracji zyskujemy dużą oszczędność pracy i czasu – wyjaśnia Marcel Guzenda.
Macierz dyskowa to w sumie mniej lub bardziej standardowy serwer ze zintegrowanym systemem operacyjnym, skonfigurowanym specjalnie do świadczenia usług przechowywania i udostępniania danych. Obecnie można zrezygnować z takiej specjalizowanej platformy sprzętowej i zdać się na oprogramowanie, które w formie programowo definiowanej pamięci masowej (SDS – Software-Defined Storage) będzie można uruchomić na powszechnie dostępnych i kompatybilnych z nim serwerach. W rezultacie uzyskuje się funkcjonalność podobną do tej, jaką zapewnia specjalistyczna platforma sprzętowa. Po stronie plusów należy wymienić większą elastyczność i niższą cenę (choć nie jest to takie pewne), natomiast po stronie wad – konieczność integracji i potencjalnie gorszą optymalizację sprzętową.
Jak zauważa Sławomir Karpiński, prezes Connect Distribution, rozwiązanie wcale nie jest nowe. Zaczęło po prostu funkcjonować pod inną nazwą. Przykładowo oferowane przez warszawskiego dystrybutora oprogramowanie DataCore znajduje się na rynku od 15 lat. Wcześniej było sprzedawane jako wirtualizator pamięci masowej, a dopiero od kilku lat, gdy specjaliści od marketingu spopularyzowali pojęcie Software Defined Storage, Storage, oferowane jest w tej kategorii.
– Bez względu na terminologię chodzi o oprogramowanie, którego zadaniem jest przedefiniowanie zwykłego serwera z dyskami w celu uzyskania elastycznego, konfigurowalnego, wysokofunkcjonalnego urządzenia pamięci masowej – wyjaśnia Sławomir Karpiński.
Czy rzeczywiście SDS to rozwiązanie przyszłościowe, elastyczne i tańsze? W teorii tak być powinno. Przyszłościowe dlatego, że według założeń za wydajność i skalowalność rozwiązania odpowiada oprogramowanie, które decyduje o jego parametrach. Można w nim błyskawicznie wprowadzać nowe algorytmy i technologie, takie jak modne dziś uczenie maszynowe oraz elementy sztucznej inteligencji.
Powinno być także tańsze (choć z tym obecnie bywa różnie), bo platforma sprzętowa, która ma znacznie większe bariery rozwoju – z uwagi na fizyczne i technologiczne ograniczenia – jest w przypadku SDS mniej istotna. Oprogramowanie zwykle wymaga, aby były spełnione pewne warunki dotyczące architektury, natomiast kwestia tego, kto jest producentem danego komponentu, schodzi na dalszy plan.
– A jeżeli dopuszczamy sprzęt różnych producentów, to zwiększa się konkurencja. Co za tym idzie spadają ceny komponentów, a w konsekwencji całego rozwiązania – podkreśla Sławomir Karpiński.
Tradycyjne rozwiązania z zakresu pamięci masowej mają architekturę, której geneza sięga lat 70. Od tego czasu zwiększyła się pojemność i szybkość dysków, pojawiły się dyski flash, przyspieszyły procesory, ale w większości macierzy stosuje się wciąż tę samą architekturę bazującą na dwóch kontrolerach, pamięci cache oraz wykorzystujących strukturę RAID zabezpieczeniach przed utratą danych wskutek awarii. Dodatkowo macierze różnych producentów niechętnie się ze sobą komunikują, tworząc system silosowy, który z natury rzeczy jest drogi w zakupie, nie wspominając o braku elastyczności. Dlatego w porównaniu z tradycyjnym podejściem SDS daje nadzieję na niższe koszty, większą elastyczność, skalowalność, a przed wszystkim otwartość na przyszłe innowacje.
Sławomir Karpiński, prezes zarządu Connect Distribution
Klienci i integratorzy zainteresowani nowatorskimi rozwiązaniami, do jakich zalicza się SDS, są w zdecydowanej mniejszości. Mam jednak wrażenie, że w obu grupach jest coraz większa otwartość na takie tematy. Standardem wciąż pozostaje podejście oportunistyczne, w którym preferuje się zakup tradycyjnej macierzy jako bezpiecznej, obarczonej mniejszym ryzykiem od rozwiązań innowacyjnych, ale mniej popularnych. Wynika to też z polityki marketingowej wiodących dostawców, którzy chcą promować swoje tradycyjne produkty tak długo, jak rynek będzie w stanie je zaakceptować. Zwłaszcza gdy dany dostawca nie ma w swojej ofercie SDS albo rozwiązania tradycyjne generują wyższą marżę.
Arkadiusz Możdżeń, CTO i członek zarządu ds. rozwoju S4E
Firmy interesują się programowalnymi sieciami, kiedy na przykład chcą ograniczyć koszty połączeń, które wcześniej wykorzystywały MPLS. Dzięki programowalności SD-WAN jesteśmy w stanie zapewnić podobne parametry komunikacji (niezawodność, opóźnienia itp.) przy wykorzystaniu internetu. I to się udaje. Z kolei w przypadku SDS atrakcyjna dla użytkowników końcowych jest możliwość stworzenia takiego środowiska pamięci masowej, w którym da się podłączać platformy sprzętowe od różnych producentów i wszystkim centralnie zarządzać. Nie można jednak mówić jeszcze o wyraźnym dążeniu partnerów i ich klientów do wdrażania rozwiązań, które działają w zupełnie nowy sposób. Jeśli tradycyjny model działa, sporo się w niego do tej pory zainwestowało (chociażby w certyfikaty) i wszyscy na nim zarabiają, to nikt szczególnie nie pali się do zmiany.
Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>Artykuł TOP 10: Software-Defined Storage pochodzi z serwisu CRN.
]]>
Artykuł TOP 10: Software-Defined Storage pochodzi z serwisu CRN.
]]>Artykuł Nowy gracz na europejskim rynku pamięci masowych pochodzi z serwisu CRN.
]]>-Chcemy się wyróżnić podejściem do klientów. W pubach i restauracjach pracują setki tysięcy barmanów. Obok tych, którzy zajmują się wyłącznie nalewaniem piwa, pracują wysokiej klasy specjaliści. Ci ostatni potrafią doskonale wyczuć nastrój gościa i jakiego drinka mu zaproponować. W podobnym stylu zamierzamy obsługiwać naszych klientów – uśmiecha się Eric Chen, CEO firmy ProphetStor.
Startup dąży, aby jego rozwiązania stały się dla pamięci masowych i obsługi danych czymś na wzór Google Maps. Eric Chen ceni tę usługę za szerokie możliwości w zakresie prognozowania oraz analizy w czasie rzeczywistym.
ProphetStor posiada w swoim portfolio cztery rozwiązania. Kluczową rolę spełnia Fedarator – platforma przeznaczona do zarządzania zasobami pamięci masowych, które mogą pochodzić od różnych vendorów. Ofertą uzupełniają StellarFlash – urządzenia pamięci masowej w konfiguracji all-flash lub hybrydowej, oraz narzędzia DRProphet, realizujące zadania związane z disaster recovery, a także DiskProphet, służący do analizy i predykcji danych.
ProphetStor powstał w 2012 roku, a jednym z jego założycieli jest Eric Chen, który wcześniej współtworzył FalconStor, producenta oprogramowania zarządzającego systemami pamięci masowych. Jak do tej pory fundusze venture capital zasiliły startup kwotą 120 mln dolarów.
Główna siedziba ProphetStor mieści się w kalifornijskiem mieście Milpitas. Firma posiada też sześć biur w regionie Azji i Pacyfiku, a niedawno otworzyła nową placówkę we francuskiej miejscowości Versailles. Obecność w Europie wiążę się z początkiem ekspansji na rynek EMEA. Osobą odpowiedzialną za sprzedaż w tej części globu jest Guillaume Imberti, menedżer od 25 lat związany z branżą IT, pracował m.in dla FalconStore oraz Seagate Software.
Szefowie ProphetStor duże nadzieje pokładają w procesie migracji przedsiębiorstw do tzw. trzeciej platformy, opartej na czterech technologicznych filarach: chmurze obliczeniowej, rozwiązaniach mobilnych, mediach społecznościowych oraz wielkich zbiorach danych (Big Data). Według danych IDC do 2020 roku około 40 proc. przychodów w branży IT, czyli 1.7 mld dolarów, będzie związanych ze sprzedażą produktów i usług związanych z trzecią platformą.
– Zastosowanie narzędzi wyszukiwawczych i analitycznych, sztucznej inteligencji i uczenia maszynowego w systemach pamięci masowych i usługach danych jest niezbędne w procesie transformacji do nowczesnego centrum danych, wykorzystującego systemy Software Defined Data Center – mówi Eric Chen
Według danych MarketsandMarkets globalny rynek oprogramowania Software Defined Data Center osiągnie wartość 83 mld w 2021 roku, zaś skumulowany wskaźnik wzrostu latach 2015 -2019 wyniesie 31 proc.
Artykuł Nowy gracz na europejskim rynku pamięci masowych pochodzi z serwisu CRN.
]]>Artykuł HPE inwestuje w obiecujący startup pochodzi z serwisu CRN.
]]>Hedvig zamierza przeznaczyć środki na dalszy rozwój oferty, a także wejście na rynek azjatycki oraz australijski. Startup posiada już kilku partnerów w Europie, przede wszystkim w Niemczech i Szwecji.
Inwestycja HPE pomoże lepiej dostosować Hedvig Distributed Platform do architektury hybrydowej. Rolę doradcy technicznego Hedviga ma pełnić Milan Shetti, CTO Data Center Infrastructure Group w HPE.
Założycielem startupu jest Avinash Lakshman, twórca nierelacyjnej bazy danych Cassandra dla Facebooka, a także współautor Amazon Dynamo NoSQL. Analitycy Gartnera w 2016 roku umieścił Hedvig na liście „Cool Vendors in Storage Technologies 2016”.
Artykuł HPE inwestuje w obiecujący startup pochodzi z serwisu CRN.
]]>