Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Te dwa ostatnie problemy nasiliły się w czasie pandemii, kiedy trzeba było w ekspresowym tempie zapewnić dostęp do informacji osobom pracującym w domach. Jednym z najprostszych, choć niekoniecznie najtańszych sposobów było wykupienie usług Amazona czy Microsoftu. To jednak zrozumiała decyzja, jeśli wziąć pod uwagę, że w gorącym okresie nie było czasu na wnikliwe analizy. I choć pośpiech nie jest najlepszym doradcą, to nigdy nie jest za późno, aby sporządzić bardziej wnikliwe kalkulacje i lepiej dostosować się do zmieniających warunków. Jest to możliwe nie tylko dzięki elastyczności usług chmurowych, ale także narzędziom ułatwiającym procesy związane z przetwarzaniem i przechowywaniem danych. Co ważne, dostawcami tego typu rozwiązań są na ogół bardzo młode firmy, które mają świeże spojrzenie na kwestie związane z zarządzaniem plikami i obiektami.
Nasuni jest jednym z wielu startupów szukających sobie miejsca w segmencie chmury hybrydowej. To rynek, przed którym rysują się bardzo ciekawe perspektywy. Analitycy z MarketsandMarkets prognozują, że w 2023 r. jego wartość sięgnie 97 mld dol. (w 2018 było to 44 mld dol.). Nasuni postawiło sobie za cel zastąpienie konwencjonalnych serwerów i systemów NAS usługami przechowywania plików w chmurze. Szefowie startupu przekonują, że przechowywanie danych nieustrukturyzowanych w chmurze publicznej wymaga specjalnych rozwiązań. Najwięcej trudności sprawia obsługa plików przechowywanych w chmurze mocno oddalonej od użytkowników. Nasuni chce zoptymalizować produktywność pracowników, jednocześnie zmniejszając koszty i oszczędzając zasoby IT.
W tym celu firma opracowała globalny system plików UniFS, który integruje się z obiektową pamięcią masową i może być skalowany bez ograniczeń w ramach Amazon, Azure lub Google Cloud. System realizuje takie funkcje jak tworzenie kopii zapasowych, synchronizacja plików czy odzyskiwanie danych po awarii. Według specjalistów Nasuni ostatni z wymienionych procesów może trwać jedynie 15 minut.
Nasuni obsługuje najważniejsze protokoły, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Użytkownicy uzyskują dostęp do plików za pośrednictwem Nasuni EdgeAppliance, czyli maszyn wirtualnych lub urządzeń x86 z zainstalowanym oprogramowaniem tej marki. Obszar, w którym porusza się amerykański startup, ma spory potencjał.
Analitycy IDC szacują, że w latach 2021–2025 średnia stopa wzrostu ze sprzedaży usług związanych z przechowywaniem plików w chmurze wyniesie 41 proc. i w 2025 r. osiągnie wartość 4 mld dol., czyli niemal pięć razy więcej niż w ubiegłym roku. Warto podkreślić, że w przypadku pamięci obiektowej prognozy mówią o 21 proc. wzroście, aczkolwiek wielkość uzyskiwanych obrotów zdecydowanie przekroczy te uzyskiwane w segmencie przechowywania plików.
– Chcemy za kilka lat zgarniać z rynku około 5 miliardów dolarów rocznie. Jak na razie możemy pochwalić się 120-procentową stopą wzrostu przychodów. Co istotne, około 30 procent naszych wpływów pochodzi ze współpracy z wielką trójką: Amazonem, Microsoftem i Google’em – mówi Paul Flanagan, CEO Nasuni.
Co ciekawe, Nasuni jednocześnie konkuruje z wymienionymi koncernami. Swojej szansy upatruje w tym, że Amazon czy Microsoft koncentrują się na usługach przechowywania danych bazujących na pamięci obiektowej, a ich oferta w zakresie plików nie pokrywa potrzeb szerokiej grupy odbiorców. Z kolei bardzo ważnym graczem w tym sektorze jest NetApp, z którym Nasuni musi ostro rywalizować o klientów. Zresztą Paul Flanagan przyznaje, że około 40 proc. przychodów jego firmy generują klienci przejęci od konkurencji.
Niewykluczone, że plany Nasuni częściowo pokrzyżuje David Flynn. Ten przedsiębiorca z Kalifornii jako pierwszy wprowadził na rynek nośniki SSD z interfejsem PCI. W 2014 r. jego firma Fusion-io została przejęta za 1 mld dol. przez SanDisk. Niedługo potem Flynn wystartował z nowym projektem Primary Data, a więc platformą do zarządzania danymi (funkcję Chief Scientist pełnił wtedy w tej firmie Steve Wozniak).
Chociaż Primary Data była firmowana przez znane postacie i pozyskała 60 mln dol. od funduszy venture capital, przetrwała jedynie cztery lata. Jednak sam David Flynn nie złożył broni i w 2010 r. założył startup Hammerspace, będący w pewnym stopniu kontynuacją wcześniejszego przedsięwzięcia. Firma opracowała Global Data Environment (GDE), który unifikuje rozproszone silosy plików i obiektów w pojedynczy zasób sieciowej pamięci masowej (NAS). W ten sposób zapewnia się aplikacjom dostęp na żądanie do nieustrukturyzowanych danych w lokalnych chmurach prywatnych, hybrydowych lub publicznych. Idea polega na tym, żeby punkty dostępu do danych były aktualizowane za pomocą metadanych GDE. W rezultacie cyfrowe zasoby są cały czas widoczne i można do nich uzyskać dostęp z dowolnego miejsca.
– Przedsiębiorcy potrzebują rewolucyjnego podejścia do dostępu do danych. Nasze rozwiązanie przełamuje ograniczenia techniczne występujące podczas przechowywania plików. W ten sposób zwalniamy firmowe zespoły IT z niekończącej się pracy, mającej na celu łączenie różnych systemów pamięci masowej – tłumaczy David Flynn.
Z punktu widzenia użytkownika operacja jest prosta, bo wystarczy połączyć się z systemem, aby uzyskać dostęp do wszystkich danych. Przy czym niezależnie od tego, czy znajdują się w lokalnej pamięci masowej w wielu witrynach, na platformie AWS, Azure czy GCP, pliki pojawiają się w folderach tak, jakby znajdowały się na lokalnym serwerze NAS. Dostęp dla użytkowników i aplikacji odbywa się przez NFS lub SMB, a także przez sterowniki CSI, jeśli dane są odczytywane lub zapisywane przez aplikacje uruchomione na platformie Kubernetes.
Jednym z klientów Hammerspace jest kanadyjskie studio animacji Global GFX. Firma zatrudnia animatorów rozsianych po całym świecie. GDE umożliwia im zachowanie ciągłości produkcji, gdy na przykład europejscy pracownicy wylogowują się wieczorem, a koledzy z półkuli zachodniej w tym samym czasie kontynuują pracę.
– To tak, jakby wszyscy byli w tym samym pokoju, mimo że są oddzieleni kilkoma strefami czasowymi – tłumaczy Floyd Christofferson, szef produktu w Hammerspace.
Hammerspace działa w podobnym segmencie rynku co Nasuni czy CTERA, które również zapewniają spójny dostęp do plików w różnych lokalizacjach geograficznych, jednakże obie firmy wykorzystują chmurę publiczną jako miejsce przechowywania danych.
– Zasadniczo różnimy się od naszych konkurentów. Oni skupiają się na infrastrukturze i buforują dane. To, co robimy, to całkowite oddzielenie danych od dowolnej infrastruktury – tłumaczy David Flynn.
Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Flagowym produktem Strong Box Data jest platforma StrongLink, przeznaczona do zarządzania zasobami przechowywanymi na heterogonicznych systemach pamięci masowej. System obsługuje pliki znajdujące się zarówno w chmurze publicznej, jak i środowisku lokalnym, radzi też sobie z różnymi rodzajami nośników – twardymi, pamięciami flash oraz taśmami. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub rozwiązaniach sprzętowych. Z platformy korzysta Niemieckie Centrum Opracowań Klimatologicznych, które gromadzi 150 PB danych na pięciu bibliotekach taśmowych pochodzących od różnych producentów.
– Organizacje prowadzące operacje na dużych zbiorach danych często zadają sobie pytania: co mam, gdzie to aktualnie się znajduje, w jakim miejscu powinno być umieszczone, jak korzystają z tego pracownicy. Zastosowanie naszej platformy powoduje, że tego typu dylematy znikają – tłumaczy Floyd Christofferson, CEO StrongBox Data.
Dane niczym zombie
O dane klientów korporacyjnych ze Strong Box Data konkuruje startup Komprise. Platforma Komprise Intelligent Data Management służy do obsługi nieustrukturyzowanych danych, a także ich archiwizacji, analizy, umożliwiając dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System nie wykorzystuje żadnych agentów, bazuje na otwartych standardach i zapewnia natywny dostęp z dowolnej lokalizacji.
– Naszym celem jest uzmysłowienie menedżerom, że istnieje zjawisko, które określamy jako „dane zombie”. Firmy niepotrzebnie tracą mnóstwo czasu, energii i pieniędzy na przechowywania i przetwarzania zbędnych zasobów cyfrowych – tłumaczy Krishna Subramanian, COO Komprise.
Założyciele tego kalifornijskiego startupu z siedzibą w Campbell twierdzą, że mnogość rozwiązań oferowanych na rynku pamięci masowych pogłębia chaos, a firmy popełniają kardynalne błędy, takie jak kupowanie nadmiarowej przestrzeni dyskowej czy traktowanie chmury jako taniej szafki do przechowywania plików. Niektórzy klienci Komprise przyznają, że udało im się zredukować koszty związane z backupem oraz przechowywaniem informacji nawet o 70 proc., inni wskazują na kilkunastokrotne przyspieszenie procesu migracji danych. Krishna Subramanian przyznaje, że trwająca pandemia nie wpływa negatywnie na prowadzony biznes. Wręcz przeciwnie, w ubiegłym roku pojemność nieustrukturyzowanych danych usługodawców, którymi zarządza Komprise wzrosła o 380 proc. Na liście klientów tej firmy znajduje się wiele znanych koncernów, w tym Pfizer, ATT, Qualcomm czy Raytheon. Niewykluczone, że już wkrótce firma pozyska nowych klientów na Starym Kontynencie – w styczniu podpisała ogólnoeuropejską umowę z Tech Datą.
(De)centralizacja w hurtowniach danych
Przyrost danych to tylko jedno z wyzwań stojących przed dużymi przedsiębiorstwami. Nie mniej uciążliwe staje się zapanowanie nad złożoną infrastrukturą, która sprawia, że firmy gubią się w gąszczu cyfrowych zasobów. W efekcie, według IDC, pracownicy mogą spędzać nawet ponad 70 proc. swojego czasu na wyszukiwanie i przygotowywanie danych do analizy.
– Dlatego ze swojej strony zamierzamy zapewnić naszym klientom elastyczność w realizacji zadań analitycznych w oparciu o ich środowiska lokalne i chmurowe. Wiele organizacji zainwestowało poważne środki finansowe w infrastrukturę lokalną, aby zarządzać swoimi danymi. Nie zamierzają z tego zrezygnować, a przenoszenie wszystkiego do chmury nie ma sensu. Zauważamy, że firmy stawiają na hybrydowe podejście do analityki – mówi George Shahid, CEO Datameer.
Ta kalifornijska firma oferuje chmurową platformę obsługującą pełny cykl życia danych – od ich odkrywania, poprzez analizę i transformację z różnych źródeł, aż po katalogowanie artefaktów analitycznych. Datameer działa na rynku od dwunastu lat i skupia przede wszystkim klientów z sektora finansowego, w tym HSBC, Deutsche Bank, Citi czy American Express. Najnowsze rozwiązanie Datameer Spotlight zapewnia użytkownikom dostęp do dowolnego źródła danych – zarówno w środowisku lokalnym, jak i chmurze, w tym hurtowni danych i jezior danych oraz dowolnych aplikacji. Platforma pozwala łączyć i tworzyć nowe wirtualne zestawy danych za pośrednictwem interfejsu wizualnego (lub edytora kodu SQL dla bardziej zaawansowanych), bez konieczności replikacji danych.
– Obecne podejście do wykorzystania informacji do celów analitycznych nie zmienia się od prawie trzech dekad. Organizacje przesyłają wszystkie dane przedsiębiorstwa do scentralizowanej hurtowni danych lub jeziora danych, co jest kosztownym i czasochłonnym procesem – zauważa George Shahid.
Udane debiuty takich firm jak Snowflake czy Fivetran, oferujących usługi w chmurze publicznej, ożywiły nieco skostniały rynek pamięci masowych. Dzięki temu użytkownicy nie muszą inwestować w nadmiarową pamięć masową i dokonywać lokalnych obliczeń. Niestety, podstawowy paradygmat duplikowania i centralnego przechowywania danych, pozostaje taki sam. Datameer zachęca przedsiębiorców do podjęcia odważniejszych kroków. Ale trudno powiedzieć, czy niewielkiej firmie uda się przełamać hegemonię wymienionych wcześniej firm i weteranów, takich jak Oracle, Teradata czy Informatica.
SaaS: dane bez ochrony
Migracja zasobów do chmury publicznej nie zwalnia szefów działów IT od odpowiedzialności za dane. Szczególnie ciekawym przypadkiem jest rynek SaaS. Microsoft, AWS czy Salesforce zobowiązują się do zapewniania dostępności usług, zachowania prywatności przechowywanych informacji czy fizycznej ochrony infrastruktury. Nie biorą natomiast odpowiedzialności za tzw. zagrożenia wewnętrzne, czyli przypadkowe skasowanie danych, sabotaż ze strony pracowników czy cyberataki. Niestety, większość użytkowników nie zdaje sobie z tego sprawy, aż do czasu pierwszej utraty danych. Dostawcy usług nie kwapią się zbytnio do tego, żeby uświadamiać klientów, tym bardziej, że na nieroztropnych użytkownikach można nieźle zarobić. Na przykład Salesforce każe sobie płacić za odzyskanie danych 10 tys. dol., a czas oczekiwania na realizację usługi to 6 do 8 tygodni.
To wszystko nie zmienia faktu, że segment systemów backupu dla SaaS rozwija się w ostatnim czasie dość dynamicznie. Największe możliwości wyboru mają użytkownicy Office 365, którzy mogą korzystać z rozwiązań takich producentów jak Acronis, Barracuda, Commvault czy Veeam. Od niedawna do tego grona dołączył amerykański startup HYCU. Pierwszym produktem HYCU było oprogramowanie do backupu systemów Nutanix, które zadebiutowało na rynku niespełna trzy lata temu. Było to unikalne rozwiązanie na rynku i żaden z producentów nie zdecydował się na podobny krok. Od tego czasu ten startup, z siedzibą w Bostonie, powoli rozwija ofertę dokładając narzędzia do backupu dla Google Cloud, AWS czy Microsoft Azure. Najnowszy produkt HYCU Protégé dla Microsoft Office 365 zapewnia natywne tworzenie kopii zapasowych i odzyskiwanie w chmurze dla Outlooka, Teams, SharePointa, OneDrive’a i OneNote’a. W segmencie systemów do backupu Office 365 robi się więc coraz bardziej tłoczno.
Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Artykuł Tech Data poszerza europejską ofertę pochodzi z serwisu CRN.
]]>Dystrybuuowane rozwiązanie pozwala na analizowanie, przenoszenie danych, zarządzanie nimi, dostęp do właściwych plików oraz danych obiektowych w chmurach i hybrydowych środowiskach IT.
Celem jest wsparcie jednostek IT w migracji dużych obciążeń lub przenoszeniu danych między klasami i warstwami pamięci masowej oraz optymalizowaniu kosztów, dzięki automatyzacji.
Za sprzedaż rozwiązań Komprise w Polsce odpowiada Rafał Kupis, Data, Analytics & IoT Business Development Manager, Tech Data.
Artykuł Tech Data poszerza europejską ofertę pochodzi z serwisu CRN.
]]>