Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.
]]>Jednym z przykładów jest amerykański startup HYCU, który w minionych miesiącach dwukrotnie otrzymał silne wsparcie finansowe. Najpierw, w czerwcu br., Acrew Capital, Bain Capital Ventures (BCV), Atlassian Ventures oraz Cisco Investments przeznaczyły na rozwój startupu 54 mln dol. Zaledwie cztery miesiące później inwestorem strategicznym HYCU został fundusz Okta Ventures. Wprawdzie nie ujawniono kwoty jego zaangażowania w ten biznes, aczkolwiek włączenie się tego inwestora do gry otwiera przed HYCU szereg możliwości rynkowych, o czym trochę później.
Simon Taylor, CEO HYCU, w jednym ze swoich wystąpień przyznał, że zanim wystartował z nowym projektem, wspólnie z zespołem prześledzili historię rynku ochrony danych.
– Veritas był świetny dla systemów Unixa, Commvault dla Windowsa, zaś Veeam sprawdził się w środowisku VMware’a. Jak jednak ludzie mają chronić swoje dane w środowisku wielochmurowym? – pyta Simon Taylor.
Nic dziwnego, że motto amerykańskiego startupu to: „Dane w dowolnym miejscu, ale chronione wszędzie”. HYCU stawia sobie za cel eliminację silosów danych i zapewnienie kompleksowej ochrony cyfrowych zasobów. Zdaniem Simona Taylora największą przyczyną tego chaosu jest postępująca adaptacja usług chmurowych, a zwłaszcza SaaS. Obecnie w Stanach Zjednoczonych działa około 15 tysięcy dostawców SaaS, a przeciętnie przedsiębiorstwo korzysta ze 150 aplikacji chmurowych.
HYCU rozpoczęło swoją działalność w 2017 r. od opracowania systemów backupu dla infrastruktury hiperkonwergentnej Nutanixa, a następnie stopniowo rozszerzała swoją ofertę w zakresie ochrony danych. Rok później pojawiło się rozwiązanie dla Google Cloud, a następnie dla AWS, Azure, VMware, Office 365 i Kubernetes. Flagowy produkt HYCU Protégé zapewnia ochronę i migrację danych w wielu chmurach.
Rozwiązania do backupu danych znajdujących się w środowisku chmurowym różnią się pod wieloma względami od tradycyjnych produktów.
– Jednym z przykładów jest deduplikacja. Musieliśmy opracować specjalną wersję dla środowiska chmurowego. Jak wiadomo, jest to funkcja wymagająca dużej mocy obliczeniowej. O ile w systemach pracujących lokalnie nie stanowi to wielkiej przeszkody, o tyle w chmurze znacznie obniża wydajność – wyjaśnia Subbiah Sundaram, Senior Vice President HYCU.
Przyszłość startupu wygląda dość obiecująco, zwłaszcza w kontekście współpracy z Oktą, która dostarcza platformę zarządzania tożsamością. HYCU uzyskuje dostęp do interfejsów API, technologii i wiedzy inżynieryjnej Okta, a także 15 tys. potencjalnych klientów.
Amerykańska firma N-able, podobnie jak HYCU, stawia na ochronę danych w chmurze. Wcześniej startup ten należał do SolarWinds, ale ich drogi rozeszły się w ubiegłym roku. N-able już jako samodzielny podmiot wystartował z nową marką Cove Data Protection. Prawdopodobnie nie byłoby to możliwe bez 250 mln dol. włożonych w projekt przez grupę inwestorów, w tym Canada Pension Plan Investment Board. Firma wprowadziła na rynek usługę SaaS, przeznaczoną do tworzenia kopii zapasowych oraz przywracania danych, obejmującą ochronę serwerów, stacji roboczych i platformy Microsoft 365.
– Produkt został opracowany przede wszystkim na potrzeby dostawców zarządzanych. Klienci nie potrzebują żadnych urządzeń, a kopie zapasowe mogą być przechowywane w jednym z 30 centrów danych, w których kolokujemy nasz sprzęt – wyjaśnia Chris Groot, General Manager Cove Data Protection.
Warto dodać, że firma nie zamyka się na klientów, którzy chcą przechowywać kopie zapasowe w środowisku lokalnym i istnieje opcja, która pozwala na wykorzystanie własnego serwera NAS.
Co ważne, N-able nie tworzy kopii zapasowej obrazu, lecz backup plików. W tym pierwszym przypadku można utworzyć kopię dysku wraz z systemem operacyjnym oraz zainstalowanymi wcześniej programami i ustawieniami. Natomiast backup plików nie obejmuje historii przeglądarki, dzienników, systemu operacyjnego i skupia się na kopiowaniu danych zapisanych w bibliotekach, pulpicie czy folderach domyślnych. Najczęściej są to dokumenty, zdjęcia i filmy.
– Kopie zapasowe oparte na obrazach są dalekie od ideału, zwłaszcza dla dostawców usług zarządzanych. Takie rozwiązanie oznacza zarządzanie pamięcią masową w wielu lokalizacjach, spędzanie zbyt dużo czasu na szukaniu i rozwiązywaniu problemów oraz niepotrzebną złożoność. Czas personelu to najcenniejszy zasób MSP, a także jego największy wydatek – wyjaśnia Chris Groot.
Tradycyjne pliki kopii zapasowych obrazów są duże, przez co tworzenie kopii zapasowych w chmurze jest czasochłonne i nieefektywne. N-able wylicza, że zastosowanie alternatywnej metody powoduje, że przyrostowe kopie zapasowe stanowią często tylko 10 do 20 procent całkowitego zmienionego rozmiaru plików.
– Jeśli więc zmodyfikowano 2 GB plików, ostatecznie zostanie zarchiwizowane tylko 200–400 MB – tłumaczy Chris Groot.
Segment usług oferowanych przez N-able doczekał się już własnej nazwy – Data Protection as a Service (DPaaS), czyli ochrona danych łącząca długoterminowe przechowywania kopii zapasowych oraz odzyskiwania po awarii. Akronim nie jest jeszcze zbyt popularny, ale rywalizacja pomiędzy dostawcami tej usługi zapowiada się interesująco. W tym kontekście sporo do powiedzenia powinny mieć takie formy, jak: Cohesity, Commvault (Metallic), Veeam czy wspomniane wcześniej HYCU. Co ciekawe, N-able bardzo poważnie myśli o polskim rynku i w związku z tym Chris Groot w listopadzie br. ma odwiedzić Warszawę.
Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.
]]>Artykuł HPE GreenLake: pamięci masowe do usług pochodzi z serwisu CRN.
]]>– Najprościej wyjaśnić, czym jest HPE GreenLake Platform, następującym stwierdzeniem: tym czym Azure jest dla Microsoftu, bądź Amazon Web Services dla Amazona. Największą różnicą między wymienionymi ofertami jest to, że w przypadku HPE GLP sprzęt wraz z danymi fizycznie pozostaje u klienta, natomiast zarządzanie odbywa się poprzez platformę wystawioną w chmurze publicznej HPE – wyjaśnia Marcin Tymieniecki, HPE Business Developement Manager w Also.
HPE GreenLake zapewnia kontrolę, widoczność, jak również szybki oraz łatwy dostęp do kilkudziesięciu usług chmurowych. Zaletą jest jedna platforma służąca do zarządzania, ułatwiająca automatyzację oraz wdrażanie hybrydowej strategii w przedsiębiorstwie. Z platformy HPE GreenLake korzysta obecnie ponad 1600 klientów korporacyjnych.
Antonio Neri, CEO HPE, zapowiedział w 2019 r., że do końca roku 2022 wszystkie produkty firmy będą dostępne w modelu as-a-service. Szef HPE podczas jednego ze swoich wystąpień obiecał również, że nigdy nie obciąży klientów kosztami za wyjście z chmury, tak jak robią to dostawcy z „wielkiej trójki”. Trzeba przyznać, że Antonio Neri dotrzymuje słowa i systematycznie poszerza portfolio HPE GreenLake. Podczas Discover 2022 ogłosił rozszerzenie platformy o osiem nowych usług chmurowych umożliwiających modernizację wszystkich aplikacji i danych, od brzegu sieci po chmurę. Wśród nowinek znalazły się między innymi: HPE GreenLake for Block Storage oraz HPE GreenLake for Backup & Disaster Recovery Service.
Świat nowych technologii w ostatnich latach mocno przyspieszył, co nie pozostaje bez wpływu na postawy klientów. W obecnych czasach mają oni coraz mniej czasu na wgłębianie się w detale dotyczące osiągów technicznych i wydajnościowych serwerów czy macierzy dyskowych.
– Większość organizacji szuka czegoś w rodzaju przycisku pozwalającego na łatwy zakup rozwiązania IT, a potem jego bezproblemowe używanie. Te warunki spełnia HPE Green Lake for Block Storage – zauważa Marcin Tymieniecki.
Najlepiej, jeśli dostawca dostarczy odpowiednią technologię do konkretnych potrzeb biznesowych. Przykładowo, może to być zapewnienie infrastruktury IT dla aplikacji kluczowej dla istnienia przedsiębiorstwa, dostarczającej wydajność na poziomie 1 miliona IOPS i gwarantowane czasy dostępu do danych. Co istotne, w przypadku usług chmurowych spełnienia tego typu oczekiwań nie jest łatwe.
– Jeśli przyjrzymy się ofercie usług chmurowych w zakresie przetwarzania i przechowywania danych, znajdziemy mnóstwo ofert cloud storage czy backupu i DR. Natomiast zdecydowanie trudniej znaleźć ciekawe oferty w zakresie blokowej pamięci masowej i dopiero nowa oferta HPE wprowadza ożywczy powiew w tym segmencie rynku – tłumaczy Marcin Tymieniecki.
Wprawdzie przedsiębiorstwa, które potrzebują usług blokowej pamięci masowej w chmurze znajdą oferty kilku innych dostawców, w tym pochodzących z tzw. wielkiej trójki, aczkolwiek są to rozwiązania o ograniczonych możliwościach. Dla większości małych i średnich firm barierą nie do przejścia jest cena tego typu usług. Wynika to z faktu, że usługodawcy adresują je do klientów korporacyjnych. Kolejnym minusem jest dostęp do danych. Wspomniani dostawcy gwarantują co najwyżej 99,99 proc., podczas gdy zastosowania o znaczeniu krytycznym wymagają dostępności na poziomie 99,9999, a nawet 100 proc.
Kolejna sporna kwestia to brak elastyczności wynikającej z samoobsługowości systemów. O ile pamięć masowa dostarczana jako usługa zapewnia konsumpcję zgodną z modelem opłat za wykorzystanie, klienci nadal muszą radzić sobie z tradycyjnym zarządzaniem pamięcią masową, co wymaga wiedzy w tym zakresie już od samego początku korzystania z takiego systemu i która wykracza poza samą jego obsługę.
Rozwiązanie HPE GreenLake for Block Storage
Samoobsługowa pamięć masowa oparta na umowach SLA
100 proc. dostępności gwarantowanej dla aplikacji o znaczeniu krytycznym
98 proc. zaoszczędzonego czasu operacyjnego dzięki intuicyjnemu udostępnianiu
86 proc. problemów związanych z przechowywaniem danych i prognozowaniem jest rozwiązywanych automatycznie
Artykuł HPE GreenLake: pamięci masowe do usług pochodzi z serwisu CRN.
]]>Artykuł Xopero Software sięga po tytuł globalnego lidera pochodzi z serwisu CRN.
]]>Flagowym oprogramowaniem firmy jest Xopero ONE Backup & Recovery. Stoi za nim nowoczesna technologia i najbardziej przejrzysta konsola centralnego zarządzania politykami backupu, optymalizująca czas pracy administratorów. Xopero ONE służy do zabezpieczenia dowolnej infrastruktury IT – urządzeń fizycznych, wirtualnych i usług SaaS, w tym Microsoft 365.
Firmy i instytucje publiczne coraz częściej sięgają po rozwiązania zapewniające niezawodność poprzez kompatybilność sprzętowo-programową. Na potrzeby te odpowiada Xopero Backup Appliance – idealna symbioza sprzętu i oprogramowania do backupu dostarczana w modelu plug & protect – wystarczy wpiąć do sieci, aby zacząć zabezpieczać dowolną infrastrukturę. Do tego: nielimitowana ilość licencji, automatyczne aktualizacje oraz do 5 lat wsparcia technicznego i 5 lat gwarancji NBD onsite na sprzęt.
Dla sektorów medycznego, enterprisei public, które najczęściej padają ofiarami cyberataków, kluczowy jest fakt, że otrzymują w pełni gotowy system BCDR (Business Continuity i Disaster Recovery), w tym mechanizmy automatycznej odbudowy w przypadku awarii. Pozwala to na natychmiastowe przywrócenie krytycznych danych i usług i zachowanie ciągłości działania w razie awarii.
W ofercie znalazło się też oprogramowanie dla resellerów IT działających w popularnym modelu MSP – Managed Service Providers. Mowa o Xopero MSP Backup – innowacyjnej platformie do sprzedaży oprogramowania do backupu środowisk fizycznych, wirtualnych i SaaS oraz zdalnego zabezpieczenia danych klientów. Xopero oferuje unikalny polski support, najlepsze ceny na rynku, wysokie marże i niski próg wejścia. Zarządzanie odbywa się w ramach intuicyjnej konsoli, która daje możliwość sprzedaży, dodawania handlowców i generowania regularnych, łatwych do prognozowania przychodów.
Każda pozycja w portfolio została wyposażona w pakiet Ransomware Protection. Technologie te chronią klientów nie tylko przed skutkami ataków, ale również przed potencjalnym rozprzestrzenianiem się zagrożenia. Dostarczany immutable storage kompatybilny z S3 oparty jest na technologii WORM-compliant, która zapisuje każdy plik tylko raz i odczytuje go wiele razy, zapobiegając modyfikacji lub usuwaniu danych, czyniąc je odpornymi na ransomware.
Xopero przechowuje kopie na storage’u w formie niewykonywalnej. Oznacza to, że nawet gdy ransomware znajdzie się w plikach kopii, dane te nie będą mogły zostać uruchomione na magazynie, a zagrożenie nie rozprzestrzeni się na storage’u.
Artykuł Xopero Software sięga po tytuł globalnego lidera pochodzi z serwisu CRN.
]]>Artykuł Jakie są różnice między backupem a wysoką dostępnością? pochodzi z serwisu CRN.
]]>W ostatecznym rozrachunku sprowadza się to do konieczności odpowiedzenia sobie na pytanie: które dane moja firma potrzebuje backupować, a bez których nie może się obejść, więc trzeba zapewnić ich wysoką dostępność? Znajomość tej różnicy pomaga określić czas potrzebny na przywrócenie systemu do pracy (Recovery Time Objective, RTO) dla danego typu danych lub aplikacji.
24-godzinny czas odzyskiwania danych może mieścić się w zakresie RTO dla danych i aplikacji nieistotnych. Z drugiej strony, w przypadku zasobów o znaczeniu krytycznym, niedostępność danych przez całą dobę może znacznie nadszarpnąć swobodne funkcjonowanie firmy. Koszty z tym związane mogą niekiedy okazać się znacznie wyższe niż zapłata za odszyfrowanie danych, wymuszona w ramach ataku ransomware.
Równie ważna jak określenie wymaganego czasu RTO, jest decyzja dotycząca tego ile potencjalnie danych będzie można utracić. Przedstawiana jest ona w postaci punktu w przeszłości (Recovery Point Objective), w którym po raz ostatni wykonana została kopia danych. Na przykład wysokowydajny system, wykonujący przetwarzanie krytycznych transakcji online (OLTP), nie może sobie pozwolić na utratę danych pomiędzy cyklami tworzenia kopii zapasowych.
Dobrze zaprojektowane plany tworzenia kopii zapasowych są zwykle mieszanką zarówno standardowego backupu, jak i mechanizmów wysokiej dostępności. Dlatego warto znać różnice między nimi, aby móc wybrać właściwe podejście do danego systemu, aplikacji lub zestawu danych.
Istnieje wiele powodów, aby regularnie tworzyć niezawodne kopie zapasowe systemów biznesowych. Mogą one dotyczyć zwykłych korzyści związanych z przechowywaniem dokumentów, np. brak konieczności rozpoczynania projektu od początku w przypadku przypadkowego skasowania pliku. Ułatwiają także spełnienie wymogów branżowych lub przepisów prawnych.
Kopie zapasowe są wykonywane w określonych odstępach czasu, zazwyczaj raz dziennie w godzinach wolnych od pracy, i przechowywane na serwerze kopii zapasowych. Często mają przypisaną wartość zwaną retencją, określającą przez jak długi czas przechowywana jest kopia. Tę decyzję należy podjąć biorąc pod uwagę aspekty biznesowe i wewnętrzne reguły polityki, ale także obowiązujące dane przedsiębiorstwo przepisy prawa, które często wymuszają stosowanie przedłużonej retencji, nawet na rok lub dłuższy okres.
Ostatnio serwery kopii zapasowych znalazły się na celowniku cyberprzestępców atakujących za pomocą oprogramowania ransomware. Dlatego konieczne jest skrupulatne przeanalizowanie przyjętych przez firmę mechanizmów tworzenia backupu, aby nie został on zaszyfrowany. Jedną z preferowanych metod jest wykonanie wtórnej kopii w chmurze. Ponieważ znajdzie się ona w oddzielnej strefie, zapewniona w ten sposób zostaje dodatkowa warstwa bezpieczeństwa.
W większości przypadków dla kopii zapasowych czas przywrócenia systemu do pracy (RTO) określany jest na poziomie godzin (awaria sprzętu, atak ransomware) lub nawet dni (zalana serwerownia). Dla niektórych działów, np. kadr, taki czas RTO może być akceptowalny. W przypadku systemu sprzedaży będzie to jednak oznaczać znaczną utratę przychodów.
Artykuł Jakie są różnice między backupem a wysoką dostępnością? pochodzi z serwisu CRN.
]]>Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Proces tworzenia backupu powinien być wieloetapowy, a doświadczenie pokazuje, że warto trzymać kopie danych także w wersji sprzed długiego czasu, nawet trzech kwartałów. Innym ważnym aspektem jest konieczność zagwarantowania niezmienności kopii zapasowych, realizowanej poprzez ich zamrażanie lub ukrywanie, funkcję WORM (Write Once, Read Many) i przechowywanie danych w różnych lokalizacjach (zapasowe centrum danych lub zasób w chmurze).
Najpopularniejszym obecnie nośnikiem backupu są twarde dyski, gdyż zapewniają najszybszy czas dostępu do danych i możliwość równoległego zapisywania danych w wielu strumieniach. Jednak, aby zapewnić zgodność z regułą 3-2-1-1, konieczne jest uzupełnienie środowiska backupu o dodatkowe warstwy. Jedną z nich może być repozytorium w chmurze publicznej, które sprawdzi się jako zabezpieczenie na wypadek katastrofy, kradzieży czy sabotażu, gdyż umożliwi firmie wznowienie działalności i niejednokrotnie ratunek przez bankructwem. Jednak chmura, ze względu na ograniczenia wydajności, nie powinna być wyłącznym miejscem składowania kopii.
Do tworzenia backupu umożliwiającego odzyskanie danych po skutecznym zaszyfrowaniu środowiska podstawowego w ramach ataku ransomware idealnie nadają się taśmy. Umożliwiają niedrogie i bezpieczne przechowywanie danych przez dziesięciolecia. Są łatwe w transporcie i zapewniają wysoką pojemność: 12 TB dla standardu LTO-8 oraz 18 TB dla LTO-9 (dane dodatkowo mogą być poddane kompresji). Zapisywane informacje mogą być szyfrowane, a także weryfikowane pod kątem poprawności odczytu. W odróżnieniu od dysków, które cały czas wymagają zasilania i chłodzenia, taśma umieszczona w slocie biblioteki taśmowej lub znajdująca się na półce w magazynie nie generuje żadnych kosztów eksploatacyjnych.
Quantum ma bardzo rozległą ofertę produktów, które umożliwiają zbudowanie systemu backupu w modelu 3-2-1-1. Dane mogą trafiać na klasyczne macierze dyskowe z rodziny QXS lub serii H. Alternatywnie można zastosować dyskowe urządzenia do tworzenia kopii zapasowych DXi, które zapewniają wysokowydajną pamięć dyskową z deduplikacją zmiennoblokową, co pozwala połączyć maksymalną wydajność backupu z minimalnymi kosztami eksploatacyjnymi. Dostępny jest także bezpłatny wirtualny deduplikator DXi V5000, który można pobrać ze strony quantum.com.
Do backupu dużych ilości danych nieustrukturyzowanych, wymagających najwyższej dostępności i bezpieczeństwa, a niekoniecznie poddających się skutecznej deduplikacji, zalecane jest obiektowe, skalowalne do wielu petabajtów repozytorium Quantum ActiveScale. Jego zasoby są dostępne za pośrednictwem interfejsu Amazon S3, zapewniono też funkcję blokady kopii zapasowych przed modyfikacją.
Z kolei najwyższy możliwy poziom bezpieczeństwa danych podczas ich długoterminowego przechowywania można uzyskać niewielkim kosztem, stosując biblioteki taśmowe Scalar z technologią LTO, dzięki fizycznemu odseparowaniu kopii zapasowych od środowiska produkcyjnego.
Dystrybutorami rozwiązań Quantum w Polsce są: AB, Also, Arrow ECS, Exclusive Networks oraz S4E.
Dodatkowe informacje: Marcin Kabaj, Regional Sales Manager, Quantum, marcin.kabaj@quantum.com
Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Artykuł Rynek DRaaS przyciągnie MŚP pochodzi z serwisu CRN.
]]>Rynek DRaaS (disaster-recovery-as-a-service) urośnie blisko 3-krotnie w ciągu 5 lat, z 8,8 mld dol. w 2022 r. do 23,5 mld dol. do 2027 r., przy średniej rocznej stopie wzrostu 21,6 proc. – prognozuje MarketsandMarkets.
Wydatki na te usługi zdaniem analityków idą w górę głównie przez potrzebę obniżenia całkowitego kosztu posiadania przez organizacje, zaoszczędzenia czasu zespołów IT, które mogą koncentrować się na innych zadaniach. Ważny jest też większy niż wcześniej nacisk na utrzymanie ciągłości biznesowej przez MŚP.
Analitycy przewidują, że segment kopii zapasowych i przywracania danych pozostanie największy pod względem obrotów w najbliższych latach, wskazując na elastyczność takich usług, niższe koszty, szybsze wdrożenia i lepszą ochronę danych.
Właśnie wydatki MŚP na DRaaS powinny rosnąć najszybciej w najbliższych latach (chodzi o firmy liczące mniej niż 1 tys. pracowników). MarketsandMarkets uzasadania tę prognozę tym, że małe i średnie przedsiębiorstwa muszą zmagać się z wyzwaniami związanymi z budżetem, umiejętnościami i skalowalnością. Aby przezwyciężyć te problemy, przyjmują model pay-as-you-go – stwierdzono.
Artykuł Rynek DRaaS przyciągnie MŚP pochodzi z serwisu CRN.
]]>Artykuł Pamięci masowe: od LTO-9 do NVMe pochodzi z serwisu CRN.
]]>Lighgtbits stawia na NVMe
Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology.
Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud.
Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe.
– Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits.
Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt.
Taśmy z Kolorado
Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood.
Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware.
Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów.
–Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier.
Nie tylko taśmy
Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu.
– Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum.
Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu.
Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami.
– Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner.
Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie.
Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych.
– Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic.
Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik.
Czas na autonomiczny backup
Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR.
O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie.
– Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas.
Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie.
– Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas.
Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+.
Artykuł Pamięci masowe: od LTO-9 do NVMe pochodzi z serwisu CRN.
]]>Artykuł Bezpieczeństwo IT w przebudowie pochodzi z serwisu CRN.
]]>Rośnie nie tylko liczba cyberataków czy wysokość haraczy wymuszanych przez napastników, ale przybywa też nowego malware’u. Każdego dnia AV-TEST Institute rejestruje ponad 450 tys. nowych złośliwych i potencjalnie niechcianych aplikacji. Tylko w grudniu ubiegłego roku systemy telemetryczne Bitdefendera wykryły 232 nowe odmiany oprogramowania ransomware. Część ekspertów uważa wręcz, że cyberprzestępczość stała się problemem numer jeden ludzkości, a cyberataki stanowią większe potencjalne zagrożenie dla naszej przyszłości niż broń jądrowa.
Przykładowo, wszystko wskazuje na to, że w najbliższych miesiącach, jeśli nie latach, działy IT będą musiały walczyć z konsekwencjami ujawnienia luki Log4Shell. Choć w styczniu br. liczba prób jej wykorzystania spadła, nie oznacza to, że problem całkowicie zniknął. Zdaniem analityków Sophosa udało się jedynie zażegnać zagrożenie masowym atakiem, aczkolwiek luka będzie powszechnie wykorzystywana do cyberataków w przyszłości.
Warto o tym pamiętać w kontekście tworzenia strategii aktualizowania oprogramowania w przedsiębiorstwie. Napastnicy niejednokrotnie bowiem najpierw zapewniają sobie dostęp do sieci z wykorzystaniem niezałatanej luki, a potem czekają nawet kilka miesięcy na odpowiednim moment, aby uderzyć. Ten sposób działania jest charakterystyczny m.in. dla grup przestępczych powiązanych z Iranem i Koreą Północną.
Antywirusy skuteczne w testach
Kilka lat temu pojawiła się grupa specjalistów negujących potrzebę stosowania oprogramowania antywirusowego. Robert O’Callahan, twórca przeglądarki Mozilla Firefox, zachęcał do odinstalowywania antywirusów i poleganiu na zabezpieczeniach dostępnych w systemie. Z kolei Bryan Dye, ówczesny wiceprezes Symanteca, oznajmił wszem i wobec, że antywirus zmarł śmiercią naturalną. Jednak przepowiednie te się nie spełniły. Oprogramowanie antywirusowe trzyma się całkiem dzielnie i – jeśli wierzyć wynikom badań przeprowadzanych przez takie instytucje jak AV-TEST czy AV-Comparatives – nadal potrafi wykrywać malware. Najlepsze programy osiągają nawet stuprocentową skuteczność.
Jednak analitycy AV-Comparatives w „Summary Report 2021” odradzają raczej używanie darmowych i najtańszych produktów. Owszem, czasami zdarza się, że pod pewnymi względami aplikacje bezpłatne i komercyjne są ze sobą porównywalne, ale diabeł tkwi w szczegółach. Jedną z głównych wad darmowych antywirusów jest najczęściej ograniczone wsparcie techniczne. Poza tym, dostawcy okrajają freeware z najbardziej wartościowych funkcji.
– Wśród klientów indywidualnych istnieje grupa osób, które wybiorą jakikolwiek produkt ochronny, jeśli tylko jest on dostępny za darmo – mówi Paweł Jurek, wicedyrektor ds. rozwoju w Dagmie. – Ja jednak zalecam bardziej odpowiedzialne podejście, czyli ochronę sprzętu i danych za pomocą dobrej jakości, sprawdzonego, zaufanego programu antywirusowego. Z tych samych powodów, z których zapinamy pasy w samochodzie.
Czynnikiem napędzającym popyt na jakościowe produkty jest ofensywa gangów szyfrujących dane. Według danych Sophosa w 2021 r. aż 8 na 10 incydentów bezpieczeństwa dotyczyło ransomware’u.
– Obserwujemy znaczny wzrost świadomości użytkowników, którzy decyzję o zakupie podejmują nie tylko na bazie ceny, ale także możliwości ochronnych samego oprogramowania – zauważa Grzegorz Nocoń, inżynier systemowy w Sophosie. – Jednak nie wystarczy ono w przypadku ataków prowadzonych poprzez luki w systemach operacyjnych czy aplikacjach. Obserwujemy, że tego typu podatności wykorzystują po krótkim czasie od ich wykrycia zarówno profesjonalne grupy, jak i amatorzy. Należy się więc liczyć z faktem, że nadal będą masowo używali tego sposobu do włamań.
Coraz więcej ciekawych rzeczy związanych z bezpieczeństwem dzieje się w segmencie urządzeń mobilnych. Przez lata uważano, że cyberatakami szczególnie zagrożeni są użytkownicy smartfonów z systemem operacyjnym Android. Wprawdzie w ubiegłym roku było podobnie, ale przy okazji upadł też mit bezpiecznych iPhone’ów. Przyczynił się do tego głównie fakt, że analitycy z Citizen Lab wykryli lukę bezpieczeństwa ForcedEntry w systemie iOS, pozwalającą na aktywację w telefonie systemu szpiegowskiego Pegasus. Niewykluczone, że znajdująca się ostatnio w centrum zainteresowania mediów historia o izraelskim programie przyczyni się do wzrostu sprzedaży rozwiązań ochronnych dla smartfonów Apple’a.
Artykuł Bezpieczeństwo IT w przebudowie pochodzi z serwisu CRN.
]]>Artykuł Połączyć dwa światy IT pochodzi z serwisu CRN.
]]>Tożsame dylematy występują w przypadku oprogramowania. Działy IT miewają niemałe problemy z radzeniem sobie z wszechobecnym chaosem. Czasami brakuje kompetencji, a niekiedy po prostu pieniędzy. Jakiś czas temu Gary Gagnon, były Chief Security Officer w Amazonie, przyznał w rozmowie z portalem „Wired”, że zaskoczyła go nie tylko wielkość koncernu, ale też niesamowity bałagan panujący w jego infrastrukturze IT. „Wszystko było połączone taśmą i gumą do życia, plątaniną starego i nowego oprogramowania” – mówił Gagnon. Jednak kiedy zwrócił się o dodatkowe fundusze potrzebne na uporządkowanie chaosu, usłyszał od swoich zwierzchników o „oszczędnościach wpisanych w DNA korporacji”.
Tego typu sytuacje występują w niejednej organizacji, choć zwykle nikt głośno się do tego nie przyznaje. Jednak dane nie kłamią, co pokazuje chociażby przykład z rynku pamięci masowych. Według szacunków IDC zapotrzebowanie na tej klasy produkty rośnie w tempie 30 proc. rocznie, podczas gdy budżety na infrastrukturę jedynie o 10-15 proc. W jakiś sposób trzeba sobie poradzić z tym wyzwaniem i pogodzić dwa różne światy, uwzględniając przy tym koszty. Szczęśliwie działy IT nie są osamotnione w walce z cyberprzestępcami. Na rynku pojawiają się rozwiązania, które pomagają w uporaniu się z tym problemem. Są oferowane zarówno przez nowicjuszy, jak i dostawców z długim stażem rynkowym.
Trzy problemy z danymi
Jednym ze wspomnianych graczy rynkowych jest Atempo, które dostarcza rozwiązania do backupu oraz DR zarówno dla małych firm, jak i wielkich korporacji. Jednym z kluczowych elementów portfolio tego producenta jest Miria – system przeznaczony do ochrony danych w dużych przedsiębiorstwach oraz instytucjach. Platforma składa się z pięciu elementów realizujących funkcje związane backupem, archiwizacją, migracją danych, analityką, synchronizacją i przesuwania danych. Szefowie Atempo twierdzą, że produkt wychodzi naprzeciw trzem wyzwaniom, z jakimi na co dzień przychodzi się zmierzyć działom IT – suwerenności cyfrowej, atakom ransomware oraz lawinowemu przyrostowi danych.
Pierwsza z wymienionych kwestii dotyczy kontrolowania danych, sprzętu i oprogramowania. Decydenci narzekają, że kontrola jest oddana w ręce kilku globalnych usługodawców. Taki stan rzeczy ogranicza wybór technologiczny oraz konkurencję na rynku. Z kolei ransomware przynosi ogromne profity napastnikom. Według Sophosa całkowite koszty odzyskiwania danych podwoiły się w ciągu ostatniego roku i obecnie wynoszą 1,85 mln dol. Trudno zatem liczyć na to, że gangom ransomware znudzi się ten proceder. Wręcz przeciwnie, napastnicy będą sięgać po wysublimowane metody, aby przechytrzyć systemy bezpieczeństwa IT. Wreszcie kwestia przyrostu danych to zjawisko znane od co najmniej od kilku lat i problemem jest w tym przypadku nie tylko wielkość zasobów, ale także ich rozproszenie.
– Przywiązujemy bardzo dużą wagę do przenoszenia i synchronizacji wielkich zbiorów danych w heterogenicznych magazynach. Dlatego nasz system umożliwia przenoszenie petabajtów danych i milionów, a nawet miliardów plików – tłumaczy Hervé Collard, wiceprezes Atempo.
Jednak, aby sprostać tym zadaniom, Miria musi być kompatybilna z szerokim spektrum produktów od zewnętrznych dostawców. Dlatego też oprogramowanie wspiera systemy typu scale out wiodących producentów (w tym Dell i NetApp) i mniej znanych firm (jak VAST Data czy Qumulo), a także pamięci obiektowe (Dell, NetApp, Huawei, Cloudian, Caringo Scality i in.). Miria została w tym roku wzbogacona o nową funkcjonalność Snapstor, która umożliwia szybkie odzyskiwanie danych po awarii dla dużych zbiorów danych.
Warto wspomnieć, że w czasie grudniowego spotkania z europejskimi dziennikarzami Hervé Collard przedstawił kilka pomysłów na walkę ze złośliwym oprogramowaniem ransomware. Jednym z nich jest zastąpienia zasady tworzenia backupu 3-2-1 metodą 3-2-1-1, która zakłada zachowanie co najmniej trzech kopii danych, przechowywanie ich na co najmniej dwóch różnych typach nośników pamięci, w tym jedną kopię poza siedzibą firmy, a jedną w trybie offline. Kolejnym krokiem miałaby być pełna automatyzacja, czyli zaplanowane i częstsze operacje minimalizujące utratę danych po cyberataku. Kolejnym sposobem sugerowanym przez wiceprezesa Atempo jest natywne szyfrowanie komunikacji i danych, mające zapobiec ewentualnemu ich wykorzystaniu lub dystrybucji przez napastników. Hervé Collard zaleca ponadto rozważenie opcji „Linux First”.
Technologia z drugiego końca świata
Nowa Zelandia najczęściej kojarzy się z pięknymi krajobrazami i serią filmów „Władca Pierścieni”. Mało kto utożsamia ten kraj z nowinkami technologicznymi, ale jak się okazuje również w tym kraju rodzą się ciekawe projekty IT. Autorem jednego z nich jest startup Nexustorage, który opracował system Nexfs. To rozwiązanie należące do grupy produktów „software defined storage”, które łączy w ramach pojedynczej puli pamięci masowej pliki, bloki oraz obiekty.
Oczywiście każdy z wymienionych sposobów przechowywania danych ma swoje mocne i słabe strony. Bloki oraz pliki mają w porównaniu z obiektami ograniczoną skalowalność, ale pozwalają uzyskać wyższą wydajność niż konkurencyjny standard. Poza tym obiekty nie obsługują danych strukturyzowanych. Powyższe rozbieżności, a także kilka innych, pokazują, że bloki, pliki i obiekty muszą ze sobą koegzystować. Zasadniczym problemem jest złożoność takiego środowiska, a próby dopasowania do siebie poszczególnych standardów generują wysokie koszty.
– Technologia Nexfs usuwa lukę występującą pomiędzy światem przechowywania plików i bloków z jednej strony, a obiektową pamięcią masową z drugiej. Nasz zunifikowany, skalowalny system z obsługą cyklu życia danych zapewnia redukcję wykorzystywanej pamięci masowej nawet o 95 proc. – wyjaśnia Glen Olsen, CEO i założyciel Nexustorage.
Nexfs dzieli pliki na porcje o wielkości od 1 do 8 MB i przechowuje na trzech warstwach nośników: szybkich dyskach SSD, wolniejszych dyskach SATA i obiektowej pamięci masowej. Części plików są rozmieszczane na poszczególnych poziomach (gorącym, ciepłym, zimnym) zgodnie z ich profilem dostępu i mogą być przesuwane w górę lub w dół za pomocą funkcji SmartTier. Ten działający w tle proces wykorzystuje tzw. znaki wodne odpływu i przypływu, aby decydować czy i kiedy przenosić dane między warstwami. Migracja może zostać wywołana zamknięciem pliku, zmianą fragmentu danych lub zgodnie z ustalonym harmonogramem. Za ochronę danych odpowiada funkcja SmartProtect, która automatycznie kopiuje dane z gorącej warstwy do zimnej, a także kopiuje metadane plików POSIX do gorącej i zimnej warstwy.
To gwarantuje, że podstawowe dane są nadal dostępne po awarii dysku lub systemu. Nexfs prezentuje dane przez interfejsy blokowe lub plikowe i obsługuje interfejsy iSCSI, NFS i SMB/CIFS. Jak na razie system nie oferuje bezpośredniego dostępu do bazowej pamięci obiektów, ale w planie jest dołączenie serwera proxy typu open source zapewniającego dostęp S3. Warto dodać, że choć produkt z Nowej Zelandii to rozwiązanie innowacyjne, podobne funkcje realizują takie rozwiązania, jak Pavilion Data i StorOne. Ponadto rozwijany jest też projekt open source Ceph.
Taśma niczym wino
Taśmy są z nami od ponad siedemdziesięciu lat. Jeszcze do niedawna mówiło się o odejściu tego nośnika do lamusa, ale tak się nie stało. Zabawne jest przy tym to, że EMC, które przy każdej narażającej się okazji zapowiadało koniec ery taśm, zdążyło zniknąć ze sceny (w 2015 r. zostało przejęte przez Della), podczas gdy taśmy trzymają się mocno. Dzieje się tak z kilku powodów, a jednym z nich jest pojawienie się złośliwego oprogramowania ransomware. Napędy taśmowe stały się bowiem jedną z najskuteczniejszych metod obrony przez skutkami tego typu ataków. Ponadto jest to najtańszy rodzaj nośnika, a na dodatek najbardziej energooszczędny.
Co istotne, technologia taśm cały czas się rozwija, czego najlepszym przykładem jest standard LTO. Jego pierwsza wersja zapewniała pojemność 100 GB (200 GB z kompresją), a prędkość transmisji danych 40 MB/s. Natomiast najnowszy LTO-9 oferuje 18 TB pojemności bez kompresji (do 45 TB z kompresją) i zapewniają transfer skompresowanych danych z prędkością do 1000 MB/s. IBM szacuje, że obecnie w taśmowych systemach pamięci znajduje się ponad 345 tys. EB danych.
Eric Bassier, Senior Director Product Marketing w Quantum, zwraca uwagę na inne czynniki, które przyczyniły się do renesansu taśm. Najważniejsze z nich to gwałtowny wzrost ilości danych (w większości nieustrukturyzowanych), konieczność długoterminowego przechowywania cyfrowych informacji, wysokie koszty magazynowania w chmurach publicznych oraz niechęć powierzania kontroli nad zasobami zewnętrznym usługodawcą. Należy też zauważyć, że według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które sięga się bardzo rzadko. Natomiast tylko 10 proc. to dane „gorące”, a 30 proc. „ciepłe”.
Na największą część tego tortu ma chrapkę Quantum. Firmy oraz instytucje przechowują na urządzeniach tej marki ponad 30 eksabajtów danych. Nową bronią producenta jest ActiveScale Cold Storage – nowa klasa obiektowej pamięci masowej przeznaczonej do przechowywania zimnych danych. System bazuje na architekturze hiperskalowalnej i jest dostarczany w formie usługi. ActiveScale Cold Storage łączy oprogramowanie obiektowej pamięci masowej i biblioteki taśmowe Quantum Scalar.
– Użytkownicy usługi nie uiszczają opłat za dostęp do danych, tak jak ma to miejsce chociażby w przypadku Amazona. Według naszych obliczeń oszczędności w stosunku do usług przechowywania danych w chmurze wynoszą około 30 i 80 proc. w porównaniu z dyskami – mówi Eric Bassier.
System ActiveScale zapewnia pojedynczy panel do zarządzania klastrem bibliotek modułowych (co rozwiązuje problem zarządzania wieloma oddzielnymi bibliotekami), a oprogramowanie CatDV tworzy dla nich schematy indeksowania treści.
Uderzeni przez ransomware
Ransomware stał się prawdziwą plagą ostatnich lat, a informacje o spektakularnych atakach trafiają na pierwsze strony gazet i serwisów internetowych. Jedną z ofiar został amerykański dostawca systemów pamięci masowych Spectra Logic. Incydent miał miejsce na początku maja 2020 r., a napastnicy zażądali za odszyfrowanie danych okupu w wysokości 3,6 mln dol. Jednak firma odmówiła i powróciła do pełnej sprawności po trzech tygodniach. To zdarzenie sprawiło, że producent wprowadził do swoich urządzeń oraz oprogramowania kilka innowacji, które mają zapobiec atakom ransoware lub przynajmniej zminimalizować ich skutki.
W drugiej połowie 2021 r. Spectra Logic zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie.
– Klienci mogą w pełni korzystać z aplikacji lokalnych, a także usługi chmurowej za pomocą pojedynczego, przyjaznego w obsłudze interfejsu. Wraz ze wzrostem ataków ransomware, a przede wszystkim naszych doświadczeń w zmaganiach z tym rodzajem malware’u, dodaliśmy do naszego portfolio rozwiązanie zwiększających odporność naszych klientów, a jednym z nich jest właśnie Vail – mówi Nathan Thompson, CEO Spectra Logic.
Kolejna innowacja dotyczy Black Pearl, urządzenia instalowanego przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. W najnowszej wersji produkt zawiera zestaw funkcji określanych jako Attack Hardened. W skład pakietu wchodzą wyzwalane migawki, uwierzytelnianie wieloskładnikowe, szyfrowanie, replikacja i wirtualna luka powietrzna w celu łagodzenia skutków ataków ransomware. Ciekawe zmiany zaszły przy tym w bibliotekach taśmowych. Spectra Logic, oprócz tradycyjnej fizycznej szczeliny powietrznej między kasetami a napędami, korzysta z zimnej partycji, która blokuje taśmy, uniemożliwiając napastnikom przejęcie kontroli nad biblioteką.
Artykuł Połączyć dwa światy IT pochodzi z serwisu CRN.
]]>Artykuł Infrastruktura IT i backup pod specjalnym nadzorem pochodzi z serwisu CRN.
]]>Jedną z bardziej popularnych operacji jest migracja zasobów do infrastruktury fizycznej firmy trzeciej w modelu IaaS lub PaaS. Wówczas operator centrum danych buduje we własnej lokalizacji środowisko fizyczne z wykorzystaniem rozwiązań wskazanego dostawcy. Najczęściej składa się ono z klastra serwerów, połączonego wysokowydajnymi przełącznikami sieciowymi, z odpowiednio dobranymi macierzami dyskowymi. Rozwiązanie zaprojektowane jest w tzw. high availability, bez występowania pojedynczych punktów awarii. Dodatkowo usługodawca zapewnia oprogramowanie w modelu pay-as-you-go.
Istnieje też możliwość stworzenia własnego, wirtualnego centrum danych – w tym przypadku zasoby trafiają na platformę chmurową rozwijaną przez Dział Usług IT Grupy 3S. W ramach tej usługi zasoby chmury zarządzanej przez providera udostępniane są z gwarancją SLA na poziomie 99,95 proc. Użytkownik otrzymuje dostęp do panelu www, w którym może kreować wirtualne maszyny oraz zarządzać ich skalowalnym środowiskiem. Usługa bazuje na oprogramowaniu VMware (vCloud Director, vSphere, vRealize), które uzupełnione jest o zintegrowaną platformę Veeam Backup & Replication, umożliwiającą tworzenie własnych, zautomatyzowanych harmonogramów kopii zapasowych.
Dzięki rozproszonej geograficznie infrastrukturze centrów danych, w ramach usługi Disaster Recovery Center (DRC) możliwe jest replikowanie własnych środowisk IT do innej lokalizacji i utrzymywanie ich w stanie gotowości na wypadek awarii. Dzięki temu w przypadku niespodziewanej sytuacji skutkującej niedostępnością środowiska, można wręcz nieodczuwalnie dla użytkowników uruchomić system z zapasowego centrum danych. W tym celu tworzone są dodatkowe, najczęściej chmurowe repliki – lustrzane odbicia środowisk produkcyjnych. Zasoby DRC pozwalają także na działania testowe, na które, z różnych powodów, dział IT nie zdecydowałby się w środowisku produkcyjnym.
Proces migracji środowisk IT jest zwykle złożonym i wielowątkowym przedsięwzięciem. Dlatego warto skorzystać z doświadczenia inżynierów, którzy zrealizowali już z powodzeniem setki podobnych projektów. Integrator, dzięki partnerskiej współpracy z centrum danych, może bezpiecznie wprowadzić klienta końcowego w świat chmury, zarówno w modelu prywatnym, hybrydowym, jak i wielochmurowym. Uzupełaniające się doświadczenia i kwalifikacje obu podmiotów sprawią, że klient będzie mógł skupić się na kluczowych procesach, nie martwiąc się o działanie infrastruktury i podstawowych aplikacji.
Rozwiązania hybrydowe i wielochmurowe
Firmy najczęściej korzystają dziś z rozwiązań hybrydowych, w ramach których połączone jest zaplecze IT pozostające w siedzibie klienta z infrastrukturą wykorzystywaną w modelu outsourcingu, w tym także od globalnych dostawców chmur publicznych. Dla optymalnego działania takich systemów kluczowe jest doświadczenie i kwalifikacje inżynierów odpowiedzialnych za wdrożenia, skutkujące umiejętną integracją rozwiązań kilku dostawców oraz optymalną wyceną całego projektu. Jest to nie lada wyzwanie, które może być zrealizowane tylko wtedy, gdy najlepsi eksperci będą się wzajemnie wspierać oraz sprawnie komunikować dla osiągnięcia zamierzonych efektów.
Bez względu na to, czy główne środowisko klienta znajduje się w jego siedzibie, czy też w zewnętrznym ośrodku, należy zadbać o politykę replikacji oraz backupu. Kopie zapasowe dostępne w 3S DC tworzone są za pomocą sprawdzonych rozwiązań firmy Veeam. Zaszyfrowane repliki danych z wykorzystaniem usługi Veeam Cloud Connect można wysyłać bezpośrednio do chmurowych repozytoriów backupu zlokalizowanych w ośrodkach przetwarzania danych w Warszawie i Katowicach. Można też zastosować dedykowane łącza transmisji danych, zapewniające doskonałą komunikację oraz najwyższy poziom bezpieczeństwa. Pozwala to na pełną kontrolę nad pożądanymi czasami wykonania backupu i odtworzenia danych. Zarządzanie usługą możliwe jest z centralnego panelu administracyjnego (Web Console) lub bezpośrednio z konsoli oprogramowania Veeam Backup & Replication.
Dodatkowe informacje: Jacek Chylak, dyrektor handlowy, 3S Data Center, integratorzy@3s.pl
Artykuł Infrastruktura IT i backup pod specjalnym nadzorem pochodzi z serwisu CRN.
]]>