Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Proces tworzenia backupu powinien być wieloetapowy, a doświadczenie pokazuje, że warto trzymać kopie danych także w wersji sprzed długiego czasu, nawet trzech kwartałów. Innym ważnym aspektem jest konieczność zagwarantowania niezmienności kopii zapasowych, realizowanej poprzez ich zamrażanie lub ukrywanie, funkcję WORM (Write Once, Read Many) i przechowywanie danych w różnych lokalizacjach (zapasowe centrum danych lub zasób w chmurze).
Najpopularniejszym obecnie nośnikiem backupu są twarde dyski, gdyż zapewniają najszybszy czas dostępu do danych i możliwość równoległego zapisywania danych w wielu strumieniach. Jednak, aby zapewnić zgodność z regułą 3-2-1-1, konieczne jest uzupełnienie środowiska backupu o dodatkowe warstwy. Jedną z nich może być repozytorium w chmurze publicznej, które sprawdzi się jako zabezpieczenie na wypadek katastrofy, kradzieży czy sabotażu, gdyż umożliwi firmie wznowienie działalności i niejednokrotnie ratunek przez bankructwem. Jednak chmura, ze względu na ograniczenia wydajności, nie powinna być wyłącznym miejscem składowania kopii.
Do tworzenia backupu umożliwiającego odzyskanie danych po skutecznym zaszyfrowaniu środowiska podstawowego w ramach ataku ransomware idealnie nadają się taśmy. Umożliwiają niedrogie i bezpieczne przechowywanie danych przez dziesięciolecia. Są łatwe w transporcie i zapewniają wysoką pojemność: 12 TB dla standardu LTO-8 oraz 18 TB dla LTO-9 (dane dodatkowo mogą być poddane kompresji). Zapisywane informacje mogą być szyfrowane, a także weryfikowane pod kątem poprawności odczytu. W odróżnieniu od dysków, które cały czas wymagają zasilania i chłodzenia, taśma umieszczona w slocie biblioteki taśmowej lub znajdująca się na półce w magazynie nie generuje żadnych kosztów eksploatacyjnych.
Quantum ma bardzo rozległą ofertę produktów, które umożliwiają zbudowanie systemu backupu w modelu 3-2-1-1. Dane mogą trafiać na klasyczne macierze dyskowe z rodziny QXS lub serii H. Alternatywnie można zastosować dyskowe urządzenia do tworzenia kopii zapasowych DXi, które zapewniają wysokowydajną pamięć dyskową z deduplikacją zmiennoblokową, co pozwala połączyć maksymalną wydajność backupu z minimalnymi kosztami eksploatacyjnymi. Dostępny jest także bezpłatny wirtualny deduplikator DXi V5000, który można pobrać ze strony quantum.com.
Do backupu dużych ilości danych nieustrukturyzowanych, wymagających najwyższej dostępności i bezpieczeństwa, a niekoniecznie poddających się skutecznej deduplikacji, zalecane jest obiektowe, skalowalne do wielu petabajtów repozytorium Quantum ActiveScale. Jego zasoby są dostępne za pośrednictwem interfejsu Amazon S3, zapewniono też funkcję blokady kopii zapasowych przed modyfikacją.
Z kolei najwyższy możliwy poziom bezpieczeństwa danych podczas ich długoterminowego przechowywania można uzyskać niewielkim kosztem, stosując biblioteki taśmowe Scalar z technologią LTO, dzięki fizycznemu odseparowaniu kopii zapasowych od środowiska produkcyjnego.
Dystrybutorami rozwiązań Quantum w Polsce są: AB, Also, Arrow ECS, Exclusive Networks oraz S4E.
Dodatkowe informacje: Marcin Kabaj, Regional Sales Manager, Quantum, marcin.kabaj@quantum.com
Artykuł Profesjonalny backup z Quantum pochodzi z serwisu CRN.
]]>Artykuł All of Backup: ruszyła druga edycja projektu! pochodzi z serwisu CRN.
]]>Krystian Hofman, Business Development Manager, Arcserve
Backup jest aktualnie jednym z niezbędnych rozwiązań dla klientów końcowych. To system, który można określić jako must have, a nie tylko nice to have. Integratorzy w całej Polsce każdego dnia dostają zapytania od klientów o rozwiązania do ochrony danych. W większości przypadków oferowane są jako część systemu IT opracowanego przez firmy integratorskie i stanowią około 30 proc. jego wartości.
W 2017 r. na rynku nie zabraknie nowości w tym zakresie. Backup to już nie tylko automatyczna kopia bezpieczeństwa na taśmach, ale rozbudowane systemy zapewniające ciągłość pracy przedsiębiorstw. Warto zwrócić uwagę między innymi na rozwiązania zmniejszające utylizację storage’u (deduplikacja), na wirtualizację, retencję danych etc. Klienci poszukują ponadto rozwiązań zintegrowanych, łączących hardware z software’em. Nowoczesne systemy do ochrony danych muszą też dawać możliwość przenoszenia danych do chmury.
Marcin Kabaj, Regional Sales Manager, Quantum
Klasyczny backup, polegający na wielokrotnym kopiowaniu danych szybkozmiennych w celu ich zabezpieczenia przed utratą lub nieautoryzowaną zmianą, jest tylko wtedy postrzegany przez użytkowników jako generator kosztów, gdy nie stosuje się odpowiednich narzędzi, które pozwalają na konkretne wyliczenia korzyści finansowych. Korzyści te wynikają m.in.: ze zwiększenia dostępności do danych i aplikacji, spadku kosztów planowanych i nieplanowanych przestojów, zmniejszenia ryzyka całkowitej utraty danych w przypadku katastrofy (hakerzy, klęski żywiołowe, sabotaż, inne) czy też zwiększenia produktywności personelu.
W 2017 r. będziemy mieli do czynienia z ewolucją urządzeń backupujących: szybszymi macierzami, szybszymi i większymi deduplikatorami z nowymi filtrami, LTO-8 w bibliotekach taśmowych i innymi. Możemy się też spodziewać nowych rozproszonych systemów obiektowych, które zaspokoją potrzeby w zakresie podwyższonej dostępności backupu, a także rozwiązań Disaster Recovery.
Tomasz Krajewski, Presales Manager Eastern Europe, Veeam Software
W segmencie rozwiązań backupowych resellerzy i integratorzy mogą realizować szereg scenariuszy biznesowych. Należy do nich odsprzedaż rozwiązań (licencyjnych i/lub sprzętowych), a także świadczenie użytkownikom końcowym usług typu Backup as a Service i Disaster Recovery as a Service. Podczas oferowania tego typu rozwiązań ważne jest zrozumienie potrzeb klienta w zakresie możliwych do zaakceptowania strat danych spowodowanych katastrofą (RPO) oraz maksymalnego akceptowalnego czasu od wystąpienia katastrofy, po którym usługa musi zostać uruchomiona (RTO). Kolejna kwestia dotyczy tego, co (ile) traci firma w momencie awarii i niespełnienia wymagań SLA w zakresie odzyskiwania danych i ochrony przed ich utratą.
Jesteśmy po pierwszym sezonie projektu All of Backup, drugi właśnie się zaczął. Jaka idea stała za jego powstaniem?
Chcieliśmy przedstawić najnowsze trendy i zmianę podejścia (w tym wymogów rynkowych) do tego, jak backup powinien wyglądać. Po pierwsze chodzi o efektywne wykorzystanie backupu wykonanego na urządzenia dyskowe, które są powszechnie dostępne. Ale pokazywaliśmy również, że taśma wciąż ma się dobrze, tylko jest wykorzystywana w inny sposób. Po drugie odnieśliśmy się do pojawienia się chmury obliczeniowej i możliwości zastosowania jej do ochrony danych. Wreszcie trzecia sprawa, to jak najlepsze zarządzanie backupem w różnych środowiskach. Dlatego hasło „All of Backup” można rozumieć jako pokazanie pełnego spektrum możliwości hardware’owych w tym obszarze i zaprezentowanie najbardziej odpowiedniego oprogramowania.
Do kogo jest skierowany wasz przekaz?
Z informacjami chcemy docierać zarówno do klientów końcowych, jak i partnerów handlowych. Te dwie grupy mają trochę inne potrzeby. Celem pierwszej jest wybranie najwłaściwszych technologicznie urządzeń i oprogramowania w odpowiedniej cenie. Ważnym elementem jest postawienie na pewnego producenta, którego produkty będą kompatybilne z rozwiązaniami innych dostawców. Z kolei partnerowi handlowemu zależy na wsparciu producenta w zakresie merytorycznym, serwisowym i biznesowym, by mógł zarobić na oferowaniu rozwiązań.
Jakie formy dostarczania wiedzy składają się na projekt?
Zwieńczeniem pierwszego sezonu była ogólna konferencja, czyli spotkanie wielu producentów z naszymi partnerami i ich klientami, podczas którego można było dowiedzieć się jakie rozwiązania będą najlepsze do zabezpieczania danych w konkretnych przypadkach, a także przeanalizować najróżniejsze kwestie związane z backupem. Przez cały czas trwania pierwszej edycji projektu zainteresowani mogli wziąć udział w cyklicznych webinariach i szkoleniach. Oprócz tego dostępna jest strona internetowa backup.info.pl, jesteśmy też aktywni w mediach społecznościowych.
Czy łatwo jest przekonywać integratorów do sprzedaży rozwiązań backupowych, które są często odbierane przez potencjalnych użytkowników jak źródło kosztów, a nie zysków?
Z tym nie ma problemu. Dla integratorów ochrona danych to istotna możliwość zwiększenia przychodu z biznesu, a także niezbędny element oferty skierowanej do klientów. Brak kompetencji w tym zakresie spowoduje, że szybko przegrają z konkurencją. Są już firmy, które bardzo mocno specjalizują się w rozwiązaniach serwerowo-storage’owo-backupowych, dostarczając zaawansowane systemy. Z jednej strony mają łatwiej, bo kontaktują się ze świadomymi klientami, których nie trzeba przekonywać do zasadności ochrony danych, jak np. banki. Z drugiej strony – muszą się liczyć z często drogimi i pochłaniającymi czas projektami wspartymi szkoleniami. I tu pojawia się kwestia wypracowania przez producenta, przy naszym wsparciu jako dystrybutora, modelu finansowania edukacji partnerów. Mali integratorzy też wiedzą, że muszą w obszarze backupu coś zaproponować swoim klientom i dlatego warto się szkolić.
Z jakim odbiorem spotkała się pierwsza odsłona All of Backup?
Bardzo pozytywnym. Podczas konferencji Backup Forum kończącej pierwszy sezon klienci końcowi i partnerzy byli bardzo zainteresowani tematem. Pojawiło się z ich strony sporo pytań, nawet o tak techniczne zawiłości, że eksperci producentów musieli włożyć wiele wysiłku w to, by wszystkie wyjaśnić. Były też pytania o kontynuację projektu.
No właśnie, drugi sezon All of Backup już się zaczął. Czego możemy się po nim spodziewać?
Ideą przewodnią kolejnej odsłony projektu jest zabezpieczanie środowisk wirtualnych. Z jednej strony wynika to z potrzeb zgłaszanych podczas pierwszej edycji All of Backup, z drugiej jest to obecnie bardzo gorący temat. Będziemy poruszać rozmaite związane z tym kwestie, dotyczące zarówno środowisk VMware, Hyper-V, jak i linuksowych. To pierwsze na polskim rynku tak kompleksowe podejście do zagadnienia backupu w kontekście wirtualizacji.
Szczegółowe informacje na temat II edycji All of Backup na stronie: backup.info.pl.
Artykuł All of Backup: ruszyła druga edycja projektu! pochodzi z serwisu CRN.
]]>