Artykuł Open source, czyli „przezroczysty koń trojański” pochodzi z serwisu CRN.
]]>– Oprogramowanie bazujące na otwartym kodzie staje się dojrzalsze zarówno technologicznie, jak i biznesowo. Wystarczy popatrzeć chociażby na sposób jego dystrybucji. Nawet amatorskie projekty zachowują uznane standardy odnośnie do licencjonowania czy wdrażania aplikacji. Przy czym nie jest to zmiana, która nastąpiła nagle. To proces trwający od kilkunastu, a nawet kilkudziesięciu lat – mówi Marcin Kubacki, Chief Software Architect w Storware.
Oprogramowanie open source stanowi podstawę wielu innowacji związanych ze sztuczną inteligencją, chmurą obliczeniową, jak również blockchainem. Na Linuxie opiera się praktycznie cały internet. Systemy operacyjne na licencji otwartej są obecne wszędzie: w biznesie, edukacji, w systemach transakcyjnych, a także w największych projektach naukowych, takich jak chociażby Wielki Zderzacz Hadronów. Inny przykład to rynek smartfonów, gdzie system operacyjny Android, bazujący na jądrze Linuxa, posiada niemal 80 proc. udział w rynku. Jak mówi Jim Zemlin, dyrektor wykonawczy Linux Foundation: „Linux to jedyne oprogramowanie, które zmienia się dziewięć razy na godzinę”. Jednak o ile do dominacji Linuxa w segmencie serwerów czy Androida na rynku smartfonów zdążyli się już wszyscy przyzwyczaić, o tyle w obszarze wirtualizacji następują istotne zmiany – systemy zamknięte tracą przewagę.
– Dekadę temu wybór VMware’a był odpowiedzialną decyzją. Obecnie sytuacja jest całkowicie inna. Mamy nowy trend, jakim jest konteneryzacja wypierająca wirtualizację. Aplikacje w kontenerach dają niespotykane możliwości skalowania, nieosiągalne dla systemów zwirtualizowanych, a także przenoszenia aplikacji, w tym do chmury oraz na brzeg sieci. Do obsługi kontenerów i aplikacji w kontenerach wybierany jest Kubernetes, który, jak powszechnie wiadomo jest projektem open source – tłumaczy Marcin Madey, Country Manager w polskim oddziale SUSE.
Spory potencjał tkwi w rozwiązaniach do przetwarzania brzegowego. Eksperci duże nadzieje pokładają w Embedded Linux, systemie operacyjnym przeznaczonym do obsługi urządzeń Internetu Rzeczy. W sprzedaży znajdują się już wykorzystujące Linuxa „inteligentne” telefony, lodówki czy termostaty w kaloryferach. Natomiast umowa SUSE z Elektrolitem pozwoli na tworzenie nowej generacji systemu operacyjnego opartego na systemie Linux dla autonomicznych pojazdów.
Jak widać, open source zatacza coraz szersze kręgi i już dziś zdecydowana większość firm z listy Fortune 500 korzysta z oprogramowania open source na takim czy innym poziomie. To rewolucja, którą tak do końca ciężko zrozumieć. Jak bowiem wytłumaczyć fakt, że działalność gospodarcza warta biliony dolarów opiera się na wysiłkach stosunkowo niewielkiej społeczności ludzi często wykonujących tę pracę bez bezpośredniego wynagrodzenia?
Rozwiązania open source posiadają ugruntowaną pozycję w wielu segmentach rynku. Oprócz systemów operacyjnych dla serwerów, gdzie prym wiodą komercyjne dystrybucje Red Hat i SUSE, a także smartfonów z Androidem, rozwiązania bazujące na otwartym kodzie szybko zdobywają nowe obszary IT. Od pewnego czasu w świecie nowych technologii toczy się dyskusja, czy konteneryzacja wyprze wirtualizację. Zdania na ten temat są podzielone. Niektórzy uważają, że kontenery i maszyny wirtualne będą się uzupełniać, z czym nie zgadzają się fani konteneryzacji. Jednak nawet uwzględniając dalszą koegzystencję obu technologii, trzeba się liczyć ze słabnącą pozycją wirtualizatorów z zamkniętym kodem źródłowym. Choć VMware vSphere lub Microsoft Hyper V nadal cieszą się popularnością, biznes coraz chętniej sięga po darmowe narzędzia do wirtualizacji serwerów, takie jak Red Hat Virtualization, Proxmox, oVirt, Virtuozzo czy Xen Server. Osobną kwestią jest ofensywa platformy Kubernetes, zyskująca akceptację wśród przedsiębiorców, dostawców usług chmurowych, a także producentów infrastruktury teleinformatycznej.
– W obszarze zarządzania infrastrukturą i oprogramowaniem największym zainteresowaniem cieszą się platformy i narzędzia służące do wdrażania, utrzymania i administracji oraz orkiestracji aplikacji uruchamianych w kontenerach. A zatem projekty takie, jak Kubernetes i jemu podobne, budowane na bazie, bądź jako rozszerzenie funkcjonalności Kubernetesa. Wśród nich znajdziemy na przykład Rancher, OKD czy OpenShift – mówi Adam Sokołowski, Business Development Manager w Simplicity.
Kubernetes jest dzieckiem Google’a. Inżynierowie tego koncernu opracowali go w celu zarządzania klastrami. Kilka lat później platforma trafiła pod skrzydła Cloud Native Computing Foundation. Kubernetes może pracować w środowisku lokalnym i chmurze publicznej. Platforma z poziomu jednej płaszczyzny kontroli wspiera automatyzację wdrożeń, skalowanie aplikacji, zarządzanie kontenerami, monitoruje procesy i zmiany. Przez długi czas bastionem rozwiązań zamkniętych pozostawały pamięci masowe. Jednak również w ich przypadku obserwujemy zachodzące zmiany. Takie programy open source, jak Ceph czy MinIO otwierają szerokie możliwości w zakresie przechowywania danych w postaci obiektów. Nie sposób nie zauważyć ekspansji baz danych open source NoSQL. Nierelacyjne bazy danych – w przeciwieństwie do klasycznych silników – pozwalają na szybką analizę danych nieustrukturyzowanych i badanie korelacji pomiędzy nimi. Wśród baz NoSQL największym powodzeniem cieszą się MongoDB oraz Apache Cassandra. Warto zauważyć, że kapitalizacja rynkowa MongoDB wynosi 25,5 mld dol., podczas gdy wartość Red Hata, kiedy był przejmowany przez IBM-a, wynosiła 20,5 mld dol.
Jeżeli instytucja decyduje się na technologię Microsoftu na desktopie, to musi kupić przynajmniej system operacyjny Windows, pakiet Office, licencje dostępowe CAL i naturalnie antywirusa. Jego odpowiednik linuksowy jest dużo tańszy od samego Windowsa, bez dopłaty oferuje Libre Office, a do tego nie wymaga antywirusa i licencji CAL. Zawiera też szereg przeglądarek, w tym Firefox i Chrome. Tylko w ZUS jest ponad 50 tysięcy desktopów. Kolejne kilkadziesiąt tysięcy ma Poczta Polska. Wiele tysięcy to administracja centralna i samorządowa, ale także sektor prywatny. Wystarczy sobie wyobrazić, ile łącznie jest stacji roboczych w bankach. Trzeba pamiętać, że Linux jest systemem bezpieczniejszym, wydajniejszym i łatwo może zostać przygotowany na potrzeby konkretnego klienta. Integratorzy, którzy będą umieli przekonać swoich klientów do takich zmian, zarobią poważne kwoty, dostarczając nie tylko oprogramowanie, ale także usługi własne. Co istotne, open source jest oferowany w modelu subskrypcyjnym, czyli sprzedaż jest odnawiana w ustalonych cyklach.
Podstawowym czynnikiem zachęcającym integratorów do oferowania rozwiązań open source jest wyższa, niż w przypadku tak zwanych rozwiązań „zamkniętych”, marża. Jest jednak w tym schemacie myślenia pewien haczyk. Wyższą marżę uzyskamy, gdy zaoferujemy wydanie oprogramowania w wersji „community”. Trzeba też pamiętać, że projekty z wykorzystaniem tego typu oprogramowania nie kończą się na etapie analizy potrzeb klienta, doboru rozwiązania i projektu, a potem jego wdrożenia. Klient końcowy bardzo często wymaga objęcia wsparciem technicznym wdrożonego rozwiązania na odpowiednim poziomie SLA. Z tym wiążą się dodatkowe, znaczne koszty związane między innymi z potrzebą zatrudnienia i utrzymania odpowiednich specjalistów i konsultantów. A o tym integratorzy często zapominają.
Artykuł Open source, czyli „przezroczysty koń trojański” pochodzi z serwisu CRN.
]]>Artykuł Idziemy szeroko i bez kompleksów pochodzi z serwisu CRN.
]]>Jan Sobieszczański W Niemczech oraz Stanach Zjednoczonych znajdują się biura naszych partnerów handlowych. W USA jest to dobrze znana w branży ochrony danych firma Catalogic Software. Niemniej w Polsce mamy jeszcze wiele do zrobienia. Od samego początku przyjęliśmy strategię, której celem jest wyjście poza polski rynek. To daje nam większą przestrzeń do – jak to się mówi – szaleństwa. Najpierw chcieliśmy dostać się do Europy Zachodniej, a potem do Stanów Zjednoczonych oraz Azji. To się nam udało, bowiem jesteśmy obecni w 60 krajach. Co istotne, 80 procent naszych przychodów ze sprzedaży pochodzi z zagranicy.
Paweł Mączka Technologia i mapy drogowe naszych produktów wypchnęły nas poza Polskę, bo zaczynaliśmy naszą przygodę w 2013 roku od zabezpieczania urządzeń mobilnych. Ale już w 2015 roku zaprezentowaliśmy system backupu dla środowiska Citrix Xen Server, open source KVM, potem dokładaliśmy kolejne dystrybucje z ramienia Red Hata – Red Hat Virtualization, Open Stack, Open Shift oraz Ceph, a także Nutanixa i Oracle’a. O ile na świecie wymienione rozwiązania cieszyły się dużą popularnością, o tyle w Polsce znane były tylko garstce użytkowników. W przypadku technologii związanych z backupem czy wirtualizacją, rodzimi przedsiębiorcy są zazwyczaj dwa lata za trendami światowymi. W tym momencie, ze względu na kierunki rozwoju Oracle’a czy ekspansję Red Hata, widzimy tożsame tendencje na naszym ojczystym rynku. Jednak nie chcę przez to powiedzieć, że Polska jest gorsza czy mniej ważna. To po prostu specyficzny rynek…
Marcin Kubacki Warto dodać, że koszt dostosowania oprogramowania do ochrony danych na potrzeby klientów spoza Polski jest relatywnie niski. Od strony technicznej to kwestia przetłumaczenia na język angielski, niemiecki i kilka innych. Zachęciła nas skala działania, nieporównywalna do rodzimego rynku. Trudno byłoby nie skorzystać z okazji umożliwiającej wejście z produktem na zagraniczne rynki.
W którym z krajów najtrudniej było dostosować się do wymagań klientów?
Jan Sobieszczański Nie ukrywam, że niełatwo działa się w Chinach i Japonii, co nie stanowiło dla nas wielkiego zaskoczenia. Jednak jeszcze trudniej jest w Niemczech. Byliśmy przygotowani, że wejście z nowym produktem do naszych zachodnich sąsiadów zajmie nam około dwa lata. Niemniej dopiero po trzech latach udało się nam pozyskać pierwszych klientów. Wbrew pozorom na przeszkodzie nie stanęły porządek czy przyzwyczajenia do pewnych procesów i procedur, lecz brak zaufania do firm pochodzących spoza Niemiec.
Paweł Mączka W krajach z regionu DACH trzeba mieć lokalnego przedstawiciela. Niezbędny jest również wewnętrzny lobbing. Przykład Niemiec dowodzi, jak trudno wejść na ten rynek firmom z polskim kapitałem, aczkolwiek na podobne trudności napotykają też producenci z innych państw. Dużym wyzwaniem jest działalność w USA ze względu na zupełnie odmienną kulturę sprzedażową od europejskiej. Na Starym Kontynencie na pierwszym miejscu stawia się konkretne parametry i możliwości technologiczne produktów. Natomiast Amerykanie lubią kupować piękne historie i ładnie opakowane „cukierki”.
Jaką w takim razie historię opowiedzieliście szefom Catalogic Software? To firma o silnej pozycji nie tylko na rynku amerykańskim, dysponująca szeroką ofertą w zakresie kopiowania danych. Co skłoniło ich, żeby sprzedawać produkty nieznanej firmy z Europy Wschodniej?
Paweł Mączka To oni nas znaleźli, a pierwszy kontakt nawiązaliśmy poprzez Twittera. Najwyraźniej spodobała im się nasza narracja i sposób komunikowania. Po bliższym zapoznaniu się z ofertą i strategią, zaczęli nas postrzegać jako partnera technologicznego. Nie jest to jednostkowy przypadek, bowiem podobnie wygląda nasza współpraca z Dellem oraz IBM-em. Potrzeby wymienionej trójki są bardzo zbliżone. Storware uzupełnia ich portfolio w otwartych dystrybucjach klasy KVM, Xen, Nutanix oraz OpenStack.
Jan Sobieszczański Warto dodać, że bardzo szybko zawarliśmy umowę dystrybucyjną z Catalogic Software. My uzupełniliśmy ich portfolio oraz wsparliśmy na polskim rynku, a oni zapewnili nam dystrybucję na terenie całych Stanów Zjednoczonych. Poza tym bardzo pomogli nami w zacieśnianiu kooperacji z IBM-em. Dzięki współpracy z Catalogic Software pozyskaliśmy kilku bardzo cennych klientów, takich jak Cisco, Lenovo, US Navy czy Conair. Choć wcześniej samodzielnie podpisaliśmy kontrakt z Disney Service.
Wspominacie o Dellu oraz IBM-ie. To wielkie koncerny, zatrudniające tabuny developerów. Po co im produkt polskiego producenta, skoro równie dobrze mogliby opracować takie rozwiązanie we własnym zakresie?
Paweł Mączka W obecnych czasach liczy się czas wdrożenia aplikacji. Napisanie od początku stabilnego oprogramowania zajmuje od 24 do 36 miesięcy. My uzupełniamy tę lukę, a Dell czy IBM mogą wprowadzić aplikację na rynek w ciągu 6–9 miesięcy, czyli zyskują około dwóch lat. Wielkie koncerny znajdują się pod presją klientów, którzy grożą, że odejdą do konkurencji, jeśli produkty nie będą spełniać ich wymagań. To taki wyścig z czasem. Jednak nie jesteśmy tutaj prekursorami, takie rzeczy dzieją się na całym świecie. Co nie zmienia faktu, że duzi gracze nie wybierają słabych partnerów.
Marcin Kubacki Warto na to popatrzeć z perspektywy osoby decyzyjnej w firmie, która planuje wprowadzenie nowej funkcjonalności bądź aplikacji. Biorąc pod uwagę obecne realia rynkowe już samo pozyskanie specjalisty, który zajmie się tematem, wcale nie jest łatwe, tym bardziej, że mówimy o tworzeniu backupu na niszowych platformach. To jest poważna, techniczna przeszkoda. Do tego dochodzą kwestie związane z realizacją projektu do końca, a następnie uruchomieniem procesów sprzedażowych.
Tego typu współpraca nie jest na rynku niczym nowym, ale to samo można powiedzieć o akwizycjach. Czy Storware jest na sprzedaż?
Jan Sobieszczański Myślimy o różnych opcjach, również o sprzedaży firmy. Biznes robi się po to, aby zarabiać pieniądze. Oczywiście pojawiały się takie propozycje ze strony innych vendorów, ale jak do tej pory nie udało nam się dojść do porozumienia. Poza tym jesteśmy cały czas bombardowani propozycjami dofinansowania ze strony inwestorów z Polski, Holandii, Wielkiej Brytanii, a także Kanady oraz Stanów Zjednoczonych. Jednak nie interesują nas bezduszni finansiści, lecz współpraca z branżowym partnerem, który wniesie wartość dodaną do naszych produktów. To pozwoli się nam rozwijać. Żaden z właścicieli nie chce rozstawać się ze swoim dzieckiem. Owszem, istnieje cała masa przedsiębiorców, którzy najpierw budują biznes, by potem go sprzedać. My stwierdziliśmy, że pójdziemy trudniejszą drogą.
Paweł Mączka Rynek ochrony danych otwiera przed takimi dostawcami jak my ocean możliwości. Tym bardziej, że właściciele firm przeznaczają coraz więcej pieniędzy na rozwiązania do ochrony danych. W tym segmencie rynku IT dzieje się bardzo wiele, co pokazują przykłady nowych vendorów, takich jak Rubrik czy Cohesity. W ostatnim czasie byliśmy świadkami trzech interesujących przejęć w segmencie systemów do backupu – Veeam kupił Kastena, HPE przejęło Zerto, zaś Veritas wchłonął hubStor. Jeśli miałby się pojawić kupiec zainteresowany zakupem naszego biznesu, musi nas uskrzydlić i nie zabijać kultury organizacji. Historia pokazuje, że na początku niejedna akwizycja wydawała się strzałem w dziesiątkę. Niestety, działania podejmowane przez nowego właściciela często sprawiają, że obiecujący produkt umiera.
Oferujecie kompleksową ofertę backupu maszyn wirtualnych wykraczającą poza wsparcie dla VMware’a oraz Hyper-V. Ale czy nie idziecie trochę za szeroko, obsługując kilkanaście niszowych hiperwizorów. Chyba jedynym vendorem, który może z wami konkurować na tym polu jest Commvault. Czy nie jest to trochę sztuka dla sztuki?
Paweł Mączka Rzeczywiście nikt poza nami i Commvaultem nie oferuje wsparcia dla tak dużej liczby środowisk wirtualnych, kontenerowych, chmurowych. Co więcej, w grudniu rozszerzamy możliwości naszego oprogramowania o obsługę kolejnych środowisk. Wychodzimy z założenia, że wiele organizacji korzysta z więcej niż jednego rozwiązania do wirtualizacji. Chcemy dać naszym klientom wolność wyboru. Jeśli rozbudują swoje środowisko informatyczne o nową platformę do wirtualizacji, nie będą musieli zmieniać systemu do backupu. Między innymi dlatego zdecydowaliśmy się na natywną integrację z czterema najważniejszymi graczami klasy enterprise, od dwóch dekad znajdującymi się w raportach Gartnera. Zrobiliśmy to jako pierwsi na rynku. Działamy automatycznie i pozwalamy składować kopie zapasowe w środowisku lokalnym i chmurze publicznej. Dane mogą być przechowywane w formie plików lub obiektów. Myślę, że żaden z producentów nie podszedł w ten sposób do tworzenia architektury. Byliśmy w totalnej opozycji do konkurentów, bowiem wszyscy zaczynali od opracowywania narzędzi dla środowisk VMware’a oraz Hyper-V. My postępowaliśmy odwrotnie. W pewnym stopniu wpadliśmy w pułapkę, ponieważ czasami przypina nam się łatkę firmy od niszowych hiperwizorów. Co oczywiście nie jest prawdą.
Marcin Kubacki Obsługa wielu środowisk wirtualizacyjnych bardzo pomaga nam w rywalizacji z konkurentami. Już niejednokrotnie szala przechylała się na naszą korzyść, bowiem nie zmuszaliśmy klienta do zmiany hiperwizora. Jesteśmy czymś w rodzaju puzzla, który wszędzie pasuje i rozszerza infrastrukturę ochrony danych bez konieczności wywracania całego systemu.
Czy rodzimi integratorzy postrzegają sprzedaż produktów Storware jako szansę, aby się wyróżnić na rynku?
Jan Sobieszczański Teoretycznie tak powinno być, aczkolwiek – jak to zwykle bywa – teoria rozmija się z praktyką. Musimy mocno stawiać na edukację i wkładać dużo energii, aby uświadomić, że istnieją rozwiązania pozwalające zaadresować potrzeby w zakresie ochrony danych dla niemal każdego zwirtualizowanego środowiska. Choć istnieje pewna grupa integratorów, przede wszystkim tych związanych z Linuxem czy Red Hatem, którzy wiedzą, że rynek rozwiązań do zakupu maszyn wirtualnych nie ogranicza się do oferty dwóch dostawców. Chciałbym zwrócić uwagę na jeszcze jeden fakt. Kiedy zaczynaliśmy naszą działalność, próbowaliśmy docierać bezpośrednio do klientów. Dopiero później budowaliśmy kanał partnerski. Obecnie zauważamy, że to klienci zaczynają wywierać pewną presję na partnerów.
Paweł Mączka Działania marketingowe prowadzone przez dużych graczy mają bardzo duży wpływ na integratorów. Jeśli pytasz ich o dostawców rozwiązań do backupu środowisk zwirtualizowanych zazwyczaj wymieniają dwóch producentów. Nie ukrywam, że dyskusje z resellerami czy integratorami nie należą do łatwych. Większość tych firm nie dąży do rozszerzenia swojego portfolio. Czasami mówią, że fajnie byłoby mieć Storware w ofercie, aczkolwiek wiązałoby się to z koniecznością wykonania dodatkowej pracy, polegającej na edukacji klientów. Natomiast w przypadku dwóch najbardziej znanych dostawców jest to niepotrzebne. Niemniej zależy nam na partnerach, którzy docenią naszą myśl technologiczną, komunikację w języku ojczystym czy bardzo szybkie wsparcie w przypadku pojawienia się problemów.
Z tego co rozumiem, pod względem technologicznym nie odstajecie od globalnych dostawców i nie macie wobec nich żadnych kompleksów. Czy zatem jedyną przewagą dużych graczy są fundusze marketingowe?
Paweł Mączka Absolutnie nie mamy kompleksów wobec największych dostawców rozwiązań do ochrony danych. W świecie backupu oraz wirtualizacji często rozmawia się o funkcjach, a zapomina się o zasadniczych kwestiach. Wręcz genialnie robi to VMware, który zamiast skupić się na podstawowych rzeczach, pokazuje pięćdziesiąt nowych funkcji, ale potem okazuje się, że klienci tak naprawdę korzystają tylko z trzech. Nie zamierzamy konkurować na tym polu, chociażby ze względu na mniejszą liczbę zatrudnionych developerów. Natomiast możemy śmiało rywalizować pod względem prostoty zarządzania. Jesteśmy też bardzo elastyczni, możemy stosunkowo łatwo i szybko wdrożyć funkcjonalności, jeśli klient zgłosi taką potrzebę, aczkolwiek wnikliwie analizujemy tego typu przypadki pod kątem wdrożenia dla większej liczby użytkowników. Nie spełniamy wszystkich życzeń.
Marcin Kubacki Już od samego początku projektowaliśmy produkty w taki sposób, aby można je było łatwo rozszerzyć i dostosować do nowych środowisk. W tym obszarze mamy dużą przewagę nad konkurentami. W pewnym momencie zaangażowanie dziesięciu nowych developerów nie przełoży się w istotny sposób na tempo postawania nowego produktu. Wąskim gardłem są procesy związane ze scalaniem funkcjonalności, a także testowaniem.
Paweł Mączka Im większa korporacja, tym większy opór wobec zmian. U nas wprowadzenie nowej funkcji może zająć kilkanaście minut, a w wielkich koncernach potrzeba na to co najmniej kwartału. Wielkie organizacje dysponują ogromnym kapitałem finansowym, ale poruszają się dużo wolniej niż mniejsi gracze.
Tak czy inaczej potrzebujecie zastrzyku w postaci nowych developerów. Czy mocno odczuwacie deficyt tej grupy specjalistów na rodzimym rynku pracy?
Jan Sobieszczański Zatrudniamy świetnych programistów, co nie zmienia faktu, że dotykają nas te same problemy, które mają inne przedsiębiorstwa poszukujące developerów. Pandemia dodatkowo utrudniła proces rekrutacji, ponieważ firmy z USA czy Wielkiej Brytanii chętnie zatrudniają osoby pracujące zdalnie. Tym samym programista pracuje w swoim warszawskim mieszkaniu dla koncernu bądź startupu z San Francisco, Palo Alto czy Londynu. Wymagania finansowe niektórych kandydatów są absurdalne, choć nie zawsze idą w parzę z umiejętnościami. Czasami spotykamy się z bardzo dziwnymi żądaniami, na przykład żeby biuro znajdowało się w odległości nie większej niż kilometr od stacji metra. Inny z kandydatów stwierdził, że lokalizacja naszego oddziału nie odpowiada mu ze względu na bliskie sąsiedztwo masztu telekomunikacyjnego. Jeden z programistów przyznał podczas rozmowy kwalifikacyjnej, że nasz produkt jest słaby i raczej nie zaangażuje się w jego rozwój. Czasami ciężko się tego słucha.
Paweł Mączka Mamy własny proces rekrutacyjny i jest on dłuższy niż w większości firm. W czasie rozmowy z kandydatem zawsze pytam o jego zainteresowania. Jeśli widzę, że ma jakieś pasje, jego akcje rosną. Wspólnie uzgodniliśmy, że nie poddajemy się narracji rynkowej, według której programiści są trudną, drogą i roszczeniową grupą. Zatrudniamy ludzi z odpowiednim sposobem myślenia, chcących mieć wpływ na wytwarzany produkt. Marcin Kubacki i programiści dokładają wszelkich starań, żeby dołączający do nas ludzie zostali z nami na lata. Choć wiadomo, że liczą się pieniądze i wygoda, my bardzo mocno stawiamy na atmosferę pracy. Wiadomo, że nie wyeliminujemy rotacji, ale jest ona dużo niższa niż w innych firmach. Szukanie idealnego developera, który wejdzie do firmy i zrobi od razu wszystko od ręki, jest utopią. Najważniejsze jest zaangażowanie i chęci. Obie cechy pozwolą nadrobić ewentualne braki.
Marcin Kubacki Proces rekrutacji zajmuje rzeczywiście dużo czasu i wkładamy w niego sporo wysiłku. Niestety, coraz częściej spotykamy się z dużymi brakami w wiedzy wśród zgłaszających się do nas kandydatów. Jeszcze kilka lat temu średni poziom wiedzy developerów był wyższy, niż ma to miejsce obecnie. Niejednokrotnie zdarzają się osoby, które na pierwszy rzut oka wydają się dobrze przygotowane, ale okazuje się, że popełniają bardzo proste błędy.
Na koniec roku planujecie przeprowadzić rewolucję w portfolio. Na czym ma ona polegać?
Jan Sobieszczański Planujemy 6 grudnia wprowadzić na rynek zintegrowaną platformę łączącą trzy produkty: vProtect, KODO for Cloud oraz KODO for Endpoints. Już od dwóch lat staram się namówić wspólników do integracji tych rozwiązań. Nie chodzi nam o to, aby ścigać się z konkurencją, natomiast chcemy zapewnić klientom możliwość doboru różnych funkcjonalności z poziomu pojedynczej konsoli. Jest to korzystne również dla nas, ponieważ nie musimy osobno tłumaczyć, czym jest KODO dla Microsoft 365 czy vProtect. Zdecydowanie łatwiej jest przedstawić produkty w sposób skomasowany, w ramach jednej prezentacji.
Paweł Mączka Z naszych obserwacji wynika, że pozyskiwanie klienta zainteresowanego rozwiązaniem vProtect, a następnie innym produktem z naszej oferty wydłuża dwukrotnie czas sprzedaży. Ważna jest też kwestia związana z doświadczeniami użytkowników. Naszym zdaniem należy dążyć do upraszczania systemów w ramach jednego rozwiązania.
Słyniecie już z łączenia biznesu z wieloma innymi aktywnościami, jak wsparcie fundacji, praca na rzecz zwierząt, które trafiają do schronisk, kooperacja z Instytutem Oceanologii PAN w obszarze badań środowiska morskiego, czy wreszcie działalność muzyczna. Krótkie pytanie – kiedy kolejny branżowy przebój i teledysk?
Jan Sobieszczański Masz rację. Nie samym biznesem człowiek żyje. I choć naszym przewodnim hasłem jest „In Backup We Trust”, to uważamy, że wręcz obowiązkiem biznesu jest angażowanie się w działania CSR-owe, a także… dodanie do kultury organizacji odrobiny rock’and’rolla. Aktualnie pracujemy nad longplayem z prawdziwego zdarzenia. Planujemy dwa teledyski w ramach promocji. Datę premiery pozostawimy na razie w tajemnicy.
Rozmawiał Wojciech Urbanek
Artykuł Idziemy szeroko i bez kompleksów pochodzi z serwisu CRN.
]]>Artykuł BACKUP: wojna na kilku frontach pochodzi z serwisu CRN.
]]>Ciekawe trendy występują przy tym na rynku ubezpieczeń. W pierwszym kwartale br. wartość zawieranych polis wzrosła na świecie średnio o 18 proc., ale ceny cyberpolis skoczyły niemal o 30 proc. Może to świadczyć o malejącym zaufaniu do rozwiązań zabezpieczających infrastrukturę i dane, a także desperacji nękanych cyberatakami firm.
Czy vendorzy spróbują podjąć działania, aby odzyskać tracony powoli prestiż? Wszak od dawna mówi się, że solidny i sprawdzony system do backupu stanowi ostatnią linię obrony przed cyberatakami. Co więcej, może być lepszym rodzajem ubezpieczenia niż polisa towarzystwa ubezpieczeniowego. Tym bardziej, że ta ostatnia nie pokryje kosztów utraty klientów. Poza tym, jak donosi IDC, aż 57 proc. klientów branży ubezpieczeniowej na świecie nie poleciłoby nikomu usług swojego aktualnego towarzystwa ubezpieczeniowego…
Szybkie tempo zmian? Nie każdy to potwierdza
Analitycy Gartnera prognozują, że do końca 2022 r. aż 40 proc. przedsiębiorstw uzupełni lub całkowicie wymieni oprogramowanie służące do ochrony danych. Gdyby te przewidywania się sprawdziły, dostawców rozwiązań czeka w najbliższych kilkunastu miesiącach wyjątkowo gorący okres. Paweł Mączka, CTO Storware’a, nie jest zaskoczony przewidywaniami Gartnera.
– W ostatnich latach nastąpił wyraźny podział rynku backupu na dwie części – tłumaczy Paweł Mączka. – Pierwszą z nich tworzą producenci oferujący rozwiązania bazujące na architekturze lat 90., zaś drugą nowa fala graczy, którzy budują produkty bazujące na innowacyjnych mechanizmach. Forsowana od wielu lat filozofia D2D2T odchodzi powoli do lamusa. Firmy coraz częściej wykorzystują deduplikatory czy pamięć obiektową. Tym, co dodatkowo skłania klientów do poszukiwania nowych rozwiązań, jest rozwój usług chmurowych, a także konteneryzacja.
Warto z uwagą śledzić trendy obecne na rynku ochrony danych, a także błyskawicznie reagować na zagrożenia. Jednak nie wszyscy eksperci zgadzają się z przewidywaniami Gartnera. Wprawdzie nie negują potrzeby wprowadzenia innowacji, ale nie wierzą w tak szybkie tempo zmian, bowiem większość firm zazwyczaj przeprowadza tego typu procesy powoli i z rozwagą.
– Nie spodziewam się rewolucji w takiej skali, jak to przewiduje Gartner – mówi Jarosław Mikienko, niezależny konsultant ds. ochrony danych. – Nawet pojawienie się przełomowej technologii nie spowoduje lawinowej wymiany. Oczywiście, stosowane obecnie rozwiązania będą uzupełniane, a na rynku zadebiutują gracze proponujący rozmaite nowinki. Jednak użytkownicy, zanim zaczną w końcu z nich korzystać, najpierw je sprawdzą i dokładnie przetestują.
Co z tym ransomware’em?
Tak czy inaczej, prawdopodobnie będziemy świadkami interesującej rywalizacji w segmencie produktów zabezpieczających dane w usługach SaaS, infrastrukturze hiperkonwergentnej czy też środowiskach kontenerowych. Ale najbardziej frapujące wydają się być zmagania dostawców narzędzi do backupu z gangami ransomware.
Ofiary tego typu ataków często wychodzą z niesłusznego założenia, że zapłacenie haraczu za odszyfrowanie danych oznacza koniec kłopotów. Znamienny jest przypadek Colonial Pipeline, które przekazało napastnikom 4,4 mln dol. Niestety, koncern musiał skorzystać z własnych kopii zapasowych, ponieważ udostępnione przez gang DarkSide narzędzie działało zbyt wolno.
Z kolei serwis internetowy Wired.com w artykule „Ransomware’s Dangerous New Trick Is Double-Encrypting Your Data” przedstawia proceder, który polega na tym, że cyberprzestępcy wdrażają dwa rodzaje złośliwego oprogramowania. W rezultacie poszkodowana firma odszyfrowuje swoje dane, ale odkrywa, że w rzeczywistości nadal nie ma do nich dostępu. Oba przykłady pokazują jak ważny jest w obecnych czasach backup.
– To jest wojna i nieustający wyścig zbrojeń – mówi Przemysław Sot, Data Protection Consultant w Net-o-logy. – Producenci oprogramowania stale rozwijają mechanizmy wykrywania działania ransomware’u oraz ochrony kopii przed zaszyfrowaniem. Z drugiej strony twórcy złośliwego oprogramowania skupiają coraz większą uwagę na możliwości zaszyfrowania także kopii zapasowych.
Gangi ransomware dążą do naruszenia kopii, bowiem ofiara tracąca dostęp do backupu, staje się bardziej zdesperowana, a tym samym skłonna zapłacić okup. Ponadto, system tworzenia kopii zapasowych wskazuje miejsca przechowywania krytycznych danych w infrastrukturze IT. Zdobycie tak cennych informacji pozwala napastnikom lepiej ukierunkować swoje ataki. Dostawcy oprogramowania starają się maksymalnie utrudnić życie cyberprzestępcom, wprowadzając dodatkowe funkcje. Według Gartnera, kluczową rolę w zabezpieczeniu kopii zapasowych odgrywają takie funkcje jak: blokowanie możliwości zmiany treści przechowywanych plików, uwierzytelnianie wieloskładnikowe dla kont administracyjnych czy rozdzielenie ról administracyjnych.
Analitycy doradzają również integrowanie systemów pamięci masowych z oprogramowaniem do backupu oraz tworzenie wielu kopii zapasowych. Firmy przez lata stosowały zasadę 3-2-1 (trzy kopie danych, na dwóch różnych typach pamięci masowej, z jedną kopią odizolowaną poza siedzibą firmy). W przeszłości najczęściej wiązało się to z ręcznym kopiowaniem taśm lub innymi metodami tworzenia dodatkowych, odizolowanych od podstawowego systemu kopii. Obecnie większość aplikacji umożliwia tworzenie dodatkowych kopii danych w miejscu odtwarzania po awarii lub w infrastrukturze dostawcy chmury publicznej.
Niektórzy producenci włączają do swoich systemów backupu mechanizmy pozwalające wykryć ataki. Jedną z metod jest wykrywanie anomalii. Oprogramowanie wykorzystuje mechanizmy uczenia maszynowego do obserwacji nietypowych zdarzeń, takich jak znaczące zmiany w wielkości wykonywanej codziennie przyrostowej kopii zapasowej. Kolejnym sposobem jest skanowanie skopiowanych danych pod kątem występowania złośliwego oprogramowania. Oczywiście, narzędzia do tworzenia kopii zapasowych nie wypełnią wszystkich luk w ochronie, aczkolwiek mogą wnieść cenny wkład w system bezpieczeństwa.
Zdaniem specjalisty
Firmy już od kilku lat migrują swoje systemy informatyczne do chmury. Tym samym tracą rację bytu te rozwiązania do tworzenia kopii zapasowych, które działają lokalnie. Ich wykorzystywanie do zabezpieczania danych w chmurze jest bardzo nieefektywne, zarówno ze względów technicznych, jak i finansowych. Dobre rozwiązanie powinno funkcjonować blisko systemów klienta, aby backup działał możliwie szybko i nie obciążał firmowych łączy, czyniąc je wąskim gardłem. Dlatego optymalnym rozwiązaniem do backupu danych przetwarzanych w chmurze jest rozwiązanie również działające w chmurze, takie jak Cloud-to-Cloud Backup.
Przedsiębiorstwa powinny cały czas analizować swoje potrzeby w zakresie ochrony danych. Warto obserwować nie tylko trendy opisywane przez analityków, ale również reagować na zagrożenia, a szczególnie ransomware. Solidny i sprawdzony system do ochrony danych stanowi ostatnią linię obrony przed atakiem hakerskim – jest ubezpieczeniem od zdarzeń, które mogą doprowadzić do upadku firmy. Hybrydowy model pracy stwarza też konieczność ochrony wykorzystywanych w tym trybie laptopów czy innych rodzajów urządzeń końcowych, na których, według analityków IDC, do końca 2023 roku znajdzie się 60 proc. wszystkich danych na świecie. Spójny system łączący backup i odzyskiwanie danych dla środowisk lokalnych, chmury publicznej i urządzeń końcowych staje się jedną z najistotniejszych potrzeb zgłaszanych przez klientów biznesowych.
Wzrost świadomości na temat bezpieczeństwa danych w przypadku modelu SaaS stymulowany jest często doniesieniami prasowymi o awariach skutkujących utratą danych. Zdarzenia tego typu najlepiej działają na wyobraźnię użytkownika. Wzrost popularności SaaS wymusza zwiększenie świadomości dotyczącej możliwych zagrożeń w przypadku potencjalnych klientów. Odpowiednie zabezpieczenie danych w przypadku SaaS powoduje wzrost kosztów usługi, co raczej nie zachęca oferentów do skupiania się na tym elemencie. W efekcie takie podejście może być akceptowane przez użytkownika w przypadku danych niekrytycznych bądź powodem do zmiany usługodawcy.
W ostatnim czasie coraz więcej mówi się o potrzebie ochrony danych w środowiskach kontenerowych oraz konieczności zapewnienia ich wysokiej dostępności na wypadek katastrofy, jak też szybkiego przywracania infrastruktury do pracy. Zainteresowanie tym tematem wykazują zarówno rodzimi klienci, jak również integratorzy. Lwia część środowisk kontenerowych korzysta z tak zwanych trwałych woluminów (persistent volumes) w celu zachowania stanu danych, chociażby na potrzeby bazy danych. Dodatkowo projekty oraz adaptacja środowisk kontenerowych w chmurach publicznych zachęcają klientów do wdrożenia strategii chmury hybrydowej. W tym przypadku rola backupu również może mieć duże znaczenie w procesie migracji danych, ich odtworzenia w lokalizacji zdalnej itp.
Presja czasu
Dostawcy systemów do backupu starają się sprostać rosnącym oczekiwaniom użytkowników biznesowych. Z jednej strony wprowadzają nowe funkcje, zaś z drugiej dążą do tego, aby ich produkty zapewniały coraz krótsze czasy RPO (Recovery Point Objective – moment w przeszłości, z którego można odzyskać dane) i RTO (Recovery Time Objective – czas potrzebny na przywrócenie systemu do pracy po awarii). Niestety, firmy często mają problem ze zdefiniowaniem swoich potrzeb związanych z ochroną danych. Jarosław Mikienko uważa, że najwięcej kłopotów przysparza użytkownikom prawidłowe oszacowanie czasu RTO.
– Proces ten wymaga zaangażowania wielu działów w danej firmie i wykracza daleko poza obszar IT – mówi Jarosław Mikienko. – Zachęcam jednak do próby określenia wartości RTO dla swoich danych. Takie ćwiczenie pomoże obniżyć bieżące koszty operacyjne i zoptymalizować wydatki inwestycyjne.
Choć producenci analizują rynek i przeprowadzają badania, dzięki którym mogą lepiej poznać preferencje swoich klientów, to wyniki tego typu sondaży zafałszowują obraz. Informacja, że średni tolerowany przez firmy czas przestoju systemu IT wynosi na przykład dwie godziny, może okazać się złudna. Trudno na przykład uwierzyć, że podróżni ze spokojem przyjmą informację o dwugodzinnym oczekiwaniu na odbiór bagażu na lotnisku. Z drugiej strony są firmy korzystające intensywnie z systemów informatycznych w określonych przedziałach czasu – na koniec tygodnia albo miesiąca. W takich przypadkach inwestycja w rozwiązania z najwyższej półki absolutnie nie znajduje ekonomicznego uzasadnienia.
– Ciągłość biznesowa powinna być zdefiniowana w każdym przedsiębiorstwie osobno, nie można wrzucać wszystkich do jednego worka – podkreśla Paweł Mączka. – Należy też zwrócić uwagę, że za procesy biznesowe oraz odzyskiwanie danych po awarii powinno odpowiadać nie tylko oprogramowanie do backupu. Bardzo ważne jest zapewnienie redundancji dla kluczowych komponentów w warstwie niższej: serwerów, pamięci masowych czy urządzeń sieciowych.
Backup dla SaaS
Przenoszenie operacji IT do chmury publicznej nie jest procesem łatwym i przyjemnym. Co gorsza, firmy nie zawsze rozumieją reguły obowiązujące w nowym środowisku, w tym również te związane z ochroną danych. W tradycyjnym podejściu aplikacja znajduje się na serwerze umiejscowionym w lokalnym centrum danych, podobnie jak system do backupu. Zgoła odmiennie wygląda to w modelu SaaS, w którym oprogramowanie jest uruchamiane i zarządzane w chmurze przez zewnętrznego dostawcę. Nie bierze on jednak odpowiedzialności za cyfrowe zasoby klienta i tutaj pojawia się duży rozdźwięk, bowiem użytkownicy często mylą dostępność samej usługi z możliwością odzyskania przetwarzanych w jej ramach danych.
Jak wynika z badania ESG, aż 35 proc. respondentów uważa, że to dostawca SaaS odpowiada za backup, zaś jedynie 13 proc. ma odmienne zdanie. Według Christophe’a Bertranda, analityka ESG, bardziej beztrosko do ochrony danych w chmurze podchodzą młode firmy, które wcześniej nie miały doświadczeń z własną infrastrukturą IT. Z kolei przedsiębiorstwa o dłuższym rodowodzie są mniej ufne wobec usługodawców i zdają sobie sprawę z tego, że ponoszą pełną odpowiedzialność za backup danych z aplikacji SaaS.
Jeśli chodzi o samą ofertę producentów systemów do backupu, potencjalni nabywcy nie mogą narzekać na brak wyboru. Rozwiązania do ochrony Microsoft 365 posiada w ofercie każdy liczący się dostawca oprogramowania do backupu, a coraz częściej pojawiają się też produkty adresowane dla użytkowników Salesforce’a czy Google Workspace.
Zdaniem integratora
Obserwujemy rosnącą świadomość klientów w zakresie posiadania systemu backupu dopasowanego do zmieniających się wymagań. Coraz rzadziej środowisko produkcyjne klienta bazuje tylko i wyłącznie na własnej serwerowni, a część systemów produkcyjnych wyniesiona jest do szeroko pojętej chmury. Często są to też usługi, takie jak Microsoft 365, które również wymagają specjalnej ochrony. Z tego powodu istniejące środowiska backupu wymagają modernizacji lub też wymiany, gdyż istniejący system nie jest w stanie sprostać nowym potrzebom. W ostatnich miesiącach obserwujemy duży wzrost zainteresowania klientów tematem ochrony środowisk SaaS i chmurowych. Jako integrator uświadamiamy ich w zakresie współdzielonej odpowiedzialności za dane i wynikających z tego obowiązków.
Najważniejsze kierunki rozwoju
Rynek narzędzi do backupu i odzyskiwania ewoluuje w kilku kierunkach. Jednym z najbardziej perspektywicznych jest segment rozwiązań dla SaaS. Zmiany mają miejsce również w grupie produktów przeznaczonych do ochrony maszyn wirtualnych, gdzie widoczne są dwa trendy – ciągła replikacja oraz dostosowanie systemów do zróżnicowanych środowisk zwirtualizowanych.
Ten pierwszy wiąże się z rosnącą liczbą maszyn wirtualnych obsługujących aplikacje krytyczne, w których zastosowanie ciągłej replikacji pozwala tworzyć kopie z częstotliwością co kilkanaście sekund. Druga kwestia dotyczy zaspokojenia potrzeb klientów korzystających z mniej popularnych wirtualizatorów. Zdaniem Pawła Mączki wygrają producenci, którzy będą potrafili wyjść ze strefy komfortu i zaoferować kompleksową ofertę wykraczającą poza wsparcie dla VMware’a oraz Hyper-V. Tym bardziej, że firmy coraz częściej sięgają po hiperwizory klasy KVM (Nutanix, OpenStack, RHV, oVirt, OLVM, Proxmox) lub Xen (Citrix, XCP-ng, OVM).
O ile maszyny wirtualne stały się nieodłącznym elementem krajobrazu IT, o tyle kontenery zaczynają się dopiero w nim zadomawiać. Gartner przewiduje, że w 2025 r. aż 85 proc. globalnych korporacji będzie korzystać z aplikacji kontenerowych w środowiskach produkcyjnych. Aplikacje uruchomione w kontenerach często potrzebują przestrzeni dyskowej do przechowywania danych, która nie jest tymczasowa. W tego typu przypadkach potrzebne są narzędzia do ochrony danych.
Niestety, używane do tej pory rozwiązania zupełnie nie nadają się do backupu kontenerów. Dlatego też rozpoczął się wyścig pomiędzy producentami, próbującymi wywalczyć silną pozycję na tym dopiero tworzącym się rynku. Veeam w ubiegłym roku przejął startup Kasten, specjalizujący się w rozwiązaniach backupu i odzyskiwania danych dla kontenerów. Danny Allan, CTO Veeama, przyznał na łamach amerykańskiego CRN-a, że ta część biznesu, jak na razie, nie generuje znaczących przychodów, ale prawdopodobnie stanie się kluczowa dla przyszłości tego producenta.
Warto przy tym wspomnieć, że również Commvault wprowadził produkt do backupu kontenerów, zarówno dla tych znajdujących się w lokalnym centrum danych, jak i w chmurze publicznej. Według Dell EMC duże zainteresowanie ochroną danych w aplikacjach kontenerowych wykazują przede wszystkim firmy z sektora bankowego oraz telekomunikacyjnego.
Trudno też wyobrazić sobie ochronę danych bez dalszego rozwoju usług BaaS(Backup as a Service). Technavio prognozuje, że w latach 2021–2025 średnia roczna stopa wzrostu wyniesie 32 proc. Zdaniem ekspertów popyt na tego typu usługi rosnąć będzie wraz pokonywaniem przeszkód – jak przepustowość łączy czy obawy związane z bezpieczeństwem.
Artykuł BACKUP: wojna na kilku frontach pochodzi z serwisu CRN.
]]>Artykuł IBM wprowadza do oferty produkty polskiej firmy pochodzi z serwisu CRN.
]]>Wprawdzie IBM posiada w swojej ofercie autorskie rozwiązania do backupu oraz odzyskiwania danych, aczkolwiek zróżnicowanie potrzeby klientów sprawiają, że koncern poszukuje partnerów wśród zewnętrznych dostawców. Oprogramowanie polskiej firmy Storware wpisuje się w najnowsze trendy, zapewniając ochronę danych w środowiskach lokalnych wirtualnych, chmurowych oraz kontenerowych. Wszystkie produkty Storware będą oferowane w ramach IBM resell offerings. Dzięki kompatybilności oraz łatwej integracji z IBM Spectrum Protect zostały dodane do IBM Passport Advantage.
– Podpisanie umowy z IBM to kolejny duży krok w zwiększaniu dostępności naszych produktów. Co istotne, umowa ma charakter globalny i pozwala nam dotrzeć do klientów z całego świata. To już drugi międzynarodowy kontrakt, wcześniej podpisaliśmy podobną umowę z Dellem. Nasze produkty są już sprzedawane w wielu krajach, w tym USA, gdzie naszym dystrybutorem jest Catalogic Software – mówi Jan Sobieszczański, CEO Storware.
Storware powstał w 2014 roku. Firma tworzy i rozwija oprogramowanie do ochrony danych. Rozwiązania służą do tworzenia kopii zapasowych maszyn wirtualnych, środowisk kontenerowych, chmurowych czy aplikacji SaaS. Storware oferuje produkty za pośrednictwem ogólnoświatowej dystrybucji i kanału partnerskiego.
Artykuł IBM wprowadza do oferty produkty polskiej firmy pochodzi z serwisu CRN.
]]>Artykuł Polska firma w dystrybucji Tech Daty pochodzi z serwisu CRN.
]]>Warszawska firma działa od blisko 7 lat.
„Tech Data zyskuje coraz bardziej pełny i uniwersalny wachlarz rozwiązań z zakresu bezpieczeństwa, a zwłaszcza ochrony danych” – komentuje Mariusz Ziółkowski, Country General Manager, Tech Data Polska.
„Rozwiązanie tworzenia kopii zapasowych Storware są dedykowane rynkowi SMB. Nowy kontrakt dystrybucyjny ułatwi nam budowanie szerokiego kanału partnerskiego opartego głównie o rozwiązania Microsoft” – mówi Marcin Zieliński, Advanced Solution Director w Tech Dacie.
„Nawiązanie współpracy z firmą Tech Data to dla nas ogromne wyróżnienie, a przede wszystkim nowe możliwości. Nasze oprogramowanie znajdzie się w ofercie marketplace Tech Daty” – stwierdził Jan Sobieszczański, CEO w Storware.
Za sprzedaż produktów Storware w Tech Dacie odpowiada Dawid Banasiuk, Networking & Security Team Leader.
Artykuł Polska firma w dystrybucji Tech Daty pochodzi z serwisu CRN.
]]>Artykuł Ochrona danych: czas dużych zmian pochodzi z serwisu CRN.
]]>Eksperci zwracają przy tym uwagę na niepokojący trend, jakim jest sprzedaż na czarnym rynku prostych zestawów do ataków ransomware, których mogą użyć nawet początkujący hakerzy. Jak łatwo się domyślić ich celem nie są wielkie koncerny, lecz małe firmy oraz użytkownicy domowi. Nie bez przyczyny specjaliści od bezpieczeństwa twierdzą, że jednym z największych wyzwań dla działów IT będzie zapewnienie sobie maksymalnych szans na odzyskanie danych z backupu.
Integracja narzędzi
Pandemia sprawia, że wiele osób pracuje w domach i nic nie wskazuje na to, że szybko powrócą do biur. Działy IT muszą więc skorygować plany ochrony danych, w tym procesy związane z tworzeniem kopii zapasowych przez zdalnych pracowników.
– W nowej rzeczywistości coraz więcej zasobów znajduje się nie tylko w firmowej serwerowni, ale też w chmurze. Dla systemów backupu oznacza to trzy rzeczy: konieczność przesyłania od użytkowników tylko nowych danych, centralizacji zarządzania oraz automatyzacji – tłumaczy Daniel Olkowski, Solution Advisor w Dell EMC.
Ciągła ochrona danych zdalnych pracowników może być kłopotliwa ze względu na ograniczenia w przepustowości łączy oraz tworzenie kopii zapasowych nie tylko firmowych, ale również prywatnych plików.
– W obecnych warunkach proste środki do ochrony danych nie zawsze się sprawdzają. Wynika to z rozproszenia procesów wytwarzania i przetwarzania danych. W wielu wypadkach tylko bardziej zaawansowane rozwiązania umożliwiają zabezpieczanie urządzeń końcowych zdalnych pracowników. Jedną z metod jest wirtualizacja desktopów, gdyż wówczas wszystkie dane pozostają cały czas w centrum danych – zauważa Sławomir Marcisz, architekt IT w Netology.
Producenci od pewnego czasu poszukują też innych rozwiązań, które pozwalają skutecznie zabezpieczać cyfrowe zasoby. Jednym z nich jest integracja produktów do cyberochrony oraz tworzenia kopii zapasowych. Przykładowo, Acronis znany z oprogramowania do backupu już półtora roku temu oznajmił, że połączy je z narzędziami do zabezpieczenia przed zewnętrznymi zagrożeniami i złośliwym kodem.
Jednak na rynku można też zaobserwować ruchy w drugą stronę: dostawcy antywirusów wprowadzają do swojej oferty rozwiązania do backupu. Przykładowo użytkownicy produktów G Daty oraz Symanteca mogą korzystać z funkcji wykonujących automatyczne kopie danych w chmurze. Innym stosunkowo nowym zjawiskiem jest wdrażanie systemów do backupu na brzegu sieci, które szczególnie sprawdzają się w oddziałach firm. Tego typu rozwiązania oferują, między innymi: Veritas, Unitrends czy Arcserve.
Coraz więcej danych krytycznych
Pracownicy działów IT skarżą się, że jest im coraz trudniej sprostać oczekiwaniom koleżanek i kolegów z innych departamentów. Problemem staje się nie tylko deficyt informatyków, ale także wysokie wymagania stawiane przez menedżerów, którzy chcą, żeby systemy IT działały przez 24 godzinę na dobę. Trudno się temu dziwić, bowiem nieplanowane przestoje niosą ze sobą poważne konsekwencje, począwszy od wymiernych strat finansowych, aż po utratę wizerunku, co może być szczególnie dotkliwe w przypadku instytucji finansowych czy firm e-commerce. Według najnowszego raportu „Data Protection Trends” opracowanego przez Veeama, aż 95 proc. firm doświadczyło nieplanowanego przestoju, przy czym tolerowana przez biznes przerwa wynikająca z tego tytułu nie może być dłuższa niż dwie godziny. Z badania wynika, że godzina przestoju aplikacji o wysokim priorytecie kosztuje 67,6 tys. dol., zaś w przypadku normalnego priorytetu jest to niewiele mniej, bo 61,6 tys. dol.
Wprawdzie firmy przenoszą wiele aplikacji i danych do chmury publicznej, ale te najbardziej istotne zazwyczaj pozostają na lokalnych urządzeniach. Obecnie większość centrów danych jest zwirtualizowanych, ale w niektórych przypadkach aplikacje o znaczeniu krytycznym lub starsze środowiska są uruchamiane na fizycznych serwerach. Charakter tego oprogramowania sprawia, że pliki systemu operacyjnego, same aplikacje, jak i dane muszą być objęte należytą ochroną. Rozwiązania do back-upu i disaster recovery najważniejszych dostawców zabezpieczają całą platformę i mają zdolność do odtworzenia środowiska systemowego po rozległej awarii sprzętowej serwera. Analitycy Gartnera zwracają uwagę, że tego typu narzędzia powinny zapewnić obsługę serwerów pracujących pod kontrolą Windows, najważniejszych dystrybucji Linuxa (w tym Red Hat oraz SUSE), HP-UX, Oracle Solaris czy IBM AIX.
Ponadto dostawcy rozwiązań do ochrony danych starają się umożliwić jak najwięcej opcji odzyskiwania, w tym P2P (Physical to Physical) czy P2V (Physical to Virtual). W tym drugim przypadku użytkownik nie musi instalować nowego sprzętu. Wystarczy utworzyć maszynę wirtualną na serwerze głównym i odzyskać system operacyjny, aplikacje i dane z serwera fizycznego na maszynę wirtualną. Tym, co powinno cieszyć – zarówno klientów, jak i integratorów – jest pojawienie się wśród dostawców kilku nowych graczy. Gartner w analizie poświęconej rozwiązaniom do tworzenia kopii zapasowych i odtwarzania danych dość wysoko ocenia produkty takich firm jak Rubrik, Actifio czy Cohesity.
Zdaniem specjalisty
Wirtualna infrastruktura umożliwia ochronę środowiska m.in. za pomocą klastrów wysokiej dostępności (High Availability) czy metropolitarnych (Metro Stretched Cluster). Pozwalają one połączyć dwa ośrodki przetwarzania danych w różnych lokalizacjach geograficznych, zapewniając odporność na awarię całego środowiska, bez utraty danych i krótki brak dostępności usług. Warto jednak podkreślić coraz ważniejszą rolę, jaką w procesach DR odgrywa chmura publiczna. Można realizować w niej np. tryb active/standby czy active-active, chociaż w przypadku usług niektórych dostawców istnieją pewne ograniczenia dla polskich klientów związane z odległością do najbliższego centrum danych. Niezależnie od wybranej konfiguracji, DRaaS staje się realną, tańszą alternatywą dla klasycznego modelu budowy dwóch oddzielnych serwerowni.
W ostatnim czasie wielu klientów kieruje do nas pytania dotyczącego kompleksowej ochrony danych. Najczęściej zwracają uwagę na takie aspekty, jak: ustawienia polityki backupu, możliwości w zakresie deduplikacji i kompresji oraz mechanizmy zmniejszające ryzyko ataku ransomware. Firmy podczas zakupu uwzględniają obecne potrzeby, takie jak ochrona maszyn wirtualnych oraz fizycznych, a nie zwracają uwagi na aspekty związane z rozwojem rynku informatycznego. Myślę tutaj przede wszystkim o rozwiązaniach open source, kontenerach czy środowisku chmurowym. Wsparcie ze strony dostawców usług chmurowych jest szczególnie ważne w przypadku procesów disaster recovery.
Polscy klienci lubią chmurę i boją się chmury. Wiele firm docenia możliwości i wygodę, więc przenosi do niej swoje zasoby i korzysta z oprogramowania typu Office 365, a jednocześnie obawiają się o prywatność tych danych. Często jednak zapominają, że to nie tylko kwestia prywatności, ale faktycznego bezpieczeństwa przechowywania danych w chmurze. O ile wielu dostawców chmury oferuje możliwość przywracania usuniętych danych przez pewien czas, to jednak nie mamy stuprocentowej gwarancji, że zawsze będą one dostępne. Przykładem są niedawne problemy różnych dostawców chmury, którzy omyłkowo skasowali dane klientów, padli ofiarą ransomware lub mieli inne awarie. Dlatego korzystając z tego modelu przechowywania danych warto mieć na uwadze bezpieczeństwo i zadbać o ich backup.
Podstawowym kryterium przy wyborze narzędzia do backupu cały czas są koszty. Każda poważna firma powinna jednak zastanowić się, czy jej dane są wystarczająco bezpieczne. W jaki sposób poradzi sobie w przypadku awarii, pożaru lub innej sytuacji kryzysowej? Wśród wielu użytkowników panuje przekonanie, że jeśli mam kopię zapasową, to jestem bezpieczny. Ale tak naprawdę, jedna kopia to żadna kopia. Firmy powinny mieć opracowany plan zabezpieczenia danych, zarówno na poziomie kopii zapasowych zgodnie z zasadą 3-2-1, jak i przewidzieć dodatkowe mechanizmy, w tym kopie migawkowe, które pozwalają na szybkie odzyskanie danych w przypadku ataku ransomware.
SaaS i nowe silosy
Oprogramowanie oferowane w modelu SaaS już od kilku lat pozostaje największym segmentem rynku usług chmurowych. Gartner prognozuje, że w tym roku przychody ze sprzedaży wyniosą w tym przypadku 104,7 mld dol. Jak widać, przedsiębiorcy bardzo chętnie korzystają z aplikacji w chmurze i doceniają elastyczność takiego rozwiązania. Niestety, większość firm wychodzi z niesłusznego założenia, że usługodawca w ramach miesięcznego abonamentu zaopiekuje się ich danymi. Według badania przeprowadzonego przez Salesforce’a, aż 88 proc. użytkowników SaaS nie stworzyło kompleksowej strategii tworzenia kopii zapasowych i odzyskiwania danych.
– Odpowiedzialność usługodawcy SaaS w zakresie ochrony danych jest ograniczona do niezbędnego minimum. Jedna z niepisanych reguł dotyczących Salesforce’a mówi, żeby samemu tworzyć kopie zapasowe własnych danych. Warto też zauważyć, że według tego usługodawcy co trzeci ich klient utracił dane – mówi Ori Yankelev, założyciel OwnBackup.
Wprawdzie Salesforce nie odmawia pomocy usługobiorcom w trudnych chwilach, ale warunki oferowane przez firmę Marca Benioffa nie zachęcają do współpracy. Najbardziej obrazowy jest przykład dotyczący opłaty za odzyskanie danych. Użytkownik musi zapłacić za usługę 10 tys. dol., zaś czas realizacji wynosi od 6 do 8 tygodni. Strategia Salesforce’a nie jest wyjątkowa, również inni dostawcy usług chmurowych stosują bardzo podobne metody.
W rezultacie firmy mają do wyboru dwie opcje: opracować rozwiązania do backupu we własnym zakresie, co jest niewykonalne dla lwiej części przedsiębiorców, bądź skorzystać z oferty firm zewnętrznych. W ostatnich latach część producentów wyspecjalizowała się w rozwiązaniach „szytych” pod Sales-force’a (m.in. OwnBackup, Druva czy CopyStorm), jak i Office’a 365 (Comm-vault, Barracuda, Storware czy Veeam). Do rywalizacji włączają się też dostawcy sprzętu. Przykładowo QNAP i Synology oferują oprogramowanie do backupu danych z Office’a 365 oraz G Suite, choć w tym przypadku trzeba zainwestować w serwer NAS i nośniki.
Przeprowadzka do chmury
Analitycy szacują, że około 90 proc. firm korzysta z wirtualnych serwerów, na których bardzo często instalowane są aplikacje krytyczne. Wraz z przenoszeniem kolejnych programów do zwirtualizowanych środowisk, rosną wymagania w zakresie ich ochrony, a także szybkiego przywracania do pracy po awarii.
– Procedury ochrony maszyn wirtualnych powinny spełniać trzy warunki: ich kopie należy wykonywać z dużą częstotliwością, w neutralny dla środowisk produkcyjnych i automatycznie dostosowujący się do zmian sposób. Jeśli powyższe wymogi są zachowane, odtworzy się każdą maszynę, a administrator zamiast wykonywać manualne czynności, skupi się na kwestiach związanych z zapewnieniem SLA – tłumaczy Daniel Olkowski.
W ostatnim czasie jednym z ważniejszych tematów poruszanych przez dostawców systemów do backupu wirtualnych maszyn jest ciągła ochrona danych, znana też jako CDP (Continuous Data Protection). Dzięki tej funkcji istnieje możliwość tworzenia kopii wirtualnych maszyn co kilkanaście sekund. To odpowiedź producentów na postulaty klientów żądających wykonywania backupu z jak największą częstotliwością.
– CDP pozwala znacznie poprawić wskaźnik RPO. Jest to natomiast opcja przeznaczona dla krytycznych maszyn wirtualnych, bo przecież nie wszystkie muszą być replikowane co 15 sekund. W większości przypadków wystarczy backup wykonywany raz dziennie – wyjaśnia Tomasz Krajewski, Technical Sales Director, Eastern EMEA w Veeamie.
Nie mniej ważną kwestią jest możliwość przenoszenia maszyn wirtualnych pomiędzy środowiskami lokalnymi a chmurą. Niektóre firmy nie chcą budować zapasowych centrów danych, aby zagwarantować sobie stuprocentową dostępność oraz odporność na awarie, więc decydują się na ofertę dostawców usług chmurowych. Jest to jedna z przyczyn, z powodu której Commvault, Dell EMC czy Veeam zwiększają możliwości swoich systemów w zakresie współpracy z Amazonem, Microsoftem czy Google’em.
Wkrótce wyzwaniem będzie backup wolumenów podłączonych do kontenerów. Część producentów wykonało już pierwsze kroki, aby przygotować się do realizacji nowego zadania. VMware rozpoczął współpracę z Velero – startupem oferującym narzędzie do backupu klastra Kubernetes i trwałych wolumenów. W podobnym kierunku zmierzają konkurenci, m.in. NetApp, który przedstawił na początku roku nową platformę do przechowywania danych w środowiskach Kubernetes. Commvault z kolei w lipcu wprowadził kompleksową obsługę Kubernetes do swojego środowiska pamięci masowych definiowanych programowo (Hedvig), Pure Storage dwa miesiące później poinformował o przejęciu Portworx – twórcy oprogramowania do obsługi danych dla kontenerów. Veeam natomiast w październiku pozyskał za 150 mln dolarów firmę Kasten, która się specjalizuje w rozwiązaniach backupu i DR dla Kubernetes.
Zdaniem integratora
Pierwsze półrocze bieżącego roku minęło pod znakiem sprzedaży podstawowych narzędzi do pracy zdalnej: laptopów i bezpiecznych rozwiązań do komunikacji. Zainteresowanie backupem pojawiło się dopiero w drugim półroczu. Co ciekawe, dla mniejszych przedsiębiorstw, które często musiały wysupłać na narzędzia do backupu ostatnie grosze, współczynniki RTO i RPO nie miały żadnego znaczenia. Ta grupa klientów stawiała na szybkość i komfort wdrożenia oraz łatwość zarządzania. Inaczej wyglądała sytuacja w przypadku koncernów, dysponujących dużymi budżetami na ochronę danych. Dla nich wymienione współczynniki są istotne, głównie ze względu na zapewnienie sobie spokoju.
Artykuł Ochrona danych: czas dużych zmian pochodzi z serwisu CRN.
]]>Artykuł Od backupu nie ma ucieczki pochodzi z serwisu CRN.
]]>Równie ważny jest dobór właściwych narzędzi do wykonywania kopii zapasowych. Muszą zapewniać funkcje, dzięki którym dział IT zagwarantuje systematyczne wykonywanie backupu oraz odzyskiwanie danych w sposób opisany przez działy biznesowe w polityce bezpieczeństwa. Dlatego Veracomp ma tak bardzo rozbudowaną ofertę rozwiązań ochronnych. Dzięki nim partnerzy dystrybutora z łatwością dobierają właściwy system do backupu urządzeń końcowych, serwerów, środowisk wirtualnych, a także danych zgromadzonych w chmurze. Do dyspozycji integratorów i ich klientów jest też zespół ekspertów, którzy nieustannie prowadzą działania edukacyjne (szkolenia i webinaria) oraz wspierają partnerów podczas realizacji ich projektów, szczególnie tych nietypowych. Dystrybutor prowadzi także akcję All of Backup, której celem jest promocja najlepszych praktyk zabezpieczania firmowych danych i zapewniania ciągłości działalności przedsiębiorstwom.
Oferowane przez Veracomp rozwiązania do backupu HPE StoreOnce znane są przede wszystkim z bardzo wydajnego mechanizmu deduplikacji. Realizowana jest w wielu miejscach w infrastrukturze IT przedsiębiorstwa – w samej aplikacji (na urządzeniu końcowym lub serwerze aplikacyjnym), na serwerze backupu, w urządzeniu zapewniającym przestrzeń do składowania kopii zapasowych oraz w macierzach dyskowych HPE 3PAR, Primera i Nimble, z których dane mogą być kopiowane do rozwiązania StoreOnce z wykorzystaniem oprogramowania HPE Recovery Manager Central. Natomiast usługa Cloud Bank Storage zapewnia wykonywanie dodatkowej, deduplikowanej kopii danych zgromadzonych w chmurze, co gwarantuje ich ochronę w przypadku awarii w centrum danych klienta.
Bardzo duża wydajność procesów backupu i odzyskiwania umożliwia sprostanie malejącym oknom backupowym oraz zapewnia krótki czas odzyskiwania, zgodny z umowami SLA. Dzięki skalowalnej architekturze rozwiązania te sprawdzają się zarówno w małych biurach i oddziałach firm, jak i w dużych centrach danych. Pojemność tych urządzeń może być zwiększana wraz ze wzrostem potrzeb, dzięki czemu koszt posiadania całego systemu rośnie liniowo. Przeznaczone dla najmniejszych firm rozwiązania HPE StoreOnce 3620 i 3640 zapewniają odpowiednio do 31,5 i do 108 TB pojemności (maks. transfer 14 i 18 TB/godz.). Większe systemy HPE StoreOnce 5200 i 5250 oferują pojemność 216 i 864 TB (transfer 33 i 41 TB/godz.), a największe urządzenie HPE StoreOnce 5650 – aż 1,7 PB (transfer 47 TB/godz.).
Przedsiębiorstwa zainteresowane ochroną danych za pomocą oprogramowania (maks. 500 TB) powinny wybrać rozwiązanie HPE StoreOnce VSA. Jego nowa wersja może być wdrażana w środowiskach wysokiej dostępności VMware, dzięki czemu zapewniane jest automatyczne przywracanie po awarii hosta produkcyjnego i przenoszenie wirtualnych maszyn na oczekującego hosta zapasowego z wykorzystaniem połączeń IP oraz FC.
Firma Veritas została kupiona przez Symanteca w 2004 r., ale po dekadzie odkupił ją fundusz inwestycyjny The CarlyleGroup i od tej pory znów funkcjonuje pod swoją dawną marką. Natomiast niezmiennie oferuje dwa główne, cały czas rozwijane produkty do kopii zapasowych: Backup Exec oraz NetBackup. Pierwszy z nich przeznaczony jest głównie dla środowisk Windows i Linux, drugi zaś jest rozwiązaniem klasy enterprise i zapewnia ochronę danych z bardzo dużej liczby aplikacji, systemów operacyjnych i środowisk chmurowych.
Szczególnie warte zainteresowania jest narzędzie NetBackup Cloud Catalyst. Umożliwia backup do chmury (ponad 40 wtyczek do różnych usług chmurowych), realizowany w bardzo szybki sposób, gdyż dzięki mechanizmowi deduplikacji redukowana jest ilość przesyłanych danych. Po dokonaniu replikacji środowisko w chmurze można potraktować jak ośrodek zapasowy i korzystać ze zgromadzonych tam danych oraz maszyn wirtualnych w przypadku katastrofy w głównej siedzibie firmy. Narzędzie NetBackup Cloud Catalyst można wykorzystywać także do archiwizacji danych.
vProtect to rozwiązanie do backupu maszyn wirtualnych i kontenerów oraz zarządzania ich kopiami migawkowymi, stworzone przez polską firmę Storware. Dzięki łatwemu w obsłudze interfejsowi możliwe jest bardzo szybkie skonfigurowanie sposobu ochrony danych. Są one poddawane kompresji i deduplikacji, a po ich skopiowaniu automatycznie dokonywana jest weryfikacja poprawności tego procesu – wszystko wpływa na oszczędność zasobów, czasu i budżetu działu IT. Kopie backupowe mogą być przechowywane w wielu miejscach – lokalnie (także w środowisku zarządzanym przez oprogramowanie innych producentów), w obiektowej pamięci masowej OpenStack Swift oraz w wielu chmurowych repozytoriach.
Storware ma również w ofercie pakiet KODO for Endpoints służący do backupu danych z urządzeń końcowych z systemami Windows oraz macOS X. Jest on wdrażany w lokalnej infrastrukturze jako wirtualny appliance, agenty backupu zaś są instalowane na komputerach przez aplikację z graficznym interfejsem użytkownika lub bez niego (możliwa jest także zdalna instalacja). Rozwiązanie to zapewnia deduplikację, kompresję i szyfrowanie zabezpieczanych danych (zarówno w czasie transferu, jak też już znajdujących się w repozytorium backupu) oraz przechowywanie poprzednich wersji plików. Coraz większą popularnością cieszy się również narzędzie KODO for Cloud, umożliwiające backup do lokalnego środowiska danych z usług Microsoft Office 365 oraz Box.
Jerzego Skiby, konsultanta ds. pamięci masowych w Veracomp
HPE od wielu lat ma w ofercie rozwiązania do backupu, które pod względem wartości sprzedaży są jednym ze światowych liderów. Czy w Polsce zainteresowanie nimi jest podobnie duże?
Tak, na systemy HPE StoreOnce jest duży popyt także u nas, szczególnie często kupowane są razem z macierzami dyskowymi. Dla dużych biur i centrów danych przeznaczone są urządzenia o różnej wielkości i wydajności, u mniejszych klientów i w oddziałach firm dobrze sprawdzają się narzędzia do zarządzania danymi HPE StoreOnce VSA w postaci maszyn wirtualnych. Dzięki wbudowanemu zaawansowanemu mechanizmowi deduplikacji możliwe jest zmniejszenie miejsca potrzebnego na przechowywanie zabezpieczanych danych nawet o 95 proc.
A jak na polskim rynku radzi sobie Veritas po „rozwodzie” z firmą Symantec?
Veritas wciąż rozbudowuje swój kanał partnerski, poszukuje integratorów, którzy będą chcieli wyspecjalizować się w jego rozwiązaniach. A warto się nimi zainteresować, bo ich funkcjonalność jest bardzo duża – oprogramowanie to rozwijane jest od ponad 30 lat, zaliczane do najlepszych rozwiązań backupowych na świecie i długo to się nie zmieni. Dla przykładu, Veritas jako jeden z nielicznych producentów skupia się na ochronie danych w środowiskach open source, np. MySQL, OpenStack i Hadoop. Jego systemy obsługują też bardzo wiele platform chmurowych, a przy zapisywaniu danych w niektórych z nich klienci mogą stosować zapewniające deduplikację narzędzie Cloud Catalyst. Producent cały czas rozwija też ofertę, w portfolio ma m.in. urządzenia do backupu z preinstalowanym własnym oprogramowaniem. Do przeznaczonego dla mniejszych firm oprogramowania Backup Exec wprowadził natomiast ostatnio wiele funkcji z przeznaczonego dla korporacji rozwiązania NetBackup, m.in. narzędzie do uruchamiania wirtualnych maszyn bezpośrednio z kopii backupowej.
Jak na tym tle plasuje się polskie oprogramowanie Storware?
Bardzo dobrze i to z kilku powodów. Oprogramowanie to zapewnia ochronę danych z platform chmurowych i open source, które niewiele innych firm chce backupować, np. KVM, Proxmox, REV, a także z platform wirtualizacyjnych bazujących na otwartym źródle. Warto, aby partnerzy promowali lokalne pochodzenie tego rozwiązania, bo dzięki temu wsparcie techniczne zapewniane jest w języku polskim, wszyscy eksperci są łatwo dostępni i nie ma żadnych blokad powodowanych przez procedury korporacyjne spotykane nieraz w przypadku globalnych dostawców.
Artykuł Od backupu nie ma ucieczki pochodzi z serwisu CRN.
]]>Artykuł Backup i chmura: symbioza czy konkurencja? pochodzi z serwisu CRN.
]]>Jarosław Mikienko, Systems Engineer, ExaGrid
Piotr Bator, Hyperconverged Sales Manager, HPE
Paweł Mączka, Chief Technology Officer, Storware
Jerzy Skiba, konsultant ds. pamięci masowych, Veracomp
Leonid Venglinski, System Engineer, Veritas
CRN Popularyzacja dostępnych na rynku usług chmur publicznych przedefiniowała sposób strategicznego i taktycznego podejścia do backupu. Klienci zyskali możliwość przechowywania kopii zapasowych w chmurze, ale też dość szybko okazało się, że także sami muszą zadbać o backup danych z aplikacji uruchamianych w środowisku chmurowym. W jakim kierunku rynek rozwiązań do backupu będzie się rozwijał i czy należy spodziewać się kolejnych „niespodzianek” lub zwrotów akcji?
Paweł Mączka W tej chwili widać przede wszystkim nacisk na to, aby obniżyć cenę przestrzeni pamięci masowej oferowanej w chmurze. Są już dostawcy takich usług, którzy mówią o kwotach rzędu jednego dolara za terabajt miesięcznie. To niewiarygodnie dobra oferta, wynikająca głównie z efektu skali. Ale naturalnie takie rozwiązanie nie jest pozbawione wad. Najważniejszą jest relatywnie wolny transfer danych. Nie jest on największą przeszkodą, gdy trzeba przetwarzane lokalnie informacje przesłać do chmury, ale odzyskanie dostępu do nich w przypadku awarii może trwać bardzo długo. Dlatego raczej powinniśmy traktować przestrzeń w chmurze jako kolejny nośnik zapasowy na kopię danych zabezpieczanych także lokalnie. Ewentualnie można wykorzystać go do długotrwałej archiwizacji lub zbudowania środowiska Disaster Recovery as a Service.
Piotr Bator Chmura jako zjawisko, nowy trend, rzeczywiście stała się bardzo popularna, jest coraz więcej rozmów z klientami na ten temat. Nie widzimy jednak tak dużego wzrostu liczby firm przenoszących swoje środowisko w całości do chmury, jak zapowiadali niektórzy analitycy. Obecnie optymalnym modelem i chyba jedynym sensownym na najbliższych kilka lat jest korzystanie z lokalnych zasobów dyskowych w firmie do backupu, co gwarantuje szybki czas odtworzenia danych po awarii. Można poddawać je deduplikacji i wybierać te najbardziej strategiczne, których druga kopia powinna ewentualnie trafić do chmury, na czarną godzinę.
Leonid Venglinski Potwierdzam, że po pierwszym zachwycie chmurą przedsiębiorstwa kierują się w stronę środowisk hybrydowych. Chmura jest wykorzystywana głównie wtedy, gdy występuje chwilowe zwiększenie zapotrzebowania na zasoby, a firma nie chce ponosić kosztów przewymiarowanego środowiska. Obecnie naszym zadaniem jest kształtowanie świadomości, że chwilowe lub trwałe odcięcie od danej usługi chmurowej uniemożliwi korzystanie z przechowywanych w niej danych biznesowych, czyli de facto od źródła dochodów. Uważamy, że oprócz tworzenia lokalnej kopii danych firmy powinny budować środowiska wielochmurowe, zapewniające składowanie danych w wielu miejscach, przenoszenie ich między różnymi usługami chmurowymi, a także oczywiście umożliwiające obserwację, co i gdzie przechowujemy.
CRN Czy zatem niski koszt przechowywania danych w chmurze jest mitem?
Jarosław Mikienko Reklamowane przez dostawców niskie ceny przestrzeni dyskowej to tylko jedna składowa całości i to wcale nie najważniejsza. Backup do chmury publicznej, z finansowego punktu widzenia, sprawdza się tylko w małych firmach, które nie mają własnej serwerowni. Zwykle w takich przedsiębiorstwach ilość zabezpieczanych danych jest niewielka, a kilkugodzinny przestój nie powoduje wielkich perturbacji. W przypadku dużych firm prawie zawsze koszt przechowywania danych we własnym środowisku jest niższy. Zaprojektowanie efektywnego procesu wykonywania kopii do chmury i ich ewentualnego odzyskiwania wiąże się z koniecznością wzięcia pod uwagę wielu szczegółów. Celem powinno być określenia parametru Recovery Time Objective, czyli maksymalnego czasu, w którym dane muszą zostać odtworzone. Dążeniem każdej firmy jest, aby ten czas skracać. Decyzja o utrzymywaniu kopii zapasowych wyłącznie w chmurze wydłuża RTO.
Paweł Mączka Warto też zauważyć, że wybrani usługodawcy chmurowi często stosują dumpingowe ceny na wybrane usługi. Świadomie psują rynek, aby wciągnąć klienta w swoje środowisko chmurowe. Wówczas łatwiej jest im zaoferować inne swoje usługi – pocztowe lub obsługę aplikacji – na których zarabiają znacznie lepiej.
Jerzy Skiba Na razie dostawcom usług chmurowych jest o tyle łatwiej, że wielu klientów o chmurze tylko słyszało, ale nie miało z nią do czynienia w sposób praktyczny. Często np. myli się chmurę publiczną z kolokacją. Jest obawa o bezpieczeństwo, o to, że ktoś nie tylko będzie mieć dostęp do danych, lecz także „na pewno” będzie je przeglądać czy wykradać. Dobrze, że w kwestii rozwiązań chmurowych jesteśmy kilka lat za Zachodem – możemy zaobserwować trendy, które tam panowały, popełnione błędy i dzięki temu wyciągnąć wnioski, aby ich uniknąć. Jednym z nich jest właśnie długi czas przenoszenia danych do chmury i ich odtwarzania w przypadku awarii. Chmura przez pewien czas była wskazywana nawet jako usługa, która szybko wyprze rozwiązania taśmowe jako te, na których składuje się dane o długim czasie przetrzymywania. Nie sądzę jednak, żeby tak się stało.
CRN Jak na podejście do chmury wpłynął fakt, że mieliśmy już kilka poważnych przypadków, gdy przechowywane w cudzym środowisku dane nagle stawały się niedostępne?
Paweł Mączka Na początku to był szok dla wielu klientów, bo chmura była przedstawiana jako wyjątkowo bezpieczne i wysoko dostępne środowisko, zarządzane przez ekspertów, zlokalizowane w profesjonalnych serwerowniach. Tymczasem okazało się, że rozwiązywanie ewentualnych problemów z dostępem do danych trwa długo, nie jest zautomatyzowane, a reakcja usługodawcy następuje wyłącznie w efekcie indywidualnego zgłoszenia problemu przez klienta. Dlatego uważam, że w ciągu paru najbliższych lat spopularyzują się usługi chmurowe, których celem będzie zabezpieczanie innych usług chmurowych – zarówno backup danych, jak i automatyzacja procesów Disaster Recovery.
Piotr Bator Zauważyliśmy też trend, zgodnie z którym klienci chcą replikować środowiska chmurowe we własnej lokalnej infrastrukturze na wypadek globalnej awarii. Ma to sens w sytuacji, gdy z zasobów chmurowych korzysta wielu rozproszonych po świecie pracowników, ale w przypadku awarii możliwość kontynuowania pracy chce zachować przynajmniej centrala firmy.
CRN Ciekawy jest też fakt, że zarówno przeciwnicy chmury, jak i jej zwolennicy jako koronny argument wskazują bezpieczeństwo. Oczywiście każdy w innym kontekście…
Jerzy Skiba Podczas moich rozmów z klientami temat bezpieczeństwa w związku z możliwością utraty danych prawie w ogóle nie jest poruszany. Z reguły jest tylko podnoszona kwestia czasu przywrócenia danych do środowiska produkcyjnego. Z kolei czym innym jest potencjalna możliwość dostępu do danych osób trzecich – ta obawa istnieje.
Piotr Bator Kwestię bezpieczeństwa najlepiej oddaje zaakceptowana już przez rynek taktyka 3-2-1, polegająca na tym, że przechowujemy trzy kopie danych, na dwóch nośnikach, przy czym jedna musi być poza siedzibą firmy. Ten trzeci warunek można spełnić na dwa sposoby – robiąc kopię lokalnie i wywożąc nośnik z siedziby firmy lub też wykonując backup do chmury. Nasi klienci są zainteresowani obiema metodami, nadal więc oferujemy systemy taśmowe, a do tego umożliwiamy integrowanie naszych rozwiązań backupowych z chmurą.
Leonid Venglinski Dzisiaj prawie w każdym kraju zaczynają powstawać chmury narodowe, których główną zaletą jest to, że gwarantują absolutną zgodność z lokalnymi przepisami prawnymi. To jest jedyna szansa, aby duże przedsiębiorstwa i instytucje sektora publicznego w ogóle zainteresowały się takimi usługami ze względu właśnie na regulacje, a także geograficzną bliskość usługodawcy – w krytycznej sytuacji, zamiast pobierać dane przez internet, może on po prostu wysłać zawierający je nośnik klientowi. Z kolei jeśli firmie uda się stworzyć w chmurze środowisko Disaster Recovery, dzięki któremu w przypadku awarii lokalnego systemu będzie w stanie uruchomić jego replikę w chmurze i niemal od razu kontynuować pracę, to taki model będzie niósł z sobą największą wartość.
CRN Z reguły kopia backupowa zawiera wszystkie lub większość firmowych danych. Tymczasem analitycy przestrzegają, że należy jej pilnować wyjątkowo szczególnie, bo czyhający na dane przestępcy mogą próbować uzyskać dostęp właśnie do kopii, której administratorzy strzegą z reguły mniej niż środowiska produkcyjnego. A jeśli backup jest prowadzony w chmurze, włamanie może okazać się jeszcze prostsze. W jaki sposób najłatwiej zabezpieczyć się przed tego typu wyciekiem?
Paweł Mączka Istnieje wiele czynników ułatwiających ochronę. Wszystkie poważne platformy backupowe zapewniają własny pseudosystem plików, najczęściej szyfrowany, który funkcjonuje inaczej niż popularne systemy plików, a przez to utrudnia dostęp do danych osobom postronnym. Oczywiście należy też zachować higienę pracy – regularnie zmieniać hasła, objąć serwery backupu ochroną zapory sieciowej itd. Skuteczne jest też skorzystanie z takich rozwiązań jak wirtualna biblioteka taśmowa, wprowadzająca dodatkową warstwę z danymi, przez którą włamywacz musiałby się przedrzeć.
Jerzy Skiba Jeżeli w jakiejś firmie doszłoby do udanego ataku tego typu, byłoby to konsekwencją wyjątkowej niechlujności administratorów, oznaką niestosowania przez nich żadnych dobrych praktyk. Jeżeli administrator nie zmienia prostego hasła, które zostało tak ustawione tylko na czas wdrożenia, to sam prosi się o kłopoty. Także szyfrowanie trzeba stosować zawsze, a zapewnia je każde rozwiązanie do backupu. Oczywiście wiąże się to z koniecznością zarządzania kluczami szyfrującymi, aktualizacją oprogramowania itd. Taki problem z „cyberhigieną” może pojawić się w firmach, w których zespół IT jest zbyt mały i dodatkowo odpowiedzialny za zbyt wiele obszarów.
Leonid Venglinski Bardzo obawiałbym się sytuacji, w której do wycieku ze środowiska backupowego doprowadza zwolniony przed chwilą pracownik danej firmy. Takie przypadki także powinny obejmować procedury ochronne w przedsiębiorstwie, aby zagwarantować 100 proc. bezpieczeństwa kopii zapasowych i wyeliminować możliwe próby kradzieży danych. W szczególności należy zwrócić uwagę na prawidłową konfigurację zasad dostępu do usługi składowania danych w chmurze.
Piotr Bator Takich zaniedbanych obszarów w firmie jest więcej. Mnóstwo poufnych danych można wykraść przez drukarki, jeśli systemy nie są odpowiednio chronione. Myślę, że takie włamanie byłoby nawet łatwiejsze do przeprowadzenia niż do środowiska backupowego. Ale rzeczywiście, gdyby komuś udało się uzyskać dostęp do kopii zapasowej zawierającej wszystkie firmowe dane, byłaby to zbrodnia doskonała…
Jarosław Mikienko Obok haseł przede wszystkim trzeba zwracać uwagę na szyfrowanie. W oferowanym przez nas deduplikatorze proces ten nie wpływa na wydajność rozwiązania, a cenowo jest ono porównywalne z urządzeniami niezawierającymi szyfrowania. Warto też przyjrzeć się specyfikacji kupowanego systemu. W systemach backupu stosunkowo niedawno zaczęły pojawiać się takie funkcje jak weryfikacja poziomu skomplikowania haseł czy przyznawanie dostępu według zasad bazujących na roli użytkownika w firmie.
CRN Tego typu ignorancja części administratorów często wynika z braku wiedzy. Dla wielu osób wykonywanie kopii zapasowych z reguły jest dodatkowym zadaniem, bo w mało której firmie są zatrudnieni administratorzy backupu. Na ile pracownicy działów IT potrafią poprawnie stworzyć procedury związane z backupem, znają parametry RPO i RTO oraz umieją zbudować zgodne z nimi środowisko?
Jarosław Mikienko Nie jest z tym dobrze. Od dłuższego czasu próbuję przekonać klientów do skrupulatnego wyliczenia tak podstawowego parametru jak maksymalny planowany czas odtworzenia środowiska po awarii, czyli RTO. Zadziwia mnie, jak często słyszę, że czas odtwarzania nie jest istotny! Często nie jest zdefiniowane okno backupowe, czyli okres, kiedy można wykonać backup bez negatywnego wpływu na wydajność środowiska produkcyjnego. Wielu klientów mówi, że nigdy nie odtwarzali z backupu swoich systemów i, o zgrozo, nigdy nawet nie testowali takiej możliwości. Jedyną szansą na przekonanie ich do bardziej profesjonalnego podejścia jest pokazanie dodatkowych korzyści zapewnianych przez system backupowy, takich jak możliwość uruchamiania maszyn wirtualnych z kopii czy prowadzenia różnego typu analiz z wykorzystaniem kopii.
Paweł Mączka Te osoby żyją problemami, które występowały jakieś 15 lat temu. Wówczas prowadziło się analizy, w jaki sposób zaprojektować procedury i jakie mechanizmy wykorzystać, abyśmy zmieścić się w oknie backupowym. Tymczasem w nowoczesnych firmach w ogóle nie ma już okien backupowych, bo pracują one w trybie 24/7, więc zabezpieczanie danych także musi odbywać się ciągle. Ale w głowach administratorów mentalność z dawnych czasów pozostała…
CRN Ale czy jest to rzeczywisty brak potrzeby, czy może brak świadomości, że pojawiły się nowe możliwości wykorzystania środowisk backupowych?
Jerzy Skiba Całkiem spora część klientów nie jest świadoma, że w ogóle potrzebuje backupu, bo tylko dzięki temu będą mogli przywrócić działania firmy w przypadku awarii lub katastrofy. Oczywiście ta świadomość wzrasta, gdy do takiej sytuacji problematycznej dojdzie, w myśl powiedzenia, że mądry Polak po szkodzie. Zarządy firm mają jednak bardzo duże problemy z inwestowaniem w środowisko backupowe, bo nie są to kolejne gigabajty pamięci RAM czy rdzenie procesorów, które przekładają się na krótszy czas odpowiedzi aplikacji biznesowej. Backup to ubezpieczenie, a na nie z reguły pieniądze wydaje się z ciężkim sercem.
Paweł Mączka Można postawić tezę, że w Polsce zwykle edukujemy niewłaściwą grupę docelową. Skupiamy się na osobach technicznych, które do tej pory były najczęściej odpowiedzialne za dobór rozwiązań. A one coraz bardziej nie mają czasu na zarządzanie nimi, chciałyby „wdrożyć i zapomnieć’, co w przypadku backupu nie powinno mieć miejsca. Dlatego powinniśmy bardziej skupiać się na osobach z zarządu, na których wyobraźnię działają takie hasła jak ciągłość biznesowa oraz koszty związane z przerwaniem pracy firmy w związku z awarią głównej aplikacji. Do tego można dodać wspomniane już wykorzystanie skopiowanych danych do zautomatyzowanego procesu odtworzenia lub analityki. Na Zachodzie mówi się o tym od lat, u nas zaś nie.
Jarosław Mikienko Często jednak trudno jest rozmawiać z właścicielami usług biznesowych, którzy uważają, że backup to czynność techniczna, za którą odpowiedzialność spoczywa na dziale IT. Tam z reguły jesteśmy kierowani. Dlatego w tych rozmowach staramy się wykazywać wyjątkową dyplomacją.
CRN Podczas prób sprzedaży rozwiązań backupowych dość często jest podnoszony argument o braku zwrotu z inwestycji. Jaką taktykę zatem trzeba przyjąć, aby doprowadzić do finalizacji kontraktu?
Piotr Bator Przekaz kierowany do działów biznesowych musi być wyjątkowo precyzyjny, bazować na przykładach, ale nie oderwanych od rzeczywistości, np. dotyczących przestojów w takich firmach jak wielkie serwisy aukcyjne czy linie lotnicze. Należy pokazywać sposób liczenia możliwych do poniesienia strat i utraconych korzyści, bo to ich wartość będzie stanowiła o „zwrocie z inwestycji”. Oczywiście nastąpi on tylko w przypadku awarii, którą trudno przewidzieć, można jedynie oszacować jej ryzyko.
Jarosław Mikienko Klienci powinni rozsądnie inwestować w rozwiązania do tworzenia kopii zapasowych. Nie muszą one posiadać portów Fibre Channel ani dysków SSD. Warto, aby zapewniały dobrą funkcjonalność, jeśli chodzi o proces backupu. Muszą być przede wszystkim niezawodne, bo w pewnym momencie od takiego rozwiązania będzie zależało „być albo nie być” przedsiębiorstwa.
Leonid Venglinski Większość z nas jeździ samochodami, kupujemy do nich polisę ubezpieczeniową, można też wykupić autocasco. Backup to właśnie takie dodatkowe ubezpieczenie. Firma odzyska konkretne pieniądze, gdy nastąpi awaria lub atak ransomware – nie będzie musiała płacić haraczu, bo legalnie odtworzy środowisko produkcyjne on-premise lub w chmurze. I tak jak dobieramy parametry ubezpieczenia samochodu, tak samo trzeba dobrać parametry rozwiązania do backupu – każdy jego użytkownik ma innej skali biznes i inne potrzeby.
Jerzy Skiba Każda firma, a szczególnie instytucje publiczne, zanim wyda złotówkę, ogląda ją z obu stron. W przypadku inwestycji w rozwiązania backupowe ogląda ją jeszcze dokładniej. Traktowanie backupu jako inwestycji, która może przynieść zyski, jest podejściem niemożliwym do zrealizowania. Jedynym punktem zaczepienia jest wspomniana już możliwość wykorzystania skopiowanych danych do różnego typu analiz, bez obciążania mocy obliczeniowej systemów produkcyjnych.
CRN Wspomnieliśmy już o tym, że wiele elementów procesu backupu będzie mogło być zautomatyzowane. Jakie Waszym zdaniem powinny być to obszary?
Leonid Venglinski Automatyzacja to bardzo rozbudowany temat. Dzisiaj producenci oprogramowania do backupu starają się usprawnić odtwarzanie danych w ramach procesu Disaster Recovery. Niektóre funkcje mamy dostępne już teraz, jak odtwarzanie z chmury AWS do Azure lub na odwrót, a także do środowiska on-premise, przykładowo do wirtualizatora VMware.
Paweł Mączka Najczęściej ignorowanym przez administratorów obszarem związanym z backupem są testy udowadniające, że istnieje możliwość odtworzenia zabezpieczonych danych. Dlatego uważam, że to właśnie ta dziedzina powinna być zautomatyzowana w pierwszej kolejności. Do tego konieczne jest zapewnienie swobodnej migracji między środowiskami oraz możliwość ustalania warunków realizacji tego procesu. Na przykład klient mógłby robić backup jednocześnie do chmury Azure i AWS, a w przypadku awarii na szybko analizować, które środowisko pracuje wydajniej, i tam tymczasowo przełączać użytkowników.
CRN Czy wzrost popularności takich zautomatyzowanych systemów może spowodować jakieś zagrożenie dla integratorów? Przecież w ten sposób zautomatyzowane mogą też zostać zadania przez nich podejmowane…
Jarosław Mikienko Ostatnich 30 lat rozwoju systemów backupowych to nieustanne usprawnianie procesów automatyzacji. Bez tego nadal ręcznie zatrzymywalibyśmy bazę danych, kopiowali pliki na serwer backupu, a następnie na taśmę. Mimo postępującej automatyzacji dla partnerów pracy wciąż jest dużo. Wykonywanie podstawowych czynności to działania niskomarżowe. A rolą partnera jest doradzanie, wymyślanie, projektowanie i wdrażanie. Na tych usługach zarobią znacznie więcej.
Jerzy Skiba Automatyzacja wymaga sporej wiedzy, szczególnie że dotyka nie tylko jednego obszaru, jakim jest backup. Też nie uważam, że stanowi jakiekolwiek zagrożenie dla partnerów, bo z reguły automatyzowane jest to, czego nikt i tak nie lubi lub nie chce robić, bo są to te same, wielokrotnie powtarzane czynności. Z powodu automatyzacji nie zniknie potrzeba integracji i późniejszej weryfikacji poprawności pracy danego systemu. Tak zbudowane środowiska wymagają sporej wiedzy i doświadczenia.
Piotr Bator Automatyzacja jest coraz bardziej powszechna, popularna i potrzebna. Wszyscy dążymy do upraszczania sobie życia i pracy. Ale nie oznacza to, że tej pracy w ogóle nie będzie. Po prostu jej ciężar przesuwa się z warstwy technicznej do biznesowej. To nowe rodzaje wyzwań, którym trzeba stawić czoła.
Rozmawiał Krzysztof Jakubik
Artykuł Backup i chmura: symbioza czy konkurencja? pochodzi z serwisu CRN.
]]>Artykuł Veracomp dystrybutorem polskiej marki pochodzi z serwisu CRN.
]]>– W Polsce rynek rozwiązań backupu środowisk wirtualnych wart jest wiele milionów złotych. Warto go eksplorować. Czy rośnie rola tzw. „otwartych wirtualizatorów”? Trudno nazwać to ogromnym wzrostem, ale widzimy, że różne dystrybucje KVM nabierają coraz większego znaczenia w kraju i na świecie – twierdzi Jan Sobieszczański, CEO Storware.
Veracomp twierdzi, że od dłuższego czasu poszukiwał produktu, który zapewniłby skuteczne zabezpieczanie i backup alternatywnych wirtualizatorów. Za wyborem oprogramowania vProtect przemawiało kilka powodów:
– Pierwszym z nich był bogaty zakres środowisk wirtualnych, które może zabezpieczać. Drugim fakt, że firma jest bardzo elastyczna i w łatwy sposób przystosowuje produkt do potrzeb klientów. Na dodatek Storware jest polskim producentem, dlatego jeszcze łatwiej będzie nam szyć rozwiązania na miarę użytkownika – wyjaśnia Mirosław Chełmecki, dyrektor działu pamięci masowych i serwerów w Veracompie. Zapowiada pprezentację vProtect w cyklu spotkań „Dla bystrzaków” w projekcie „All of Backup”.
– Naszym celem jest zamknięcie listy hypervisorów oraz umożliwienie naszym klientom migracji pomiędzy nimi oraz chmurami. Dokładamy również funkcjonalności zapewniające głębszy monitoring i analitykę – wyjaśnia Jan Sobieszczański.
Można przeglądać i przywracać pliki kopii zapasowych bezpośrednio w interfejsie WWW lub udostępniać pliki w formacie RAW.
Artykuł Veracomp dystrybutorem polskiej marki pochodzi z serwisu CRN.
]]>Artykuł Polska firma powalczy w Skandynawii pochodzi z serwisu CRN.
]]>Warto dodać, że obaj partnerzy świadczą usługi w oparciu o rozwiązanie IBM Spectrum Protect, wzbogacając je o wsparcie dla platform: Microsoft Office 365 i BOX.
Artykuł Polska firma powalczy w Skandynawii pochodzi z serwisu CRN.
]]>