Artykuł Wirtualne maszyny na celowniku hakerów pochodzi z serwisu CRN.
]]>Nic dziwnego, że nadzór nad „wirtualkami” często wymyka się spod kontroli osób odpowiedzialnych za bezpieczeństwo. Największe atuty maszyn wirtualnych, a więc prostota, szybkość ich tworzenia i łatwość przenoszenia, stają się zmorą administratorów. Problem dotyczy zwłaszcza małych i średnich firm, które odczuwają deficyt specjalistów IT. Ale również większe przedsiębiorstwa natrafiają na przeszkody związane z zarządzaniem i ochroną wirtualnej infrastruktury. Chętnie wykorzystują platformy wirtualizacyjne do obsługi ważnych procesów biznesowych, więc szkody, które ponoszą w wyniku ataków na maszyny wirtualne, są dla nich bardziej dotkliwe niż te wymierzone w infrastrukturę fizyczną. Dlatego dobrze, że firmy poszukujące produktów zabezpieczających „wirtualki” nie mogą narzekać na brak ofert.
– Klienci wybierający narzędzia do ochrony środowisk wirtualnych mają większe pole manewru niż podczas poszukiwania systemów zabezpieczających serwery fizyczne bądź desktopy. Poza tym oprogramowanie do wirtualizacji ma wbudowane mechanizmy, które zapewniają wysoką dostępność i ochronę w przypadku awarii. Dobrym przykładem jest tworzenie klastrów, między którymi maszyny wirtualne są przenoszone w locie – mówi Mateusz Łuka, Product Manager w Konsorcjum FEN.
Co ważne, kluczowi gracze na rynku wirtualizacji nie powiedzieli jeszcze ostatniego słowa w kwestii bezpieczeństwa. Ich działania zmierzają w kierunku integracji funkcji ochronnych z własnym oprogramowaniem. Koncepcja ma na celu ograniczenie lub wyeliminowanie wielu agentów i dodatkowych urządzeń. Pat Gelsinger, CEO w firmie VMware, uważa, że tego typu działania przyczynią się do zmniejszania powierzchni podatnej na ataki.
Ostatnio antywirusy znalazły się na cenzurowanym. Krytykowane są za niewielką skuteczność w zakresie wykrywania malware’u, a także nadmierne wykorzystywanie mocy obliczeniowych urządzeń, w których pracują. Wspomniany już Pat Gelsinger podczas ostatniego VMworld w Barcelonie oznajmił, że mechanizmy ochronne powinny być wbudowane w infrastrukturę i koncentrować się na analizie zachowania użytkowników i aplikacji. Nie oznacza to jednak, że VMware postawił krzyżyk na oprogramowaniu antywirusowym.
– Wręcz namawiamy naszych klientów, żeby wykorzystywali oprogramowanie antywirusowe, bo nawet mikrosegmentacja nie zwalnia ze stosowania ochrony wewnątrz systemu operacyjnego. Wiodący producenci coraz częściej wprowadzają do swych rozwiązań samouczące się algorytmy, które pozwalają wykryć wcześniej nieznane zagrożenia. Polecamy właśnie takie aplikacje – mówi Mikołaj Wiśniak, Manager Systems Engineering w VMware.
Niemniej jednak wśród ekspertów od wirtualizacji nie ma jednomyślności co do potrzeby instalowania oprogramowania antywirusowego. Czasami jego zastosowanie jest bezzasadne.
– Niektórzy specjaliści zalecają, żeby w przypadku środowisk wirtualnych aplikacji oraz desktopów nie instalować antywirusów bezpośrednio w maszynach wirtualnych, takich jak VDI czy serwer usług terminalowych. Mogą być uruchamiane ze „złotego obrazu”, służącego tylko do odczytu. Natomiast należy monitorować wszystkie systemy i miejsca, do których użytkownicy mają dostęp – tłumaczy Sebastian Kisiel, Senior Sales Engineer w Citrix Systems.
Istnieje również szkoła klasyczna, której zwolennicy zalecają zabezpieczenie i kontrolę całego środowiska bez wyjątku. Kolejna dyskusja między fachowcami od bezpieczeństwa i wirtualizacji dotyczy zastosowania agentów. Większość producentów antywirusów ma przygotowane swoje rozwiązania do wykorzystania na dwa sposoby: z agentem i bez agenta. W ramach tej drugiej opcji oferują system przeznaczony do obsługi używanej przez klienta platformy wirtualnej: VMware, Microsoft Hyper-V lub KVM. To umożliwia wykorzystanie centralnej maszyny wirtualnej i tzw. lekkich agentów instalowanych w zewnętrznych systemach. Zaletą takiego rozwiązania jest przyspieszenie procesu skanowania i niewielkie zużycie zasobów obliczeniowych.
– Zastosowanie wersji bezagentowej oznacza zapotrzebowanie na moc procesora oraz pamięć RAM nawet o kilkanaście procent mniejsze niż w alternatywnym rozwiązaniu. Ponadto łatwiej uaktualnia się środowiska, w których zamiast kilkuset agentów proces ten obejmuje kilkanaście urządzeń wirtualnych – podkreśla Mikołaj Wiśniak.
Jednak w niektórych przypadkach instalacja oprogramowania antywirusowego z agentami ma uzasadnienie. Chociażby w celu zabezpieczenia procesów związanych z przetwarzaniem danych z kart kredytowych. Warto dodać, że antywirusy bez agenta mają swoje ograniczenia, a jednym z nich jest brak niektórych funkcji z klasycznych rozwiązań. Michal Jankech, Principal Product Manager w Eset, uważa, że wraz ze wzrostem mocy obliczeniowej wersje bezagentowe zaczną odchodzić do lamusa. Jednym z powodów ma być poprawa poziomu bezpieczeństwa, a z drugiej lepsza integracja oprogramowania antywirusowego z systemem operacyjnym i wykorzystywanie wszystkich warstw ochrony.
Wirtualizacja najpierw wkroczyła do świata serwerów, następnie pamięci masowych, by wreszcie dotrzeć do sieci. Tak długa droga nie jest dziełem przypadku, bowiem sieć to wyjątkowo złożona materia. Nie bez znaczenia dla rozwoju tego segmentu rynku była hegemonia Cisco, bo producentowi przez dłuższy czas było nie po drodze z wirtualizacją. Punktem zwrotnym stało się przejęcie w 2012 r. przez VMware’a startupu Nicira, pracującego nad oprogramowaniem SDN (Software Defined Network). Z czasem koncepcja polegająca na rozdziale warstwy sterowania od transportowej miała coraz więcej zwolenników, którzy dostrzegali jej liczne walory, m.in. obniżenie kosztów operacyjnych, optymalne wykorzystanie zasobów sieciowych, łatwość i szybkość wprowadzania nowych funkcji.
Jednak sieć zdefiniowana programowo wymaga nowego sposobu myślenia o bezpieczeństwie. Klasyczne rozwiązania nie są przystosowane do ochrony wirtualnych centrów danych ani chmury publicznej. Zdecydowanie lepiej w tej roli sprawdzają się wyspecjalizowane systemy opracowane z myślą o ochronie zwirtualizowanych zasobów sieciowych. W nowym modelu ruch nie musi być przekierowywany z wirtualnej infrastruktury do zewnętrznego punktu kontrolnego. Funkcje bezpieczeństwa można uruchomić wszędzie tam, gdzie są potrzebne, np. jako aplikację na hypervisorze „bare metal” lub jako usługę w maszynie wirtualnej.
– Rozwiązania natywnej ochrony maszyn wirtualnych istnieją już od pewnego czasu. Na rynku dostępne są różne produkty przystosowane do współpracy z oprogramowaniem do wirtualizacji sieci (m.in. VMware NSX), wirtualne narzędzia sieciowe oraz rozwiązania służące do monitorowania sieci, wykorzystujące SDN – wymienia Michal Jankech.
Przykładem nowoczesnego podejścia do ochrony centrów danych jest mikrosegmentacja, która pozwala administratorom na kontrolę ruchu między maszynami wirtualnymi w centrum danych. Rozwiązanie to zyskuje na znaczeniu wraz ze wzrostem popularności SDN oraz wirtualizacją sieci. Paweł Bociąga, CEO Symmetry, zwraca uwagę na dwie różne koncepcje ochrony sieci lansowane przez Cisco oraz VMware.
– Walorem VMware NSX jest bliska integracja z hypervisorem i stosunkowo łatwa implementacja. Ale rozwiązanie to nie uwzględnia fizycznych przełączników. Z kolei technologia ACI, opracowana przez Cisco, umożliwia mikrosegmentację w warstwie przełączników fizycznych, natomiast nie zarządza wirtualnymi switchami – wyjaśnia Paweł Bociąga.
Ochrona środowisk wirtualnych to w większości przedsiębiorstw rzecz oczywista, ale i zadanie z roku na rok coraz trudniejsze. Dzieje się tak z kilku powodów. Jednym z nich jest dynamiczny wzrost liczby wirtualnych maszyn, tym bardziej że zaczynają się już pojawiać takie o pojemności kilku terabajtów. Minęły też czasy, kiedy firmy wybierały popularną platformę wirtualizacyjną vSphere (VMware) lub Hyper-V (Microsoft). Obecnie przedsiębiorcy zaczynają sięgać po alternatywne rozwiązania, np. Citrix Xen, Oracle VM, Huawei FusionCompute, Red Hat czy Promox. Rośnie też liczba firm i instytucji używających więcej niż jednego hypervisora.
– Warto bazować przynajmniej na dwóch produktach, żeby łatwiej negocjować ceny oprogramowania. Ponadto pojawiają się klienci wymagający wirtualizacji warstwy aplikacyjnej lub konteneryzacji. Użytkownicy stosują rozwiązania wielu marek, a dostawcy muszą brać to pod uwagę – wyjaśnia Przemysław Mazurkiewicz, dyrektor działu System Engineering w regionie EMEA East, Commvault.
Taki stan rzeczy stanowi niemałe wyzwanie dla integratorów dostarczających rozwiązania do ochrony danych. Paweł Bociąga przyznaje, że choć nie ma najmniejszych kłopotów z wyborem narzędzia do backupu dwóch najpopularniejszych platform – VMware vSphere i Microsoft HyperV. Sytuacja się komplikuje, kiedy trzeba wybrać odpowiednie oprogramowanie dla platform wirtualizacyjnych Xen, KVM i ich licznych odmian. Oferta dostawców w tym zakresie jest bardzo skromna. Innym problemem, na który mogą natrafić klienci, jest brak integracji oprogramowania do ochrony danych z antywirusami. Wcześniej mało kto zwracał uwagę na ten aspekt, ale nasilenie się ataków ransomware sprawiło, że zaczęto go dostrzegać.
– Antywirusy są zawsze krok za napastnikami. Dlatego system do backupu i oprogramowanie antywirusowe powinny się uzupełniać. Zdarzają się przypadki, że kopia zapasowa maszyny wirtualnej jest zainfekowana. Czasami wynika to z braku aktualizacji antywirusa. Współpraca gwarantuje pełniejszą kontrolę. Nie tylko zabezpieczamy dane, ale podczas odtwarzania sprawdzamy, czy nie są zawirusowane – mówi Tomasz Krajewski, Director Technical Sales Eastern EMEA w Veeamie.
W najbliższych latach jednym z częstych zajęć działów IT będzie porządkowanie danych i aplikacji rozproszonych po serwerach fizycznych, wirtualnych bądź chmurach publicznych. Wprawdzie wyspecjalizowane systemy do backupu maszyn wirtualnych wciąż cieszą się dużą popularnością, ale prędzej czy później firmy zaczną stawiać na uniwersalne systemy do ochrony i przechowywania danych w różnych środowiskach. Nowe produkty Commvault, Dell EMC oraz mniej znanych graczy, takich jak Rubrik czy Cohesity, nie pozostawiają żadnych złudzeń: przyszłość należy do wielofunkcyjnych kombajnów.
Zdaniem integratora
Tomasz Spyra, CEO, Rafcom
Wielu administratorów stara się wybrać takie rozwiązanie, które spełniałoby wymagania firmowej polityki bezpieczeństwa w zakresie funkcji i wydajności, a jednocześnie było dostosowane do budżetu, którym dysponują. Niestety, nie zawsze się to udaje. Ochrona środowisk wirtualnych w pewnym stopniu pokrywa się z zabezpieczeniem urządzeń fizycznych i w tym przypadku administratorzy zazwyczaj nie mają kłopotów z doborem rozwiązań. Jednak w obszarach, gdzie pojawiają się różnice, nie brakuje problemów.
Łukasz Milic, Business Development Representative, QNAP
Łączenie środowisk różnych dostawców mechanizmów wirtualizacji jest na szczęście rzadko spotykane. Jeśli chodzi o sprzęt, klienci korzystają z usług różnych producentów, ale w przypadku wirtualizacji starają się ograniczać tylko do jednego. Jest to związane z kwestią łatwiejszego zarządzania i unifikacji zasobów. Zdarza się jednak, że klienci są zmuszeni do korzystania z różnych środowisk. A to niestety stawia przed nimi wiele wyzwań.
Tomasz Krajewski, Director Technical Sales, Eastern EMEA, Veeam
Dostawcy antywirusów i oprogramowania do backupu muszą dokonywać integracji z systemami do wirtualizacji. Powinni wykorzystywać najnowsze funkcje i jak najszybciej zapewniać zgodność z najnowszą wersją. Nie można narażać klientów na czekanie na aktualizację całego systemu wirtualizacji tylko dlatego, że antywirus czy backup nie jest jeszcze z nim zgodny. Przyjęliśmy zasadę, że w ciągu 90 dni od pojawienia się nowej wersji VMware lub Hyper-V przygotowujemy nową wersję naszego oprogramowania.
Przemysław Mazurkiewicz, dyrektor działu System Engineering w regionie EMEA EAST, Commvault
Rozwiązania służące do backupu maszyn wirtualnych muszą nadążać za rynkiem aplikacji i uwzględniać również oprogramowanie open source. Bardzo ważne jest także wsparcie narzędziowe procesu migracji do chmury oraz transferu danych między różnymi środowiskami. Systemy przyszłości będą wyposażane w silnik przeszukiwania, który może być stosowany także do zapewnienia zgodności z regulacjami typu RODO. Będą również gwarantowały wyższy poziom bezpieczeństwa i ochrony przed ransomware’em oraz uwzględniały rozwiązania z zakresu sztucznej inteligencji.
Przemysław Biel, Key Account Manager Poland, Synology
Systemy do tworzenia kopii bezpieczeństwa mają różne formy, niektóre są instalowane na serwerach Windows, inne bezpośrednio w systemach NAS. Oprogramowanie do backupu należy dostosować do infrastruktury firmy. Gdy maszyny wirtualne są przechowywane na serwerze NAS, świetnym rozwiązaniem jest skorzystanie z zainstalowanego na nim oprogramowania. Takie podejście ułatwia zarządzanie kopiami z każdego miejsca oraz wykorzystanie dodatkowych mechanizmów bezpieczeństwa wbudowanych w aplikacje serwera.
Mariusz Kochański, członek zarządu, dyrektor Działu Systemów Sieciowych, Veracomp
Ochrona środowisk wirtualnych stała się nowym wyzwaniem dla administratorów. Teoretycznie w środowisku wirtualnym zarządzanie bezpieczeństwem poszczególnych warstw wygląda podobnie jak w rozwiązaniach tradycyjnych. W praktyce, zwłaszcza gdy zastosowano kontenery oraz współużytkowanie zasobów fizycznych w modelu IaaS albo Paas, pojawia się kwestia bezpieczeństwa poszczególnych instancji. Błędy konfiguracyjne mogą dotyczyć nie tylko hypervisora, systemu operacyjnego czy aplikacji. Zła konfiguracja sieci lub narzędzi do uwierzytelniania może doprowadzić do nieświadomego, niekontrolowanego wycieku danych.
Artykuł Wirtualne maszyny na celowniku hakerów pochodzi z serwisu CRN.
]]>Artykuł Dane zawsze pod ręką pochodzi z serwisu CRN.
]]>Warto jednak zauważyć, że bieżący rok przyniósł poprawę sytuacji, choć trudno popadać w hurraoptymizm. Według Risk Based Security od stycznia do końca czerwca na świecie odnotowano 2308 wycieków informacji, w wyniku których wyparowało 2,6 mld rekordów. Bardzo dużo, ale jednak o 3,4 mld mniej niż w pierwszym półroczu 2017 r. Czyżby firmy zaczynały doceniać wartość informacji? Krzysztof Rybiński, wykładowca akademicki i Chief Ideator w Synerise, przyznaje, że dzisiaj dostęp do danych jest tak samo ważny dla sukcesu firm jak finansowanie. Nie bez przyczyny coraz częściej w branży nowych technologii dyskutuje się o systemach wysokiej dostępności (high availability).
Najbardziej precyzyjni w określaniu dostępności danych są providerzy data center. Przykładowo współczynnik niezawodności 99,999 proc. oznacza, że system może mieć 5-minutową przerwę w ciągu całego roku. Natomiast w materiałach reklamowych pojęcie wysokiej dostępności jest nadużywane. Dlatego zawsze warto sprawdzić w specyfikacji technicznej, jak producent je definiuje.
Szum marketingowy sprawia, że część klientów bezgranicznie ufa systemom wysokiej dostępności. Zastosowanie tej klasy produktów ogranicza do minimum ryzyko wystąpienia przestojów związanych z awarią sprzętu, oprogramowania lub spowodowanych błędami ludzkimi. Nie zdają jednak egzaminu w przypadkach, kiedy trzeba zmierzyć się z żywiołami natury. Niestety, szefowie przedsiębiorstw wychodzą z założenia, że skoro wydali mnóstwo pieniędzy na system, nie muszą poświęcać czasu i środków na opracowanie planu odzyskiwania danych po awarii. Tymczasem posiadając system wysokiej dostępności, nadal można stracić dane klienta.
Analitycy Storage Switzerland szacują, że 30–40 proc. firmowych danych jest przechowywanych na urządzeniach końcowych. Nie są w żaden sposób archiwizowane ani kontrolowane przez działy IT. W najbliższych latach specjaliści od ochrony danych muszą obniżyć ten niechlubny wskaźnik. Niestety, wielu przedsiębiorców wciąż przekłada na później zarówno opracowanie nowej strategii ochrony danych, jak i zakup związanych z tym innowacyjnych rozwiązań. Jednak o ile klienci nie są należycie przygotowani na radykalne zmiany, o tyle producenci starają się iść z duchem czasu.
– Dostawcy rozwiązań do backupu muszą zapewnić kontrolę nad danymi rozproszonymi w różnych systemach i środowiskach. Niemal każde nowe rozwiązanie do backupu umożliwia zastosowanie konsoli bądź media agenta w środowisku wirtualnym lub chmurze. Największą trudnością jest zaś zachowanie kompatybilności nowych produktów z archaicznymi wersjami systemów – ocenia Krzysztof Szablowski, S4Engineers Team Leader.
Działy IT muszą dbać nie tylko o ochronę danych znajdujących się na fizycznych czy wirtualnych maszynach w firmowej serwerowni, ale również informacji przechowywanych na dysku laptopa i dokumentacji fotograficznej w pamięci smartfona. W strategii ich bezpieczeństwa należy przywiązywać dużą wagę do stacji roboczych oraz notebooków, bowiem znajdują się na nich pliki ważne dla prowadzenia biznesu i spełniania wymogów RODO. Problem polega na tym, że przenośne urządzenia nie zawsze są podłączone do korporacyjnej sieci, a tym samym wymykają się kontroli działów IT. Bardzo często osoby pracujące zdalnie zyskują zbyt dużą swobodę w zakresie doboru aplikacji, co niekorzystnie wpływa na bezpieczeństwo firmowych danych.
Tymczasem zmasowane ataki skierowane przeciwko użytkownikom komputerów nabierają na sile. Cyberprzestępcy w ubiegłym roku wytoczyli ciężkie działa w postaci ransomware’u. Petya i WannaCry siały prawdziwe spustoszenie w sieci. Przy czym zagrożenie nie mija: Cybersecurity Ventures prognozuje, że firmy i instytucje zapłacą w 2018 r. okupy o łącznej wartości 8 mld dol. Co ciekawe, część ataków ransomware zaczyna się od wyszukania i zaszyfrowania kopii zapasowych. Dostawcy oprogramowania do backupu stacji roboczych i notebooków nie składają broni, cały czas wzbogacając funkcje produktów.
– Zmiany podążają w kierunku lepszej ochrony przed atakami hakerów. Jednym ze sposobów jest bezpieczna wymiana plików między pracownikami, bez wykorzystywania zewnętrznych serwisów. Nie mniej ważne jest zapewnienie sprawnego przeszukiwania zgromadzonych danych i określenia ich zgodności z przepisami RODO. W systemach ochrony danych pojawiają się też zaawansowana analityka i funkcje zbliżone do Data Loss Protection – mówi Przemysław Mazurkiewicz, EMEA East System Engineering Director w firmie Commvault.
Tomasz Spyra, prezes Rafcom
Systemy backupu ewoluują w kierunku rozwiązań sprzętowych. O nie też najczęściej pytają klienci. Najbardziej istotne zmiany, jakie pojawiły się w tej grupie produktów, obejmują mechanizmy backupu zmienionych bloków dyskowych połączone z całościową deduplikacją. Znacząco skracają czas tworzenia kopii zapasowych oraz zapewniają ochronę zasobów znajdujących się poza siedzibą firmy.
Sławomir Marcisz, architekt IT, Netology
Rozwiązania do backupu rozwijają się w kierunku coraz szerszego wsparcia procesu zarządzania danymi przez ich zabezpieczenie od chwili powstania przez archiwizację nieużywanych zasobów aż po usuwanie zbędnych plików. W przypadku stacji roboczych dostępne są narzędzia zabezpieczające przed nieuprawnionym dostępem w przypadku zagubienia sprzętu, np. funkcje szyfrowania czy zdalnego usuwania danych.
Producenci starają się zapewnić skuteczną ochronę zasobów znajdujących się w różnych środowiskach: fizycznych, wirtualnych i chmurowych. W ostatnim czasie rosnącą popularnością cieszą się usługi backupu w chmurze. Według firmy badawczej Market Research Future w 2023 r. globalna wartość tego segmentu rynku wyniesie 5,66 mld dol., a roczne tempo wzrostu w latach 2017–2023 sięgnie 21 proc. Optymistyczne prognozy wynikają z faktu, że bezpośrednie tworzenie kopii zapasowych do repozytorium znajdującego się w chmurze publicznej eliminuje kłopoty związane ze skalowalnością i ogranicza wydatki na infrastrukturę.
W najbliższych latach wzrośnie zapotrzebowanie na zaawansowane rozwiązania jednocześnie wykonujące niezliczoną liczbę zadań związanych z tworzeniem kopii zapasowych i zapewniające powierzchnię dyskową do ich przechowywania. Poza tym duże i średnie przedsiębiorstwa muszą zapanować nad tysiącami punktów końcowych. Niegdyś pracownik korzystał wyłącznie z komputera PC, obecnie także ze smartfona i tabletu. Nowe wyzwania często przekraczają możliwości klasycznej architektury, w której kluczową rolę spełniał przeznaczony do backupu serwer, odbierający dane z punktów końcowych. Chmura publiczna zaczyna więc być postrzegana przez ekspertów jak idealne środowisko do tworzenia kopii zapasowych.
Dostawcy oprogramowania do backupu bardzo szybko dostrzegli potencjał środowiska chmurowego. Ich produkty są dostosowane do nowych reguł i spełniają wymagania w zakresie bezpieczeństwa zarówno w danych znajdujących się w firmowych zasobach, jak i w Amazon Web Service, Microsoft Azure, Google Cloud Platform lub IBM Bluemix.
– Zauważam powolną ewolucję w kierunku chmury. Ważne, że na rynku są już rozwiązania, które zapewniają szybkie i bezpieczne tworzenie kopii zapasowych i replikacji w chmurze wybranego dostawcy. Takie produkty oferują m.in. Veeam, Commvault czy Veritas – mówi Paweł Bociąga, prezes zarządu Symmetry.
Warto przy tym zwrócić uwagę na fakt, że integratorzy chętnie włączają do oferty backup w formie usługi. Wielu z nich właśnie w ten sposób rozpoczyna swoją przygodę z chmurą. Na tej zasadzie działa Netology, współpracując z operatorem centrów danych 3S. Innym dostawcą usług backupu i odzyskiwania danych jest warszawski integrator Engave. Przedsiębiorcy współpracujący z rodzimymi dostawcami zawsze mogą liczyć na indywidualne podejście, co w przypadku globalnych usługodawców raczej nie jest możliwe.
Tomasz Krajewski, Regional Presales Manager, Eastern EMEA, Veeam
Brak dostępu do danych oraz proces ich odzyskiwania powinny trwać jak najkrócej, gdyż przestoje można przeliczyć na realnie stracone pieniądze i nierzadko decydują one o być albo nie być firmy. Może się okazać, że trwający trzy dni przestój doprowadzi do jej upadku. Do tego nieplanowane przestoje opóźniają inicjatywy cyfrowej transformacji. Tak twierdziło blisko dwie trzecie respondentów zeszłorocznego, szóstego branżowego Veeam Availability Report. Ponadto aż 82 proc. firm zmaga się z tzw. deficytem dostępności, czyli różnicą między potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT.
Artur Cyganek, dyrektor regionalny na kraje Europy Wschodniej, Acronis
Współczesne środowiska informatyczne są dużo bardziej dynamiczne niż jeszcze kilka lat temu. Często mamy do czynienia z rozwiązaniami hybrydowymi, rozproszonymi między wieloma różnymi platformami. Użytkownicy poszukują narzędzi, które za pomocą jednego spójnego interfejsu zapewnią wykonanie backupu z lokalnej maszyny wirtualnej działającej na dowolnej platformie wirtualizacyjnej, serwera fizycznego, laptopa oraz wirtualnego prywatnego serwera umieszczonego w dowolnej chmurze.
Sławomir Karpiński, prezes zarządu Connect Distribution
Spektakularne ataki ransomware zburzyły spokój wielu administratorów, którzy polegali na tradycyjnym backupie na nośnikach dyskowych. Okazało się bowiem, że dyski te mogą być równie łatwo zaszyfrowane jak systemy produkcyjne. Ponadto uwidocznił się znany od lat problem, że nie wszystkie firmy regularnie testują procedury odtworzenia z backupu. Choć dysponowały oprogramowaniem i przestrzenią do tworzenia kopii zapasowych, przywrócenie systemu było niemożliwe lub czas odtworzenia nieakceptowalny. Dlatego coraz większą popularność zdobywają alternatywne sposoby zabezpieczania danych, jak chociażby replikacja najważniejszych maszyn wirtualnych do oddalonego centrum zapasowego w chmurze prywatnej lub publicznej.
SaaS to obecnie najpopularniejsza usługa chmurowa. Gartner szacuje, że wartość globalnego rynku oprogramowania jako usługi wyniesie na koniec bieżącego roku 74 mld dol. Dla porównania łączne przychody ze sprzedaży usług chmury publicznej osiągną w 2018 r. 186 mld dol. Na pierwszy rzut oka SaaS wydaje się idealnym rozwiązaniem – klient otrzymuje od ręki nowe oprogramowanie w postaci usługi i nie ponosi wydatków na jego zakup, jak też nie musi martwić się o aktualizacje. Ale, jak zwykle, diabeł tkwi w szczegółach.
Według IDG Research aż 95 proc. użytkowników SaaS jest przekonanych, że obowiązki związane z backupem i odzyskiwaniem danych spoczywają na barkach usługodawców. Tymczasem Microsoft, Google czy Salesforce stosują zasady ograniczonej odpowiedzialności. W efekcie operator odpowiada wprawdzie za utratę danych w przypadku awarii własnego sprzętu lub oprogramowania, klęski żywiołowej i przerwy w dostawach energii. Natomiast umywa ręce, gdy przyczyną kłopotów jest błąd pracownika klienta, ale także atak hakerski. Wbrew pozorom nie są to sporadyczne przypadki – aż 77 proc. użytkowników SaaS w ciągu roku dotknęła utrata danych. Takie firmy bezpowrotnie tracą dokumenty bądź muszą słono płacić za ich odzyskanie (np. w Salesforce ceny tej usługi zaczynają się od 10 tys. dol.).
Część dostawców oprogramowania do backupu (Barracuda, Kasseya, Veeam Software, Odaseva, Veritas) wykazuje zainteresowanie tym segmentem rynku. Zapewniają najczęściej zabezpieczenia dla Office 365, Salesforce’a oraz Google Suite.
Wirtualizacja serwerów przestała być nośnym tematem, co wcale nie oznacza, że ten segment rynku zastygł w bezruchu. Wprawdzie VMware vSphere i Hyper-V nadal pozostają najpopularniejszymi platformami, ale klienci poszukują alternatywnych rozwiązań. Z badań Enterprise Strategy Group wynika, że ponad 60 proc. instytucji korzysta z więcej niż jednego hiperwizora. W ostatnim czasie szczególnie duże wzięcie mają produkty dostępne w ramach otwartego oprogramowania, a najbardziej KVM.
Wysyp platform wirtualizacyjnych nie pozostaje bez wpływu na rozwiązania do tworzenia kopii zapasowych. Z jednej strony na rynku debiutują nowi gracze, tacy jak HYCU, opracowujący systemy backupu wyłącznie dla Nutanixa, z drugiej doświadczeni producenci wzbogacają swoje rozwiązania o funkcje do obsługi kolejnych hiperwizorów. Zresztą tego typu działań oczekują od nich integratorzy.
– Istniejących rozwiązań do backupu w przypadku Hyper-V oraz vSphere jest bardzo wiele. W moim przekonaniu warto zainteresować się wprowadzeniem tego rodzaju systemów na platformach bazujących na systemie Linux, jak KVM oraz Xen. I tego należałoby oczekiwać od kolejnej generacji rozwiązań do backupu maszyn wirtualnych – mówi Paweł Bociąga.
W podobnym tonie wypowiada się Tomasz Spyra, prezes Rafcomu. Według niego jednym z wyzwań stojących przed producentami jest dostarczenie rozwiązania do zabezpieczania środowisk wirtualne, niezależnie od ich wielkości i platformy.
Plany rozwojowe producentów nie ograniczają się do poszerzania współpracy z kolejnymi platformami wirtualizacyjnymi. Jednym z najważniejszych zadań jest wsparcie procesów migracji w taki sposób, żeby móc odtwarzać kopie zapasowe z firmowej serwerowni w chmurze publicznej. To ważne, bowiem większość przedsiębiorców już wkrótce będzie korzystać nie tylko z własnych centrów danych, ale również ze środowisk chmurowych Azure, AWS lub lokalnych dostawców usług. Przemysław Mazurkiewicz zwraca przy tym uwagę, że nowoczesny backup maszyn wirtualnych powinien także uwzględniać ochronę rozwiązań kontenerowych, zwiększenie automatyzacji oraz minimalizację niekontrolowanego wzrostu liczby maszyn wirtualnych.
Generalnie rynek rozwiązań do ochrony danych otwiera szerokie możliwości przed integratorami, którzy nie boją się wyzwań. Zmiany w tym segmencie mają bardzo dynamiczny charakter. Najważniejsi gracze, a także startupy, wprowadzają w życie innowacyjne pomysły zarządzenia zasobami cyfrowymi.
Artykuł Dane zawsze pod ręką pochodzi z serwisu CRN.
]]>Artykuł Gwarancja dostępności środowisk wirtualnych i chmurowych pochodzi z serwisu CRN.
]]>Veeam Hyper-Availability Platform to zestaw zaawansowanych narzędzi, które pomagają rozwinąć mechanizmy zarządzania danymi i uwzględnić ich „zachowanie” w środowisku IT. Dzięki temu zabezpieczanie informacji oraz gwarantowanie ich wysokiej dostępności jest dużo prostsze zarówno w przypadku każdej aplikacji, jak i infrastruktury chmurowej.
W skład tej platformy wchodzą między innymi takie rozwiązania jak Veeam Availability Suite oraz Veeam Agent dla Microsoft Windows i Linuxa. Zapewniają one tworzenie kopii zapasowych i odzyskiwanie danych, a także ich replikację oraz automatyczne przywracanie dostępu w przypadku wystąpienia awarii (przełączanie na tryb awaryjny). Aplikacje zostały wyposażone w otwarty interfejs, dzięki któremu można zintegrować je z hiperwizorami firm VMware, Microsoft i Nutanix, systemami pamięci masowej Cisco, Dell EMC, HPE, Huawei, IBM, Infinidat, NetApp i Pure Storage oraz oprogramowaniem Microsoftu (m.in. Exchange, Active Directory, SharePoint, SQL) i Oracle.
Wykorzystując oprogramowanie Veeam, dane można zabezpieczać także w środowisku chmurowym. Producenta łączy strategiczne partnerstwo z operatorami takich usług, jak Amazon Web Services, Microsoft Cloud i IBM Cloud. Oprogramowanie Veeam jest zgodne także z ponad 18 tys. usług chmurowych na świecie. Ponadto specjalne rozwiązanie Veeam Backup dla Microsoft Office 365 eliminuje ryzyko utraty kontroli nad danymi przechowywanymi w ramach usługi Office 365 (w tym w aplikacjach Exchange Online, SharePoint Online i OneDrive dla Firm) oraz utratą dostępu do nich.
Tomasz Krajewski
Presales Manager Eastern EMEA, Veeam Software
W Polsce wciąż pokutuje przekonanie sprzed paru lat, że gwarantowana ciągłość prowadzenia biznesu równoznaczna jest z wysoką dostępnością systemów IT – infrastruktury centrum danych i usług. Zapomina się natomiast, że wysoka dostępność powinna obejmować również dane. O ile w przypadku rozwiązań sprzętowych gwarancja nieprzerwanej pracy zapewniana jest przez producenta, o tyle w przypadku danych to ich administratorzy powinni stworzyć odpowiednie procedury, dzięki którym nie dojdzie do utraty dostępu do danych albo przerwy będą trwały bardzo krótko. W edukacji klientów w jakimś stopniu pomagają wprowadzone ostatnio regulacje prawne, w tym RODO, ale doceniamy też znaczenie wspólnych działań edukacyjnych podejmowanych razem z partnerami, którzy najlepiej znają swoich klientów i są w stanie opracować dla nich najbardziej skuteczne reguły polityki bezpieczeństwa.
Firma Veeam przygotowała również zestaw narzędzi dla usługodawców, które zapewniają szczegółowy wgląd w infrastrukturę IT ich klientów. Veeam ONE umożliwia planowanie i przeprowadzanie działań związanych z zabezpieczaniem danych oraz opracowywaniem raportów z przebiegu tych działań. Z kolei korzystając z rozwiązania Veeam Availability Console, usługodawcy mogą zapewnić klientom wgląd w informacje dotyczące ich środowiska IT oraz sprawdzenie tego, w jakim stopniu zagwarantowana jest jego wysoka dostępność. Dla administratorów oprogramowania Microsoft System Center przygotowano ułatwiający zarządzanie nim pakiet Veeam Management Pack dla System Center.
Dodatkowe informacje:
Sylwester Derda, Marketing Manager Baltics & SEE, Veeam Software, sylwester.derda@veeam.com
Artykuł Gwarancja dostępności środowisk wirtualnych i chmurowych pochodzi z serwisu CRN.
]]>Artykuł All of Backup: ruszyła druga edycja projektu! pochodzi z serwisu CRN.
]]>Krystian Hofman, Business Development Manager, Arcserve
Backup jest aktualnie jednym z niezbędnych rozwiązań dla klientów końcowych. To system, który można określić jako must have, a nie tylko nice to have. Integratorzy w całej Polsce każdego dnia dostają zapytania od klientów o rozwiązania do ochrony danych. W większości przypadków oferowane są jako część systemu IT opracowanego przez firmy integratorskie i stanowią około 30 proc. jego wartości.
W 2017 r. na rynku nie zabraknie nowości w tym zakresie. Backup to już nie tylko automatyczna kopia bezpieczeństwa na taśmach, ale rozbudowane systemy zapewniające ciągłość pracy przedsiębiorstw. Warto zwrócić uwagę między innymi na rozwiązania zmniejszające utylizację storage’u (deduplikacja), na wirtualizację, retencję danych etc. Klienci poszukują ponadto rozwiązań zintegrowanych, łączących hardware z software’em. Nowoczesne systemy do ochrony danych muszą też dawać możliwość przenoszenia danych do chmury.
Marcin Kabaj, Regional Sales Manager, Quantum
Klasyczny backup, polegający na wielokrotnym kopiowaniu danych szybkozmiennych w celu ich zabezpieczenia przed utratą lub nieautoryzowaną zmianą, jest tylko wtedy postrzegany przez użytkowników jako generator kosztów, gdy nie stosuje się odpowiednich narzędzi, które pozwalają na konkretne wyliczenia korzyści finansowych. Korzyści te wynikają m.in.: ze zwiększenia dostępności do danych i aplikacji, spadku kosztów planowanych i nieplanowanych przestojów, zmniejszenia ryzyka całkowitej utraty danych w przypadku katastrofy (hakerzy, klęski żywiołowe, sabotaż, inne) czy też zwiększenia produktywności personelu.
W 2017 r. będziemy mieli do czynienia z ewolucją urządzeń backupujących: szybszymi macierzami, szybszymi i większymi deduplikatorami z nowymi filtrami, LTO-8 w bibliotekach taśmowych i innymi. Możemy się też spodziewać nowych rozproszonych systemów obiektowych, które zaspokoją potrzeby w zakresie podwyższonej dostępności backupu, a także rozwiązań Disaster Recovery.
Tomasz Krajewski, Presales Manager Eastern Europe, Veeam Software
W segmencie rozwiązań backupowych resellerzy i integratorzy mogą realizować szereg scenariuszy biznesowych. Należy do nich odsprzedaż rozwiązań (licencyjnych i/lub sprzętowych), a także świadczenie użytkownikom końcowym usług typu Backup as a Service i Disaster Recovery as a Service. Podczas oferowania tego typu rozwiązań ważne jest zrozumienie potrzeb klienta w zakresie możliwych do zaakceptowania strat danych spowodowanych katastrofą (RPO) oraz maksymalnego akceptowalnego czasu od wystąpienia katastrofy, po którym usługa musi zostać uruchomiona (RTO). Kolejna kwestia dotyczy tego, co (ile) traci firma w momencie awarii i niespełnienia wymagań SLA w zakresie odzyskiwania danych i ochrony przed ich utratą.
Jesteśmy po pierwszym sezonie projektu All of Backup, drugi właśnie się zaczął. Jaka idea stała za jego powstaniem?
Chcieliśmy przedstawić najnowsze trendy i zmianę podejścia (w tym wymogów rynkowych) do tego, jak backup powinien wyglądać. Po pierwsze chodzi o efektywne wykorzystanie backupu wykonanego na urządzenia dyskowe, które są powszechnie dostępne. Ale pokazywaliśmy również, że taśma wciąż ma się dobrze, tylko jest wykorzystywana w inny sposób. Po drugie odnieśliśmy się do pojawienia się chmury obliczeniowej i możliwości zastosowania jej do ochrony danych. Wreszcie trzecia sprawa, to jak najlepsze zarządzanie backupem w różnych środowiskach. Dlatego hasło „All of Backup” można rozumieć jako pokazanie pełnego spektrum możliwości hardware’owych w tym obszarze i zaprezentowanie najbardziej odpowiedniego oprogramowania.
Do kogo jest skierowany wasz przekaz?
Z informacjami chcemy docierać zarówno do klientów końcowych, jak i partnerów handlowych. Te dwie grupy mają trochę inne potrzeby. Celem pierwszej jest wybranie najwłaściwszych technologicznie urządzeń i oprogramowania w odpowiedniej cenie. Ważnym elementem jest postawienie na pewnego producenta, którego produkty będą kompatybilne z rozwiązaniami innych dostawców. Z kolei partnerowi handlowemu zależy na wsparciu producenta w zakresie merytorycznym, serwisowym i biznesowym, by mógł zarobić na oferowaniu rozwiązań.
Jakie formy dostarczania wiedzy składają się na projekt?
Zwieńczeniem pierwszego sezonu była ogólna konferencja, czyli spotkanie wielu producentów z naszymi partnerami i ich klientami, podczas którego można było dowiedzieć się jakie rozwiązania będą najlepsze do zabezpieczania danych w konkretnych przypadkach, a także przeanalizować najróżniejsze kwestie związane z backupem. Przez cały czas trwania pierwszej edycji projektu zainteresowani mogli wziąć udział w cyklicznych webinariach i szkoleniach. Oprócz tego dostępna jest strona internetowa backup.info.pl, jesteśmy też aktywni w mediach społecznościowych.
Czy łatwo jest przekonywać integratorów do sprzedaży rozwiązań backupowych, które są często odbierane przez potencjalnych użytkowników jak źródło kosztów, a nie zysków?
Z tym nie ma problemu. Dla integratorów ochrona danych to istotna możliwość zwiększenia przychodu z biznesu, a także niezbędny element oferty skierowanej do klientów. Brak kompetencji w tym zakresie spowoduje, że szybko przegrają z konkurencją. Są już firmy, które bardzo mocno specjalizują się w rozwiązaniach serwerowo-storage’owo-backupowych, dostarczając zaawansowane systemy. Z jednej strony mają łatwiej, bo kontaktują się ze świadomymi klientami, których nie trzeba przekonywać do zasadności ochrony danych, jak np. banki. Z drugiej strony – muszą się liczyć z często drogimi i pochłaniającymi czas projektami wspartymi szkoleniami. I tu pojawia się kwestia wypracowania przez producenta, przy naszym wsparciu jako dystrybutora, modelu finansowania edukacji partnerów. Mali integratorzy też wiedzą, że muszą w obszarze backupu coś zaproponować swoim klientom i dlatego warto się szkolić.
Z jakim odbiorem spotkała się pierwsza odsłona All of Backup?
Bardzo pozytywnym. Podczas konferencji Backup Forum kończącej pierwszy sezon klienci końcowi i partnerzy byli bardzo zainteresowani tematem. Pojawiło się z ich strony sporo pytań, nawet o tak techniczne zawiłości, że eksperci producentów musieli włożyć wiele wysiłku w to, by wszystkie wyjaśnić. Były też pytania o kontynuację projektu.
No właśnie, drugi sezon All of Backup już się zaczął. Czego możemy się po nim spodziewać?
Ideą przewodnią kolejnej odsłony projektu jest zabezpieczanie środowisk wirtualnych. Z jednej strony wynika to z potrzeb zgłaszanych podczas pierwszej edycji All of Backup, z drugiej jest to obecnie bardzo gorący temat. Będziemy poruszać rozmaite związane z tym kwestie, dotyczące zarówno środowisk VMware, Hyper-V, jak i linuksowych. To pierwsze na polskim rynku tak kompleksowe podejście do zagadnienia backupu w kontekście wirtualizacji.
Szczegółowe informacje na temat II edycji All of Backup na stronie: backup.info.pl.
Artykuł All of Backup: ruszyła druga edycja projektu! pochodzi z serwisu CRN.
]]>Artykuł Sztuka zarabiania na wirtualizacji pochodzi z serwisu CRN.
]]>Jeśli chodzi o same technologie, należy zwrócić uwagę przede wszystkim na to, że maszynom wirtualnym wyrosła konkurencja w postaci kontenerów. Są coraz częściej brane pod uwagę przez klientów ze względu na łatwe w obsłudze narzędzia programistyczne, standaryzację, popyt na mikrousługi oraz ogólnie na popularność cloud computingu. Kolejną alternatywą dla wirtualizacji lokalnych środowisk są coraz popularniejsze usługi IaaS. Specjaliści Gartnera twierdzą, że maszyny wirtualne dostarczane z chmury publicznej stanowiły w 2015 r. już 20 proc. wszystkich maszyn wirtualnych (w 2011 r. zaledwie 3 proc.). Wygląda na to, że trend ten będzie się utrzymywał i większa liczba nowych serwerów wirtualnych będzie działać w chmurze niż w środowisku lokalnym.
Cloud computing można określić jako sposób korzystania z zasobów obliczeniowych, który znajduje zastosowanie w przypadku specyficznych zadań – szczególnie tych wymagających skalowania i elastycznego przydzielania zasobów. Rosnąca popularność chmury stymuluje ewolucję w technikach wirtualizacji tak, aby stawały się one coraz lżejsze. Dzięki temu zdecydowanie łatwiejsze staje się tworzenie, wdrażanie i skalowanie aplikacji. Potwierdzeniem tej ewolucji jest ogromne zainteresowanie kontenerami.
Według Gartnera wśród firm, które już korzystają z wirtualizacji lokalnych serwerów i chmur prywatnych, rośnie zainteresowanie automatyzacją tych środowisk, usługami zarządzalnymi lub hostingiem. Najbardziej zaawansowane przedsiębiorstwa zaczynają chętniej budować swoje chmury prywatne z wykorzystaniem rozwiązań open source. W przypadku dużych firm wyraźnie widać, że większość z nich korzysta z więcej niż jednej platformy wirtualizacji. Poza tym często integrują one swoje środowisko lokalne z chmurami publicznymi, konstruując rozwiązania hybrydowe.
Wirtualizacja serwerów i kontenery stanowią podstawę do budowania chmur prywatnych, publicznych i hybrydowych. W szczególności usługi IaaS są świadczone na bazie środowisk wykorzystujących maszyny wirtualne. O ile w obszarze chmur publicznych następuje ekspansja, o tyle w przypadku użytkowników korporacyjnych analitycy Gartnera dostrzegają już pewne nasycenie i niewielki wzrost liczby maszyn wirtualnych.
Podstawowe oprogramowanie do wirtualizacji serwerów od lat jest bezpłatne. Jednak, wbrew pozorom, darmowy hypervisor to nie jest zła informacja dla integratorów. Potencjał biznesowy związany ze sprzedażą wirtualizacji serwerów w dużej mierze wynika z szeregu możliwości, które ona stwarza, w zakresie nowego sprzętu, ale przede wszystkim szerokiego wachlarza związanych z nią usług. Projekty wirtualizacyjne bardzo często obejmują szereg elementów, np. dodatkowe oprogramowanie do zarządzania i automatyzacji. Poza tym firmy realizujące projekty wdrożeniowe na bezpłatnej platformie do wirtualizacji mogą zarobić na usługach. Tańsze oprogramowanie oznacza niższe koszty całego projektu. W efekcie łatwiej przekonać klienta do wdrożenia. Biorąc przy tym pod uwagę, że marże na sprzedaży licencji na oprogramowanie nie są wysokie, brak przychodu ze sprzedaży hypervisora nie ma aż tak dużego znaczenia. Poza tym można zarabiać na dodatkowych narzędziach (np. do backupu), które są często objęte programami rabatowymi przez producentów czy też programami dla integratorów, co w praktyce oznacza np. rabat przy zakupie licencji bądź bonus po przeprowadzonej transakcji.
Wirtualizacja w Polsce
Według danych Veeam Availability zaledwie 41 proc. usług w dużych przedsiębiorstwach w naszym kraju zostało zwirtualizowanych. Z deklaracji ankietowanych dyrektorów IT wynika, że w ciągu najbliższych dwóch lat wskaźnik ten wzrośnie, lecz jedynie do 45 proc. Wraz z powolną, ale jednak postępującą popularyzacją tej techniki rośnie również zainteresowanie szeregiem związanych z nią elementów: narzędziami do zarządzania i automatyzacji środowisk wirtualnych oraz szerokim spektrum usług.
Przyzwoite przychody można również uzyskiwać z konsultingu w zakresie właściwego przygotowania klienta do samodzielnego wdrożenia wirtualizacji lub z przeprowadzenia tego procesu (planowania, migracji aplikacji ze środowisk fizycznych do wirtualnych, testów itd.). Bardziej zaawansowane projekty wirtualizacyjne wymagają wdrożenia właściwego systemu zarządzania takim środowiskiem. Inną bardzo ważną kwestią są przychody z różnego rodzaju usług, które integrator może świadczyć klientowi: począwszy od usług wdrożeniowych, uruchomienia systemu, jego integracji z warstwą sprzętową, skończywszy na usługach wsparcia technicznego. Kolejny obszar stanowią usługi związane z utrzymaniem środowiska klienta albo wręcz przeniesieniem zwirtualizowanej infrastruktury do serwerowni dostawcy usług.
W przypadku outsourcingu zarządzania infrastrukturą integrator może pełnić rolę drugiej linii wsparcia dla działu IT klienta. Świadczenie takiej usługi często obejmuje bieżącą administrację i zarządzanie środowiskiem informatycznym, wdrażanie aktualizacji i ewentualnych poprawek, dbałość o bezpieczeństwo, ale także kontrolę nad całością architektury serwerowej lub zarządzanie migracją środowiska. Integrator zazwyczaj pełni również rolę doradcy. W praktyce oznacza to, że może udzielać rekomendacji, gdy np. dla jednego ze stosowanych w organizacji produktów kończy się oficjalne wsparcie ze strony dostawcy (np. Microsoftu dla Windows Server 2003).
Wyniki ankiety przeprowadzonej przez VMware pokazują, że na każdego dolara wydanego na oprogramowanie do wirtualizacji przypada 11,26 dol., które klienci przeznaczają na pozostałe elementy potrzebne do wdrożenia środowiska wirtualnych serwerów. Z tego najwięcej, bo 4,07 dol., przypada na profesjonalne usługi. W następnej kolejności są to wydatki na: macierze dyskowe (2,81 dol.), produkty sieciowe (1,26 dol.), aplikacje biznesowe (1,24 dol.) i inne oprogramowanie (0,96 dol.) oraz zabezpieczenia (0,92 dol).
Tomasz Krajewski
Automatyzacja staje się niezbędna do efektywnego zarządzania coraz bardziej złożoną infrastrukturą wirtualną. Kwestią do rozważenia w tym kontekście jest nie „czy”, ale „kiedy” przedsiębiorstwo wdroży odpowiednie rozwiązanie. Usprawnienie procesów zarządzania to tylko jedna z odnoszonych korzyści. Oprogramowanie nowej generacji oferuje ponadto kilka dodatkowych możliwości. Poza wskazaniem, które maszyny wymagają natychmiastowej uwagi, rozwiązanie do zarządzania środowiskami wirtualnymi potrafi generować raporty biznesowe. Z takim dokumentem dział IT jest choćby w stanie skuteczniej uzasadnić użytkownikom biznesowym konieczność dodatkowych inwestycji.
Mechanizmy automatyzacji i zarządzania wirtualizacją nie są obszarem zarezerwowanym dla dużych firm czy dostawców usług. Metod automatyzacji jest bowiem wiele i znajdują zastosowanie w środowiskach różnej wielkości. Kluczem okazuje się odpowiednie dobranie tych metod tak, aby były adekwatne do potrzeb klienta. Określenie zakresu automatyzacji zależy przede wszystkim od skali środowiska IT oraz planów jego rozwoju. Im większe środowisko, tym większe korzyści. Jednak nawet w niewielkim środowisku, składającym się z kilku maszyn wirtualnych, są operacje, które warto zautomatyzować. Chodzi o regularnie wykonywanie czynności, o których administrator mógłby po prostu zapomnieć w natłoku innych zadań. Do takich należą tworzenie kopii zapasowych czy sprawdzanie aktualizacji.
Trzy pytania do…
CRN Jakie jest zainteresowanie polskich firm rozwiązaniami do automatyzacji zarządzania środowiskami wirtualnymi?
Artur Matzka Firmy coraz częściej pytają o automatyzację i orkiestrację, zarówno środowisk wirtualnych, jak i fizycznych. Obecnie większość z nich jest jednak na etapie testowania różnych rozwiązań i wdrażania automatyzacji fragmentarycznie – ograniczają się do wybranych obszarów. Tylko nieliczne, bardzo duże podmioty podchodzą do automatyzacji całościowo. W polskich realiach istnieje ryzyko, że w średniej wielkości przedsiębiorstwach koszt rozwiązania do automatyzacji i jego wdrożenia mógłby być wyższy niż zysk osiągnięty dzięki automatyzacji. Dlatego tego typu projekty mają szanse powodzenia przede wszystkim w dużych, zaawansowanych technicznie firmach.
CRN Czy integratorzy mogą świadczyć zdalnie usługi automatyzacji i zarządzania środowiskami wirtualnymi?
Artur Matzka Klienci najczęściej pytają o usługi wsparcia, utrzymania i konsultację w kontekście całego środowiska wirtualnego – serwerów, pamięci masowych SAN i NAS, sieci lokalnej i wirtualizacji. Rzadziej usługi te dotyczą codziennego administrowania środowiskiem IT.
CRN Czy w polskich realiach model Software Defined Anything cieszy się zainteresowaniem?
Artur Matzka Wirtualizacja serwerów okazała się słusznym kierunkiem rozwoju środowiska IT. Dziś intensywny rozwój zaawansowanych technologii umożliwia wykonanie następnego kroku: wirtualizację warstwy pamięci masowych i sieci. Pozwoli to na budowę centrum danych na dowolnym sprzęcie, w całości zdefiniowanym programowo. Na razie jednak na polskim rynku jesteśmy na etapie budowania świadomości wśród firm i testowania tego typu rozwiązań. Z pewnością wirtualizacja pamięci masowych jest mniej popularna niż wirtualizacja serwerów. Sama technika jest dostępna już od pewnego czasu, ale najwięcej firm zainteresowało się nią dopiero po pojawieniu się funkcjonalności klastrów rozległych metro. Dzięki nim urządzenia służące do łączenia zasobów systemów pamięci masowych pochodzących od różnych dostawców mogły być wykorzystane do tworzenia architektury centrum danych odpornej na katastrofy, zamiast tradycyjnego „uzdrawiania” po awarii. Z kolei wirtualizacja sieci to najmłodsza z technik, ale cieszy się bardzo dużym zainteresowaniem firm. Aktualnie wdrożenia w Polsce ograniczają się do środowisk testowych i deweloperskich, ale w mojej ocenie już wkrótce będzie ona powszechnie wykorzystywana.
Podstawową metodą automatyzacji jest tworzenie skryptów, które potrafią wykonać działania na pojedynczych wirtualnych maszynach. W ten sposób można zautomatyzować, np. przydzielanie zasobów. Takie podejście sprawdzi się w przypadku autonomicznych systemów, których konfiguracje nie są zależne od innych systemów. Jeśli wiele maszyn wirtualnych tworzy np. klaster aplikacyjny, konieczne jest skoordynowanie ich konfiguracji, co z reguły wiąże się z budowaniem przepływu zadań, czyli sekwencji operacji wykonywanych w określonej kolejności, co wymaga synchronizacji między wieloma systemami. W kompleksowych scenariuszach logika programu odpowiadającego za taki przepływ może być skomplikowana, przekraczając możliwości prostych skryptów. Wtedy warto polecić klientowi wdrożenie silnika przepływów.
Jeśli klient wykorzystuje 50-100 maszyn wirtualnych, opłaca się już automatyzacja procesów ich tworzenia (np. z użyciem szablonów) oraz instalowania w nich systemów operacyjnych. Im wcześniej się w to zainwestuje, tym szybciej pojawią się korzyści. Wprowadzenie automatyzacji do już istniejącego środowiska czy też na zaawansowanym etapie wdrożenia jest znacznie trudniejsze, niż kiedy zrobi się to na początku. Profity będą większe, jeśli wszystkie maszyny wirtualne zostaną stworzone według tych samych reguł. Dzięki temu bowiem łatwiejsza będzie późniejsza automatyzacja zarządzania nimi.
Wojciech Kotkiewicz
Klienci coraz częściej decydują się na rozwiązania kompleksowe, z ujednoliconym zarządzaniem, łatwością rozbudowy, a przede wszystkim z optymalnym wykorzystaniem zasobów w ich serwerowniach i profesjonalnym wsparciem ze strony integratora. Bardzo istotnym elementem dotyczącym w zasadzie każdego segmentu infrastruktury IT jest bezpieczeństwo. Problem w jednym obszarze może bowiem rzutować na całe środowisko. Konieczne jest więc zabezpieczenie ruchu do części serwerowej. Dodatkowo, aby zapewnić ciągłość pracy środowiska, należy stosować narzędzia do tworzenia kopii zapasowych serwerów wirtualnych i szybkiego ich przywracania po awarii.
Bartłomiej Machnik
Obserwujemy duże zainteresowanie klientów rozwiązaniami automatyzującymi zarządzanie środowiskiem wirtualnym. W przypadku większych środowisk ich ręczna obsługa jest niemal niemożliwa lub przynajmniej bardzo pracochłonna i podatna na błędy. Tworzenie architektury chmury hybrydowej czy rozwiązań umożliwiających awaryjne odtwarzanie infrastruktury centrów zapasowych w chmurze publicznej to zadania bardzo trudne do realizacji bez dobrych rozwiązań automatyzujących zarządzanie. Coraz wyższy priorytet zyskują również kwestie związane z bezpieczeństwem i zapewnieniem ciągłości działania.
Przy liczbie maszyn wirtualnych sięgającej kilkuset sztuk warto już rozważyć wdrożenie systemu orkiestracji, umożliwiającego ich samoobsługowe tworzenie przez działy biznesowe, które z nich korzystają. Dzięki temu dział IT nie będzie zaangażowany w przygotowanie każdej maszyny wirtualnej. Przy takiej skali opłacalna staje się również automatyzacja operacji dotyczących serwerów fizycznych. Nadal operacje związane z wdrożeniem nowego serwera będą nadzorowane przez administratora, ale nie będzie on musiał ręcznie wpisywać wszystkich komend. Poza tym skrypty kontrolujące wykonywanie i poprawność backupów można rozszerzyć o sprawdzanie poprawności konfiguracji.
Na przykład wirtualizacja sieci, stacji roboczych czy aplikacji to obszary interesujące dla integratorów. Przykładowo aż 70 proc. dużych firm w Polsce zapowiada w planach inwestycyjnych związanych z centrami danych wirtualizację desktopów (źródło: Veeam Availability). Urządzenia mobilne pracowników są coraz częściej wykorzystywane jako punkty dostępowe, na których – dzięki wirtualizacji – wyświetlane jest bezpieczne, spersonalizowane pod kątem danego użytkownika środowisko pracy. Za pośrednictwem wirtualnego pulpitu można korzystać z wcześniej zaakceptowanych przez firmę programów.
Również szeroko pojęty cloud computing w prawie każdym modelu bazuje nie tylko na rozwiązaniach do wirtualizacji serwerów, ale również sieci, desktopów i aplikacji. Dla integratorów oznacza to, że powiązanie ze sobą w jedną spójną ofertę usług i rozwiązań z obszarów wirtualizacji, mobilności oraz chmury może być nowym sposobem na zbudowanie głębszej relacji z klientem, a co za tym idzie na zwiększenie przychodów. Odbiorcami takiej oferty są różne podmioty, przede wszystkim z komercyjnego sektora usługowego, ale coraz częściej także placówki opieki zdrowotnej czy administracji publicznej.
Powoli rośnie zainteresowanie rozwiązaniami do wirtualizacji sieci czy pamięci masowych, ale nadal są one traktowane jako nowość. W związku z tym klienci często ograniczają się na razie do eksperymentowania z nimi w środowiskach testowych. Niemniej stanowią one bardzo ciekawą szansę dla integratorów. Dzięki SDS (Software Defined Storage) bez konieczności kupowania kolejnych urządzeń klient ma możliwość wykorzystania już posiadanych zasobów dyskowych, często różnych producentów. Spójnie zarządzane środowisko SDS oferuje nawet funkcje typowe dla macierzy dyskowych klasy korporacyjnej, jak migawki i thin provisioning.
Sebastian Kisiel
Wirtualizacja jest podstawą dla rozwiązań do zarządzania mobilnością w firmie. Mowa nie tylko o zarządzaniu samymi urządzeniami, czyli o MDM, które coraz częściej zaspokajają jedynie wycinek potrzeb klientów, ale przede wszystkim o bardziej rozbudowanych systemach klasy EMM. Obejmują one, oprócz MDM, także takie elementy jak zarządzanie aplikacjami mobilnymi (MAM) czy korporacyjne narzędzia do współdzielenia i synchronizacji plików (EFSS). Bez wirtualizacji w warstwie serwerowej, ale coraz częściej również wirtualizacji sieci takie rozwiązania nie mają szansy istnieć.
Artykuł Sztuka zarabiania na wirtualizacji pochodzi z serwisu CRN.
]]>