Artykuł Wirtualna sieciówka za 167 mld dol. pochodzi z serwisu CRN.
]]>Globalny rynek wirtualizacji funkcji sieciowych osiągnie wartość 167 mld dol. do 2030 r., odnotowując średni roczny wzrost o blisko 27 proc. – prognozuje Grand View Research.
Tak wysoka dynamika jest przypisywana wdrożeniom zwirtualizowanego oprogramowania w korporacyjnych centrach danych. Zwłaszcza duże przedsiębiorstwa zyskują znaczny udział w rynku, ze wględu na rosnące zapotrzebowanie na niedrogi i lepszy software oraz sprzęt wymagany do wirtualizacji funkcji sieciowych.
Z drugiej strony analitycy spodziewają się, że problemy związane z bezpieczeństwem, jak niezgodność z przepisami, awaria ochrony przed odmową usługi i in. będą ograniczać wzrost wydatków na NFV.
Szacuje się, że segment urządzeń wirtualnych ma największy udział w rynku, ze względu na zwiększające się zapotrzebowanie na automatyzację oraz złożoność sieci.
Jeśli chodzi o komponenty rynku, to segment rozwiązań miał największy udział w przychodach – ponad 74 proc. 2021 r. Na drugim miejscu były usługi.
Natomiast jeśli chodzi o użytkowników, to dostawcy usług szybko wdrażają wirtualizacje funkcji sieciowych, z uwagi na takie korzyści, dostosowywanie sieci i centralizacja, która poprawia wydajność sieci.
Artykuł Wirtualna sieciówka za 167 mld dol. pochodzi z serwisu CRN.
]]>Artykuł Wirtualne Środowiska pod ostrzałem pochodzi z serwisu CRN.
]]>Kolejnym rozwojowym obszarem jest wirtualizacja sieci, która otwiera duże możliwości przed integratorami sprzętu. Przedsiębiorstwa w czasie pandemii stanęły przed niełatwymi wyborami, a także przed koniecznością przedefiniowania polityki bezpieczeństwa środowisk wirtualnych. Nie jest to szczególnie trudne zadanie, aczkolwiek zwirtualizowana infrastruktura kryje kilka pułapek.
Największe atuty wirtualnych maszyn, takie jak łatwość tworzenia i migracji, bardzo szybko stały się przekleństwem specjalistów od bezpieczeństwa. Na fizycznym serwerze x86 może być uruchomionych nawet kilkaset maszyn wirtualnych, a wtedy komunikacja między nimi wymyka się spod kontroli. Na szczęście istnieje szeroka gama rozwiązań służących do zabezpieczania wirtualnego środowiska.
– Dostawcy przywiązują dużą wagę do zapewnienia bezpieczeństwa na każdym poziomie systemu wirtualizacyj-nego. VMware chroni całe środowisko, począwszy od najmniejszych komponentów, takich jak karta sieciowa, przez serwery po centra danych. Większość tych mechanizmów znajduje się w podstawowych wersjach oprogramowania – zauważa Jakub Niepsuj, Independent Software Veeam & VMware Team Leader w Tech Dacie.
Eksperci od wirtualizacji i bezpieczeństwa przyznają, że największym problemem w walce z hakerami jest nie brak narzędzi, lecz niewiedza użytkowników oraz niezrozumienie działania mechanizmów. To akurat dobra informacja dla integratorów, którzy sprawnie poruszają się w tym segmencie rynku.
Wraz z wybuchem pandemii setki tysięcy firm z dnia na dzień oddelegowały swoich pracowników do pracy zdalnej. Sytuacja uniemożliwiła wdrożenie zaawansowanych narzędzi, więc przedsiębiorstwa uruchomiły prowizoryczne rozwiązania. Jednak z biegiem czasu przynajmniej część z nich rozszerzy swoją infrastrukturę o elementy, które zwiększają możliwości zdalnego korzystania z plików, aplikacji i danych. Szczególnie skuteczne są w tym zakresie rozwiązania VDI. Niestety, wirtualne desktopy są tak samo podatne na działania hakerów jak komputery fizyczne. Co gorsza, wymagają zastosowania dodatkowych zabezpieczeń. To zazwyczaj niemiła niespodzianka dla firm przenoszących dane z infrastruktury lokalnej do środowiska wirtualnego, bowiem zazwyczaj są przekonane, że mogą wykorzystywać istniejące systemy ochronne.
– Antywirusy chroniące tradycyjne komputery zazwyczaj nie sprawdzają się w przypadku VDI. Po pierwsze, nie widzą warstwy wirtualizacyjnej, a tym samym obciążają procesory maszyn wirtualnych, traktując je jak fizyczne komputery. Po drugie, skanują wszystko, łącznie z systemem operacyjnym. Tymczasem w środowisku wirtualnym to zbędne, ponieważ system operacyjny jest dostarczany z centralnego obrazu w trybie odczytu – wyjaśnia Sebastian Kisiel, Senior Sales Engineer w Citrix Systems.
O ile eksperci od wirtualizacji zgadzają się co do tego, że wykorzystanie klasycznego oprogramowania dla potrzeb wirtualnych desktopów to zły pomysł, o tyle w innych kwestiach nie są już tak jednomyślni. Niemałe kontrowersje budzi sposób działania platformy antywirusowej VDI. Niektórzy optują za uruchamianiem agenta na każdej maszynie wirtualnej, inni namawiają, aby wdrażać rozwiązania bez agenta. Mariusz Politowicz, kierownik Działu Technicznego w Markenie, namawia klientów do pierwszej opcji.
– Ochrona bez agenta mniej obciąża komputer i może się sprawdzić tam, gdzie istnieje niewielkie ryzyko ingerencji użytkownika w system. Natomiast w wirtualnych stacjach roboczych należy zastosować ochronę agentową z maksymalnie dużą liczbą modułów – zaleca Mariusz Politowicz.
Dostawcy antywirusów oferują produkty do zastosowania w obu wariantach ochrony środowisk wirtualnych. Na uwagę zasługują także programy z tzw. lekkim agentem. W tego typu systemach skanowanie nie odbywa się na każdej maszynie wirtualnej z osobna, lecz wykonywane jest centralnie przez odrębną maszynę. Informacje dotyczące zagrożeń wymieniane są wyłącznie między serwerami zarządzającym i zdalnego skanowania.
– Lekki agent nie wykonuje tak szerokiego spektrum zadań jak agent w tradycyjnych rozwiązaniach. Kluczową kwestią jest sposób, w jaki skanujemy pamięć. Czy wykorzystujemy opracowane do tego celu narzędzia, czy posługujemy się metodami stosowanymi w klasycznych komputerach PC – mówi Sebastian Kisiel.
Niektórzy integratorzy opowiadają się za rozwiązaniem bez agentów, polecając je firmom o wysokim stopniu konsolidacji zasobów informatycznych, czyli takim, w których na jeden serwer fizyczny przypada duża liczba maszyn wirtualnych.
– W przypadku środowisk mocno ustandaryzowanych i o dużym poziomie automatyzacji występuje efekt skali. Każda dodatkowa czynność wymagająca zautomatyzowania i każdy dodatkowy proces na maszynie wirtualnej może mieć duże znaczenie dla działania całości. Doskonały przykład stanowią środowiska typu VDI, dla których systemy bezagentowe są najczęściej rekomendowanym rozwiązaniem antywirusowym – przekonuje Krzysztof Wyszyński, architekt IT w Netology.
Niezależnie od sposobu ochrony infrastruktury wirtualnej oprogramowanie antywirusowe powinno chronić wszystkie środowiska obsługiwane przez firmę. Należy wziąć pod uwagę platformę serwerową i hiperwizory działające na serwerach VDI, bez względu na to, czy jest to VMware vSphere, Microsoft Hyper-V czy jeszcze inna platforma wirtualizacyjna. Trzeba również sprawdzić, czy antywirus współpracuje z gościnnymi systemami operacyjnymi działającymi na wszystkich maszynach wirtualnych. Jest to ważne, bo czasami firmy używają na niektórych maszynach wirtualnych systemu Windows 7, aby obsłużyć starsze aplikacje.
W środowiskach zwirtualizowanych procesy zachodzą błyskawicznie. Czas uruchomienia i przenoszenia maszyn wirtualnych liczy się w minutach i sekundach. W tradycyjnych sieciach konfiguracja zajmuje czasami kilka dni. Niewykluczone, że niebawem będzie wymagać mniej czasu dzięki wirtualizacji sieci. To stosunkowo nowy trend, a punktem zwrotnym w jego rozwoju było przejęcie przez VMware w 2012 r. startupu Nicira. W ten sposób koncern z Palo Alto wszedł na rynek sieciowy wcześniej zdominowany przez Cisco. Na odpowiedź nie trzeba było długo czekać. Rok później producent z San Jose przedstawił Application Centric Infrastructure – architekturę wpasowującą się we wszystkie obszary związane z SDN. Wygląda na to, że w segmencie wirtualizacji sieci właśnie Cisco i VMware będą rozdawać karty.
– Czas zastąpić rozwiązania sprzętowe. Z badań przeprowadzonych wśród użytkowników produktów VMware’a wynika, że zastosowanie NSX umożliwia zredukowanie kosztów CAPEX o 59 proc. i OPEX o 55 proc. Nie można przejść obojętnie wobec tych liczb. To jedyny sposób, żeby budować infrastrukturę przygotowaną do obsługi środowiska multicloud – twierdzi Pat Gelsinger, prezes VMware’a.
Rozwiązania sprzętowe nie znikną z dnia na dzień. Niemniej jednak wraz z rozwojem SDN będą się pojawiać nowe koncepcje ochrony sieci. Wiele firm instaluje na brzegach sieci firewalle, wewnątrz systemów operacyjnych rozwiązania do wykrywania i zapobiegania włamaniom, ewentualnie sandboxy. Takie podejście nie gwarantuje pełnego bezpieczeństwa w środowiskach wirtualnych. VMware i Cisco zachęcają do wprowadzenia mikrosegmentacji, choć ich koncepcje nie są tożsame. Rozwiązanie VMware NSX działa bezpośrednio na hyperwizorze i zapewnia izolację wszystkich maszyn wirtualnych, nawet jeśli pracują na jednym serwerze. Może być zastosowane w każdej architekturze sieciowej, nie wymaga zmian topologii ani readresacji aplikacji i uzupełnia narzędzia ochronne używane przez klientów. Nie obejmuje jednak fizycznych przełączników. Z kolei rozwiązanie ACI stworzone przez Cisco umożliwia mikrosegmentację w warstwie przełączników fizycznych, ale nie zarządza wirtualnymi switchami.
– Z punktu widzenia biznesu otrzymujemy podobną korzyść Ważny jest natomiast sposób integracji. ACI jest lepszym rozwiązaniem w sytuacji, kiedy całość zarządzania siecią musi pozostać w jurysdykcji firmowych administratorów. Ale można wybrać wariant, w którym wpływ na kształt usług sieciowych ma osoba odpowiedzialna za wirtualizację. Jeśli firmie nie zależy na zachowaniu maksymalnej spójności rozwiązań sieciowych, może zastosować NSX, który jest tańszy i łatwiejszy w implementacji – twierdzi Krzysztof Wyszyński.
Zdaniem integratora
Krzysztof Wyszyński, architekt IT, Netology
W ostatnich latach firmy przeznaczyły duże środki na nowoczesną infrastrukturę IT. Większość naszych klientów używa zaawansowanych rozwiązań do ochrony danych, również w środowiskach wirtualnych. Często są to topowe produkty z kwadrantu Gartnera. Ale tylko duże przedsiębiorstwa potrafią w pełni wykorzystać ich potencjał. W średnich i mniejszych firmach, choć systemy wdrożono zgodnie z projektem, istnieje problem poprawnego zdefiniowania wymagań. Niejednokrotnie MŚP mają duży problem z określeniem parametrów SLA dla środowisk wirtualnych. Brak odpowiedniej wiedzy uniemożliwia np. należytą ochronę systemów krytycznych.
Przemysław Biel, Key Account Manager Poland, Synology
Docierają do nas sygnały o potrzebie integracji aplikacji antywirusowej z oprogramowaniem do backupu. Nie jest to optymalne rozwiązanie, chociażby dlatego, że dubluje pewne funkcje. W nowoczesnych systemach pamięci masowej antywirusy pozwalają na zabezpieczenie przed wieloma zagrożeniami. Ochrona przed atakami malware wymaga zainwestowania w edukację użytkowników. Systemy kopii zapasowych oraz kopie migawkowe zapewniają szybkie przywrócenie pracy środowiska IT. Najsłabszym ogniwem w zabezpieczeniach przed malware’em i ransomware’em pozostaje człowiek.
Jerzy Skiba, Senior Technical Consultant w Dziale Pamięci Masowych i Serwerów, Veracomp
Niemal każda firma i instytucja ma systemy backupu danych, które zabezpieczają zarówno maszyny fizyczne, jak i środowiska wirtualne. Niestety, nadzór nad ich pracą często nie należy do priorytetów działu IT. Zainteresowanie rozwiązaniami pojawia się dopiero, kiedy trzeba odtworzyć dane, czyli stanowczo za późno. Brak odpowiedniego zaangażowania na wcześniejszym etapie powoduje, że odtwarzanie danych przysparza wielu problemów i nie przebiega tak szybko, jak tego oczekują użytkownicy.
Łukasz Milic, Business Development Representative, QNAP
Głównym wyzwaniem związanym z backupem maszyn wirtualnych jest zapewnienie spójnej kopii bezpieczeństwa systemu i danych oraz możliwość ich szybkiego przywrócenia do działania. Nie mniej ważne jest bezpieczeństwo samych kopii zapasowych. Z tego wynika cała reszta wyzwań. Oczywiście, wielkość zabezpieczanych danych ma istotne znaczenie, ale istnieje proste rozwiązanie – wdrożenie sieci 10 GbE, która zapewnia transfer kopii backupowych nawet o bardzo dużej pojemności.
Wiedza przedsiębiorców o ochronie wirtualnych desktopów, a tym bardziej zwirtualizowanych sieci, pozostawia zazwyczaj wiele do życzenia. Zdecydowanie lepiej przedstawia się poziom wiedzy o backupie maszyn wirtualnych. Tomasz Krajewski, Technical Sales Director Eastern EMEA w Veeam, zauważa, że – podobnie jak w przypadku systemów cyberbezpieczeństwa – korzystanie z klasycznych rozwiązań z agentem znacznie obniża wydajność środowisk wirtualnych. Tymczasem specjalistyczne oprogramowanie umożliwia odtworzenie pojedynczego pliku, co obniża koszty tego typu operacji. Warto przy tym zwrócić uwagę na błąd, jaki popełnia wiele firm, polegający na stosowaniu niekompatybilnych zabezpieczeń i budowaniu systemu ochrony wyłącznie z rozwiązań sprzętowych. Z kolei Jerzy Skiba, Senior Technical Consultant w Dziale Pamięci Masowych i Serwerów w Veracompie, wskazuje częste niedopatrzenie wynikające z niedoszacowania potrzeb, zarówno pod względem mocy obliczeniowej, jak i przestrzeni repozytoriów backupu. W efekcie nawet systemy wysokiej klasy nie spełniają wymagań użytkowników.
Niejednokrotnie zdarza się także, że integratorzy bądź użytkownicy narzekają na mankamenty produktów. Gros przedsiębiorców decyduje się na wirtualizację bazującą na platformach VMware vSphere lub Microsoft Hyper-V, a czasami na obu jednocześnie. Wymienione rozwiązania są wspierane przez wszystkie liczące się systemy backupu, w związku z tym ich właściciele nie mają prawa narzekać na brak dostępnych rozwiązań. Jednak firmy, które z oszczędności wdrożyły systemy darmowe (bądź dużo tańsze od dwóch najpopularniejszych wirtualizatorów), mają mocno zawężony wybór oprogramowania do backupu. Dla przykładu: narzędzia Veeam, jednego z liderów tego segmentu rynku, współpracują jedynie ze środowiskami VMware vSphere, Microsoft Hyper-V i Nutanix AHV. Z drugiej strony aplikacja polskiej firmy Storware obsługuje aż siedem platform open source: Nutanix Acropolis/AHV, Red Hat Virtualization/oVirt, KVM, Kubernetes/OpenShift, Citrix XenServer, Oracle VM i Proxmox. Uniwersalność oprogramowania do backupu maszyn wirtualnych stanowi pewnego rodzaju atut, ale wymagania wobec tych produktów najczęściej dotyczą redukcji ilości składowanych danych i szybkiego przywracania systemów do działania. Na pierwszy rzut oka wydaje się, że aplikacje bardzo dobrze radzą sobie z oboma zadaniami, lecz bardziej wnikliwi obserwatorzy dostrzegają ich mankamenty.
– Przywrócenie do działania maszyny o wielkości 1 GB lub 1 TB zajmuje kilka minut. Problem pojawia się, kiedy po ataku ransomware trzeba odtworzyć wiele systemów jednocześnie. Wbrew pozorom nie ma rynku zbyt wielu produktów, które mają efektywne mechanizmy redukcji danych i zapewniają szybkie uruchomienie wielu maszyn wirtualnych z wymaganą wysoką wydajnością. W tym zakresie sprawdzają się jedynie zintegrowane rozwiązania sprzętowe – tłumaczy Krzysztof Wyszyński.
Ataki ransomware spędzają sen z powiek dostawcom systemów bezpieczeństwa i ochrony danych. Niektórzy zachęcają do jeszcze większej integracji tego typu narzędzi z antywirusami. Czasami jednak wystarczą prostsze i od dawna istniejące środki. Dobrym przykładem jest odsyłany od lat do lamusa nośnik fizyczny. Backup na taśmie przechowywanej off-line może bowiem stanowić ostatnią linię obrony przed ransomware’em.
Sebastian Kisiel, Senior Sales Engineer, Citrix Systems
Cyberataki na maszyny wirtualne niewiele różnią się od tych, z którymi na co dzień borykają się użytkownicy fizycznych komputerów. Najczęściej są to phishing i ransomware. Dla hakera środowisko wirtualne nie jest niczym specjalnym, bowiem wychodzi on z założenia, że nadal ma do czynienia z miejscem przeznaczonym do pracy. Forma i sposób zarządzania obrazami maszyn pozwala nieco zminimalizować skutki ataków, jako że wszystkie maszyny VDI są czyszczone automatycznie po wylogowaniu użytkownika i przywracane do stanu sprzed rozpoczęcia pracy.
Tomasz Krajewski, Technical Sales Director – Eastern EMEA, Veeam
Tworzenie kopii zapasowych maszyn o dużej pojemności nie stanowi obecnie specjalnego problemu. Mechanizmy wbudowane w środowisko platformy wirtualnej umożliwiają zarówno tworzenie kopii zapasowych, jak i odtwarzanie dużych maszyn. Coraz rzadziej jednak ważna jest tylko kopia zapasowa, bo na znaczeniu zyskuje mechanizm odzyskiwania danych. Niezwykle istotnym parametrem jest natomiast czas przywrócenia infrastruktury do działania, gdyż szybka reakcja ogranicza do minimum straty związane z przestojem firmy. Musimy nie tylko wykonywać kopię całej bazy SQL, ale sprawnie przywrócić jej funkcjonowanie razem z aplikacją.
Manfred Berger, Sr. Mgr. Business Development Platforms EMEAI, Western Digital
Rozmiary maszyn wirtualnych wciąż rosną, stale zwiększa się również liczba i zróżnicowanie aplikacji kontenerowych. Jednocześnie rozwiązania do backupu, archiwizowania i przywracania danych po awarii cały czas ewoluują. Bazują na coraz nowocześniejszych, pojemniejszych i bardziej atrakcyjnych kosztowo dyskach i zapewniają znacznie szerszy zestaw funkcji niż tradycyjne rozwiązania backupu działające na poziomie plików. Wyzwaniem dla użytkowników i dostawców tych rozwiązań jest z pewnością takie zaplanowanie częstotliwości backupu i liczby kopii zapasowych, by możliwe było przywrócenie systemu do stanu sprzed cyberataku czy awarii. Inną ważną kwestią jest oddzielenie backupu od środowiska operacyjnego, dzięki czemu nie staną się jednocześnie celem ataku.
Artykuł Wirtualne Środowiska pod ostrzałem pochodzi z serwisu CRN.
]]>Artykuł Wirtualizacja pod pełną kontrolą pochodzi z serwisu CRN.
]]>– VMware zapewnia stabilną platformę, która dobrze spełnia swoje zadanie, ale, jak każde oprogramowanie, nie jest pozbawiona wad – mówi Rafał Goszyk, Sales Manager w polskim oddziale firmy Prianto, która jest wyłącznym dystrybutorem narzędzi Runecast. – Niemal wszystkie problemy, na które mogą natknąć się użytkownicy, zostały opisane w bazach wiedzy VMware, ale samodzielna identyfikacja źródła niepoprawnej pracy platformy, dotarcie do odpowiedniej dokumentacji i ręczna naprawa zabiera czas i często wymaga eksperckiej wiedzy.
Stworzone przez założycieli Runecast narzędzie Analyzer monitoruje w czasie rzeczywistym całą infrastrukturę wirtualizacyjną i gromadzi dane o jej pracy. Równocześnie na bieżąco aktualizuje własną bazę informacji o tym, jak usuwać usterki w poszczególnych wersjach oprogramowania, błędy konfiguracyjne lub inne niedociągnięcia administratorów, niezgodne z najlepszymi praktykami. Dzięki temu, po przeprowadzonej analizie infrastruktury, a także całego otoczenia, w którym ona funkcjonuje (serwery, pamięci masowe, oprogramowanie systemowe, narzędziowe i biznesowe, np. SAP HANA), doradza administratorom odpowiednie kroki lub usuwa napotkane nieprawidłowości.
Runecast Analyzer może zarekomendować załatanie konkretnej luki w platformie VMware z wykorzystaniem oferowanej przez tego producenta aktualizacji oraz wskazać, że firmware serwera niepoprawnie współpracuje z zainstalowaną wersją oprogramowania wirtualizacyjnego. Zawiera też cały zestaw narzędzi prewencyjnych, m.in. symulujących pracę infrastruktury wirtualizacyjnej po dokonaniu jej aktualizacji do nowej wersji. Potrafi wskazać, że w danej maszynie wirtualnej konieczne będzie zainstalowanie nowszych sterowników lub zmiana ustawień konfiguracyjnych.
Od niedawna Runecast Analyzer współpracuje też ze środowiskiem chmurowym AWS Cloud. Ważną cechą tego narzędzia jest to, że w celu analizy danych nie przesyła żadnych informacji poza firmę. Jedynym działaniem w internecie jest aktualizacja własnej bazy wiedzy (może być przeprowadzona także w trybie offline). Runecast Analyzer instalowany jest jako maszyna wirtualna, którą łączy się z oprogramowaniem zarządzającym VMware vCenter i interfejsem AWS API. Do analizy wykorzystuje mechanizmy sztucznej inteligencji i przetwarzania na bazie naturalnego języka (Natural Language Processing).
Oprogramowanie Runecast Analyzer przeznaczone jest do tradycyjnej odsprzedaży licencji przez resellerów i integratorów, ale mają oni również do dyspozycji w pełni funkcjonalną, płatną 14-dniową licencję partnerską, którą mogą wykorzystać do świadczenia usług konsultingowych u klientów, np. związanych z rozbudową środowiska wirtualizacyjnego bądź aktualizacją jego oprogramowania. Ponieważ sam proces analizy trwa bardzo krótko (weryfikacja 100 hostów w ciągu dwóch minut, bez obciążania całego środowiska), klient po chwili od uruchomienia Runecast Analyzer dostaje konkretne rekomendacje. Stwarza to szansę dla resellera na sprzedaż pełnej licencji w formie subskrypcji (na rok lub trzy lata). Jeśli dojdzie do transakcji – po wprowadzeniu kodu aktywującego – zebrane wcześniej historyczne dane zostaną zachowane i będą wykorzystywane do dalszych prac. Do testów (proof-of-concept lub instalacji demonstracyjnej) oferowana jest bezpłatna wersja, która przeprowadza pełną analizę, ale prezentuje wyniki w ograniczonym zakresie. Dostępna jest pod adresem portal.runecast.com/prt.
Dodatkowe informacje:
Rafał Goszyk, Sales Manager, Prianto, rafal.goszyk@prianto.com
Artykuł Wirtualizacja pod pełną kontrolą pochodzi z serwisu CRN.
]]>Artykuł Wirtualne maszyny na celowniku hakerów pochodzi z serwisu CRN.
]]>Nic dziwnego, że nadzór nad „wirtualkami” często wymyka się spod kontroli osób odpowiedzialnych za bezpieczeństwo. Największe atuty maszyn wirtualnych, a więc prostota, szybkość ich tworzenia i łatwość przenoszenia, stają się zmorą administratorów. Problem dotyczy zwłaszcza małych i średnich firm, które odczuwają deficyt specjalistów IT. Ale również większe przedsiębiorstwa natrafiają na przeszkody związane z zarządzaniem i ochroną wirtualnej infrastruktury. Chętnie wykorzystują platformy wirtualizacyjne do obsługi ważnych procesów biznesowych, więc szkody, które ponoszą w wyniku ataków na maszyny wirtualne, są dla nich bardziej dotkliwe niż te wymierzone w infrastrukturę fizyczną. Dlatego dobrze, że firmy poszukujące produktów zabezpieczających „wirtualki” nie mogą narzekać na brak ofert.
– Klienci wybierający narzędzia do ochrony środowisk wirtualnych mają większe pole manewru niż podczas poszukiwania systemów zabezpieczających serwery fizyczne bądź desktopy. Poza tym oprogramowanie do wirtualizacji ma wbudowane mechanizmy, które zapewniają wysoką dostępność i ochronę w przypadku awarii. Dobrym przykładem jest tworzenie klastrów, między którymi maszyny wirtualne są przenoszone w locie – mówi Mateusz Łuka, Product Manager w Konsorcjum FEN.
Co ważne, kluczowi gracze na rynku wirtualizacji nie powiedzieli jeszcze ostatniego słowa w kwestii bezpieczeństwa. Ich działania zmierzają w kierunku integracji funkcji ochronnych z własnym oprogramowaniem. Koncepcja ma na celu ograniczenie lub wyeliminowanie wielu agentów i dodatkowych urządzeń. Pat Gelsinger, CEO w firmie VMware, uważa, że tego typu działania przyczynią się do zmniejszania powierzchni podatnej na ataki.
Ostatnio antywirusy znalazły się na cenzurowanym. Krytykowane są za niewielką skuteczność w zakresie wykrywania malware’u, a także nadmierne wykorzystywanie mocy obliczeniowych urządzeń, w których pracują. Wspomniany już Pat Gelsinger podczas ostatniego VMworld w Barcelonie oznajmił, że mechanizmy ochronne powinny być wbudowane w infrastrukturę i koncentrować się na analizie zachowania użytkowników i aplikacji. Nie oznacza to jednak, że VMware postawił krzyżyk na oprogramowaniu antywirusowym.
– Wręcz namawiamy naszych klientów, żeby wykorzystywali oprogramowanie antywirusowe, bo nawet mikrosegmentacja nie zwalnia ze stosowania ochrony wewnątrz systemu operacyjnego. Wiodący producenci coraz częściej wprowadzają do swych rozwiązań samouczące się algorytmy, które pozwalają wykryć wcześniej nieznane zagrożenia. Polecamy właśnie takie aplikacje – mówi Mikołaj Wiśniak, Manager Systems Engineering w VMware.
Niemniej jednak wśród ekspertów od wirtualizacji nie ma jednomyślności co do potrzeby instalowania oprogramowania antywirusowego. Czasami jego zastosowanie jest bezzasadne.
– Niektórzy specjaliści zalecają, żeby w przypadku środowisk wirtualnych aplikacji oraz desktopów nie instalować antywirusów bezpośrednio w maszynach wirtualnych, takich jak VDI czy serwer usług terminalowych. Mogą być uruchamiane ze „złotego obrazu”, służącego tylko do odczytu. Natomiast należy monitorować wszystkie systemy i miejsca, do których użytkownicy mają dostęp – tłumaczy Sebastian Kisiel, Senior Sales Engineer w Citrix Systems.
Istnieje również szkoła klasyczna, której zwolennicy zalecają zabezpieczenie i kontrolę całego środowiska bez wyjątku. Kolejna dyskusja między fachowcami od bezpieczeństwa i wirtualizacji dotyczy zastosowania agentów. Większość producentów antywirusów ma przygotowane swoje rozwiązania do wykorzystania na dwa sposoby: z agentem i bez agenta. W ramach tej drugiej opcji oferują system przeznaczony do obsługi używanej przez klienta platformy wirtualnej: VMware, Microsoft Hyper-V lub KVM. To umożliwia wykorzystanie centralnej maszyny wirtualnej i tzw. lekkich agentów instalowanych w zewnętrznych systemach. Zaletą takiego rozwiązania jest przyspieszenie procesu skanowania i niewielkie zużycie zasobów obliczeniowych.
– Zastosowanie wersji bezagentowej oznacza zapotrzebowanie na moc procesora oraz pamięć RAM nawet o kilkanaście procent mniejsze niż w alternatywnym rozwiązaniu. Ponadto łatwiej uaktualnia się środowiska, w których zamiast kilkuset agentów proces ten obejmuje kilkanaście urządzeń wirtualnych – podkreśla Mikołaj Wiśniak.
Jednak w niektórych przypadkach instalacja oprogramowania antywirusowego z agentami ma uzasadnienie. Chociażby w celu zabezpieczenia procesów związanych z przetwarzaniem danych z kart kredytowych. Warto dodać, że antywirusy bez agenta mają swoje ograniczenia, a jednym z nich jest brak niektórych funkcji z klasycznych rozwiązań. Michal Jankech, Principal Product Manager w Eset, uważa, że wraz ze wzrostem mocy obliczeniowej wersje bezagentowe zaczną odchodzić do lamusa. Jednym z powodów ma być poprawa poziomu bezpieczeństwa, a z drugiej lepsza integracja oprogramowania antywirusowego z systemem operacyjnym i wykorzystywanie wszystkich warstw ochrony.
Wirtualizacja najpierw wkroczyła do świata serwerów, następnie pamięci masowych, by wreszcie dotrzeć do sieci. Tak długa droga nie jest dziełem przypadku, bowiem sieć to wyjątkowo złożona materia. Nie bez znaczenia dla rozwoju tego segmentu rynku była hegemonia Cisco, bo producentowi przez dłuższy czas było nie po drodze z wirtualizacją. Punktem zwrotnym stało się przejęcie w 2012 r. przez VMware’a startupu Nicira, pracującego nad oprogramowaniem SDN (Software Defined Network). Z czasem koncepcja polegająca na rozdziale warstwy sterowania od transportowej miała coraz więcej zwolenników, którzy dostrzegali jej liczne walory, m.in. obniżenie kosztów operacyjnych, optymalne wykorzystanie zasobów sieciowych, łatwość i szybkość wprowadzania nowych funkcji.
Jednak sieć zdefiniowana programowo wymaga nowego sposobu myślenia o bezpieczeństwie. Klasyczne rozwiązania nie są przystosowane do ochrony wirtualnych centrów danych ani chmury publicznej. Zdecydowanie lepiej w tej roli sprawdzają się wyspecjalizowane systemy opracowane z myślą o ochronie zwirtualizowanych zasobów sieciowych. W nowym modelu ruch nie musi być przekierowywany z wirtualnej infrastruktury do zewnętrznego punktu kontrolnego. Funkcje bezpieczeństwa można uruchomić wszędzie tam, gdzie są potrzebne, np. jako aplikację na hypervisorze „bare metal” lub jako usługę w maszynie wirtualnej.
– Rozwiązania natywnej ochrony maszyn wirtualnych istnieją już od pewnego czasu. Na rynku dostępne są różne produkty przystosowane do współpracy z oprogramowaniem do wirtualizacji sieci (m.in. VMware NSX), wirtualne narzędzia sieciowe oraz rozwiązania służące do monitorowania sieci, wykorzystujące SDN – wymienia Michal Jankech.
Przykładem nowoczesnego podejścia do ochrony centrów danych jest mikrosegmentacja, która pozwala administratorom na kontrolę ruchu między maszynami wirtualnymi w centrum danych. Rozwiązanie to zyskuje na znaczeniu wraz ze wzrostem popularności SDN oraz wirtualizacją sieci. Paweł Bociąga, CEO Symmetry, zwraca uwagę na dwie różne koncepcje ochrony sieci lansowane przez Cisco oraz VMware.
– Walorem VMware NSX jest bliska integracja z hypervisorem i stosunkowo łatwa implementacja. Ale rozwiązanie to nie uwzględnia fizycznych przełączników. Z kolei technologia ACI, opracowana przez Cisco, umożliwia mikrosegmentację w warstwie przełączników fizycznych, natomiast nie zarządza wirtualnymi switchami – wyjaśnia Paweł Bociąga.
Ochrona środowisk wirtualnych to w większości przedsiębiorstw rzecz oczywista, ale i zadanie z roku na rok coraz trudniejsze. Dzieje się tak z kilku powodów. Jednym z nich jest dynamiczny wzrost liczby wirtualnych maszyn, tym bardziej że zaczynają się już pojawiać takie o pojemności kilku terabajtów. Minęły też czasy, kiedy firmy wybierały popularną platformę wirtualizacyjną vSphere (VMware) lub Hyper-V (Microsoft). Obecnie przedsiębiorcy zaczynają sięgać po alternatywne rozwiązania, np. Citrix Xen, Oracle VM, Huawei FusionCompute, Red Hat czy Promox. Rośnie też liczba firm i instytucji używających więcej niż jednego hypervisora.
– Warto bazować przynajmniej na dwóch produktach, żeby łatwiej negocjować ceny oprogramowania. Ponadto pojawiają się klienci wymagający wirtualizacji warstwy aplikacyjnej lub konteneryzacji. Użytkownicy stosują rozwiązania wielu marek, a dostawcy muszą brać to pod uwagę – wyjaśnia Przemysław Mazurkiewicz, dyrektor działu System Engineering w regionie EMEA East, Commvault.
Taki stan rzeczy stanowi niemałe wyzwanie dla integratorów dostarczających rozwiązania do ochrony danych. Paweł Bociąga przyznaje, że choć nie ma najmniejszych kłopotów z wyborem narzędzia do backupu dwóch najpopularniejszych platform – VMware vSphere i Microsoft HyperV. Sytuacja się komplikuje, kiedy trzeba wybrać odpowiednie oprogramowanie dla platform wirtualizacyjnych Xen, KVM i ich licznych odmian. Oferta dostawców w tym zakresie jest bardzo skromna. Innym problemem, na który mogą natrafić klienci, jest brak integracji oprogramowania do ochrony danych z antywirusami. Wcześniej mało kto zwracał uwagę na ten aspekt, ale nasilenie się ataków ransomware sprawiło, że zaczęto go dostrzegać.
– Antywirusy są zawsze krok za napastnikami. Dlatego system do backupu i oprogramowanie antywirusowe powinny się uzupełniać. Zdarzają się przypadki, że kopia zapasowa maszyny wirtualnej jest zainfekowana. Czasami wynika to z braku aktualizacji antywirusa. Współpraca gwarantuje pełniejszą kontrolę. Nie tylko zabezpieczamy dane, ale podczas odtwarzania sprawdzamy, czy nie są zawirusowane – mówi Tomasz Krajewski, Director Technical Sales Eastern EMEA w Veeamie.
W najbliższych latach jednym z częstych zajęć działów IT będzie porządkowanie danych i aplikacji rozproszonych po serwerach fizycznych, wirtualnych bądź chmurach publicznych. Wprawdzie wyspecjalizowane systemy do backupu maszyn wirtualnych wciąż cieszą się dużą popularnością, ale prędzej czy później firmy zaczną stawiać na uniwersalne systemy do ochrony i przechowywania danych w różnych środowiskach. Nowe produkty Commvault, Dell EMC oraz mniej znanych graczy, takich jak Rubrik czy Cohesity, nie pozostawiają żadnych złudzeń: przyszłość należy do wielofunkcyjnych kombajnów.
Zdaniem integratora
Tomasz Spyra, CEO, Rafcom
Wielu administratorów stara się wybrać takie rozwiązanie, które spełniałoby wymagania firmowej polityki bezpieczeństwa w zakresie funkcji i wydajności, a jednocześnie było dostosowane do budżetu, którym dysponują. Niestety, nie zawsze się to udaje. Ochrona środowisk wirtualnych w pewnym stopniu pokrywa się z zabezpieczeniem urządzeń fizycznych i w tym przypadku administratorzy zazwyczaj nie mają kłopotów z doborem rozwiązań. Jednak w obszarach, gdzie pojawiają się różnice, nie brakuje problemów.
Łukasz Milic, Business Development Representative, QNAP
Łączenie środowisk różnych dostawców mechanizmów wirtualizacji jest na szczęście rzadko spotykane. Jeśli chodzi o sprzęt, klienci korzystają z usług różnych producentów, ale w przypadku wirtualizacji starają się ograniczać tylko do jednego. Jest to związane z kwestią łatwiejszego zarządzania i unifikacji zasobów. Zdarza się jednak, że klienci są zmuszeni do korzystania z różnych środowisk. A to niestety stawia przed nimi wiele wyzwań.
Tomasz Krajewski, Director Technical Sales, Eastern EMEA, Veeam
Dostawcy antywirusów i oprogramowania do backupu muszą dokonywać integracji z systemami do wirtualizacji. Powinni wykorzystywać najnowsze funkcje i jak najszybciej zapewniać zgodność z najnowszą wersją. Nie można narażać klientów na czekanie na aktualizację całego systemu wirtualizacji tylko dlatego, że antywirus czy backup nie jest jeszcze z nim zgodny. Przyjęliśmy zasadę, że w ciągu 90 dni od pojawienia się nowej wersji VMware lub Hyper-V przygotowujemy nową wersję naszego oprogramowania.
Przemysław Mazurkiewicz, dyrektor działu System Engineering w regionie EMEA EAST, Commvault
Rozwiązania służące do backupu maszyn wirtualnych muszą nadążać za rynkiem aplikacji i uwzględniać również oprogramowanie open source. Bardzo ważne jest także wsparcie narzędziowe procesu migracji do chmury oraz transferu danych między różnymi środowiskami. Systemy przyszłości będą wyposażane w silnik przeszukiwania, który może być stosowany także do zapewnienia zgodności z regulacjami typu RODO. Będą również gwarantowały wyższy poziom bezpieczeństwa i ochrony przed ransomware’em oraz uwzględniały rozwiązania z zakresu sztucznej inteligencji.
Przemysław Biel, Key Account Manager Poland, Synology
Systemy do tworzenia kopii bezpieczeństwa mają różne formy, niektóre są instalowane na serwerach Windows, inne bezpośrednio w systemach NAS. Oprogramowanie do backupu należy dostosować do infrastruktury firmy. Gdy maszyny wirtualne są przechowywane na serwerze NAS, świetnym rozwiązaniem jest skorzystanie z zainstalowanego na nim oprogramowania. Takie podejście ułatwia zarządzanie kopiami z każdego miejsca oraz wykorzystanie dodatkowych mechanizmów bezpieczeństwa wbudowanych w aplikacje serwera.
Mariusz Kochański, członek zarządu, dyrektor Działu Systemów Sieciowych, Veracomp
Ochrona środowisk wirtualnych stała się nowym wyzwaniem dla administratorów. Teoretycznie w środowisku wirtualnym zarządzanie bezpieczeństwem poszczególnych warstw wygląda podobnie jak w rozwiązaniach tradycyjnych. W praktyce, zwłaszcza gdy zastosowano kontenery oraz współużytkowanie zasobów fizycznych w modelu IaaS albo Paas, pojawia się kwestia bezpieczeństwa poszczególnych instancji. Błędy konfiguracyjne mogą dotyczyć nie tylko hypervisora, systemu operacyjnego czy aplikacji. Zła konfiguracja sieci lub narzędzi do uwierzytelniania może doprowadzić do nieświadomego, niekontrolowanego wycieku danych.
Artykuł Wirtualne maszyny na celowniku hakerów pochodzi z serwisu CRN.
]]>Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.
]]>– Dzieje się tak, ponieważ przede wszystkim nastąpił duży wzrost prędkości transferu w sieciach SAN i Ethernet. Przyspieszeniu nie sprostały architektury, np. midplane, czyli układów łączących serwery i przełączniki w obudowach – twierdzi Sebastian Perczyński, Presales Consultant z Fujitsu.
Pojawiła się zatem potrzeba zastosowania nowych obudów, a to kłóci się z ideą konstrukcji kasetowej, która miała zapewniać skalowalność wyłącznie przez wymianę modułów serwerowych. Na spadek zainteresowania serwerami blade wpływa też przejście od klasycznej wirtualizacji do rozwiązań chmurowych i definiowanych programowo (Software Defined). W takim przypadku konieczne jest dostosowanie sprzętu do najnowszych technik (Ethernetu 100 Gb/s, FC 32/64 Gb/s, dysków NVMe). A tę cechę mają klasyczne serwery rackowe i zyskujące coraz większą popularność platformy dla środowisk chmurowych.
Serwery rackowe umożliwiają realizowanie koncepcji SDI (Software Defined Infrastructure) i HCI (HyperConverged Infrastructure), spełniających potrzebę upraszczania infrastruktury serwerowo-pamięciowej. Dzięki nowym trendom nie trzeba się długo zastanawiać, jakie wykorzystać serwery i macierze, w jakich grupach i konfiguracjach, z jakimi dyskami, bo wiele potrzebnych funkcji zapewnia oprogramowanie urządzeń. Kod stworzony przez programistów realizuje dużą część zadań dotąd ręcznie wykonywanych przez administratorów. Nie trzeba się martwić o zwymiarowanie systemu pod kątem potrzeb firmy, bo klient dostaje gotowe rozwiązanie, przetestowane i certyfikowane. W dodatku dające się łatwo skalować przez dokładanie kolejnych takich samych węzłów.
Klienci coraz częściej poszukują rozwiązań Software Defined Ready, takich jak serwery rackowe. Urządzenia te zapewniają dostosowywanie posiadanych zasobów do dynamicznie zmieniającego się zapotrzebowania ze strony obsługiwanego oprogramowania. Wyróżnia je możliwość dużej koncentracji mocy obliczeniowej i skalowalność.
– Dlatego ten typ serwerów cieszy się dziś ogromnym zainteresowaniem ze strony klientów – twierdzi Rafał Szczypiorski, Business Development Manager, Global Compute and Networking w Dell EMC.
Wśród nowych trendów technicznych w świecie serwerów za istotną zmianę można uznać coraz częstsze używanie dysków NVMe, dużo szybszych od standardowych nośników. Są znacząco droższe, ale uzyskiwany wzrost wydajności w przypadku środowisk HPC (High Performance Computing), rozwiązań hiperkonwergentnych itp. uzasadnia poniesione koszty.
– To największa zmiana w serwerach w ostatnim czasie. Na rynku pojawiają się wciąż nowe platformy umożliwiające montowanie szybkich dysków NVMe – podkreśla Krzysztof Szablowski, Engineers Team Leader w S4E.
Jak się wyróżnić, kiedy nie ma czym?
Ponieważ serwery bazują na standardowych rozwiązaniach (wszyscy korzystają z komponentów Intela, rzadziej AMD), ich producentom trudno się wyróżnić. Produkty Intela niezmiennie są wybierane najczęściej, bo klienci, którzy rozbudowują firmowe środowiska, tworząc chociażby klastry, np. z wykorzystaniem wirtualizatorów VMware, chcą zadbać o homogeniczność infrastruktury. Dokupują więc sprzęt podobny do tego, jaki już posiadają, który w zdecydowanej większości jest wyposażony w procesory rynkowego potentata.
– Jeśli serwery mają w środku to samo, producenci nie mają dużego pola do popisu. Mogą się wyróżnić bardziej funkcjonalnym firmware'em. Próbują też grać ceną, ale w sytuacji stosowania komponentów od tego samego dostawcy również tutaj mają małe pole manewru – zauważa Krzysztof Szablowski.
Dlatego serwery to nie jest łatwy rynek. W dodatku producenci przyzwyczaili klientów do częstych zniżek. W efekcie ceny katalogowe urządzeń różnych dostawców niewiele się obecnie różnią. A niskie ceny oznaczają spadek zainteresowania dostawców mniejszymi projektami, na których trudniej zarobić.
Z drugiej strony kłopot jest też z projektami największymi, bo wielcy dostawcy usług w chmurze publicznej sami składają sobie serwery z zamówionych komponentów. Budują sprzęt, który zapewni im największą elastyczność i najprostszą administrację rozwiązaniami. W przypadku tysięcy serwerów będzie to miało przełożenie na znacząco mniejszy koszt zakupu i eksploatacji. Na szczęście sprawdza się to tylko u gigantów, bo nawet właściciele centrów danych wybierają oferty tradycyjnych dostawców serwerów.
– Kupują od producenta, bo potrzebują supportu. Nie dysponują takimi zasobami ludzkimi, by mogli we własnym zakresie zająć się obsługą tworzonej samodzielnie infrastruktury – wyjaśnia Krzysztof Szablowski.
To dowód, że na serwer trzeba patrzeć całościowo, zwracać uwagę nie tylko na sprzęt, ale także na dołączone do niego usługi wsparcia. Nie można więc zapominać o serwisie. Rafał Szczypiorski przekonuje, że dobra obsługa posprzedażna przynosi ogromne korzyści i może zaważyć na wyborze oferty przez klienta. Dlatego pojawiają się nowe metody świadczenia pomocy technicznej wychodzące naprzeciw oczekiwaniom klientów.
– Idealnym przykładem jest możliwość nadania odpowiedniego priorytetu zgłoszenia przez samego klienta. To nie serwis decyduje jak ważne jest zgłoszenie, a klient – mówi przedstawiciel Dell EMC.
Gdy rosła moc obliczeniowa i pojemność serwerów, tradycyjnie uruchamiane aplikacje przestały wykorzystywać wszystkie dostępne zasoby. Dlatego powstała koncepcja konsolidowania wielu systemów i aplikacji w ramach jednego fizycznego serwera za pomocą wirtualizacji, to znaczy użycia oprogramowania do emulowania wielu systemów sprzętowych. Hypervisor, czyli wirtualizator, tworzy warstwę między sprzętem a maszynami wirtualnymi, których zakładanie i uruchamianie umożliwia. Mogą one być wyposażone w różne systemy operacyjne, a mimo wszystko działać na tym samym serwerze fizycznym – każda ma własne pliki binarne, biblioteki i aplikacje, które obsługuje. Dlatego pojedyncza maszyna wirtualna jest „ciężka”, bywa, że ma wiele gigabajtów. Wirtualizacja systemu operacyjnego zyskała na popularności w ostatniej dekadzie, umożliwiając przewidywalne działanie maszyn wirtualnych i łatwe ich przenoszenie z jednego środowiska serwerowego do innego.
Wykorzystywana w ostatnim czasie coraz powszechniej konteneryzacja także gwarantuje uruchamianie wielu izolowanych systemów, ale w ramach tego samego systemu operacyjnego hosta. Działając na serwerze fizycznym, każdy kontener współużytkuje jądro systemu operacyjnego, takiego jak Linux czy Windows, a zazwyczaj także pliki binarne i biblioteki. Współużytkowane komponenty przeznaczone są tylko do odczytu. W rezultacie kontenery są wyjątkowo „lekkie”. Ich rozmiar może być liczony w megabajtach, a nie gigabajtach, natomiast ich uruchomienie zajmuje zaledwie kilka sekund, a nie minut, jak w przypadku maszyn wirtualnych. Konteneryzacja odciąża administratorów IT i to nawet bardziej niż wirtualizacja. Skoro bowiem kontenery używają tego samego systemu operacyjnego, wsparcia (m.in. dostarczania aktualizacji, poprawek) wymaga tylko jeden system operacyjny.
Nie bez znaczenia dla klientów podejmujących decyzje biznesowe jest też dostępność i jakość oprogramowania zarządzającego. Nie wystarcza już takie, które zapewnia zarządzanie jedynie serwerami. Klienci potrzebują narzędzi uniwersalnych, dzięki którym jednocześnie mogą objąć zarządzaniem również środowisko pamięci masowej oraz sieciowe.
– Idealnym rozwiązaniem wydaje się być możliwość definiowania profili dla określonych grup sprzętowych, zgodnie z którymi każde nowe urządzenie po podłączeniu do sieci zostanie automatycznie skonfigurowane – twierdzi Sebastian Perczyński.
W obliczu mającego nastąpić ogromnego wzrostu cen energii elektrycznej wyróżnikiem oferty może być energooszczędność serwerów. Wyższa cena prądu bardzo wpłynie na koszt utrzymania serwerów, a w efekcie docelowej usługi przez nie realizowanej. Dlatego klienci będą szukać konstrukcji serwerowych, które zapewnią im niższe rachunki za energię.
– Powinno wzrosnąć zainteresowanie ekonomicznymi technikami chłodzenia, zapewnianymi przez producentów serwerów jak również oferowanymi przez niezależnych dostawców – twierdzi Krzysztof Szablowski.
Serwerowe systemy operacyjne
System operacyjny zawsze pełnił taką samą rolę – zapewniał aplikacjom dostęp do zasobów sprzętowych. Ostatnie lata nie przyniosły w tej kwestii żadnych zmian.
– Bezpieczeństwo, stabilność, wydajność i skalowalność – oto, czego oczekuje się od nowoczesnego systemu operacyjnego. Ma dobrze pracować w maszynie fizycznej, wirtualnej, instancji chmurowej lub wykorzystywany pasywnie jako obraz kontenera – tłumaczy Wojciech Furmankiewicz, Regional Manager, CEE w Red Hat.
Obecne systemy operacyjne ewoluują, zmieniają postać z monolitycznej na modułową. Projektując kolejne wersje, twórcy zmierzają do tego, żeby użytkownicy nie musieli instalować całego oprogramowania, tylko wybierać to, co w danym momencie jest im potrzebne.
Bardzo istotne stają się funkcje ułatwiające utrzymanie systemu. Ponieważ podczas wprowadzania zmian i aktualizacji nie da się uniknąć błędów, przydatna jest możliwość szybkiego powrotu do poprzedniego stanu, w którym problem nie występował. Pomocna będzie także opcja instalowania poprawek, przede wszystkim związanych z lukami w zabezpieczeniach i stabilnością systemu, bez konieczności wyłączania go.
– Gdy w przedsiębiorstwie trzeba czekać nawet miesiąc na okno serwisowe i przez ten czas systemu nie można zaktualizować, taka funkcja bardzo się przydaje – twierdzi Tomasz Surmacz, dyrektor handlowy w SUSE Polska.
Ma to znaczenie zwłaszcza w przypadku systemów udostępnianych na zewnątrz, w których poprawki związane z podniesieniem poziomu bezpieczeństwa muszą być wprowadzane natychmiast po ich wydaniu.
Ważnym zadaniem serwerowego systemu operacyjnego jest również łatwe budowania klastrów serwerów – zarówno w trybie active-active, jak również active-passive. Klastry można uruchamiać w jednej sieci lokalnej, ale też w miejscach oddalonych o wiele kilometrów, gdzie serwery są wykorzystywane zdalnie, budując w ten sposób środowisko HA (High Availability).
Dzianis Kaszko, Sales & Marketing Director, Comtegra
To, które serwery są w danym momencie tańsze, wynika z polityki dostawców, ich programów cenowych i lojalnościowych. Zdarza się, że serwer o bardzo podobnych parametrach kosztuje mniej u producenta A, ale w konfiguracji z innymi komponentami tańszy jest u producenta B. Bardzo często ważnym kryterium wyboru (zwłaszcza dla przedsiębiorstw z dużymi środowiskami IT) są koszty zarządzania. Jeśli klient ma kilkadziesiąt serwerów jednego producenta i administruje nimi za pomocą stworzonego dla nich rozwiązania, dokupienie kolejnych maszyn innej marki rodzi problemy. Musiałby zarządzać nimi, używając dodatkowych narzędzi. Bardziej ekonomiczny jest zatem zakup droższych o kilka procent urządzeń tego samego dostawcy i zachowanie spójnego środowiska. Nie mniej ważna jest jakość serwisu. Generalnie w ostatnim czasie można było zaobserwować jej spadek, więc vendorzy, którzy nie obniżyli poziomu usług, zaczynają wygrywać. Klient docenia fakt, że jego problemy rozwiązywane są w Polsce, nie musi czekać dwa tygodnie na jakiś komponent itp. Ma to dla niego ogromne znaczenie, zwłaszcza jeśli jego środowisko produkcyjne musi działać w trybie 24/7. Kolejną ważną rzeczą, którą może wyróżnić się producent, jest krótszy termin dostawy.
Podobnie jak w przypadku innych komponentów, które składają się na środowisko IT, istotnym aspektem serwerowego systemu operacyjnego jest koszt utrzymania. Jego znaczenie ciągle rośnie, bo na rynku jest coraz trudniej o fachowy personel informatyczny, a pracy w dziale IT przybywa. W związku z tym coraz potrzebniejsze są narzędzia wspierające administratorów w codziennych obowiązkach, a producenci systemów operacyjnych dołączają do nich rozwiązania ułatwiające zarządzanie infrastrukturą centrum danych, nie tylko uruchomioną za pomocą ich oprogramowania. Dzięki tym narzędziom można zoptymalizować administrowanie całym środowiskiem oraz zwiększyć jego ochronę, np. uzyskując kontrolę nad usuwaniem luk w zabezpieczeniach.
Za pomocą oprogramowania w centrum danych realizowana jest obecnie – wspomniana już przy okazji serwerów – idea Software Defined Infrastructure. Buduje się infrastrukturę, używając standardowych elementów sprzętowych, czyli serwerów z dyskami, a całą „inteligencję” wnosi oprogramowanie. Na bazie systemu operacyjnego dostarczane są m.in. usługi zwirtualizowanej sieci i pamięci masowej dla chmury prywatnej, narzędzia do zarządzania infrastrukturą definiowaną programowo oraz coraz ważniejsze usługi kontenerowe. Dzięki tym ostatnim można elastycznie korzystać z oprogramowania – bardzo szybko i niezależnie od infrastruktury instalować i uruchamiać aplikacje oraz wymuszać ich zamknięcie, zgodnie z aktualnymi potrzebami.
Wirtualizacja kontra konteneryzacja
Rośnie trend wykorzystywania kontenerów wszędzie, gdzie tylko to możliwe. To efekt m.in. ich lekkości, szybkości uruchamiania, bardziej optymalnego użycia zasobów oraz łatwości budowania nowych aplikacji w atrakcyjnej architekturze mikrousług. Stosowanie tych rozwiązań wpływa na obniżenie kosztów utrzymania infrastruktury i poprawę zwinności biznesu. Dlaczego zatem jeszcze nie wszystko jest jeszcze skonteneryzowane?
Jak wyjaśnia Wojciech Furmankiewicz, konteneryzacja polega na współużytkowaniu jądra systemu węzła przez wiele aplikacji pracujących w odizolowanych procesach. Dlatego, po pierwsze, wersja jądra jest taka sama dla wszystkich, a po drugie, awaria jądra oddziałuje na setki gęsto upakowanych wykorzystujących je kontenerów. W przypadku uruchamiania nowoczesnych aplikacji, które są zaprojektowane do pracy w takim środowisku, ma to niewielkie znaczenie.
– Jeśli jednak firmowe systemy są bardziej tradycyjne, wymagają specyficznej wersji jądra i źle znoszą awarię systemu, lepsza będzie w ich przypadku wirtualizacja – wyjaśnia przedstawiciel Red Hata.
Jej cechą nadrzędną jest dowolność wersji i rodzaju systemu w przypadku każdej pracującej aplikacji. W efekcie awaria jednej maszyny wirtualnej nie ma wpływu na inne. Na jednym hoście mogą pracować zarówno systemy Linux, jak i Windows.
– Dlatego przedsiębiorstwa są zmuszone utrzymywać te „ciężkie” obiekty i opiekować się ich złożonym cyklem życia. To kompromis wynikający z bilansu zysków i start – twierdzi Wojciech Furmankiewicz.
W efekcie firmy są skazane na wiele różnych platform, środowiska hybrydowe, wielochmurowe oraz takie, które ciągle wymagają przeznaczonych dla nich maszyn fizycznych. W tak złożonej infrastrukturze niezbędne są sprawne systemy zarządzania i automatyzacji procesów, które ułatwią utrzymywanie środowisk, zarówno kontenerowych, jak i wirtualnych.
Wojciech Furmankiewicz
Regional Manager CEE, Red Hat
Już dawno minęły czasy, kiedy system operacyjny był instalowany ręcznie w pełnej postaci. Obecnie liczy się maksymalna unifikacja i automatyzacja procesu powoływania nowych środowisk. System operacyjny jest jednym z elementów definiowanych jako Infrastructure as a Code. Powinien zapewniać zautomatyzowaną konfigurację urządzeń sieciowych, systemów pamięci masowej oraz ich integrację z zewnętrznymi elementami budowanej infrastruktury.
Tomasz Pietrzak
Infrastructure Solutions Group Manager, Dell EMC
Polski rynek serwerów już od kilku lat rośnie bardzo dynamicznie, a nowych klientów stale przybywa. Odbywa się to wbrew wcześniejszym przewidywaniom, które głosiły spadek lub w najlepszym wypadku stagnację sprzedaży tych produktów, spowodowane wzrostem popularności chmury publicznej. Co istotne, dotyczy to każdego segmentu odbiorców tych urządzeń – nie tylko największych przedsiębiorstw, ale także średnich i małych firm, które również dostrzegają nowe możliwości wykorzystania serwerów. Tym bardziej, że ceny rozwiązań serwerowych znacznie się obniżyły a do tego są one bardzo łatwo skalowalne.
Artykuł Serwery i systemy operacyjne, czyli stare po nowemu pochodzi z serwisu CRN.
]]>Artykuł StarWind: kompleksowe rozwiązanie do wirtualizacji pochodzi z serwisu CRN.
]]>Ta istniejąca od 2003 r. firma stała się pionierem w dziedzinie wirtualizacji pamięci masowych dzięki wprowadzeniu, dwa lata później, oprogramowania StarWind Virtual SAN. Trzy lata później StarWind znalazł się wśród producentów, którzy jako pierwsi oferowali klientom rozwiązania hiperkonwergentne. W 2016 r. w portfolio StarWind pojawiły się także urządzenia do przechowywania i backupu danych, które uzupełniły ofertę wirtualizacji i sprawiły, że odtąd mogła być stosowana także w małych i średnich firmach oraz zdalnych biurach.
Dążąc do jak największej prostoty, wydajności i elastyczności swoich rozwiązań, StarWind z powodzeniem rozwija się w wielu krajach. Produkty StarWind pomogły już w stworzeniu wirtualnych środowisk dla ponad 140 tys. użytkowników korzystających z nich za darmo i ponad 4 tys. płacących klientów na całym świecie.
Hiperkonwergentne urządzenie StarWind HCA (Hyper Converged Appliance) powstało z myślą o firmach, które chcą wyeliminować ryzyko długiego przestoju swoich aplikacji, ale jednocześnie mają ograniczone zasoby finansowe i liczbę personelu IT. StarWind HCA „zmieści się” w każdym budżecie, gdyż jest to rozwiązanie całkowicie zdefiniowane programowo, niewymagające zakupu drogiego sprzętu. Niewielkie rozmiary działu IT również nie stanowią żadnej przeszkody – konfiguracją, integracją i migracją danych zajmą się inżynierowie StarWind, bez pobierania dodatkowych opłat. Ponadto klient nie musi wykonywać żadnych czynności serwisowych, ponieważ wbudowany system StarWind ProActive Support w porę zapobiega potencjalnym awariom infrastruktury IT.
StarWind HCA to także doskonały sposób, by uniknąć kosztownych przestojów w pracy aplikacji. Niezwykle odporny na awarie, dwuwęzłowy system może normalnie działać, nawet jeśli straci jeden węzeł i połowę dysków w drugim węźle. Oprócz tego StarWind Hybrid Cloud umożliwia tworzenie awaryjnych klastrów między pamięcią lokalną a usługami chmurowymi, takimi jak AWS, Microsoft Azure czy Google Cloud.
Dla firm, które potrzebują wydajnej, odpornej na awarie pamięci masowej dla maszyn wirtualnych i aplikacji, idealnym rozwiązaniem jest StarWind Virtual SAN. Tworzy ono niejako lustrzane odbicie wewnętrznych dysków twardych i SSD między serwerami, co eliminuje konieczność posiadania zewnętrznych macierzy dyskowych z funkcją replikacji. StarWind Virtual SAN wpływa też na zmniejszenie wydatków CAPEX i OPEX, ponieważ zapewnia korzystanie z łatwo dostępnych i popularnych komponentów.
Funkcjonalność chmury hybrydowej umożliwia swobodne przenoszenie maszyn wirtualnych między środowiskiem stacjonarnym a dowolną chmurą publiczną bez żadnych przestojów. Jedno rozwiązanie zapewnia więc skalowalność i wysoką dostępność środowiska IT oraz wpływa na koszt jego funkcjonowania.
Firma StarWind znalazła doskonałą równowagę między rozwiązywaniem problemów klientów a dbaniem o to, by współpracujący z nią partnerzy odnosili jak największe korzyści. Użytkownicy końcowi otrzymują pełny zestaw produktów dopasowanych do ich wymagań i umożliwiających stworzenie infrastruktury IT od podstaw. Rozwiązania StarWind, projektowane z myślą o prostocie, dają klientom więcej czasu na rozwijanie swojej działalności, eliminując uciążliwe dłubanie przy infrastrukturze. Na tym właśnie polega modus operandi StarWind – zajmowanie się infrastrukturą IT od strony technicznej, aby w tym czasie klienci mogli bez przeszkód realizować swoje cele biznesowe.
Więcej informacji:
Jerzy Adamiak, Storage Systems Consultant,
Alstor, tel. 22 51 02 468, j.adamiak@alstor.com.pl
Artykuł StarWind: kompleksowe rozwiązanie do wirtualizacji pochodzi z serwisu CRN.
]]>Artykuł Krótka droga od wirtualizacji do chmury pochodzi z serwisu CRN.
]]>Wielu dostawców szuka swojej niszy na tym rynku (na razie niewielu się to udało), a klienci nie zawsze są pewni inwestycji w to, a nie inne rozwiązanie, które miałoby pomóc w rozwiązaniu ich problemu. Dlatego kluczową rolę do odegrania mają integratorzy – zarówno w kontekście strategicznego i taktycznego doradztwa, jak też późniejszego wdrożenia i być może utrzymania całego systemu.
Kształt rynku, na którym funkcjonują dostawcy rozwiązań do wirtualizacji, jest bardzo ciekawy. Wzajemne zależności dostawców oraz „śluby” i „rozwody” powodują, że każda decyzja o współpracy z dostawcami musi być przemyślana, bowiem w przyszłości może poskutkować różnymi konsekwencjami.
Przez ostatnich kilkanaście lat świat IT uważnie przygląda się poczynaniom VMware’a, który został kupiony przez EMC w 2004 r. Zastanawiano się wówczas nad sensem tego ruchu, skoro sam VMware bardzo aktywnie współpracował (i czyni to nadal) ze wszystkimi największymi konkurentami EMC, na czele z NetAppem. Zarządcy VMware’a zastrzegli wówczas, że mimo specyficznej sytuacji chcą, aby producent pozostał niezależny i mógł współpracować z każdym graczem na rynku. Trzeba przyznać, że w swoim postanowieniu wytrwali, a EMC im w tym nie przeszkadzało, co wzbudziło duży szacunek w branży IT.
Datacenter & Cloud Platform Product Manager, Microsoft
Klienci często pytają o możliwość wyliczenia parametrów TCO i ROI dla projektów wirtualizacyjnych i związanych z chmurą publiczną. Niestety, jest to dość złożone zagadnienie i nie zawsze da się przeprowadzić takie kalkulacje. Wszystko zależy od tego, czy mamy do czynienia z ciągłym przetwarzaniem danych czy np. chwilowym wzrostem zapotrzebowania na moc obliczeniową związanym z jakimś projektem. Inny rodzaj zasobów jest też przewidziany na potrzeby szkoleniowe, do testów czy wdrożenia produkcyjnego. Oczywiście skorzystanie z chmury publicznej rzadziej opłaca się firmom, które dysponują już własnym, niewykorzystanym sprzętem.
Ale w 2015 r. podobne pytanie postawiono na nowo, gdy do gry wkroczył Dell. Wtedy sytuacja jeszcze bardziej się skomplikowała, bo EMC produkował tylko macierze dyskowe, zaś pola działania Della i VMware’a pokrywają się – mowa o produkcji serwerów. Pytania o zachowanie niezależności przez VMware padają do dziś, zaś deklaracje producenta nadal są niezmienne. Pewien niesmak odczuwają tylko takie firmy jak Cisco, Fujitsu, HPE, IBM czy Lenovo, które – będąc ważnymi partnerami VMware’a – wiedzą, że częściowo pracują na zyski Della.
Kolejny ciekawy układ wytworzył się między firmami VMware i Microsoft. Koncerny, które teoretycznie powinny być partnerami, nie żywią do siebie zbytniej sympatii – głównie z powodu konfliktu interesów, bo biznesowo konkurentami są coraz mniej. VMware nie „lubi” Microsoftu, bo ten wszedł na rynek z konkurencyjnym produktem (Hyper-V), który rozdaje za darmo. Z kolei Microsoft krzywo patrzy na VMware’a, bo ten zachęca użytkowników do rezygnacji z licencji serwerowych (np. Windows Server 2003) i przeniesienia ich do wirtualnych maszyn, zamiast inwestowania w rozwiązania nowe, bardziej funkcjonalne, ale też wymagające szybszego sprzętu.
Do tego dochodzi relacja obu firm z Citriksem. Gdy producent ten oferował tylko rozwiązanie do wirtualizacji aplikacji, był dużym partnerem VMware’a i korzystał z jego platformy do wirtualizacji serwerów. Ale gdy Citrix kupił XenSource’a w 2007 r. i szybko rozszerzył portfolio o rozwiązania do wirtualizacji serwerów i desktopów, partnerstwo zawisło na włosku, a finalnie odeszło w niebyt.
Wielu obserwatorów rynku spodziewało się podobnej sytuacji między Citriksem i Microsoftem, gdy ten drugi też zadeklarował wejście na rynek rozwiązań wirtualizacyjnych, ale tu zwyciężył zdrowy rozsądek. Microsoft zorientował się, że technologicznie w dziedzinie wirtualizacji aplikacji i desktopów nie dogoni Citriksa, więc zdecydował się na rozszerzenie wcześniejszego partnerstwa. W efekcie usługa Windows 10 as a Service będzie wkrótce świadczona z chmury Azure oraz dzięki technologii udostępniania aplikacji i desktopów autorstwa Citriksa.
Rozwijając rozwiązania wirtualizacyjne, producenci dość szybko doszli do takiego poziomu, na którym spełniono większość oczekiwań klientów. Część z nich wręcz zadeklarowała, że nie jest zainteresowana „gonitwą” za nowymi funkcjami, bowiem hołduje zasadzie „zainstaluj i zapomnij”, aby nie musieć później regularnie testować zgodności nowych wersji oprogramowania wirtualizacyjnego z aplikacjami stosowanymi przez biznes. Producenci spełniają ich oczekiwania:
Business Solutions Strategist, VMware
Administratorzy pracujący u klientów często obawiają się, że automatyzacja zarządzania infrastrukturą IT może negatywnie wpłynąć na zatrudnienie. Z jednej strony to zrozumiałe, ale zarazem błędne myślenie. Z podobnymi przykładami mieliśmy już do czynienia w historii przemysłu. W trakcie rewolucji przemysłowej też obawiano się, że wprowadzenie zautomatyzowanych maszyn tkackich spowoduje drastyczny spadek zatrudnienia. Tymczasem automatyzacja spowodowała spadek cen, a tym samym ogromny wzrost popytu na sukno. Potrzebne było wręcz zwiększenie zatrudnienia osób obsługujących maszyny. Dokładnie z taką samą sytuacją zaczynamy mieć do czynienia w branży IT.
– Od pewnego czasu oferujemy wybrane produkty w wersjach Long Term Service Release (LTSR) – mówi Sebastian Kisiel, Senior Sales Engineer w firmie Citrix. – Charakteryzują się wydłużonym do 10 lat okresem wsparcia, w trakcie którego wraz z aktualizacjami nie są wprowadzane nowe funkcje zmuszające np. do rozbudowy środowiska sprzętowego. Gwarantujemy oczywiście naprawę ewentualnych usterek i zapewniamy poprawki związane z bezpieczeństwem. Oprogramowaniem w tym modelu zainteresowani są przede wszystkim klienci korzystający z ponad tysiąca stanowisk komputerowych.
Z tego powodu rozwój rozwiązań wirtualizacyjnych został w zasadzie zepchnięty na boczny tor. Skupiono się zaś na automatyzacji zarządzania środowiskiem wirtualnym – oczekiwali tego klienci, w których centrach danych działało kilkaset wirtualnych maszyn i ręczne zarządzanie nimi wiązało się z ryzykiem popełnienia błędu ludzkiego. Początkowo nieufnie podchodzono do takich funkcji jak np. przenoszenie włączonych wirtualnych maszyn z jednego fizycznego serwera na drugi. Finalnie jednak bez automatyzacji żaden administrator wirtualnego środowiska nie wyobraża sobie życia.
Na potrzeby terminologii wirtualizacyjnej zaadaptowano też pojęcie chmury, która wcześniej kojarzyła się głównie z usługami internetowymi. Rozpoczęto promowanie chmur prywatnych i hybrydowych, wskazując, że te drugie prawdopodobnie na długo staną się nieodzownym elementem strategii zarządzania danymi przez działy IT w przedsiębiorstwach. Ale są firmy, które w odniesieniu do chmury podejmują odważne decyzje.
– Niespecjalnie oglądamy się na rynek wirtualizacji – mówi Bartłomiej Machnik, Datacenter & Cloud Platform Product Manager w Microsofcie. – W tej chwili 98 proc. naszych wysiłków marketingowych i handlowych związanych jest z chmurą publiczną. Oczywiście nie lekceważymy rozwiązań konkurencyjnych, ale odeszliśmy od walki przetargowej na funkcje, bo chcemy grać na trochę nowocześniejszym boisku.
Microsoft nie planuje naturalnie wstrzymania rozwoju oprogramowania Hyper-V dostępnego jako moduł Windows Servera. Ale tak samo jak w przypadku Citrix XenServera rozwiązanie jest dostępne bezpłatnie, a na tradycyjnej wirtualizacji serwerów dziś zarabia tylko VMware.
Sukces rozwiązań do wirtualizacji serwerów spowodował, że zaczęto podejmować próby skopiowania tego modelu na inne obszary związane z IT, głównie sieci i pamięci masowe. Tam jednak już nie było tak łatwo. Doszło do wielu nieporozumień, przez co na pełen sukces także w tej dziedzinie przyjdzie jeszcze poczekać.
– Kalka językowa, którą jest „wirtualizacja sieci” nie do końca oddaje istotę tego rozwiązania – mówi Stanisław Bochnak, Business Solutions Strategist w VMware. – Nie mamy tu do czynienia z taką wirtualizacją jak w przypadku serwerów, gdzie urządzenie fizyczne może „udawać” kilka serwerów równocześnie, i to z różnym systemem operacyjnym. Tymczasem w przypadku sieci nie chodzi o to, żeby bardziej obciążyć istniejące urządzenia sieciowe. Wręcz przeciwnie. Główna zmiana dotyczy konfiguracji i zarządzania – tu oprogramowanie jest w stanie automatyzować wiele działań i uchronić administratorów od błędów.
Senior Sales Engineer, Citrix
Budując środowisko wirtualizacyjne, trzeba zwracać dużą uwagę na to, w jakim stopniu wykorzystywane są zasoby sprzętowe, a w szczególności macierze dyskowe przechowujące zwirtualizowane obrazy serwerów, desktopów i aplikacji. Popełniony błąd w planowaniu może skutkować niestabilną pracą lub wręcz przestojami całego środowiska. Dlatego warto zainteresować się systemami zapewniającymi elastyczny dobór wirtualizowanych komponentów i swobodę w ich udostępnianiu poszczególnym użytkownikom. Dzięki wbudowanym w rozwiązania wirtualizacyjne repozytoriom administratorzy mogą wybierać, jak ze sklepu, obrazy różnych systemów operacyjnych oraz aplikacji.
Dlatego trafniejszym określeniem jest sieć zdefiniowana programowo, bo wszystkie składowe takiej nowoczesnej sieci działają jako obiekty software’owe i są elastycznie rekonfigurowalne w stopniu, jaki jest niemożliwy do uzyskania z urządzeniami fizycznymi. Z kolei w pamięciach masowych wirtualizacja polega przede wszystkim na agregacji różnego typu nośników – wirtualizator indeksuje udostępnianą przez nie pojemność, weryfikuje zapewniany poziom bezpieczeństwa danych oraz testuje wydajność. A potem udostępnia zwirtualizowane zasoby serwerom, w zależności od oczekiwanego przez działające na nich aplikacje poziomu usług. W efekcie uwalnia administratorów od konieczności prowadzenia żmudnych testów wydajnościowych i nie zawsze łatwego rekonfigurowania środowiska pamięci masowych, zależnie od aktualnych potrzeb biznesowych.
Wirtualizacja pamięci masowych przez długie lata była postrzegana jako drogie i skomplikowane przedsięwzięcie. W głównej mierze przyczyniło się do tego sprzętowe rozwiązanie SAN Volume Controller oferowane przez IBM. Ale ostatnich kilka lat przyniosło znaczny postęp w tej dziedzinie. Moduły wirtualizujące wbudowało w swoje macierze dyskowe wielu producentów (oprócz IBM-u także Dell EMC, HDS czy Huawei), a poza tym dużą popularność zaczęły zyskiwać alternatywne dla sprzętu rozwiązania programowe takich firm jak: DataCore, Dell EMC, FalconStor, StarWind czy VMware. Mają one wiele zalet, ale najważniejsza jest jedna.
– Główną korzyścią płynącą z oprogramowania do wirtualizacji pamięci masowych jest to, że znacznie obniża ono koszt zapewnienia wysokiej dostępności przestrzeni dyskowej dla serwerów – mówi Jerzy Adamiak, konsultant ds. pamięci masowych w Alstorze. – Dzięki niemu można stworzyć wirtualną sieć SAN, nie mając ani jednego przełącznika Fibre Channel. Zapewnia ono replikację danych między węzłami w wirtualnym środowisku, co ma szczególne znaczenie, np. gdy w ten sposób chcemy zapewnić przestrzeń dyskową chociażby dla wirtualizatorów serwerów czy desktopów.
O ile w przypadku sprzętowych wirtualizatorów pamięci masowych agregacji mogą podlegać wyłącznie podłączone „z tyłu” macierze dyskowe, o tyle rozwiązanie dostępne w postaci oprogramowania zapewnia znacznie większą elastyczność. W prosty sposób w jedno środowisko można połączyć np. część pamięci operacyjnej serwera, zainstalowaną w nim kartę PCIe z pamięcią flash, wbudowane dyski SSD i zewnętrzny zasób dyskowy. Przeprowadzane przez Storage Performance Council testy wykazały, że można w ten sposób uzyskać wydajność porównywalną z efektywnością najlepszych macierzy all-flash za ułamek ich ceny.
Producenci oprogramowania do wirtualizacji pamięci masowych starają się uzasadnić sens inwestowania w nie – znakomita większość zapewnia jego darmowe lub czasowe wersje. Można też spotkać się z ofertą ułatwiającą przeprowadzenie migracji danych, np. ze starej macierzy dyskowej na nową. Dzięki takiemu rozwiązaniu proces może przebiegać bez konieczności wyłączania urządzeń, a więc z zapewnieniem ciągłego dostępu do danych z serwerów.
Opublikowane w styczniu br. wyniki badań IDC raczej nie pozostawiają wątpliwości, który model chmurowego przetwarzania danych zyska uznanie użytkowników. W 2017 r. na świecie na rozwiązania do przetwarzania danych w chmurze ma być wydanych44,2 mld dol., z czego aż 61 proc. na infrastrukturę służącą do świadczenia usług w chmurze publicznej, a tylko 15 proc. wyłącznie w chmurze prywatnej przedsiębiorstw (reszta udziałów przypada na chmurę hybrydową). Jeżeli taki wynik zostanie osiągnięty, będzie to oznaczało wzrost o 18,2 proc. wobec ubiegłego roku. Tymczasem według IDC wartość sprzedaży rozwiązań niesłużących do budowania chmury spadnie o 3,3 proc.
Artykuł Krótka droga od wirtualizacji do chmury pochodzi z serwisu CRN.
]]>Artykuł Veeam dostawcą rozwiązań dla Nutanix pochodzi z serwisu CRN.
]]>Nutanix przyjmuje firmę Veeam do programu partnerskiego Nutanix Elevate Alliance jako strategicznego partnera technologicznego.
Zarówno Veeam jak i Nutanix prowadzą sprzedaż poprzez kanał partnerski. Partnerzy obu firm będą mieli dostęp do nowego, połączonego rozwiązania.
Artykuł Veeam dostawcą rozwiązań dla Nutanix pochodzi z serwisu CRN.
]]>Artykuł Wirtualizacja i chmura też potrzebują zabezpieczeń pochodzi z serwisu CRN.
]]>Spodziewany wzrost na rynku bezpieczeństwa chmury jest związany z rosnącym popytem na rozwiązania służące zabezpieczaniu danych poza granicami firmowych sieci. Przyczyniają się do tego m.in. regulacje prawne nakładające na organizacje określone obowiązki związane z ochroną danych w przypadku korzystania z chmury. W szczególności dotyczy to niektórych branż, np. ochrony zdrowia i sektora finansowego.
Wraz ze wzrostem liczby przedsiębiorstw korzystających z chmury zwiększy się częstotliwość cyberataków i ich zaawansowanie. Przedsmak skali tego zjawiska pokazują zdarzenia z ostatnich dwóch lat, w tym spektakularne ataki na serwisy Ashley Madison, Home Depot, Anthem, a nawet na niektórych producentów zabezpieczeń, np. Kaspersky Lab.
Myśląc o ochronie systemów cloud computingu, warto skupić się przede wszystkim na zabezpieczeniu chmury hybrydowej. Właśnie w tym kierunku będą ewoluować dzisiejsze środowiska wirtualne wykorzystywane przez firmy. W przyszłości mają się bowiem składać z lokalnej, prywatnej infrastruktury IT oraz chmury publicznej. Oba obszary potrzebują zabezpieczonych kanałów komunikacji (np. szyfrowania) oraz zunifikowanego zarządzania. Eksperci z Kaspersky Lab przewidują, że do 2020 r. wydatki na bezpieczeństwo chmury hybrydowej zwiększą się od 2,5 do 3 razy w porównaniu z prognozami na 2017 r.
Nowoczesne centra danych zmieniają się gwałtownie pod wpływem wirtualizacji, chmury i nowych metod wdrażania aplikacji, jak kontenery. Wiele firm korzystających z wirtualizacji i chmury uważa, że zabezpieczenie tego rodzaju środowisk wymaga zupełnie nowych metod. Jednak w praktyce trudno zauważyć fundamentalne różnice. Wciąż potrzebne są rozwiązania ochronne, które wykorzystuje się w lokalnym środowisku. Powinny być jednak uzupełnione o nowe możliwości, związane z dostosowaniem do dynamicznego charakteru chmury obliczeniowej i koniecznością nadążania za zmianami zachodzącymi w infrastrukturze IT.
Wyzwaniem jest poszukiwanie balansu między wydajnością środowiska wirtualnego a jego bezpieczeństwem. Zastosowanie tradycyjnego rozwiązania ochronnego, wykorzystującego tzw. agenty, to zły wybór w przypadku infrastruktury wirtualnej. Używanie takich zabezpieczeń może pozbawić użytkownika większości zalet wirtualizacji w wyniku nadmiernego obciążenia zasobów i ruchu sieciowego. Dlatego najlepiej oferować klientom zabezpieczenia, w których wprowadzono istotną zmianę – działają one bezagentowo (lub z lekkim agentem) dzięki ścisłej integracji z platformami wirtualizacji. W rozwiązaniach bezagentowych funkcje bezpieczeństwa są w całości zaimplementowane na poziomie hypervisora. Z kolei lekki agent to oprogramowanie instalowane w maszynach wirtualnych, który realizuje część podstawowych funkcji typowego agenta. Zadania wymagające większej mocy obliczeniowej są zaś przekazywane do specjalnej maszyny wirtualnej.
Błędem jest przyjmowanie, że zabezpieczenia sprzętowe, które dobrze sprawdzają się w środowisku fizycznym, będą równie dobrze współpracować z maszynami wirtualnymi. Z drugiej strony warto jednak pamiętać, że producenci zabezpieczeń i systemów zarządzania wyposażają je w coraz nowsze funkcje i narzędzia, które są „świadome” wirtualizacji. Zdecydowanie warto więc stosować oprogramowanie emulujące zabezpieczenia fizyczne, które można zainstalować w specjalnie przygotowanych do tego celu maszynach wirtualnych.
Kopie zapasowe maszyn wirtualnych można tworzyć, używając produktów do backupu maszyn fizycznych. Wymagają one instalowania agentów w każdym chronionym serwerze. Jednak, podobnie jak w przypadku rozwiązań ochronnych, ubocznym efektem jest poważny narzut. To główny czynnik, który zdecydował, że na rynku pojawiły się narzędzia backupowe specjalnie do ochrony środowisk wirtualnych. Klienci stoją więc przed zasadniczą decyzją: wybrać rozwiązanie stworzone wyłącznie z myślą o wirtualizacji (i używać dwóch różnych systemów – drugiego do ochrony systemów fizycznych) czy raczej system, który potrafi chronić jednocześnie serwery fizyczne i wirtualne. Trudno wskazać, które podejście jest lepsze; często decydującym czynnikiem może po prostu okazać się cena.
Gdy mowa o ochronie środowisk wirtualnych, potencjalnych klientów należy szukać wśród użytkowników najpopularniejszych platform do wirtualizacji (VMware vSphere, Microsoft, Hyper-V, Citrix XenServer/XenDesktop czy KVM). Co istotne, dostępne na rynku rozwiązania mogą być licencjonowane w zależności od liczby chronionych wirtualnych desktopów lub serwerów czy też rdzeni serwerów fizycznych, na których działa środowisko wirtualne.
Ważne jest integrowanie rozwiązań do zabezpieczenia środowisk wirtualnych z całym systemem bezpieczeństwa funkcjonującym w danym przedsiębiorstwie. Użytkownikom umożliwia to uzyskanie pełnej widoczności sieci i zdolności do scentralizowanego zarządzania, co staje się wyzwaniem w coraz mniej fizycznych infrastrukturach. Dzięki integracji zabezpieczeń i infrastruktury klienci mogą szybciej reagować w przypadkach naruszeń bezpieczeństwa. Jeśli zostaną wdrożone odpowiednie mechanizmy automatyzacji, niektóre działania czy zmiany mogą być wprowadzane bez udziału człowieka. Warto zwrócić uwagę na zabezpieczenia, które można integrować z platformami do wirtualizacji.
Kolejnym „źródłem” przychodów jest regulacja RODO. W związku z jej wprowadzeniem klientom można zaproponować usługi audytu infrastruktury. Celem takiego audytu jest analiza, w jakim stopniu poszczególne elementy firmowego środowiska IT są przygotowane na zmiany prawne, oraz wykrycie potencjalnych słabych ogniw w obszarach takich jak: sieć firmowa, centrum danych czy zarządzanie tożsamością i dostępem. Konsekwencją nieprzestrzegania nowego prawa są m.in. surowe kary finansowe.
Wirtualizacja daje pewne nowe możliwości w zakresie backupu. Ponieważ maszyna wirtualna to plik, można za jednym razem skopiować zarówno dane, jak i konfigurację danej maszyny. Wówczas podstawowy plik maszyny wirtualnej jest blokowany w celu wykonania jego tzw. kopii migawkowej (snapshot), zaś wprowadzane w tym czasie zmiany związane z aktywnością maszyny są rejestrowane i wprowadzane później do pliku.
Mechanizmy tworzenia kopii zapasowych są wbudowane w hypevisor, ale nie skalują się dobrze i w praktyce najczęściej stosuje się dodatkowe narzędzia, które umożliwiają wykorzystanie wszystkich zalet, jakie daje wirtualizacja w zakresie backupu. Przykładowo świetną funkcją jest przywracanie wybranych obiektów (np. pojedynczych plików) z pełnej kopii maszyny wirtualnej.
Dużym wyzwaniem dla klientów okazuje się różnorodność ich środowisk IT – najczęściej jest to połączenie serwerów wirtualnych i fizycznych, które wymagają zabezpieczenia. Istotnym ułatwieniem w takiej sytuacji są rozwiązania, które umożliwiają zarządzanie bezpieczeństwem wszystkich serwerów, bez względu na miejsce, w którym się znajdują (serwery fizyczne, wirtualne, chmura publiczna).
Dynamiczna natura wirtualizacji z punktu widzenia bezpieczeństwa stanowi wyzwanie, jeśli chodzi o przypisywanie reguł do maszyn wirtualnych i ich przestrzeganie. Poza tym maszyny wirtualne mogą być modyfikowane sposobami, jakie w przypadku serwerów fizycznych zdarzają się niezwykle rzadko. Przykładowo można bardzo szybko dokonać zmiany interfejsów sieciowych czy grupowania portów, co może sprawić, że wprowadzony wcześniej podział sieci na strefy przestanie funkcjonować. W środowisku wirtualnym można uzyskać pożądany rodzaj izolacji czy podział na strefy, ale trudność sprawia przyporządkowanie wdrożonych reguł do maszyn wirtualnych. Należy zatem oferować rozwiązania, które ułatwią zarządzanie regułami sieciowymi i będą współpracować z hypervisorami, co da im wgląd w środowisko wirtualne. Myśląc długofalowo, warto wybierać zintegrowane rozwiązania, które lepiej „wiążą” reguły bezpieczeństwa z maszynami wirtualnymi.
Aleksander Jagosz, kierownik Wydziału Rozwiązań IT, Integrated Solutions
Skuteczne zabezpieczenie środowiska wirtualnego wiąże się z szeregiem nowych wyzwań, jak choćby zmierzenie się z dynamiczną naturą wirtualnych serwerów. Zabezpieczenia znane ze świata fizycznego nie zawsze dadzą się zastosować w środowisku wirtualnym. Wiele praktyk bezpieczeństwa powszechnie stosowanych w fizycznych serwerach, np. używanie sprzętowych zapór sieciowych do tworzenia odseparowanych stref w sieci, kompletnie nie sprawdza się w środowiskach wirtualnych.
Ważną kwestią jest też bezpieczeństwo maszyn wirtualnych, które są wyłączone. Są one bowiem narażone na zainfekowanie szkodliwym kodem, a poza tym zdarza się, że są pomijane przez skanery antywirusowe. W efekcie w momencie uruchamiania takich maszyn wewnątrz firmowego środowiska może dojść do aktywacji wirusa, który nie zostanie wykryty przez zabezpieczenia działające na brzegu sieci.
Warto wspomnieć, że wyjątkowo uciążliwą bolączką dla użytkowników infrastruktury wirtualnych desktopów (VDI) są ataki typu ransomware. Najczęściej słyszy się o przypadkach zaszyfrowania dysków w fizycznych stacjach roboczych, ale to samo może się stać również z wirtualnymi pulpitami. Co więcej, w tym drugim przypadku skutki ataku mogą być dużo poważniejsze. Maszyna wirtualna jest bowiem uruchamiana z centrum danych, co oznacza, że aktywacja złośliwego kodu może mieć wpływ na całą infrastrukturę i procesy biznesowe. Jeśli ransomware zaszyfruje wzorcowy obraz (tzw. golden image), z którego korzysta wiele wirtualnych desktopów, każdy z nich będzie zainfekowany. Dlatego zabezpieczanie VDI nie może ograniczać się do zainstalowania programów ochronnych w każdej maszynie wirtualnej. Dodatkowo potrzebne jest rozwiązanie zaprojektowane specjalnie pod kątem zwirtualizowanego środowiska.
Wirtualizacja sprawia, że w jednym serwerze fizycznym powstaje sieć wirtualnych połączeń. Pojawiły się już ataki ukierunkowane na wirtualne sieci, ponieważ często komunikacja niewychodząca poza serwer fizyczny nie jest kontrolowana. Administratorzy sieciowi powinni monitorować i zabezpieczać ruch w wirtualnych sieciach w sposób podobny do tego, jaki ma miejsce w przypadku sieci fizycznych.
Narzędzia do monitoringu umożliwiają wykrycie takich zagrożeń jak botnety czy inne rodzaje ataków. Dlatego konieczna jest instalacja systemu IDS czy innych zabezpieczeń. Według firmy badawczej Research and Markets wirtualizacja to główny czynnik napędzający wzrost sprzedaży właśnie w segmencie rozwiązań do ochrony sieci.
Najwyraźniejszym trendem technologicznym jest dążenie do maksymalnej integracji rozwiązań zabezpieczających różne środowiska, aby uzyskać w nie pełny wgląd i usprawnić zarządzanie. Widać też wzrost liczby ataków na środowiska wirtualne i hybrydowe, ponieważ są one coraz powszechniej wykorzystywane w przedsiębiorstwach. Obszar ten wymaga więc szczególnej uwagi pod kątem wykrywania nowych, zaawansowanych zagrożeń.
Ponadto same zabezpieczenia będą coraz częściej oferowane w postaci wirtualnej bądź chmurowej. Już kilka lat temu analitycy z IDC zauważyli, że firmy zaczynają preferować wdrażanie zabezpieczeń w postaci oprogramowania instalowanego w maszynach wirtualnych (tzw. virtual appliance) zamiast stosowania tradycyjnych rozwiązań sprzętowych i programowych. W tej formie można uruchomić zaporę sieciową, system IPS/IDS czy aplikację antyspamową. Z kolei rozwiązania typu vCPE (virtual Customer Premise Equipment) udostępniają klientom np. funkcje firewalli czy połączeń VPN za pomocą oprogramowania, a nie sprzętu. Technologie tego typu umożliwiają klientom zamawianie na żądanie nowych usług lub dostosowywanie już używanych rozwiązań.
Artykuł Wirtualizacja i chmura też potrzebują zabezpieczeń pochodzi z serwisu CRN.
]]>Artykuł Boom na rozwiązania kontenerowe pochodzi z serwisu CRN.
]]>Rozwiązania kontenerowe działają na pograniczu technologii chmurowych i wirtualizacji. Jest to oprogramowanie umożliwiające uruchamianie i zarzadzanie poszczególnymi aplikacjami w izolowanych, wirtualnych przestrzeniach, czyli właśnie kontenerach. Oferuje je co najmniej 125 firm na świecie. Wśród nich są m.in. Docker, Red Hat, Engine Yard, Amazon, IBM czy Microsoft . Dla większości z nich jest to działalność dodatkowa a nie główny obszar biznesu. Analitycy przewidują jednak, że ilość dostawców systemów kontenerowych będzie w najbliższym czasie rosła. Spodziewany jest bowiem duży wzrost zainteresowania tymi rozwiązaniami i szybkie upowszechnianie się ich zastosowań.
Artykuł Boom na rozwiązania kontenerowe pochodzi z serwisu CRN.
]]>