Artykuł Connect Distribution: bezpieczeństwo jest priorytetem pochodzi z serwisu CRN.
]]>Sławomir Karpiński, CEO Connect Distribution, w wystąpieniu inaugurującym spotkanie wskazał na cztery najważniejsze trendy IT na 2023 rok: bezpieczeństwo, chmurę hybrydową, konteneryzację oraz monitoring wideo.
– Bardzo dokładnie obserwujemy trendy występujące na rynku IT. Największe perspektywy w zakresie rozwoju biznesu daje segment cyberbezpieczeństwa i w tym zakresie zamierzamy rozbudowywać naszą ofertę. Chcemy, aby nasi partnerzy utożsamiali nas przede wszystkim właśnie z tym obszarem działalności – tłumaczy Sławomir Karpiński.
Co istotne, dystrybutor planuje też odchodzić od typowego podejścia produktowego. W praktyce oznacza, że w ofercie Connect Distribution znajdą się sprawdzone, skonfigurowane rozwiązania pochodzące od kilku producentów.
– Niejednokrotnie partnerzy poszukujący konkretnych rozwiązań nie do końca wiedzą jak dobrać poszczególne elementy składowe tak, aby idealnie do siebie pasowały. My ułatwimy im to zadanie, bazując oczywiście na naszej ofercie – dodaje Sławomir Karpiński.
Uczestnicy spotkania mieli okazję bliżej zapoznać się z produktami Cofense oraz HelpSystems. Pierwsza z wymienionych firm oferuje zaawansowane rozwiązanie do ochrony przed wyrafinowanymi atakami phishingowymi, takimi jak wyłudzanie danych uwierzytelniających i ataki na firmową pocztę.
– Wszystkie sieci mają luki i organizacje muszą ten fakt zaakceptować, podobnie jak to, że mejle wysyłane przez oszustów omijają standardowe zabezpieczenia. Co gorsza, wciąż istnieje liczna grupa użytkowników otwierających linki nieznanego pochodzenia – podkreśla Juergen Petzendorfer, Sales Director Cofense.
Wiele firm polega na systemach Secure Email Gateway (SEG), aczkolwiek problem polega na tym, że choć zatrzymują one większość prostych zagrożeń, to nie zawsze radzą sobie z wysublimowanymi atakami. Cofense dysponuje mechanizmem pozwalającym wykrywać te, które są pomijane przez rozwiązania głównych dostawców SEG-ów.
Natomiast HelpSystems zabezpiecza oraz automatyzuje krytyczne procesy IT. Oferta tej firmy skupia się na dwóch obszarach: automatyzacji i cyberbezpieczeństwie. Portfolio producenta składa się z trzech grup produktowych, obejmujących bezpieczeństwo danych, zarządzanie tożsamością i dostępem oraz ochronę infrastruktury. Ian Davies, Strategic Alliances and Partner Manager w HelpSystems, zwrócił uczestnikom spotkania uwagę na fakt, że oferta tego dostawcy rozszerza się dzięki licznym akwizycjom. W latach 2020-2022 producent przejął aż dwanaście firm z branży bezpieczeństwa IT, w tym Alert Logic, Digital Guardian, PhishLabs cz Vera.
Jednym z największych wyzwań, przed jakim staje większość firm, jest zarządzanie danymi. Problem polega nie tylko na ich lawinowym przyroście, ale również na ich rozproszeniu. Niejednokrotnie firmowe dane znajdują się w środowisku lokalnym oraz chmurach publicznych należących do kilku usługodawców.
– Duży nacisk kładziemy na kwestie związane z migracją danych pomiędzy chmurami prywatną i publiczną. Chodzi przede wszystkim o ograniczenie kosztów związanych z archiwizacją zasobów oraz ich bezpieczeństwem. Dlatego coraz ważniejszą rolę w naszej ofercie będą odgrywać rozwiązania takich firm jak DataCore czy Spectra Logic – tłumaczy Sławomir Karpiński.
W czasie konferencji Thorsten Schaefer, Regional Sales Manager DataCore, przedstawił system DataCore Swarm – rozwiązanie do przechowywania i ochrony danych, oferujące dostęp za pośrednictwem S3/HTTP dla dowolnej aplikacji, urządzenia lub użytkownika końcowego.
Connect Distribution duże nadzieje pokłada również we współpracy ze Spectra Logic, zwłaszcza w kontekście oprogramowania Vail centralizującego zarządzanie danymi w architekturze lokalnej i wielochmurowej.
Kontakt dla partnerów: Connect Distribution, tel. 22 400 12 34, 882 101 234, sales@connectdistribution.pl
Artykuł Connect Distribution: bezpieczeństwo jest priorytetem pochodzi z serwisu CRN.
]]>Artykuł HCI prawie jak smartfon pochodzi z serwisu CRN.
]]>Jednak co by nie mówić, systemy hiperkonwergentne co najmniej pod kilkoma względami górują nad tradycyjną infrastrukturą bazującą na macierzach SAN. Wystarczy wymienić czas wdrożenia, elastyczność, łatwość obsługi czy koszty eksploatacji. Warto nadmienić, że poszukiwania rozwiązań, które miałyby zastąpić wiekową architekturę, rozpoczęły się jeszcze przed debiutem systemów hiperkonwergentnych Nutanixa. Notabene pomysły protoplastów nie były zbyt odległe od HCI. Swoje pięć minut na rynku miała infrastruktura konwergentna, czyli serwery, interfejsy sieci SAN, LAN oraz macierze dyskowe dostarczane w zestawie od jednego producenta. Kolejną opcję stanowi architektura referencyjna – przetestowany zestaw współpracujących ze sobą komponentów wywodzących się od różnych vendorów. Jednak oba rozwiązania przegrywają rywalizację z HCI. Jak wynika z danych IDC, przedstawiających rynek rozwiązań konwergentnych w czwartym kwartale 2020 r., udział wartościowy architektury referencyjnej wyniósł 35,6 proc., systemów konwergentnych 10,1 proc., zaś HCI aż 54,3 proc. Czy to oznacza, że konkurencyjne rozwiązania zaczną powoli odchodzić do lamusa? Otóż niekoniecznie. Jak twierdzi Maciej Plona, Senior vArchitect, Hyper-Converged Infrastructure Central & Eastern Europe w Dell Technologies, systemy konwergentne i architektura referencyjna nie straciły na znaczeniu.
– To inny rynek. Wspomniane rozwiązania są przeznaczone do obsługi monolitycznych, klasycznych aplikacji w dużych firmach, gdzie funkcjonuje wiele działów IT zajmujących się poszczególnymi warstwami sprzętu – mówi Maciej Plona.
HCI na brzegu sieci
Jeszcze do niedawna, kiedy pytano decydentów IT o zastosowania HCI, zdecydowana większość wskazywała na organizacje korzystające z dużej liczby wirtualnych desktopów. To się jednak zaczyna zmieniać, bowiem architektura hiperkonwergentna przeciera nowe szlaki i sprawdza się przy budowie chmury hybrydowej, środowisku Kubernetes czy przetwarzaniu na brzegu sieci.
– HCI interesują się przede wszystkim większe organizacje przetwarzające duże zbiory danych i wykorzystujące VDI, choć widzimy, że również firmy średniej wielkości zaczynają rozważać inwestycje w tę technologię. Infrastruktura hiperkonwergentna znajduje najwięcej odbiorców sektorze bankowym, przemysłowym i telekomunikacyjnym – mówi Paweł Bociąga, prezes zarządu Symmetry.
Eksperci zwracają uwagę na fakt, że HCI oraz tzw. edge computing to dwa najszybciej rozwijające się segmenty rynku, z dużym potencjałem na przyszłość. Tego typu rozwiązania mogą z powodzeniem być wykorzystywane przez firmy różnej wielkości, reprezentujące dowolne branże. W badaniu przeprowadzonym przez Evaluator Group aż 70 proc. organizacji zadeklarowało, że używa lub planuje w najbliższym czasie wdrożyć HCI.
Tymczasem według prognoz Research and Markets, rynek edge computing będzie rósł w rocznym tempie 34,1 proc. do 2025 r., kiedy to jego wartość ma przekroczyć 15 mld dol. Z kolei IDC przewiduje, że do 2024 r. liczba aplikacji na brzegu sieci wzrośnie o 800 proc, a do 2023 r. ponad połowa nowej infrastruktury przedsiębiorstw będzie wdrażana na brzegu sieci. Jest niemal pewne, że edge computing odegra niepoślednią rolę w procesie cyfrowej transformacji. Oznacza to wzrost presji wywieranej na zespoły IT, aby wdrażały wydajne i proste w obsłudze systemy, cechujące się dużą energooszczędnością i zajmujące niewielką powierzchnię.
– Czynnikiem determinującym wzrost popytu na HCI będą wszystkie środowiska funkcjonujące jako Internet rzeczy. Zbieranie i przetwarzanie ogromnej ilości informacji oraz konieczność zachowania ciągłości pracy przy ograniczonej dostępności personelu wymusza stosowanie systemów hiperkonwergentnych. Takie cechy jak bezobsługowość czy możliwość ciągłej pracy, którą gwarantują klastry, sprawiają, że są to niemal idealne produkty do obsługi IoT – mówi Jerzy Adamiak, Storage Systems Consultant w Stovarisie.
Zdaniem integratora
W systemy HCI najczęściej inwestują duże firmy, dla których oprócz ceny liczą się też koszty użytkowania. Często są to firmy, które mają oddziały, gdzie ze względu na specyfikę ich funkcjonowania, musi się znaleźć część środowiska zwirtualizowanego. W Polsce sprzedaż tych produktów hamuje brak wiedzy w działach IT na temat tej technologii, a przede wszystkim korzyści, jakie przynosi. Decydenci IT przyzwyczajeni są do klasycznych rozwiązań, ponieważ są one dostępne od lat, w związku z czym znają ich wady i zalety. Natomiast HCI jest dla nich nowością i nie do końca wiedzą jak zarządzać taką infrastrukturą i czego można się po niej spodziewać.
Jeszcze kilka lat temu mniejsze firmy nie były praktycznie w ogóle zainteresowane rozwiązaniami HCI. Z kolei duże organizacje preferowały podejście tradycyjne w kontekście rozbudowy czy modernizacji środowiska IT, dobierając poszczególne komponenty serwerowe, sieciowe czy pamięci masowych. Obecnie technologia ta zyskała na popularności i cieszy się nieco większym zainteresowaniem wśród klientów, szczególnie średniej wielkości. Uważam, że pandemia w pewnym sensie spowodowała wzrost zainteresowania hiperkonwergencją z uwagi na zapotrzebowanie na VDI oraz zapewnienie ciągłości działania. Nastąpił wzrost popytu na systemy do pracy zdalnej, a rozwiązania HCI stanowią podstawę VDI.
Integratorzy wolą klasyczną infrastrukturę
Globalne zestawienia sprzedaży HCI wyglądają bardzo przyzwoicie. Ale obok takich krajów jak Stany Zjednoczone, Niemcy czy Francja, gdzie organizacje zgłaszają duże zapotrzebowanie na tego typu sprzęt, są też państwa, gdzie nadal przeważnie stawia się na tradycyjną infrastrukturę. Do tej drugiej grupy należy Polska, a ślamazarne tempo adaptacji HCI w naszym kraju należy tłumaczyć między innymi postawą integratorów preferujących infrastrukturę DIY. Dzieje się tak zazwyczaj z dwóch powodów: ceny oraz wartości dodanej, jaką niesie ze sobą sprzedaż klasycznych rozwiązań. Systemy HCI są rzeczywiście droższe od DIY, ale po obliczeniu TCO okazuje się, że może to być bardziej opłacalna inwestycja niż zakup macierzy SAN, przełączników i serwerów. Niemniej integratorzy oferujący systemy DIY mają większe możliwości w zakresie wypracowania przychodów ze sprzedaży usług dodatkowych, o co dużo trudniej w przypadku uruchamiania infrastruktury hiperkonwergentnej.
– Systemy HCI nie stanowią standardowej pozycji w ofercie integratorów. Jednak niektórzy sprzedają i wdrażają te platformy wraz pakietem usług towarzyszących. Co nie zmienia faktu, że podejście DIY nadal dominuje, ponieważ zapewnia większą autonomię w obszarze projektowania infrastruktury, a także lepiej uwzględnia możliwości budżetowe klienta – dodaje Paweł Bociąga.
Osobną kwestią pozostaje przyzwyczajenie do sprzedaży tradycyjnych produktów, takich jak macierze SAN bądź serwery. Dlatego integratorzy w pierwszej kolejności oferują klasyczne rozwiązania bazujące na serwerach, popularnych macierzach SAN oraz platformie wirtualizacyjnej VMware’a lub Microsoftu. Często też sami klienci preferują znane i sprawdzone produkty.
– Taki stan rzecz sprawia, że większość integratorów nie będzie forsować nowatorskich systemów, jak HCI, mając świadomość, że klient może zwrócić się do konkurencji – zauważa Tomasz Spyra, CEO Rafcomu.
Trudna sztuka przekonywania klientów
Za słabą sprzedaż systemów HCI w Polsce nie można jednak „winić” wyłącznie integratorów. Również klienci końcowi nie wykazują nadmiernego zainteresowania architekturą hiperkonwergentną. Wprawdzie osoby odpowiedzialne za zakupy sprzętu IT znają podstawy tej technologii, ale jak to zwykle bywa diabeł tkwi w szczegółach. Sławomir Karpiński, prezes Connect Distribution, przyznaje, że sam termin HCI nie jest obcy klientom, aczkolwiek różnego rodzaju niuanse, w tym na przykład występowanie różnych odmian i wersji, zazwyczaj są im nieznane. Potrzebna jest zatem ciągła edukacja, która w przypadku tej grupy produktów nie jest łatwa. Przekonanie klienta do innowacyjnych rozwiązań zajmuje dużo czasu i wymaga od handlowca sporej porcji wiedzy.
– Klienci często czują dyskomfort, kiedy trzeba zrezygnować z macierzy dyskowych, ponieważ wówczas nie wiadomo, gdzie znajdują się zasoby cyfrowe. W zamian otrzymują grupę serwerów zarządzanych przez oprogramowanie, które samo decyduje o rozłożenie poszczególnych danych pomiędzy poszczególnymi węzłami – dodaje Sławomir Karpiński.
Tym, co może sprzyjać sprzedaży HCI w Polsce, jest niechęć wielu przedsiębiorców do chmury publicznej. Infrastruktura hiperkonwergentna może być alternatywą dla Azure’a czy AWS-u, ze względu na to, że jest łatwa w zarządzaniu, a także pomaga obniżyć koszty funkcjonowania lokalnych centrów danych. Warto dodać, że HCI łatwo integruje się ze środowiskiem chmury publicznej, dzięki czemu pozwala na tworzenie rozwiązań hybrydowych. Do wzrostu popytu na infrastrukturę hiperkonwergentną przyczynią się też trendy związane z przetwarzaniem na brzegu sieci, choć na to w Polsce, trzeba będzie jeszcze trochę poczekać. Niemniej należy się spodziewać, że HCI, prędzej czy później, zadomowi się także na naszym lokalnym rynku.
– Kiedyś mieliśmy osobne urządzenia: telefon, aparat, notatnik, gazetę, walkmana, książkę. Dziś natomiast to wszystko znajduje się w jednym smartfonie. Podobnie jest z HCI. W trakcie pandemii klienci zaczęli liczyć i wyceniać swój czas, a także to, jak ich działania przekładają się na rozwój czy chociażby usprawnienie funkcjonowania firmy. To wszystko sprzyja rozwojowi segmentu HCI – podsumowuje Maciej Plona.
Zdaniem specjalisty
Zainteresowanie systemami hiperkonwergentnymi cały czas wzrasta, choć jak do tej pory stosunkowo niewielka grupa firm zdecydowała się na wdrożenie. Wydaje mi się, że klienci rozumieją technologiczne aspekty HCI, jednakże z handlowego punktu widzenia najtrudniejsze jest wskazanie korzyści biznesowych, jakie niosą ze sobą te rozwiązania. Architektura hiperkonwergentna sprawdza się praktycznie w każdej grupie klientów, gdyż odpowiada na potrzeby w zasadzie każdej organizacji, jak: ograniczanie kosztów związanych z obsługą, serwisowanie infrastruktury, usprawnianie działania całego IT oraz przewidywalne i bezpieczne rozbudowy.
Decyzję o wyborze technologii HCI podejmują klienci, którzy po doświadczeniach z rozwiązaniami tradycyjnymi zauważają ich istotne ograniczenia. Są to przede wszystkim klienci, dla których konieczne jest uzyskanie wysokiej dostępności systemów, a realizacja takiej konfiguracji w sposób tradycyjny, oparty na synchronizacji macierzowej, jest dla nich zbyt kosztowna. Kolejnym typowym argumentem wyboru technologii HCI, szczególnie w przypadku tych bardziej świadomych klientów, jest dążenie do jak największej optymalizacji centrum danych. Najbardziej typowym scenariuszem, jaki obserwujemy u klientów decydujących się na rozwiązania HCI, jest migracja z konfiguracji złożonych z kilku lub kilkunastu serwerów podłączonych do jednej macierzy SAN lub wdrażanie zupełnie nowego systemu. Tak czy inaczej, przekonanie klienta do innowacyjnych rozwiązań zajmuje dużo czasu i wymaga od handlowca sporej wiedzy.
Artykuł HCI prawie jak smartfon pochodzi z serwisu CRN.
]]>Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>Wraz z Software Defined pojawiły się też obawy ze strony administratorów IT u klientów, związane z tym, że automatyzacja może ograniczać zapotrzebowanie na informatyków w firmach. Te zarzuty są przez integratorów odpierane.
– Dzisiaj na rynku brakuje inżynierów, a będzie brakować ich jeszcze bardziej. Automatyzacja nie odwróci tego trendu, a informatycy powinni zaznajamiać się z nowymi narzędziami bez względu, czy będzie to SDN, czy inne rozwiązanie – twierdzi Marcel Guzenda, Business Solutions Architect w Sevenecie.
Dziś wciąż trudno mówić o przełomie. O ile jednak SDN (Software Defined Networking), a także SDS (Software Defined Storage) czy całościowa koncepcja SDDC (Software Defined Data Center) nie zyskały jeszcze powszechnego uznania w przedsiębiorstwach, o tyle nowe technologie przyczyniły się do zmiany ukierunkowania branży IT – ze sprzętu na oprogramowanie. Warto dodać, że dwa lata temu Gartner radził, by przedsiębiorstwa koncentrowały się nie na wyborze i zakupie konkretnych rozwiązań SDN, ale na celach do osiągnięcia takich jak: zwiększona automatyzacja, większa elastyczność, niższe koszty i mniejsze uzależnienie od jednego dostawcy. I właśnie to integratorzy, którzy chcą oferować omawiane technologie, powinni mieć na uwadze.
Koncepcja SDN zapowiadała początek nowej ery w rozwoju sieci, z programowym, scentralizowanym kontrolerem oddzielonym od warstwy sprzętowej, protokołem sterowania OpenFlow, interfejsami API i niedrogimi urządzeniami sieciowymi. Rzeczywistość okazała się jednak bardziej skomplikowana, i to w momencie, gdy do akcji wkroczyli rynkowi potentaci branży IT.
Obecnie liderami rynku, walczącymi o pierwsze miejsce w sprzedaży SDN, są Cisco i VMware. Liczy się także Arista oraz dostawcy rozwiązań typu white box, a pierwszą piątkę zamyka Huawei.
SDN w wydaniu Cisco to oferta „sieci intuicyjnych” (Intent-Based Networking) z programową platformą Cisco DNA i narzędziem do centralnego zarządzania Cisco DNA Center. Jak twierdzi producent, dzięki tej platformie każde urządzenie sieciowe – przewodowe, bezprzewodowe lub szerokopasmowe – staje się częścią ujednoliconej architektury sieciowej (unified fabric), a działy IT w przedsiębiorstwach mogą łatwiej, bardziej ekonomicznie i skutecznie kontrolować infrastrukturę sieciową. Cisco zwraca uwagę na otwartość DNA Center, co ma ułatwiać klientom i partnerom firmy rozwijanie ekosystemu aplikacji.
Jak tłumaczy Marcel Guzenda z Sevenetu, jednego z parterów Cisco, zapotrzebowanie na programowalną infrastrukturę pojawiło się najpierw w centrach danych, co wynikało z konieczności automatyzacji, orkiestracji i szybszego tworzenia środowisk dla aplikacji, ale obecnie można mówić o Software Defined Everything. Wcześniej konfigurowanie serwerów, pamięci masowych, sieci i wirtualizacji to był długi proces. Obecnie trzeba wprowadzać zmiany z dnia na dzień, jeśli zażyczy sobie tego klient biznesowy.
– Wyobraźmy sobie, że w sieci dużej korporacji czy banku trzeba dodać 100 nowych przełączników. Jeśli są one podłączane do SDN, to w systemie nadajemy im role, a wówczas automatycznie spłyną do nich konfiguracje, polityki i wszystko to, co wcześniej zdefiniowaliśmy. Co ważne, dochodzi do zniwelowania różnic pomiędzy połączeniami kablowymi a bezprzewodowymi – przede wszystkim na poziomie zabezpieczeń – mówi Marcel Guzenda.
Klienci uzyskują dostęp do możliwości oprogramowania Cisco DNA w ramach subskrypcji, gdy kupią sprzęt tego producenta z nowej serii przełączników Catalyst 9000. Takie podejście do SDN, jedynie na własnej platformie sprzętowej, jest przedmiotem krytyki ze strony rywali Cisco. Przede wszystkim VMware’a, który podkreśla, że jego oprogramowanie do wirtualizacji i programowania sieci – NSX – można uruchamiać na dowolnym sprzęcie.
– Istotą działania sieci w modelu Software Defined jest wykorzystywane oprogramowanie, więc technologia ta jest niezależna od sprzętu. Jeśli mamy definiowaną programowo sieć, związaną z układami ASIC, to znacznie trudniej ją wdrożyć i zoperacjonalizować. Okazuje się też znacznie droższa, ponieważ trzeba kupić odpowiednie przełączniki – mówi w wywiadzie dla amerykańskiego CRN-a Tom Gillis, wiceprezes i szef działu Networking and Security w VMware.
Wdrażający SDN amerykańscy partnerzy Cisco zwracają jednak uwagę na duży zwrot z inwestycji, jaki uzyskują klienci, którzy dotąd sporo zainwestowali w opartą na układach ASIC architekturę sieciową Cisco. Do tego dochodzą tysiące wysoko wykwalifikowanych architektów sieciowych, zarówno w kanale sprzedaży, jak i po stronie klientów, mogących być ekspertami we wprowadzaniu bezpiecznej automatyzacji sieci. Bez porównania więcej integratorów dysponuje certyfikowanymi i przeszkolonymi inżynierami Cisco. Tych, którzy mają specjalistów od NSX-a, jest bardzo mało.
Cisco Intent-Based Networking
Cisco dużo inwestuje we własną platformę sieci intuicyjnej, która ma przewidywać zdarzenia, blokować zagrożenia bezpieczeństwa oraz stale się rozwijać i uczyć. Wraz z nią wprowadza do podstawowego portfolio sieciowego model oparty na subskrypcji i tworzy bardziej otwartą, programowo definiowaną architekturę. Producent udostępnia DNA Center – platformę kontroli i zarządzania dla sieci intuicyjnej, która umożliwia partnerom opracowywanie niestandardowych aplikacji i oferowanie klientom większego wyboru rozwiązań SDN. Firmy uzyskują dostęp do możliwości oprogramowania DNA w ramach subskrypcji, gdy kupią sprzęt z nowej serii przełączników Catalyst 9000.
VMware NSX Cloud
Nowa platforma NSX Cloud to część nowej strategii VMware’a. Rozwiązanie zapewnia spójne środowisko sieciowe i bezpieczeństwo aplikacjom działającym zarówno w prywatnych, bazujących na sprzęcie VMware centrach danych, jak i natywnie w chmurach publicznych (oferując funkcjonalności dla Microsoft Azure i AWS). Zadaniem NSX Cloud jest rozwiązanie problemów, które wynikają z wykorzystywania wielu chmur publicznych, takich jak niespójne reguły polityki, konieczność ręcznego ich tworzenia dla każdej chmury z osobna i używania specyficznych narzędzi w różnych chmurach publicznych.
Dell EMC Open Networking
Inicjatywę Open Networking producent rozpoczął w 2014 r. Ma ona być sposobem na propagowanie idei oddzielenia sieciowego sprzętu przełączającego od oprogramowania. Dell EMC stworzył Open Network Install Environment wraz z firmą Cumulus Networks, a następnie nawiązał współpracę z większą liczbą partnerów dostarczających sieciowy system operacyjny, w tym Big Switch Networks, IP Infusion i Pluribus Networks. Nie tak dawno udostępnił też własny system (OS10), który dezagreguje oprogramowanie sieciowe, oferując większy wybór sposobów jego wykorzystania. W obszarze SDN firma współpracuje także z Microsoftem.
DataCore SANsymphony
DataCore to producent, który nigdy nie posiadał własnej platformy sprzętowej i z ofertą SANsymphony jest jednym z pionierów w branży programowo definiowanej pamięci masowej. Rozwiązanie zapewnia typowy zestaw usług klasy enterprise świadczonych przez pamięć masową, która może się składać z wielu urządzeń rozproszonych w różnych lokalizacjach. SANsymphony umożliwia łączenie ich pojemności (wirtualizację) i zarządzanie nimi w sposób centralny i jednolity. Zapewnia także wysoką dostępność, asynchroniczną replikację przy odtwarzaniu po awarii oraz ciągłą ochronę danych.
NetApp Ontap Select
Rozwiązanie jest programowo definiowaną wersją platformy NetApp Ontap. Ontap Select można wdrażać na standardowym sprzęcie, przekształcając posiadane zasoby pamięciowe serwerów w platformę o funkcjonalności podobnej do tej, jaką zapewniają specjalistyczne macierze NetApp Ontap. Integruje się ona z oprogramowaniem do zarządzania w chmurze, takim jak OpenStack i VMware vSphere, i może być przeznaczona do wielu zastosowań – od rozwoju oprogramowania i testowania aplikacji po budowę centrum danych bazującego na pojedynczym serwerze.
VMware vSAN
VMware vSAN udostępnia programowo definiowaną technologię pamięci masowej przeznaczoną dla zwirtualizowanych i chmurowych środowisk VMware. Tworzy w nich pojedynczą pulę pamięci współużytkowaną przez wszystkie hosty w klastrze vSAN. Chociaż vSAN może być zakupiony jako samodzielne rozwiązanie, zwykle jest sprzedawany przez dostawców OEM w ramach gotowych sprzętowych platform Ready Nodes, jako komponent odpowiadający za pamięć masową w infrastrukturze hiperkonwergentnej Dell EMC VxRail lub jako część platformy programowo definiowanego centrum danych VMware.
Za to, co proponują zarówno Cisco, jak i VMware, trzeba sporo zapłacić. Obietnicą tanich sieci SDN kuszą producenci rozwiązań typu white box – przełączników bazujących na standardowych platformach sprzętowych, na których można wdrażać systemy operacyjne od niezależnych dostawców. I jak wykazują badania analityków rynkowych, taka oferta znajduje nabywców. Jednak dla klientów chcących wykorzystać w firmowych środowiskach produkcyjnych SDN jeszcze ważniejszą kwestię od samego rozwiązania stanowi wsparcie techniczne, o które w przypadku white box może być trudno.
Marcel Guzenda podkreśla, że w środowisku enterprise nie ma miejsca na eksperymenty. W przypadku wdrożenia SDN, gdy jest to np. platforma Cisco, producent bierze odpowiedzialność za ewentualne problemy i pomaga w ich rozwiązaniu.
– Gdy natomiast poszczególne elementy składamy z rozwiązań różnych dostawców, zaczyna się przerzucanie odpowiedzialności, mogą być kłopoty na przykład z walidacją – zauważa przedstawiciel integratora.
Połączyć z jednej strony ekonomiczność rozwiązania, z drugiej kwestie wsparcia, a z trzeciej możliwość instalowania jednego systemu operacyjnego dla SDN, wybranego spośród wielu różnych – próbuje Dell EMC. Tom Burns, wiceprezes i szef działu Networking and Solutions w tej firmie, zwraca uwagę, że tradycyjnie wdrażana sieć wymaga firmowych architektur, narzędzi do zarządzania, systemów operacyjnych i specjalizowanych układów scalonych (ASIC). W przypadku oferty Open Networking wykorzystuje się natomiast standardową architekturę i narzędzia do orkiestracji, opcjonalne kontrolery SDN/NVO, dowolny sieciowy system operacyjny oraz zgodny z otwartymi standardami sprzęt.
Przy takim podejściu SDN zapewnia wybór platform programowych, co ma umożliwiać wdrożenia bardziej zgodne z konkretnymi potrzebami. Jeden system może być najbardziej odpowiedni dla centrum danych, inny dla sieci kampusowych, a jeszcze inny ułatwi osiągnięcie największej wydajności sieci.
Według Arkadiusza Możdżenia, CTO i członka zarządu ds. rozwoju w S4E, oferta Dell EMC zyskuje uznanie mniejszych operatorów, którzy chcą otrzymać z jednej strony tanie rozwiązanie, z drugiej – wydajne. Zależy im na tym, by koszty utrzymania sieci w kolejnych latach były jak najniższe. Kupują więc sprzęt ze wsparciem i dokładają do tego wybrany sieciowy system operacyjny, którym potem zajmują się sami. Dlatego uwolnienie sprzętu od oprogramowania wymaga od klientów (albo integratorów, którzy będą chcieli świadczyć usługi zarządzania siecią) większych kwalifikacji.
– Klienci decydujący się na takie rozwiązanie mają swoich inżynierów, którzy potrafią później dostrajać tworzone w modelu SDN środowisko sieciowe. Tak jest w przypadku mniejszych ISP, kupujących dużo sprzętu i chcących robić to jak najtaniej – mówi CTO S4E.
Maciej Kałużyński, prezes zarządu One System
Obecnie największe zainteresowanie naszą ofertą programowo definiowanego centrum danych i sieci wykazują międzynarodowe korporacje, w których decyzje o wyborze rozwiązania podejmowane są przez zagraniczne działy IT. Wśród małych i średnich firm widać zainteresowanie tematem, ale na razie nie przekłada się ono na liczbę finalnych transakcji. Rozwiązania Software Defined, które nie wymagają zakupu zaawansowanego sprzętu i mogą być instalowane na łatwo dostępnych komponentach – zarówno znanych producentów, jak i tańszych dostawców – z założenia powinny być atrakcyjniejsze cenowo od rozwiązań tradycyjnych. Tymczasem w praktyce wielokrotnie przekonaliśmy się, że koszty licencji na przykład na Software Defined Storage przekraczają koszty zakupu klasycznej macierzy dyskowej. Właśnie w tym upatrujemy przyczyny wciąż niewielkiego zainteresowania tą technologią wśród małych i średnich przedsiębiorstw. Rozwiązania Software Defined to niewątpliwie bardzo interesujący kierunek, któremu wnikliwie się przyglądamy, ale obecnie traktujemy go raczej w kategoriach alternatywy dla tradycyjnej oferty niż jako pierwszy rekomendowany wybór.
Marcel Guzenda, Business Solutions Architect, Sevenet
Jest zainteresowanie SDN wśród klientów i mamy już za sobą pierwszą implementację w branży finansowej. Prowadzimy też sporo projektów na poziomie PoC, które mogą się zmienić we wdrożenia. Są dzisiaj trzy drogi do nowej technologii. Po pierwsze, jeśli kończy się cykl życia posiadanej infrastruktury, to zastąpią ją urządzenia sieciowe nowej generacji, które umożliwią budowanie środowiska w inny sposób. Wiele firm, wymieniając infrastrukturę, decyduje się na razie uruchomić ją w sposób tradycyjny, ale w przyszłości może zrobić to po nowemu. Drugie podejście to uruchomienie już dziś części funkcjonalności Software Defined – na przykład siecią zarządza kontroler, ale funkcje bezpieczeństwa są realizowane w sposób tradycyjny. Wreszcie trzeci wariant, dotyczący zupełnie nowych projektów, a nie migracji – to stuprocentowe wejście w SDN.
Kompetencje są istotne także z tego powodu, że SDN pod wieloma względami różni się od podejścia tradycyjnego. Mamy w tym przypadku do czynienia z nowymi protokołami oraz innymi spojrzeniami na architekturę sieci. Potrzeba wiedzy na poziomie inżynierskim, ale też umiejętności wytłumaczenia klientowi nowych rzeczy i pokazania z jednej strony korzyści na poziomie biznesowym, a z drugiej ograniczeń. Jeśli chodzi o wdrożenie, to dużo łatwej jest w przypadku projektu tworzonego od zera (green field).
– Wyzwaniem pozostaje migracja posiadanej sieci z dotychczasowymi regułami polityki, listami dostępu itp. – wszystko trzeba ustawiać na nowo. Ale później, gdy mamy już za sobą wdrożenie, w codziennej administracji zyskujemy dużą oszczędność pracy i czasu – wyjaśnia Marcel Guzenda.
Macierz dyskowa to w sumie mniej lub bardziej standardowy serwer ze zintegrowanym systemem operacyjnym, skonfigurowanym specjalnie do świadczenia usług przechowywania i udostępniania danych. Obecnie można zrezygnować z takiej specjalizowanej platformy sprzętowej i zdać się na oprogramowanie, które w formie programowo definiowanej pamięci masowej (SDS – Software-Defined Storage) będzie można uruchomić na powszechnie dostępnych i kompatybilnych z nim serwerach. W rezultacie uzyskuje się funkcjonalność podobną do tej, jaką zapewnia specjalistyczna platforma sprzętowa. Po stronie plusów należy wymienić większą elastyczność i niższą cenę (choć nie jest to takie pewne), natomiast po stronie wad – konieczność integracji i potencjalnie gorszą optymalizację sprzętową.
Jak zauważa Sławomir Karpiński, prezes Connect Distribution, rozwiązanie wcale nie jest nowe. Zaczęło po prostu funkcjonować pod inną nazwą. Przykładowo oferowane przez warszawskiego dystrybutora oprogramowanie DataCore znajduje się na rynku od 15 lat. Wcześniej było sprzedawane jako wirtualizator pamięci masowej, a dopiero od kilku lat, gdy specjaliści od marketingu spopularyzowali pojęcie Software Defined Storage, Storage, oferowane jest w tej kategorii.
– Bez względu na terminologię chodzi o oprogramowanie, którego zadaniem jest przedefiniowanie zwykłego serwera z dyskami w celu uzyskania elastycznego, konfigurowalnego, wysokofunkcjonalnego urządzenia pamięci masowej – wyjaśnia Sławomir Karpiński.
Czy rzeczywiście SDS to rozwiązanie przyszłościowe, elastyczne i tańsze? W teorii tak być powinno. Przyszłościowe dlatego, że według założeń za wydajność i skalowalność rozwiązania odpowiada oprogramowanie, które decyduje o jego parametrach. Można w nim błyskawicznie wprowadzać nowe algorytmy i technologie, takie jak modne dziś uczenie maszynowe oraz elementy sztucznej inteligencji.
Powinno być także tańsze (choć z tym obecnie bywa różnie), bo platforma sprzętowa, która ma znacznie większe bariery rozwoju – z uwagi na fizyczne i technologiczne ograniczenia – jest w przypadku SDS mniej istotna. Oprogramowanie zwykle wymaga, aby były spełnione pewne warunki dotyczące architektury, natomiast kwestia tego, kto jest producentem danego komponentu, schodzi na dalszy plan.
– A jeżeli dopuszczamy sprzęt różnych producentów, to zwiększa się konkurencja. Co za tym idzie spadają ceny komponentów, a w konsekwencji całego rozwiązania – podkreśla Sławomir Karpiński.
Tradycyjne rozwiązania z zakresu pamięci masowej mają architekturę, której geneza sięga lat 70. Od tego czasu zwiększyła się pojemność i szybkość dysków, pojawiły się dyski flash, przyspieszyły procesory, ale w większości macierzy stosuje się wciąż tę samą architekturę bazującą na dwóch kontrolerach, pamięci cache oraz wykorzystujących strukturę RAID zabezpieczeniach przed utratą danych wskutek awarii. Dodatkowo macierze różnych producentów niechętnie się ze sobą komunikują, tworząc system silosowy, który z natury rzeczy jest drogi w zakupie, nie wspominając o braku elastyczności. Dlatego w porównaniu z tradycyjnym podejściem SDS daje nadzieję na niższe koszty, większą elastyczność, skalowalność, a przed wszystkim otwartość na przyszłe innowacje.
Sławomir Karpiński, prezes zarządu Connect Distribution
Klienci i integratorzy zainteresowani nowatorskimi rozwiązaniami, do jakich zalicza się SDS, są w zdecydowanej mniejszości. Mam jednak wrażenie, że w obu grupach jest coraz większa otwartość na takie tematy. Standardem wciąż pozostaje podejście oportunistyczne, w którym preferuje się zakup tradycyjnej macierzy jako bezpiecznej, obarczonej mniejszym ryzykiem od rozwiązań innowacyjnych, ale mniej popularnych. Wynika to też z polityki marketingowej wiodących dostawców, którzy chcą promować swoje tradycyjne produkty tak długo, jak rynek będzie w stanie je zaakceptować. Zwłaszcza gdy dany dostawca nie ma w swojej ofercie SDS albo rozwiązania tradycyjne generują wyższą marżę.
Arkadiusz Możdżeń, CTO i członek zarządu ds. rozwoju S4E
Firmy interesują się programowalnymi sieciami, kiedy na przykład chcą ograniczyć koszty połączeń, które wcześniej wykorzystywały MPLS. Dzięki programowalności SD-WAN jesteśmy w stanie zapewnić podobne parametry komunikacji (niezawodność, opóźnienia itp.) przy wykorzystaniu internetu. I to się udaje. Z kolei w przypadku SDS atrakcyjna dla użytkowników końcowych jest możliwość stworzenia takiego środowiska pamięci masowej, w którym da się podłączać platformy sprzętowe od różnych producentów i wszystkim centralnie zarządzać. Nie można jednak mówić jeszcze o wyraźnym dążeniu partnerów i ich klientów do wdrażania rozwiązań, które działają w zupełnie nowy sposób. Jeśli tradycyjny model działa, sporo się w niego do tej pory zainwestowało (chociażby w certyfikaty) i wszyscy na nim zarabiają, to nikt szczególnie nie pali się do zmiany.
Artykuł Czy oprogramowanie zdobędzie centrum danych? pochodzi z serwisu CRN.
]]>Artykuł Dane zawsze pod ręką pochodzi z serwisu CRN.
]]>Warto jednak zauważyć, że bieżący rok przyniósł poprawę sytuacji, choć trudno popadać w hurraoptymizm. Według Risk Based Security od stycznia do końca czerwca na świecie odnotowano 2308 wycieków informacji, w wyniku których wyparowało 2,6 mld rekordów. Bardzo dużo, ale jednak o 3,4 mld mniej niż w pierwszym półroczu 2017 r. Czyżby firmy zaczynały doceniać wartość informacji? Krzysztof Rybiński, wykładowca akademicki i Chief Ideator w Synerise, przyznaje, że dzisiaj dostęp do danych jest tak samo ważny dla sukcesu firm jak finansowanie. Nie bez przyczyny coraz częściej w branży nowych technologii dyskutuje się o systemach wysokiej dostępności (high availability).
Najbardziej precyzyjni w określaniu dostępności danych są providerzy data center. Przykładowo współczynnik niezawodności 99,999 proc. oznacza, że system może mieć 5-minutową przerwę w ciągu całego roku. Natomiast w materiałach reklamowych pojęcie wysokiej dostępności jest nadużywane. Dlatego zawsze warto sprawdzić w specyfikacji technicznej, jak producent je definiuje.
Szum marketingowy sprawia, że część klientów bezgranicznie ufa systemom wysokiej dostępności. Zastosowanie tej klasy produktów ogranicza do minimum ryzyko wystąpienia przestojów związanych z awarią sprzętu, oprogramowania lub spowodowanych błędami ludzkimi. Nie zdają jednak egzaminu w przypadkach, kiedy trzeba zmierzyć się z żywiołami natury. Niestety, szefowie przedsiębiorstw wychodzą z założenia, że skoro wydali mnóstwo pieniędzy na system, nie muszą poświęcać czasu i środków na opracowanie planu odzyskiwania danych po awarii. Tymczasem posiadając system wysokiej dostępności, nadal można stracić dane klienta.
Analitycy Storage Switzerland szacują, że 30–40 proc. firmowych danych jest przechowywanych na urządzeniach końcowych. Nie są w żaden sposób archiwizowane ani kontrolowane przez działy IT. W najbliższych latach specjaliści od ochrony danych muszą obniżyć ten niechlubny wskaźnik. Niestety, wielu przedsiębiorców wciąż przekłada na później zarówno opracowanie nowej strategii ochrony danych, jak i zakup związanych z tym innowacyjnych rozwiązań. Jednak o ile klienci nie są należycie przygotowani na radykalne zmiany, o tyle producenci starają się iść z duchem czasu.
– Dostawcy rozwiązań do backupu muszą zapewnić kontrolę nad danymi rozproszonymi w różnych systemach i środowiskach. Niemal każde nowe rozwiązanie do backupu umożliwia zastosowanie konsoli bądź media agenta w środowisku wirtualnym lub chmurze. Największą trudnością jest zaś zachowanie kompatybilności nowych produktów z archaicznymi wersjami systemów – ocenia Krzysztof Szablowski, S4Engineers Team Leader.
Działy IT muszą dbać nie tylko o ochronę danych znajdujących się na fizycznych czy wirtualnych maszynach w firmowej serwerowni, ale również informacji przechowywanych na dysku laptopa i dokumentacji fotograficznej w pamięci smartfona. W strategii ich bezpieczeństwa należy przywiązywać dużą wagę do stacji roboczych oraz notebooków, bowiem znajdują się na nich pliki ważne dla prowadzenia biznesu i spełniania wymogów RODO. Problem polega na tym, że przenośne urządzenia nie zawsze są podłączone do korporacyjnej sieci, a tym samym wymykają się kontroli działów IT. Bardzo często osoby pracujące zdalnie zyskują zbyt dużą swobodę w zakresie doboru aplikacji, co niekorzystnie wpływa na bezpieczeństwo firmowych danych.
Tymczasem zmasowane ataki skierowane przeciwko użytkownikom komputerów nabierają na sile. Cyberprzestępcy w ubiegłym roku wytoczyli ciężkie działa w postaci ransomware’u. Petya i WannaCry siały prawdziwe spustoszenie w sieci. Przy czym zagrożenie nie mija: Cybersecurity Ventures prognozuje, że firmy i instytucje zapłacą w 2018 r. okupy o łącznej wartości 8 mld dol. Co ciekawe, część ataków ransomware zaczyna się od wyszukania i zaszyfrowania kopii zapasowych. Dostawcy oprogramowania do backupu stacji roboczych i notebooków nie składają broni, cały czas wzbogacając funkcje produktów.
– Zmiany podążają w kierunku lepszej ochrony przed atakami hakerów. Jednym ze sposobów jest bezpieczna wymiana plików między pracownikami, bez wykorzystywania zewnętrznych serwisów. Nie mniej ważne jest zapewnienie sprawnego przeszukiwania zgromadzonych danych i określenia ich zgodności z przepisami RODO. W systemach ochrony danych pojawiają się też zaawansowana analityka i funkcje zbliżone do Data Loss Protection – mówi Przemysław Mazurkiewicz, EMEA East System Engineering Director w firmie Commvault.
Tomasz Spyra, prezes Rafcom
Systemy backupu ewoluują w kierunku rozwiązań sprzętowych. O nie też najczęściej pytają klienci. Najbardziej istotne zmiany, jakie pojawiły się w tej grupie produktów, obejmują mechanizmy backupu zmienionych bloków dyskowych połączone z całościową deduplikacją. Znacząco skracają czas tworzenia kopii zapasowych oraz zapewniają ochronę zasobów znajdujących się poza siedzibą firmy.
Sławomir Marcisz, architekt IT, Netology
Rozwiązania do backupu rozwijają się w kierunku coraz szerszego wsparcia procesu zarządzania danymi przez ich zabezpieczenie od chwili powstania przez archiwizację nieużywanych zasobów aż po usuwanie zbędnych plików. W przypadku stacji roboczych dostępne są narzędzia zabezpieczające przed nieuprawnionym dostępem w przypadku zagubienia sprzętu, np. funkcje szyfrowania czy zdalnego usuwania danych.
Producenci starają się zapewnić skuteczną ochronę zasobów znajdujących się w różnych środowiskach: fizycznych, wirtualnych i chmurowych. W ostatnim czasie rosnącą popularnością cieszą się usługi backupu w chmurze. Według firmy badawczej Market Research Future w 2023 r. globalna wartość tego segmentu rynku wyniesie 5,66 mld dol., a roczne tempo wzrostu w latach 2017–2023 sięgnie 21 proc. Optymistyczne prognozy wynikają z faktu, że bezpośrednie tworzenie kopii zapasowych do repozytorium znajdującego się w chmurze publicznej eliminuje kłopoty związane ze skalowalnością i ogranicza wydatki na infrastrukturę.
W najbliższych latach wzrośnie zapotrzebowanie na zaawansowane rozwiązania jednocześnie wykonujące niezliczoną liczbę zadań związanych z tworzeniem kopii zapasowych i zapewniające powierzchnię dyskową do ich przechowywania. Poza tym duże i średnie przedsiębiorstwa muszą zapanować nad tysiącami punktów końcowych. Niegdyś pracownik korzystał wyłącznie z komputera PC, obecnie także ze smartfona i tabletu. Nowe wyzwania często przekraczają możliwości klasycznej architektury, w której kluczową rolę spełniał przeznaczony do backupu serwer, odbierający dane z punktów końcowych. Chmura publiczna zaczyna więc być postrzegana przez ekspertów jak idealne środowisko do tworzenia kopii zapasowych.
Dostawcy oprogramowania do backupu bardzo szybko dostrzegli potencjał środowiska chmurowego. Ich produkty są dostosowane do nowych reguł i spełniają wymagania w zakresie bezpieczeństwa zarówno w danych znajdujących się w firmowych zasobach, jak i w Amazon Web Service, Microsoft Azure, Google Cloud Platform lub IBM Bluemix.
– Zauważam powolną ewolucję w kierunku chmury. Ważne, że na rynku są już rozwiązania, które zapewniają szybkie i bezpieczne tworzenie kopii zapasowych i replikacji w chmurze wybranego dostawcy. Takie produkty oferują m.in. Veeam, Commvault czy Veritas – mówi Paweł Bociąga, prezes zarządu Symmetry.
Warto przy tym zwrócić uwagę na fakt, że integratorzy chętnie włączają do oferty backup w formie usługi. Wielu z nich właśnie w ten sposób rozpoczyna swoją przygodę z chmurą. Na tej zasadzie działa Netology, współpracując z operatorem centrów danych 3S. Innym dostawcą usług backupu i odzyskiwania danych jest warszawski integrator Engave. Przedsiębiorcy współpracujący z rodzimymi dostawcami zawsze mogą liczyć na indywidualne podejście, co w przypadku globalnych usługodawców raczej nie jest możliwe.
Tomasz Krajewski, Regional Presales Manager, Eastern EMEA, Veeam
Brak dostępu do danych oraz proces ich odzyskiwania powinny trwać jak najkrócej, gdyż przestoje można przeliczyć na realnie stracone pieniądze i nierzadko decydują one o być albo nie być firmy. Może się okazać, że trwający trzy dni przestój doprowadzi do jej upadku. Do tego nieplanowane przestoje opóźniają inicjatywy cyfrowej transformacji. Tak twierdziło blisko dwie trzecie respondentów zeszłorocznego, szóstego branżowego Veeam Availability Report. Ponadto aż 82 proc. firm zmaga się z tzw. deficytem dostępności, czyli różnicą między potrzebami użytkowników a możliwościami ich zaspokojenia przez dział IT.
Artur Cyganek, dyrektor regionalny na kraje Europy Wschodniej, Acronis
Współczesne środowiska informatyczne są dużo bardziej dynamiczne niż jeszcze kilka lat temu. Często mamy do czynienia z rozwiązaniami hybrydowymi, rozproszonymi między wieloma różnymi platformami. Użytkownicy poszukują narzędzi, które za pomocą jednego spójnego interfejsu zapewnią wykonanie backupu z lokalnej maszyny wirtualnej działającej na dowolnej platformie wirtualizacyjnej, serwera fizycznego, laptopa oraz wirtualnego prywatnego serwera umieszczonego w dowolnej chmurze.
Sławomir Karpiński, prezes zarządu Connect Distribution
Spektakularne ataki ransomware zburzyły spokój wielu administratorów, którzy polegali na tradycyjnym backupie na nośnikach dyskowych. Okazało się bowiem, że dyski te mogą być równie łatwo zaszyfrowane jak systemy produkcyjne. Ponadto uwidocznił się znany od lat problem, że nie wszystkie firmy regularnie testują procedury odtworzenia z backupu. Choć dysponowały oprogramowaniem i przestrzenią do tworzenia kopii zapasowych, przywrócenie systemu było niemożliwe lub czas odtworzenia nieakceptowalny. Dlatego coraz większą popularność zdobywają alternatywne sposoby zabezpieczania danych, jak chociażby replikacja najważniejszych maszyn wirtualnych do oddalonego centrum zapasowego w chmurze prywatnej lub publicznej.
SaaS to obecnie najpopularniejsza usługa chmurowa. Gartner szacuje, że wartość globalnego rynku oprogramowania jako usługi wyniesie na koniec bieżącego roku 74 mld dol. Dla porównania łączne przychody ze sprzedaży usług chmury publicznej osiągną w 2018 r. 186 mld dol. Na pierwszy rzut oka SaaS wydaje się idealnym rozwiązaniem – klient otrzymuje od ręki nowe oprogramowanie w postaci usługi i nie ponosi wydatków na jego zakup, jak też nie musi martwić się o aktualizacje. Ale, jak zwykle, diabeł tkwi w szczegółach.
Według IDG Research aż 95 proc. użytkowników SaaS jest przekonanych, że obowiązki związane z backupem i odzyskiwaniem danych spoczywają na barkach usługodawców. Tymczasem Microsoft, Google czy Salesforce stosują zasady ograniczonej odpowiedzialności. W efekcie operator odpowiada wprawdzie za utratę danych w przypadku awarii własnego sprzętu lub oprogramowania, klęski żywiołowej i przerwy w dostawach energii. Natomiast umywa ręce, gdy przyczyną kłopotów jest błąd pracownika klienta, ale także atak hakerski. Wbrew pozorom nie są to sporadyczne przypadki – aż 77 proc. użytkowników SaaS w ciągu roku dotknęła utrata danych. Takie firmy bezpowrotnie tracą dokumenty bądź muszą słono płacić za ich odzyskanie (np. w Salesforce ceny tej usługi zaczynają się od 10 tys. dol.).
Część dostawców oprogramowania do backupu (Barracuda, Kasseya, Veeam Software, Odaseva, Veritas) wykazuje zainteresowanie tym segmentem rynku. Zapewniają najczęściej zabezpieczenia dla Office 365, Salesforce’a oraz Google Suite.
Wirtualizacja serwerów przestała być nośnym tematem, co wcale nie oznacza, że ten segment rynku zastygł w bezruchu. Wprawdzie VMware vSphere i Hyper-V nadal pozostają najpopularniejszymi platformami, ale klienci poszukują alternatywnych rozwiązań. Z badań Enterprise Strategy Group wynika, że ponad 60 proc. instytucji korzysta z więcej niż jednego hiperwizora. W ostatnim czasie szczególnie duże wzięcie mają produkty dostępne w ramach otwartego oprogramowania, a najbardziej KVM.
Wysyp platform wirtualizacyjnych nie pozostaje bez wpływu na rozwiązania do tworzenia kopii zapasowych. Z jednej strony na rynku debiutują nowi gracze, tacy jak HYCU, opracowujący systemy backupu wyłącznie dla Nutanixa, z drugiej doświadczeni producenci wzbogacają swoje rozwiązania o funkcje do obsługi kolejnych hiperwizorów. Zresztą tego typu działań oczekują od nich integratorzy.
– Istniejących rozwiązań do backupu w przypadku Hyper-V oraz vSphere jest bardzo wiele. W moim przekonaniu warto zainteresować się wprowadzeniem tego rodzaju systemów na platformach bazujących na systemie Linux, jak KVM oraz Xen. I tego należałoby oczekiwać od kolejnej generacji rozwiązań do backupu maszyn wirtualnych – mówi Paweł Bociąga.
W podobnym tonie wypowiada się Tomasz Spyra, prezes Rafcomu. Według niego jednym z wyzwań stojących przed producentami jest dostarczenie rozwiązania do zabezpieczania środowisk wirtualne, niezależnie od ich wielkości i platformy.
Plany rozwojowe producentów nie ograniczają się do poszerzania współpracy z kolejnymi platformami wirtualizacyjnymi. Jednym z najważniejszych zadań jest wsparcie procesów migracji w taki sposób, żeby móc odtwarzać kopie zapasowe z firmowej serwerowni w chmurze publicznej. To ważne, bowiem większość przedsiębiorców już wkrótce będzie korzystać nie tylko z własnych centrów danych, ale również ze środowisk chmurowych Azure, AWS lub lokalnych dostawców usług. Przemysław Mazurkiewicz zwraca przy tym uwagę, że nowoczesny backup maszyn wirtualnych powinien także uwzględniać ochronę rozwiązań kontenerowych, zwiększenie automatyzacji oraz minimalizację niekontrolowanego wzrostu liczby maszyn wirtualnych.
Generalnie rynek rozwiązań do ochrony danych otwiera szerokie możliwości przed integratorami, którzy nie boją się wyzwań. Zmiany w tym segmencie mają bardzo dynamiczny charakter. Najważniejsi gracze, a także startupy, wprowadzają w życie innowacyjne pomysły zarządzenia zasobami cyfrowymi.
Artykuł Dane zawsze pod ręką pochodzi z serwisu CRN.
]]>Artykuł Connect Distribution: chcemy się różnić pochodzi z serwisu CRN.
]]>– Nasze portfolio różni się od oferty innych dystrybutorów. To świadoma strategia, która pozwala partnerom Connectu sprzedawać produkty z większą marżą i bez obaw, że ich konkurenci zaproponują klientom taki sam produkt – tłumaczył Sławomir Karpiński, prezes Connect Distribution.
Jakie są plany na kolejne lata? Obecnie dystrybutor oferuje rozwiązania trzydziestu producentów, koncentrując się na czterech obszarach rynku IT: bezpieczeństwie, monitorowaniu i zarządzaniu sieciami, pamięciach masowych oraz narzędziach dla deweloperów.
W warszawskim spotkaniu oprócz resellerów oraz integratorów, uczestniczyli przedstawiciele producentów – DataCore Software, SonicWall, Thycotic, SmartBear Software, Ipswitch oraz Flexera. Ostatnia z wymienionych firm otrzymała nagrodę za najdłuższą współpracę z Connect Distribution, która trwa nieprzerwanie już od osiemnastu lat. Flexera oferuje rozwiązania zapewniające bezpieczeństwo w dużych środowiskach informatycznych, narzędzia do zarządzania poprawkami i aktualizacjami czy wieloplatformowe systemy do tworzenia wersji instalacyjnych oprogramowania. Christian Kuitcha-Champion, Business Development Manager w Sigma Software Distribution, przekonywał partnerów, że jest to perspektywiczny segment rynku.
– Secunia, będąca częścią Flexery, wykryła w ubiegłym roku aż 17 tysięcy luk w oprogramowaniu różnych producentów – o 20 proc. więcej aniżeli rok wcześniej. Natomiast przeciętny czas potrzebny na wyeliminowanie luk w aplikacji wynosi 186 dni. Tak długi okres wynika z coraz większej ilości i rodzajów oprogramowania wykorzystywanego przez firmę. Działy IT nie panują nad sytuacją – podkreśla Christian Kuitcha-Champion.
Dziurawe oprogramowanie to nie jedyny problem, z którym borykają się administratorzy. Równie groźni potrafią być niefrasobliwi lub działający na szkodę przedsiębiorstwa pracownicy. Ich buszowanie po firmowej sieci można ograniczyć poprzez wdrożenie systemów do nadawania uprawnień i zarządzania tożsamością, w tym PAM (Privileged Account Management). O roli produktów w procesie ochrony danych mówiła Charlotte Archer, Channel Sales Manager w Thycotic. Jak wynika z danych IANS aż 62 proc. przypadków cyberprzestępcy zyskują dostęp do danych za pomocą przechwyconych haseł do kont użytkowników uprzywilejowanych.
– Niestety, tradycyjne systemy ochrony skupiają się na zabezpieczeniu brzegu sieci i nie zdają egzamin w przypadku ochrony kont uprzywilejowanych – wyjaśnia Charlotte Archer.
Connect Distribution dużą wagę przywiązuje nie tylko do sprzedaży systemów bezpieczeństwa. Ważną pozycję w portfolio dystrybutora stanowi oprogramowanie do monitoringu sieci SolarWinds, oferowane na polskim rynku od pięciu lat.
– To rozwiązanie w pełni konfigurowalne o modułowej architekturze, cechujące się proaktywnym podejściem do zarządzania IT. Produkt sprawdzi się w każdej firmie, gdzie potrzebne jest kompleksowe oprogramowanie do monitoringu – zapewnia Marta Zborowska, Sales Director w Connect Distribution.
Connect Distribution nie zwalnia tempa i w jubileuszowym roku poszerzył ofertę o systemy hiperkonwergentne Maxta, oprogramowanie Zerto do replikacji maszyn wirtualnych, platformę Cofense zabezpieczającą przed phishingiem oraz bezagentową aplikację NAC Portnox. Szerzej nieznane nazwy producentów, a także ich oferta są wyraźnym sygnałem, że dystrybutor nie zamierza schodzić z obranej przed laty ścieżki.
NAGRODZONE FIRMY
Nagrody dla resellerów
CEZAR – za najdłuższą współpracę z firmą CONNECT DISTRIBUTION
TTS COMPANY- za największą liczbę zamówień złożonych w historii firmy CONNECT DISTRIBUTION
SOFTWAREONE POLSKA – za największą dynamikę wzrostu we współpracy z firmą CONNECT DISTRIBUTION
TRECOM – za największą transakcję w historii firmy CONNECT DISTRIBUTION
JAME-TECH- za wyjątkową terminowość w płatnościach dla firmy CONNECT DISTRIBUTION
Nagroda dla dostawcy
FLEXERA SOFTWARE – za najdłuższą współpracę z firmą CONNECT DISTRIBUTION
Artykuł Connect Distribution: chcemy się różnić pochodzi z serwisu CRN.
]]>Artykuł Po 20 latach czas na rynki zagraniczne pochodzi z serwisu CRN.
]]>Sławomir Karpiński Z Krzysztofem wciąż pozostajemy w bardzo dobrych relacjach, ale już nie biznesowych. Zmiana jest odświeżająca. Pojawili się nowi ludzie, powstają nowe idee, realizujemy kolejne pomysły. Zaczęliśmy myśleć nie w kategoriach systematycznego organicznego wzrostu – chcemy dokonać pewnego skoku. Nie planujemy rewolucji, jeśli chodzi o ofertę, ale faktycznie zamierzamy rozszerzyć działalność poza Polskę – na południe Europy. Tamtejsze rynki nie weszły jeszcze w taką fazę nasycenia IT, z jakim mamy do czynienia u nas.
CRN Czy to znaczy, że powstaną tam wasze lokalne biura? W jakich konkretnie krajach?
Sławomir Karpiński Bardzo uważnie przyglądamy się działaniom naszych partnerów w krajach Europy Wschodniej. W niektórych rezultaty są na tyle obiecujące, że rozważamy otwarcie tam naszych przedstawicielstw. Przykładowo taki zespół działa już od ubiegłego roku w Słowenii, sprzedając nasze wybrane linie produktowe w rejonie Adriatyku.
CRN Wydaje się, że potencjał Connectu jest większy nie tylko w kontekście geograficznym. Nie zawsze jednak potrafiliście go wykorzystać. Mieliście w ofercie rozwiązania, które z czasem stawały się mainstreamowe i nie tylko opuszczały swoje nisze, ale także was jako dystrybutora…
Sławomir Karpiński Zgadza się. Dobrym tego przykładem może być VMware, którego rozwiązania wprowadzaliśmy na polski rynek w czasie, gdy wirtualizacja dotyczyła tylko stacji roboczych i nie było jeszcze pomysłu na wirtualizację serwerów. To dość typowa dla nas historia: wynajdujemy rozwiązanie, które jest niszowe i fascynujące technologicznie, a jego sprzedaż jest stosunkowo nieduża. Gdy następnie zainteresowanie rynku gwałtownie rośnie, to po pierwsze musimy sobie odpowiedzieć na pytanie, czy naszym celem – jako niedużej firmy – jest rośnięcie razem z nim, a po drugie czy mamy takie możliwości. Jeśli nie, to wolimy skupić się na szukaniu kolejnych nowych rozwiązań.
CRN Także z obszaru wirtualizacji…
Sławomir Karpiński Gdy VMware, tworząc nową strategię, odpowiadającą dużo większej skali biznesu, postawił na dużych partnerów, zwróciliśmy się w stronę wirtualizacji pamięci masowych. Była ona w tamtym czasie bardzo nowatorskim rozwiązaniem. Po latach coś, co było bardzo interesującą nowością, stało się standardem. Jednak do dziś mamy w ofercie oprogramowanie DataCore, które wciąż jest na swój sposób niszowe, ma bowiem specyficzne cechy, których nie mają inne rozwiązania.
CRN Jeszcze nie tak dawno jednym z obszarów waszego zainteresowania były rozwiązania typu thin client. Bardzo ciekawa koncepcja terminali, których już nie ma w waszej ofercie. Czyżby nie było zainteresowania ze strony rynku?
Sławomir Karpiński To inny przykład ryzyka, z którym musi się liczyć nieduży dystrybutor stawiający na niszowe rozwiązania. Wprowadziliśmy na polski rynek firmę Wyse, która była wtedy niezależnym producentem specjalizującym się w tworzeniu i sprzedaży „cienkich klientów”. Potem jednak została przejęta przez jednego z głównych graczy rynkowych, czyli Della. Po przejęciu nastąpiła unifikacja oferty i oparcie się na skończonej grupie dystrybutorów. Tych największych, sprzedających pozostałą infrastrukturę, z inną skalą biznesu i zasobami finansowymi. Do tej układanki przestaliśmy po prostu pasować. Takich przejęć przeżyliśmy w swojej historii więcej.
CRN Szukając nowości, nie można się chyba skupiać tylko na ich technologicznych zaletach?
Sławomir Karpiński Nie mniej ważne są potrzeby rynku. Zastanawialiśmy się niedawno, czy nie wejść mocno w chmurę i rozwiązania typu MSP. Jednak wystarczyła szybka analiza tego, co partnerzy robią i czego oczekują ich klienci. Okazało się, że to jeszcze nie jest ten moment – pomimo tego, że na zachodzie Europy wszyscy o chmurze mówią, a dostawcy bardzo promują swoje platformy przystosowane do świadczenia usług. Polski rynek jest inny, a my sprawdzamy, czy nasze fascynacje technologiami mają przełożenie na tutejsze potrzeby. Partnerzy i ich klienci preferują model tradycyjny, więc z chmurą trzeba jeszcze trochę poczekać.
CRN Co w tej sytuacji definiuje waszą ofertę?
Sławomir Karpiński Przez lata zbieraliśmy doświadczenia i najlepszym rozwiązaniem obecnie jest utrzymanie właśnie strategii ograniczania obszarów produktowych. Aktualnie mamy trzy główne. Najważniejszym jest bezpieczeństwo. Tu nie ma zaskoczenia, bo teraz każdy w nie inwestuje. Nie bylibyśmy jednak sobą, gdybyśmy nie szukali rozwiązań, które nie są oczywiste. Przykładowo mamy produkt, w którym zapewnianie bezpieczeństwa polega na edukowaniu użytkowników – jak reagować na zagrożenie, jakim jest phishing. Drugim obszarem jest storage, ale znowu nie w postaci tradycyjnych macierzy. Sprzedając je, nasi partnerzy musieliby konkurować cenowo i mogliby nie spotkać się z zainteresowaniem ze strony klientów. Jeśli zaproponują im natomiast rozwiązanie, które poprzez wirtualizację umożliwi lepsze wykorzystanie posiadanych zasobów, zwiększy bezpieczeństwo, to mają większe szanse, że zostaną wysłuchani. I nie będą się musieli bić na ceny.
CRN Ale czy cena w Polsce wciąż nie jest najważniejsza?
Sławomir Karpiński Rzeczywiście, w większości przypadków jest decydująca. Jednak bywają sytuacje, gdy nasi partnerzy, choć ich oferta wcale nie jest najtańsza, są w stanie wygrać u klienta dzięki korzyściom oraz innowacyjności. Konkurowanie wyłącznie ceną nie jest rozsądne, bo w końcu zawsze znajdzie się ktoś tańszy. Przez lata doprowadziło to do wielkiej erozji marż. Z rozrzewnieniem wspominam te z początku naszej działalności. Rok 1998 to był inny świat i skala sprzedaży. Teraz, jeśli rynek nie jest moderowany – chociażby przez producenta – tak aby ceny nie były zaniżane, to z czasem produkt staje się niskomarżowy. Kolejni partnerzy stopniowo odchodzą od niego, bo widzą, że nie da się na nim zarobić. Niestety, tak się dzieje z rozwiązaniami masowymi.
CRN A co z trzecim obszarem zainteresowania?
Sławomir Karpiński To monitorowanie systemów, głównie kontrola dostępu do sieci i weryfikacja tego, co dzieje się w jej poszczególnych warstwach. Dzięki temu IT zyskuje pełną wiedzę o procesach, jakie zachodzą w sieci i może reagować na zagrożenia oraz wdrażać rozwiązania optymalizacyjne.
CRN Na jakich partnerach najbardziej wam obecnie zależy?
Sławomir Karpiński Cenimy każdy rodzaj partnerów – zupełnie nowych, doraźnych i długoletnich. Najbardziej cenimy sobie jednak przedsiębiorstwa, które widzą w naszej ofercie potencjał długofalowej współpracy. Tego rodzaju partner to firma średniej wielkości, czasem nawet mała, ale wyspecjalizowana. Może mieć nawet niezbyt liczną grupę klientów, ale takich, którzy mu ufają i wracają do niego z kolejnymi potrzebami i problemami. Takich partnerów mamy zaszczyt obsługiwać od lat i w istocie dzięki nim z powodzeniem działamy na rynku. Nie oznacza to, że mniej doceniamy firmy współpracujące z nami okazjonalnie – one też kształtują wolumen sprzedaży. Zawsze staramy się, aby pojedyncze zapytanie czy zakup zmieniły się w stałą współpracę.
CRN Jako niszowemu graczowi trudno wam zapewne przekonać do kooperacji największych integratorów?
Sławomir Karpińskimilionowe sprzedaże. Dlatego takie firmy trudno jest skłonić do zainteresowania się rozwiązaniami niszowymi. Muszą sprzedać tyle a tyle macierzy producenta X albo Y, a do tego serwerów marki Z, a zatem nie zwracają uwagi na jakiś innowacyjny, ale nie mainstreamowy produkt.
CRN W tym roku świętujecie 20 lat działalności biznesowej. Czujecie się weteranami rynku?
Sławomir Karpiński Można powiedzieć, że jesteśmy niemal równolatkami największych dzisiaj graczy w polskiej dystrybucji. Przetrwaliśmy i mamy się bardzo dobrze, czego nie można powiedzieć o niektórych firmach. Choć na początku wcale nie mieliśmy planu na tak wiele lat w tym biznesie.
CRN Jaka jest recepta na długowieczność?
Sławomir Karpiński Od samego początku, gdy w 1998 roku zaczynaliśmy działalność z dwoma pecetami w biurze, założyliśmy, że będziemy stawiać na ciekawe rozwiązania, interesujące z technologicznego punktu widzenia. A receptą było zaangażowanie i ciekawość nowości. Gdy koniunktura na jakieś rozwiązania się kończyła – tak było chociażby z produktami mającymi być remedium na problem roku 2000 – to natychmiast pojawiały się nowe. Z uwagi na skalę biznesu staraliśmy się, by były one nie tylko ciekawe technologicznie, ale także niszowe. Tak zaczęliśmy i tak nam do dziś zostało. Unikatowość tych rozwiązań to nasza najmocniejsza strona i największy atut.
CRN Ilu dostawców, przez te dwie dekady, przewinęło się przez ofertę Connect Distribution?
Sławomir KarpińskiOstatnio robiliśmy podsumowanie i wyszło, że ponad stu. Okazuje się więc, że mamy średnio pięciu nowych rocznie. To sporo, bo w każdym przypadku trzeba było dobrze zapoznać się z produktami, wyszkolić swoich pracowników i partnerów. W przypadku mniej więcej jednej trzeciej z puli ponad stu producentów można mówić nie o pojedynczej, ale regularnej, istotnej kwotowo sprzedaży. Co chyba nie jest złym wynikiem. Gdy sobie to uświadamiam, dochodzę do wniosku, że nigdy nie było czasu na nudę. Przekrój technologii był ogromny, a nasz plan na przyszłość nie ulega zmianie. Będziemy szukać kolejnych nowości.
Rozmawiał Tomasz Janoś
Artykuł Po 20 latach czas na rynki zagraniczne pochodzi z serwisu CRN.
]]>Artykuł Hiperkonwergencja wychodzi z niszy pochodzi z serwisu CRN.
]]>W ostatnim czasie na rynku zaszła zmiana i klienci rozbudowujący swoją infrastrukturę sami pytają o platformy hiperkonwergentne. Dlatego warto na wstępie tłumaczyć, że określone rozwiązanie działa w modelu HCI. Został on już dostatecznie wypromowany, bo liderzy rynku infrastruktury od pewnego czasu i na każdym kroku podkreślają, że oferują tego typu produkty. A co ważniejsze, rośnie liczba przykładów zakończonych sukcesem wdrożeń HCI, także w Polsce.
– Zapytań o HCI jest w związku z tym coraz więcej. Gdy do partnera przychodzi klient, który mówi, że chciałby zmodernizować infrastrukturę złożoną ze starszych macierzy dyskowych, to w wielu wypadkach dobrym rozwiązaniem okazuje się hiperkonwergencja – twierdzi Sławomir Karpiński, prezes Connect Distribution.
Chociaż więc użycie CI i HCI nie stało się jeszcze podstawową metodą budowania infrastruktury centrum danych, to obecnie dostawcy są lepiej przygotowani do przedstawiania klientom zalet stosowania wysoce zintegrowanych, programowo definiowanych rozwiązań. Z kolei integratorzy zaczynają dostrzegać korzyści z ich sprzedaży i wdrażania oraz dostarczania usług związanych z tego typu projektami.
Artur Matzka, dyrektor Departamentu IT&EUC w Integrated Solution, w kontekście rozwiązań hiperkonwergentnych zwraca uwagę na prostotę w administrowaniu, uzyskaną dzięki skonsolidowaniu wielu elementów infrastruktury data center w pojedynczym panelu zarządzania. Dzięki temu jeden administrator może zarządzać całym stosem infrastruktury. Rozwiązania HCI i CI odpowiadają za wiele obszarów funkcjonalnych, takich jak: zasoby obliczeniowe, dyskowe oraz sieciowe, mechanizmy optymalizacji WAN, zunifikowane zarządzanie globalne, deduplikacja, kompresja, backup, caching, tiering, replikacja oraz możliwości skalowania poziomego. Zapewniają przy tym znaczną redukcję złożoności architektury środowisk wirtualnych.
Artur Matzka, dyrektor Departamentu IT&EUC, Integrated Solutions
Infrastruktura konwergentna i hiperkonwergentna to doskonała alternatywa dla drogich klasycznych rozwiązań oferowanych na rynku. Zarówno CI, jak i HCI zapewniają bardzo wysoką wydajność oraz funkcjonalność, które w klasycznych środowiskach wymagałyby skomplikowanej i drogiej architektury heterogenicznej. Klientom borykającym się z wysokimi kosztami utrzymania środowisk IT warto proponować rozwiązania hiperkonwergentne, które mogą w znacznym stopniu uprościć i zoptymalizować wykorzystywaną dotąd infrastrukturę środowisk wirtualnych.
Artur Pająk, Executive IT Product Manager w Huawei, potwierdza, że polscy klienci interesują się zarówno rozwiązaniami CI, jak i HCI. Przy czym – jak utrzymuje – częściej tymi pierwszymi, ponieważ łatwiej im jest zaadaptować posiadaną infrastrukturę do architektury CI. Jej niewątpliwą zaletą jest to, że aplikacje, które wymagają szczególnie wysokich poziomów niezawodności i wydajności (określanych przez SLA), mogą być implementowane na platformie sprzętowej zaprojektowanej do tego typu zastosowań. Innymi słowy do określonego typu aplikacji (w szczególności tych krytycznych) używa się najbardziej odpowiedniej infrastruktury sprzętowej. Z kolei rozwiązania HCI są bardziej uniwersalne, więc aplikacje uruchamiane są na sprzęcie o jednakowym poziomie niezawodności.
– Ponieważ większość funkcji rozwiązań HCI jest zawarta w oprogramowaniu, poziom SLA – kopie zapasowe, replikacja itp. – jest ustalany poprzez parametry programowe, co jest bardziej elastyczne – tłumaczy przedstawiciel Huawei.
Mówiąc o zastosowaniu hiperkonwergencji, Sławomir Karpiński z Connect Distribution wymienia wielorakie korzyści. Po pierwsze takie podejście do budowania infrastruktury jest prostsze, więc bardziej niezawodne. Eliminuje się punkty awarii – sieć SAN albo źle wykonane okablowanie nie mogą odmówić posłuszeństwa, bo ich po prostu nie ma. Po drugie rozwiązanie powinno być szybsze, bo uproszczone jest przesyłanie danych. Wreszcie bardzo proste staje się skalowanie – system jest rozwijany przez dokładanie kolejnych węzłów serwerowych. Gdy potrzeba więcej zasobów, dodaje się nowy serwer z dyskami, na który przenoszona jest część zasobów systemu HCI. Skalowanie mocy i pojemności jest wtedy niemalże liniowe.
– Platformy HCI nie mają wielkich wymagań sprzętowych i są uruchamiane najczęściej na standardowych serwerach i nośnikach pamięci – tłumaczy prezes Connect Distribution.
Dominik Themerson, Regional Business Development Manager HCI Sales CEE w Dell EMC, przyznaje, że HCI nie jest tańsza w zakupie od tradycyjnej infrastruktury. Jednak jego zdaniem niewielka różnica w cenie zapewnia ogromne korzyści, przekładające się na wartość biznesową już w pierwszym dniu od dostawy produktu.
– Koszt wdrożenia dowolnej konfiguracji HCI jest nieporównywalnie mniejszy, a czas znacząco krótszy w porównaniu z implementacją tradycyjnej architektury IT. Lepiej wyglądają też koszty utrzymania, serwisu, zarządzania i rozbudowy – wylicza ekspert z Dell EMC.
Według analityków aż 20 proc. krytycznych aplikacji biznesowych, obecnie uruchamianych na tradycyjnej 3-warstwowej infrastrukturze IT, zostanie do 2020 r. przeniesione na infrastrukturę hiperkonwergentną. Doceniając znaczenie nowej technologii, w tym roku po raz pierwszy Gartner opublikował swój magiczny kwadrant dla HCI.
Jak wyjaśniono w raporcie, termin HCI (Hyperconverged Infrastructure) dotyczy skalowanej poziomo (scale-out), zintegrowanej programowo infrastruktury, która jest wynikiem modularnego podejścia do warstw obliczeniowej, sieciowej i pamięciowej. HCI wykorzystuje standardowy sprzęt w postaci rozproszonych poziomych modułów i zunifikowane zarządzanie. Dostawcy HCI albo projektują własne specjalizowane urządzenia (appliance) przy użyciu powszechnie dostępnej infrastruktury (sprzętu, wirtualizacji i systemu operacyjnego), albo rozpoczynają współpracę z producentami systemów, którzy opakowują stos programowy dostawcy HCI, tworząc appliance. Alternatywnie dostawcy HCI sprzedają swoje oprogramowanie klientom końcowym (przez resellerów i integratorów lub bezpośrednio) do wykorzystania w ramach architektury referencyjnej lub w modelu HCI as a Service, zarówno on-premise, jak i w chmurze publicznej.
Aby dostawca znalazł się magicznym kwadrancie HCI Gartnera, musi spełniać kilka kryteriów funkcjonalnych. Gartner określa, że programowy stos HCI musi obejmować programowo definiowane funkcje obliczeniowe i pamięciowe, a opcjonalnie sieciowe, jak również zintegrowane usługi programowe i zarządzanie. Dodatkowo produkty HCI muszą używać lokalnej, bezpośrednio połączonej pamięci masowej DAS (a nie SAN lub NAS) i przekształcać DAS w pulę logicznej, abstrakcyjnej zwirtualizowanej pamięci. Przy czym wbudowane w oferowane rozwiązanie usługi pamięci masowej i zarządzania muszą być stworzone przez dostawcę HCI, a nie zapewniane przez partnerstwo OEM. Ostatecznie magiczny kwadrant Gartnera zawiera 12 dostawców oferujących infrastrukturę hiperkonwergentną. Nutanix, Dell EMC, VMware i HPE zostali uznani w raporcie za liderów. Z kolei w kwadracie pretendentów znaleźli się tacy dostawcy jak: Cisco, Huawei i Pivot3. Firmy Microsoft i Stratoscale to według Gartnera wizjonerzy, a Scale Computing, DataCore i HTBase to gracze niszowi.
Gartner wymienia także dostawców, którzy choć nie zostali ujęci w kwadrancie – bo nie spełniali ustalonych kryteriów – to są warci rozważenia przez poszukujących infrastruktury hiperkonwergentnej. Należą do nich takie firmy jak: Fujitsu, Hitachi Vantara, Lenovo, Red Hat oraz StarWind Software.
Jak zgodnie twierdzą dostawcy i integratorzy, kluczem do przełamania oporu klientów jest wykazanie, że cena zakupu to zaledwie ułamek całkowitego kosztu.
– Jeśli policzymy koszt wszystkich komponentów sprzętowych klasycznej infrastruktury i dodamy do niego również koszty pracy i administracji, to zawsze uzyskamy niższy TCO w przypadku platform HCI i CI – twierdzi Artur Matzka.
Niestety, w Polsce koszty pracy często są pomijane w tego typu zestawieniach. Błędem jest też porównywanie infrastruktury HCI ze zwykłymi serwerami typu rack i prostymi macierzami dyskowymi, jeśli nie weźmie się pod uwagę różnic w funkcjonalności obu rodzajów infrastruktury. Przy takim uproszczeniu faktycznie trudno jest wykazać efektywność kosztową rozwiązań hiper-
konwergentnych.
– Przy dobrze policzonych kosztach model hiperkonwergentny okazuje się tańszy w porównaniu z macierzami, siecią SAN i całą pozostałą infrastrukturą – uważa Sławomir Karpiński.
Co ważne, HCI wymaga na początku znacznie mniejszych inwestycji. Sieć SAN jest tworzona do obsługi od razu wielu terabajtów danych, a z HCI można wystartować nawet z poziomu kilku terabajtów. Klient zyskuje rozwiązanie klasy enterprise, zamknięte w 2–3 serwerach, które potem bardzo łatwo jest rozbudowywać. Powstaje prosta infrastruktura łączona często przez ISCSI 10 Gb/s, bo taka przepustowość w wielu wypadkach jest wystarczająca. Rozbudowa systemu okazuje się łatwa, bo kiedy podłącza się kolejny węzeł, to oprogramowanie wirtualizacyjne zapewnia w dużej mierze automatyczne skonfigurowanie powiększonego klastra.
Sławomir Karpiński daje przykłady klientów, którzy pozbyli się całego starszego sprzętu i przeszli np. na dwa serwery działające w modelu HCI. Oszczędzili w rezultacie także na dotychczasowej infrastrukturze zasilającej i chłodzącej, która wcześniej musiała obsługiwać serwery i macierze. Oczywiście integrator musiał przedtem udowodnić (poprzez PoC), że wszystko będzie działać, jak należy.
– O sukcesie niech świadczy to, że po tym, jak przeniesiono najpierw jeden system na dwuwęzłowy klaster i nie było żadnych problemów, klient zdecydował się na uruchomienie w ten sposób swoich pozostałych systemów i od trzech lat rozbudowuje swoje środowisko HCI – opisuje prezes Connect Distribution.
Rozwiązania CI i HCI mają swoich zwolenników i przeciwników – wybór jednego z nich zależy od rodzaju działalności biznesowej. Gdy potrzebny jest większy zakres parametrów SLA, preferowana jest infrastruktura CI. Gdy wymagany jest duży zakres zmian funkcjonalności elementów sprzętowych, wybór pada na rozwiązania HCI. Infrastruktura HCI, jako bardziej uniwersalna i elastyczna, nadaje się dla klientów, którzy wymagają swobodnej modyfikacji infrastruktury sprzętowej, w zależności od zmieniających się potrzeb biznesowych. Przykładowo jeśli w danym momencie potrzebna jest większa moc obliczeniowa, to w prosty sposób jesteśmy w stanie dostarczyć ją, zabierając część zasobów z innej części infrastruktury (np. pamięci masowej). W infrastrukturze HCI jest to dość proste, bo wymaga tylko modyfikacji funkcji oprogramowania.
Dostawcy zgodnie przyznają, że na polskim rynku o największym zrozumieniu korzyści z infrastruktury HCI można mówić w przypadku średniej wielkości przedsiębiorstw. To one w głównej mierze są odbiorcami opisywanych rozwiązań. Firmy te przeważnie nie mają rozbudowanych działów IT ani co za tym idzie administratorów odpowiadających za macierze, serwery, wirtualizację, sieci czy kopie bezpieczeństwa.
Artur Pająk zwraca uwagę, że infrastruktura HCI jako oferta nie powinna być kierowana do zupełnie małych firm. Musi istnieć pewien próg wymaganych zasobów (mocy obliczeniowej, ilości danych), aby można było rozważać jej opłacalność. W Polsce małe podmioty gospodarcze to zazwyczaj firmy korzystające z aplikacji biznesowych uruchomionych na kilku maszynach fizycznych i wspólnej przestrzeni dyskowej.
– Koszt infrastruktury CI będzie wtedy mniejszy od infrastruktury HCI o takich samych parametrach niezawodności i wydajności – zauważa przedstawiciel Huawei.
Z kolei w przypadku dużych przedsiębiorstw, jak twierdzi Dominik Themerson, napotyka się duży opór przed zmianami w silosowej strukturze działów IT, jakie przynosi wykorzystanie infrastruktury HCI.
– Blokują one wszelkie działania w obawie przed utratą swoich zasobów. Powodem jest niechęć do zmian, ale też niewystarczająca świadomość możliwości kreowania nowego biznesu przez IT – uważa ekspert z Dell EMC.
Wynika to głównie z trudności w określeniu nowej roli IT w biznesie. Często są to obawy czysto ludzkie, związane np. z ryzykiem utraty pracy. Tutaj Dell EMC widzi rolę partnerów, na których spoczywa obowiązek edukowania rynku. Z drugiej strony, zwłaszcza w dużych instytucjach, pewne obawy mogą być uzasadnione, a klient powinien się wstrzymać z przechodzeniem na HCI. Nawet wtedy, gdy – przekonany co do możliwości hiperkonwegencji – rozważa zastosowanie nowego modelu. Jeśli od początku wymagana jest duża moc obliczeniowa i duża przestrzeń dyskowa, konieczny staje się zakup wielu serwerów, więc całe rozwiązanie przestaje być ekonomiczne. Tym bardziej że taki klient zwykle zainwestował wcześniej duże pieniądze w tradycyjną infrastrukturę i trudno byłoby sobie wyobrazić, że może z niej z dnia na dzień zrezygnować.
Ostatecznie HCI wydaje się atrakcyjną ofertą dla mniejszych i średnich przedsiębiorstw, a także dla tych większych, które chcą wykorzystać hiperkonwergencję do obsługi tylko wybranych systemów czy aplikacji. Są bowiem klienci, którzy decydują się na wykorzystanie hiperkonwergencji w konkretnym obszarze – w obsłudze developmentu czy innego działu firmy. Chcą niskim kosztem zrealizować wyspowy projekt – bazę danych, analitykę, mały system produkcyjny czy CRM. Może też chodzić o zaspokojenie potrzeb informatycznych w zdalnych oddziałach przedsiębiorstw.
Czy partner więcej zarobi, sprzedając HCI zamiast tradycyjnej infrastruktury? Choć zależy to od konkretnego przypadku, wcale nierzadko zdarza się, że tradycyjny sprzęt jest oferowany przez dostawcę tak tanio, że na marżę partnera zaczyna brakować miejsca. To wynik bardzo dużej konkurencji na rynku. Zarobek może być większy, jeśli partner zada sobie trud przekonania klienta do HCI, czyli rozwiązań nowej generacji, szybszych, prostszych we wdrożeniu i skalowaniu. Pieniędzy w przypadku nowej technologii może być więcej, bo inna będzie struktura marży. Większą część dochodu przyniosą usługi – wdrożenia, migracji ze starego systemu na nowy itp.
Ponieważ HCI to rozwiązanie wciąż niszowe, umożliwia integratorom wyróżnienie się na rynku, na tle setek innych firm IT, które sprzedając tradycyjne systemy, agresywnie konkurują cenami. Gdy dobrze rozpozna się potrzeby klienta i będą one wpisywać się w ideę hiperkonwegencji, to w postaci HCI sprzedaje się nie tylko pakiet sprzętowo-programowy obudowany zestawem usług, ale przyszłościowe rozwiązanie, które zapewni mu lepsze możliwości rozwoju. Dlatego warto uświadamiać klientom, że hiperkonwergencja to trend, który zyskuje coraz więcej zwolenników a sprzedaż tych urządzeń bardzo szybko rośnie.
HCI to dla integratora także prostszy system, który szybciej się wdraża – głównie ze względu na uproszczony interfejs, pojedynczy punkt konfiguracji i pełną automatyzację. Z kolei dla klienta hiperkonwergencja oznacza krótszy czas zwrotu z inwestycji. Uproszczony jest także schemat rozwoju środowiska, bo można zamówić po prostu kolejny węzeł i nie trzeba przebudowywać architektury data center, jak w przypadku wdrażania nowych macierzy. Nie oznacza to jednak, że wdrożenie tego typu rozwiązań nie wymaga wysoko wykwalifikowanych i doświadczonych inżynierów.
Infrastrukturę HCI preferują integratorzy, którzy dobrze znają rozwiązania oparte na oprogramowaniu (software-defined). Pozwalają one precyzyjnie dostosować infrastrukturę IT do wymagań klienta, bez potrzeby zdobywania szczegółowej wiedzy na temat funkcjonalności sprzętu. Architektura hiperkonwergentna wyróżnia się znaczącym wpływem integratora na ostateczny kształt rozwiązania – funkcje tego ostatniego są ustalane na etapie implementacji, a potem mogą być łatwo modyfikowane.
Dominik Themerson zauważa jednak, że nowe podejście do biznesu stawia przed integratorami podobnego rodzaju wyzwania jak przed klientami, którzy poszukują sposobu na transformację firmy i określenie nowej roli IT w organizacji.
– Partner dzięki ofercie hiperkonwergencji znacząco zwiększa swoją marżę na usługach budowanych wokół HCI, ale wymaga to od niego uświadomienia sobie koniecznych zmian w modelu biznesowym – tłumaczy ekspert Dell EMC.
Marże na sprzęcie drastycznie się obniżają, a integratorzy od dłuższego czasu starają się zwiększać je za pomocą usług oferowanych „wokół” dostarczanego rozwiązania. Ponieważ sprzedaż infrastruktury przestaje być głównym źródłem zysków, siłą napędową biznesu integratora muszą się stać wszelkie usługi integracyjne, aplikacyjne czy chmurowe.
O ile z technologicznego punktu widzenia adaptacja HCI postępuje wraz ze wzrostem świadomości klientów co do koniecznej transformacji biznesu, o tyle cały czas istnieje wiele obaw przed nowym sposobem zdefiniowania roli IT w przedsiębiorstwach. Niestety, pokutuje też przekonanie, że HCI jest bardzo drogie, co nie jest prawdą. Dlatego firmy, które rozważają użycie HCI, można określić mianem „świadomych klientów”, myślących o rozwoju swego głównego biznesu, którym niekoniecznie musi być IT.
Artykuł Hiperkonwergencja wychodzi z niszy pochodzi z serwisu CRN.
]]>Artykuł Ipswitch w Connect Distribution pochodzi z serwisu CRN.
]]>„Ipswitch dopełnia naszą ofertę rozwiązań z dziedziny bezpieczeństwa oraz monitowania sieci. Szczególnie sprawdza się w małych i średnich firmach.” – komentuje Sławomir Karpiński, Channel Manager w Connect Distribution.
Rozwiązania Ipswitch pomagają zespołom zarządzającym IT w utrzymaniu kontroli i bezpieczeństwa transakcji biznesowych, aplikacji i całej infrastruktury. Producent opiera swoją ofertę na dwóch filarach, którymi są rozwiązania WhatsUp Gold oraz Moveit.
WhatsUp Gold jest przeznaczone do monitoringu sieci, serwerów, wirtualnych maszyn, aplikacji, kontroli natężenia ruchu w całym środowisku Windows, LAMP, Java i środowiskach chmurowych.
Moveit natomiast jest pakietem łączącym bezpieczny transfer plików, automatyczny workflow, raportowanie oraz wielowarstwowe zabezpieczenia.
Firma Ipswitch została założona w 1991 r.
Artykuł Ipswitch w Connect Distribution pochodzi z serwisu CRN.
]]>