Artykuł Chmura wreszcie dojrzała pochodzi z serwisu CRN.
]]>Interesujące są przewidywania analityków IDC wyrażone w ostatnim raporcie „Worldwide Quarterly Enterprise Infrastructure Tracker: Buyer and Cloud Deployment”, według których w 2022 roku po raz pierwszy w historii wydatki na współużytkowaną infrastrukturę chmurową przewyższą wydatki na infrastrukturę niezwiązaną z chmurą. To kolejny argument za tym, by integratorzy chcący rozwijać swój biznes uwzględniali w nim współpracę z operatorami chmury.
Operatorzy centrów danych chętnie współpracują z VAR-ami i integratorami, gdyż w ten sposób poszerzają swój rynkowy zasięg. Mogą wykorzystać kompetencje partnerów w obszarze cyfrowej transformacji, ich wiedzę w zakresie usług zarządzanych oraz zdolności do wpływania na decyzje zakupowe klientów końcowych.
Współpraca może polegać na umieszczeniu sprzętu sieciowego i serwerów klienta (albo swoich) w placówce dostawcy usług kolokacji, który oferuje powierzchnię, zasilanie i chłodzenie. Zapewnia również usługi łączności, które w celu zwiększenia redundancji i wydajności komunikują klientów z wieloma operatorami telekomunikacyjnymi i dostawcami usług internetowych.
Takie połączenia międzysieciowe są coraz częściej wykorzystywane w celu uzyskania dostępu do publicznych platform chmurowych. Może on być realizowany poprzez bezpośrednie połączenie, zapewniające klientowi prywatne łącze do platform w chmurze, z pominięciem publicznego internetu. We współpracy z dostawcami usług, partnerzy mogą również wspierać inicjatywy swoich klientów w zapewnianiu wydajnej i bezpiecznej pracy zdalnej.
Partnerzy doceniają także oferowane przez operatorów centrów danych specjalizowane usługi w różnych konkretnych obszarach, w tym: sieciowym, przetwarzania hybrydowego i wielochmurowego, bezpieczeństwa i ochrony danych czy analityki. Bazując na dostarczanych przez operatora usługach, partnerzy mogą sprawniej wypełniać luki w infrastrukturze spowodowane przez brak kompetencji klientów. Przykładowo, mogą oferować im pomoc w migracji do chmury albo ułatwiać wdrażanie coraz częściej wykorzystywanych programowych sieci rozległych (SD-WAN).
Jak pokazują badania rynkowe, sieci SD-WAN są już postrzegane jako dojrzałe. Ankietowane firmy do najważniejszych powodów ich wdrażania zaliczają uzyskanie oszczędności w obszarze infrastruktury WAN oraz zwiększenie ciągłości działania sieci. Istotne są dla nich takie kwestie, jak wzrost wydajności i uzyskanie wglądu w działanie sieci oraz aplikacji w trybie end-to-end, zwłaszcza chmurowych (np. Microsoft Office 365). Klienci z dojrzałą strategią rozwoju swojej infrastruktury sieciowej wskazują też na SD-WAN jako narzędzie do migracji do architektury zorientowanej na aplikacje i centralnie zarządzane oddziały.
We współpracy z operatorami centrów danych integrator może dostarczać rozwiązania SD-WAN, zapewniając przedsiębiorstwom z wieloma oddziałami przede wszystkim szybkie, zautomatyzowane podłączanie do infrastruktury IT kolejnych placówek oraz bardziej efektywny sposób obsługi krytycznych aplikacji SaaS i możliwość lepszego wykorzystania innych usług chmurowych. Z wielu badań wynika, że większość firm używa już przynajmniej kilku aplikacji dostarczanych w tym modelu i trend ten będzie się tylko pogłębiał. Jeśli wcześniej przewidywano, że światowy rynek SaaS będzie rósł w latach 2018–2023 w tempie ponad 20 proc. rocznie, to pandemia te szacunki podciągnęła wyraźnie w górę.
W ciągu najbliższych lat ma się też zmieniać model funkcjonowania centrów danych. Eksperci z firmy Vertiv przekonują, że coraz więcej danych będzie przetwarzanych w infrastrukturze brzegowej. Jak wynika z badania przeprowadzonego przez tego dostawcę, wyraźnie rośnie zapotrzebowanie na prowadzenie obliczeń bliżej użytkownika końcowego. W przypadku aplikacji, dla których najważniejszymi parametrami dotyczącymi ich wydajności są szybkość oraz małe opóźnienia w transmisji danych, jedynym sposobem na ich zagwarantowanie jest rozbudowa brzegu sieci.
Aby zaspokoić popyt na takie przetwarzanie, firmy poważnie myślą o rozwijaniu rozwiązań z zakresu infrastruktury brzegowej, ale ich budowanie może być skomplikowane. Jeśli ma ona uzupełniać chmurę publiczną czy własne centrum danych, należy rozważyć kwestie dotyczące oprogramowania i sprzętu, zaawansowanego zarządzania oraz wiele innych. Dlatego klienci będą współpracować z partnerami i dostawcami zapewniającymi wdrażanie rozwiązań obsługujących brzeg sieci w taki sposób, który umożliwi ich łatwe konfigurowanie i dostosowanie do indywidualnych potrzeb.
Artykuł Chmura wreszcie dojrzała pochodzi z serwisu CRN.
]]>Artykuł Multicloud: szanse i wyzwania dla integratorów pochodzi z serwisu CRN.
]]>– Jeśli korzystamy z telefonu jakiejś marki, to nie oznacza, że od tej samej firmy musi pochodzić nasza lodówka, telewizor czy pralka – zauważa Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.
Przykładowo, pakiet, który będzie atrakcyjny dla szybko rosnącego start-upuze względu na ofertę hostowania usług, może się niestety okazać niewystarczający w zakresie backupu. Trzeba będzie wówczas poszukać dodatkowego dostawcy, który zapewni odpowiednie usługi ochrony danych.
Obecnie bardzo modne i często traktowane jak synonimy są dwa określenia: multicloud i chmura hybrydowa. Przykładowo, w ankietach przeprowadzanych przez firmy analityczne respondenci twierdzą, że mają wdrożoną strategię multicloud, gdy w rzeczywistości często korzystają z hybrydowego środowiska IT z tylko jedną chmurą publiczną. I choć oba terminy się przenikają, dla ich rozróżnienia można przyjąć, że chmura hybrydowa odnosi się do niższych warstw stosu technologicznego i stanowi połączenie infrastruktury prywatnej (zarówno lokalnej, jak i hostowanej w obiekcie kolokacyjnym) z chmurą publiczną oraz narzędziami do orkiestracji, używanymi do wdrażania i równoważenia obciążeń pomiędzy dwoma środowiskami. W takim modelu najczęściej wykorzystuje się zasoby chmury publicznej przy regularnych lub epizodycznych wzrostach potrzeb obliczeniowych i pamięciowych. Po public cloud sięga się też często w celu tworzenia środowisk odpornych na awarie.
Zdaniem integratora
Wykorzystanie więcej niż jednej chmury daje klientowi wiele korzyści, jednak taka strategia powinna być realizowana przez organizację, która ma pełną świadomość wiążących się z tym wyzwań. Jednym z kluczowych obszarów jest konieczność rozwoju kompetencji zespołu IT w znacznie szerszym niż dotychczas obszarze oraz zapewnienie zgodności i bezpieczeństwa używanych aplikacji w każdej z planowanych do wykorzystania przez organizację chmur. Ma to szczególnie duże znaczenie w przypadku wdrażania w chmurze aplikacji wykorzystujących jej zaawansowane komponenty, przykładowo PaaS. Nie mniej istotne są kwestie związane z bezpieczeństwem oraz konieczność utrzymywania redundantnych połączeń sieciowych do każdej z chmur. Warto również pamiętać o tym, że każdą chmurę cechuje duża dynamika rozwoju jej usług. Ponieważ utrzymanie zespołu specjalistów o wysokich kompetencjach w technologiach chmurowych to duże wyzwanie dla każdej organizacji, tworzy się przestrzeń do zagospodarowania przez integratorów. Dzięki współpracy z różnymi klientami dysponują oni znacznie większym know-how w dziedzinie chmury niż typowa organizacja. Współpracując z dostawcami chmury i stale zwiększając kwalifikacje swojego zespołu, integratorzy są w stanie realizować dla klientów złożone usługi, pozostawiając w gestii klienta jedynie te, z którymi jest w stanie sam sobie poradzić.
Z kolei podejście multicloud dotyczy bardziej wdrażania i zarządzania złożonym środowiskiem chmurowym oraz sposobu, w jaki przedsiębiorstwa korzystają z usług wielu dostawców chmury, realizując swoje rozmaite potrzeby technologiczne lub biznesowe. Na zaawansowanym poziomie multicloud oznacza aplikacje natywne dla chmury, zbudowane z kontenerów i mikrousług, przy użyciu usług składowych dostarczanych przez różnych dostawców chmury.
Obie strategie stanowią obecnie główne kierunki rozwoju technologii chmurowej. Ich popularność wynika z tego, że pozwalają na szybsze wdrażanie chmury przy zachowaniu optymalnych kosztów.
– Specyfika niektórych projektów lub zakres przetwarzanych danych powodują, że firmy nie zawsze mogą sobie pozwolić na przejście do chmury publicznej. Multicloud i model hybrydowy stanowią wtedy alternatywę – tłumaczy Marcin Lebiecki, dyrektor Pionu Usług Cloud i Data Center w Asseco.
Część zasobów pozostaje wówczas w infrastrukturze data center, najczęściej działając w modelu chmury prywatnej. Niektóre usługi (np. Disaster Recovery as a Service) lub dodatkowe zasoby potrzebne tylko na jakiś czas (w tym przestrzeń dyskowa lub moc obliczeniowa) są natomiast dzierżawione z chmury publicznej.
Korzyści z wielu chmur
Chmura (a więc i multicloud) przynosi szereg niepodważalnych korzyści. Należy do nich przede wszystkim dostęp do kosztownych technologii bez inwestycji kapitałowych, płatność tylko za realne wykorzystanie, jak też skalowalność systemwów w zależności od aktualnego lub prognozowanego obciążenia. Sam multicloud, jako taki, może być atrakcyjny zwłaszcza ze względu na długoterminowe korzyści. Pozwala uniknąć uzależnienia się od jednego dostawcy i umożliwia dywersyfikację lokalizacji danych.
Dobrze zaprojektowana architektura cloud computingu zwiększa możliwości środowiska w zakresie skalowania, dostępności usług, bezpieczeństwa i ochrony przed utratą danych. Multicloud to także elastyczność i wprowadzanie zmian w organizacji w bardziej zwinny sposób. Dzięki korzystaniu z kilku dostawców usług chmurowych można dobierać te produkty z ich portfolio, które najlepiej będą odpowiadać konkretnym potrzebom w firmie. Nie trzeba wtedy martwić się o wydajność systemów – dzięki chmurze można błyskawicznie skalować obciążenie, co wpływa również na optymalizację kosztów.
– Możemy wtedy zoptymalizować budowę własnej infrastruktury, licząc na wsparcie dostawców usług zewnętrznych w tych obszarach, które będą tego wymagać – mówi Tomasz Pietrzak, Infrastructure Solutions Group i Senior Manager w Dell Technologies.
Z kolei w opinii Grzegorza Dobrowolskiego, dyrektora ds. sprzedaży rozwiązań Data Center & Virtualization w Cisco, firmy chcą swobodnie wybierać między dostawcami chmury, kierując się konkretną ofertą, miejscem przechowywania danych, zakresem oferowanych usług czy polityką dostawcy. Przekłada się to na optymalizację działania aplikacji i bezpieczeństwo, gdyż w przypadku wystąpienia awarii u jednego z dostawców, organizacja nie traci dostępu do wszystkich zasobów i łatwiej jest jej zapewnić ciągłość działania.
Warto podkreślić, że powstają obecnie rozwiązania oparte na standardowych, powszechnie dostępnych produktach różnych dostawców. Już sam ten fakt wpływa na wartość rozwiązania finalnego – zarówno od strony jakości programistycznej, jakości kodu, jak również stopnia przetestowania, stabilności rozwiązania oraz jego bezpieczeństwa.
– Wielu CIO podkreśla, że najdroższymi rozwiązaniami, biorąc pod uwagę zarówno proces wytwórczy, jak i utrzymanie, są rozwiązania niestandardowe, „szyte” pod kątem specyficznych potrzeb klienta. Oznacza to, że decyzja o ewentualnej inwestycji jest ważoną nakładów, jakich inwestycja wymaga i korzyści, jakie przyniesie – mówi Miłosz Błasiak, Support Solution Architect w HPE.
Poruszając się w świecie multicloud można zarówno ograniczyć się do rozwiązań absolutnie standardowych, jak również – wykorzystując je – stworzyć coś unikalnego, co zapewni danej firmie przewagę konkurencyjną. A zarówno jedno, jak i drugie, pozwala nie martwić się o infrastrukturę IT, gdyż ta jest zapewniana przez dostawcę usługi.
Żeby plusy nie przesłoniły minusów
Korzyści korzyściami, ale transformacja do chmury to również szereg wyzwań. Systemy starszej generacji nie są gotowe do pracy w modelu hybrydowym, a opóźnienie pomiędzy serwerem aplikacji a stacją kliencką może wynosić w przypadku chmur globalnych nawet powyżej 20 ms. Dlatego należy rozsądnie zaplanować działania, a punktem startowym, jak podkreślają specjaliści, powinno być przygotowanie planu migracji.
– Należy odpowiednio rozłożyć obciążenia, zminimalizować zbędną komunikację pomiędzy środowiskami, zapewnić maksymalny poziom bezpieczeństwa oraz odpowiednio oszacować koszty. Samodzielne przygotowanie projektu, bez wiedzy i doświadczenia, jest obarczone dużym ryzykiem – mówi Piotr Podlawski, Business Development Director – Cloud Computing w Beyond.pl.
Jednym z wyzwań, w przypadku wdrożenia strategii multicloud, jest odpowiednie zaprojektowanie całej architektury i zabezpieczenie systemów w taki sposób, by wszelkie dane pozostały bezpieczne i chronione przed atakami hakerskimi. Istotna jest również inwestycja w odpowiednie rozwiązania technologiczne, podobnie jak zbudowanie nowych kompetencji wśród pracowników działu IT. Powinni oni stale podnosić swoje kwalifikacje nie tylko w zakresie bezpieczeństwa, ale także obsługi samej chmury, by móc maksymalnie wykorzystać potencjał, jaki daje ta technologia.
Wreszcie wybór odpowiedniej chmury to kwestia zgodności z regulacjami, szczególnie w przypadku tak ściśle kontrolowanych branż jak banki czy ochrona zdrowia. Przepisy regulujące niektóre branże dość jasno precyzują, jakie warunki musi spełniać chmura, w której przechowane są na przykład dane medyczne czy finansowe. Nie oznacza to wcale, że firmy z tych branż nie mogą na przykład usług wirtualnej poczty przenieść do innego dostawcy, który lepiej spełnia ich potrzeby w danym zakresie.
Miłosz Błasiak zauważa, że korzystanie z chmury pociąga za sobą dostosowywanie się do cykli produkcyjnych i obsługowych dostawcy. W środowisku multicloud oznacza to konieczność „zgrania się” z wieloma różnymi dostawcami. I to nie tylko w kwestiach utrzymaniowych, ale również rozwojowych. Każdy z nich, planując ścieżkę ewolucji swojej oferty, nie będzie dbał o jej zgodność z produktami konkurencyjnych dostawców. Będzie raczej walczył o umocnienie swojej pozycji i promowanie własnych rozwiązań o cechach odpowiadających produktom konkurencyjnym, aby w ten sposób przejmować większy kawałek „tortu”, jakim jest system klienta.
Być ostrożnym i gotowym
Żeby móc skorzystać z benefitów i nie dać się złapać w pułapkę wzajemnych zależności, należy podchodzić do koncepcji multicloudu ostrożnie i pragmatycznie. Powinno to polegać na stałym monitorowaniu rozwoju oferty każdego z dostawców. Wskazane jest ograniczanie wzajemnych zależności usług poszczególnych marek do uzasadnionego minimum, z uwagi na potencjalne ryzyko i koszty związane z utrzymywaniem złożonych środowisk.
– Trzeba też kontrolować koszty przesyłania danych pomiędzy różnymi dostawcami usług chmurowych. Są trudne do oszacowania, a potrafią wygenerować dużą pozycję w budżecie. No i należy być gotowym do zmiany usługodawcy, jeśli konkurencja okaże się atrakcyjniejsza lub jeśli planowany przez dostawcę rozwój wykorzystywanego rozwiązania okaże się rozbieżny z planami firmy – mówi Miłosz Błasiak.
Strategię wdrażania multicloudu najczęściej przedsiębiorstwa zaczynają od klasyfikacji usług i danych, które ze względu na istotę biznesową powinny pozostać wewnątrz organizacji (chmura prywatna) oraz tych, które mogą być realizowane przez dostawców usług zewnętrznych (chmura publiczna).
– Można rozpocząć od mniejszych projektów, dzięki czemu sprawdzimy jak przebiega współpraca z danym dostawcą i stworzymy odpowiednie procesy oraz procedury dotyczące zasad przetwarzania danych w chmurze. Z drugiej strony warto projektować te rozwiązania w taki sposób, by odpowiadały nie tylko teraźniejszym wymaganiom, ale by można było także łatwo rozwinąć potrzebne funkcje w przyszłości – twierdzi specjalista Dell Technologies.
Komentując wyniki raportu „Chmura publiczna w Polsce” Jakub Garszyński, lider usług cloud w Deloitte, zauważa, że jeśli firmy postrzegają rozwój kompetencji w obszarze korzystania z chmury jako wyzwanie, to multicloud w kontekście zarządzania wieloma chmurami jednocześnie staje się wyzwaniem do kwadratu. Tym bardziej, że rynek narzędzi wspomagających to zadanie znajduje się dopiero w fazie rozwoju. W praktyce przenoszenie obciążeń i danych z jednej chmury do drugiej nie jest takie proste, jak mogłoby się wydawać.
Co wybierają polskie firmy?
Jak wynika z raportu „Chmura publiczna w Polsce”, opublikowanego przez ICAN Institute i Deloitte (przy wsparciu merytorycznym Google Cloud), zdecydowana większość badanych firm korzystających z chmury publicznej (84 proc.) współpracuje z jednym dostawcą. Zaletą tego podejścia ma być zapewnienie jednego standardu stosowanego w architekturze, systemach czy zapewnianiu bezpieczeństwa. Minusem współpracy z jednym dostawcą jest uzależnienie się od partnera w zakresie oferowanych przez niego rozwiązań oraz bezpieczeństwa i stabilności kooperacji. Z kolei firmy, które korzystają z usług co najmniej dwóch dostawców chmury (16 proc.), kierują się:
Według respondentów badania przenoszenie systemów między chmurami nie stanowi dużego wyzwania, ponieważ rozwiązania są kompatybilne. Drugim ważnym argumentem za stosowaniem wariantu multicloud jest dostęp do rozwiązań oferowanych przez różnych dostawców. Minusem opcji multicloud według badanych są koszty związane z transferem danych między różnymi dostawcami chmury.
– Dlatego multicloud lepiej obecnie postrzegać nie jako trzymanie w jednej chmurze wszystkiego, ale jako wybranie pewnych systemów, które będziemy uruchamiać w chmurze A, oraz takich, które wdrożymy w chmurze B. Nie oczekując przy tym, że bardzo łatwo dokonamy zamiany – proponuje ekspert Deloitte’a.
Zdaniem specjalisty
Multicloud jest trendem, który powstał i rozwija się z tego powodu, żeodpowiada na zapotrzebowanie rynku. Dlatego integrator powinien budować swoją ofertę, utrzymując niezależność od warstwy niższej stosu technologicznego – w taki sposób, aby dana usługa mogła być uruchamiana na platformach różnych dostawców. Jest w tym też miejsce na budowę rozwiązania on-premise, które swoim charakterem jest zgodne z podejściem chmurowym. Takiego, które będzie elastyczne i płatne proporcjonalnie do poziomu wykorzystania. Gdy klient posiada rozwiązania u siebie, to ogranicza ryzyko związane z ukrytym kosztem transferu trudnych do przewidzenia ilości danych.
Właściwie wdrożona strategia multicloud eliminuje ryzyko uzależnienia się przedsiębiorstw od jednego dostawcy usług chmurowych (tzw. vendor lock-in). Rola integratorów systemów IT w jej tworzeniu jest kluczowa. Złożoność i różnorodność wariantów, którymi mogą podążać klienci oraz szeroka gama zewnętrznych dostawców usług powoduje, że z całą pewnością będą oni potrzebowali wsparcia doświadczonych firm integratorskich. Takie elementy jak analiza obecnego środowiska usług IT, przygotowanie i przeprowadzenie ścieżki migracji do nowej, optymalnej architektury, czy też budowanie kompetencji wewnątrz działów IT klienta biznesowego to obszary, do których integrator może wnieść istotną wartość dodaną.
Multicloud nie jest rozwiązaniem, które wprowadza się odgórnie. To raczej proces, który postępuje wraz z rozwojem organizacji i kolej-nymi jej krokami na ścieżce cyfrowej transformacji. Firmy powinny dokładnie przyjrzeć się usłudze, którą chcą powierzyć dostawcy chmurowemu i wybrać go pod tym właśnie kątem. Co stanowi wyzwanie, zwłaszcza dla tych, które nie dysponują własnym zapleczem eksperckim w zakresie cyberbezpieczeństwa. Dlatego tak ważna jest rola integratorów, którzy nie tylko dostarczą klientowi usługę, ale pomogą dobrać odpowiedni model do jego potrzeb, zoptymalizują go kosztowo i zapewnią wsparcie przy wdrożeniu.
Pandemia koronawirusa przyniosła wzrost popytu na rozwiązania wspierające pracę zdalną, dla której naturalnym środowiskiem jest public cloud. Firmy aktywnie pracują nad stworzeniem procesów zapewniających ciągłość ich działania w przypadku kolejnych fal epidemii. Odnotowujemy większe zainteresowanie usługami zapasowego centrum danych (DRC) czy BaaS (Backup as a Service). Łączenie własnych środowisk z rozwiązaniami chmurowymi dostarczanymi przez centra danych i hyperscalerów pozostanie dominującym trendem na rynku. Dlatego w wyborze partnera technologicznego warto zwrócić uwagę na kompleksowość jego oferty chmurowej i kompetencje cross-cloudowe.
Artykuł Multicloud: szanse i wyzwania dla integratorów pochodzi z serwisu CRN.
]]>Artykuł Infrastruktura data center: wydajność i bezpieczeństwo pochodzi z serwisu CRN.
]]>Centrum danych powstaje po to, by stworzyć środowisko dla aplikacji, które są najważniejsze z biznesowego punktu widzenia. Dla zarządzających centrami danych istotny będzie czas implementacji aplikacji i optymalizacja kosztów związanych z budową rozwiązania, jego uruchomieniem, a później administrowaniem. Niemniej ważna jest dostępność, zarówno jeśli chodzi o ciągłość biznesową i odtwarzalność, jak i skalowanie i migrację obciążeń w sytuacjach kryzysowych. Kluczową sprawą pozostaje bezpieczeństwo danych i aplikacji.
– W związku z tym poszukuje się nowych rozwiązań, które usprawniają działanie środowisk IT, a także nowych modeli ich dostarczania – mówi Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center w Cisco.
Podstawą tworzenia nowoczesnych aplikacji typu cloud native stają się w centrach danych platformy kontenerowe. Poszczególne elementy aplikacji budowanych w modelu mikrousług dużo wydajniej i łatwiej wirtualizuje się w formie kontenerów lub małych i lekkich modułów, które współużytkują jądro systemu operacyjnego i przez to uruchamiają się o wiele szybciej niż klasyczne maszyny wirtualne. W tym obszarze niekwestionowanym zwycięzcą i de facto standardem wydaje się Kubernetes.
– Z ekonomicznego punktu widzenia najbardziej zasadne jest wdrożenie gotowego i kompletnego rozwiązania kontenerowego, dzięki któremu firmy nie muszą poświęcać czasu na budowanie i integrację całego systemowego „podwozia”. Mogą za to skupić się na istocie sprawy, czyli tworzeniu i wdrażaniu oprogramowania aplikacyjnego – mówi Paweł Albert, Advisory Systems Engineer w Dell Technologies.
Problemem jest jednak wdrażanie i konfigurowanie wielu kontenerów dla wielu mikrousług oraz zarządzanie nimi. Zadanie jest jeszcze bardziej skomplikowane, jeżeli w skład środowiska IT wchodzi wiele chmur publicznych i prywatnych. Pomocne mogą być platformy do zarządzania kontenerami w środowiskach klasy produkcyjnej, które dzięki automatyzacji wielu procesów pozwalają zaoszczędzić czas zespołów IT. Migracja do chmury nie stanowi jednak rozwiązania wszystkich problemów. O ile obecnie wiele aplikacji od razu powstaje w chmurze, starsze z nich nie zawsze są dostosowane do wymogów modelu SaaS. Niektórych wręcz nie da się przenieść do chmury i muszą pracować w maszynach wirtualnych.
– Ważne jest, żeby aplikacji nie traktować jako osobnego elementu środowiska IT. Poprawność ich działania należy oceniać, biorąc pod uwagę cele biznesowe, które pozwalają spełnić – twierdzi Grzegorz Dobrowolski.
Przykładowo, chatbot odpowiadający za kontakt z klientem powinien przyczynić się do mniejszej liczby zapytań wysyłanych innymi kanałami. Jeżeli tak się nie dzieje, może to oznaczać, że aplikacja jest nieskuteczna, mimo że pod względem technicznym funkcjonuje dobrze. Rozwiązaniem będzie monitorowanie działania aplikacji pod kątem procesu biznesowego, jaki realizuje. Tak można zidentyfikować, w którym miejscu procesu występuje problem. Optymalizując działanie aplikacji, nie należy zapominać o efektywnym zarządzaniu infrastrukturą. W takim przypadku z pomocą przychodzą narzędzia ułatwiające administrowanie zasobami, szybkie reagowanie na zmieniające się potrzeby i zapewniające wydajność dostosowaną do obciążeń.
Coraz większą popularność zyskuje przy tym model samoobsługowy, znany z rozwiązań chmurowych, w którym odbiorca końcowy (właściciel aplikacji) samodzielnie i bez potrzeby angażowania administratorów jest w stanie wdrażać i konsumować zasoby IT. Infrastruktura centrum danych staje się „definiowana programowo”, a większość inteligencji i logiki operacyjnej jest na poziomie oprogramowania – tak wygląda w praktyce realizacja koncepcji SDDC (Software-Defined Data Center).
– Infrastruktura definiowana programowo doskonale współgra z upowszechnianiem się modelu DevOps. Infrastructure as code to idea, w której zarządzanie i wdrażanie zasobów centrum danych odbywa się za pomocą oprogramowania w modelu deskrypcyjnym, oznacza przetwarzanie plików definicji, opisujących pożądany stan zasobów infrastruktury dla potrzeb konkretnego środowiska, np. w formacie YAML lub JSON. Nieodzownym elementem w tym modelu jest komunikacja z infrastrukturą przez API – mówi Paweł Albert.
Wydajność i optymalizację procesów zachodzących w data center zapewnia coraz częstsze wykorzystanie algorytmów sztucznej inteligencji – machine learningu (ML) i deep learningu (DL) – w samej infrastrukturze: pamięciach masowych, rozwiązaniach sieciowych i serwerowych. Stając się coraz bardziej „inteligentnymi”, urządzenia analizują swoje dane telemetryczne i na ich podstawie uczą się, jak usprawniać funkcjonowanie – działać wydajniej, przewidzieć potencjalną usterkę czy też zmodyfikować obsługę operacyjną.
Algorytmy ML/DL można zaszyć na poziomie operacyjnym – w mechanizmach kompleksowego zarządzania i monitoringu poszczególnych środowisk w centrum danych. Wykorzystuje się wtedy zaawansowaną analitykę do proaktywnego utrzymania czy wykrywania anomalii w działaniu komponentów, które mogą skutkować niedostępnością usług lub spadkiem ich wydajności.
Mechanizmy sztucznej inteligencji sprawdzają się też w narzędziach z obszaru cyberbezpieczeństwa centrum danych. Odpowiednio zaprojektowane i wytrenowane algorytmy ML/DL potrafią lepiej oceniać i wykrywać potencjalne zagrożenia oraz próby ataków hakerskich. A biznes nie chce rezygnować z elastyczności, jaką daje chmura, i chce mieć dostęp do zasobów centrum danych zarówno w sieci wewnętrznej, jak i zewnętrznej. Można go uzyskać bez ryzyka narażenia się na cyberatak dzięki szyfrowanym połączeniom i rozwiązaniom takim jak SD-WAN.
– Chcąc prawidłowo zabezpieczyć zasoby firmowe, należy zadbać również o wieloetapowe uwierzytelnianie, segmentację i ochronę przed cyberatakami, co nie będzie możliwe bez właściwego wglądu i dostępu do bieżących informacji o zagrożeniach – mówi Grzegorz Dobrowolski.
Większe bezpieczeństwo to także nowoczesne rozwiązania ochrony danych, które podążając za najnowszymi trendami w data center, lepiej zaspokajają potrzeby jego użytkowników.
– Mogą one w sposób zoptymalizowany zabezpieczać zarówno „tradycyjne” centra danych, bazujące na serwerach bądź maszynach wirtualnych, jak i nowoczesne środowiska kontenerowe, o znacząco odmiennych wymaganiach. Kluczowe staje się integrowanie mechanizmów odzyskiwania danych, które nierzadko są ostatnią deską ratunku, przykładowo w razie ataku ransomware – podkreśla Paweł Albert.
Jeśli chodzi o rodzaj sprzętu, to w porównaniu z tradycyjnymi platformami zintegrowanymi i systemami konwergentnymi na znaczeniu zyskuje infrastruktura hiperkonwergentna (HCI – hyperconverged infrastructure). Stopniowo staje się ona standardem w nowoczesnych, definiowanych programowo centrach danych. Według IDC globalna sprzedaż HCI była w trzecim kwartale 2019 r. większa zarówno od systemów konwergentnych, jak i zintegrowanych. Rynek HCI wygenerował przychody o wartości ponad 2 mld dol., co stanowi wzrost o prawie 19 proc. rok do roku. Łączna sprzedaż infrastruktury hiperkonwergentnej w całym ubiegłym roku ma zdaniem IDC wynieść blisko 7,5 mld dol.
– W świecie wirtualizacji i konteneryzacji hiperkonwergencja pozwala na stworzenie zintegrowanego środowiska dla aplikacji, obejmującego warstwę sieciową, obliczeniową i pamięci masowych. Umożliwia szybką implementację, łatwą rozbudowę i zarządzanie. To środowisko on-premise oferujące tę samą paletę zalet co chmura, z łatwością uruchomienia i administrowania na czele – mówi Grzegorz Dobrowolski.
Jak wynika z raportu Magic Quadrant for Hyperconverged Infrastructure firmy Gartner, do 2023 r. 70 proc. przedsiębiorstw będzie używać infrastruktury hiperkonwergentnej (w porównaniu z mniej niż 30 proc. w 2019 r.). Firmy coraz chętniej wykorzystują hiperkonwergencję do obsługi swoich krytycznych aplikacji, a HCI znajdują szersze zastosowanie także w środowiskach brzegowych (edge computingu). Dostawcy infrastruktury hiperkonwergentnej wykorzystują w większym stopniu funkcje sztucznej inteligencji, by automatycznie zwiększać wydajność i zapobiegać awariom w centrach danych.
– To bardzo popularny w ostatnich latach model rozwoju centrów danych. Rozwiązania te znacząco upraszczają i przyspieszają opracowanie, wdrożenie, a także utrzymanie kompletnej infrastruktury. Dla wielu firm może być to jednocześnie doskonałe remedium na braki kadrowe wobec coraz większego zapotrzebowania na specjalistów IT – mówi Paweł Albert.
Jeśli rynek infrastruktury hiperkonwergentnej utrzyma obecne tempo wzrostu, co jest bardzo prawdopodobne, już w tym roku jego wartość przekroczy 10 mld dol.
Dla zdecydowanej większości klientów inwestycje w infrastrukturę swoich centrów danych to tradycyjnie CAPEX, a nie OPEX. Ale chmura doprowadza do zmiany w sposobie myślenia klientów o zakupie i wykorzystaniu IT. Starają się do tego dostosować dostawcy infrastruktury, tworząc nowe oferty, z których można korzystać na zasadach „pay per use”, w modelu bazującym na konsumpcji i wydatkach operacyjnych, a nie inwestycyjnych. Kładą też duży nacisk na zapewnienie nabywcom usług o wartości dodanej. Najwięksi gracze na rynku (np. Dell Technologies, HPE i Lenovo ) zakładają, że klienci będą chcieli kupować infrastrukturę centrum danych „as a service”.
– Sposób, w jaki użytkownicy konsumują technologie IT, staje się coraz elastyczniejszy. Na znaczeniu zyskuje nowoczesny model finansowy, w którym rozwiązanie jest kupowane w formie usługi. Dotyczy to również infrastruktury. Z racji przejścia na koszty abonamentowe przy takiej usłudze firmy nie muszą dysponować już kilkumilionowymi budżetami na start, co często wykracza poza ich możliwości – mówi Paweł Albert.
Podobnie jest z dostarczaniem zasobów infrastruktury do konsumentów – użytkowników końcowych, w tym właścicieli aplikacji biznesowych. Model usługowy „IT as a service”, zyskuje na znaczeniu i staje się coraz popularniejszy. W przypadku elastycznych modeli konsumpcji, ważne są również elastyczne modele rozliczeniowe „pay as you grow”, w których klient płaci za tyle zasobów, ile udało mu się wykorzystać. Jednocześnie, gdyby jego zapotrzebowanie nagle wzrosło, dostęp do kolejnych rezerw powinien być zapewniony od ręki – na żądanie. Są to mechanizmy doskonale znane z chmur publicznych, jednak od pewnego czasu podobne modele obecne są w ofertach niektórych dostawców infrastruktury dla lokalnych centrów danych. Niewątpliwie zapewniają one dużą elastyczność oraz efektywność kosztową w procesie organizacji środowisk IT we własnych DC.
Jeśli mamy do czynienia z usługą, w ramach której z całej oferty rozwiązań klient wybiera potrzebne komponenty i z nich buduje środowisko we wskazanym przez siebie miejscu, należy uwzględniać zmiany zapotrzebowania na ogólnie rozumianą moc obliczeniową przez instalowanie komponentów nadmiarowych (w ilości ustalonej z użytkownikiem). Pozostają one w pełnej gotowości do uruchomienia i podjęcia zwiększonego obciążenia, a całość konfiguracji jest wyceniana w umownych jednostkach rozliczeniowych. Z końcem każdego miesiąca wyniki pomiaru poziomu wykorzystania środowiska, wyrażone we wspomnianych jednostkach rozliczeniowych, stają się podstawą do wystawienia miesięcznej faktury. Warunki przewidują stały cennik wartości poszczególnych jednostek rozliczeniowych przez cały okres trwania usługi. Obowiązuje opłata minimalna definiowana najmniejszym zapotrzebowaniem na zasoby infrastruktury. Ważne jest także to, że gdy klient wykorzystuje coraz więcej jednostek rozliczeniowych, ich cena spada.
– Usługa udostępniania mocy obliczeniowej powinna łączyć w sobie trzy kluczowe dla firm cechy: prostotę i przejrzystość rozliczenia, elastyczność infrastruktury oraz ekonomiczność, co umożliwia model rozliczenia bazujący na mierzonym poziomie wykorzystania infrastruktury – podsumowuje Miłosz Błasiak, Support Solution Architect w HPE.
Zdaniem integratora
Piotr Kuczmarski, prezes zarządu, Infrastructure & Business Consulting Group
Wdrażamy rozwiązania, w których dostarczana infrastruktura centrum danych staje się własnością klienta. Większość projektów dotyczy sektora publicznego i bankowego, gdzie inny model finansowania sprzętu niż jego zakup najczęściej nie wchodzi w grę. Rzeczywiście pojawiają się na rynku oferty usługowe polegające na tym, że właścicielem infrastruktury pozostaje dostawca, a serwery lub macierze są wstawiane do klienta na zasadach leasingu. Nasi klienci nie są jednak zainteresowani wynajmem. W ich przypadku problemem mogłyby być kwestie związane chociażby z własnością dysków z danymi. Bardzo często do standardowej gwarancji dokupowana jest taka opcja, że nośniki pamięci masowej, ze względów bezpieczeństwa, nigdy nie opuszczają firmy klienta. Jeśli korzystano by z modelu usługowego, w którym firma nie jest właścicielem sprzętu, to ten problem musiałby być jakoś rozwiązany. Pozostają też kwestie księgowe i związane z planowaniem budżetów. W tym przypadku dużo musiałoby się zmienić, żeby klienci zaczęli kupować usługę, zamiast inwestować w sprzęt. Oczywiście taki model funkcjonuje od dawna w przypadku chociażby samochodów, więc można go sobie wyobrazić także w odniesieniu do infrastruktury centrum danych. Być może łatwiej go zastosować w mniejszych firmach, których raczej nie obsługujemy.
Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center, Cisco
Ważnym trendem na rynku rozwiązań dla centrów danych jest konteneryzacja. Ma to związek ze zmieniającym się sposobem korzystania z aplikacji i ich migracją do chmury, co często zmienia architekturę samych aplikacji. Użytkownicy oczekują, że będą one „lekkie”, łatwo i szybko dostępne z dowolnego miejsca. Z kolei developerom zależy na sprawnym wdrażaniu zmian i wprowadzaniu produktu na rynek przy jak najmniejszych zakłóceniach. To wpływa na sposób tworzenia aplikacji. Często są one budowane w modelu mikrousługowym, co umożliwia sprawniejszą i wydajniejszą wirtualizację.
Paweł Albert, Advisory Systems Engineer, Dell Technologies
Obserwujemy u wielu firm coraz większą skłonność do inwestowania w zaawansowane narzędzia analityczne, która wynika ze zrozumiałej chęci monetyzacji nowych pomysłów i idei. Należy przy tym pamiętać, że jednym z istotnych warunków takiego działania powinno być zapewnienie odpowiednio wydajnych platform sprzętowych. Przykładem może być użycie pamięci typu flash. W połączeniu z protokołem NVMe i technologią SCM (Storage Class Memory) umożliwiają one szybsze dostarczanie danych. W rezultacie można je natychmiast poddać analizie i uzyskać cenne z biznesowego punktu widzenia informacje.
Miłosz Błasiak, Support Solution Architect, HPE
Infrastruktura „as a service” jest wydajna, bo stale wykorzystuje najnowsze technologie i tylko takie, jakie są potrzebne. Jest bezpieczna, bo środowisko może być zaopatrzone w zasoby nadmiarowe, włączane „na żądanie”. Nagły wzrost zapotrzebowania na moc obliczeniową przestaje być problemem. Środowisko jest zlokalizowane tam, gdzie wskaże klient, z wszelkimi adekwatnymi środkami bezpieczeństwa fizycznego. Całość jest objęta wsparciem serwisowym o starannie dobranym zakresie. Usługa jest też ekonomiczna, ponieważ płatność dotyczy tylko tego, co zostało wykorzystane. Im większe środowisko, tym niższa cena jednostki rozliczeniowej.
Marek Okularczyk, Business Development Executive, Lenovo DCG Poland
Następuje ewolucja rynkowych modeli korzystania z ICT w kierunku środowisk wysokowydajnych, dynamicznie skalowalnych, łatwo i szybko adaptujących się do nowych potrzeb. Takich, które realizuje się coraz częściej w formule hybrydowej, a przy tym są bezpieczne i efektywne kosztowo, na zasadzie „płacę tylko za to, czego używam”. Do tego wszystkiego musi dostosować się branża. Żeby zgodnie ze postępującymi zmianami lepiej zaspokajać potrzeby naszych klientów, wdrażamy więc kolejne „inteligentne” rozwiązania, obejmujące łańcuch dostaw, obsługę klienta i procesy serwisowe.
Cezary Gutowski, kierownik wsparcia sprzedaży, Secure Power, Schneider Electric
W dobie postępującej cyfryzacji, integracji środowisk IT i OT oraz rozwoju Internetu rzeczy coraz większą rolę będą odgrywać rozwiązania typu micro data center. To wstępnie skonfigurowane, przetestowane i zintegrowane miniaturowe centra danych, zamknięte w bezpiecznej obudowie, które można szybko implementować na brzegu sieci, by obsługiwały aplikacje wymagające małych opóźnień w komunikacji i dużych przepustowości. Realizowany w taki sposób model edge computing odpowiada na potrzeby przede wszystkim sektora handlowego, ochrony zdrowia i produkcji.
Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv
Mimo że przetwarzanie w chmurze nadal pozostaje ważną częścią strategii IT większości przedsiębiorstw, to jednak wyraźnie widać postępującą zmianę w ich podejściu. Przede wszystkim starają się dostosować swoje środowisko IT do potrzeb użytkowanych aplikacji. Staje się jasne, że firmowe centra danych mają się dobrze, ewoluując w kierunku środowisk hybrydowych. Przedsiębiorstwa dostrzegają też pilną potrzebę przeniesienia przetwarzania części danych na brzeg sieci. Jesteśmy więc świadkami pojawienia się zupełnie nowego segmentu rynku, stymulowanego potrzebą umieszczenia rozwiązań przetwarzających dane bliżej ich użytkowników.
Przedsiębiorstwa coraz częściej decydują się na hybrydowy model przetwarzania danych, będący połączeniem chmury publicznej i prywatnej. Stawiają też na rozbudowę zasobów na brzegu sieci, wokół jej zmodyfikowanego szkieletu. Wykorzystanie architektury hybrydowej zapewnia firmom zachowanie kontroli nad danymi wrażliwymi, jednocześnie zaspokajając potrzeby związane ze stale rosnącym wolumenem informacji i koniecznością przetwarzania ich bliżej konsumenta.
– W takim nowym ekosystemie danych kluczowe jest zagwarantowanie łączności w środowisku IT i dostępności informacji. Konieczne staje się więc zwrócenie większej uwagi na bezproblemową komunikację między rdzeniem sieci, jej brzegiem i chmurą – mówi Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics w firmie Vertiv.
Na brzegu sieci będzie funkcjonować coraz więcej rozwiązań Internetu rzeczy. Rośnie też potrzeba przetwarzania tam danych i wykorzystania usług analitycznych w czasie rzeczywistym. W 2020 r. i następnych latach będzie przybywać aplikacji wymagających obliczeń dokonywanych jak najbliżej użytkowników końcowych. W rezultacie niezmiennie rośnie rola modelu edge computing.
Według szacunków Gartnera do 2022 r. aż 75 proc. danych generowanych przez przedsiębiorstwa będzie tworzonych i przetwarzanych poza tradycyjnym centrum danych lub chmurą (w porównaniu z mniej niż 10 proc. w 2018 r.). To właśnie edge computing zapewnia podstawowe funkcje obliczeniowe w określonej lokalizacji – tam, gdzie są one potrzebne. A potrzeba ta coraz częściej dotyczy brzegu sieci. Fala nowych technologii – od 5G, przez Internet rzeczy, po sztuczną inteligencję – przyniesie jeszcze więcej danych, które będą musiały być przetwarzane w pobliżu miejsca ich powstawania. Przełoży się to na wzrost zapotrzebowania klientów na małe centra przetwarzania danych.
Integratorom stwarza to możliwość dostarczania, wdrażania, a także obsługiwania centrów danych w skali mikro na brzegu sieci. Tego rodzaju infrastruktura jest tworzona dla aplikacji, które (jako wrażliwe na opóźnienia lub wymagające dużych przepustowości) nie nadają się do obsługi w hiperskalowalnych centrach danych chmury publicznej, a nawet w średniej wielkości lokalnych obiektach kolokacyjnych. W przeciwieństwie do tradycyjnych placówek mikro- i minicentra danych są budowane, konfigurowane i testowane w fabryce producenta, a następnie w całości dostarczane do klienta. Ich skala zapotrzebowania na energię będzie się wahać od kilku do kilkuset kW i można się spodziewać na rynku coraz bogatszej oferty tego typu systemów.
Odnawialne źródła energii w centrum danych
Z badania przeprowadzonego na zlecenie Equinixa wśród osób decydujących o infrastrukturze IT w firmach wynika, że 45 proc. z nich oczekuje, by ich infrastruktura informatyczna była zrównoważona pod względem ekologicznym. Nic dziwnego, że większość producentów zwraca coraz większą uwagę na ochronę środowiska, głosząc potrzebę tworzenia bardziej przyjaznych dla przyrody centrów danych, w tym wykorzystywania energooszczędnych rozwiązań. W tym celu stosowane są innowacyjne systemy chłodzenia cieczą albo powietrzem z zewnątrz czy zaawansowane narzędzia do monitorowania centrów danych. Od dłuższego czasu właściciele największych centrów danych, jak Facebook, Google czy Microsoft, chwalą się wysokimi wskaźnikami wykorzystania odnawialnych źródeł energii. Obecnie, wobec konieczności jak najbardziej efektywnego gospodarowania energią oraz wymogów regulacyjnych, również mali operatorzy będą w coraz większym stopniu stawiać na „zieloną energię”, uzyskiwaną ze słońca, z wody czy biomasy.
Artykuł Infrastruktura data center: wydajność i bezpieczeństwo pochodzi z serwisu CRN.
]]>