Artykuł Centra danych: do chmury wciąż za daleko pochodzi z serwisu CRN.
]]>Nie bez powodu więc w strategii działania największych dostawców usług chmurowych i hostingowych na tym rynku, takich jak Amazon Web Services, Microsoft Azurei Google Cloud Platform, na stałe zagościło słowo „hiperskalowalność”. Ponieważ tacy operatorzy kontrolują połowę branży centrów danych, konieczne było zastosowanie specjalnego podejścia, gwarantującego optymalne wykorzystanie zasobów.
Ciekawostką jest przy tym fakt, że – w pewnym sensie wbrew nazwie – takie centra danych nie zawsze charakteryzują się olbrzymią wielkością, a raczej sposobem organizacji przetwarzania danych. I to pod wieloma względami, w tym zapotrzebowania na moc obliczeniową, przestrzeń dyskową, przepustowość łączy sieciowych, ale także kwestie ekologiczne (w celu zmniejszenia wydzielania ciepła lub bardziej efektywnej dystrybucji energii).
W Polsce obiekty o takiej skali działania oczywiście raczej nie będą powstawać. Tajemnicą poliszynela jest fakt, że AWS, Microsoft i Google, wprowadzając na polski rynek swoje usługi chmurowe, podpisali z polskimi liderami rynku centrów danych wieloletnie i restrykcyjne umowy hostingowe i/lub kolokacyjne (przy czym wszystkie strony, pytane o ten fakt, nabierają wody w usta…). Jednak polscy klienci nadal są niechętni usługom chmurowym, być może więc w ich gusta trafi nowy trend obserwowany już na globalnym rynku centrów danych.
Gdy usługi świadczone w dużych publicznych chmurach obliczeniowych zyskiwały na popularności, ich dostawcy kreślili wizje, że wkrótce będzie to jedyny model przetwarzania danych. Użytkownicy prywatni i biznesowi mieli dysponować wyłącznie różnego typu terminalami (począwszy od urządzeń mobilnych, poprzez stacjonarne, aż po duże ekrany telewizorów), za pomocą których będą łączyć się z zasobami w chmurze. O ile koncepcja ta sprawdziła się w przypadku niektórych rodzajów zastosowań, głównie tych, gdzie w grę wchodzi długotrwały streaming danych (backup, odtwarzanie dźwięku czy obrazu), tak na potrzeby obliczeń „wrażliwych” na czas dostępu konieczne okazało się szukanie alternatywy dla chmury.
Od tego momentu producenci rozwiązań dla centrów danych rozpoczęli konsekwentne promowanie hasła „edge”, wskazującego, że to właśnie na brzegu sieci i środowiska IT, a nie w jego rdzeniu, są tworzone lub pozyskiwane dane, jak też w bardzo dużym stopniu przetwarzane. Do takiego stanu przyczynia się rosnąca liczba urządzeń klienckich i różnego typu sensorów odpowiedzialnych za wytworzenie olbrzymiej masy pakietów, z których każdy zawiera relatywnie niewielką ilość danych. Przy nadal obserwowanych opóźnieniach łączy internetowych niewielki jest sens nieustannego przesyłania ich w czasie rzeczywistym do odległych centrów danych. Pojawiła się więc koncepcja, aby moc obliczeniową centrów danych „przyciągnąć” do miejsca, gdzie te dane są wytwarzane.
W efekcie na świecie powstaje coraz więcej mikrocentrów danych. Niektóre wręcz można określić mianem mobilnych – sprzęt zainstalowany jest w kontenerze przewożonym przez ciężarówkę, wyposażonym we własny system chłodzenia, zasilania i sprzęt do tworzenia kopii zapasowych. Takie podejście ma sens chociażby w przypadku obsługi dużych imprez sportowych lub koncertów. Tego typu rozwiązanie może również wyeliminować problemy z łącznością w odległych miejscach.
– W ramach projektu edge computing mogą być wdrażane różne systemy, nie tylko serwery. Część z nich to specjalistyczne urządzenia do zbierania i przetwarzania danych, przeznaczone do pracy w nietypowych warunkach. Znajdują one zastosowanie w przemyśle, handlu czy placówkach ochrony zdrowia. Wiele z nich musi być odpornych na warunki zewnętrzne, takie jak ciepło, zimno albo zapylenie. Często pracują w połączeniu z rozmaitymi czujnikami i urządzeniami, z którymi łączą się wykorzystując specyficzne dla nich protokoły przewodowe i radiowe. Poważnym odbiorcą technologii związanych z edge są firmy telekomunikacyjne, wdrażające je w pobliżu anten 5G – mówi Kajetan Mroczek, Senior Systems Engineer w Dell EMC.
W jego opinii, wybierając konkretną linię produktów do projektu edge computing, warto zwrócić uwagę, czy aby klient nie posiada już innych rozwiązań danego producenta. Istnieje bowiem duża szansa, że będzie można zarządzać nimi za pomocą tych samych narzędzi, które służą do obsługi klasycznej infrastruktury serwerowej. Ta spójność ma olbrzymie znaczenie dla klienta, bo zapewnia mu oszczędność kosztów na szkoleniach dla informatyków lub wręcz eliminuje konieczność zatrudniania dodatkowego personelu. Do wdrażania projektów infrastruktury muszą natomiast przygotować się integratorzy.
– Ważne jest, aby partner miał ogólną wiedzę o tego typu systemach oraz doświadczenie we współpracy z klientami z różnych branż, dzięki czemu będzie potrafił „nałożyć” na ich specyficzny świat procedury związane z przepływem informacji do centrum danych lub chmury. Stosowane w wielu przedsiębiorstwach urządzenia IoT czy różnego typu czujniki zazwyczaj generują dane niezrozumiałe dla systemów IT, trzeba więc umieć je odczytać, przekonwertować, a następnie w odpowiedni sposób przekazać do przetwarzania i ewentualnej dalszej analizy, na przykład statystycznej – mówi Maciej Kalisiak, Country Innovation Lead w polskim oddziale HPE.
Dodaje przy tym, że producent ten szuka obecnie partnerów, którzy mając kontakt z potencjalnymi klientami, nie muszą mieć doświadczenia we wdrażaniu projektów edge computing. HPE deklaruje pomoc na każdym etapie realizacji kontaktu, a jednocześnie chętnie podejmuje współpracę z integratorami, którzy mają specjalistyczną wiedzę, w tym dotyczącą analizy obrazu czy systemów przemysłowych.
Ilość sprzętu i oprogramowania w centrach danych, z którym trzeba sobie poradzić wraz ze wzrostem skali przetwarzanych informacji, będzie znacznie przewyższać możliwości pracowników. Dlatego operatorzy tego typu obiektów pokładają nadzieję w robotyce, która może okazać się bardzo wartościowym narzędziem już w niedalekiej przyszłości, umożliwiając przy tym obniżenie kosztów chłodzenia i eksploatacji.
Przykładów z ostatnich lat mamy już kilka. IBM eksperymentował z wędrującymi po wnętrzu centrum danych odkurzaczami Roomba, które wyposażone zostały w czujniki monitorujące temperaturę i wilgotność. Kilka lat temu AOL zbudowało skromne centrum danych, którego bieżąca obsługa nie wymagała żadnych pracowników. Z kolei Google wykorzystał roboty przemysłowe do zautomatyzowania procesu usuwania z macierzy zużytych lub uszkodzonych twardych dysków w tempie szybszym niż mógłby to zrobić człowiek.
Dzięki automatyzacji centrów danych możliwe staje się zarządzanie rutynowymi codziennymi czynnościami związanymi z monitorowaniem środowiska IT, jego konserwacją i zapewnianiem ciągłości biznesowej bez udziału personelu. W szafach i serwerach coraz częściej stosowane są czujniki środowiskowe, które umożliwiają śledzenie wielu krytycznych aspektów infrastruktury za pomocą oprogramowania. To powoduje, że już wkrótce będzie można wyjść poza typowe zarządzanie infrastrukturą i wdrożyć mechanizmy zarządzające, bazujące między innymi na sztucznej inteligencji.
Artykuł Centra danych: do chmury wciąż za daleko pochodzi z serwisu CRN.
]]>Artykuł Mikrocentra danych: biznes na brzegu sieci pochodzi z serwisu CRN.
]]>W najbliższej dekadzie mamy obserwować rozwój biznesu bazującego na integrowaniu i wdrażaniu tego typu rozwiązań, które zapewnią lokalne przetwarzanie i przechowywanie danych oraz zagwarantują minimalne opóźnienia w działaniu aplikacji Internetu rzeczy. Promotorzy edge computingu roztaczają wizję mikrocentrów danych w niemal każdym środowisku informatycznym – w nowym cyfrowym świecie mają one znaleźć zastosowanie w zakładach produkcyjnych, stać się elementem infrastruktury drogowej, znajdować się na wyposażeniu każdego biura.
Przykładowo mikrocentra danych mogą być wykorzystywane przez sklepy stacjonarne, które walcząc o klienta z serwisami e-commerce, stawiają na daleko idącą cyfryzację obsługi. Wdrażają więc rozwiązania Digital Signage, nowe formy płatności elektronicznych, wykorzystują rozszerzoną rzeczywistość (AR – Augmented Reality) i tworzą dla klientów np. wirtualne przymierzalnie. Jednocześnie starają się optymalizować swoje koszty poprzez cyfryzację łańcuchów dostaw. Jeśli dane generowane przez wprowadzane innowacje wędrowałyby setki czy tysiące kilometrów do chmury publicznej, to wynikające z tego opóźnienia mogłyby mieć bardzo negatywny wpływ na obsługę kupujących jak również wewnętrznych procesów w sklepach.
Roztaczając podobne wizje, dostawcy infrastruktury data center budują nową ofertę. Wśród producentów rozwiązań dla edge computingu i mikrocentrów danych znajdziemy m.in.: APC by Schneider Electric, Cisco Systems, Dell Technologies, Eatona, Huawei, HPE, Intela czy Vertiv. Co ciekawe, z ideą edge computingu pogodzili się także globalni dostawcy publicznego cloud computingu. AWS i Microsoft przygotowują już swoje rozwiązania do obsługi środowisk łączących chmurę z infrastrukturą na brzegu sieci.
Klasyczna architektura cloud computingu stworzyła przez ostatnie lata nowe możliwości biznesowe związane m.in. z wykorzystaniem pamięci masowej w chmurze czy wielkich zbiorów danych. Jednakże, gdy pojawia się coraz więcej aplikacji i danych, które wymagają obsługi w czasie rzeczywistym, chmura publiczna okazuje się za wolna. Powiązana z Internetem rzeczy koncepcja edge computingu zakłada, że dane z czujników i innych połączonych urządzeń są zbierane i analizowane lokalnie, a chmura i Internet są wykorzystywane tylko w szczególnych sytuacjach.
W zdecentralizowanym modelu brzegowym integrowana jest sieć, warstwa obliczeniowa i pamięciowa oraz zarządzanie z urządzeniami IoT i bramami do chmury. W rezultacie zapewnia się odpowiedzi systemu w czasie rzeczywistym, efektywne zbieranie danych i bezproblemowe działanie zaawansowanych aplikacji. Promotorzy takiego podejścia twierdzą, że jest ono tańsze od tradycyjnych architektur. Ma być ono także motorem wdrażania nowych technologii łączności, takich jak komórkowa sieć 5G.
Dla integratorów możliwości biznesowe związane z edge computingiem są tym większe, że tradycyjna architektura daje mniej okazji do modernizacji infrastruktury. W przypadku centralnego przetwarzania użycie najnowszych technologii może nie być wymagane. Inaczej jest z wdrożeniami na brzegu sieci, które mogą dotyczyć setek najróżniejszych systemów, w tym związanych z Internetem rzeczy, sieciami programowo definiowanymi, ale także bezpieczeństwem, a nawet drukowaniem.
Brzeg sieci może znajdować się w hali produkcyjnej, sklepie lub szpitalnej sali. Edge computing sprawdzi się w przemyśle wydobywczym – przy przewidywaniu awarii i katastrof. Analityka na brzegu sieci będzie mieć szczególne znaczenie w produkcji przemysłowej, bo maszyny muszą korzystać z danych przetwarzanych i analizowanych w ułamkach sekund, a każdy przestój wiąże się z dużymi stratami finansowymi. Wymiana i przetwarzanie danych z pominięciem „centrali” są istotne także w przypadku systemów zarządzania produkcją rolną, w których czujniki i urządzenia często nie są podłączone do chmury i komunikują się tylko ze sobą.
– Edge computing spełnia oczekiwania dotyczące zmniejszenia opóźnień wynikających z transmisji danych na długich dystansach między lokalnym terminalem a centralnymi zasobami zlokalizowanymi w chmurze – wyjaśnia Cezary Gutowski, kierownik wsparcia sprzedaży w APC by Schneider Electric.
Zwraca przy tym uwagę, że aplikacje takie jak poczta elektroniczna, wyszukiwarki oraz archiwizowanie danych nie
są szczególnie wyczulone na opóźnienia, natomiast transmisja danych w takich branżach, jak medycyna, przemysł
a także zarządzanie inteligentnym budynkiem, musi odbywać się w sposób płynny i niezakłócony, a połączone aplikacje muszą komunikować się ze sobą błyskawicznie.
• Piotr Żygadło, dyrektor Departamentu Rozwiązań, Dimension Data
Jako integrator widzimy w obszarze edge computingu dwa nurty. Pierwszy dotyczy modelu przetwarzania danych bazującego na środowisku hiperkonwergentnym złożonym z kilku gęsto upakowanych serwerów, których zasoby obliczeniowe, pamięciowe i sieciowe są w pełni zwirtualizowane. Dzięki niemu pojęcie centrum przetwarzania danych nabiera kształtu kilkudziesięciu lokalizacji z niedużą infrastrukturą informatyczną, które za sprawą wirtualizacji tworzą jedno logiczne data center. Korzyści z takiego rozwiązania to: przetwarzanie jak najbliżej źródła danych i niższe wydatki na przepustowość łączy, prosta wymiana uszkodzonych elementów przez dołożenie kolejnego standardowego serwera, jak również często niższe nakłady inwestycyjne.
Drugi nurt w obszarze IoT polega na tym, że dane zbierane przez szereg czujników są przetwarzane już w pierwszym kolektorze danych. Często jest to prosta aplikacja, wręcz w pamięci routera brzegowego, która zebrane dane przetwarza i przekazuje na przykład na lokalny wyświetlacz. Przykładem mogą być czujniki zajętości miejsca parkowania na danym piętrze parkingu – wyświetlacz informuje o zajętości piętra bez komunikowania się z centralnym ośrodkiem przetwarzania danych. Podobnie jest z czujnikami zapylenia powietrza, które zasilają tablicę informacyjną lokalnymi danymi.
Według MarketsandMarkets światowy rynek edge computingu ma zwiększyć swoją wartość z 1,47 mld dol. w roku 2017 do 6,72 mld dol. w roku 2020. W tym okresie średnia roczna stopa wzrostu wspomnianej branży ma wynieść 35,4 proc. Analitycy przewidują, że nie zabraknie klientów, którzy zdecydują się na wdrożenie mikrocentrów danych. Umieszczone w szafach rackowych bądź kontenerach systemy zawierają wszystkie komponenty „tradycyjnego” centrum danych, w tym chłodzenie, połączenia sieciowe, zabezpieczenia fizyczne, przeciwpożarowe i przed zalaniem oraz zasilanie gwarantowane (UPS). Są modele do zastosowania wewnątrz pomieszczeń oraz na zewnątrz (w tym w niesprzyjających warunkach środowiskowych). Niektóre mogą być na kółkach, co ułatwia ich instalację. Biznes micro data center stwarza nowe możliwości rozwoju dla dostawców sprzętowej i programowej infrastruktury oraz integratorów. Ci ostatni mają sporo okazji do dołożenia wartości dodanej do takich „pudełkowych” rozwiązań.
Wdrożenie mikrocentrów danych obejmuje kilka etapów. Pierwszym z nich jest montaż. Łatwe w instalacji rozwiązania kontenerowe stosowane są wszędzie tam, gdzie nie ma możliwości postawienia niezależnego budynku ani wygospodarowania osobnego pomieszczenia na centrum danych. Kolejne istotne elementy wdrożenia to bieżący serwis oraz konserwacja. Należy pamiętać, że infrastruktura narażona jest na nieoczekiwane przestoje spowodowane zużyciem komponentów. Ochronić klienta przed tym może integrator oferujący usługi i unikalną wiedzę zdobytą podczas podobnych wdrożeń.
– Centra danych to wciąż krytyczny element infrastruktury, dlatego wymagają bieżącego monitorowania, stałej opieki, a także znajomości potrzeb wynikających ze specyfiki klienta – podkreśla Cezary Gutowski.
Wprowadzając kolejne innowacyjne produkty dla brzegu sieci, dostawcy są świadomi roli, jaką będą we wdrożeniach odgrywać integratorzy. Ich zadaniem jest uświadomienie klientom możliwości edge computingu i sposobu wdrażania tego typu rowiązań. Klienci mogą przecież nie zdawać sobie sprawy, jak osiągać maksymalne korzyści z aplikacji uruchamianych na brzegu sieci. Tymczasem w przypadku coraz większej liczby usług edge computing staje się nie tylko kwestią wygody, ale koniecznością. We współpracy z klientem ważne będzie określenie, w jaki sposób na brzegu sieci ma być tworzona wartość wynikająca z właściwego użycia analityki, co będzie miało bezpośrednie przełożenie na wyniki biznesowe.
Dostawcy tworzą prekonfigurowane pakiety sprzętowe (takimi właśnie są mikrocentra danych), do których ich partnerzy mogą dokładać moc obliczeniową, pamięć masową i systemy służące do komunikacji, projektując kompletne, skrojone na potrzeby klienta rozwiązanie. Dodatkową szansą biznesową dla integratorów jest świadczenie zewnętrznych usług zarządzanych.
Artykuł Mikrocentra danych: biznes na brzegu sieci pochodzi z serwisu CRN.
]]>Artykuł Mikrocentra danych – zysk z wydajności, a nie z wielkości pochodzi z serwisu CRN.
]]>Schneider Electric oferuje prefabrykowane centra danych jako samodzielne bezpieczne środowisko komputerowe. Takie, które wyposażono w kompletną infrastrukturę techniczną niezbędną do tego, aby sprzęt miał zapewnioną ciągłość działania. Z uwagi na to mikrocentra tej marki korzystają z redundantnych systemów podtrzymania zasilania, chłodzenia oraz zarządzania lokalnego i zdalnego.
Senior Solution Data Center Architect, APC by Schneider Electric
Obserwujemy ciągły wzrost zainteresowania serwerowniami mikro i modułowymi. Dlatego Schneider Electric wprowadziło do swojej oferty standardową ofertę produktów SmartShelter i NetShelter. Odpowiadają one na zapotrzebowanie użytkowników w zakresie od 1 do 14 szaf rackowych, działających w pojedynczym kontenerze, przetestowanych i gotowych do implementacji w miejscu posadowienia. Cykl realizacji zamówienia, w zależności od żądanej wielkości, zamyka się w kilku tygodniach. Oferujemy naszym partnerom konsultacje oraz pomoc w zdefiniowaniu rzeczywistych potrzeb inwestycyjnych użytkownika końcowego.
Mikrocentra danych są montowane i testowane w fabryce, a następnie wysyłane do klientów jako produkt końcowy do postawienia w wybranym przez klienta miejscu. Takie podejście do budowy infrastruktury IT usprawnia i skraca proces inwestycyjny. Co ważne, bez kompromisów dotyczących kwestii bezpieczeństwa.
Użytkownik ma do dyspozycji cały typoszereg szaf i kontenerów SmartShelter, standaryzowanych pod względem wielkości i rozwiązań technicznych. Znajdą one zastosowanie w zasadzie w każdej branży cywilnej, a także w sektorze militarnym, gdzie zapotrzebowanie na miejsce na sprzęt IT jest bardzo zróżnicowane. Począwszy od pojedynczej szafy rack (32U, od 5 kW do 8 kW netto) poprzez kontenery ISO20’ (2 lub 5 szaf rack, do 32 kW netto) aż do kontenerów ISO40’ (12 lub 14 szaf rack, od 50 do 120 kW netto).
Najmniejszą odmianą mikroserwerowni są szafy rack NetShelter CX dla małych i średnich przedsiębiorstw. Ich stylowe obudowy pasują nawet do najbardziej nowoczesnego biura. W przypadku omawianych rozwiązań poza aspektami technicznymi warto też zwrócić uwagę na minimalny poziom emitowanego hałasu.
Podsumowując, mikrocentra danych mogą mieć najróżniejszą formę, rozmiary oraz być umieszczane zarówno w biurowcach, jak i kontenerach terenowych. Ich głównym celem jest umożliwienie szybkiego wdrożenia przy jednoczesnej minimalizacji nakładów kapitałowych i zużycia energii, co sprzyja minimalizacji kosztów eksploatacji oraz redukcji tzw. śladu węglowego.
Paweł Wróbel, Senior Solution Data Center Architect APC by Schneider Electric,
tel.+48 22 511 23 93, + 48 507 341 150
e-mail: pawel.wrobel@schneider-electric.com
Artykuł Mikrocentra danych – zysk z wydajności, a nie z wielkości pochodzi z serwisu CRN.
]]>Artykuł Mikrocentra danych: dlaczego duże jest niewielkie? pochodzi z serwisu CRN.
]]>Niektórzy posługują się określeniem „mikromodułowe” centra danych. Odnosi się ono najczęściej do centrów danych występujących w formie prefabrykowanych kontenerów lokowanych na środku pustyni lub w innym odległym miejscu. Jeszcze inni, mówiąc o mikrocentrach danych, mają na myśli małe centra funkcjonujące w budynkach biurowych. Wyglądają one jak tradycyjne data center, tyle że działają na mniejszą skalę.
Kiedy słyszymy o mikrocentrach danych, nie myślimy jedynie o ich fizycznej skali, lecz również ilości obsługiwanych urządzeń IT przy dostępnej liczbie kilowatów. Iloma kilowatami mocy dysponuje mikrocentrum danych? To oczywiście zależy od producenta. Niestety, nie istnieje żadna powszechnie przyjęta jednostka pomiarowa ani definicja mikrocentrum danych. A przynajmniej nie istniała do tej pory.
Schneider Electric zdefiniował mikrocentra danych jako „samodzielne bezpieczne środowisko komputerowe wyposażone w rozwiązania do magazynowania i przetwarzania danych oraz łączność sieciową, które są niezbędne do obsługi aplikacji klientów”. Mikrocentra danych są montowane i testowane w fabryce, a następnie wysyłane do klientów w formie pojedynczego kontenera zaopatrzonego we wszystkie niezbędne systemy zasilania, chłodzenia, bezpieczeństwa i zarządzania (DCIM).
Podsumowując, mikrocentra danych mogą mieć najróżniejszą formę, rozmiary i znajdować się zarówno w biurowcach, jak i kontenerach terenowych. Ich głównym zadaniem jest minimalizacja nakładów kapitałowych, redukcja śladu węglowego i zużycia energii oraz umożliwienie szybkiego wdrażania data center.
Paweł Wróbel
W związku z rozwojem rynku mikrocentrów danych istnieje zapotrzebowanie na centra wyposażone w od 1 do 10 szaf serwerowych, czyli rozwiązania szybkie we wdrożeniu, a jednocześnie nadające się do wielu różnych zadań oraz zapewniające niewielkie opóźnienia i wysoką przepustowość łączy.
Kontakt do SE Customer Care: +48 801 171 500
Artykuł Mikrocentra danych: dlaczego duże jest niewielkie? pochodzi z serwisu CRN.
]]>