Artykuł Vertiv Partner Program: współpraca, która się opłaca pochodzi z serwisu CRN.
]]>– Słuchaliśmy uwag partnerów przez cały rok. Niemal każda kategoria produktów została rozszerzona o nowe rozwiązania: serię zasilaczy UPS Vertiv Edge, jednostkę chłodzenia szaf rack Vertiv VRC, serię listew dystrybucji zasilania Vertiv Geist Rack rPDU oraz serwery konsol Vertiv Avocent ACS 8000. Chcemy zapewnić partnerom nowe możliwości dotarcia do klientów końcowych z ofertą Vertiv. Obniżyliśmy progi wejścia na poszczególne poziomy członkowstwa (silver, gold i platinum), udostępniliśmy nową platformę programu partnerskiego z dostępem do certyfikacji i rejestracji projektów, która zapewnia dodatkowe rabaty. Zmiany umożliwią jeszcze większej liczbie partnerów czerpanie korzyści z programu, zdobywanie wiedzy i umiejętności w dowolnym terminie i indywidualnym tempie – mówi Urszula Fijałkowska, Senior Partner Account Manager w Vertiv Poland.
Realne korzyści ze współpracy
Przykładowe rozwiązanie, zestawione dla jednego z serwisów zatrudnienia, które podnosi niezawodność IT (w 6 szafach ze zwirtualizowanymi serwerami) oraz suma punktów do wypłaty w programie VIP.
Rejestracja w Programie Partnerskim Vertiv: Partners.Vertiv.com
Artykuł Vertiv Partner Program: współpraca, która się opłaca pochodzi z serwisu CRN.
]]>Artykuł Zasilacze awaryjne dla SOHO: rynek w defensywie pochodzi z serwisu CRN.
]]>Okazuje się jednak, że nie wszyscy podzielają ten punkt widzenia. Grzegorz Kostek, który w Schneider Electric pełni funkcję Electrical Channel Sales Managera, twierdzi, że zainteresowanie małymi UPS-ami rośnie, a przy tym zapewnia, że jego firma poważnie traktuje rynek SOHO. Mają o tym świadczyć chociażby tegoroczne premiery, a konkretnie wprowadzenie na rynek trzech nowych modeli dla tej grupy użytkowników oraz czwartego, który lada chwila trafi do sprzedaży. Tożsame tendencje zauważają specjaliści Vertiva, którzy zwiększający się popyt na zasilacze małej mocy tłumaczą wzrastającą świadomością klientów na temat zagrożeń wynikających z braku stabilności sieci elektroenergetycznych i całkowitego braku zasilania.
Wprawdzie chyba już nikt nie wierzy, że komputery stacjonarne powrócą do łask domowników, niemniej w mieszkaniach oraz małych biurach pojawia się coraz więcej elektroniki wymagającej stałego dostępu do napięcia o wysokiej jakości. Coraz częściej słyszy się też o nietypowym wykorzystywaniu urządzeń – jako awaryjnego źródła zasilania kotła lub pieca, czy do zabezpieczania pracy akwariów. Z drugiej strony Tomasz Leyko, Product Manager w Actionie, przestrzega dostawców zasilaczy awaryjnych przed huraoptymizmem.
– Sytuacja resellerów, którzy proponują UPS-y małej mocy jest trudniejsza niż w czasie rynkowej dominacji desktopów. Nowe zastosowania urządzeń nie wypełniają do końca luki po komputerach stacjonarnych. Trzeba mieć na uwadze, że typowe zasilacze awaryjne dla SOHO nie są przystosowane do pracy z częścią domowych urządzeń. Napięcie na ich wyjściu jest aproksymowaną sinusoidą nietolerowaną przez silniki indukcyjne. Problem ten dotyczy napędów do bram, elektrozaworów czy pomp obiegowych w instalacjach centralnego ogrzewania – tłumaczy Tomasz Leyko.
Osobną kwestią jest świadomość użytkowników domowych odnośnie do możliwych sposobów zastosowania zasilaczy awaryjnych. Większość z nich postrzega UPS-a jako typowe urządzenie biurowe współpracujące z komputerem stacjonarnym czy ewentualnie z drukarką.
– Po dekadzie przepracowanej w branży i dziesiątkach przeprowadzonych szkoleń oraz prezentacji stwierdzam, że świadomość ludzi na temat domowych zasilaczy awaryjnych jest bardzo niska. Większość nie posiada UPS-a w mieszkaniu i nie potrafi wskazać dla niego innych zastosowań poza podtrzymaniem pracy komputera stacjonarnego – przyznaje Łukasz Wardak, Purchasing Director Professional Solutions Department w Impakcie.
W segmencie UPS-ów adresowanych do segmentu SOHO mamy do czynienia z marazmem. Wprawdzie w zasilaczach awaryjnych małej mocy raz na jakiś czas pojawiają się nowinki, ale jest ich jak na lekarstwo. Jeden z kluczowych trendów to rosnąca popularność urządzeń z czystą sinusoidą, które są bardziej uniwersalne od tradycyjnych modeli, bowiem ich zastosowania wykraczają poza obsługę sprzętu komputerowego. Mniej znaczącą modyfikacją jest umieszczanie w systemach UPS uniwersalnych gniazd wejściowych, które umożliwiają podłączenie do UPS-a urządzeń o różnych typach wtyczek. Z kolei na rynku klientów korporacyjnych, jedną z najważniejszych innowacji jest zastosowanie baterii litowo-jonowych. Ich zakładana żywotność wynosi dziesięć lat i jest dwukrotnie dłuższa od baterii VRLA, zaś producenci udzielają pięcioletniej gwarancji na urządzenia i akumulator. Jednak ceny tej klasy rozwiązań jeszcze dość długo pozostaną barierą nie do przejścia dla gospodarstw domowych i małych przedsiębiorstw.
Wirus nie przyniósł zmian
W efekcie wykorzystanie zasilaczy awaryjnych w rodzimych gospodarstwach domowych jest dalekie od oczekiwań dostawców. Niektórzy wciąż wierzą, że sytuacja się poprawi, a swoje nadzieje pokładają w pracy zdalnej oraz dalszym rozwoju technologii inteligentnego domu. Przy czym w obu przypadkach wiele zależy od tempa rozprzestrzeniania się pandemii. Jeśli COVID-19 pozostanie z nami na dłużej i nie uda się go okiełznać, gospodarstwa domowe wstrzymają wydatki na elektronikę, a tym samym na UPS-y. W przypadku zdalnej pracy jest zupełnie na odwrót. Przedłużająca się pandemia spowoduje, że ludzie nadal będą pracować w domowym zaciszu i korzystać z wielu urządzeń podłączonych do domowej sieci elektrycznej, co może mieć negatywny wpływ na jakość zasilania. W rezultacie istnieje duże prawdopodobieństwo, że część telepracowników zdecyduje się jednak na zakup zasilaczy awaryjnych.
– Stan pandemii i wywołana przez nią masowa zmiana trybu pracy na tryb zdalny wręcz wymusiła na użytkownikach rozważenie zakupu UPS- a. Stabilność połączenia z internetem jest konieczna dla utrzymania efektywności pracy. Dodatkowo należy pamiętać, że ilość urządzeń podłączonych jednocześnie do naszej lokalnej sieci elektrycznej ma wpływ na jakość zasilania – mówi Grzegorz Kostek.
Dystrybutorzy uważają, że COVID-19 jedynie rozchwiał rynek domowych UPS-ów. Przykładowo, Tech Data na początku epidemii odnotowała zwiększony popyt na urządzenia dla SOHO, a później sytuacja powróciła do normy. Inną tendencję zaobserwowano w Konsorcjum FEN, gdzie od końca marca do początku czerwca nastąpił 30-proc. spadek sprzedaży w porównaniu z analogicznym okresem ubiegłego roku. W ostatnich dwóch miesiącach zapotrzebowanie na urządzenia wzrosło i poznański dystrybutor odrabia straty poniesione w czasie lockdownu. Podobnie było w przypadku Impaktu, gdzie w kwietniu i maju nastąpił spadek zainteresowania urządzeniami, ale w czerwcu i lipcu miało miejsce wyraźnie odbicie.
Zdaniem integratora
Nasi klienci z segmentu SOHO zaopatrują się najczęściej w urządzenia o topologii off-line oraz line-interactive. Najpopularniejsze moce to 0,5 –1 kVA oraz 2 – 3 kVA. W grę wchodzą także rozwiązania o wydłużonym czasie podtrzymania, stosownie do specyfiki poszczególnych nabywców. Nowością są małe UPS-yline-Interactive z baterią litowo-jonową. Odnotowujemy zainteresowanie tą grupą produktów, choć jest ono jak na razie nieśmiałe. Warto też zaznaczyć, że nastąpiła zmiana świadomości klientów, szczególnie tych, którzy na co dzień mają do czynienia z technologiami IT. Im nie trzeba tłumaczyć wielu podstawowych zagadnień. Energia elektryczna umożliwia nam normalne funkcjonowanie w domu i pracy, a to nie tylko zasilanie lodówek, suszarek czy telewizorów. Istnieje przecież cała gama nowych technologii, które też wymagają ciągłego, stabilnego zasilania. Mam tutaj na myśli routery, konsole, wyrafinowane systemy audio czy systemy bezpieczeństwa.
Co kupują klienci z segmentu SOHO?
O ile klienci korporacyjni przy zakupie systemu zasilania gwarantowanego biorą pod uwagę takie czynniki jak warunki gwarancyjne, serwis czy marka urządzenia, o tyle konsumentów zazwyczaj interesują cena oraz dostępność sprzętu. Zdarzają się też przypadki, że nabywcy małych UPS-ów wybierają modele wyróżniające się estetyką wykonania. Użytkownicy indywidualni czasami chcą zabezpieczyć cały domek jednorodzinny, dysponując budżetem rzędu 3 – 4 tys. zł. Jednak, żeby to zrobić, trzeba byłoby zainwestować w jednostkę o mocy 10 – 20 kVA, która kosztuje zdecydowanie więcej.
Niestety, wyedukowani klienci z segmentu SOHO, którzy przy wyborze zasilacza awaryjnego kierują się najpierw jego parametrami, a dopiero potem ceną, należą do rzadkości. Gospodarstwa domowe i małe firmy najczęściej kupują zasilacze awaryjne wykonane w technologii line-interactive o mocy do 3 kVA. Natomiast biorąc pod uwagę sprzedaż ilościową, przeważają modele 650 – 850 VA, które trafiają do biur, gdzie obsługują pojedyncze komputery, ewentualnie do gospodarstw domowych. Łukasz Wardak zwraca uwagę, że użytkownicy domowi często kupują modele z pełną falą sinusoidalną stosowaną w automatyce. Uwzględniając wartość sprzedaży dla SOHO prym wiodą modele o mocach 2 – 3 kVA, często wykonane w topologii on-line. Specyfika rynku konsumenckiego odstrasza wielu resellerów, którzy wolą się koncentrować na projektach dla biznesu.
– Integratorzy oraz resellerzy bardziej skupiają się na rozwiązaniach typu rack, a więc adresowanych dla serwerowni aniżeli sprzęcie do domu czy małego biura. Sprzedaż produktów dla SOHO przeniosła się do sklepów internetowych oraz stała się domeną subdystrybutorów. Rynek ukształtował się w ten sposób i jest to zdrowa sytuacja – mówi Rafał Gałka, Product Manager w Konsorcjum FEN.
Z kolei część specjalistów uważa, że w trudnej sytuacji – wynikającej z epidemii – wszelkie podziały tracą rację bytu, bowiem resellerzy sprzedają sprzęt wszędzie tam, gdzie tylko nadarzy się okazja. W tym również na potrzeby małego biznesu i użytkowników indywidualnych.
Zdaniem specjalisty
Od kilku lat obserwujemy systematycznie rosnący popyt na zasilacze awaryjne w obszarze SOHO. Wynika to z coraz większej świadomości wśród użytkowników domowych i mikroprzedsiębiorców o zagrożeniach wynikających z braku stabilności sieci elektroenergetycznych lub całkowitego braku zasilania sieciowego. W ostatnich dwóch latach UPS-y o małych mocach są przeznaczone do zabezpieczania wrażliwej elektroniki domowej, urządzeń smart home, drogiego sprzętu multimedialnego, akwariów, basenów, pieca CO. Z urządzeń korzystają nie tylko biura, ale również małe gabinety kosmetyczne, stomatologiczne. Tego typu Przykłady można mnożyć. Najważniejsze jest to, że zauważamy nowe obszary, gdzie jeszcze do niedawna nikt nie myślał o inwestycji w systemy zasilania gwarantowanego.
Świadomość resellerów odnośnie do wykorzystania zasilaczy awaryjnych w domach i małych biurach jest niewielka. Oczywiście są specjaliści, którzy zajmują się tą dziedziną i potrafią zaproponować klientom odpowiednie rozwiązanie zarówno pod względem ceny, jak i funkcjonalności. Niestety, zauważamy też, że resellerzy obawiają się trudnych zapytań od klientów. Do naszego działu zajmującego się zasilaniem awaryjnym trafiają dziesiątki e-maili z prośbami o pomoc przy doborze rozwiązania dla konkretnego klienta. Wiedza resellerów na temat zasilaczy dla serwerowni czy centrów danych jest zdecydowanie większa niż w przypadku rozwiązań domowych czy mikrofirm.
Większa świadomość użytkowników domowych na temat zasilania awaryjnego, a także rosnąca liczba urządzeń elektronicznych w gospodarstwach domowych i małych firmach pozwoliły nieco zrekompensować spadki sprzedaży w segmencie SOHO, które były spowodowane wypieraniem z rynku desktopów. Jednak wymienione czynniki nie pozwoliły w 100 proc. wypełnić powstałej luki. Myślę, że w nieodległej przyszłości całkiem liczną grupę odbiorców zasilaczy awaryjnych stanowić będą użytkownicy drukarek 3D. Wprawdzie trend ten nie został dostrzeżony przez żadnego producenta zasilaczy awaryjnych, ale uważam, że dobra kampania promocyjno-informacyjna pozwoliłaby osiągnąć sukces na tym polu.
Artykuł Zasilacze awaryjne dla SOHO: rynek w defensywie pochodzi z serwisu CRN.
]]>Artykuł Odpowiedni dobór zasilacza UPS: jak zapewnić ciągłość biznesu Twoich klientów? pochodzi z serwisu CRN.
]]>1. Określ wielkość obciążenia, wymagającego ochrony przez zasilacz UPS, a tym samym moc zasilacza. Krok pierwszy to obliczenie poboru mocy przez każde urządzenie IT lub elektroniczne, które powinny być chronione przez zasilacz UPS. Informacje te posłużą do obliczenia wymaganej mocy zasilacza. Należy zacząć od poboru mocy przez serwery IT, komputery i stacje robocze oraz urządzenia sieciowe, a następnie inne urządzenia, które mają kluczowe znaczenie dla codziennej działalności firmy, np. systemy bezpieczeństwa. Dane dotyczące zużycia energii zazwyczaj znajdują się na tabliczce znamionowej urządzenia lub w dokumentacji producenta. Wymagana moc zasilacza UPS to suma poboru mocy urządzeń podłączonych do jednostki UPS. |
2. Oszacuj wymagany czas podtrzymania akumulatorowego przez zasilacz UPS dla krytycznych urządzeń i aplikacji. W kroku drugim określamy pożądany czas podtrzymania przez zasilacz UPS. Jeśli użytkownik posiada generator rezerwowy o długim czasie działania, wtedy wymagany czas podtrzymania zasilacza UPS może wynosić kilka minut (~5 minut), co umożliwi bezpieczne uruchomienie i przełączenie na zasilanie z generatora. Innym istotnym celem może być uzyskanie wystarczającego czasu podtrzymania (~5 do 10 minut) dla bezpiecznego wyłączenia serwerów i stacji roboczych oraz zapobieżenia utracie lub uszkodzeniu danych. W przypadku niektórych zastosowań, takich jak dostęp do internetu, użytkownik może wymagać od 1 do 2 godzin czasu podtrzymania. Taka konfiguracja pozwoli przetrwać większość awarii. Im więcej urządzeń podłączasz do jednego zasilacza UPS, tym krótszy będzie całkowity czas podtrzymania. |
3. Określ liczbę wymaganych gniazd. Zsumuj liczbę urządzeń, które ma obsługiwać zasilacz UPS i upewnij się, że jest on wyposażony w odpowiednią liczbę gniazd, odpowiadającą potrzebom klienta i zarezerwuj gniazda na wypadek wzrostu zapotrzebowania. Alternatywnie możesz użyć listew dystrybucji zasilania (PDU) i w ten sposób zapewnić dodatkowe gniazda. Należy jednak zachować ostrożność i nie przeciążać zasilacza UPS. Niektóre modele zasilaczy UPS wyposażone są również w gniazda tylko z ochroną przed przepięciami. Gniazda te nie zapewniają podtrzymania akumulatorowego. Upewnij się, że nabywany zasilacz UPS posiada odpowiednią do potrzeb liczbę gniazd z podtrzymaniem akumulatorowym. |
4. Uwzględnij wymagania dotyczące instalacji i funkcji zasilacza UPS. Oferowane zasilacze UPS posiadają różne moce i obudowy. Modele wolnostojące (typu wieża) to autonomiczne jednostki, które można zainstalować np. na podłodze czy biurku i często zabezpieczają komputery stacjonarne, serwery i routery w środowisku biurowym. Zasilacze UPS do montażu w szafie są tak zaprojektowane, aby pasowały do standardowej 19-calowej szafy rack. Zasilacze UPS przeznaczone do stosowania z akumulatorami litowo-jonowymi są mniejsze i lżejsze niż analogiczne modele, wykorzystujące tradycyjne akumulatory kwasowo-ołowiowe, co pozwala na zwiększenie mocy podtrzymania akumulatorowego w tej samej lub mniejszej przestrzeni. |
Zakres obsługiwanych funkcji różni się znacznie w zależności od modelu zasilacza UPS. Tymi najczęściej wbudowanymi w zasilacze UPS, które należy rozważyć przy wyborze rozwiązania, są: zdalne monitorowanie i zarządzanie jednostką UPS, zdalne zarządzanie gniazdami zasilacza, panel sterowania z wyświetlaczem LCD, możliwość wymiany akumulatorów przez użytkownika, zastosowanie akumulatorów litowo-jonowych, dłuższy czas podtrzymania akumulatorowego, jak też tryb ECO, zapewniający oszczędności energii.
Zainteresował Cię ten artykuł? Jego rozbudowaną wersję znajdziesz na blogu Vertiv na stronie Vertiv.pl.
Artykuł Odpowiedni dobór zasilacza UPS: jak zapewnić ciągłość biznesu Twoich klientów? pochodzi z serwisu CRN.
]]>Artykuł UPS-y dla biznesu: w oczekiwaniu na lepsze czasy pochodzi z serwisu CRN.
]]>To, co dla użytkowników stanowi problem, dla dostawców jest korzystne. Długoterminowe prognozy są dla nich optymistyczne, ale w perspektywie krótkoterminowej trudno pominąć negatywny wpływ koronawirusa na sprzedaż zasilania gwarantowanego. Wyzwania związane z pandemią są liczne. Popyt na energię spadł, gdy z powodu lockdownu i restrykcji ograniczono lub wręcz zawieszono działalność wielu firm i całych branż. Gwałtownym spadkiem inwestycji związanych z zasilaniem skutkowało zamknięcie licznych przedsiębiorstw i zakładów produkcyjnych. Nawet teraz, gdy przedsiębiorstwa wznowiły działalność, poniesione straty finansowe i biznesowe uderzają w budżety przeznaczone na ochronę zasilania oraz zwiększanie efektywności energetycznej.
– W dość krótkim czasie organizacje, zarówno biznesowe jak i publiczne, zmuszone zostały do przemodelowania sposobu prowadzenia działalności, a co za tym idzie, alokowania zasobów i środków w inne niż do tej pory obszary – mówi Urszula Fijałkowska, Senior Partner Account Manager w polskim oddziale Vertiva.
Wydawało się, że pozytywnym skutkiem pandemii będzie przynajmniej wzrost sprzedaży małych UPS-ów wobec masowego przejścia na pracę zdalną. Niestety, nadzieje okazały się płonne, bo zdecydowana większość kupionych z tego powodu komputerów to urządzenia mobilne, z własnymi bateriami.
Bolesne efekty lockdownu
Analizując obecną sytuację na rynku zasilania gwarantowanego nie sposób pominąć kwestię zamówień publicznych. Niestety, inwestycje w administracji zostały w znacznej części zamrożone i wciąż mamy do czynienia z bardzo dużym spowolnieniem. Co gorsza, z uwagi na sposób funkcjonowania sektora publicznego, pojawia się też obawa, że jeśli zamrożonych pieniędzy nie można obecnie wydać, to nie pojawią się one już w przyszłych budżetach. W tym kontekście na plus wyróżnia się jedynie ochrona zdrowia, gdzie – zdaniem naszych rozmówców – obecnie nie zaciska się pasa tak bardzo, jak w administracji czy służbach mundurowych. Mimo wszystko, pewne nadzieje dostawcy sprzętu tradycyjnie już wiążą z końcówką roku.
– W sektorze publicznym obserwujemy wzmożony ruch, być może wynikający z nieuchronnie zbliżającego się ostatniego kwartału i związanej z tym konieczności wydania środków finansowych. Po pewnym okresie stagnacji zauważamy obecnie większe zainteresowanie infrastrukturą zasilającą, szczególnie w szeroko rozumianej branży telekomunikacyjnej – podkreśla Urszula Fijałkowska.
Tak czy inaczej, sektor biznesowy to lepsze miejsce do sprzedaży UPS-ów od sektora publicznego. Przedsiębiorcy są bardziej świadomi faktu, że infrastruktura nie może czekać i bez względu na okoliczności trzeba w jej ochronę inwestować. Niestety, także na rynku komercyjnym pewne branże – te najbardziej dotknięte przez pandemię (jak np. HoReCa) – dramatycznie ograniczyły inwestowanie. W pierwszych miesiącach pandemii nałożyły się na to problemy z dostępnością sprzętu. Cierpieli zwłaszcza ci dostawcy, których cała produkcja mieściła się w Chinach. Natomiast nie miało to aż tak dużego wpływu na tych producentów, którzy swoje fabryki mają rozlokowane w różnych częściach globu. Obecnie sytuacja wydaje się być opanowana.
Czas na modernizację infrastruktury zasilania
Dostawcy zwracają uwagę na to, że ważnym powodem zakupu jest teraz wymiana urządzeń starych na nowe. Cezary Gutowski, kierownik wsparcia sprzedaży w Schneider Electric, w tym kontekście wymienia operatorów dużych centrów danych, tych kolokacyjnych oraz na potrzeby własne, a także zakłady przemysłowe, modernizujące swoje systemy zasilania. Infrastrukturę zasilającą odnawiają także szpitale.
– Zauważamy wyraźny wzrost liczby projektów modernizacyjnych. Powodem jest to, że posiadane systemy są często dość wiekowe. Tymczasem średni czas użytkowania UPS-a jednofazowego to 7 lat, a trójfazowego powyżej 10 – mówi Dariusz Głowacki, Business Development Manager w CyberPower.
W podjęciu decyzji o wymianie pomaga użytkownikom postęp technologiczny, dzięki któremu nowe rozwiązania są od starszych zasilaczy znacznie bardziej efektywne energetycznie, a więc wyraźnie tańsze w użytkowaniu. Istotna staje się też kwestia serwisowania kilkunastoletniego sprzętu, co z każdym kolejnym rokiem jest trudniejsze, niekiedy nawet niemożliwe, a wymiana samych tylko akumulatorów grozi awarią urządzenia.
Dodatkowo, leciwy sprzęt ma zwykle niski współczynnik mocy. Jeśli więc założyć, że power factor wynosi w przeciętnym z nich 0,7, to wymiana na zasilacz o współczynniku bliskim lub nawet równym 1 przełoży się na znacznie większą efektywność energetyczną. Zwłaszcza w przypadku urządzeń o dużej mocy (lub wielu mniejszych UPS-ów) klient odnotuje oszczędności na rachunkach za prąd. Ponieważ energia będzie drożeć, a nie tanieć, ten argument może być coraz bardziej przekonujący w rozmowach z odbiorcami biznesowymi.
– Czy firma funkcjonuje na 100, czy tylko na 20 procent swoich możliwości, UPS-y muszą działać bez przerwy. Te nowe nie będą aż takim obciążeniem w eksploatacji dla kogoś, kogo przychody wyraźnie spadły – uważa Dariusz Głowacki.
Argumentem przemawiającym za zakupem nowego zasilacza i wymianą starego może być nie tylko lepszy hardware, ale także obsługujący go software. Dzisiejsze, intuicyjne w użyciu oprogramowanie oferuje znacznie więcej funkcjonalności w zarządzaniu infrastrukturą zasilającą, zapewniając coraz częściej także możliwość kontroli zasilaczy poprzez chmurę przy użyciu aplikacji na smartfony. Skomunikowanie UPS-ów z internetem i chmurą daje możliwość utrzymania predykcyjnego, opartego na zdalnym monitorowaniu systemów w trybie 24/7. Wbudowanie inteligencji w UPS-y pomaga również w zarządzaniu i optymalizacji systemu zasilania w perspektywie długoterminowej, co jest możliwe dzięki analizie danych z monitoringu obciążeń, wykrywaniu trendów oraz regularnemu raportowaniu.
Zdaniem specjalisty
Sprzedaż UPS-ów napędza potrzeba ciągłego, niezawodnego zasilania, które w wielu instalacjach nadal nie jest odpowiednio rozwiązane. Dotyczy to każdego sektora gospodarki – budynków biurowych, obiektów przemysłowych, ochrony zdrowia i innych. Klienci coraz większą uwagę przywiązują do TCO liczonego w okresie co najmniej pięcio- i dziesięcioletnim, a co za tym idzie, wybierają rozwiązania charakteryzujące się bardzo wysoką sprawnością przetwarzania energii (niskie straty) i umożliwiające zastosowanie baterii litowo-jonowych od samego początku albo w przyszłości, w momencie wymiany akumulatorów.
Obserwujemy zainteresowanie produktami kompatybilnymi, które – współpracując ze sobą bez względu na model czy zastosowaną technologię – tworzą rozwiązania i całe systemy. Istotna w decyzji o zakupie jest też uniwersalność rozwiązań oraz serwis i gwarancja. Producenci w branży zasilania muszą podążać w kierunku szeroko rozumianej efektywności energetycznej. Urządzenia będą więc wyposażane w elementy eliminujące straty energii i umożliwiające jej odzyskiwanie, odznaczające się wysoką sprawnością energetyczną. Niewątpliwie perspektywicznym kierunkiem jest zastosowanie baterii litowo-jonowych, choć to wciąż dość droga technologia. Jeśli chodzi o aspekt czysto biznesowy, to dostrzegamy wzmożony, sezonowy ruch w sektorze publicznym i wzrost popytu na rynku telekomunikacyjnym.
Mniejsze i bardziej zielone UPS-y
Warto wspomnieć, że nowe zasilacze stają się też wyraźnie mniejsze niż starsze urządzenia o tej samej mocy. To wyjście naprzeciw potrzebom użytkowników, którzy podłączają coraz więcej urządzeń do zasilaczy, więc na UPS-y o większej mocy pozostaje już niewiele miejsca. Więcej wolnej przestrzeni na sprzęt IT w serwerowni zapewnia stosowanie akumulatorów litowo-jonowych. Są mniejsze, lżejsze i działają dłużej niż tradycyjne akumulatory kwasowo-ołowiowe (VRLA). Mają też mniejsze wymagania dotyczące chłodzenia, co skutkuje niższymi kosztami eksploatacji. Jednakże klienci nie doceniają jeszcze długoterminowych korzyści, gdyż decyduje cena zakupu, przez co faworytem pozostają tradycyjne akumulatory. Dlatego zasilaczy z bateriami litowo-jonowymi nie jest jeszcze wiele na rynku, ale dostawcy zapowiadają, że będzie ich przybywać.
– Do najbardziej perspektywicznych trendów technologicznych w branży zasilania należą nowe technologie magazynowania energii rezerwowej, w tym baterie litowo-jonowe oraz wysokowydajne metody przetwarzania energii przez UPS-y mające na celu obniżenie strat energii przekładających się wprost na koszty eksploatacji – wymienia Cezary Gutowski.
Rozwój technologiczny UPS-ów skupia się na zwiększaniu możliwości ich zastosowania, dostępności, łatwości zarządzania i serwisowania oraz bezpieczeństwie. Przy czym rosnąca presja na poprawę efektywności energetycznej idzie w parze z większą odpowiedzialnością ekologiczną przedsiębiorstw i koniecznością zapewnienia zgodności z przepisami dotyczącymi oszczędzania energii. Tak zwane zielone UPS-y charakteryzują się bliskimi ideału parametrami wydajnościowymi i mniejszym zapotrzebowaniem na moc oraz chłodzenie. Wyposaża się je także w opartą na oprogramowaniu inteligencję, która potrafi automatycznie wyłączać wpięte do nich, ale nieaktywne urządzenia, w celu oszczędzania energii.
Chmura wrogiem, edge sojusznikiem?
Zdecydowana większość sprzedawanych na polskim rynku profesjonalnych systemów zasilania gwarantowanego to 1-fazowe UPS-y w topologii line-interactive lub on-line, o mocy kilku kVA. Są one dostarczane klientowi najczęściej w wersji do montażu w szafie rackowej i znajdują zastosowanie w serwerowniach czy zdalnych oddziałach firm. Wobec rosnącego trendu korzystania z chmury publicznej i centrów kolokacyjnych ich duży udział w rynku może z czasem wyraźnie się zmniejszyć. Instytucje publiczne i firmy (zwłaszcza te mniejsze) coraz częściej będą wybierać usługi IT dostarczane z chmury. Profesjonalne obiekty data center i ich wyszkolony personel mogą im zapewnić lepszą obsługę niż ich własny, niedofinansowany dział IT. Obok innych zalet chmury, skusić je może też brak konieczności wydania – od razu na wstępie – dużych środków na zakup własnej infrastruktury i możliwość zamiany kosztów inwestycyjnych w operacyjne.
Dostawcy infrastruktury, w tym zasilania gwarantowanego, przekonują jednak, że całkowita migracja klientów do chmury nigdy nie nastąpi. Optymalny ma być hybrydowy model przetwarzania danych, będący połączeniem chmury publicznej i prywatnej (z infrastrukturą wdrażaną u klienta). Specjaliści spodziewają się także, że fala nowych technologii – od Internetu rzeczy, przez sztuczną inteligencję, po 5G – zwiększy jeszcze bardziej ilość krążących w sieci danych, które będą musiały być przetwarzane w pobliżu miejsca ich powstawania. Przełoży się to, rzecz jasna, na wzrost zapotrzebowania na wdrożenia sprzętu przetwarzającego dane na brzegu sieci. A ten – jak zresztą niemal wszystko dzisiaj – będzie potrzebować niezawodnego zasilania.
Artykuł UPS-y dla biznesu: w oczekiwaniu na lepsze czasy pochodzi z serwisu CRN.
]]>Artykuł Nie tylko IT potrzebuje UPS-ów pochodzi z serwisu CRN.
]]>– Moc UPS-a podawana jest w VA, czyli wolto-amperach, zaś moc podłączanych odbiorników jest wyrażana w watach, oznaczonych symbolem W. Dlatego należy dobrać UPS, biorąc pod uwagę współczynnik mocy – power factor. Ten z kolei, w zależności od topologii (off-line, line interactive oraz on-line), wynosi od 0,6 do 1,0 – tłumaczy Urszula Fijałkowska, Senior Partner Account Manager PL & Baltics w Vertivie.
Zdarza się też, że klienci – kierując się głównie ceną – wybierają UPS off-line i oczekują, że będzie miał taką samą funkcjonalność jak rozwiązanie on-line. A to zupełnie inne topologie i obszary zastosowań. Niekiedy dochodzi też do sytuacji odwrotnej: do zastosowań konsumenckich są wykorzystywane urządzenia o zbyt wygórowanych parametrach.
Tworząc projekt zasilania gwarantowanego dla klienta biznesowego, integrator będzie musiał więc odpowiedzieć na pytanie, jaki typ i konfiguracja UPS-ów będzie najlepsza. A to zależy od różnych czynników. Przede wszystkim trzeba wziąć pod uwagę wartość obciążenia krytycznego oraz jego charakter – czy jest bardziej scentralizowane czy też rozproszone. W wyborze optymalnego rozwiązania duże znaczenie będą też miały posiadane przez integratora kompetencje w zakresie instalacji i utrzymania UPS-ów.
Jaka moc, jaki czas podtrzymania?
Dokładne odpytanie klienta pomoże integratorowi ustalić, jak dużą moc musi mieć dostarczony system zasilania gwarantowanego, by zapewniał bezproblemową obsługę chronionym urządzeniom. Wynika ona ze znamionowych mocy zabezpieczanego sprzętu, ale – jak przekonują eksperci Schneider Electric – ich suma nie powinna być równa mocy dobieranego zasilacza. Powinien on zapewniać odpowiedni jej zapas i pracować w zakresie od 60 do 70 proc. swoich maksymalnych możliwości. Przy czym w praktyce, ze względu na bezpieczeństwo i zapas mocy przeznaczonej na przyszłą rozbudowę chronionej infrastruktury, stosuje się nawet zakres od 40 do 50 proc.
Następnym krokiem jest określenie czasu podtrzymania. Ze względu na charakter chronionych urządzeń UPS może być tak zwymiarowany, aby zapewnić zaledwie jedną minutę zasilania bateryjnego albo pięć, ewentualnie o wiele więcej. Krótki czas podtrzymania będzie wymagany w systemach z generatorem. Najczęściej potrzeba będzie wtedy od jednej do dwóch minut zasilania awaryjnego, dopóki generator się nie włączy. W pozostałych sytuacjach trzeba z klientem określić, w jakim czasie da się bezpiecznie wyłączyć sprzęt chroniony przez UPS-a. W zależności od liczby i rodzaju urządzeń, mogą to być bardzo różne wartości. Niektóre zasilacze UPS i podłączony do nich sprzęt można zaprogramować tak, aby samodzielnie go wyłączały, co znacznie przyspiesza ten proces.
Wymagany czas pracy wpłynie na to, jakie baterie będą dla klienta najbardziej odpowiednie. Ma to ma duży wpływ na cenę końcową całego systemu, gdyż baterie mogą okazać się droższe niż sam UPS. Na rynku są już dostępne zasilacze z akumulatorami litowo-jonowymi. Tego typu ogniwa zapewniają, w porównaniu z akumulatorami kwasowo-ołowiowymi, tę samą pojemność magazynowania energii przy dużo mniejszym rozmiarze i masie. Mają także znacząco większą żywotność. Jednak, póki co, koszty zakupu tego rozwiązania ograniczają jego zastosowanie.
Jedna czy trzy fazy?
Odpowiedź na to pytanie wymaga przyjrzenia się urządzeniom, które ma chronić zasilacz UPS, i potrzebnej mocy zasilania gwarantowanego (wyrażonej w kVA). Zdaniem większości ekspertów przy obciążeniu o mocy do 20 kVA można z powodzeniem używać jednofazowych UPS-ów. Większe będą najprawdopodobniej wymagać trójfazowego zasilacza. W tym drugim przypadku do rozważenia będzie kwestia konfiguracji, w jakiej ma pracować trójfazowe urządzenie: czy ma to być 3/1 (umożliwia pobieranie trójfazowego zasilania, ale dostarczanie do odbiorników jednej fazy), czy może 3/3 (w której pobierane jest i oddawane zasilanie trójfazowe).
Odpowiedź również zależy od rodzaju urządzeń, które UPS ma chronić. Serwery czy macierze dyskowe zwykle korzystają z zasilania jednofazowego. Z kolei sprzęt medyczny – urządzenia do rezonansu magnetycznego (MRI) albo większe maszyny przemysłowe – mogą wymagać zasilania trójfazowego.
Centralny UPS czy wiele rozproszonych?
Biorąc pod uwagę łatwość wdrażania można dojść do wniosku, że pojedynczy scentralizowany UPS będzie prostszy do zainstalowania niż wiele rozproszonych urządzeń. Jednak w systemie centralnym często konieczne będzie użycie dużego, trójfazowego UPS-a, którego wdrożenie nie będzie łatwe. Do poprawnego zainstalowania i skonfigurowania tego rodzaju zasilacza wymagana jest wiedza i uprawnienia, a to może oznaczać, że integrator nie obejdzie się bez pomocy z zewnątrz. Z systemami trójfazowymi wiąże się także o wiele więcej pracy w zakresie bieżącego utrzymania.
Z kolei w projekcie z wieloma rozproszonymi UPS-ami można wykorzystać jednofazowe zasilacze, znacznie łatwiejsze w instalacji i nieskomplikowane w utrzymaniu. Oczywiście ostateczny wybór będzie zależeć od wielkości urządzeń, które trzeba chronić. Gdy będą duże, może być wymagana instalacja trójfazowego UPS-a. Tym bardziej, że często jest on bardziej niezawodny niż system jednofazowy. Dzięki wbudowanym funkcjom nadmiarowości charakteryzuje się dłuższym średnim czasem działania pomiędzy awariami (Mean Time Between Failure). Można więc założyć, że jeden duży, centralny zasilacz tego typu zapewni większą ochronę niż wiele rozproszonych, jednofazowych UPS-ów. Jednak w praktyce nie jest to takie proste. W przypadku problemów z centralnym UPS-em, zagrożone są wszystkie chronione urządzenia. W podejściu rozproszonym kłopoty z jednym zasilaczem dotyczą tylko sprzętu chronionego przez ten UPS.
Zasadne może być wdrożenie u klienta zarówno centralnego UPS-a, jak i wielu mniejszych. Przykładem niech będzie szpital, który może wykorzystywać centralny trójfazowy zasilacz do ochrony oświetlenia awaryjnego (łatwiej bowiem jest podłączyć wszystkie obwody oświetlenia do tego samego UPS-a). Jednak każda sala operacyjna czy pomieszczenie do diagnostyki obrazowej będzie już wymagać własnego zasilacza, ponieważ mają one wyjątkowo krytyczne znaczenie. Nie można ryzykować, że z powodu awarii centralnego UPS-a zabraknie zasilania podczas działań ratujących życie. Podobnie może być w handlu detalicznym, chociażby w supermarkecie, w którym rozproszone zasilacze będą chronić poszczególne stanowiska kasowe, a centralny UPS zadba, w razie potrzeby, o ciągłość działania oświetlenia i systemów HVAC (heating, ventilation, air conditioning).
Zdaniem specjalisty
Wszyscy doświadczamy zmian, jakie dokonały się w związku z ograniczeniami spowodowanymi pandemią COVID-19. Wiele branż, jak chociażby edukacja, ochrona zdrowia, administracja, finanse czy handel, zmieniło całkowicie model funkcjonowania. Wymagają one szybkiej zmiany istniejącej infra-struktury, aby zapewnić prawidłowe działanie procesów bazujących na różnych systemach i aplikacjach. Stąd pojawiające się inwestycje w rozwój infrastruktury brzegowej i centrów danych, w celu szybkiego i sprawnego przetwarzania informacji. Nowych inwestycji można spodziewać się też w branży telekomunikacyjnej w związku z wdrażaniem sieci 5G.
Oprócz nowych inwestycji w różnych segmentach rynku dochodzi do wymiany infrastruktury zasilania na nową. Powodem jest to, że posiadane systemy są często dość wiekowe – średni czas użytkowania UPS-a jednofazowego to siedem lat, a trójfazowego powyżej dziesięciu. Klientowi w podjęciu decyzji o wymianie pomaga postęp technologiczny, dzięki któremu nowe rozwiązania są od starszych zasilaczy znacznie bardziej efektywne energetycznie, a więc wyraźnie tańsze w użytkowaniu. Poza tym serwisowanie sprzętu, który ma kilkanaście lat, staje się utrudnione, a niekiedy nawet niemożliwe, zaś wymiana samych tylko akumulatorów nie zmniejsza ryzyka awarii urządzenia.
Na czym zarobi integrator?
Integratorzy mogą zarabiać na sprzedaży połączonych systemów i aplikacji, a zatem wielu uzupełniających się rozwiązań jednego bądź kilku producentów. Dodatkową okazją do zarobku jest serwis i utrzymanie sprzedanych urządzeń i wdrożonych systemów. Wreszcie zyski może przynieść modernizacja i wymiana starszej infrastruktury. To konieczne chociażby ze względu na baterie w UPS-ach, które w wyniku eksploatacji i z upływem lat tracą sprawność. Także zaimplementowana w nich elektronika z czasem traci swoje pierwotne właściwości i wymaga wymiany.
– Przyjmuje się, że w zależności od typu UPS-a – jedno- lub trójfazowego – baterie powinny być wymieniane co dwa albo trzy lata. W przypadku UPS-ów jednofazowych, kompletne urządzenie powinno być wymienione między piątym a siódmym rokiem eksploatacji. Oczywiście na stan sprzętu ma wpływ wiele czynników, wśród których najważniejsza jest temperatura, decydujących o tym, że urządzenie zachowuje sprawność w dłuższym lub krótszym czasie – twierdzi Urszula Fijałkowska.
Zdaniem integratora
W zasilaniu gwarantowanym, podobnie jak w innych branżach, największą marżę można wygenerować na usługach. Na samych produktach coraz trudniej o znaczące zyski. Jeżeli jednak połączymy sprzęt z usługami, co jest przecież podstawą biznesu integratora, to możemy myśleć o rozsądnym zarabianiu. Zdecydowanie łatwiej o przyzwoite pieniądze, gdy się poświęci czas na przygotowanie projektu od początku. Im wcześniejszy etap, na którym jesteśmy u klienta, pomagając mu dobrać rozwiązania, tym łatwiej będzie rozmawiać o jakichkolwiek marżach. Zarabianie staje się natomiast trudniejsze w postępowaniach publicznych, bo tam odbywa się wojna na ceny i pojawiły się problemy z finansowaniem z powodu pandemii.
Do wymiany starszego sprzętu zasilającego na nowszy mogą skłonić klienta rosnące ceny energii. Jeśli w serwerowni wykorzystywane są starsze zasilacze UPS o sprawności, przykładowo 70 proc., to przy małym obciążeniu na każde 1000 W traci się 300 W. Nie tylko oznacza to wyższe rachunki za energię, ale także konieczność schłodzenia wydzielanego dodatkowo ciepła, co skonsumuje jeszcze więcej prądu. Po wymianie przestarzałego sprzętu zasilającego na nowe UPS-y, ze sprawnością dochodzącą do 99 proc., energia niemal w całości zasili sprzęt IT.
Wiedzy o tym, ile energii zużywają urządzenia IT w szafie serwerowej, mogą dostarczać nowoczesne listwy PDU. W najprostszym wariancie poinformują o tym bezpośrednio na zamontowanych w nich wyświetlaczach LED. W tym bardziej zaawansowanym, dostarczą danych o zużyciu energii w szafie, w rozbiciu na poszczególne gniazda.
Podstawowe typy zasilaczy UPS
UPS z bierną rezerwą (off-line)
Ten najprostszy rodzaj zasilacza był do niedawna najczęściej stosowany do ochrony komputerów osobistych. W zasilaczu off-line przełącznik źródeł zasilania jest ustawiony tak, aby wybierał filtrowane wejście zmiennoprądowe jako główne źródło zasilania, a w razie awarii głównego źródła przełączał się na akumulator i inwerter jako źródło rezerwowe. Głównymi zaletami tej konstrukcji są: duża sprawność, niewielkie rozmiary i niskie koszty. Z powodu spadających cen elektroniki jest ona systematycznie wypierana przez UPS-y o topologii line interactive.
UPS line interactive
W tej konstrukcji przetwornik (inwerter) napięcia z akumulatora na napięcie zmienne jest stale podłączony do wyjścia zasilacza. W razie awarii zasilania zewnętrznego przełącznik źródeł zasilania zmienia pozycję, umożliwiając przepływ prądu z akumulatora na wyjście UPS-a. Ta konstrukcja, w porównaniu z topologią off-line, zapewnia dodatkowe filtrowanie i stabilizację zasilania w razie wahań napięcia wejściowego. To ważne, bo ogranicza częste przełączanie się zasilacza na akumulator, skutkujące wcześniejszym zużyciem się baterii. Duża sprawność i niezawodność, niewielkie rozmiary oraz niskie koszty w połączeniu z możliwością korygowania stanów niskiego lub wysokiego napięcia sieci sprawiają, że jest to najczęściej stosowany typ zasilacza UPS o mocy 0,5–5 kVA.
UPS on-line z podwójną konwersją
To najpopularniejszy typ zasilacza o mocy powyżej 10 kVA. W tej konstrukcji awaria zewnętrznego zasilania zmiennoprądowego nie powoduje zadziałania przełącznika źródeł zasilania, ponieważ zasilanie zewnętrzne służy wyłącznie do ładowania akumulatora zasilającego inwerter wyjściowy. W rezultacie – w odróżnieniu od zasilaczy off-line i line interactive – przełączenie na zasilanie bateryjne następuje natychmiast. Zasilacz on-line zapewnia też niemal idealne parametry elektryczne na wyjściu. Wadą tego typu konstrukcji jest to, że zarówno układ ładujący akumulator, jak i inwerter przetwarzają całą moc obciążenia, co prowadzi do obniżenia sprawności (a więc większego poboru energii) oraz zwiększonego wytwarzania ciepła.
Artykuł Nie tylko IT potrzebuje UPS-ów pochodzi z serwisu CRN.
]]>Artykuł Edge w skali mikro, czyli biuro domowe na krawędzi pochodzi z serwisu CRN.
]]>Wydaje się, że niewątpliwym rezultatem obecnego stanu rzeczy będzie masowa migracja do chmury. Menedżerowie przedsiębiorstw będą chcieli zabezpieczyć je przed kolejnymi, potencjalnie nadchodzącymi wyzwaniami, uodpornić przeciwko ewentualnym kryzysom i zapewnić możliwość wprowadzenia nowego modelu pracy. Oczywisty zatem staje się znaczny wzrost zainteresowania chmurą. Firmy będą przenosiły do niej coraz więcej usług, aby swoim klientom ułatwić do nich dostęp. Przy czym jednym z głównych kryteriów wyboru dostawcy usług chmurowych będzie zapewnienie przez niego najlepszego poziomu ochrony, ale też łatwej dostępności zespołu inżynierów serwisu.
*Do 30.06 2020 r. rodzina produktów objęta 45 % rabatem. Szczegóły u autoryzowanych dystrybutorów Vertiv w Polsce: AB, Also, Alstor SDS, Veracomp
W związku ze wzrostem popytu na usługi w chmurze jest prawdopodobne, że operatorzy dużych centrów danych oraz dostawcy usług kolokacyjnych będą chcieli zapewnić sobie możliwość elastycznego zwiększania bazy użytkowników bez negatywnego wpływu na wydajność. Duże znaczenie będzie odgrywała możliwość szybkiego wdrażania nowych zasobów obliczeniowych, prawdopodobnie wzrośnie więc zainteresowanie prefabrykowanymi centrami danych, a także szybko dostępnymi i łatwymi we wdrożeniu rozwiązaniami dla mikrocentrów danych typu edge.
Coraz więcej usług chmurowych będzie wdrażanych lokalnie, geograficznie jak najbliżej użytkowników, aby zapewnić maksymalnie możliwą szybkość połączenia. Ogólnie wolumen danych przesyłanych w internecie nie zmieni się, ale modyfikacji ulegnie charakterystyka tego ruchu. Spadnie ilość transferu danych generowanego przez biura, a zdecydowanie wzrośnie obciążenie domowych łączy internetowych. W wielu przypadkach zostaną one wykorzystane do maksimum, co przyczyni się do powstawania wąskich gardeł, jako że najczęściej ich przepustowość jest ograniczona. Będzie to także wyzwanie dla lokalnych węzłów sieciowych – będą one pracowały z niemal stuprocentową przepustowością, a więc pojawi się w nich konieczność efektywnego zarządzania zasilaniem oraz odprowadzaniem ciepła.
Integratorzy, chcąc spełnić oczekiwania użytkowników, powinni zapoznać się z ofertą firmy Vertiv, która idealnie wpasowuje się w obecne trendy rynkowe.
Dodatkowych informacji udziela:
Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv Poland
Urszula.Fijalkowska@vertiv.com, + 48 661 406 904
Artykuł Edge w skali mikro, czyli biuro domowe na krawędzi pochodzi z serwisu CRN.
]]>Artykuł Widok znad krawędzi: jak zmienia się branża centrów przetwarzania danych i w jakich obszarach stwarza szanse rozwoju dla resellerów? pochodzi z serwisu CRN.
]]>Jedno z pytań, które zadaliśmy podczas opracowywania pierwszego raportu Data Center 2025, brzmiało: „Czy centra danych skoncentrują się w regionach o niskich kosztach energii elektrycznej i chłodnym klimacie, czy też decyzje o lokalizacji będą zależeć od odległości od użytkownika?”. Innymi słowy: czy przetwarzanie danych będzie scentralizowane, czy rozproszone? Prawidłową odpowiedzią są oczywiście oba stwierdzenia.
Od 2014 r. obserwujemy powstawanie coraz większych obiektów chmurowych. Wyłoniła się klasa obiektów o hiperskali, opartych na różnych, innowacyjnych architekturach. Jednocześnie coraz większa liczba danych powstaje i jest konsumowana na obrzeżach sieci. Zjawisko to wymusza przenoszenie mocy obliczeniowej oraz masowej pamięci bliżej użytkowników i urządzeń. W ten sposób powstają centra danych w skali mini i mikro.
Uczestnicy nowego wydania badania Data Center 2025 nieco skorygowali swoje prognozy, co do skali przetwarzania chmurowego. Oznacza to, że obecnie branża ma lepsze rozeznanie co do aplikacji pracujących efektywniej w chmurze. Panuje ogólne przekonanie, że chmura będzie odgrywać dominującą, ale nie wyłączną rolę, w przyszłości ekosystemu centrum danych.
Sieć brzegowa nie jest niczym nowym, ale ulega ciągłej ewolucji i się powiększa. Prawie każda branża donosi o ograniczeniach w obsłudze użytkowników i nowych technologii wynikających ze scentralizowanych infrastruktur IT.
Największym źródłem generowanych danych są czujniki mobilne i powstająca sieć 5G, która umożliwia wydajniejszą i efektywniejszą transmisję w obu kierunkach. Wielkość tego zjawiska odzwierciedla odpowiedź udzielona w 2019 r. na pytanie: „Ile obiektów obliczeniowych obecnie utrzymuje Państwa firma, a ile prognozuje obsługiwać w roku 2025?”. 20% respondentów spodziewa się wzrostu rzędu 400% lub więcej. Ale tak dramatycznie duże zmiany nie powinny zaskakiwać. Dane i aplikacje są coraz bardziej dostępne dla użytkownika końcowego i obsługiwane przez wiele niewielkich i wydajnych urządzeń edge.
Szokującym wynikiem badania Data Center 2025 była to, że zaledwie 56% uczestników zamierzało kontynuować pracę w branży w 2025 r. Pięć lat później liczby są bardziej obiecujące, ale mamy do czynienia z krótszą perspektywą. Niemniej zjawisko to wzbudza obawy związane z brakiem odpowiedniego dostosowywania się firm do szeregu wymogów zmieniającej się technologii, co skutkuje brakiem elastyczności i wrażliwości na potrzeby rynku. Zaskoczeniem jest korzyść wynikająca z problemów związanych z personelem – jest nią tendencja do opracowywania znormalizowanych konstrukcji oraz stosowanie szybkich we wdrażaniu konfiguracji, których realizacja i obsługa nie wymaga od firm posiadania dużego kapitału intelektualnego.
Konfiguracja, wdrażanie i zarządzanie rozwijającą się siecią obiektów może spowodować „przemęczenie” pracowników IT i stanowić ogromną szansę dla partnerów handlowych. Będą oni wspierać przedsiębiorstwa we wprowadzaniu standaryzowanych rozwiązań ze zdalnym zarządzaniem i w ten sposób obniżać zapotrzebowanie na wsparcie techniczne w miejscu instalacji.
Dodatkowych informacji udziela:
Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv Poland
Urszula.Fijalkowska@vertiv.com, + 48 661 406 904
Zainteresował cię ten tekst?
Subskrybuj magazyn Vertiv Channel Continuum:
https://bit.ly/subskrybuj-CC
Artykuł Widok znad krawędzi: jak zmienia się branża centrów przetwarzania danych i w jakich obszarach stwarza szanse rozwoju dla resellerów? pochodzi z serwisu CRN.
]]>Artykuł Infrastruktura data center: wydajność i bezpieczeństwo pochodzi z serwisu CRN.
]]>Centrum danych powstaje po to, by stworzyć środowisko dla aplikacji, które są najważniejsze z biznesowego punktu widzenia. Dla zarządzających centrami danych istotny będzie czas implementacji aplikacji i optymalizacja kosztów związanych z budową rozwiązania, jego uruchomieniem, a później administrowaniem. Niemniej ważna jest dostępność, zarówno jeśli chodzi o ciągłość biznesową i odtwarzalność, jak i skalowanie i migrację obciążeń w sytuacjach kryzysowych. Kluczową sprawą pozostaje bezpieczeństwo danych i aplikacji.
– W związku z tym poszukuje się nowych rozwiązań, które usprawniają działanie środowisk IT, a także nowych modeli ich dostarczania – mówi Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center w Cisco.
Podstawą tworzenia nowoczesnych aplikacji typu cloud native stają się w centrach danych platformy kontenerowe. Poszczególne elementy aplikacji budowanych w modelu mikrousług dużo wydajniej i łatwiej wirtualizuje się w formie kontenerów lub małych i lekkich modułów, które współużytkują jądro systemu operacyjnego i przez to uruchamiają się o wiele szybciej niż klasyczne maszyny wirtualne. W tym obszarze niekwestionowanym zwycięzcą i de facto standardem wydaje się Kubernetes.
– Z ekonomicznego punktu widzenia najbardziej zasadne jest wdrożenie gotowego i kompletnego rozwiązania kontenerowego, dzięki któremu firmy nie muszą poświęcać czasu na budowanie i integrację całego systemowego „podwozia”. Mogą za to skupić się na istocie sprawy, czyli tworzeniu i wdrażaniu oprogramowania aplikacyjnego – mówi Paweł Albert, Advisory Systems Engineer w Dell Technologies.
Problemem jest jednak wdrażanie i konfigurowanie wielu kontenerów dla wielu mikrousług oraz zarządzanie nimi. Zadanie jest jeszcze bardziej skomplikowane, jeżeli w skład środowiska IT wchodzi wiele chmur publicznych i prywatnych. Pomocne mogą być platformy do zarządzania kontenerami w środowiskach klasy produkcyjnej, które dzięki automatyzacji wielu procesów pozwalają zaoszczędzić czas zespołów IT. Migracja do chmury nie stanowi jednak rozwiązania wszystkich problemów. O ile obecnie wiele aplikacji od razu powstaje w chmurze, starsze z nich nie zawsze są dostosowane do wymogów modelu SaaS. Niektórych wręcz nie da się przenieść do chmury i muszą pracować w maszynach wirtualnych.
– Ważne jest, żeby aplikacji nie traktować jako osobnego elementu środowiska IT. Poprawność ich działania należy oceniać, biorąc pod uwagę cele biznesowe, które pozwalają spełnić – twierdzi Grzegorz Dobrowolski.
Przykładowo, chatbot odpowiadający za kontakt z klientem powinien przyczynić się do mniejszej liczby zapytań wysyłanych innymi kanałami. Jeżeli tak się nie dzieje, może to oznaczać, że aplikacja jest nieskuteczna, mimo że pod względem technicznym funkcjonuje dobrze. Rozwiązaniem będzie monitorowanie działania aplikacji pod kątem procesu biznesowego, jaki realizuje. Tak można zidentyfikować, w którym miejscu procesu występuje problem. Optymalizując działanie aplikacji, nie należy zapominać o efektywnym zarządzaniu infrastrukturą. W takim przypadku z pomocą przychodzą narzędzia ułatwiające administrowanie zasobami, szybkie reagowanie na zmieniające się potrzeby i zapewniające wydajność dostosowaną do obciążeń.
Coraz większą popularność zyskuje przy tym model samoobsługowy, znany z rozwiązań chmurowych, w którym odbiorca końcowy (właściciel aplikacji) samodzielnie i bez potrzeby angażowania administratorów jest w stanie wdrażać i konsumować zasoby IT. Infrastruktura centrum danych staje się „definiowana programowo”, a większość inteligencji i logiki operacyjnej jest na poziomie oprogramowania – tak wygląda w praktyce realizacja koncepcji SDDC (Software-Defined Data Center).
– Infrastruktura definiowana programowo doskonale współgra z upowszechnianiem się modelu DevOps. Infrastructure as code to idea, w której zarządzanie i wdrażanie zasobów centrum danych odbywa się za pomocą oprogramowania w modelu deskrypcyjnym, oznacza przetwarzanie plików definicji, opisujących pożądany stan zasobów infrastruktury dla potrzeb konkretnego środowiska, np. w formacie YAML lub JSON. Nieodzownym elementem w tym modelu jest komunikacja z infrastrukturą przez API – mówi Paweł Albert.
Wydajność i optymalizację procesów zachodzących w data center zapewnia coraz częstsze wykorzystanie algorytmów sztucznej inteligencji – machine learningu (ML) i deep learningu (DL) – w samej infrastrukturze: pamięciach masowych, rozwiązaniach sieciowych i serwerowych. Stając się coraz bardziej „inteligentnymi”, urządzenia analizują swoje dane telemetryczne i na ich podstawie uczą się, jak usprawniać funkcjonowanie – działać wydajniej, przewidzieć potencjalną usterkę czy też zmodyfikować obsługę operacyjną.
Algorytmy ML/DL można zaszyć na poziomie operacyjnym – w mechanizmach kompleksowego zarządzania i monitoringu poszczególnych środowisk w centrum danych. Wykorzystuje się wtedy zaawansowaną analitykę do proaktywnego utrzymania czy wykrywania anomalii w działaniu komponentów, które mogą skutkować niedostępnością usług lub spadkiem ich wydajności.
Mechanizmy sztucznej inteligencji sprawdzają się też w narzędziach z obszaru cyberbezpieczeństwa centrum danych. Odpowiednio zaprojektowane i wytrenowane algorytmy ML/DL potrafią lepiej oceniać i wykrywać potencjalne zagrożenia oraz próby ataków hakerskich. A biznes nie chce rezygnować z elastyczności, jaką daje chmura, i chce mieć dostęp do zasobów centrum danych zarówno w sieci wewnętrznej, jak i zewnętrznej. Można go uzyskać bez ryzyka narażenia się na cyberatak dzięki szyfrowanym połączeniom i rozwiązaniom takim jak SD-WAN.
– Chcąc prawidłowo zabezpieczyć zasoby firmowe, należy zadbać również o wieloetapowe uwierzytelnianie, segmentację i ochronę przed cyberatakami, co nie będzie możliwe bez właściwego wglądu i dostępu do bieżących informacji o zagrożeniach – mówi Grzegorz Dobrowolski.
Większe bezpieczeństwo to także nowoczesne rozwiązania ochrony danych, które podążając za najnowszymi trendami w data center, lepiej zaspokajają potrzeby jego użytkowników.
– Mogą one w sposób zoptymalizowany zabezpieczać zarówno „tradycyjne” centra danych, bazujące na serwerach bądź maszynach wirtualnych, jak i nowoczesne środowiska kontenerowe, o znacząco odmiennych wymaganiach. Kluczowe staje się integrowanie mechanizmów odzyskiwania danych, które nierzadko są ostatnią deską ratunku, przykładowo w razie ataku ransomware – podkreśla Paweł Albert.
Jeśli chodzi o rodzaj sprzętu, to w porównaniu z tradycyjnymi platformami zintegrowanymi i systemami konwergentnymi na znaczeniu zyskuje infrastruktura hiperkonwergentna (HCI – hyperconverged infrastructure). Stopniowo staje się ona standardem w nowoczesnych, definiowanych programowo centrach danych. Według IDC globalna sprzedaż HCI była w trzecim kwartale 2019 r. większa zarówno od systemów konwergentnych, jak i zintegrowanych. Rynek HCI wygenerował przychody o wartości ponad 2 mld dol., co stanowi wzrost o prawie 19 proc. rok do roku. Łączna sprzedaż infrastruktury hiperkonwergentnej w całym ubiegłym roku ma zdaniem IDC wynieść blisko 7,5 mld dol.
– W świecie wirtualizacji i konteneryzacji hiperkonwergencja pozwala na stworzenie zintegrowanego środowiska dla aplikacji, obejmującego warstwę sieciową, obliczeniową i pamięci masowych. Umożliwia szybką implementację, łatwą rozbudowę i zarządzanie. To środowisko on-premise oferujące tę samą paletę zalet co chmura, z łatwością uruchomienia i administrowania na czele – mówi Grzegorz Dobrowolski.
Jak wynika z raportu Magic Quadrant for Hyperconverged Infrastructure firmy Gartner, do 2023 r. 70 proc. przedsiębiorstw będzie używać infrastruktury hiperkonwergentnej (w porównaniu z mniej niż 30 proc. w 2019 r.). Firmy coraz chętniej wykorzystują hiperkonwergencję do obsługi swoich krytycznych aplikacji, a HCI znajdują szersze zastosowanie także w środowiskach brzegowych (edge computingu). Dostawcy infrastruktury hiperkonwergentnej wykorzystują w większym stopniu funkcje sztucznej inteligencji, by automatycznie zwiększać wydajność i zapobiegać awariom w centrach danych.
– To bardzo popularny w ostatnich latach model rozwoju centrów danych. Rozwiązania te znacząco upraszczają i przyspieszają opracowanie, wdrożenie, a także utrzymanie kompletnej infrastruktury. Dla wielu firm może być to jednocześnie doskonałe remedium na braki kadrowe wobec coraz większego zapotrzebowania na specjalistów IT – mówi Paweł Albert.
Jeśli rynek infrastruktury hiperkonwergentnej utrzyma obecne tempo wzrostu, co jest bardzo prawdopodobne, już w tym roku jego wartość przekroczy 10 mld dol.
Dla zdecydowanej większości klientów inwestycje w infrastrukturę swoich centrów danych to tradycyjnie CAPEX, a nie OPEX. Ale chmura doprowadza do zmiany w sposobie myślenia klientów o zakupie i wykorzystaniu IT. Starają się do tego dostosować dostawcy infrastruktury, tworząc nowe oferty, z których można korzystać na zasadach „pay per use”, w modelu bazującym na konsumpcji i wydatkach operacyjnych, a nie inwestycyjnych. Kładą też duży nacisk na zapewnienie nabywcom usług o wartości dodanej. Najwięksi gracze na rynku (np. Dell Technologies, HPE i Lenovo ) zakładają, że klienci będą chcieli kupować infrastrukturę centrum danych „as a service”.
– Sposób, w jaki użytkownicy konsumują technologie IT, staje się coraz elastyczniejszy. Na znaczeniu zyskuje nowoczesny model finansowy, w którym rozwiązanie jest kupowane w formie usługi. Dotyczy to również infrastruktury. Z racji przejścia na koszty abonamentowe przy takiej usłudze firmy nie muszą dysponować już kilkumilionowymi budżetami na start, co często wykracza poza ich możliwości – mówi Paweł Albert.
Podobnie jest z dostarczaniem zasobów infrastruktury do konsumentów – użytkowników końcowych, w tym właścicieli aplikacji biznesowych. Model usługowy „IT as a service”, zyskuje na znaczeniu i staje się coraz popularniejszy. W przypadku elastycznych modeli konsumpcji, ważne są również elastyczne modele rozliczeniowe „pay as you grow”, w których klient płaci za tyle zasobów, ile udało mu się wykorzystać. Jednocześnie, gdyby jego zapotrzebowanie nagle wzrosło, dostęp do kolejnych rezerw powinien być zapewniony od ręki – na żądanie. Są to mechanizmy doskonale znane z chmur publicznych, jednak od pewnego czasu podobne modele obecne są w ofertach niektórych dostawców infrastruktury dla lokalnych centrów danych. Niewątpliwie zapewniają one dużą elastyczność oraz efektywność kosztową w procesie organizacji środowisk IT we własnych DC.
Jeśli mamy do czynienia z usługą, w ramach której z całej oferty rozwiązań klient wybiera potrzebne komponenty i z nich buduje środowisko we wskazanym przez siebie miejscu, należy uwzględniać zmiany zapotrzebowania na ogólnie rozumianą moc obliczeniową przez instalowanie komponentów nadmiarowych (w ilości ustalonej z użytkownikiem). Pozostają one w pełnej gotowości do uruchomienia i podjęcia zwiększonego obciążenia, a całość konfiguracji jest wyceniana w umownych jednostkach rozliczeniowych. Z końcem każdego miesiąca wyniki pomiaru poziomu wykorzystania środowiska, wyrażone we wspomnianych jednostkach rozliczeniowych, stają się podstawą do wystawienia miesięcznej faktury. Warunki przewidują stały cennik wartości poszczególnych jednostek rozliczeniowych przez cały okres trwania usługi. Obowiązuje opłata minimalna definiowana najmniejszym zapotrzebowaniem na zasoby infrastruktury. Ważne jest także to, że gdy klient wykorzystuje coraz więcej jednostek rozliczeniowych, ich cena spada.
– Usługa udostępniania mocy obliczeniowej powinna łączyć w sobie trzy kluczowe dla firm cechy: prostotę i przejrzystość rozliczenia, elastyczność infrastruktury oraz ekonomiczność, co umożliwia model rozliczenia bazujący na mierzonym poziomie wykorzystania infrastruktury – podsumowuje Miłosz Błasiak, Support Solution Architect w HPE.
Zdaniem integratora
Piotr Kuczmarski, prezes zarządu, Infrastructure & Business Consulting Group
Wdrażamy rozwiązania, w których dostarczana infrastruktura centrum danych staje się własnością klienta. Większość projektów dotyczy sektora publicznego i bankowego, gdzie inny model finansowania sprzętu niż jego zakup najczęściej nie wchodzi w grę. Rzeczywiście pojawiają się na rynku oferty usługowe polegające na tym, że właścicielem infrastruktury pozostaje dostawca, a serwery lub macierze są wstawiane do klienta na zasadach leasingu. Nasi klienci nie są jednak zainteresowani wynajmem. W ich przypadku problemem mogłyby być kwestie związane chociażby z własnością dysków z danymi. Bardzo często do standardowej gwarancji dokupowana jest taka opcja, że nośniki pamięci masowej, ze względów bezpieczeństwa, nigdy nie opuszczają firmy klienta. Jeśli korzystano by z modelu usługowego, w którym firma nie jest właścicielem sprzętu, to ten problem musiałby być jakoś rozwiązany. Pozostają też kwestie księgowe i związane z planowaniem budżetów. W tym przypadku dużo musiałoby się zmienić, żeby klienci zaczęli kupować usługę, zamiast inwestować w sprzęt. Oczywiście taki model funkcjonuje od dawna w przypadku chociażby samochodów, więc można go sobie wyobrazić także w odniesieniu do infrastruktury centrum danych. Być może łatwiej go zastosować w mniejszych firmach, których raczej nie obsługujemy.
Grzegorz Dobrowolski, dyrektor ds. sprzedaży rozwiązań enterprise networking i data center, Cisco
Ważnym trendem na rynku rozwiązań dla centrów danych jest konteneryzacja. Ma to związek ze zmieniającym się sposobem korzystania z aplikacji i ich migracją do chmury, co często zmienia architekturę samych aplikacji. Użytkownicy oczekują, że będą one „lekkie”, łatwo i szybko dostępne z dowolnego miejsca. Z kolei developerom zależy na sprawnym wdrażaniu zmian i wprowadzaniu produktu na rynek przy jak najmniejszych zakłóceniach. To wpływa na sposób tworzenia aplikacji. Często są one budowane w modelu mikrousługowym, co umożliwia sprawniejszą i wydajniejszą wirtualizację.
Paweł Albert, Advisory Systems Engineer, Dell Technologies
Obserwujemy u wielu firm coraz większą skłonność do inwestowania w zaawansowane narzędzia analityczne, która wynika ze zrozumiałej chęci monetyzacji nowych pomysłów i idei. Należy przy tym pamiętać, że jednym z istotnych warunków takiego działania powinno być zapewnienie odpowiednio wydajnych platform sprzętowych. Przykładem może być użycie pamięci typu flash. W połączeniu z protokołem NVMe i technologią SCM (Storage Class Memory) umożliwiają one szybsze dostarczanie danych. W rezultacie można je natychmiast poddać analizie i uzyskać cenne z biznesowego punktu widzenia informacje.
Miłosz Błasiak, Support Solution Architect, HPE
Infrastruktura „as a service” jest wydajna, bo stale wykorzystuje najnowsze technologie i tylko takie, jakie są potrzebne. Jest bezpieczna, bo środowisko może być zaopatrzone w zasoby nadmiarowe, włączane „na żądanie”. Nagły wzrost zapotrzebowania na moc obliczeniową przestaje być problemem. Środowisko jest zlokalizowane tam, gdzie wskaże klient, z wszelkimi adekwatnymi środkami bezpieczeństwa fizycznego. Całość jest objęta wsparciem serwisowym o starannie dobranym zakresie. Usługa jest też ekonomiczna, ponieważ płatność dotyczy tylko tego, co zostało wykorzystane. Im większe środowisko, tym niższa cena jednostki rozliczeniowej.
Marek Okularczyk, Business Development Executive, Lenovo DCG Poland
Następuje ewolucja rynkowych modeli korzystania z ICT w kierunku środowisk wysokowydajnych, dynamicznie skalowalnych, łatwo i szybko adaptujących się do nowych potrzeb. Takich, które realizuje się coraz częściej w formule hybrydowej, a przy tym są bezpieczne i efektywne kosztowo, na zasadzie „płacę tylko za to, czego używam”. Do tego wszystkiego musi dostosować się branża. Żeby zgodnie ze postępującymi zmianami lepiej zaspokajać potrzeby naszych klientów, wdrażamy więc kolejne „inteligentne” rozwiązania, obejmujące łańcuch dostaw, obsługę klienta i procesy serwisowe.
Cezary Gutowski, kierownik wsparcia sprzedaży, Secure Power, Schneider Electric
W dobie postępującej cyfryzacji, integracji środowisk IT i OT oraz rozwoju Internetu rzeczy coraz większą rolę będą odgrywać rozwiązania typu micro data center. To wstępnie skonfigurowane, przetestowane i zintegrowane miniaturowe centra danych, zamknięte w bezpiecznej obudowie, które można szybko implementować na brzegu sieci, by obsługiwały aplikacje wymagające małych opóźnień w komunikacji i dużych przepustowości. Realizowany w taki sposób model edge computing odpowiada na potrzeby przede wszystkim sektora handlowego, ochrony zdrowia i produkcji.
Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv
Mimo że przetwarzanie w chmurze nadal pozostaje ważną częścią strategii IT większości przedsiębiorstw, to jednak wyraźnie widać postępującą zmianę w ich podejściu. Przede wszystkim starają się dostosować swoje środowisko IT do potrzeb użytkowanych aplikacji. Staje się jasne, że firmowe centra danych mają się dobrze, ewoluując w kierunku środowisk hybrydowych. Przedsiębiorstwa dostrzegają też pilną potrzebę przeniesienia przetwarzania części danych na brzeg sieci. Jesteśmy więc świadkami pojawienia się zupełnie nowego segmentu rynku, stymulowanego potrzebą umieszczenia rozwiązań przetwarzających dane bliżej ich użytkowników.
Przedsiębiorstwa coraz częściej decydują się na hybrydowy model przetwarzania danych, będący połączeniem chmury publicznej i prywatnej. Stawiają też na rozbudowę zasobów na brzegu sieci, wokół jej zmodyfikowanego szkieletu. Wykorzystanie architektury hybrydowej zapewnia firmom zachowanie kontroli nad danymi wrażliwymi, jednocześnie zaspokajając potrzeby związane ze stale rosnącym wolumenem informacji i koniecznością przetwarzania ich bliżej konsumenta.
– W takim nowym ekosystemie danych kluczowe jest zagwarantowanie łączności w środowisku IT i dostępności informacji. Konieczne staje się więc zwrócenie większej uwagi na bezproblemową komunikację między rdzeniem sieci, jej brzegiem i chmurą – mówi Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics w firmie Vertiv.
Na brzegu sieci będzie funkcjonować coraz więcej rozwiązań Internetu rzeczy. Rośnie też potrzeba przetwarzania tam danych i wykorzystania usług analitycznych w czasie rzeczywistym. W 2020 r. i następnych latach będzie przybywać aplikacji wymagających obliczeń dokonywanych jak najbliżej użytkowników końcowych. W rezultacie niezmiennie rośnie rola modelu edge computing.
Według szacunków Gartnera do 2022 r. aż 75 proc. danych generowanych przez przedsiębiorstwa będzie tworzonych i przetwarzanych poza tradycyjnym centrum danych lub chmurą (w porównaniu z mniej niż 10 proc. w 2018 r.). To właśnie edge computing zapewnia podstawowe funkcje obliczeniowe w określonej lokalizacji – tam, gdzie są one potrzebne. A potrzeba ta coraz częściej dotyczy brzegu sieci. Fala nowych technologii – od 5G, przez Internet rzeczy, po sztuczną inteligencję – przyniesie jeszcze więcej danych, które będą musiały być przetwarzane w pobliżu miejsca ich powstawania. Przełoży się to na wzrost zapotrzebowania klientów na małe centra przetwarzania danych.
Integratorom stwarza to możliwość dostarczania, wdrażania, a także obsługiwania centrów danych w skali mikro na brzegu sieci. Tego rodzaju infrastruktura jest tworzona dla aplikacji, które (jako wrażliwe na opóźnienia lub wymagające dużych przepustowości) nie nadają się do obsługi w hiperskalowalnych centrach danych chmury publicznej, a nawet w średniej wielkości lokalnych obiektach kolokacyjnych. W przeciwieństwie do tradycyjnych placówek mikro- i minicentra danych są budowane, konfigurowane i testowane w fabryce producenta, a następnie w całości dostarczane do klienta. Ich skala zapotrzebowania na energię będzie się wahać od kilku do kilkuset kW i można się spodziewać na rynku coraz bogatszej oferty tego typu systemów.
Odnawialne źródła energii w centrum danych
Z badania przeprowadzonego na zlecenie Equinixa wśród osób decydujących o infrastrukturze IT w firmach wynika, że 45 proc. z nich oczekuje, by ich infrastruktura informatyczna była zrównoważona pod względem ekologicznym. Nic dziwnego, że większość producentów zwraca coraz większą uwagę na ochronę środowiska, głosząc potrzebę tworzenia bardziej przyjaznych dla przyrody centrów danych, w tym wykorzystywania energooszczędnych rozwiązań. W tym celu stosowane są innowacyjne systemy chłodzenia cieczą albo powietrzem z zewnątrz czy zaawansowane narzędzia do monitorowania centrów danych. Od dłuższego czasu właściciele największych centrów danych, jak Facebook, Google czy Microsoft, chwalą się wysokimi wskaźnikami wykorzystania odnawialnych źródeł energii. Obecnie, wobec konieczności jak najbardziej efektywnego gospodarowania energią oraz wymogów regulacyjnych, również mali operatorzy będą w coraz większym stopniu stawiać na „zieloną energię”, uzyskiwaną ze słońca, z wody czy biomasy.
Artykuł Infrastruktura data center: wydajność i bezpieczeństwo pochodzi z serwisu CRN.
]]>Artykuł UPS-y dla biznesu pochodzi z serwisu CRN.
]]>Jednocześnie rośnie świadomość zapotrzebowania na ciągłe, niezawodne zasilanie, i to zarówno w kontekście nowych inwestycji, jak też modernizacji tych już istniejących. Co oczywiste, popyt na UPS-y w różnych sektorach gospodarki zależy od koniunktury. Obecnie w Polsce dużo się buduje, powstają nowe biura, centra logistyczne, magazyny – inwestorzy są potencjalnymi nowymi klientami. Potrzebują zasilania gwarantowanego m.in. do podtrzymania systemów budynkowych, w tym ochrony fizycznej. Stałym odbiorcą urządzeń do zasilania gwarantowanego są też placówki ochrony zdrowia, zabezpieczające oświetlenie i sprzęt medyczny.
– Zakup specjalistycznej aparatury, takiej jak angiografy czy tomografy, wymaga zapewnienia ciągłego i niezawodnego zasilania. Urządzenia te muszą bowiem działać nieprzerwanie, nawet gdy dochodzi do chwilowego zaniku prądu – mówi Cezary Gutowski, kierownik wsparcia sprzedaży w Schneider Electric.
Przedsiębiorcy analizują ryzyko związane z przerwą w pracy linii produkcyjnych, dlatego coraz częściej decydują się na zastosowanie zasilania gwarantowanego. Zakłady przemysłowe, w których UPS-y nie były od razu uwzględnione w projektach, są narażone na straty w produkcji, długotrwałe przestoje lub w ogóle zatrzymanie produkcji. W skrajnych przypadkach awarii może ulec nawet fragment linii technologicznej. Dlatego w nowych fabrykach i innych inwestycjach przemysłowych z góry planuje się zastosowanie zasilaczy awaryjnych. Perspektywiczny wydaje się też sektor publiczny.
– Administracja i pozyskiwane przez nią fundusze unijne niewątpliwie mogą przyczynić się do wzrostu sprzedaży UPS-ów w ramach realizowanych przez instytucje projektów rozwoju infrastruktury IT i telekomunikacyjnej – uważa Urszula Fijałkowska, Senior Partner Account Manager PL & Baltics w Vertiv Poland.
Inaczej niż w biznesie, w sektorze publicznym wciąż wykorzystuje się dużo komputerów stacjonarnych. Dlatego w przeciwieństwie do firm – najczęściej używających laptopów z własnym zasilaniem bateryjnym – w placówkach administracji i innych instytucjach państwowych potrzeba również małych UPS-ów, które chronią desktopy. Administracja publiczna jest też specyficzna z tego powodu, że nierzadko znajdziemy tam cały przekrój rozwiązań: obok UPS-a centralnego także zasilacz zabezpieczający serwerownię oraz wspomniane małe urządzenie zasilające pojedyncze komputery. – Wynika to stąd, że do istniejących rozwiązań po prostu dokładane są kolejne. Zaprojektowanie zasilania od nowa wymagałoby całościowej przebudowy sieci, wymiany infrastruktury, a na to nie ma pieniędzy – tłumaczy Dariusz Głowacki, Business Development Manager Poland w CyberPower Systems.
Sektorem, w którym także niezmiennie odnotowuje się popyt na małe zasilacze, jest retail. Służą one do zabezpieczania POS-ów. Ponieważ wciąż są otwierane nowe sklepy i rozrastają się sieci handlowe, sprzedaż UPS-ów o niewielkiej mocy ma się w tym segmencie rynku dobrze.
Dostawcy twierdzą, że otrzymują szczególnie dużo zapytań o UPS-y trójfazowe. Rośnie też ich moc. Modułowe zasilacze do zamontowania w szafie rackowej sprawdzają się w serwerowniach, w których klienci chcą wykorzystać wolne miejsce w stelażu, nie wstawiając urządzenia wolnostojącego. Z kolei trójfazowe zasilacze wolnostojące – w przeciwieństwie do zasilaczy rackowych, chroniących najczęściej wyłącznie serwery i pozostałą infrastrukturę IT – są używane do jednoczesnego zabezpieczania także innych urządzeń i systemów w chronionych obiektach.
Rośnie popularność rozwiązań modułowych, bo tego typu sprzęt ma wiele zalet (zob. ramka obok). Nie oznacza to, że nie pojawiają się zapytania o wolnostojące zasilacze monoblokowe. Wciąż nie brakuje bowiem klientów, którzy chcą wstawić sobie właśnie taką jednostkę zasilającą i obok postawić szafę z bateriami. Bez względu na rodzaj UPS-a świadomy klient będzie dążył do redundancji systemu zasilania gwarantowanego, a bez wątpienia nadmiarowość łatwiej uzyskać przy użyciu rozwiązań modułowych.
W przypadku zabezpieczania systemów monitoringu wizyjnego i innych systemów ochrony fizycznej nie potrzeba dużych mocy, ale często wymagany jest dłuższy czas podtrzymania. Infrastruktura serwerowa może potrzebować zasilania bateryjnego, zwykle do kilkunastu minut, żeby bezpiecznie pozamykać systemy (jeśli zastosowano agregat – wymagane jest tyle czasu, ile trzeba na jego uruchomienie). W instalacjach ochrony fizycznej natomiast konieczne jest zapewnienie dłuższego podtrzymania, by obiekt był chroniony przez cały czas, aż do usunięcia awarii.
Zasilanie gwarantowane stosuje się wraz z rozwiązaniami pamięci masowej, takimi jak system NAS. Dariusz Głowacki twierdzi, że w mniejszych i średnich firmach tego typu urządzenie często jest podstawą systemu informatycznego, zastępując klasyczny serwer. W takim ekonomicznym, bazującym na Linuxie środowisku UPS zabezpiecza więc główne zasoby informatyczne firmy.
Wszyscy rozmówcy CRN Polska podkreślają koncentrację producentów na oferowaniu rozwiązań dających realne oszczędności.
– Rosnąca presja związana z kosztami energii i coraz większa świadomość jej racjonalnego wykorzystywania, a tym samym wpływu na środowisko sprawia, że na rynku coraz częściej oferuje się urządzenia redukujące koszty zasilania – mówi Sebastian Warzecha, dyrektor handlowy w Everze.
Takich rozwiązań jest coraz więcej na rynku i ma to swoje konsekwencje. Okazuje się, że chociaż energooszczędność jest niezmiennie ważnym kryterium wyboru zasilacza, to wobec postępu, jaki się w tej dziedzinie dokonał, w rozmowach z klientami wydaje się schodzić trochę na dalszy plan.
– Pamiętam, jak 10 lat temu do każdej oferty przygotowywało się wyliczenia, jakie oszczędności udaje się uzyskać dzięki wysokiej sprawności zasilacza. Obecnie, gdy każdy producent chwali się wartościami coraz bardziej zbliżającymi się do 100 proc., posługiwanie się tym argumentem nie ma już tak dużego znaczenia – mówi Grzegorz Piekart, kierownik projektu w E-TEC Power Management.
Energooszczędność jest zapewniana na wiele sposobów: producenci starają się dostarczać rozwiązania o jak największej sprawności, umożliwiać kompensację mocy biernej, oferować tryb pracy, w którym zasilacz zużywa mniej prądu na potrzeby własne itp. Do trendu polegającego na oferowaniu jak największej efektywności zasilania dostosowują się wszyscy liczący się w branży dostawcy. O ile dawniej na rynku biznesowym dominowały rozwiązania o współczynniku mocy wyjścia (power factor) na poziomie 0,7, o tyle dzisiaj dostarcza się takie, którym bardzo niewiele brakuje do 1, czy nawet – według zapewnień producentów – modele, które ową jedynkę osiągają.
Dostawcy coraz częściej udostępniają tryb „eco”, w którym sprawność urządzenia osiąga poziom aż 98–99 proc., a więc zużycie energii na potrzeby własne zasilaczy jest minimalne. Tego typu rozwiązanie ma jednak ograniczenia – niezerowy czas przełączania na zasilanie bateryjne lub mniejszą ochronę przed zakłóceniami z sieci. W związku z tym nie wszyscy klienci decydują się na jego uruchomienie. Są jednak tacy, który robią to w przemyślany sposób, uzyskując konkretne oszczędności. Tak dzieje się po wdrożeniach dużych UPS-ów, sprzedawanych do zasilania całych obiektów przemysłowych lub budynków.
– Tego rodzaju klienci potrafią liczyć pieniądze i wiedzą, że zastosowanie „ecomode” im się opłaci. Jeśli przykładowo obiekt biurowy funkcjonuje od godz. 8 do 17, to przełączenie w pozostałym czasie zasilacza o mocy kilkuset kilowoltoamperów (kVA) i więcej na tryb energooszczędny przyniesie wymierne oszczędności – mówi Mikołaj Olszewski, członek zarządu ROMI.
Wraz ze wzrostem świadomości klientów ochrona zasilania w nowych budynkach biurowych staje się standardem, o czym wcześniej nie było mowy.
– Spotykamy się z przypadkami budynków komercyjnych, projektowanych 10–20 lat temu, w których nie były instalowane UPS-y. Oznacza to, że standard tych biur jest dużo niższy niż obecnie budowanych – zwraca uwagę Cezary Gutowski.
Jak tłumaczy przedstawiciel Schneider Electric, najemcy nowych biur często nawet nie wiedzą, że doszło do zaniku zasilania z sieci, bo nie odczuwają skutków takiego przestoju. Natomiast w lokalach niewyposażonych w zasilanie gwarantowane bardzo szybko się o tym dowiadują. Takie doświadczenia skutkują odpływem klientów z pozbawionych ochrony zasilania budynków.
Od lat kładzie się też nacisk na zwiększanie możliwości zarządzania UPS-ami. Ponieważ wirtualizacja jest dziś powszechnym sposobem na dostarczanie usług serwerowych, wzrosło znaczenie zabezpieczania maszyn wirtualnych przez systemy zasilania gwarantowanego. Nie wystarcza już zamykanie fizycznych hostów, gdyż dla działających na nich usług nie będzie ono wiele różnić się od wyciągnięcia wtyczki z gniazdka. W rezultacie i tak dojdzie do utraty danych, przed czym mają chronić zasilacze awaryjne. Przywracanie systemu może być też skomplikowane, co będzie generować jeszcze większe koszty. Dlatego producenci zwracają uwagę na zdolność swojego oprogramowania do kończenia pracy nie tylko fizycznych maszyn, ale również tych wirtualnych.
W razie awarii zasilania w zwirtualizowanym centrum przetwarzania danych, technicy muszą wyłączyć nie tylko fizyczne serwery, ale także działające na nich serwery wirtualne. Dodatkowo muszą oni wykonać wiele zadań w tym procesie w określonej kolejności, często pracując pod dużą presją czasu. Na przykład muszą wyłączać maszyny wirtualne przed fizycznymi, a urządzenia podstawowe – takie jak kontrolery domen i współdzielone macierze pamięci – po serwerach, które od nich zależą.
Dlatego eksperci z Eatona zwracają uwagę, że w przypadku zarządzania energią w środowiskach wirtualnych istotna jest możliwość integracji zasilacza UPS z istniejącymi platformami wirtualizacji. VMware, Microsoft, Citrix i inni dostawcy oprogramowania do wirtualizacji serwerów umożliwiają „migrację na żywo”, żeby dokonać transferu maszyn wirtualnych z jednego serwera hosta do drugiego w celu zrównoważenia obciążenia lub w przypadku konserwacji albo awarii. Żaden z tych systemów nie zawiera jednak funkcji do reagowania na przerwy w dostawie prądu.
Podobnie jak w przypadku modularności zasilaczy, oprogramowanie do zarządzania również powinno zapewniać elastyczność. W obu obszarach rozumianą jako zdolność do zaspokajania przyszłych potrzeb, zarówno pod względem funkcjonalności, jak i dalszego rozwoju rozwiązania.
– Jeśli oprogramowanie nie będzie w stanie obsłużyć systemu w nowych okolicznościach, może to doprowadzić nawet do konieczności wymiany sprzętu – mówi Dariusz Głowacki.
Dlatego klient, który dziś ma małe wymagania i zwraca uwagę głównie na cenę (a tak dzieje się często w sektorze publicznym), może stracić podwójnie. Gdy potrzeby szybko się zwiększą, a zasilania nie będzie można do tej zmiany dostosować, trzeba będzie kupić nowe UPS-y.
W zarządzaniu zasilaniem ważną rolę pełnią inteligentne listwy PDU. Mogą one np. umożliwiać monitorowanie zużycia energii w rozbiciu na pojedyncze gniazda. Będzie to mieć znaczenie dla usługodawcy, u którego poszczególne serwery w szafie są dzierżawione przez różnych klientów i trzeba ich jakoś rozliczyć za prąd. Bez szczegółowego monitoringu będzie to robione jedynie uznaniowo.
Nowym trendem jest monitorowanie zasilania gwarantowanego za pośrednictwem chmury. W dużym uproszczeniu: UPS łączy się z chmurą, a użytkownik za pomocą np. smartfonu instaluje oprogramowanie w szybki i prosty sposób. Dzięki chmurze może monitorować stan urządzenia bez konieczności przygotowywania czy modyfikowania lokalnej sieci. Także w przypadku zarządzania dużymi systemami możliwe staje się monitorowanie urządzeń bez względu na to, gdzie są one zainstalowane, w jakiej konfiguracji i z jakich protokołów komunikacji korzystają.
Dariusz Głowacki, Business Development Manager Poland, CyberPower Systems
Zauważam większe zainteresowanie rozwiązaniami trójfazowymi. Potencjał w tym segmencie jest spory, a sprzedaż bardziej stabilna od konsumenckich zasilaczy małej mocy, bo mniej podatna na sezonowe fluktuacje. Centralnymi UPS-ami trójfazowymi, które mają zasilać infrastrukturę, interesuje się nie tylko biznes, ale też sektor publiczny – odnotowuję z tej strony coraz więcej zapytań. Planowane inwestycje oczywiście są powiązane z ogólną kondycją gospodarczą kraju i samych przedsiębiorstw. A partnerzy twierdzą obecnie, że mają co robić. Jeśli są projekty, to oznacza, że firmy mają pieniądze na inwestycje.
Michał Semeniuk, dyrektor handlowy, Delta Electronics Poland
Trzeba zauważyć, że na rynku działają firmy sprzedające rozwiązania markowe oraz oferujące tzw. marki własne (dostawcy OEM z Chin czy Turcji). Dlatego przy wyborze dostawcy ważnym czynnikiem jest jego innowacyjność w zakresie zasilaczy UPS (np. w pełni modułowa konstrukcja) oraz wartość dodana w postaci szerszej oferty dla data center, na którą składają się szafy rack, listwy PDU, STS-y czy monitoring DCIM. Dopiero po porównaniu poziomu technicznego rozwiązań i wzięciu pod uwagę rozbudowanej oferty dochodzi się do decydującego czynnika, jakim jest cena.
Sebastian Warzecha, dyrektor handlowy, Ever
Przyszłością w branży UPS-ów są z pewnością rozwiązania projektowane z myślą o konkretnych potrzebach rynku, wysoce specjalistyczne, bezpieczne dla otoczenia i gwarantujące niskie koszty eksploatacyjne. Oferta powinna być kompleksowa, co oznacza, że dostawcy UPS-ów nie koncentrują się tylko na sprzedaży urządzeń. Dodatkowo poświęcają uwagę szeroko rozumianej obsłudze klientów, zapewniając im fachową wiedzę, specjalistyczne doradztwo, pełne wsparcie posprzedażowe. Najważniejszym celem powinien być zadowolony, a tym samym powracający klient.
Mikołaj Olszewski, członek zarządu, Grupa ROMI
Większość naszych klientów to branża IT, która zna się na serwerach, procesorach, pamięciach masowych, ale o zasilaniu wie często tylko tyle, że… powinno być. W związku z tym nie za bardzo trafiają do nich argumenty o wyższej sprawności, ale za to interesuje ich na przykład, czy UPS-y będzie można monitorować, czy współpracują z platformami wirtualnymi. W efekcie możliwości integrowania zasilania z infrastrukturą IT i jego łatwa obsługa to ważne kryteria wyboru UPS-a dla tego rodzaju klienta. W przypadku przemysłu czy branży medycznej najważniejsza z kolei jest niezawodność rozwiązania.
Cezary Gutowski, kierownik wsparcia sprzedaży, Schneider Electric
Od systemu zasilania gwarantowanego oczekuje się niezawodności oraz wysokiej sprawności. Aby to osiągnąć, konieczne jest stosowanie komponentów odpowiedniej jakości. Łatwo tu o oszczędności, jednak prowadzą one do tego, że UPS, od którego oczekujemy ciągłości działania, nie będzie funkcjonował poprawnie. Najważniejsze więc, aby jakość i niezawodność urządzenia oraz serwisu były na najwyższym poziomie – to nie cena powinna decydować o wyborze. Dlatego należy stawiać na rozwiązania sprawdzonych producentów, angażujących się w rozwój technologii i produktów.
Urszula Fijałkowska, Senior Partner Account Manager PL & Baltics, Vertiv
Popyt na systemy zasilania gwarantowanego niezmiennie rośnie wraz z rozwojem infrastruktury, głównie DC oraz Micro DC. Dochodzą do tego inne obszary, takie jak przemysł, budownictwo, szeroko rozumiany rynek medyczny oraz konsumencki. W związku z coraz większym wykorzystaniem technologii informatycznych i automatyzacją różnych procesów pojawiają się też nowe zastosowania dla UPS-ów, jak np. zasilanie niezwykle wrażliwych urządzeń w bardzo dynamicznie rozwijającej się branży kosmetycznej, maszyn w rolnictwie itp.
Infrastrukturze IT nie tylko trzeba w efektywny i bezpieczny sposób dostarczyć energię, ale jeszcze skutecznie i możliwie tanio ją schłodzić. Trudno uciec od poruszonego tematu, zwłaszcza o tej porze roku. To właśnie 12 czerwca 2019 r. padł rekord zapotrzebowania na moc, sięgającego aż 24 096 MW, który był wynikiem fali tropikalnych upałów nad Wisłą. Zmiany warunków klimatycznych stawiają przed branżą IT dodatkowe wyzwania. Konieczne staje się uwzględnienie kolejnego czynnika w procesie optymalizacji działania infrastruktury IT, w szczególności centrów danych – wrażliwych na wysokie temperatury.
Jak szacuje centrum badawcze ABB, zasilanie systemów obniżających temperaturę pochłania przeciętnie aż 40 proc. całkowitej energii zużywanej przez centra danych. Wysoki pobór przekłada się na koszty.
– Dwa priorytety centrów danych to ich wysoka dostępność oraz efektywność energetyczna. Powszechnie uważa się, że centra danych zużywają energię elektryczną głównie celem zasilania znajdującego się tam sprzętu. Serwery czy nośniki danych konsumują jednak jedynie niewielki procent całego zapotrzebowania na moc elektryczna? zużywaną przez tego typu obiekty – mówi Joanna Parasiewicz, Marketing & Communication Manager w OVH.
W poszukiwaniu oszczędności operatorzy zmuszeni są do optymalizacji kosztów – począwszy od samej konstrukcji centrów danych, poprzez recykling komponentów, przedłużanie żywotności centrum oraz poszukiwanie wydajniejszych lub bardziej energooszczędnych technologii chłodzenia. Wszystko to przy jednoczesnym zachowaniu bezpieczeństwa danych i systemów, wysokiej wydajności oraz stabilności serwerów. Wyzwaniem dla operatorów pozostaje, zwłaszcza w warunkach tropikalnych temperatur, zapewnienie efektywności energetycznej systemów chłodniczych niezbędnych do usuwania ciepła emitowanego przez urządzenia.
Do optymalizacji kosztów przyczyniają się nowoczesne i skuteczne metody chłodzenia. Jednym z tych o najwyższym stopniu efektywności jest watercooling. Do chłodzenia wykorzystuje się specjalną ciecz znajdującą się w wymiennikach ciepła umieszczonych bezpośrednio na procesorach oraz na innych komponentach wytwarzających znaczne ilości ciepła. W ten sposób aż 70 proc. energii cieplnej wytwarzanej w serwerze odbierane jest przez ciecz o wydajności termicznej dużo większej niż powietrze.
Przykładowo OVH, które postawiło na watercooling już w 2010 r. i od tego czasu nie montuje klimatyzatorów w swoich kolejnych centrach danych, przekonuje, że możliwa jest całkowita rezygnacja z obciążających sieć energetyczną, rozbudowanych systemów klimatyzacyjnych, powszechnie stosowanych w data center. Operator twierdzi nawet, że decyzja o zastosowaniu alternatywnej technologii chłodzenia przyczyniła się do zredukowania kosztu energii elektrycznej do poziomu zaledwie 10 proc. całkowitego kosztu działania nowych obiektów. W tym kontekście warto jeszcze dodać, że firma Green Revolution Cooling, która opatentowała technologię bezpośredniego zanurzania sprzętu w kąpieli z chłodzącej cieczy, odnotowała znaczny wzrost sprzedaży w ubiegłym roku. Co ciekawe, duży wpływ na to miało wydobycie kryptowalut, głównie bitcoinów.
Modularny, czyli przyszłościowy
Modularna konstrukcja zasilaczy zapewnia klientowi elastyczność. Jeśli w szybkim czasie jego biznes się rozwinie i zajdzie potrzeba obsłużenia większej ilości zasobów informatycznych, dostosowanie ochrony zasilania okaże się dość proste. Polegać będzie na dołożeniu kolejnych modułów mocy, kompatybilnych z dotychczasowymi. Mniej skomplikowane staje się też zapewnianie redundancji systemu zasilania – najczęściej jeden dodatkowy moduł stanowi zabezpieczenie przed awarią któregoś z pozostałych. Ponieważ awaria kilku modułów jest mniej prawdopodobna, taki układ (n+1) jest najczęściej wybieranym sposobem na nadmiarowość. W dodatku, gdy moduł się zepsuje, dużo wygodniejsze staje się też serwisowanie UPS-a – do naprawy przekazuje się tylko wadliwy moduł, a system nie jest wyłączony z eksploatacji.
Artykuł UPS-y dla biznesu pochodzi z serwisu CRN.
]]>Artykuł Upał = przerwy w dostawie zasilania = awarie systemów = koszty pochodzi z serwisu CRN.
]]>Jednolity współczynnik mocy (PF = 1,0)
Większa moc aktywna pozwala na podłączenie większej liczby obciążeń w stosunku do systemów o niższym współczynniku mocy i tym samym oszczędzić przestrzeń oraz koszty.
Wysoka sprawność do 95% w trybie online
Wyższa sprawność oznacza zoptymalizowane zarządzanie energią i mniejsze rozproszenie ciepła, tym samym zapewniając oszczędność energii i kosztów.
Sprawność do 98% w trybie Active ECO
Wyjątkowa ochrona urządzeń z maksymalną sprawnością.
Kolorowy wyświetlacz graficzny LCD z orientacją pionową i poziomą
Przyjazny dla użytkownika interfejs umożliwiający wgląd w stan zasilacza UPS i jego konfigurację.
Moduły akumulatorów z automatycznym wykrywaniem
Automatyczne wykrywanie dodatkowych modułów akumulatorów zapewnia prawidłową konfigurację oraz działanie całego rozwiązania.
Konstrukcja szafy/wieży o małej głębokości i elastyczności montażu
Bardziej kompaktowy zasilacz UPS, który wykorzystuje mniej przestrzeni i zostawia więcej miejsca w szafie na pozostałe wyposażenie do przetwarzania danych.
Zdolność do pracy równoległej/nadmiarowej (10 kVA)
Większa zdolność do ochrony zasilania sieci przed zakłóceniami. Zdolność do rozbudowy wraz ze wzrostem obciążenia lub pracy w trybie 2+1 w konfiguracji nadmiarowej z gwarancją maksymalnej dostępności dla obciążeń o znaczeniu krytycznym.
Libert GXT5 – następca serii GXT4
Ochrona infrastruktury o znaczeniu krytycznym zarówno w aplikacjach sieci centralizowanych, jak i sieci typu edge: sieciowe stacje robocze, serwery, serwerownie, duże sieciowe urządzenia peryferyjne, VoIP, PCs.
Maksymalna dostępność (możliwość podłączenia większej liczby obciążeń i urządzeń IT; przełączanie podczas pracy bez odłączania zasilania podpiętych urządzeń; moduły akumulatorów wymienialne podczas pracy; zdalna diagnostyka i monitoring; praca w temperaturze otoczenia do 40°C bez obniżania parametrów znamionowych)
Przyjazna dla użytkownika obsługa i instalacja (łatwy w odczycie, wrażliwy na grawitację kolorowy wyświetlacz graficzny; intuicyjny interfejs użytkownika, lokalna konfiguracja i zarządzanie; możliwość zdalnego zarządzania i aktualizacji; obsługa narzędzi do zarządzania zdalnego firmy Vertiv; automatyczne wykrywanie modułów akumulatorów zewnętrznych)
Zoptymalizowane zarządzanie energią i wydajnością (tryb pracy Active ECO ze sprawnością do 98%; sprawność w trybie podwójnej konwersji online do 95%, certyfikat Energy Star 2.0; programowalne gniazda z priorytetyzacją obciążeń i optymalizacją zużycia energii; możliwość pracy równoległej lub nadmiarowej (10 kVA) zapewnia wyższy poziom elastyczności w przypadku wzrostu i przyszłej rozbudowy)
Nieprzerwana łączność (programowalne styki bezpotencjałowe; obsługa SNMP, WEB i czujników środowiskowych dzięki wydajnej karcie RDU101)
Dostęp do programu motywacyjnego dla partnerów handlowych Vertiv Incentive Program (VIP), w którym za zakup produktów Vertiv przyznawane są punkty bonusowe wymienne na euro, na kartę kredytową MasterCard. 1 punkt bonusowy = 1 euro. Bezpłatna rejestracja: www.vertiv-vip.com
Dodatkowych informacji udziela:
Urszula Fijałkowska, Senior Partner Account Manager Poland & Baltics, Vertiv Poland
Urszula.Fijalkowska@vertiv.com, + 48 661 406 904
Produkt dostępny u autoryzowanych dystrybutorów Vertiv: AB, ABC Data, Alstor SDS, Veracomp
Artykuł Upał = przerwy w dostawie zasilania = awarie systemów = koszty pochodzi z serwisu CRN.
]]>