Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Te dwa ostatnie problemy nasiliły się w czasie pandemii, kiedy trzeba było w ekspresowym tempie zapewnić dostęp do informacji osobom pracującym w domach. Jednym z najprostszych, choć niekoniecznie najtańszych sposobów było wykupienie usług Amazona czy Microsoftu. To jednak zrozumiała decyzja, jeśli wziąć pod uwagę, że w gorącym okresie nie było czasu na wnikliwe analizy. I choć pośpiech nie jest najlepszym doradcą, to nigdy nie jest za późno, aby sporządzić bardziej wnikliwe kalkulacje i lepiej dostosować się do zmieniających warunków. Jest to możliwe nie tylko dzięki elastyczności usług chmurowych, ale także narzędziom ułatwiającym procesy związane z przetwarzaniem i przechowywaniem danych. Co ważne, dostawcami tego typu rozwiązań są na ogół bardzo młode firmy, które mają świeże spojrzenie na kwestie związane z zarządzaniem plikami i obiektami.
Nasuni jest jednym z wielu startupów szukających sobie miejsca w segmencie chmury hybrydowej. To rynek, przed którym rysują się bardzo ciekawe perspektywy. Analitycy z MarketsandMarkets prognozują, że w 2023 r. jego wartość sięgnie 97 mld dol. (w 2018 było to 44 mld dol.). Nasuni postawiło sobie za cel zastąpienie konwencjonalnych serwerów i systemów NAS usługami przechowywania plików w chmurze. Szefowie startupu przekonują, że przechowywanie danych nieustrukturyzowanych w chmurze publicznej wymaga specjalnych rozwiązań. Najwięcej trudności sprawia obsługa plików przechowywanych w chmurze mocno oddalonej od użytkowników. Nasuni chce zoptymalizować produktywność pracowników, jednocześnie zmniejszając koszty i oszczędzając zasoby IT.
W tym celu firma opracowała globalny system plików UniFS, który integruje się z obiektową pamięcią masową i może być skalowany bez ograniczeń w ramach Amazon, Azure lub Google Cloud. System realizuje takie funkcje jak tworzenie kopii zapasowych, synchronizacja plików czy odzyskiwanie danych po awarii. Według specjalistów Nasuni ostatni z wymienionych procesów może trwać jedynie 15 minut.
Nasuni obsługuje najważniejsze protokoły, w tym SMB (CIFS), NFS, FTP/ /SFTP i HTTPS. Użytkownicy uzyskują dostęp do plików za pośrednictwem Nasuni EdgeAppliance, czyli maszyn wirtualnych lub urządzeń x86 z zainstalowanym oprogramowaniem tej marki. Obszar, w którym porusza się amerykański startup, ma spory potencjał.
Analitycy IDC szacują, że w latach 2021–2025 średnia stopa wzrostu ze sprzedaży usług związanych z przechowywaniem plików w chmurze wyniesie 41 proc. i w 2025 r. osiągnie wartość 4 mld dol., czyli niemal pięć razy więcej niż w ubiegłym roku. Warto podkreślić, że w przypadku pamięci obiektowej prognozy mówią o 21 proc. wzroście, aczkolwiek wielkość uzyskiwanych obrotów zdecydowanie przekroczy te uzyskiwane w segmencie przechowywania plików.
– Chcemy za kilka lat zgarniać z rynku około 5 miliardów dolarów rocznie. Jak na razie możemy pochwalić się 120-procentową stopą wzrostu przychodów. Co istotne, około 30 procent naszych wpływów pochodzi ze współpracy z wielką trójką: Amazonem, Microsoftem i Google’em – mówi Paul Flanagan, CEO Nasuni.
Co ciekawe, Nasuni jednocześnie konkuruje z wymienionymi koncernami. Swojej szansy upatruje w tym, że Amazon czy Microsoft koncentrują się na usługach przechowywania danych bazujących na pamięci obiektowej, a ich oferta w zakresie plików nie pokrywa potrzeb szerokiej grupy odbiorców. Z kolei bardzo ważnym graczem w tym sektorze jest NetApp, z którym Nasuni musi ostro rywalizować o klientów. Zresztą Paul Flanagan przyznaje, że około 40 proc. przychodów jego firmy generują klienci przejęci od konkurencji.
Niewykluczone, że plany Nasuni częściowo pokrzyżuje David Flynn. Ten przedsiębiorca z Kalifornii jako pierwszy wprowadził na rynek nośniki SSD z interfejsem PCI. W 2014 r. jego firma Fusion-io została przejęta za 1 mld dol. przez SanDisk. Niedługo potem Flynn wystartował z nowym projektem Primary Data, a więc platformą do zarządzania danymi (funkcję Chief Scientist pełnił wtedy w tej firmie Steve Wozniak).
Chociaż Primary Data była firmowana przez znane postacie i pozyskała 60 mln dol. od funduszy venture capital, przetrwała jedynie cztery lata. Jednak sam David Flynn nie złożył broni i w 2010 r. założył startup Hammerspace, będący w pewnym stopniu kontynuacją wcześniejszego przedsięwzięcia. Firma opracowała Global Data Environment (GDE), który unifikuje rozproszone silosy plików i obiektów w pojedynczy zasób sieciowej pamięci masowej (NAS). W ten sposób zapewnia się aplikacjom dostęp na żądanie do nieustrukturyzowanych danych w lokalnych chmurach prywatnych, hybrydowych lub publicznych. Idea polega na tym, żeby punkty dostępu do danych były aktualizowane za pomocą metadanych GDE. W rezultacie cyfrowe zasoby są cały czas widoczne i można do nich uzyskać dostęp z dowolnego miejsca.
– Przedsiębiorcy potrzebują rewolucyjnego podejścia do dostępu do danych. Nasze rozwiązanie przełamuje ograniczenia techniczne występujące podczas przechowywania plików. W ten sposób zwalniamy firmowe zespoły IT z niekończącej się pracy, mającej na celu łączenie różnych systemów pamięci masowej – tłumaczy David Flynn.
Z punktu widzenia użytkownika operacja jest prosta, bo wystarczy połączyć się z systemem, aby uzyskać dostęp do wszystkich danych. Przy czym niezależnie od tego, czy znajdują się w lokalnej pamięci masowej w wielu witrynach, na platformie AWS, Azure czy GCP, pliki pojawiają się w folderach tak, jakby znajdowały się na lokalnym serwerze NAS. Dostęp dla użytkowników i aplikacji odbywa się przez NFS lub SMB, a także przez sterowniki CSI, jeśli dane są odczytywane lub zapisywane przez aplikacje uruchomione na platformie Kubernetes.
Jednym z klientów Hammerspace jest kanadyjskie studio animacji Global GFX. Firma zatrudnia animatorów rozsianych po całym świecie. GDE umożliwia im zachowanie ciągłości produkcji, gdy na przykład europejscy pracownicy wylogowują się wieczorem, a koledzy z półkuli zachodniej w tym samym czasie kontynuują pracę.
– To tak, jakby wszyscy byli w tym samym pokoju, mimo że są oddzieleni kilkoma strefami czasowymi – tłumaczy Floyd Christofferson, szef produktu w Hammerspace.
Hammerspace działa w podobnym segmencie rynku co Nasuni czy CTERA, które również zapewniają spójny dostęp do plików w różnych lokalizacjach geograficznych, jednakże obie firmy wykorzystują chmurę publiczną jako miejsce przechowywania danych.
– Zasadniczo różnimy się od naszych konkurentów. Oni skupiają się na infrastrukturze i buforują dane. To, co robimy, to całkowite oddzielenie danych od dowolnej infrastruktury – tłumaczy David Flynn.
Artykuł Wielka migracja danych pochodzi z serwisu CRN.
]]>Artykuł Centrum danych na nowe czasy pochodzi z serwisu CRN.
]]>To, że chmura publiczna nie „weźmie” wszystkiego, zwiększa możliwości graczy w kanale sprzedaży IT. W przyszłości rola integratorów nie ograniczy się jedynie do bycia brokerami usług cloud. Jednak, gdy trzeba łączyć różne światy, zwiększa się skomplikowanie środowiska IT. Jego wdrożenie staje się trudniejsze, a klienci będą dla infrastruktury on-premise wymagać poziomu obsługi porównywalnego z tym, jaki dostają w przypadku chmury publicznej. Dodatkowo sprawy nie ułatwiają coraz ważniejsze kwestie dotyczące prywatności danych i zagrożeń związanych z cyberbezpieczeństwem. Nie można też zapominać o rozwoju nowych technologii, takich jak Internet rzeczy, Big Data czy sztuczna inteligencja, które trzeba będzie uwzględnić w konstruowaniu oferty odpowiadającej dzisiejszym i przyszłym potrzebom klientów.
Co niezwykle istotne, analitycy z Gartnera przewidują, że do 2022 r. aż 75 proc. danych wykorzystywanych przez przedsiębiorstwa będzie generowanych i przetwarzanych poza tradycyjnym głównym centrum danych i chmurą (w 2018 r. było to mniej niż 10 proc.). Aby nadążyć za zmianami, dostawcy i ich partnerzy powinni się bardziej koncentrować na potrzebach zdalnych biur i infrastruktury brzegowej (edge computing).
Przez lata centrum danych podlegało ewolucji, która bardzo odmieniła jego oblicze. Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań Data Center i Enterprise Networking w Cisco, zauważa, że gdybyśmy cofnęli się w czasie jakieś 15 lat, to znaleźlibyśmy się w świecie, gdzie rozwiązania komputerowe używane przez przedsiębiorstwa były stosunkowo proste i sprowadzały się do serwerów szafowych z systemami operacyjnymi, w których uruchamiano aplikacje. Wprowadzenie procesorów wielordzeniowych w połowie pierwszej dekady XXI wieku stworzyło możliwości wirtualizacji infrastruktury. Następnie pojawiło się przetwarzanie w chmurze oraz całkowicie nowa generacja systemów zoptymalizowanych pod kątem rozbudowy środowisk.
W dzisiejszych realiach biznesowych trudno traktować chmurę jako osobny byt, działający w oderwaniu od pozostałych zasobów IT. To ewolucja w dostarczaniu infrastruktury, mocy obliczeniowej i przestrzeni do przechowywania informacji. Co więcej, organizacje coraz częściej decydują się nie tylko na migrację do modelu cloud, ale także na implementację środowiska multi cloud, łączącego wiele usług chmurowych pochodzących od różnych dostawców.
– Wobec biznesu stwarza to liczne wyzwania, związane m.in. z efektywnym zarządzaniem, a przede wszystkim bezpieczeństwem danych – mówi Grzegorz Dobrowolski z polskiego oddziału Cisco.
Bez względu na duże zmiany rola infrastruktury centrum danych, także połączonej z chmurą, wciąż pozostaje ta sama. Ma ona umożliwiać przedsiębiorstwom przetwarzanie i przechowywanie dużych ilości danych oraz uruchamianie aplikacji o znaczeniu krytycznym. Przy czym jej potencjał jest coraz większy. Przykładowo nowy serwer o takich samych wymiarach jak model poprzedniej generacji może zapewnić kilka razy większą moc obliczeniową, zużywając jednocześnie tylko połowę energii. W przypadku pamięci masowych wielkie korzyści daje zastosowanie nośników z pamięcią flash. W rezultacie nowe technologie są wprowadzane o wiele szybciej niż kiedyś. Dzięki temu rośnie prawdopodobieństwo nakłonienia klientów do zakupu nowych systemów, w przypadku których efektywność energetyczna staje się równie ważna jak wydajność.
Zmienia się model działania systemów IT, a serwery, pamięci masowe, sieci, zasilanie i chłodzenie są projektowane oraz wdrażane w taki sposób, by minimalizować koszty poprzez eliminowanie manualnej obsługi infrastruktury. Automatyzacja procesów, zwiększenie poziomu bezpieczeństwa oraz ułatwione zarządzanie – to podstawowe profity wynikające z użycia nowych technologii w centrum danych. Dodatkowo, dzięki zastosowaniu analityki, łatwiejsze staje się uzyskanie w czasie rzeczywistym wglądu w działanie poszczególnych jego elementów.
Nie ma wątpliwości, że bogata oferta rozwiązań chmurowych cieszy się coraz większym zainteresowaniem. Możliwość szybkiego uruchomienia przetwarzania, kontrola kosztów oraz dostosowanie do zmian obciążenia powodują, że coraz więcej przedsiębiorstw rozważa migrację jakiejś części swojego środowiska IT do chmury.
– Często jednak pomija się takie aspekty, jak możliwość powrotu z chmury, czasochłonność i koszty zarządzania zmianą. Dlatego kluczowe jest właściwe przygotowanie do korzystania z cloud computingu – mówi Wojciech Wolas, dyrektor sprzedaży w sektorze Bankowość i Finanse w Dell Technologies.
Powinno być ono efektem analizy wykorzystywanych aplikacji, przetwarzanych danych i planów rozwoju przedsiębiorstw. Czasami optymalnym, najbardziej efektywnym rozwiązaniem jest przetwarzanie kluczowych danych lokalnie i współpraca z wieloma dostawcami chmury, jednymi specjalizującymi się w usługach typu IaaS (czyli wynajem mocy obliczeniowej i przestrzeni dyskowej lub archiwum), a drugimi w SaaS (np. poczta, CRM, systemy F/K, systemy HR, analiza Big Data czy machine learning). IT staje się wtedy dostawcą usług własnych i brokerem wszystkich usług (wewnętrznych i zewnętrznych), zapewniając dobór parametrów i kosztów optymalizowanych zgodnie z potrzebami biznesu.
Przenosząc się do chmury, przedsiębiorstwa nie zrezygnują z kontroli nad swoim IT. Będą w dalszym ciągu korzystać z lokalnych centrów danych, świadczących te usługi, które są zbyt ważne, by oddać je w obce ręce. Coraz częściej wdrażana będzie infrastruktura chmury prywatnej (według IDC ponad 28 proc. wydatków związanych z cloud computingiem dotyczy tej formy chmury). Rozwiązania umożliwiające tworzenie środowisk hybrydowych (takie jak np. Azure Stack) będą wykorzystywane do dostarczania usług z chmury bez wyprowadzania danych ze środowiska kontrolowanego przez firmę. W razie potrzeby w użyciu będzie chmura publiczna. Wszystko działać powinno w taki sposób, by użytkownicy końcowi nie musieli się zastanawiać, skąd pochodzą ich usługi.
Roman Szwed, prezes Atende
W naszych działaniach integratorskich uwzględniamy od dawna usługi z chmury, traktując je jako element kompleksowych rozwiązań przynoszących wymierne korzyści klientom. Nie konkurujemy z tanimi i łatwo dostępnymi rozwiązaniami potentatów światowych, ale oferujemy usługi o dużej wartości dodanej, których nie mają inni. Stawiamy na rozwój usług profesjonalnych, w tym świadczonych z własnej chmury albo z chmury globalnych partnerów. Zaspokajają one np. specyficzne potrzeby polskiej ochrony zdrowia, operatorów telewizji internetowej i mogą służyć do wielu innych zastosowań. Najnowszym przykładem są usługi chmurowe oparte na naszym produkcie ChainDoc, który rozwiązuje problem trwałego nośnika i wspiera proces przejścia do modelu „paper less” bazujący na technologii blockchain. Rozważnie wybieramy obszary, w których oferujemy własne rozwiązania chmurowe, tak żeby atrakcyjny model dostarczania usługi szedł w parze z funkcjonalnością naszych rozwiązań.
Dariusz Dobkowski, dyrektor sprzedaży rozwiązań Data Center, Huawei Enterprise Polska
Jednym z najważniejszych trendów w nowoczesnych centrach danych jest upowszechnianie się rozwiązań flash, które ostatnio, dzięki znacznemu obniżeniu ich kosztów, zyskały na popularności. W tym kontekście warto wspomnieć o architekturze NVMe, która znacznie skraca i upraszcza komunikację pomiędzy procesorami a dyskami w macierzy, wpływając na poprawę wydajności i minimalizację opóźnień. Ze względu na swoją konstrukcję macierze all-flash są w stanie zapewnić niezawodność na poziomie 99,9999 proc., co przekłada się na ok. 31 s przestoju w skali roku.
Wojciech Wolas, dyrektor sprzedaży w sektorze Bankowość i Finanse, Dell Technologies
W ostatnich latach obserwujemy bardzo szybki rozwój architektur i rozwiązań stosowanych w centrum danych. Wynika on nie tylko z postępu w technologiach informatycznych oraz lawinowego przyrostu przetwarzanych danych, ale również ze zmiany modelu dostarczania usług IT i ich wykorzystania przez przedsiębiorstwa. Pomijając kwestie optymalizacji wykorzystania energii elektrycznej oraz chłodzenia, do najbardziej widocznych trendów w rozwoju centrów danych należy zaliczyć edge computing, hiperkonwergencję, wzrost wykorzystania technologii flash oraz środowisk wielochmurowych.
Małgorzata Kasperska, wiceprezes Działu ITD, Schneider Electric
Ubiegły rok pokazał, że centra danych nie tylko powinny dążyć do optymalizacji, ale zostaną do tego niejako zmuszone. Proces ten stanowi duże wyzwanie ze względu na obciążenia IT i zewnętrzne warunki otoczenia przedsiębiorstwa – zmieniają się one dynamicznie i czasami są zupełnie nieprzewidywalne. W efekcie opcje znacząco poprawiające wydajność operacyjną centrów danych są ograniczone. Z pomocą przychodzi sztuczna inteligencja, która według danych Gartnera do 2025 roku ma stać się fundamentem systemów informatycznych. Będzie ona w stanie optymalizować centra danych w czasie rzeczywistym, bez konieczności angażowania pracowników.
Piotr Wojciechowski, Engineering Manager, Vertiv
Jeśli systemy zasilania gwarantowanego osiągają sprawność w trybie VFI na poziomie 96,5 proc., systemy klimatyzacji działają z rocznym pPUE < 1,10, a wyliczenia dostępności centrów danych pokazują ponad 99,99 proc., to mogłoby się wydawać, że niewiele już da się zrobić. Jednak nowe, zaawansowane technologie potrafią zaskoczyć, gdyż oferują jeszcze więcej korzyści w zakresie wydajności i obniżania kosztów TCO. Na polskim rynku potrzeba tylko trochę więcej odwagi, decyzyjności i zaufania, by je wprowadzić i w pełni wykorzystać, zanim zastąpi się je nowszymi, –jeszcze doskonalszymi.
Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań Data Center i Enterprise Networking, Cisco
Pamiętajmy, że sama technologia to nie wszystko. Równie istotny jest doświadczony zespół wdrożeniowy. Ważną rolę odgrywa także wsparcie biznesu już na etapie planowania wdrożenia środowiska multi cloud oraz przyśpieszenie i zapewnienie bezpieczeństwa procesu migracji zasobów. Nie mniej istotne jest umożliwienie bezpiecznego przejścia od sieci prywatnych do chmury przy jednoczesnym utrzymaniu komfortu korzystania z aplikacji firmowych.
Z pojęciem programowo definiowanego centrum danych (Software Defined Data Center) oswajamy się już od kilku dobrych lat. O ile wcześniej było ono dość egzotyczne, to obecnie możemy obserwować, jak w coraz większym stopniu (głównie za sprawą hiperkonwergencji) idea jest wcielana w życie. W SDDC cała infrastruktura IT jest zwirtualizowana i dostarczana jako usługa. Wdrażanie, provisioning, monitorowanie i zarządzanie zasobami centrum danych odbywa się za pomocą oprogramowania zapewniającego automatyzację procesów i obsługującego zarówno nowe, jak i starsze aplikacje. SDDC ułatwiają ograniczanie nakładów inwestycyjnych (CAPEX) i wydatków operacyjnych (OPEX), zwiększając wydajność, sprawność, kontrolę i elastyczność centrów danych.
Dlatego bazowanie na oprogramowaniu SDDC będzie standardowym modelem działania centrum danych, zarówno w przypadku obiektów nowych, jak i tych, które już funkcjonują (także w starszych środowiskach priorytetem będzie możliwość tworzenia i dodawania usług na żądanie). W rezultacie w centrach danych będzie więcej infrastruktury hiperkonwergentnej i komponowalnej (composable) oraz sieci i pamięci masowych definiowanych programowo.
Zwłaszcza rozwiązania HCI (Hyper-Converged Infrastructure) są coraz częściej wybierane przez klientów. Hiperkonwergencja realizuje postulaty SDDC, umożliwiając wdrażanie zaawansowanych rozwiązań chmury prywatnej i hybrydowej na bazie programowo definiowanych komponentów – mocy obliczeniowej, podsystemów dyskowych i sieci. W przeważającej większości są to urządzenia bazujące na popularnych platformach x86, wyposażone w dużą ilość pamięci RAM i wiele dysków, zapewniające łatwą skalowalność całego systemu. Ich zaletą jest również możliwość zarządzania za pomocą jednej konsoli i integracji z wirtualizatorem.
– Dzięki temu HCI doskonale sprawdza się jako platforma do budowania rozwiązań takich jak: chmura hybrydowa oraz prywatna, wyniesione ośrodki przetwarzania czy w pełni zintegrowane platformy stworzone z myślą o konkretnych rozwiązaniach, np. VMware Ready Systems, Virtual Desktop Infrastructure czy Azure Stack – mówi Wojciech Wolas.
W rezultacie elementy infrastruktury hiperkonwergentnej dojrzewają a popyt rośnie, w miarę jak klienci rezygnują z oddzielnych rozwiązań z zakresu pamięci masowej, serwerów i sieci na rzecz integracji, jaką zapewnia HCI. Nowa technologia odświeża centra danych, zaspokajając potrzeby ich użytkowników w zakresie zwiększenia prostoty, elastyczności i hybrydowości we wdrażaniu infrastruktury.
Rozwój technologii flash jest najbardziej widoczny w podsystemach pamięci masowych. Dyski SSD zrewolucjonizowały architekturę macierzy dyskowych, upraszczając ich budowę przy jednoczesnym zwiększeniu wydajności, skróceniu czasu odpowiedzi, zmniejszeniu awaryjności (ograniczenie ruchomych elementów) i zapotrzebowania na energię elektryczną.
Dlatego dla klientów korzystających z aplikacji wymagających dużej wydajności – od baz danych po sztuczną inteligencję – pamięć masowa flash staje się rozwiązaniem pierwszego wyboru. Tym bardziej że koszty nie stanowią już bariery trudnej do pokonania. W segmencie dysków SSD dla przedsiębiorstw spadek cen jest przede wszystkim rezultatem coraz ostrzejszej konkurencji między dostawcami. Zdaniem analityków z DRAM eXchange ich walka w bieżącym roku przybierze na sile, dlatego – mimo rosnącego zapotrzebowania na serwery – ceny SSD klasy enterprise zmniejszą się nawet bardziej niż w przypadku wyraźnie taniejących podzespołów konsumenckich.
Producenci wprowadzają na rynek nowe generacje wydajnych serwerów i pamięci masowych z bardzo szybkimi nośnikami NVMe (Non-Volatile Memory Express) oraz oprogramowanie, które ma za zadanie zwiększyć niezawodność pamięci flash, ich dostępność i efektywność. Można wręcz zaryzykować stwierdzenie, że rozpoczyna się boom na wszystkie rodzaje pamięci flash. Zdaniem analityków wykorzystanie macierzy All-Flash Array (AFA) i Hybrid Flash Array (HFA) będzie w roku bieżącym i następnych latach szybko rosło (AFA szybciej niż HFA).
Wojciech Wolas zwraca uwagę na zastosowanie pamięci flash jako tańszego i pojemniejszego rozszerzenia pamięci RAM wykorzystującego technologię Intel Optane.
– W systemach bazujących na architekturze x86 rozwiązania te zapewniają uzyskanie wydajności zarezerwowanej do tej pory głównie dla drogich i wieloprocesorowych platform – mówi specjalista z Della.
Firmowe centra danych nie są przeżytkiem – realizują dotychczasowe zadania, które nie przestają być ważne. W wielu przypadkach będzie się jednak odchodzić od centralizacji obciążeń IT, przenosząc je do mniejszych obiektów tworzonych w lokalnych biurach lub oddziałach. W konsekwencji powstawać będzie rozproszona architektura data center, w której przetwarzanie może być realizowane „bliżej” użytkowników czy aplikacji.
Jeśli przybywać będzie połączonych z siecią urządzeń, dla wielu aplikacji problemem staną się opóźnienia w transmisji danych, jak również zbyt niska przepustowość łącza oraz regulacje prawne. Wiele zadań wymaga przetwarzania w czasie rzeczywistym, którego architektura chmury nie jest w stanie zapewnić. Edge computing to sposób na odciążenie centralnych ośrodków i uniknięcie kłopotów z przetwarzaniem danych. Przykładowo w sieci sklepów, w której zastosuje się ten model, każda placówka ma własne, niezależne centrum danych. Nawet jeśli główny system ulegnie awarii, markety mogą nadal obsługiwać klientów.
– Edge computing ma ogromny potencjał, ale należy zauważyć, że nie jest alternatywą dla systemów centralnego przetwarzania danych. Uzupełnia i rozszerza ich możliwości, zwiększa efektywność działania poprzez połączenie ze środowiskami o rozproszonym charakterze – mówi Małgorzata Kasperska, wiceprezes Działu ITD w Schneider Electric.
Ważnym polem zastosowań tej koncepcji jest Internet rzeczy, gdzie gigabajty albo nawet terabajty danych zbieranych z czujników, różnego rodzaju urządzeń czy koncentratorów IoT mogą być wstępnie przetwarzane i agregowane na brzegu sieci. Następnie w formie skonsolidowanej przesyłane są do głównego data center albo bezpośrednio do chmury, co oszczędza pasmo sieci WAN i odciąża główne centrum danych. Rozwiązania, które wspomagają takie rozproszone przetwarzanie, to np. hiperkonwergencja i SD-WAN. Umożliwiają one automatyzowanie zarządzania lokalną mocą obliczeniową, podsystemami storage czy siecią, ułatwiając przy tym zdalne utrzymanie i centralne administrowanie data center.
Ponieważ Internet rzeczy będzie się szybko rozwijał, zbierając ogromne ilości danych na brzegu sieci, centra danych muszą się wraz z nim skalować. Przybywające zasoby będą jednak wdrażane w modelu rozproszonym, a nie centralnym.
Ważnym zadaniem osób odpowiedzialnych za funkcjonowanie infrastruktury centrum danych jest zwiększanie jej efektywności poprzez wykorzystanie nowych technologii w dziedzinie chłodzenia oraz zasilania. Jednak w przeciwieństwie do innowacji opartych na oprogramowaniu, postęp w technologiach elektrycznych i mechanicznych dokonuje się wolniej. Do znaczących przełomów w zakresie zasilania i chłodzenia centrów danych dochodzi rzadziej, a nowe technologie, zanim zostaną wprowadzone, potrzebują dużo czasu, by osiągnąć na rynku masę krytyczną. Można przewidywać, że w nadchodzących latach do osiągnięcia tego stanu systematycznie dążyć będą dwa, wcale nie nowe rozwiązania.
Pierwsze to bezpośrednie chłodzenie cieczą, które – choć było wykorzystywane w systemach komputerowych od dziesięcioleci – powinno cieszyć się coraz większym zainteresowaniem w kontekście centrów danych. Odpowiada bowiem potrzebom związanym z nowymi architekturami i technologiami. Przykładowo, jeśli infrastruktura hiperkonwergentna integruje w jednym systemie i niewielkiej przestrzeni moc obliczeniową, pamięć masową i sieć, to potrzebuje wydajniejszego chłodzenia w przeliczeniu na jednostkę powierzchni. Może je zapewnić właśnie rozwiązanie wykorzystujące ciecz.
Zdaniem Grzegorza Nizińskiego, Data Center & Infrastructure business development managera w S4E, technologia DCLC (Direct Contact Liquid Cooling) znacznie przyczynia się do zmniejszenia kosztów chłodzenia.
– Główną zaletą tych systemów jest stosunkowo wysoka temperatura cieczy, wynosząca około 38oC, dzięki czemu system chłodzenia może działać przez większość czasu w trybie free coolingu – mówi przedstawiciel krakowskiego VAD-a.
Podobnie jak chłodzenie cieczą, odpowiedzią na specyficzne wymagania środowisk o dużej gęstości są baterie litowo-jonowe (które są używane komercyjnie od początku lat dziewięćdziesiątych XX w.). Można spodziewać się rosnącej sprzedaży tego typu akumulatorów, które będą stopniowo zastępować baterie kwasowo-ołowiowe w systemach UPS dla centrów danych. Są one lżejsze i zajmują mniej miejsca, charakteryzują się dłuższą żywotnością (ocenianą na 10 lat), mniejszymi wymogami odnośnie do konserwacji i warunków przechowywania oraz większą elastycznością działania. Oprócz zalet mają jedną wadę – cenę. Oczekuje się jednak, że będzie ona spadać wraz ze wzrostem ich produkcji.
Także w obszarze zasilania i chłodzenia postępuje w centrum danych automatyzacja, umożliwiająca optymalizację systemów oraz likwidująca skutki niedoborów specjalistów potrafiących zarządzać infrastrukturą centrum danych.
– Coraz powszechniejsze stanie się użycie zaawansowanych rozwiązań DCIM, które, wykorzystując sztuczną inteligencję, będą w optymalny sposób dobierać parametry pracy urządzeń – przewiduje Grzegorz Niziński.
Pomimo wcześniejszych wątpliwości, związanych z wdrażaniem oprogramowania do zarządzania infrastrukturą centrum danych (DCIM) i zwrotem z takiej inwestycji, platformy te zaczynają być uznawane za integralny element programowo definiowanej infrastruktury w centrum danych. Uzasadnienie zakupu rozwiązania, które będzie m.in. monitorować pobór prądu (przy użyciu takich standardów jak PUE) i ułatwiać uzyskanie wyższej efektywności energetycznej, nie powinno być w takich okolicznościach szczególnie trudne.
Rośnie też znaczenie wspomnianej sztucznej inteligencji w centrum danych. Gdy rolą działów IT przestaje być dostarczanie sprzętu, a staje się świadczenie usług „wszędzie i o każdej porze”, jest ona coraz ważniejszym elementem zarządzania. W wyniku uzyskanej dzięki niej automatyzacji zadań i redukcji błędów przedsiębiorstwa mogą rozszerzyć zakres i podnieść jakość obsługi IT bez zwiększania liczby pracowników.
W porównaniu z akumulatorami kwasowo-ołowiowymi baterie litowo-jonowe mają same zalety i… jedną poważną wadę – cenę. Oczekuje się jednak, że będzie ona spadać wraz ze wzrostem produkcji.
Artykuł Centrum danych na nowe czasy pochodzi z serwisu CRN.
]]>Artykuł Monitoring wizyjny, kontrola dostępu i brak przestojów pochodzi z serwisu CRN.
]]>Kamery IP to dla integratora po prostu kolejna grupa urządzeń końcowych. Dość specyficzna, bo wymagająca nowych kwalifikacji, chociażby z zakresu optyki. Nie będzie jednak problemem zdobycie u dostawców informacji o tym, jak określać obszar pokrycia monitoringiem, dobierać obiektywy i obliczać różne parametry, np. całkowitą przestrzeń dyskową potrzebną do zapisu obrazu zgodnego z polityką przechowywania danych u klienta. Na tym rynku przewagę może dać integracja systemów monitoringu, kontroli dostępu oraz innych rozwiązań w zakresie bezpieczeństwa fizycznego.
Jak w każdym sektorze branży IT, tak i w monitoringu IP trzeba zmierzyć się z błędnym przekonaniem klientów, że najważniejszy jest koszt zakupu. Tymczasem cena systemu dozorowego powinna być sprawą drugorzędną. Zdarza się, że system monitoringu jest instalowany tylko dlatego, że ubezpieczyciel wymaga tego przy zawieraniu umowy. Gdy później zdarzy się incydent, najtańsze kamery nic nie pokażą. A poszkodowani klienci, którzy chcieli maksymalnie zaoszczędzić, nabywając po kilkadziesiąt złotych kamery „no-name”, zwracają się do integratorów z prośbą o pomoc w znalezieniu i wdrożeniu profesjonalnego rozwiązania do monitoringu.
Wybór tanich rozwiązań wynika także z niewiedzy. Często klient postanawia umieścić kamery gdzie tylko się da, sądząc, że w ten sposób zapewni sobie lepszy monitoring. Jeżeli dojdzie do wniosku, że potrzebuje 30 kamer, to – mając określony budżet – będzie musiał kupić urządzenia tańsze.
– Nie wie, że lepszym rozwiązaniem będzie w tym wypadku nabycie 15 kamer dwa razy droższych. Wyda tyle samo, a efekt osiągnie znacznie lepszy – tłumaczy Maciej Cenkier, Surveillance Product Manager w Konsorcjum FEN.
Do błędnych decyzji zakupowych może prowadzić też pogląd wyrażany przez klientów (ale nierzadko i przez instalatorów), że w kamerach najważniejsza jest rozdzielczość. Przekonanie, że im więcej megapikseli, tym lepiej, niekoniecznie sprawdza się w praktyce. Przy większym zagęszczeniu pikseli do kamery wpada mniej światła i lepszy efekt może dać wysokiej jakości kamera o mniejszej rozdzielczości, z odpowiednio dobrym przetwornikiem.
– Kamera 2- lub 3-megapikselowa z większą światłoczułością zapewni lepszy obraz w dzień niż 8-megapikselowa i dłużej podtrzyma podgląd w pogarszających się warunkach oświetleniowych, bez przełączania się w tryb czarno-biały – mówi przedstawiciel Konsorcjum FEN.
System monitoringu wizyjnego potrzebuje pamięci masowej, w której będzie przechowywany obraz rejestrowany przez kamery. Można klientowi zaoferować serwer NAS, do którego producenci dołączają oprogramowanie do monitorowania, najczęściej z kilkoma darmowymi licencjami na kamery (kolejne są płatne). Choć nabycie NAS to dla klienta większy wydatek niż kupno rozwiązania przeznaczonego wyłącznie do monitoringu IP, duże znaczenie ma fakt, że otrzyma funkcjonalną pamięć masową, która będzie spełniać wiele innych zadań w jego firmie.
Klientowi chcącemu stworzyć profesjonalny system monitoringu integrator powinien zaproponować sprzęt przeznaczony do takich zastosowań a nie standardowe monitory ogólnego użytku.
– Ponieważ monitoring polega najczęściej na pracy w trybie 24/7, standardowe monitory będą ulegać częstszym awariom niż urządzenia zaprojektowane do ciągłego działania – mówi Elżbieta Jędryka, Business Development Manager w Alstorze. – Poza tym specjalistyczne monitory są dostosowane do wyświetlania obrazu wysokiej jakości i rozdzielczości, więc lepiej nadają się na przykład do wyświetlania obrazu z wielu kamer jednocześnie.
Wykorzystanie inteligencji w rozwiązaniach monitoringu wizyjnego polega na analizie obrazu i związanych z nim informacji, co może mieć mnóstwo zastosowań. Wśród tych wykorzystywanych w biznesie można wymienić na przykład badanie ruchu i zachowania klientów w sklepach w celu zwiększenia sprzedaży. Z kolei rozpoznawanie twarzy, niebezpiecznych przedmiotów, detekcja dymu i ognia to funkcje wykorzystywane w systemach bezpieczeństwa.
Na rynku są dostępne kamery o rozdzielczości nawet 30 Mpix (7K), rejestrujące bardzo szczegółowy obraz w dużym polu widzenia. Wielkie rozdzielczości wymagają technik skutecznie ograniczających wykorzystanie pasma i pamięci (kompresja H.264).
Wraz ze spadkiem cen sprzętu rośnie oczekiwanie, że będzie on dostarczał obraz złożony z większej liczby klatek na sekundę. W większości kamer do monitoringu IP standardem jest 30 kl./s, ale są też urządzenia rejestrujące obraz z szybkością 120 kl./s. Niektóre stosowane w monitoringu IP aplikacje wymagają dużych szybkości klatkowych, należy do nich m.in. rozpoznawanie tablic rejestracyjnych.
Modele hemisferyczne (180 albo 360 stopni) zaczynają powoli wypierać szybkoobrotowe kamery PTZ, które pokazują fragment całego obrazu, na który są w danym momencie skierowane. Kamera dookólna jest wyposażona w wiele soczewek, z których obraz – dzięki zaawansowanemu oprogramowaniu – jest automatycznie przetwarzany na pełny widok.
Dzięki postępowi w zakresie światłoczułości kamery IP stały się bardzo funkcjonalnymi urządzeniami, z których można korzystać także w nocy. Dzięki wykorzystaniu sensorów IR i termowizji do wykrywania ruchu i obiektów nie jest w ogóle potrzebne światło widzialne. Gdy zastosuje się funkcję dodawania koloru do obrazu w podczerwieni staje się on bardzo podobny do uzyskiwanego w świetle widzialnym.
Zapewniają dokładniejszy, oparty na głębi obraz, lepiej określają rozmiar, kształt i odległość do monitorowanych obiektów. Znajdują zastosowanie przede wszystkim w analityce wideo, sprawdzają się np. w precyzyjnym zliczaniu ludzi lub rozpoznawaniu niebezpiecznych zachowań.
Kontrola dostępu także musi być chroniona
Zaawansowane rozwiązania do ochrony danych nie pomogą, gdy nie zostaną wdrożone odpowiednie zabezpieczenia fizyczne. Inaczej przestępcy łatwiej będzie wejść do serwerowni i wykraść dysk z danymi, niż zaplanować wyrafinowany atak przez Internet. Najczęściej w kontroli wstępu do pomieszczeń i na zakładowy teren stosuje się systemy z kartami, czytnikami i kontrolerami. Ponieważ w sprzedaży jest wiele tego typu rozwiązań, aby osiągnąć oczekiwany poziom bezpieczeństwa, integrator musi wybrać właściwą technikę.
Zdecydowanie nie ma sensu wybór producenta rozwiązania, który dla wszystkich klientów stosuje ten sam klucz cyfrowy. Mniej bezpieczny będzie też system, w którym na wszystkich kartach przechowywany jest ten sam klucz. Czytniki kart powinny być dobrze zabezpieczone przed przejęciem klucza przez intruza. Skuteczniejsze będzie rozwiązanie, w którym klucze są przechowywane nie w zewnętrznym czytniku kart, ale w centralnym kontrolerze, do którego dostęp wymaga specjalnego uwierzytelnienia.
W miejscach, w których powinna być zastosowana zwiększona kontrola dostępu, stosuje się wieloskładnikowe uwierzytelnianie, na które składa się element, który użytkownik posiada (np. karta), element, który zna (PIN lub hasło), oraz taki, który jest charakterystyczny dla jego osoby (biometria). Użycie kombinacji wymienionych metod uwierzytelniania znacznie ogranicza ryzyko, że próbująca uzyskać dostęp osoba nie jest tą, za którą się podaje. W tym przypadku mniejszym problemem staje się zgubiona, skradziona lub sklonowana karta. Najtańsze tego typu rozwiązania, w których drugim po karcie elementem jest hasło lub PIN, wymagają użycia czytników z wbudowaną klawiaturą. Najlepiej, jeśli hasło będzie okresowo zmieniane – im częściej, tym lepiej.
Wygodę w systemach kontroli dostępu, zarówno pracownikom, jak i osobom odpowiedzialnym za administrowanie nimi, powinno dać zastosowanie biometrii. Wielofunkcyjne terminale, zapewniające biometryczną identyfikację osób, a także tradycyjny sposób kontroli dostępu za pomocą kart czy kodów, dają większe pole manewru we wdrożeniach i zwiększają bezpieczeństwo, umożliwiając zastosowanie dwóch wybranych metod łącznie (np. PIN-u i wzorca odcisku palca lub geometrii twarzy). Niestety, ze względu na relatywnie wysoki koszt klienci rzadko wybierają rozwiązania biometryczne, choć są niezwykle skuteczne i zapewniają wysoki poziom bezpieczeństwa.
Z kolei rozwiązania bazujące na rozpoznawaniu twarzy, ponieważ nie oferują jeszcze bardzo dużej dokładności, mogą być wykorzystywane wyłącznie jako drugi czynnik uwierzytelniający. Biometria od lat postrzegana jest jak docelowy system kontroli dostępu. Na razie, ze względu na cenę, złożoność, a także pewne problemy z użyciem systemów nie zyskują takiej popularności, jakiej się spodziewano. Warto także wiedzieć, że dane biometryczne są uznawane za osobowe, więc podlegają wyjątkowej, ujętej w przepisach ochronie.
Coraz częściej przedsiębiorstwa wybierają nowoczesne systemy kontroli dostępu bazujące na protokole IP. Tego rodzaju ochrona może być ściślej zintegrowana z systemem informatycznym firmy niż rozwiązania monitoringu IP. Ten sam system, który powoduje otwarcie zamka po zbliżeniu karty do czytnika, może służyć do logowania się pracownika na komputerze, przyznawać uprawnienia nowo zatrudnionym i odbierać je rozstającym się z firmą. W takim ujęciu integracja ogranicza ryzyko szkód wyrządzanych przez niezadowolonych byłych pracowników, którym zapomniano odebrać prawa dostępu. Fizyczny system kontroli dostępu przestaje więc pełnić wyłącznie rolę „odźwiernego”– bywa także połączony np. z funkcjami HR, takimi jak kontrola czasu pracy, płace itp.
Maciej Cenkier ,Surveillance Product Manager, Konsorcjum FEN
Dla integratorów oferujących systemy monitoringu wizyjnego ważna jest wiedza o ofercie rynkowej, umiejętność montowania kamer we właściwych miejscach oraz pełnego wykorzystania możliwości sprzętu i oprogramowania. Jest kilka sposobów zdobycia tej wiedzy. Niektórym partnerom wystarczy przeszkolenie z działania i doboru rozwiązań. Potem, wyposażeni w gotowe narzędzia i kalkulatory, radzą już sobie sami. Dla wielu, zwłaszcza początkujących, lepszym wyjściem jest skorzystanie z pomocy dystrybutora podczas kilku wdrożeń. Dystrybutor przeszkoli klienta końcowego, a przy okazji partnera, który zdobywa w ten sposób praktyczne doświadczenie.
Bezpieczeństwo fizyczne jako brak przestojów
Zasilanie gwarantowane i klimatyzacja to kolejny obszar bezpieczeństwa fizycznego związany z zachowaniem ciągłości działania systemów informatycznych (a także wielu innych). Nie ma znaczenia skala biznesu. Dla małej firmy komputery, serwery i sieć są tak samo ważne jak centrum danych dla korporacji. Straty wynikłe z uszkodzenia sprzętu są dotkliwe, a przestój oznacza przerwę w sprzedaży albo produkcji i utratę związanych z tym przychodów, a przy tym trudną do oszacowania utratę reputacji.
UPS-y chronią nie tylko przed zanikami zasilania, ale także przed jego złą jakością. Może ona spowodować nie mniejsze szkody niż przerwa w dopływie energii, a przestoje nawet dłuższe (gdy urządzenia ulegną awarii np. wskutek przepięcia).
– Rośnie liczba klientów, którzy wiedzą, że UPS to nie tylko podtrzymanie zasilania, ale również, w przypadku produktów online, bardzo dobre zabezpieczenie wrażliwych odbiorów oraz skuteczny filtr napięcia – zauważa Sławomir Franczak, kierownik ds. rozwoju biznesu UPS w Legrandzie.
Na polskim rynku systemów zasilania awaryjnego panuje bardzo silna konkurencja. Klient ma szeroki wybór marek i dostawców. Według Marka Bigaja, prezesa Evera, wybierając produkty, należy zwracać większą uwagę na wiarygodność dostawcy, jego historię rynkową i oferowany zestaw usług posprzedażowych.
Natomiast z doświadczeń polskiego oddziału firmy Socomec wynika, że klienci są coraz bardziej świadomi faktu, że nowoczesne zasilacze UPS powinny się charakteryzować wysoką niezawodnością (MTBF) oraz sprawnością (najlepiej potwierdzoną certyfikatem niezależnej jednostki badawczej). Dzięki wysokiej sprawności mniejsze są straty cieplne, a tym samym niższe koszty eksploatacji. Ważny jest jak najwyższy współczynnik mocy wyjściowej (bliski 1), co oznacza więcej mocy czynnej dla użytkownika. Klienci cenią sobie także możliwość zarządzania UPS-ami przez sieć i ich kompaktowe rozmiary. Łatwe powinny być: obsługa, rozbudowa i serwisowanie w autoryzowanym serwisie producenta (zapewniającym części zamienne, odpowiednio krótki czas naprawy oraz wydłużenie gwarancji).
– Klienci biznesowi oczekują m.in. wysokiej sprawności zasilaczy UPS, możliwości zarządzania nimi przez sieć, łatwej obsługi i rozbudowy oraz szybko i skutecznie działającego serwisu producenta – podsumowuje Dorota Suszek, regionalny kierownik sprzedaży w Socomecu.
Energooszczędność jest dla użytkowników istotną wartością dodaną do podstawowych funkcji zasilacza UPS. Przekłada się na całkowity koszt urządzenia, które po pewnym okresie eksploatacji okazuje się tańsze od tego z niską ceną zakupu. Warto informować klientów, którzy potrzebują np. wielu małych zasilaczy do sieci handlowej, że kilkadziesiąt złotych rocznie oszczędności na opłatach za energię przypadających na jedno urządzenie daje w sumie dużą kwotę.
W dziedzinie zasilania gwarantowanego można zaobserwować stopniowe rezygnowanie z dużych zasilaczy UPS na korzyść modułowej, skalowalnej konstrukcji, dzięki której klient może wybrać dokładnie taką moc, jakiej potrzebuje na danym etapie inwestycji, i stopniowo zwiększać ją, zgodnie z zapotrzebowaniem biznesowym. W takim modelu łatwiejsze staje się także zapewnienie redundancji, gdyż system działa nawet w przypadku awarii któregoś modułu.
Do zapewnienia ciągłości działania systemu informatycznego potrzeba także odpowiednio chłodzonej infrastruktury. Serwery nie będą bezpieczne, jeśli za odprowadzanie ciepła będzie odpowiadać ogólny system klimatyzacji budynku. Integrator może zabezpieczyć system IT klienta nie tylko dostarczając mu profesjonalny system chłodzenia, ale także pomagając w takim urządzeniu serwerowni, by zwiększyć jej efektywność energetyczną i jak najlepiej wykorzystać możliwości klimatyzacji precyzyjnej.
Marek Bigaj, prezes zarządu, Ever
Duże firmy, a coraz częściej także średnie, wybierając system zasilania gwarantowanego, stawiają przede wszystkim na kompleksowość oferty, w tym solidny serwis, oraz zoptymalizowane koszty utrzymania systemu. Przez kompleksowość rozumieją dostosowanie rozwiązania do specyficznych potrzeb, audyty z pomiarami parametrów sieci i charakterystyką obciążeń, po dostawę, instalację i uruchomienie rozwiązania, szkolenie w zakresie obsługi oraz rzetelną opiekę posprzedażną, m.in. okresowe przeglądy serwisowe sprzętu.
Ważne długotrwałe relacje
Dla większości firm IT jasne jest, że relacje z klientami nigdy nie powinny przebiegać według schematu „sprzedaj i zapomnij”. Muszą bazować na zaufaniu, a zachowa się je, jeśli dostarczane rozwiązania będą najlepiej spełniały potrzeby nabywcy. Szczegółową wiedzę o potrzebach i ich zaspokajaniu ma właśnie reseller oraz integrator, i to na nim – a nie dystrybutorach czy producentach – ciąży odpowiedzialność za właściwy dobór rozwiązań. Jest to szczególnie ważne w przypadku zapewniania bezpieczeństwa i ciągłości działania systemów użytkownika.
Zasilanie gwarantowane opiera się na zaawansowanych urządzeniach, które same mogą ulec awarii, wymagać aktualizacji oprogramowania czy rozwiązania problemów technicznych. Działania integratora powinny obejmować – oprócz technicznego opracowywania i dostosowywania projektów oraz uruchamiania sprzętu u klienta – także wsparcie posprzedażowe. Jest to niezmiernie ważne dla trwałości relacji. Jakość tego wsparcia będzie z kolei w dużym stopniu zależeć od relacji integratora z dostawcą. Warto zatem oferować rozwiązania takich producentów, którzy zapewnią właściwą i szybką pomoc w razie awarii.
Wsparcie w zakresie UPS-ów to tylko jeden z elementów obsługi klienta, polegający na dostarczaniu mu kompletnego systemu IT – serwerów, pamięci, szaf, okablowania itp. Wraz z rozwojem firmy klienta zwiększać się będą jego potrzeby dotyczące zasilania gwarantowanego. To stwarza możliwość rozbudowy i wymiany zasilaczy UPS, m.in. dodawania modułów do istniejącego systemu.
Jeśli rozwój biznesu klienta nie jest intensywny, jako powód do rozmowy o dalszych inwestycjach można wykorzystać fakt, że urządzenia mają określony cykl życia i wymagają modernizacji. Na przykład z czasem baterie w UPS-ach się zużywają, a użytkownicy powinni być systematycznie informowani o konieczności ich wymiany. Integrator może wykorzystać tę okazję do rozmowy o strategicznych decyzjach klienta dotyczących rozwoju firmowego systemu informatycznego.
Adam Pacocha, prezes Falcon 24, członek zarządu Luna & Sokół Security
Wobec konieczności optymalizacji kosztów wykorzystanie wideoanalityki w monitoringu rozwiązuje najbardziej palący problem związany z czasem pracy i kompetencjami agentów ochrony. Kamery IP w połączeniu z analizą wideo zapewniają dużą wydajność detekcji przez 24 godziny na dobę, 365 dni w roku. Przeniesienie zadań i odpowiedzialności z ludzi na urządzenia i postawienie agenta w nowej roli – osoby zarządzającej systemem zabezpieczeń, a nie bezpośrednio czuwającej nad bezpieczeństwem obiektu – to duży krok w kierunku zwiększenia jakości ochrony. Zaawansowane algorytmy zaszyte w systemie analizują scenę w czasie rzeczywistym i w razie incydentu przesyłają do stacji monitorowania alert wraz z załączonym obrazem. Dzięki analizie tysięcy godzin zarejestrowanych obrazów, pochodzących z różnych okresów i miejsc, oraz zwiększonej czułości systemu można w praktyce doprowadzić do zupełnego braku fałszywych alarmów. Oprogramowanie zapewnia też dokładną parametryzację wykrytego obiektu, w tym określenie jego wielkości oraz szybkości przemieszczania się.
Artykuł Monitoring wizyjny, kontrola dostępu i brak przestojów pochodzi z serwisu CRN.
]]>Artykuł Serwerownie: dane pod kluczem pochodzi z serwisu CRN.
]]>Katalog Federalnego Urzędu Bezpieczeństwa i Technik wymienia aż 27 zagrożeń fizycznych dla centrów danych oraz serwerowni. Na tej długiej liście znajdują się m.in. szkody wyrządzone przez pracowników. Warto dodać, że według badania zleconego przez Schneider Electric 70 proc. przestojów serwerowni wynika z celowego działania człowieka lub jego błędów.
Nowoczesne serwerownie naszpikowane są inteligentnymi rozwiązaniami ochronnymi. Jednak mimo dużych możliwości, jakie otwiera przez resellerami oraz integratorami ten segment rynku, większość przedsiębiorstw skupia się na sprzedaży rozwiązań służących do cyfrowej ochrony sieci. Tymczasem presja ze strony usługodawców, a także europejskie dyrektywy o ochronie danych osobowych (UE 95/46/WE) oraz ogólne przepisy (PCI DSS, HIPAA, ustawa Sarbanesa-Oxleya) wymuszają na firmach stosowanie także fizycznych zabezpieczeń.
• Piotr Piejko, dyrektor Działu Kontraktów, ZSK
Instalujemy systemy monitoringu wizyjnego w serwerowniach. Zainteresowanie takimi rozwiązaniami w 2016 r. było dość stabilne. Można powiedzieć, że widać lekki trend wzrostowy, związany ze zwiększaniem się wiedzy użytkowników na temat roli monitoringu wizyjnego w utrzymaniu bezpieczeństwa obiektów. Dodatkowym czynnikiem zwiększającym popyt jest modernizacja istniejących systemów, które często były wykonywane w technologii analogowej. Obecnie wszystkie nowe systemy wykorzystują już technologię IP. W segmencie monitoringu wizyjnego występuje kilka istotnych trendów, takich jak bezprzewodowość, zmniejszanie wymiarów kamer, coraz wyższa jakość zapisywanego obrazu, a także analiza obrazu dokonywana bezpośrednio przez kamery.
Kolejne poważne wyzwanie stanowi Ogólne rozporządzenie o ochronie danych osobowych (RODO), które zacznie obowiązywać we wszystkich krajach Unii Europejskiej od 25 maja 2018 r. Nakłada ono nowe obowiązki w zakresie dostępu i przetwarzania danych osobowych. Przedsiębiorcy, którzy nie będą wypełniać zaleceń, muszą się liczyć z wysokimi grzywnami, dochodzącymi nawet do 4 proc. obrotów. Większość z nich będzie zmuszona poprawić zarówno jakość zabezpieczeń sieciowych, jak i ochrony fizycznej pomieszczeń z serwerami oraz macierzami dyskowymi.
• Grzegorz Bielawski, Country Manager, QNAP
Firmy wprowadzające do oferty systemy monitoringu wizyjnego muszą uwzględnić dwie cechy: funkcjonalność określonego systemu oraz możliwość rozbudowania go o dodatkowe funkcje, urządzenia i narzędzia. Nie ma dwóch takich samych wdrożeń. Klienci mają różne potrzeby i oczekiwania wobec systemu monitoringu, dlatego tak ważna jest możliwość precyzyjnego dostosowania go do specyfiki konkretnego przedsiębiorstwa.
• Jakub Kozak, Sales Manager, Axis Communications
Naszym zdaniem kierunek rozwoju rynku monitoringu wizyjnego będą wyznaczać: szybka transmisja danych, big data oraz deep learning. Zauważamy też, że w miarę rozwoju innowacyjnych rozwiązań klienci przestają traktować systemy zabezpieczeń jak zbiór podłączonych do sieci elementów sprzętowych i oprogramowania. Zaczynają natomiast patrzeć na kwestie bezpieczeństwa holistycznie, jak na usługę zdalnego i profesjonalnego dozoru wizyjnego.
• Bartłomiej Madej, TELCO Group Manager, Veracomp
Stosowanie monitoringu wizyjnego stało się powszechne. Począwszy od standardowej ochrony obwodowej, obejmującej ogrodzenia posesji, parkingów czy placów budowy, aż po bardzo wysublimowane zastosowanie w sklepach, gdzie najważniejszą zaletą dobrej kamery jest jej zdolność analityczna. Urządzenia posiadające dodatkowe, ponadstandardowe funkcje, np. obiektywy termiczne, wykorzystywane są do monitorowania linii technologicznych. Dokładność wskazań na poziomie dziesiątych części stopnia Celsjusza pozwala na kilkakrotne zwiększenie dokładności podczas kontroli jakości.
• Piotr Kotas, Monitoring IP Product Manager, EPA Systemy
Monitoring wizyjny jest stosowany przede wszystkim w otoczeniu przedsiębiorstw, na parkingach oraz w ciągach komunikacyjnych. Takie umiejscowienie kamer pozwala rozpoznawać osoby przebywające na terenie firmy, a w razie potrzeby na szybką reakcję. Wartość dodaną systemów monitoringu stanowi specjalistyczne oprogramowanie, które ma rozbudowane funkcje analityczne. Ich lista jest bardzo długa. Systemy mogą rozpoznawać tablice rejestracyjne, twarze, kolory, wykryć dym lub pożar, czy też zliczać obiekty przekraczające wirtualne linie itp.
• Grzegorz Całun, Pre-Sales Engineer, D-Link
System monitoringu powinien być dostosowany do potrzeb użytkownika i spełniać wyznaczone zadania. Jednoznaczne określenie cech idealnego systemu jest niemożliwe. Każde wdrożenie jest inne, na co wpływa wiele czynników, np. rodzaj użytych kamer, jak również ich lokalizacja. Przykładowo instalacja bazująca na dwóch kamerach stałopozycyjnych ustawionych naprzeciw siebie będzie działać podobnie jak system jednej kamery panoramicznej lub rybiego oka.
Jednym z newralgicznych punktów zestawu zabezpieczeń fizycznych są systemy kontroli dostępu. W najbliższym czasie firmy będą rezygnować z prostych środków, w postaci kodów, na rzecz kart zbliżeniowych oraz rozwiązań wykorzystujących cechy biometryczne, takie jak linie papilarne, geometria dłoni, siatkówka oka czy głos. Każda metoda uwierzytelniania wymaga zastosowania odpowiednich urządzeń wejściowych – skanerów, klawiatur, a także rygli bądź zamków elektronicznych.
Niektóre zmiany, choć mają charakter kosmetyczny, znacznie poprawiają bezpieczeństwo danych. Dla przykładu instytucje finansowe oraz placówki służby zdrowia zamiast kluczy mechanicznych, chroniących szafy z serwerami, zaczynają stosować systemy elektroniczne. Wynika to z obaw, że zgubienie klucza lub jego podrobienie przez nieupoważnione osoby spowoduje kradzież danych bądź ich celowe usunięcie. W pomieszczeniach chroniących dane pojawiają się również bardziej wysublimowane zabezpieczenia w postaci specjalistycznych zamków elektronicznych. Administrator może zdalnie przekazywać i odbierać pracownikom uprawnienia dostępu do poszczególnych szaf serwerowych oraz sprawdzać, kto i kiedy otwierał zamek.
Jednym z podstawowych rozwiązań wchodzących w skład fizycznych zabezpieczeń serwerowni jest system monitoringu. Przed zajmującymi się sprzedażą takich rozwiązań przedsiębiorstwami rysuje się jasna przyszłość. Według firmy analitycznej MarketsandMarkets w 2022 r. globalne przychody ze sprzedaży systemów monitoringu wizyjnego osiągną 71,3 mld dol., a średni wskaźnik ich wzrostu w latach 2016–2022 wyniesie 16,6 proc. Niższe ceny kamer oraz nowe funkcje sprawiają, że rośnie popyt na tę grupę produktów.
Segment rozwiązań monitoringu wizyjnego od kilku lat podzielony jest na systemy wykorzystujące kamery analogowe oraz modele IP. W ostatnim czasie wzrasta przewaga tych drugich.
– Cztery lata temu większość wdrażanych systemów dozorowych stanowiły rozwiązania analogowe. Obecnie około 60 proc. instalowanych systemów bazuje na technologii sieciowej. Dzięki przejściu z rozwiązań analogowych na sieciowe zwiększyły się możliwości systemów monitoringu wizyjnego – twierdzi Jakub Kozak, Sales Manager w Axis Communications.
Dużym ułatwieniem dla integratorów i klientów okazało się wprowadzenie technologii HD-CVI, która umożliwia transmisję wideo w wysokiej jakości przez kabel koncentryczny.
– To rozwiązanie cieszy się dużym popytem ze względu na stosunek jakości do ceny. Poza tym umożliwia rozbudowę starego systemu nadzoru wizyjnego dzięki kompatybilności z istniejącym sprzętem analogowym i nie wymaga wydatków na okablowanie. Nawet jeśli firmy wdrażają monitoring od podstaw, często sięgają po rozwiązania w standardzie Analog High Definition, bowiem rozdzielczość 2 Mpix lub 4 Mpix spełnia ich wymagania – mówi Beata Głydziak, doradca zarządu ds. grup produktów Smart Home & Security w Action.
Niestety, kamery pracujące w standardzie AHD nie są wyposażone w funkcje związane z inteligentną analizą obrazu. Tymczasem eksperci są zgodni, że właśnie ta cecha ma fundamentalny wpływ na rozwój systemów monitoringu. Automatyczne reagowanie systemu na zdefiniowane wydarzenia, takie jak ruch w określonej strefie czy odstępstwa od ustalonych wzorców zachowań, oraz informowanie o takich zdarzeniach użytkowników, zapewnia osobom odpowiedzialnym za nadzór obiektów zaoszczędzenie mnóstwa czasu.
Równolegle ze sprzętem rozwijają się aplikacje do analizy danych, znacznie zwiększające możliwości kamer. Rośnie także popularność termowizji zapewniającej rozpoznawanie zagrożeń w zupełnej ciemności.
W rozwiązaniach wideo producenci dążą do zapewnienia maksymalizacji rozdzielczości obrazu. Nie inaczej jest w przypadku systemów monitoringu. Największe możliwości mają kamery Ultra HD, ale na razie nie cieszą się zbyt dużym popytem. Wprawdzie czterokrotnie większa rozdzielczość obrazu niż w modelach Full HD wpływa na jego jakość, ale przedsiębiorstwa nie są przygotowane do korzystania z nowego standardu. Rejestracja obrazu z kamer Ultra HD wymaga odpowiednio zaprojektowanej infrastruktury sieciowej, wdrożenia pojemnych macierzy dyskowych, a także wysokiej klasy monitorów.
Dostawcy wierzą, że rozwiązania do monitoringu wejdą w skład całościowego systemu, który pozwoli w pełni wykorzystać możliwości wszystkich urządzeń zabezpieczających.
– Zapewnienie ochrony nie polega wyłącznie na obserwacji osób, miejsc czy przedmiotów. Integralnym elementem jest również kontrola nad dostępem fizycznym, komunikacja oraz zarządzanie w sytuacjach awaryjnych – podsumowuje Jakub Kozak.
Artykuł Serwerownie: dane pod kluczem pochodzi z serwisu CRN.
]]>Artykuł Eaton 93PS – elastyczność i wymierne oszczędności pochodzi z serwisu CRN.
]]>Wysoka sprawność to mniejsze straty w postaci ciepła, a zatem mniejsze koszty klimatyzacji serwerowni. Zasilacz marki Eaton, który wykonano w topologii on-line, osiąga sprawność ponad 96 proc. w trybie podwójnej konwersji. Parametr ten zwiększa się do 98,8 proc. dzięki technice oszczędzania energii ESS (Energy Saver System). System nieustannie monitoruje sieć i automatycznie wybiera optymalny poziom ochrony zasilania. Ponadto stały monitoring napięcia wyjściowego zapewnia wysoką jakość energii, w razie potrzeby umożliwiając w czasie 2 ms przełączenie do trybu podwójnej konwersji. Natomiast ciągłe filtrowanie chroni przed przepięciami niskoenergetycznymi. Zastosowanie tego rozwiązania nie tylko zwiększa sprawność zasilacza, ale również wydłuża czas życia wentylatorów i elektroniki (powoduje znaczną poprawę parametru MTBF).
UPS Eaton 93PS występuje w dwóch wariantach. Mniejsza obudowa, z jednym modułem zasilania, umożliwia uzyskanie mocy 8, 10, 15 i 20 kW. Większa, o dwóch modułach, oferuje dodatkowo 30 i 40 kW. Skalowanie i wymiana modułów mogą być przeprowadzone bez przerywania pracy zasilacza. W tym trybie mogą być serwisowane także poszczególne gałęzie baterii. Maksymalną dostępność gwarantuje nie tylko obsługa modułów „na gorąco”, ale również zastosowanie opcjonalnego przełącznika statycznego z ultraszybkim bezpiecznikiem.
Eaton 93PS wyróżnia się w swojej klasie także wyjątkowo niewielkimi gabarytami. Urządzenie w mniejszej obudowie potrzebuje jedynie 0,25 mkw., a w większej – 0,36 mkw.
Opisane cechy modelu 93PS przekładają się na wyjątkowo niski całkowity koszt posiadania (TCO) w porównaniu z innymi UPS-ami tej klasy. To rezultat podwyższonej sprawności, skalowalnej architektury (w miarę wzrostu potrzeb aż do uzyskania pracy równoległej ośmiu jednostek) oraz stosunkowo niewielkich rozmiarów. Z myślą o zaspokajaniu zmieniających się wymagań administratorów IT sprzęt Eatona przygotowano do pracy w chmurze i środowiskach zwirtualizowanych.
Warto dodać, że oprogramowanie Eaton Intelligent Power Manager zwiększa poziom niezawodności systemu, tworząc pomost między infrastrukturą IT i elektryczną – przy użyciu jednego ekranu można jednocześnie zarządzać jedną i drugą. IPM zapewnia monitoring i zarządzanie nie tylko fizycznymi i wirtualnymi serwerami, ale też UPS-ami, listwami ePDU i innymi urządzeniami zasilającymi.
Za pomocą automatycznego wyłączania serwerów, wstrzymywania mniej istotnych maszyn wirtualnych czy konsolidacji krytycznych obciążeń przy użyciu mniejszej liczby hostów, IPM i 93PS zapewniają doskonałą ochronę zasilania najważniejszych aplikacji. Przykładowo, zmniejszenie obciążenia o 50 proc. powoduje wydłużenie czasu podtrzymania aż o 250 proc.
Więcej informacji: www.powerquality.eaton.com
Artykuł Eaton 93PS – elastyczność i wymierne oszczędności pochodzi z serwisu CRN.
]]>Artykuł Zabezpieczenie infrastruktury równie ważne jak jej rozbudowa pochodzi z serwisu CRN.
]]>Przestarzałe zasilacze UPS grożą awariami prowadzącymi do przestojów i generują niepotrzebne koszty. Podczas ich pracy – tak jak we wszystkich urządzeniach elektrycznych – dochodzi do straty mocy. Jej wielkość określa wskaźnik sprawności urządzenia, który jest wyrażonym w procentach stosunkiem mocy oddanej do mocy pobranej. Jeżeli klient wykorzystuje starsze zasilacze UPS, o sprawności 85 proc. lub mniejszej, to reseller powinien mu uświadomić, że na każde pobrane z sieci 1000 W traci się wtedy co najmniej 150 W. Co więcej, UPS-y o niskiej sprawności wytwarzają więcej ciepła, które trzeba odprowadzać, a to dodatkowo zwiększa zużycie prądu.
Kolejnym powodem, dla którego za modernizacją infrastruktury serwerowej musi iść usprawnienie systemu zasilania, jest to, że liczba kilowatów na jeden stelaż w ciągu ostatnich lat wzrosła znacząco i trend ten się utrzymuje. Kiedyś łączny pobór mocy na szafę wypełnioną starszymi, konwencjonalnymi serwerami, rzadko przekraczał 5 kW. Wraz z upowszechnieniem się systemów kasetowych wzrosła gęstość upakowania serwerów. Obecnie bywa, że do szafy doprowadza się 10, 15, a czasem nawet 25 kW.
Zarówno zwirtualizowane środowiska, jak i systemy dużej gęstości, mają bez porównania większe wymagania wobec rozwiązań zasilania i chłodzenia. Firmy zmagające się z ciągłym przyrostem danych oczekują obecnie sprawniejszych, bardziej niezawodnych i dających się elastycznie skalować zasilaczy UPS, którymi będzie można łatwo zarządzać. Potrzebują także systemów klimatyzacji, które sprawnie odprowadzą generowane w nadmiarze ciepło, a przy tym nie zrujnują budżetu przewidzianego na zasilanie.
Gdy firma się rozwija, wraz z nią musi rosnąć infrastruktura informatyczna. Trudno jednak do końca przewidzieć tempo tych zmian i tak zwymiarować system informatyczny, by w określonym czasie nie było groźby braku lub nadmiaru zasobów. Rozwiązaniem tego problemu może być modularne podejście do centrum danych, w tym także do infrastruktury zasilającej. Elastyczność systemu zasilającego ma dziś wyjątkowo duże znaczenie, bo musi nadążać za ciągle zwiększaną skalowalnością platform serwerowych i macierzy dyskowych. Na rynku można znaleźć wiele rozwiązań UPS – jedno- i trójfazowych – które zapewniają rozbudowę systemu zasilania przez dokładanie kolejnych modułów o mocy od kilku do kilkunastu kVA. Dzięki temu można na bieżąco zaspokajać potrzeby w zakresie zasilania.
– Modułowa budowa UPS upraszcza również sposób serwisowania, bez konieczności wyłączania całego systemu, a wymiana pojedynczego modułu jest szybka i prosta – mówi Sebastian Janowski, Product Manager w Eptimo.
Poszukiwanymi obecnie przez klientów cechami zasilaczy UPS są: możliwość zdalnego monitoringu i sterowania urządzeniem przy użyciu karty SNMP, interfejs HID USB czy RS232/RS485, jak również możliwość stałej kontroli czasu podtrzymania, podłączenia dodatkowych modułów bateryjnych czy samodzielnej wymiany baterii.
– Oprogramowanie do zarządzania infrastrukturą wymaga też stałego doskonalenia i dopasowywania do zmiennych oczekiwań ze strony użytkowników. Klienci mają możliwość zgłaszania uwag i propozycji rozwoju naszego oprogramowania PowerSoft, które często są uwzględniane w kolejnych jego wersjach. Wydają się oni poszukiwać rozwiązań zapewniających jak największą kontrolę nad zasilaczami – twierdzi Sebastian Warzecha, dyrektor handlowy firmy EVER.
Michał Pyter
Obecnie podczas modernizacji systemów zwraca się uwagę przede wszystkim na efektywność, opłacalność oraz późniejszy wpływ infrastruktury na środowisko. Dlatego też często korzysta się z wirtualizacji, która pozwala zaoszczędzić nawet do 30 proc. na samych rachunkach za elektryczność. Ale na redukcję kosztów może wpłynąć też wdrożenie odpowiednio zaprojektowanego skalowalnego systemu zasilania i chłodzenia. Jeśli zostanie on sprzężony z oprogramowaniem monitorującym zarówno fizyczną infrastrukturę, jak i wirtualne serwery, administrator otrzyma pełen wgląd w obraz centrum danych.
Obecnie modnym słowem w odniesieniu do centrów danych i infrastruktury IT jest konwergencja, a nawet „hiperkonwergencja”. Odnosi się to do koncepcji połączenia serwerów, pamięci masowej, rozwiązań sieciowych, wirtualizacji oraz innych elementów w zintegrowane rozwiązanie. Takie, które będzie mogło być administrowane przez jedną centralną konsolę, a nie przez odrębne narzędzia do zarządzania. Przy takim podejściu infrastruktura jest łatwiejsza w zarządzaniu i skalowaniu – zarówno „w górę”, jak i „w dół”.
W infrastrukturze nowego typu muszą znaleźć się także systemy zasilania. Fakt rosnącej popularności rozwiązań stworzonych z myślą o konwergencji potwierdza Adrian Pecyna, Product Manager w Eatonie.
– Zwiększone zainteresowanie infrastrukturą konwergentną pchnie klientów w stronę poszukiwań jeszcze bardziej kompleksowych, a zarazem elastycznych rozwiązań – twierdzi Adrian Pecyna.
Kluczowym elementem infrastruktury o dużym stopniu integracji jest możliwość łatwego zarządzania nią – dotyczy to także zasilania. Użytkownik ma w swojej konsoli administracyjnej dostęp do informacji na ten temat. Umożliwia to reagowanie z wyprzedzeniem na sytuacje kryzysowe lub nawet ich unikanie. Oprogramowanie poinformuje bowiem użytkownika o konieczności wymiany wysłużonych baterii, a w ostateczności – w przypadku braku zasilania sieciowego – może wyzwolić proces migracji maszyn do lokalizacji zapasowych.
W mniejszych firmach i oddziałach większych przedsiębiorstw wiele urządzeń IT instaluje się w pomieszczeniach, które serwerowniami stają się z przypadku. Często takich pomieszczeń nie projektowano z myślą o utrzymywaniu temperatury optymalnej dla prawidłowego działania urządzeń. Dlatego zgromadzony w nich sprzęt IT, taki jak routery obsługujące VoIP, przełączniki czy serwery, często ulega przegrzaniu lub psuje się przedwcześnie z powodu niewłaściwego chłodzenia.
– W serwerowniach, w których łączny pobór mocy, w przypadku systemów krytycznych dla funkcjonowania firmy, jest wyższy niż 2000 W, powinno się stosować urządzenia klimatyzacji precyzyjnej. To samo zalecenie dotyczy urządzeń o mniejszym znaczeniu, jeśli pobór mocy przekracza 4500 W. Zdecydowanie nie polecamy wykorzystywania tzw. systemów klimatyzacji komfortu, gdyż najczęściej staje się to przyczyną dużych wahań temperatury w pomieszczeniu – przestrzega Michał Pyter, Enterprise Team Manager w Schneider Electric.
Coraz bardziej upakowana infrastruktura IT stawia rozwiązaniom klimatyzacji niemałe wymagania. O tym, jak ważne jest odpowiednio zaprojektowane chłodzenie, świadczą koszty. Jeśli wdrożone rozwiązanie jest kiepskiej jakości, to energia potrzebna do zapewnienia odpowiedniej temperatury w serwerowni może być równa bądź większa od tej wykorzystanej do zasilenia całego sprzętu IT. Ponadto chłodzenie często stanowi czynnik, który ogranicza pojemność centrum danych, gdyż odprowadzenie ciepła jest bardziej złożonym problemem niż dostarczenie zasilania do sprzętu.
Prawidłowe podejście do chłodzenia polega bardziej na usuwaniu nadmiaru ciepła niż dostarczaniu schłodzonego powietrza. W typowym, chłodzonym zimnym powietrzem centrum danych, blisko 40 proc. energii zużywa klimatyzacja, a pozostałe 60 proc. wykorzystują serwery, pamięć masowa, rozwiązania sieciowe itp. Dlatego, jeśli chłodzenie zostanie zaprojektowane w przemyślany sposób i będzie stale pod kontrolą, to oszczędności wynikające z mniejszych kosztów zużycia energii będą znaczne. Rozwiązaniem prowadzącym do maksymalizowania oszczędności jest tzw. free-cooling, co można przetłumaczyć jako „chłodzenie za darmo”. Rośnie zainteresowanie tą techniką, która polega na wykorzystaniu zimnego powietrza, obecnego na zewnętrz budynku, do efektywnego obniżania temperatury czynnika chłodzącego systemu klimatyzacji w serwerowni. W Polsce, przez większą część roku, klimat zdecydowanie sprzyja wykorzystaniu tej metody.
Sprzedaż rozwiązań zasilania gwarantowanego napędzana jest przez coraz większą zależność powodzenia biznesu od utrzymania ciągłości działania wszystkich systemów w przedsiębiorstwie. Warto więc konstruować oferty w taki sposób, aby nie były przeciążone aspektami technicznymi. Zamiast tego, powinny bardziej akcentować sposoby na rozwiązanie konkretnych problemów w kontekście zachowania ciągłości biznesowej.
Chociaż sprzedawcy systemów zasilania muszą się zmagać z presją cenową, to perspektywy dla tego rynku są niezmiennie obiecujące. Systemy informatyczne wymagają przecież ciągłej modernizacji, a nowe rozwiązania, takie jak zwirtualizowane platformy serwerowe o dużej gęstości, ujednolicona komunikacja czy coraz szybsze sieci bezprzewodowe, skłaniają do wymiany starszych systemów UPS na nowe, skalowalne i modularne rozwiązania.
Wobec nieustającego zapotrzebowania na systemy zasilania i chłodzenia resellerzy powinni skupić się na sprzedaży rozwiązań, które dają klientom większą korzyść biznesową, a więc takich, które im samym przyniosą wyższe marże. Warto też, by obudowali swoją ofertę dodatkowymi usługami, choćby wsparcia i serwisu. Okazją do większego zarobku dla resellera będzie też audyt energetyczny i ocena efektywności centrum danych, konserwacja sprzętu, a także usługi zarządzane lub outsourcing. Dobrze skonstruowana oferta sprawi, że klienci będą chętnie zwracać się do tego samego partnera przy okazji modernizacji lub rozbudowy infrastruktury IT.
Sebastian Warzecha
Wśród małych i średnich przedsiębiorstw do zabezpieczenia serwerów najczęściej wykorzystywane są zasilacze w topologii online o mocach od 1 do 10 kVA. Ale coraz większym zainteresowaniem cieszą się rozwiązania centralne o mocach 10–60 kVA, wykorzystywane do ochrony całej infrastruktury obiektu. Firmom wyposażającym serwerownie zalecamy myślenie perspektywiczne i planowanie na kilka lat do przodu. Oznacza to konieczność kupna zasilacza UPS z możliwością rozbudowy w przyszłości albo rozwiązania „na wyrost” o większej mocy, aby nawet niewielkie zwiększenie liczby urządzeń nie oznaczało konieczności natychmiastowego doposażania infrastruktury w kolejne zasilacze.
Artykuł Zabezpieczenie infrastruktury równie ważne jak jej rozbudowa pochodzi z serwisu CRN.
]]>Artykuł Małe firmy też stać na outsourcing serwerowni pochodzi z serwisu CRN.
]]>Dlatego warto rozważyć współpracę z podmiotem, który spełni oczekiwania niemożliwe przy tradycyjnej formule wsparcia. Jeżeli firma absolutnie nie może stracić danych (nawet w wyniku katastrofy – pożaru, zalania czy zawalenia budynku) albo gdy brak ich dostępności powoduje wymierne straty, powinna przenieść je do profesjonalnego centrum przetwarzania danych, z którym zawrze umowę SLA. Dla resellera taka formuła współpracy nie musi być zagrożeniem – na zewnątrz zostaje „wyprowadzony” tylko jeden aspekt funkcjonowania firmy klienta, a reseller (oprócz tego, że dostaje prowizję za polecenie klienta) nadal może świadczyć lokalne wsparcie, dostarczać sprzęt IT, rekomendować użycie konkretnego oprogramowania i usług, a – przede wszystkim – najczęściej reprezentuje swojego klienta w kontaktach z operatorem zewnętrznego centrum danych.
Pracownicy firm powinni mieć możliwość nieskrępowanego wykonywania obowiązków. Jednak większość z nas z własnego doświadczenia wie, że to IT jest obecnie jedną z najczęstszych przyczyn przestojów. Na Zachodzie ten trend zauważono już dawno i dlatego coraz częściej opieka nad całością zagadnień informatycznych w przedsiębiorstwach podlega outsourcingowi. Klient oczekuje, że firma resellerska dostarczy mu odpowiednie urządzenia oraz infrastrukturę sieciową. Zdalny dostęp do danych następuje przez szyfrowane łącze internetowe (VPN) – stałe lub komórkowe (z urządzeń mobilnych). Coraz częściej w zewnętrznym centrum danych infrastruktura klienta ma postać wirtualnych desktopów, co czyni z lokalnych komputerów, tabletów czy telefonów komórkowych zwykłe terminale dostępowe.
Mentalność polskich właścicieli mniejszych firm jeszcze nie zawsze pozwala na tak radykalne działania. Na razie udaje się przekonać coraz więcej przedsiębiorców, że w zewnętrznym centrum danych informacje będą bezpieczniejsze niż na serwerze stojącym pod biurkiem właściciela firmy.
Centralizacja zasobów IT i zapewnienie bezpiecznego dostępu do danych stwarza mnóstwo ciekawych możliwości zmiany modelu funkcjonowania firmy. Pracownicy nie muszą wynosić do domu firmowych danych na pendrive’ach (tak często gubionych), aby wykonać pracę. Handlowcy mają dostęp do zawsze aktualnych cenników i stanów magazynowych (np. podczas spotkań z klientami). Żaden z pracowników nie jest „przywiązany” do biurka, dzięki czemu może wykonywać swoje zadania w preferowanym przez siebie lub szefów otoczeniu. Na to wszystko nakłada się też trend BYOD, czyli możliwość bezpiecznego korzystania z firmowych informacji z prywatnych, ulubionych urządzeń.
Lista korzyści, które zapewnia przechowywanie firmowych serwerów w profesjonalnym centrum danych, jest bardzo długa. Podstawową jest ulokowanie sprzętu w specjalnie skonstruowanym w tym celu budynku o wzmocnionej konstrukcji i wyposażonym w profesjonalną infrastrukturę techniczną – zasilanie (z kilku źródeł i z dużym zapasem paliwa dla agregatorów w przypadku całkowitego przerwania dostaw), precyzyjną klimatyzację, profesjonalnie zarządzane łącza telekomunikacyjne o dużej przepustowości (także z kilku źródeł), fizyczną ochronę budynku (monitoring wideo, systemy antywłamaniowe, kontrola dostępu).
Poza tym profesjonalne centrum zatrudnia cały zespół profesjonalistów z każdej dziedziny związanej z utrzymaniem zaawansowanych systemów IT. Mała firma za rozsądne pieniądze nie stworzy zapasu energii elektrycznej na kilka dni, nie zatrudni kilku lub kilkunastu informatyków, nie wynegocjuje korzystnej umowy z kilkoma dostawcami Internetu, szczególnie jeśli jej siedziba znajduje się w większej odległości od węzłów telekomunikacyjnych.
Co można kupić od firmy prowadzącej profesjonalne centrum danych? Najczęściej jej oferta jest podzielona na dwa obszary – hosting (przechowywanie danych na serwerach usługodawcy) i kolokację (przechowywanie w centrum danych podłączonych do Internetu serwerów i innych urządzeń należących do klienta). Forma sprzedaży tych usług zależy od indywidualnych ustaleń. Z takiej współpracy mogą korzystać także twórcy oprogramowania, którzy chcą udostępniać je w postaci usługi chmurowej (Software-as-a-Service). Czasami resellerzy kupują też „hurtem” pewną ilość zasobów i odsprzedają swoim klientom możliwość korzystania z nich.
Jarosław Morawski
Firmy, dla których IT jest tylko narzędziem pracy, muszą skupiać się na swojej działalności, a nie na zawiłościach technicznych. Dotyczy to szczególnie małych przedsiębiorstw. W branży IT zmiany następują tak szybko, że takie firmy musiałyby zatrudniać na całym etacie dobrze wykształconego informatyka, na co najczęściej po prostu ich nie stać. Dlatego outsourcing jest idealnym rozwiązaniem dla przedsiębiorstw, które nie mają własnych kompetencji w wybranych obszarach, albo tych, które – zlecając prace resellerowi – mogą uzyskać duże oszczędności.
Dość często klienci pytają operatorów centrów danych o procedury odzyskania dostępu do danych w przypadku ewentualnego rozwiązania umowy. W tym zakresie firmy prowadzące centra danych są zgodne – każda umowa podpisywana między nimi i klientem powinna zawierać klauzule definiujące proces zakończenia współpracy i zobowiązujące usługodawcę do przekazania danych klienta w określonym czasie.
Oczywiście bezpieczeństwo jest jednym z głównych wątków podczas negocjacji kontraktu outsourcingowego. Obie strony pragną wyjaśnić wszystkie budzące ich niepokój kwestie, jakie tylko podpowie wyobraźnia. Operatorzy centrów danych wskazują ryzyko utraty danych, gdy przechowywane są wyłącznie w siedzibie klienta, klienci zaś wyrażają wątpliwość co do zapewnienia poufności danych powierzonych firmie trzeciej.
– Pytanie, czy i w jakim zakresie outsourcer ma dostęp do danych klientów, pada dość często – mówi Jarosław Morawski, dyrektor handlowy Beyond.pl. – Odpowiedź jest uzależniona od rodzaju współpracy. Jeżeli klient korzysta tylko z dzierżawy mocy obliczeniowej lub sprzętu IT, to zleceniobiorca nie ma dostępu do danych zabezpieczonych hasłami i innymi barierami. Natomiast jeśli klient zleca nam administrowanie swymi systemami i aplikacjami, to siłą rzeczy administrator musi mieć dostęp do jego danych. Wówczas jest on regulowany zapisami umowy, stopniowany zakresem prowadzonej administracji i obwarowany procedurami weryfikacji. Priorytetem jest bezpieczeństwo i stabilność usług klienta.
Firmy świadczące usługi hostingu i kolokacji budują swoją reputację poprzez wskazywanie na fakt, że ewentualne ujawnienie przestępczych działań ich pracowników i przekazanie tej informacji do mediów mogłoby spowodować lawinę rezygnacji ze współpracy ze strony klientów, co bardzo szybko doprowadziłoby do zamknięcia biznesu. Dlatego zarządy firm udostępniających usługi w centrach danych bardzo skrupulatnie sprawdzają kompetencje pracowników i ich niekaralność. Tworzą także procedury dostępu do informacji, aby nikt nie miał możliwości dotarcia do wszystkich danych (obszary odpowiedzialności administratorów są dzielone na sieci, serwery, pamięci masowe, systemy operacyjne, aplikacje itd.). Niektórzy pracownicy mają możliwość wglądu w dane, ale nie mogą ich skopiować ani skasować.
Dariusz Wichniewicz
Z naszych usług hostingu serwerów często korzystają placówki ochrony zdrowia mające wiele oddziałów. Gdy taka firma zaczyna się rozrastać i otwierać nowe przychodnie, jej centrum informatyczne najczęściej zostaje w centrali lub w pierwszej siedzibie. Taka infrastruktura narażona jest na wiele zagrożeń, co – w kontekście wagi przechowywanych tam informacji – jest niedopuszczalne. Dlatego często centrum sieciowo-informatyczne jest przenoszone do profesjonalnego centrum danych, z którym bezpiecznie łączą się wszystkie oddziały, także centrala, a transmisja danych jest szyfrowana. Podobny model sprawdza się we wszystkich innych firmach z mocno rozproszoną strukturą.
Ale zagrożenie może też płynąć z drugiej strony. To klient może przechowywać na wynajmowanych serwerach treści, które nie są dozwolone przez polskie prawo. Kto w takim przypadku ponosi odpowiedzialność za złamanie przepisów? Klient, operator centrum danych, czy może reseller, który odsprzedał klientowi taką usługę?
– W umowie z klientem mamy zapisy, które zabraniają mu przechowywania określonych rodzajów materiałów na zlokalizowanych u nas serwerach – odpowiada Dariusz Wichniewicz, dyrektor Działu Rozwoju Usług Telekomunikacyjnych w ATM. – Jeden z punktów kontraktu mówi też, że w przypadku wykrycia takich treści mamy prawo natychmiast dany serwer wyłączyć. Natomiast w żadnym przypadku nie sprawdzamy, co klient ma na swoich serwerach, bo nie mamy uprawnień do oceny, czy jakieś treści są legalne. Rutynowo na polecenie policji, prokuratury, ABW czy CBA pomagamy w identyfikacji użytkownika łącza, serwera lub poczty elektronicznej, a na polecenie sądu odłączamy wskazany system od sieci.
Tak jak wspomnieliśmy wcześniej, operatorzy centrów danych bardzo chętnie współpracują z firmami z rynku IT. Nie są w stanie przejąć wszystkich obowiązków resellera, a poza tym są świadomi, że prawdopodobieństwo, iż mała firma dotrze bezpośrednio do centrum danych i samodzielnie wynegocjuje korzystny kontrakt, jest bardzo małe. Dlatego resellerzy mogą liczyć na aktywną, sformalizowaną współpracę w ramach programów partnerskich.
– Reseller nie powinien straszyć klientów techniką, ale wykorzystywać ją do zapewnienia im pomocy w rozwiązywaniu problemów biznesowych – twierdzi Jarosław Morawski z Beyond.pl. – Dzięki temu już za dekadę mało kogo będą obchodziły takie szczegóły techniczne jak parametry procesora, pojemność pamięci czy twardego dysku. Ludzie będą korzystali głównie z oprogramowania w chmurze i – płacąc za tę usługę – będą mieli zapewnione wszystkie potrzebne zasoby.
Najczęściej oferowane są dwie formy współpracy. W pierwszej to reseller jest klientem centrum danych i hurtowo kupuje usługi, a później odsprzedaje je klientom z samodzielnie ustalaną marżą. Druga forma polega na skontaktowaniu klienta z operatorem centrum danych, wsparciu w negocjacjach i doprowadzeniu do podpisania bezpośredniej umowy między tymi podmiotami. Wówczas reseller otrzymuje wynagrodzenie prowizyjne, na podstawie wystawianej przez siebie co miesiąc faktury, ma gwarancję stałego zysku przez cały czas funkcjonowania umowy i nie musi borykać się z nierzetelnymi płatnikami.
Dariusz Nawojczyk
Dostawca usług w chmurze musi zapewniać środowisko gotowe do dynamicznych zmian – niezawodne i łatwo dostępne. I chociaż na rynku jest wiele gotowych rozwiązań sprzętowych i programowych, umożliwiających wirtualizację zasobów oraz udostępnienie ich użytkownikom, i tak często trzeba stworzyć własne oprogramowanie, dostosowane do konkretnej usługi i potrzeb klienta. Aby klient mógł szybko zacząć korzystać z oferowanych mu zasobów, konieczne jest wprowadzenie zapewnianej przez chmurę publiczną warstwy automatyzującej. Takie wirtualne środowisko, precyzyjnie dostrojone do danej infrastruktury, może zagwarantować tylko profesjonalna grupa programistów, na którą raczej nie będzie stać mniejszych firm.
Artykuł Małe firmy też stać na outsourcing serwerowni pochodzi z serwisu CRN.
]]>