Artykuł Rozwiązania do ochrony fizycznej: sposób na rozszerzenie oferty pochodzi z serwisu CRN.
]]>Podobnie, jak w przypadku innych działań związanych z integracją środowiska IT, w przypadku systemów ochrony fizycznej kluczem jest dobre poznanie potrzeb klienta. Podstawą będzie więc rekonesans. Trzeba zwiedzić obiekt, który ma być chroniony, i poprosić osoby odpowiedzialne za bezpieczeństwo o pokazanie najważniejszych dla nich obszarów. Rolą integratora jest pomóc klientowi w realizacji strategii bezpieczeństwa fizycznego, a nie tworzyć ją za niego. Jeśli nie dysponuje wystarczającymi kompetencjami, dostawcy rozwiązań zaoferują mu szkolenia, a także pomoc w wyborze najlepszych w danym przypadku urządzeń.
Oczywiście nikt nie ma pełnej wiedzy o wszystkich dostępnych na rynku modelach kamer. Nawet firmy z doświadczeniem w instalowaniu nadzoru wideo zwracają się do dostawców o wskazówki, które urządzenia wybrać. Dane zebrane podczas wizyty w obiekcie klienta pomogą ten wybór zawęzić. Pierwszym krokiem jest dobre poznanie środowiska, w którym kamery będą działać. Jaki obszar powinny objąć swoim zasięgiem? Ile potrzeba urządzeń na zewnątrz, a ile wewnątrz obiektu? Które będą działać w pełnym świetle (sztucznym lub naturalnym), a które monitorować otoczenie w zmieniającym się w ciągu doby oświetleniu, nawet w całkowitej ciemności? Uzyskane informacje pomogą wybrać urządzenia o parametrach najodpowiedniejszych w danych warunkach.
Rzecz jasna, producenci i dystrybutorzy rozwiązań składających się na markowe systemy monitoringu oferują integratorom programy certyfikacyjne oraz warsztaty, podczas których uczą ich określać pokrycie obiektu kamerami, dokonywać wyboru obiektywów i matryc oraz obliczać inne parametry techniczne (np. wielkość pamięci masowej, która będzie odpowiadać założonym zasadom retencji danych z nagrań). Długość okresu przechowywania zapisu monitoringu będzie wypadkową obowiązujących regulacji, możliwości technicznych i kosztów. Wiele zmieniło się za sprawą chmury. Dawniej przechowywany na taśmie zapis obejmował przykładowo 24 ostatnie godziny monitoringu, teraz zasoby chmurowe w zasadzie znoszą jakiekolwiek ograniczenia pojemnościowe. Chociaż może się to wydać atrakcyjne dla klienta, powinien być świadom, że brak właściwego zarządzania pamięcią w chmurze pociągnie za sobą nadmierne wydatki na nadzór wideo.
Niektórzy klienci oczekują nie tylko wdrożenia systemu nadzoru wideo, ale także połączenia go z innymi rozwiązaniami ochronnymi. Monitoring wizyjny w rozbudowanej formie może być zintegrowany na jednej platformie IP z kontrolą dostępu (czytnikami kart, zamkami magnetycznymi, czujnikami ruchu), systemami bezpieczeństwa (różnego rodzaju czujnikami – dymu, ciepła, gazu itp.) oraz dwukierunkowej komunikacji. Integracja nadzoru wideo z kontrolą dostępu umożliwia precyzyjne tworzenie stref bezpieczeństwa. Dołożenie komunikacji głosowej ułatwi zapobieganie niepożądanym zdarzeniom. Przykładowo system może automatycznie emitować ostrzegawczy komunikat głosowy w momencie, gdy nieupoważniona osoba przekroczy granice chronionej strefy.
Z kolei wykorzystanie kamer IP i coraz doskonalszych narzędzi analitycznych, bazujących na uczeniu maszynowym, nie tylko zwiększa bezpieczeństwo fizyczne, ale także stwarza integratorowi szanse zaoferowania rozwiązania, które będzie ułatwiało klientowi prowadzenie biznesu. Już teraz takie połączenie, zastosowane chociażby w branży retail, umożliwia śledzenie ruchu konsumentów i optymalne rozmieszczenie towarów w sklepie.
Najcieplejsze miesiące roku przynoszą gwałtowny wzrost zapotrzebowania na energię. Jeszcze 20–30 lat temu klimatyzatory w biurach, sklepach, przestrzeni publicznej i komunikacji nie były spotykane zbyt często. Obecnie w czerwcu, lipcu i sierpniu nie wyobrażamy sobie pracy bez nich. W centrach danych rośnie zapotrzebowanie na dobrze zaprojektowaną i wydajną klimatyzację precyzyjną. Również linie produkcyjne w zakładach produkcyjnych wymagają intensywnego chłodzenia. Do obciążenia linii energetycznych przyczyniają się także użytkownicy indywidualni, którzy nie chcą rezygnować z komfortu przebywania w klimatyzowanych domach i mieszkaniach.
Co gorsza, do uciążliwych upałów i zwiększonego zapotrzebowania na energię (co grozi jej brakiem) dochodzą gwałtowne burze i nawałnice, których liczba w okresie letnim jest coraz większa. Anomalie pogodowe powinny skłaniać klientów do zainteresowania się systemami zasilania gwarantowanego. Należy uświadamiać klientom, że wynikające z nich przerwy w dostawie energii elektrycznej oznaczają dla firm poważne straty finansowe. Użytkowników domowych także warto zachęcać do stosowania zasilaczy UPS i listw przeciwprzepięciowych, które zabezpieczą sprzęt elektroniczny i systemy automatyki budynkowej przed wyładowaniami, przepięciami oraz brakiem zasilania. Wiadomo, że uderzenie pioruna lub nagłe zmiany parametrów zasilania mogą spowodować uszkodzenie lub wręcz spalenie urządzeń, z których korzystają.
UPS-y stają się inteligentniejsze
Działający w środowisku Internetu rzeczy zasilacz UPS przestaje być samodzielnym elementem infrastruktury fizycznej, staje się natomiast inteligentnym węzłem sieci. Polega to przede wszystkim na ostrzeganiu o zagrażających problemach w celu ich rozwiązania zanim dojdzie do awarii. Skomunikowanie UPS-ów z internetem daje więc zewnętrznym firmom możliwość świadczenia usługi utrzymania predykcyjnego, bazującego na zdalnym monitorowaniu systemów w trybie 24/7. Wbudowanie inteligencji w UPS-y pomaga również w zarządzaniu systemem zasilania i w jego optymalizacji w długoterminowej perspektywie. Wykorzystuje się do tego analizę danych z monitoringu obciążeń i regularne raportowanie, które ułatwiają odkrywanie trendów i wprowadzanie zgodnych z nimi ulepszeń systemu zasilania.
Klienci najczęściej są zainteresowani ochroną przed przerwami w zasilaniu. Jeszcze nie tak dawno panowało przekonanie, że w przypadku zaniku zasilania w centrum danych trzeba zapewnić podtrzymanie akumulatorowe trwające 30 minut. W ostatnich latach coraz powszechniej skraca się tę ochronę do 15 minut lub mniej, co jest spowodowane potrzebą uzyskania równowagi między kosztami a niezawodnością urządzeń. Warto sprawdzić, ile faktycznie czasu potrzeba na stworzenie kopii zapasowych i bezpieczne zamknięcie serwerów. Jeśli jest to mniej niż pół godziny, nie warto inwestować w drogie baterie. Należy także pamiętać, że w dużych obiektach podtrzymanie bateryjne jest głównie po to, by zdążył się uruchomić agregat prądotwórczy.
Jednakże nie mniej niebezpieczne od braku prądu są występujące w sieci energetycznej zakłócenia, które mogą doprowadzić do awarii sprzętu. Proste UPS-y chronią przed tymi najczęściej występującymi, takimi jak zanik zasilania, zapady napięcia i przepięcia. Bardziej zaawansowane systemy zabezpieczają także przed skutkami innych problemów: długotrwałym obniżeniem lub podwyższeniem amplitudy napięcia, szumami na linii napięcia, przepięciami łączeniowymi, wahaniami częstotliwości i zakłóceniami harmonicznymi.
Według statystyk 20 proc. awarii UPS-ów powodują wadliwe akumulatory. W ostatnim czasie baterie to jeden z najczęściej dyskutowanych w branży tematów. Trwa bowiem debata nad wyższością akumulatorów litowo-jonowych (Li-ion) nad wykorzystywanymi od wielu dekad ogniwami kwasowo-ołowiowymi (VRLA). Zwolennicy baterii Li-ion wymieniają ich zalety: niższy całkowity koszt posiadania, dłuższą żywotność, mniejszy rozmiar i masę oraz tolerowanie wyższej temperatury roboczej. Barierą w ich upowszechnieniu jest wysoka cena. W związku z tym, chociaż w ostatnich latach sprzedaż UPS-ów z bateriami litowo-jonowymi rośnie, a ich ceny powoli spadają, nie wydaje się, by zagroziły sprzedaży zasilaczy z akumulatorami VRLA. Ma na to wpływ także polityka resellerów, którzy koncentrują się na konkurowaniu ceną, nie próbują natomiast przekonać klientów, że w dalszej perspektywie akumulatory Li-ion przyniosą im oszczędności. Na obronę resellerów można przytoczyć fakt, że oczekują tego od nich sami klienci. Także producenci są świadomi sytuacji i ograniczają ofertę zasilaczy z bateriami Li-ion przede wszystkim do jednostek o mniejszych mocach.
O ile powszechne stosowanie baterii Li-ion to wciąż pieśń przyszłości, o tyle zasilacze modułowe dowiodły w ostatnich latach swoich zalet i zdobyły uznanie klientów. Dlatego w zasadzie każdy liczący się producent ma obecnie w ofercie tego typu systemy. Dzięki rezygnacji z tradycyjnego zasilania, opartego na dużych monoblokowych UPS-ach, na rzecz skalowalnej, modułowej konstrukcji, integrator może zaproponować klientowi urządzenie dokładnie takiej mocy, jakiej potrzebuje na danym etapie inwestycji. Potem stopniowo można rozbudowywać rozwiązanie i zwiększać zapewnianą przez nie moc, zgodnie z aktualnym zapotrzebowaniem na zasilanie gwarantowane. Nabycie modułowego UPS-a oznacza wydatek większy niż w przypadku zakupu modelu blokowego, ale gdy wymagania rosną, nie trzeba dokupować kolejnego urządzenia i rozbudowywać infrastruktury zasilania. A to przynosi klientowi znaczne oszczędności. Łatwiejsze staje się też zapewnienie redundancji, urządzenie modułowe działa bowiem nadal w przypadku awarii jednego modułu. Dlatego sprzedaż tego rodzaju systemów w ostatnich latach wyraźnie rosła, zwłaszcza tych o większej mocy. Najczęściej sprzedawane obecnie zasilacze modułowe to urządzenia do 200 kVA z modułami 10–25 kVA, ale popytem cieszą się także skalowalne UPS-y, zarówno o mniejszej, jak i większej mocy.
Wraz z ekspansją dostawców chmury obliczeniowej rośnie liczba dużych centrów danych i zwiększa się wykorzystanie zasilaczy trójfazowych. Nowe, duże projekty, realizowane z myślą o efektywności i ograniczaniu kosztów, skłaniają do stosowania tego rodzaju rozwiązań. Wciąż jednak większość sprzedawanych systemów zasilania gwarantowanego to zasilacze jednofazowe, które znajdują zastosowanie (często w wydaniu stelażowym) w serwerowniach i oddziałach firm. Mają najczęściej topologię online i moc od kilku do 20 kVA. Chociaż ich udział w rynku jest znaczny, trzeba liczyć się ze spadkiem sprzedaży w tym segmencie rynku. Trend jest wyraźny i mniejsze przedsiębiorstwa coraz częściej będą wybierać outsourcing IT z chmury. Profesjonalne obiekty centrów danych i ich wyszkolony personel zapewnią im lepszą obsługę niż wewnętrzny, zwykle niedofinansowany dział IT, a jednocześnie koszty inwestycyjne zmienią się w operacyjne.
Dostawcy infrastruktury (w tym zasilania gwarantowanego) przekonują jednak, że przejście na czysty model chmurowy nigdy nie nastąpi. Optymalny staje się hybrydowy model przetwarzania danych, będący połączeniem chmury publicznej i prywatnej. Fala nowych technologii – od Internetu rzeczy, przez sztuczną inteligencję, po technologię 5G – przyniesie jeszcze więcej danych, które będą musiały być przetwarzane w pobliżu miejsca powstawania. Przełoży się to na wzrost zapotrzebowania na małe centra, przetwarzające dane na brzegu sieci (edge computing).
Tego rodzaju infrastruktura tworzona jest dla aplikacji, które (jako wrażliwe na opóźnienia lub wymagające dużych przepustowości) nie nadają się do obsługi w hiperskalowalnych centrach danych chmury publicznej czy nawet w średniej wielkości lokalnych obiektach kolokacyjnych. W przeciwieństwie do tradycyjnych centrów danych, mikro- i minicentra danych są budowane, konfigurowane i testowane w fabryce producenta, a następnie w całości dostarczane klientowi. Ich moc waha się od kilku do kilkuset kW i można się spodziewać coraz bogatszej oferty tego typu systemów.
Artykuł Rozwiązania do ochrony fizycznej: sposób na rozszerzenie oferty pochodzi z serwisu CRN.
]]>Artykuł Serwerownie: dane pod kluczem pochodzi z serwisu CRN.
]]>Katalog Federalnego Urzędu Bezpieczeństwa i Technik wymienia aż 27 zagrożeń fizycznych dla centrów danych oraz serwerowni. Na tej długiej liście znajdują się m.in. szkody wyrządzone przez pracowników. Warto dodać, że według badania zleconego przez Schneider Electric 70 proc. przestojów serwerowni wynika z celowego działania człowieka lub jego błędów.
Nowoczesne serwerownie naszpikowane są inteligentnymi rozwiązaniami ochronnymi. Jednak mimo dużych możliwości, jakie otwiera przez resellerami oraz integratorami ten segment rynku, większość przedsiębiorstw skupia się na sprzedaży rozwiązań służących do cyfrowej ochrony sieci. Tymczasem presja ze strony usługodawców, a także europejskie dyrektywy o ochronie danych osobowych (UE 95/46/WE) oraz ogólne przepisy (PCI DSS, HIPAA, ustawa Sarbanesa-Oxleya) wymuszają na firmach stosowanie także fizycznych zabezpieczeń.
• Piotr Piejko, dyrektor Działu Kontraktów, ZSK
Instalujemy systemy monitoringu wizyjnego w serwerowniach. Zainteresowanie takimi rozwiązaniami w 2016 r. było dość stabilne. Można powiedzieć, że widać lekki trend wzrostowy, związany ze zwiększaniem się wiedzy użytkowników na temat roli monitoringu wizyjnego w utrzymaniu bezpieczeństwa obiektów. Dodatkowym czynnikiem zwiększającym popyt jest modernizacja istniejących systemów, które często były wykonywane w technologii analogowej. Obecnie wszystkie nowe systemy wykorzystują już technologię IP. W segmencie monitoringu wizyjnego występuje kilka istotnych trendów, takich jak bezprzewodowość, zmniejszanie wymiarów kamer, coraz wyższa jakość zapisywanego obrazu, a także analiza obrazu dokonywana bezpośrednio przez kamery.
Kolejne poważne wyzwanie stanowi Ogólne rozporządzenie o ochronie danych osobowych (RODO), które zacznie obowiązywać we wszystkich krajach Unii Europejskiej od 25 maja 2018 r. Nakłada ono nowe obowiązki w zakresie dostępu i przetwarzania danych osobowych. Przedsiębiorcy, którzy nie będą wypełniać zaleceń, muszą się liczyć z wysokimi grzywnami, dochodzącymi nawet do 4 proc. obrotów. Większość z nich będzie zmuszona poprawić zarówno jakość zabezpieczeń sieciowych, jak i ochrony fizycznej pomieszczeń z serwerami oraz macierzami dyskowymi.
• Grzegorz Bielawski, Country Manager, QNAP
Firmy wprowadzające do oferty systemy monitoringu wizyjnego muszą uwzględnić dwie cechy: funkcjonalność określonego systemu oraz możliwość rozbudowania go o dodatkowe funkcje, urządzenia i narzędzia. Nie ma dwóch takich samych wdrożeń. Klienci mają różne potrzeby i oczekiwania wobec systemu monitoringu, dlatego tak ważna jest możliwość precyzyjnego dostosowania go do specyfiki konkretnego przedsiębiorstwa.
• Jakub Kozak, Sales Manager, Axis Communications
Naszym zdaniem kierunek rozwoju rynku monitoringu wizyjnego będą wyznaczać: szybka transmisja danych, big data oraz deep learning. Zauważamy też, że w miarę rozwoju innowacyjnych rozwiązań klienci przestają traktować systemy zabezpieczeń jak zbiór podłączonych do sieci elementów sprzętowych i oprogramowania. Zaczynają natomiast patrzeć na kwestie bezpieczeństwa holistycznie, jak na usługę zdalnego i profesjonalnego dozoru wizyjnego.
• Bartłomiej Madej, TELCO Group Manager, Veracomp
Stosowanie monitoringu wizyjnego stało się powszechne. Począwszy od standardowej ochrony obwodowej, obejmującej ogrodzenia posesji, parkingów czy placów budowy, aż po bardzo wysublimowane zastosowanie w sklepach, gdzie najważniejszą zaletą dobrej kamery jest jej zdolność analityczna. Urządzenia posiadające dodatkowe, ponadstandardowe funkcje, np. obiektywy termiczne, wykorzystywane są do monitorowania linii technologicznych. Dokładność wskazań na poziomie dziesiątych części stopnia Celsjusza pozwala na kilkakrotne zwiększenie dokładności podczas kontroli jakości.
• Piotr Kotas, Monitoring IP Product Manager, EPA Systemy
Monitoring wizyjny jest stosowany przede wszystkim w otoczeniu przedsiębiorstw, na parkingach oraz w ciągach komunikacyjnych. Takie umiejscowienie kamer pozwala rozpoznawać osoby przebywające na terenie firmy, a w razie potrzeby na szybką reakcję. Wartość dodaną systemów monitoringu stanowi specjalistyczne oprogramowanie, które ma rozbudowane funkcje analityczne. Ich lista jest bardzo długa. Systemy mogą rozpoznawać tablice rejestracyjne, twarze, kolory, wykryć dym lub pożar, czy też zliczać obiekty przekraczające wirtualne linie itp.
• Grzegorz Całun, Pre-Sales Engineer, D-Link
System monitoringu powinien być dostosowany do potrzeb użytkownika i spełniać wyznaczone zadania. Jednoznaczne określenie cech idealnego systemu jest niemożliwe. Każde wdrożenie jest inne, na co wpływa wiele czynników, np. rodzaj użytych kamer, jak również ich lokalizacja. Przykładowo instalacja bazująca na dwóch kamerach stałopozycyjnych ustawionych naprzeciw siebie będzie działać podobnie jak system jednej kamery panoramicznej lub rybiego oka.
Jednym z newralgicznych punktów zestawu zabezpieczeń fizycznych są systemy kontroli dostępu. W najbliższym czasie firmy będą rezygnować z prostych środków, w postaci kodów, na rzecz kart zbliżeniowych oraz rozwiązań wykorzystujących cechy biometryczne, takie jak linie papilarne, geometria dłoni, siatkówka oka czy głos. Każda metoda uwierzytelniania wymaga zastosowania odpowiednich urządzeń wejściowych – skanerów, klawiatur, a także rygli bądź zamków elektronicznych.
Niektóre zmiany, choć mają charakter kosmetyczny, znacznie poprawiają bezpieczeństwo danych. Dla przykładu instytucje finansowe oraz placówki służby zdrowia zamiast kluczy mechanicznych, chroniących szafy z serwerami, zaczynają stosować systemy elektroniczne. Wynika to z obaw, że zgubienie klucza lub jego podrobienie przez nieupoważnione osoby spowoduje kradzież danych bądź ich celowe usunięcie. W pomieszczeniach chroniących dane pojawiają się również bardziej wysublimowane zabezpieczenia w postaci specjalistycznych zamków elektronicznych. Administrator może zdalnie przekazywać i odbierać pracownikom uprawnienia dostępu do poszczególnych szaf serwerowych oraz sprawdzać, kto i kiedy otwierał zamek.
Jednym z podstawowych rozwiązań wchodzących w skład fizycznych zabezpieczeń serwerowni jest system monitoringu. Przed zajmującymi się sprzedażą takich rozwiązań przedsiębiorstwami rysuje się jasna przyszłość. Według firmy analitycznej MarketsandMarkets w 2022 r. globalne przychody ze sprzedaży systemów monitoringu wizyjnego osiągną 71,3 mld dol., a średni wskaźnik ich wzrostu w latach 2016–2022 wyniesie 16,6 proc. Niższe ceny kamer oraz nowe funkcje sprawiają, że rośnie popyt na tę grupę produktów.
Segment rozwiązań monitoringu wizyjnego od kilku lat podzielony jest na systemy wykorzystujące kamery analogowe oraz modele IP. W ostatnim czasie wzrasta przewaga tych drugich.
– Cztery lata temu większość wdrażanych systemów dozorowych stanowiły rozwiązania analogowe. Obecnie około 60 proc. instalowanych systemów bazuje na technologii sieciowej. Dzięki przejściu z rozwiązań analogowych na sieciowe zwiększyły się możliwości systemów monitoringu wizyjnego – twierdzi Jakub Kozak, Sales Manager w Axis Communications.
Dużym ułatwieniem dla integratorów i klientów okazało się wprowadzenie technologii HD-CVI, która umożliwia transmisję wideo w wysokiej jakości przez kabel koncentryczny.
– To rozwiązanie cieszy się dużym popytem ze względu na stosunek jakości do ceny. Poza tym umożliwia rozbudowę starego systemu nadzoru wizyjnego dzięki kompatybilności z istniejącym sprzętem analogowym i nie wymaga wydatków na okablowanie. Nawet jeśli firmy wdrażają monitoring od podstaw, często sięgają po rozwiązania w standardzie Analog High Definition, bowiem rozdzielczość 2 Mpix lub 4 Mpix spełnia ich wymagania – mówi Beata Głydziak, doradca zarządu ds. grup produktów Smart Home & Security w Action.
Niestety, kamery pracujące w standardzie AHD nie są wyposażone w funkcje związane z inteligentną analizą obrazu. Tymczasem eksperci są zgodni, że właśnie ta cecha ma fundamentalny wpływ na rozwój systemów monitoringu. Automatyczne reagowanie systemu na zdefiniowane wydarzenia, takie jak ruch w określonej strefie czy odstępstwa od ustalonych wzorców zachowań, oraz informowanie o takich zdarzeniach użytkowników, zapewnia osobom odpowiedzialnym za nadzór obiektów zaoszczędzenie mnóstwa czasu.
Równolegle ze sprzętem rozwijają się aplikacje do analizy danych, znacznie zwiększające możliwości kamer. Rośnie także popularność termowizji zapewniającej rozpoznawanie zagrożeń w zupełnej ciemności.
W rozwiązaniach wideo producenci dążą do zapewnienia maksymalizacji rozdzielczości obrazu. Nie inaczej jest w przypadku systemów monitoringu. Największe możliwości mają kamery Ultra HD, ale na razie nie cieszą się zbyt dużym popytem. Wprawdzie czterokrotnie większa rozdzielczość obrazu niż w modelach Full HD wpływa na jego jakość, ale przedsiębiorstwa nie są przygotowane do korzystania z nowego standardu. Rejestracja obrazu z kamer Ultra HD wymaga odpowiednio zaprojektowanej infrastruktury sieciowej, wdrożenia pojemnych macierzy dyskowych, a także wysokiej klasy monitorów.
Dostawcy wierzą, że rozwiązania do monitoringu wejdą w skład całościowego systemu, który pozwoli w pełni wykorzystać możliwości wszystkich urządzeń zabezpieczających.
– Zapewnienie ochrony nie polega wyłącznie na obserwacji osób, miejsc czy przedmiotów. Integralnym elementem jest również kontrola nad dostępem fizycznym, komunikacja oraz zarządzanie w sytuacjach awaryjnych – podsumowuje Jakub Kozak.
Artykuł Serwerownie: dane pod kluczem pochodzi z serwisu CRN.
]]>