Artykuł Nedap: cyberbezpieczeństwo w systemach fizycznej kontroli dostępu pochodzi z serwisu CRN.
]]>Pierwszym krokiem do przechowywania danych kart w bezpieczniejszym miejscu jest przeniesienie wrażliwych danych do wewnątrz (nr 2 na grafice). Dlatego użytkownik powinien przechowywać klucze DESFire (klucze kart) w kontrolerze drzwi wewnątrz budynku, a nie w czytniku kart zamontowanym na zewnątrz budynku (nr 1 na grafice obok). Oznacza to, że czytniki nie będą odgrywać żadnej roli w odszyfrowywaniu danych, a więc staną się „transparentne”. Dzięki temu dekodowanie i bezpieczna komunikacja pomiędzy czytnikiem kart a kontrolerem drzwi odbywa się po bezpiecznej stronie drzwi.
Kolejny krok to przeniesienie danych na bezpieczną stronę drzwi i przechowywanie w bezpiecznym miejscu (nr 3 na grafice). W tym celu AEOS wykorzystuje moduł SAM (Secure Access Module). Jest to karta SIM, na której dane mogą być przechowywane i nie mogą być pobrane. Klucze DESFire są przechowywane w module SAM w kontrolerze drzwi wewnątrz budynku. Klucze kart są również dekodowane w SAM, co dodatkowo zmniejsza ryzyko i zapewnia jeszcze bezpieczniejszą opcję niż krok pierwszy.
Po zabezpieczeniu komunikacji między czytnikiem a kontrolerem zobaczmy, jak komunikuje się kontroler. Protokół 802.1x to standardowy sposób uwierzytelniania urządzeń próbujących podłączyć się do sieci. W przypadku zastosowania tego standardu połączenie sieciowe jest możliwe tylko wtedy, gdy protokół ufa relacji (opartej na certyfikatach cyfrowych) między urządzeniem (kontrolerem Nedap) a serwerem uwierzytelniającym. Czyli tylko zaufane urządzenia z odpowiednimi certyfikatami cyfrowymi – w tym przypadku kontrolery drzwi – mogą połączyć się z zabezpieczoną siecią. Sprzęt, który nie ma odpowiedniego certyfikatu cyfrowego, nie może się połączyć.
Tryb bezpieczny jest domyślnie dostępny w systemie AEOS i można go aktywować za pomocą oprogramowania. W tym trybie komunikacja pomiędzy serwerem AEOS a kontrolerem jest szyfrowana za pomocą protokołu TLS. Komunikacja może być szyfrowana tylko z wykorzystaniem domyślnego certyfikatu dostarczonego przez Nedap. Nie można tego zastąpić zmanipulowanymi wersjami. Uniemożliwia to również podłączenie obcych urządzeń do sieci lub wysyłanie poleceń do kontrolerów drzwi. Komunikacja pomiędzy poszczególnymi ogniwami systemu jest zabezpieczona i zaszyfrowana po bezpiecznej stronie drzwi.
AEOS End-to-end (nr 4 na grafice) wykracza poza bezpieczną komunikację między czytnikiem kart a kontrolerem drzwi. Można zabezpieczyć cały proces kontroli dostępu: od identyfikatora przez czytnik aż po kontroler drzwi i serwer centralny. Po zastosowaniu mocnego uwierzytelnienia do kontrolerów drzwi nie można ich zastąpić zmanipulowanymi wersjami. Nie można też podłączyć obcych urządzeń do sieci lub wysyłać poleceń do kontrolerów drzwi. Komunikacja pomiędzy poszczególnymi ogniwami systemu jest chroniona i zaszyfrowana po bezpiecznej stronie drzwi.
Regional Sales Manager na Europę Wschodnią, Nedap Security Management
Artykuł Nedap: cyberbezpieczeństwo w systemach fizycznej kontroli dostępu pochodzi z serwisu CRN.
]]>Artykuł Klucze do królestwa pod specjalnym nadzorem pochodzi z serwisu CRN.
]]>Zresztą dane uwierzytelniające należą do najchętniej kupowanych „towarów” w tzw. ciemnej stronie sieci. Cyberprzestępcy mogą je nabywać tak samo, jak konsumenci zaopatrują się w Internecie w ubrania czy kosmetyki. Poza tym hakerzy, zdobywając dane uwierzytelniające do konta, często otwierają sobie drogę do innych serwisów, bowiem większość użytkowników zazwyczaj posługuje się tylko jednym, uniwersalnym hasłem. Dodatkowy problem stanowi niedocenianie napastników – wielu osobom wydaje się, że cyberprzestępcy siedzą przed komputerem i podsuwają mu różne ciągi znaków. W rzeczywistości hakerzy posługują się specjalnym oprogramowaniem wykonującym niewiarygodną liczbę prób na minutę. Dlatego tak ważna jest edukacja użytkowników, którą powinni prowadzić zarówno producenci, jak też integratorzy. Kiedy właściciele firm, a także ich pracownicy, lepiej zrozumieją podstawowe reguły dotyczące bezpieczeństwa, będą bardziej skłonni ich przestrzegać.
Przeszkody na drodze hakera
Dostawcy systemów bezpieczeństwa toczą wojnę z hakerami na kilku frontach i cały czas starają się uprzykrzyć im życie, co rusz wprowadzając kolejne rodzaje zabezpieczeń. Jednym z takich przykładów jest uwierzytelnianie wieloskładnikowe, które wykorzystuje w trak-cie logowania dodatkowy etap weryfikacji użytkownika. Najczęściej jest to wpisanie jednorazowego kodu wysłanego przez usługodawcę za pomocą SMS-a albo hasła generowanego przez aplikację mobilną lub dane biometryczne, takie jak zapis linii papilarnych placów, obrazu tęczówki czy wizerunku twarzy.
Wprawdzie wymienione metody ograniczają ryzyko wycieku danych, ale nie dają stuprocentowej gwarancji bezpieczeństwa. W przypadku większości systemów uwierzytelniania dwuskładnikowego (2FA), zgubienie, kradzież bądź naruszenie urządzenia pozwala hakerowi osiągnąć swój cel. Tak naprawdę bowiem 2FA nie uwierzytelnia osoby, lecz urządzenie, co eksperci określają czasami jako „przybliżenie tożsamości”. Nie jest to wyłącznie teoria i można przytoczyć wiele przykładów naruszenia zabezpieczeń 2FA. W ten sposób zhakowano chociażby konto Jacka Dorseya, CEO Twittera – w tym przypadku skończyło się na opublikowaniu kilku nieprzyjemnych informacji. Zdecydowanie mniej szczęścia miała giełda kryptowalut Binance, która straciła na skutek podobnego incydentu 7000 bitcoinów. Jedną z najczęściej stosowanych metod przez napastników jest tzw. SIM-swap. Oszuści zdobywają od operatora sieci komórkowej duplikat karty SIM z numerem telefonu ofiary i zanim ta się zorientuje i podejmie odpowiednie działania, uzyskują dostęp do jej konta bankowego. Innym sposobem jest instalacja na smartfonie malware’u, który podszywa się pod znane legalne programy i śledzi działania użytkownika, w tzw. międzyczasie przesyłając dane – w tym SMS-y – do urządzenia kontrolowanego przez hakera. Nieco trudniej jest pokonać zabezpieczenia biometryczne, ale niestety nie jest to niemożliwe.
Pokaż swoją twarz
Obecnie najczęściej stosowanym sposobem uwierzytelniania opartym na biometrii jest rozpoznawanie linii papilarnych. Wraz z debiutem iPhone’a X z funkcją Face ID znacznie wzrosła także popularność rozwiązań identyfikujących tożsamość na podstawie analizy twarzy. W modelu X kamera wyświetla ponad 30 tys. niewidzialnych punktów, tworząc mapę głębi twarzy osoby, którą następnie analizuje, jednocześnie rejestrując jej obraz w podczerwieni. Zdaniem ekspertów jest to rozwiązanie zaawansowane i trudne do sforsowania przez hakerów.
Funkcja rozpoznawania twarzy znajduje zastosowanie nie tylko w smartfonach Apple’a czy Samsunga, ale również w wielu innych systemach identyfikacji. Co oczywiste, cyberprzestępcy nie zamierzają składać broni i podejmują działania, które mają na celu przechytrzenie mechanizmów służących do wykrywania tożsamości. Według Johna Spencera, dyrektora ds. strategii w Veridium, firmie zajmującej się identyfikacją biometryczną, aby sfałszować zdjęcie, wcale nie trzeba sięgać po zaawansowane oprogramowanie. Jednym z najczęstszych sposobów oszukania systemu identyfikacji twarzy jest wydrukowanie zdjęcia czyjejś facjaty i wycięcie oczu, a następne użycie fotki jako maski. Z kolei analitycy Experian przewidują, że oszuści będą coraz częściej tworzyć „twarze Frankensteina”, wykorzystując sztuczną inteligencję do łączenia cech twarzy różnych osób w celu stworzenia nowej tożsamości, aby w ten sposób oszukać systemy identyfikacji.
Zdaniem Pawła Rybczyka, Territory Managera CEE/CIS w Wallixie, wszystko wskazuje na to, że firmy zaczną zmierzać w kierunku wieloskładnikowego uwierzytelniania opartego na wykorzystaniu wielu różnych sensorów – czytników linii papilarnych, kamer, a także potwierdzaniu tożsamości w oparciu o analizę zachowania użytkownika. O sukcesie poszczególnych rozwiązań zadecydują dostępne narzędzia komercyjne oraz ich przewidywalność.
Zdaniem integratora
Z moich obserwacji wynika, że rynek usług IAM i PAM jest jeszcze niedojrzały. Integratorzy najczęściej skupiają się na jak najszybszym wdrożeniu aplikacji, a zapominają o jej utrzymaniu. Systemy te, ze względu na częste zmiany w organizacjach czy zmiany na poziomie biznesowym, wymagają ciągłego wsparcia, z którym klient niejednokrotnie nie jest w stanie sobie samodzielnie poradzić. Tak naprawdę wdrożenie systemu to dopiero połowa sukcesu, a nawet mniej.
IAM: pierwszy krok w kierunku kontroli dostępu
Ostatnimi czasy działy IT znajdują się pod bardzo dużą presją. Z jednej strony wynika to ze zmasowanych cyberataków, zaś z drugiej, różnego rodzaju regulacji wymuszających na firmach oraz instytucjach specjalną ochronę danych. W takiej sytuacji ciężko jest polegać na ręcznych i podatnych na błędy procesach przypisywania i śledzenia uprawnień użytkowników. Z odsieczą przychodzą w tym przypadku rozwiązania do zarządzania tożsamością i dostępem IAM (Identity and Access Management). Ich zastosowanie pozwala kontrolować dostęp do krytycznych informacji. IAM oferuje możliwość pojedynczego logowania z dowolnego urządzenia, a także realizację mechanizmów uwierzytelniania dwuskładnikowego i wieloskładnikowego czy zarządzanie dostępem uprzywilejowanym. Technologie te zapewniają również możliwość bezpiecznego przechowywania danych dotyczących tożsamości i profilu.
– Wdrożenie IAM wydaje się być zasadne, o ile wcześniej przeprowadzona zostanie segmentacja i inwentaryzacja zasobów. IAM to podstawa, od której należy rozpocząć planowanie i wdrażanie procesów związanych z granularną kontrolą dostępu – tłumaczy Piotr Bartman, System Engineer w Veracomp – Exclusive Networks.
Wprawdzie wśród wielu informatyków panuje przekonanie, że IAM jest rozwiązaniem przeznaczonym dla dużych firm z zasobnym portfelem, ale w rzeczywistości technologia ta sprawdzi się w firmie każdej wielkości. Zresztą systemy do zarządzania tożsamością i dostępem mogą być oferowane w modelu subskrypcyjnym w dwóch odmianach – uwierzytelnianie jako usługa lub tożsamość jako usługa (IDaaS). W obu przypadkach usługodawca bierze na siebie ciężar uwierzytelniania i rejestracji użytkowników, a także zarządzania ich informacjami.
– W przypadku ograniczonych zasobów finansowych czy personalnych, outsourcing to zdecydowanie korzystna opcja. Dodatkowo mamy gwarancję bezstronności w zarządzaniu systemem wrażliwym dla organizacji, choć klient musi mieć kontrolę nad usługodawcą. Nie bez znaczenia jest doświadczenie dostawcy we wdrażaniu procedur czy w analizie procesów – przekonuje Rafał Barański, prezes zarządu braf.tech.
W modelu usługowym klient, poza rozwiązaniem informatycznym, dostaje dostęp do wiedzy eksperckiej na temat wdrażanego narzędzia. Gdyby chciał zapewnić sobie podobną jakość usługi we własnym zakresie, przy często ograniczonych zasobach wewnętrznych, wiązałoby się to z długim i kosztownym procesem. Tak czy inaczej, wraz z szybkim rozwojem i tempem cyfrowego biznesu, działy IT dostrzegają rosnące znaczenie IAM. Analitycy Gartnera przewidują, że wartość rynku zarządzania dostępem sięgnie 19 mld dol. w 2024 r., w porównaniu z 13,7 mld dol. w tym roku.
Administratorzy pod lupą
Administratorzy IT mają dostęp do najbardziej poufnych informacji, takich jak korespondencja e-mailowa, lista płac czy treści zawieranych umów. Poza tym mogą bez trudu dezaktywować zabezpieczenia IT – antywirusy, firewalle czy narzędzia do backupu. Niestety, zdarza się, że szerokie uprawnienia i możliwości ingerencji w infrastrukturę IT prowadzą do poważnych nadużyć. Chyba najbardziej spektakularny jest tutaj przykład Edwarda Snowdena, który ujawnił na łamach prasy kilkaset tysięcy poufnych, tajnych i ściśle tajnych dokumentów NSA. Podobne sytuacje, choć oczywiście na dużo mniejszą skalę, mają miejsce w wielu firmach oraz instytucjach.
Dlatego też firmy oraz instytucje wykazują rosnące zainteresowanie rozwiązaniami, które umożliwiają kontrolę nie tylko pracy administratorów, ale również firm świadczących outsourcing IT. Gartner zwraca na szczególną uwagę na rolę, jaką spełniają w tym zakresie systemy kontroli dostępu uprzywilejowanego PAM (Privileged Access Management). Zdaniem analityków tego typu narzędzia będą w ciągu najbliższych dwóch lat tematem numer jeden w sektorze bezpieczeństwa IT. Gartner na przykład prognozuje, że wielkość globalnego rynku systemów PAM osiągnie w 2024 r. wartość 2,9 mld dol., co stanowi wzrost o 50 proc. w porównaniu z rokiem 2018. W bieżącym roku ma to być 2,2 mld dol., co oznacza wzrost o 16 proc. w stosunku do roku poprzedniego.
PAM-y ułatwiają nadzór nad sesjami uprzywilejowanymi oraz monitorowanie i zarządzanie uprzywilejowanymi kontami. Najwięcej kłopotów mają z tym duże organizacje, które korzystają z wielu serwerów, komputerów i innych podobnych zasobów. Nic więc dziwnego, że mechanizmy PAM już od dłuższego czasu znajdują zastosowanie w instytucjach finansowych a także w przemyśle. Niewykluczone również, że w najbliższym czasie dołączą do tego grona nieco mniejsze podmioty gospodarcze. Przedsiębiorstwa świadczące outsourcing IT zazwyczaj mają dostęp do newralgicznych danych klienta. Gdyby doszło do kradzieży informacji, PAM odnotuje takie zdarzenie i dostarczy dowody dokonania przestępstwa, które będą niezwykle istotne podczas ewentualnej rozprawy sądowej.
– Wdrożenie PAM tylko w tym zakresie jest w naszym przypadku bardzo proste i nie zajmuje więcej niż jeden dzień roboczy. Uruchomienie rozwiązań IAM jest natomiast traktowane często jako drugi etap projektu dotyczącego zarządzania tożsamością w organizacji. Tego typu rozwiązania wymagają od klientów dużo więcej przygotowań – tłumaczy Paweł Rybczyk.
Dostawcy systemów IAM czy PAM są na ogół zgodni, że istnieje już w Polsce grupa integratorów, którzy posiadają duże doświadczenie w zakresie wdrażania wymienionych produktów. Zresztą same mechanizmy funkcjonowania rozwiązań do zarządzania dostępem i tożsamością nie są zbyt zawiłe i nie stanowią bariery dla integratorów. O wiele trudniejszym zadaniem jest przekonanie klientów do inwestycji w PAM lub IAM. Może się to wydawać dziwne, zwłaszcza, że oba rozwiązania chronią dostęp do bardzo cennych informacji i nie bez przyczyny często mówi się o nich jako o najlepszej formie zabezpieczenia kluczy do królestwa IT.
Zdaniem specjalisty
W czasie pandemii zapotrzebowanie na mechanizmy uwierzytelniana wieloskładnikowego znacząco wzrosło. Wynikało to przede wszystkim z przejścia na pracę zdalną. Większa świadomość w zakresie nowoczesnych mechanizmów kontroli dostępu oraz łatwość ich wdrożenia sprawiły, że wiele firm zastosowało te technologie na potrzeby swoich pracowników. Nie zmienia to faktu, że w tym zakresie pozostało jeszcze wiele do zrobienia. Bankowość, ubezpieczenia, instytucje rządowe czy służby mundurowe to sektory, w których mechanizmy uwierzytelnienia wieloskładnikowego stały się standardem. Duże rezerwy tkwią nadal w rynku MŚP, gdzie większe znaczenie odgrywają koszty. W tym przypadku mechanizmy MFA są częściowo wdrażane, o ile wykorzystywane platformy bezpieczeństwa oferują tego typu możliwości.
Wszystkie rozwiązania oparte o biometrię są uważane za najbezpieczniejsze metody uwierzytelniania. Jednak bardziej wnikliwa analiza pokazuje, że z tym bezpieczeństwem nie jest wcale tak kolorowo. Wprawdzie nasze cechy biologiczne są niemal unikatowe, aczkolwiek da się je dość prosto odwzorować. Dla przykładu linie papilarne można zastąpić zdjęciem kciuka, tak samo jak naszą twarz – zwykłą fotografią. Kiedy już dojdzie do kradzieży tożsamości, to pojawia się ogromny problem, bo nie jesteśmy w stanie zmienić linii papilarnych czy tęczówki. Nieco inaczej sprawa wygląda przy biometrii behawioralnej, czyli wzorcach zachowań, które są analizowane pod kątem wszelkich uchybień i anomalii. Są one stale modyfikowane i dopracowywane za pomocą uczenia maszynowego i dostosowują się do zmian zgodnych z naszym zachowaniem.
Obecnie rozwiązania IAM i PAM, dzięki rozbudowie ich funkcjonalności, stają się rozwiązaniami all-in-one, jak też mogą być użyte w różnych środowiskach. Kluczowe jest tutaj słowo „kontrola dostępu”. Dlatego wszystko zależy od potrzeb przedsiębiorcy. To on sam określa, kto ma korzystać z danego rozwiązania. Czy każdy pracownik? Czy tylko administrator? A może dostęp powinna posiadać jedynie aplikacja, którą ma łączyć się z inną aplikacją? W każdym razie, śledząc trendy w bezpieczeństwie IT widoczne w zachodniej Europie, mogę już teraz wysnuć tezę, że już niebawem również w Polsce systemy do zarządzania kontroli dostępu będą stanowić kluczowe elementy cyberbezpieczeństwa każdej średniej firmy.
Artykuł Klucze do królestwa pod specjalnym nadzorem pochodzi z serwisu CRN.
]]>Artykuł Bezpieczne uwierzytelnianie: od tego trzeba zacząć pochodzi z serwisu CRN.
]]>W większości z nich najpopularniejszym sposobem zabezpieczania dostępu do zasobów IT są hasła. Tymczasem z raportu Verizon Data Breach Investigation Report dotyczącego incydentów naruszenia bezpieczeństwa wynika, że aż 81 proc. przypadków włamań na konta użytkowników wiązało się z wykradzeniem hasła lub złamaniem (ewentualnie odgadnięciem) zbyt łatwego. Dzięki zdobytemu hasłu cyberprzestępcy mają dostęp do firmowej sieci, mogą próbować uzyskać większe uprawnienia i przeniknąć do innych systemów, serwerów czy aplikacji przedsiębiorstwa. W tym celu często próbują zainstalować oprogramowanie typu malware w systemach wewnętrznych, które daje im stały i nieodkryty przez nikogo dostęp do sieci.
Z punktu widzenia zwykłego użytkownika sieci problemem staje się rosnąca liczba haseł, które musi pamiętać. Zwłaszcza, że w przypadku niektórych aplikacji zmiana hasła jest wymagana dość często. A przecież dobre praktyki wymagają, żeby hasła były długie i złożone. W efekcie konieczność ich zapamiętywania staje się z czasem niemal udręką. W rezultacie część użytkowników przechowuje swoje hasła w pliku
na firmowym komputerze. Są też tacy, którzy mają je zapisane w prywatnych notatkach.
Zbyt wiele haseł to także inny problem z zachowaniem „higieny” w zakresie bezpieczeństwa. Powszechnie wiadomo, że ponowne używanie tych samych haseł to zła praktyka, bo skradzione lub odgadnięte hasło do jednego konta może dać napastnikowi dostęp do innych. Trudno się jednak dziwić, że użytkownicy nie chcą wymyślać i pamiętać kolejnych. Wolą szybko i łatwo się logować, używając w różnych systemach tego samego hasła.
Gdy dla użytkowników sieci obsługa haseł staje się dużym problemem, częściej zwracają się po pomoc do działu IT. Statystyki pokazują, że nawet jedna trzecia zgłoszeń do helpdesku dotyczy próśb o zresetowanie hasła. Takiemu marnowaniu czasu informatyków w firmie zapobiegnie rozwiązanie z mechanizmem Single Sign-On, czyli jednorazowym logowaniem się do usługi sieciowej. Dzięki niemu użytkownik uzyskuje dostęp do wszystkich potrzebnych mu zasobów. SSO ułatwia życie pracowników i administratorów, ale jeśli będzie bazować wyłącznie na haśle, nie zapewni wysokiego poziomu ochrony.
Rekordowa kara finansowa, nałożona w zeszłym roku na jednego z dużych graczy e-commerce w Polsce, była związana z wyciekiem danych klientów. Urząd Ochrony Danych Osobowych stwierdził, że naruszenie było „znacznej wagi i miało poważny charakter” oraz dotyczyło dużej liczby osób, a „podmiot nie zastosował podwójnego uwierzytelniania dostępu do danych”. Wspomniane przez UODO uwierzytelnianie dwuskładnikowe 2FA (czy ogólnie wieloskładnikowe – MFA) to skuteczne narzędzie zabezpieczające przed kradzieżą tożsamości użytkownika. Jego zastosowanie w przedsiębiorstwie powoduje, że cyberprzestępca do przeprowadzenia ataku musi nie tylko zdobyć dane służące
do logowania się, lecz także fizyczny dostęp do urządzenia niezbędnego do jego autoryzacji.
Najczęściej stosowana odmiana uwierzytelniania wieloskładnikowego to połączenie dwóch niezależnych od siebie metod. Oczywiście, im więcej oddzielnych składników autentykacji, tym wyższy poziom zabezpieczania dostępu, ale wraz z ich liczbą znacząco rosną koszty wdrożenia. Poza tym cztero- lub pięcioskładnikowego uwierzytelniania wymagają właściwie tylko instytucje rządowe, operujące ściśle tajnymi danymi albo centra badawcze, które muszą chronić wyjątkowo cenną własność intelektualną i unikatowe technologie.
Patrząc z ekonomicznego punktu widzenia, przedsiębiorcom warto polecać wystarczająco bezpieczną kombinację dwóch wybranych elementów z trzech „kategorii określających”: coś, co użytkownik zna (np. hasło lub PIN), coś, co posiada (token albo aplikacja w smartfonie) oraz coś, czym jest (chodzi o rozwiązania biometryczne, czyli odcisk palca, skan twarzy albo oka). Dzięki temu nie trzeba pamiętać skomplikowanego hasła, jak też często je zmieniać. Ponieważ w firmie znika problem przechowywania haseł, rośnie poziom bezpieczeństwa i spada liczba jego naruszeń, natomiast maleją koszty pomocy technicznej.
Z publikacji „Global Password Security Report” wynika, że w przypadku 95 proc. przedsiębiorstw, które używają rozwiązań 2FA, pierwszym elementem była para login i hasło, zaś dodatkowym sposobem uwierzytelniania jest rozwiązanie oparte na oprogramowaniu, zwykle mobilnej aplikacji. Tylko 4 proc. takich firm decyduje się na sprzętowy token, a zaledwie 1 proc. – na biometrię. Przewiduje się jednak, że w niedalekiej przyszłości popularność metod wykorzystujących składnik biometryczny będzie szybko wzrastać.
Rzecz jasna, rozwiązań MFA używają przede wszystkim pracownicy dużych firm i instytucji. Bez wątpienia bowiem w większych przedsiębiorstwach częściej obowiązuje restrykcyjna polityka bezpieczeństwa, związana zwykle z regulacjami prawnymi. W mniejszych firmach MFA jest rzadziej stosowane, bo informatycy, którzy tam pracują, są obciążeni wieloma obowiązkami i nie mają czasu na wdrażanie kolejnych zabezpieczeń. W dodatku małe podmioty nie czują się celem cyberprzestępców, choć według „Verizon Data Breach Investigations Report 2019”, aż 43 proc. cyberataków jest skierowanych właśnie na niewielkie przedsiębiorstwa. Co gorsza, 60 proc. małych i średnich firm, które zostały zaatakowane, w ciągu sześciu miesięcy kończy swoją działalność.
Wraz z postępem technicznym w biometrii i rozwojem standardów w rodzaju FIDO2 (szczegóły w ramce obok) trend „passwordless” zapewne szybko będzie przybierać na sile. Bardzo optymistycznie podchodzi do tej kwestii Gartner. Analitycy przewidują, że do 2022 r. 60 proc. dużych światowych przedsiębiorstw oraz 90 proc. średnich firm wdroży uwierzytelnianie bezhasłowe (w 2018 r. odsetek ten wynosił 5 proc.).
W efekcie postępu technicznego i nowego stylu pracy firmowe sieci stają się coraz bardziej skomplikowane. Często składają się z lokalnej infrastruktury w przedsiębiorstwie i aplikacji działających w chmurze. Dlatego wielu użytkowników łączy się z siecią firmową bez odpowiedniego nadzoru działów IT. I nie dotyczy to tylko pracowników, bo dostępu do sieci mogą potrzebować dostawcy i partnerzy danego przedsiębiorstwa. A to wymaga zastosowania dodatkowych mechanizmów kontrolnych. Mimo to wciąż wiele firm nie ma odpowiednio restrykcyjnej polityki bezpieczeństwa dotyczącej dostępu do kluczowych zasobów.
Bez wątpienia zapotrzebowanie na rozwiązania Privileged Access Management, czyli służące do zarządzania dostępem uprzywilejowanym (z prawami administratora), będzie rosnąć. Z powodu braku specjalistów na rynku (ale także ze względu na chęć skupienia się wyłącznie na biznesie) coraz więcej firm nie ma odpowiednich zasobów ludzkich do radzenia sobie ze skomplikowanym procesem zarządzania krytycznymi elementami infrastruktury IT. To daje szansę integratorom na świadczenie usług zarządzania wybranymi obszarami lub całością infrastruktury informatycznej klientów. W przypadku tego typu outsourcingu ważna staje się m.in. możliwość rejestrowania czynności wykonywanych przez zewnętrznych administratorów i kontroli nad nimi. Istotne są bowiem wszelkie informacje ułatwiające analizę śledczą po doświadczeniu cyberataku.
Wdrożenie PAM powoduje, że użytkownicy z większymi uprawnieniami nie znają haseł i nie mają kluczy do kont uprzywilejowanych. Zapewnia też rotację haseł i kluczy SSH oraz przechowywanie ich w postaci zaszyfrowanej w bezpiecznym miejscu (w tzw. skarbcu – password vault). Dlatego w przypadku stosowania PAM nie trzeba udostępniać administratorom haseł do systemów IT. System rejestruje także proces logowania administratora, a wszelka aktywność podejmowana w ramach zdalnych sesji jest nagrywana. Dostawcy PAM przyznają, że polscy przedsiębiorcy wdrażają takie systemy właśnie ze względu na tę funkcję, której zastosowania wymagają przepisy. Zdecydowanie mniejsze znaczenie ma dla nich zapewniana przez nie kontrola dostępu i zarządzanie poświadczeniami.
Opisywane wcześniej uwierzytelnianie wieloskładnikowe (MFA) w ostatnich latach jest niezmiennie umieszczane przez Gartnera na liście 10 najważniejszych projektów związanych z zachowaniem bezpieczeństwa. Nie inaczej jest z kontrolą dostępu uprzywilejowanego. Gdy tak często dochodzi do wykradania i łamania haseł, zastosowanie jednocześnie dwóch różnych, niezależnych form zabezpieczenia dostępu znacząco podnosi poziom ochrony. Mając to na uwadze, warto proponować klientom jednoczesne użycie PAM i MFA, gdyż doskonale się uzupełniają.
Dużo pieniędzy na rynku MFA
Adroit Market Research szacuje, że światowy rynek uwierzytelniania wieloskładnikowego osiągnie do 2025 r. wartość 20,23 mld dol. (dla porównania w 2018 r. – 4,56 mld dol.). Do najważniejszych powodów wdrażania rozwiązań uwierzytelniania wieloskładnikowego należą: lawinowo zwiększająca się liczba transakcji online, rozwój handlu elektronicznego i postępująca cyfryzacja usług finansowych oraz ochrony zdrowia. Katalizatorem decyzji zakupowych są ponadto, rzecz jasna, coraz częstsze cyberataki i kradzieże danych. Rynek napędzać będzie również upowszechniająca się forma pracy mobilnej (z modelem BYOD) i rosnąca złożoność hybrydowych środowisk IT, które sprzyjają cyberatakom. Duży wpływ na rozwój rynku MFA mają coraz bardziej rygorystyczne przepisy w zakresie ochrony danych. Analitycy spodziewają się, że największy udział we wzroście sprzedaży będzie miał niezmiennie ściśle regulowany sektor finansowy. Duży wzrost popytu powinien nastąpić również ze strony placówek ochrony zdrowia i sektora publicznego.
Przed wdrożeniem MFA lub systemu PAM integrator powinien zaproponować klientowi sprawdzenie stosowanych przez niego dotychczas procedur bezpieczeństwa. Narzędzia ochronne będą bowiem na tyle skuteczne, na ile w firmie przestrzegane są zasady polityki bezpieczeństwa dotyczące dostępu i kontroli tożsamości. Przy czym wdrażający powinien mieć nie tylko wiedzę na temat funkcji i możliwości określonego rozwiązania, które połączy firmowy mechanizm jednorazowego logowania się (SSO) i zarządzanie hasłami z wieloskładnikowym uwierzytelnianiem i kontrolą dostępu uprzywilejowanego. Ważna jest również znajomość środowiska klienta i wszelkich zachodzących w nim procesów. Dbając o ochronę dostępu, nie można zapominać o innych aspektach cyberochrony oraz o konieczności integracji wdrażanych narzędzi z istniejącymi systemami.
Co ważne, zarządzanie dostępem – jak zawsze w przypadku rozwiązań z zakresu bezpieczeństwa – musi być także wynikiem pewnego kompromisu. Zarówno integratorzy, jak i działy IT ich klientów, muszą pogodzić możliwie wysoki stopień zaawansowania narzędzi ochronnych z takim uproszczeniem procedur dostępu, aby ułatwiać bieżącą pracę użytkownikom. Klient tylko wtedy uzyska satysfakcjonujący zwrot z inwestycji, gdy z jednej strony zostanie skutecznie zabezpieczony przed materialnymi i niematerialnymi stratami wynikającymi z naruszeń bezpieczeństwa, a z drugiej technologia nie będzie miała negatywnego wpływu na jego biznes. n
Czy FIDO2 zlikwiduje hasła?
Potrzeba zagwarantowania bezpieczeństwa każdej metody uwierzytelniania, a więc używanej na wszystkich urządzeniach pracowników i w każdej aplikacji w firmowej sieci, sprawiła, że powstał sojusz o nazwie FIDO. Pierwszą wersję opracowanego przez niego standardu nazwano FIDO U2F. Został pomyślany jako metoda zastosowania drugiego składnika uwierzytelniania, który stanowi uzupełnienie tradycyjnego zabezpieczenia z loginem i hasłem. Z kolei nowy standard, określony mianem FIDO2, składa się ze specyfikacji W3C Web Authentication i protokołów Client to Authenticator (CTAP). Umożliwia uwierzytelnianie bez hasła przy użyciu wewnętrznych lub powiązanych systemów autentykacji (takich jak dane biometryczne lub PIN) albo urządzeń zewnętrznych, przenośnych (np. kluczy FIDO Security, bądź sprzętu mobilnego, w tym typu wearables). Ma to zapewniać użytkownikom wygodne uwierzytelnianie bez hasła na wielu platformach, bez utraty prywatności, a przede wszystkim bezpieczeństwa. W nowej metodzie uwierzytelniania informacje biometryczne z urządzenia użytkownika lub dane z klucza prywatnego przechowywane w tokenie FIDO2 nigdy nie opuszczają urządzenia, dlatego jest bardzo bezpieczna, odporna na phishing i uniemożliwia atak na serwery. FIDO2 może być wykorzystywana jako jedyne uwierzytelnianie bez hasła lub w połączeniu z lokalnie stosowanym kodem PIN (co uniemożliwia dostęp za pomocą skradzionego klucza). Tak jak U2F, może też być kolejnym elementem w uwierzytelnianiu MFA.
Zdaniem integratora
Bartosz Dzirba, CTO i członek zarządu, Passus
Wobec niewystarczającego poziomu zabezpieczeń w uwierzytelnianiu bazującym wyłącznie na hasłach, rośnie zainteresowanie autentykacją wieloskładnikową. W ostatnim czasie, w związku z pandemią koronawirusa, bardzo zwiększyło się zapotrzebowanie na zdalny dostęp przez VPN i klienci chcą, aby był on dobrze chroniony. Sami niedawno wdrożyliśmy w firmie, na większą skalę, takie rozwiązanie, które objęło zasoby i usługi, które dotychczas były zabezpieczane za pomocą uwierzytelniania jednoskładnikowego. Popyt na 2FA jest obecnie tak duży, że nawet klienci, którzy już używają takiego uwierzytelniania, w wariancie z kartą chipową, rozglądają się za bardziej elastycznym rozwiązaniem. Po prostu zaczyna brakować na rynku czytników kart. Dlatego przedsiębiorcy chętnie wybierają systemy wykorzystujące aplikacje i tokeny programowe, a w przypadku dostępu do Office’a 365 – także SMS-y. Dla firm najlepsze jest rozwiązanie uniwersalne, które zapewnia stosowanie różnych metod uwierzytelniania – kluczy sprzętowych, aplikacji, SMS-ów, połączeń głosowych, odcisku palca czy rozpoznawania twarzy. Ważne jest również, by wybrane narzędzie umożliwiało dostęp offline, kiedy użytkownik nie ma połączenia z siecią. Mimo wygody używania, rozwiązania biometryczne są rzadko wybierane jako drugi składnik systemu 2FA wdrażanego w przedsiębiorstwach.
Artykuł Bezpieczne uwierzytelnianie: od tego trzeba zacząć pochodzi z serwisu CRN.
]]>Artykuł Dostęp kontrolowany na różnych poziomach pochodzi z serwisu CRN.
]]>W pierwszej kolejności należy uporządkować zasoby danych i oszacować ich wartość. Dopiero gdy wiadomo, czym klient dysponuje i co należy w szczególny sposób chronić, jest czas na wybór rozwiązań technicznych. Tylko z pozoru może to być wbrew interesom integratorów i resellerów prowadzących sprzedaż rozwiązań dostępowych. Usługa optymalnego organizowania zasobów informacji i opracowania efektywnych zasad dostępu do nich niejednokrotnie jest bardziej korzystna od sprzedaży urządzeń czy oprogramowania. Tym bardziej że korzystanie z wielu rodzajów danych, np. osobowych czy będących tajemnicą przedsiębiorstwa, podlega ścisłym przepisom.
Dobrym punktem wyjścia do uporządkowania bądź ustalenia na nowo zasad ochrony informacji w firmie klienta bywa wdrożenie wymogów RODO. To też dobra okazja do opracowania reguł dostępu do poszczególnych rodzajów danych przedsiębiorstwa i zasobów o kluczowym znaczeniu dla jego sprawnego funkcjonowania.
Zgodnie z artykułem 5. RODO dane muszą być przetwarzane „w sposób zapewniający odpowiednie bezpieczeństwo danych osobowych, w tym ochronę przed niedozwolonym lub niezgodnym z prawem przetwarzaniem oraz przypadkową utratą, zniszczeniem lub uszkodzeniem, za pomocą odpowiednich środków technicznych lub organizacyjnych”. Przepisy nie precyzują jednak, w jaki sposób i za pomocą jakich narzędzi ma to być realizowane. Wybór rozwiązań pozostaje w gestii administratora danych. Rozporządzenie mówi jedynie o obowiązku zastosowania środków adekwatnych do oszacowanego ryzyka, zdefiniowanych zagrożeń i istniejących uwarunkowań, m.in. dostępnych rozwiązań technicznych.
Wprowadzenie unijnego rozporządzenia otworzyło przed integratorami i resellerami nowe perspektywy. I chociaż od wejścia w życie RODO minęło już ponad półtora roku, wciąż wiele firm poszukuje porady doświadczonych specjalistów, gdyż spełnianie wymogów unijnego rozporządzenia wymaga stałej aktualizacji przyjętych rozwiązań i dostosowywania ich do aktualnych wyzwań. To szansa dla firm IT na oferowanie nowych, adekwatnych do sytuacji klienta rozwiązań. W niektórych przypadkach konieczne okaże się stworzenie lub zmodyfikowanie polityki bezpieczeństwa, w czym też można klientowi pomóc za odpowiednią opłatą.
Ze statystyk wynika, że ok. 60 proc. danych wypływa z przedsiębiorstw i instytucji w wyniku działań pracowników, a nie za sprawą włamań lub innych działań cyberprzestępców. To dowód, jak ważne dla bezpieczeństwa jest uporządkowanie zasad dostępu do danych przez poszczególnych użytkowników w firmie. I to niezaleznie od tego, czy chodzi o prawnie chronione dane osobowe, czy o inne informacje wymagające szczególnych zabezpieczeń ze względu na ich wartość dla firmy.
Gdy już takie zasady zostaną opracowane i wprowadzone w życie, narzędzia informatyczne pomogą je egzekwować. Istnieje wiele rozwiązań służących do kontroli dostępu do danych. Można posłużyć się szyfrowaniem, pseudonimizacją, zastosować systemy uwierzytelniania dostępu, kontroli tożsamości, blokowania nieuprawnionego dostępu, a także zarządzania kontami uprzywilejowanymi.
Dużym firmom integrator może zaproponować stworzenie centralnej bazy użytkowników. Dzięki niej łatwiej sprawdzać, kto do jakich danych ma dostęp i w jaki sposób z tego korzysta. W przypadku dużej liczby pracowników, co zazwyczaj pociąga za sobą nadawanie im różnych uprawnień w różnych systemach, z pomocą przyjdzie system zarządzania tożsamością. Systemy klasy Identity Management lub Identity and Access Management zapewniają przydzielanie użytkowników do określonych grup oraz nadawanie im ról, do których przypisane są określone zakresy dostępu do danych. Klientom korporacyjnym warto oferować systemy Privileged Access Management do monitorowania dostępu do zasobów przez użytkowników uprzywilejowanych oraz rozwiązania typu Network Access Control do kontroli dostępu do sieci lokalnej.
Skuteczne zabezpieczenie firmowych zasobów przed nieuprawnionym dostępem zależy w dużym stopniu od jednostkowych uwarunkowań i sposobu funkcjonowania przedsiębiorstwa. Każdy nowy, niestandardowy pomysł resellera i integratora, który zwiększy poziom bezpieczeństwa przetwarzanych danych, ma szanse wzbudzić zainteresowanie potencjalnego klienta. A zatem firmy IT mają spore pole do działania.
Bogdan Lontkowski
dyrektor regionalny Ivanti na Polskę, Czechy, Słowację i kraje bałtyckie
Mamy do czynienia z dwoma poziomami ochrony zasobów danych w firmach. Jeden – to ogólnie pojęta ochrona dostępu, natomiast drugi – to zarządzanie tożsamością. Wzajemnie się uzupełniają i jeden bez drugiego nie może istnieć. W przypadku dostępu do danych poufnych w grę wchodzą jeszcze osobne regulacje prawne, które określają warunki zapewnienia ich ochrony przed dostępem z zewnątrz. Najważniejsza jest jednak znajomość posiadanych zasobów, ich specyfiki i znaczenia dla przedsiębiorstwa. Często najcenniejsze z biznesowego punktu widzenia są inne dane, niż się na pozór wydaje. Także nie te, których ochronę regulują najostrzejsze rygory prawne. Dla przykładu, niejednokrotnie informacje patentowe i receptury składu produkowanych wyrobów są ważniejsze dla firmy niż dane osobowe. Jedne i drugie trzeba chronić, ale świadomość wagi poszczególnych zasobów pomaga w doborze rozwiązań. Umożliwia również stopniowanie zakresu odpowiedzialności poszczególnych pracowników i decydowanie, kto, do czego może mieć dostęp i w jaki sposób – przykładowo, kto ma prawo tylko odczytywać dane, a kto je modyfikować.
Nawet najlepsze narzędzia nie zapewnią jednak odpowiedniego poziomu ochrony bez określenia jasnych, precyzyjnych reguł korzystania z konkretnych rodzajów czy zbiorów danych przez poszczególnych użytkowników w określonych procesach biznesowych. Przykładowo, dostęp do systemu przetwarzającego dane osobowe może być nadany wyłącznie osobie posiadającej uprawnienia do przetwarzania danych osobowych, na dodatek w ściśle określonym zakresie.
I tu wracamy do punktu wyjścia, gdyż zapewnienie autoryzowanego dostępu do konkretnych danych wymaga przede wszystkim ich zidentyfikowania i ustalenia, gdzie się znajdują. Konieczne jest też wskazanie, w jakich procesach są wykorzystywane oraz kto i w jakim zakresie ma do nich dostęp. Przydatne do tego są systemy klasyfikacji danych. Obecnie wchodzą w skład systemów klasy Data Lost Prevention albo są stosowane jako niezależne oprogramowanie. Umożliwiają indeksowanie przetwarzanych zasobów pod kątem ich znaczenia dla bezpieczeństwa firmy, co pozwala wzmocnić ich ochronę. Zapewniają np. automatyczne blokowanie dostępu do pliku z danymi osobowymi pracownikowi, który nie jest upoważniony do ich przetwarzania (m.in. zostanie uniemożliwiony wydruk i załączenie pliku do wiadomości w poczcie elektronicznej). To samo dotyczy dokumentów z innymi rodzajami informacji niejawnych oraz newralgicznych dla danego przedsiębiorstwa.
Skuteczność rozwiązań DLP jest tym większa, im jaśniejsze i bardziej jednoznaczne zasady klasyfikacji danych wypracowano w firmie. Precyzyjna klasyfikacja zwiększa bowiem trafność podejmowanych przez system decyzji w zakresie udostępniania poszczególnych ich kategorii właściwym grupom użytkowników. System podpowiada otagowanie lub proponuje kategorie danych z gotowego zestawu. Nie oznacza to jednak zwolnienia korzystającej z niego osoby z wyboru opcji, zgodnie z przejrzystymi zasadami klasyfikacji posiadanych i przetwarzanych przez określone przedsiębiorstwo zbiorów danych.
I właśnie zarządzanie informacją o przetwarzanych danych może być dla resellerów i integratorów kolejną okazją do rozwoju biznesu. To możliwość oferowania nie tylko nowych narzędzi i programów, ale również usług konsultingowych, szkoleń oraz projektów edukacyjnych. To też sposób na zwiększenie bezpieczeństwa przetwarzanych danych, czym z pewnością jest zainteresowanych wiele firm.
Zdaniem integratora
Michał Malczewski, Sales Director, Integrity Partners
Dla skutecznej ochrony ważna jest identyfikacja danych wrażliwych. Współczesne techniki pomagają firmom znacząco zredukować bazę danych i monitorować działania migracyjne w chmurze. Mogą także ułatwiać procesy zabezpieczania wcześniej niesklasyfikowanych danych, by uniknąć naruszenia prawa, co jest szczególnie istotne, m.in. w przypadku RODO.
Szczególnym rodzajem ochrony danych osobowych jest anonimizacja. Zapewnia dostęp do informacji pozbawionych cech jednostkowych. Polega na usunięciu wszystkich informacji, które w jakiś sposób umożliwiałyby identyfikację określonej osoby. Można się nią posłużyć, by uzyskać dostęp do danych statystycznych, chroniąc przy tym dane osobowe, a także wtedy, gdy z systemu informatycznego nie można usunąć całego rekordu. Co ważne, dane zanonimizowane nie są już danymi osobowymi, więc nie podlegają regulacjom RODO. Anonimizację, w przeciwieństwie do pseudonimizacji, cechuje bowiem nieodwracalność. Po jej wykonaniu nie da się już zidentyfikować konkretnych osób.
Istnieje wiele różnych technik anonimizacji danych: randomizacja, dodanie zakłóceń, permutacja, prywatność różnicowa, uogólnienie lub osłabienia atrybutów, agregacja i k-anonimizacja oraz będąca jej rozszerzeniem l-dywersyfikacja. Narzędzia do anonimizacji danych wchodzą w skład różnych systemów informatycznych, np. ERP czy CRM. Bywają też oferowane jako samodzielne programy przeznaczone specjalnie do tego celu.
Trzy pytania do…
Katarzyny Gorzkowskiej, prawnika w kancelarii APLaw
Z jakimi obowiązkami wiąże się przetwarzanie danych należących do poufnych? Jakie jeszcze dane, oprócz osobowych, wymagają szczególnej ochrony?
Na gruncie RODO termin „poufność” odnosi się do zabezpieczania danych osobowych przed ich ujawnieniem osobom nieuprawnionym. Powinny być przetwarzane w sposób zapewniający im bezpieczeństwo, m.in. ochronę przed niedozwolonym lub niezgodnym z prawem przetwarzaniem oraz przypadkową utratą, zniszczeniem lub uszkodzeniem. Dane poufne mogą także zawierać tajemnice przedsiębiorstwa. W rozumieniu ustawy o zwalczaniu nieuczciwej konkurencji zaliczamy do nich informacje: techniczne, technologiczne, organizacyjne lub inne posiadające wartość gospodarczą, które nie są powszechnie znane osobom zwykle zajmującym się tym rodzajem informacji albo nie są łatwo dostępne dla takich osób.
Co decyduje o tym, że dane stają się tajemnicą przedsiębiorstwa?
Warunkiem uznania danych za tajemnicę firmy jest dążenie przez przedsiębiorcę do utrzymania ich poufności. Podobnie jak w przypadku RODO, sprowadza się to do zabezpieczenia informacji przed ujawnieniem osobom nieuprawnionym. Przedsiębiorca musi podjąć stosowne działania, aby informacje w ogóle podlegały ochronie. Powinien określić, które dotychczas niepodane do wiadomości publicznej informacje chce objąć ochroną. Przede wszystkim powinny być to dane związane z prowadzoną działalnością gospodarczą, mające wartość biznesową, których ujawnienie mogłoby spowodować szkodę. Chodzi między innymi o bazy danych klientów, receptury, informacje o kontrahentach, plany produkcji, informacje o rynkach zbytu. Przedsiębiorca powinien podjąć starania w celu zapewnienia ich poufności, przy czym nie muszą być to środki nadzwyczajne. Należy także poinformować pracowników mających dostęp do informacji o tym, że zostały objęte poufnością.
Czy nie wystarczą same przepisy kodeksu pracy, który obliguje pracowników do zachowania tajemnicy?
Przepisy kodeksu pracy nakładają na pracownika obowiązek zachowania w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę. Zdarza się jednak, że pracownicy nieświadomi negatywnych skutków swojego postępowania ujawniają informacje, do których mają na co dzień dostęp. Na podstawie kodeksu pracy pracownik jest również zobowiązany do przestrzegania tajemnic, musi jednak wiedzieć o objęciu danych poufnością. Brak takiej wiedzy z jego strony pozbawia pracodawcę ochrony prawnej. Zgodnie z wyrokiem Sądu Najwyższego z 3 października 2000 r. wykorzystanie przez pracownika we własnej działalności gospodarczej informacji, co do których poufności pracodawca nie podjął niezbędnych działań, należy traktować jako wykorzystanie powszechnej wiedzy, do której przedsiębiorca nie ma żadnych ustawowych uprawnień.
Artykuł Dostęp kontrolowany na różnych poziomach pochodzi z serwisu CRN.
]]>Artykuł Kontrola dostępu: podwójna fortyfikacja pochodzi z serwisu CRN.
]]>Wraz z postępem technologicznym i nowym stylem pracy zmieniają się wymagania dotyczące kontroli dostępu. Sieci w przedsiębiorstwach i instytucjach to skomplikowane środowiska, składające się z lokalnej infrastruktury i aplikacji działających w chmurze. Wielu użytkowników wykorzystuje własne urządzenia, aby uzyskać dostęp do firmowych zasobów. Zdaniem ekspertów z Cisco prowadzi to do sytuacji, w której wielu z nich łączy się z siecią firmową bez odpowiedniego nadzoru działów IT. Zresztą nie dotyczy to tylko pracowników, bowiem dostępu do sieci mogą potrzebować zewnętrzni dostawcy i partnerzy, co wymaga zastosowania dodatkowych mechanizmów kontrolnych. Jednakże nie wszystkie przedsiębiorstwa stosują dla tej grupy użytkowników restrykcyjną politykę, jeśli chodzi o dostęp i procedury bezpieczeństwa.
Mateusz Kawalec, Security Engineer w Infradata, uważa, że firmy rozwijające swoje systemy IT prędzej czy później zmierzą się ze skomplikowanym procesem zarządzania krytycznymi elementami swojej infrastruktury. Nie wszystkie sobie z tym radzą i niektóre z nich decydują się na wynajęcie firmy zewnętrznej do zarządzania częścią lub większością swojego środowiska IT. Poważnym problemem jest brak nadzoru w czasie rzeczywistym i możliwości rejestrowania czynności wykonywanych przez administratorów w systemach krytycznych. Jednym z efektów tego typu zaniechań może być kradzież lub usuwanie danych z serwerów aplikacyjnych, co prowadzi do strat finansowych i utraty reputacji przedsiębiorstwa. Poza tym pozbawione kontroli działania są później trudne do udowodnienia.
– Firmy często próbują zarządzać dostępem do architektury IT, mimo że nie mają wdrożonej polityki bezpieczeństwa. To poważny błąd. Odpowiednia strategia powinna zawierać m.in. obostrzenia dotyczące rotacji kluczy SSH i złożoności haseł, a także zasady stosowania dwuskładnikowego uwierzytelniania itp. – mówi Mateusz Kawalec.
Jednym z kluczowych rozwiązań w obszarze dostępu, uwierzytelniania użytkowników i ich autoryzacji są systemy PAM. Jak tłumaczy Michał Kozownicki, Deputy Director for BeyondTrust Products & Services w EMS Partner, powstały one, by odebrać użytkownikom korzystającym z bardzo dużych uprawnień (głównie administratorom systemów) część ich władzy. PAM oddziela tych użytkowników od haseł i kluczy do kont uprzywilejowanych. Ponadto proces logowania administratora jest rejestrowany, a wszelka aktywność podejmowana w ramach zdalnych sesji – nagrywana. To właśnie ze względu na tę ostatnią funkcję, której zastosowanie wymuszają przepisy, rodzimi przedsiębiorcy wdrażają PAM. Zdecydowanie mniejszy priorytet nadaje się zapewnianej przez te systemy kontroli dostępu i zarządzaniu poświadczeniami.
– Dlatego zawsze staramy się uświadamiać klientów, że wszystkie trzy filary, na których opiera się PAM, są nierozłączne i samo rejestrowanie sesji jest rozwiązaniem połowicznym – mówi przedstawiciel dystrybutora.
Kontrola wiąże się z koniecznością składania wniosków dostępowych i rejestracją dostępu do krytycznych zasobów. Odgrywa ona kluczową rolę, zapewniając rozliczalność „kto, gdzie i kiedy” oraz uszczelnienie infrastruktury. Z kolei automatyczne zarządzanie poświadczeniami odbiera administratorom pełną władzę nad środowiskiem IT i zdejmuje odpowiedzialność za przechowywanie haseł i kluczy. Takie całościowe podejście jest niezwykle istotne w poprawnej implementacji PAM.
Zdaniem Mateusza Kawalca integrator wychodzący naprzeciw wymaganiom przedsiębiorstwa może zaproponować najpierw wykonanie audytu, a następnie wdrożyć PAM. System taki ma możliwości nadzoru i nagrywania sesji administracyjnych, rotacji haseł, kluczy SSH i przechowywania haseł w postaci zaszyfrowanej w bezpiecznym miejscu (tzw. password vault), czego istotną korzyścią jest wspomniany brak konieczności udostępniania administratorom haseł do systemów IT.
– Z technicznego punktu widzenia PAM może być roz-wiązaniem pracującym w trybie proxy.Wówczas jest umieszczany wewnątrz architektury sieciowej za firewallem lub bramą VPN. W takiej opcji wszystkie połączenia sieciowe do zarządzania systemami są przekierowywane na jeden adres IP – wyjaśnia specjalista Infradata.
W efekcie zmniejsza się liczba adresów IP udostępnianych bezpośrednio za firewallem i jednocześnie jest dodawany kolejny bezpieczny punkt logowania i nadzoru sesji administracyjnych. Po wdrożeniu takiego systemu użytkownik uprzywilejowany wykorzystuje tylko jeden adres IP, aby się zalogować do zdefiniowanych wcześniej systemów zgodnie ze swoimi uprawnieniami.
Michał Kozownicki
Deputy Director for BeyondTrust Products & Services, EMS Partner
Choć zarządzanie dostępem i autoryzacją oraz uwierzytelnianie nie powinny być ograniczone do użytkowników z prawami administratora IT, to największą potrzebę wprowadzenia kontroli zauważamy u klientów z tej właśnie grupy. W szczególności dotyczy to użytkowników zewnętrznych, przede wszystkim kontraktorów wykonujących prace związane z zasobami krytycznymi. Administratorzy pracujący wewnątrz firmy są obejmowani projektem niejako przy okazji. Choć systemy PAM zostały opracowane z myślą o użytkownikach uprzywilejowanych, to warto je stosować także w odniesieniu do „zwykłych” użytkowników.
Michał Kozownicki zwraca uwagę, że PAM nie jest w stanie załatwić wszystkiego. O ile takie systemy w pełni zapewniają zarządzanie dostępem i uwierzytelnianie, o tyle autoryzacja odbywa się na innym poziomie. Oczywiście można ustalić uprawnienia użytkowników w systemach operacyjnych przy użyciu zasad grupy (GPO), ale bardziej szczegółowe określenie tych praw wymaga specjalnych narzędzi. Są nimi systemy EPM (Endpoint Privilege Management), zapewniające precyzyjne ustalenie, jakie aplikacje i procesy mogą być uruchamiane przez poszczególnych użytkowników. Dotyczy to wszystkich kont, również tych z dostępami administracyjnymi.
– Przykładowo, w przypadku kontraktora można określić, z jakich aplikacji może on korzystać w ramach sesji RDP. Jeżeli nie ma potrzeby, żeby uruchamiał edytor rejestru w ramach swojej sesji, to ten program znajdzie się na czarnej liście – mówi przedstawiciel EMS Partner.
W ten sposób można stworzyć w firmie szczelną politykę bezpieczeństwa dotyczącą wykorzystania aplikacji – z uwzględnieniem ich wersji lub nawet hasha pliku wykonywalnego. W najprostszym modelu można zbudować politykę dla „zwykłych” użytkowników, w której ramach wszystkie aplikacje z folderów systemowych (Windows, Program Files) są uruchamiane bez uprawnień administratora. Z reguły będą też aplikacje wymagające w szczególnych okolicznościach uprawnień administracyjnych. Wszystkie inne, nieuwzględnione w ustawieniach, zostają zablokowane. W efekcie pracownicy nie mogą np. pobierać aplikacji z internetu i uruchamiać ich na biurowym komputerze.
Dlatego, jak twierdzi Michał Kozownicki, integracja dwóch obszarów – PAM i EPM – jest niezwykle istotna w tworzeniu strategii zarządzania dostępem, autoryzacji i uwierzytelniania. Oba systemy wdrożone razem zapewniają nie tylko rejestrowanie, kto uzyskuje dostęp i do jakich zasobów, lecz także precyzyjne określenie, jakie działania w ramach tego dostępu może podejmować. Dochodzi więc do uszczelnienia infrastruktury IT, polegającego na ograniczeniu dostępu osób niepowołanych do krytycznych zasobów i zablokowaniu możliwości uruchamiania niepożądanych aplikacji. W efekcie z jednej strony zostaje zaspokojona potrzeba rozliczalności „kto, gdzie i kiedy”, a z drugiej – przez dopasowanie uprawnień konta – maksymalnie redukuje się ryzyko związane z jego kompromitacją, nie ograniczając przy tym produktywności użytkownika.
Mateusz Pastewski
Cybersecurity Sales Manager, Cisco
Eksperci powtarzają, że najsłabszym ogniwem systemu bezpieczeństwa jest człowiek. Tymczasem firmy nie zawsze kładą odpowiedni nacisk na szkolenia, np. w postaci symulacji cyberataku. Dlatego zadaniem integratora jest zapewnienie odpowiednich narzędzi i dostępu do wiedzy eksperckiej. Dostarczone rozwiązanie może wprowadzić uwierzytelnianie wieloskładnikowe, a także umożliwiać przeprowadzanie kampanii phishingowej. Dzięki niej łatwiej będzie ustalić, którzy użytkownicy są podatni na manipulacje, a następnie podjąć odpowiednie działania edukacyjne.
Jak wynika z raportu na temat incydentów bezpieczeństwa „Verizon Data Breach Investigation Report”, aż 81 proc. przypadków włamania na konta użytkowników wiązało się z faktem, że hasła były zbyt słabe lub zostały wykradzione. Dzięki uzyskanemu w ten sposób dostępowi do sieci firmowej cyberprzestępcy mogą próbować uzyskać większe uprawnienia i przeniknąć do innych systemów, serwerów lub aplikacji firmowych. Co więcej, napastnicy próbują instalować programowanie typu malware w systemach wewnętrznych, aby uzyskać stały i nieodkryty przez nikogo dostęp do sieci.
Nałożona niedawno na jednego z dużych graczy e-commerce w Polsce kara związana z wyciekiem danych klientów w 2018 r. to bez wątpienia precedens, który na nowo każe przyjrzeć się zabezpieczeniom stosowanym w sieci. Urząd Ochrony Danych Osobowych stwierdził, że naruszenie było „znacznej wagi i miało poważny charakter” oraz dotyczyło dużej liczby osób, a „podmiot nie zastosował podwójnego uwierzytelniania dostępu do danych”.
Wspomniane przez UODO uwierzytelnianie dwuskładnikowe (czy ogólnie wieloskładnikowe – MFA) to skuteczne narzędzie zabezpieczające przed kradzieżą tożsamości użytkownika. W razie jego zastosowania napastnik potrzebowałby nie tylko uzyskać dane logowania użytkownika, lecz także fizyczny dostęp do jego urządzenia, żeby przeprowadzić atak.
– Już samo wprowadzenie dwóch elementów uwierzytelniania znacznie podnosi poziom bezpieczeństwa. Przedsiębiorstwa mają do wyboru wiele technik uwierzytelniania, które różnią się stopniem zaawansowania i trudnością wdrożenia: hasła, tokeny lub aplikacje z kodami, uwierzytelnianie biometryczne, np. odcisk palca, układ żył w dłoni, skan siatkówki oka lub kształtu twarzy – mówi Mateusz Pastewski, Cybersecurity Sales Manager w Cisco Poland.
Zarówno integratorzy, jak i sami klienci powinni mieć świadomość potencjalnie dużego ryzyka związanego ze słabościami wynikającymi z zastosowania niewystarczających mechanizmów uwierzytelniania użytkowników sieci. Cyberprzestępcy potrafią bowiem skutecznie wykradać dane logowania, stosując wiele różnych technik, w tym m.in. phishing. Z jednej strony metodą obrony, aczkolwiek wymagającą czasu, jest dokładna wiedza na temat zagrożeń i ich ewolucji, a także taktyk wyłudzania danych stosowanych przez cyberprzestępców. Wiedza ta będzie mieć bezpośrednie przełożenie na zastosowaną politykę bezpieczeństwa. Z drugiej – z pomocą przychodzą zabezpieczenia bazujące na zaawansowanych rozwiązaniach, coraz częściej działające także w chmurze.
Zdaniem integratora
Mateusz Kawalec, Security Engineer, Infradata
W obszarze uprzywilejowanego dostępu obserwujemy znaczący wzrost świadomości administratorów systemów w przedsiębiorstwach udostępniających własną infrastrukturę firmom zewnętrznym. W dużej mierze jest to związane z potrzebą dostosowania się do europejskich norm ochrony danych osobowych i zabezpieczenia przed włamaniem. Wraz ze wzrostem świadomości zwiększa się zapotrzebowanie na audyty i wdrożenia systemów kontroli dostępu do firmowych systemów IT. Coraz częściej przedsiębiorstwa, chcąc zarządzać dostępem uprzywilejowanym, zwracają szczególną uwagę na możliwość integracji narzędzi SAM z rozwiązaniami firm trzecich, które zostały wdrożone na wcześniejszym etapie rozbudowy zabezpieczeń infrastruktury IT.
Artykuł Kontrola dostępu: podwójna fortyfikacja pochodzi z serwisu CRN.
]]>Artykuł Monitoring wizyjny, kontrola dostępu i brak przestojów pochodzi z serwisu CRN.
]]>Kamery IP to dla integratora po prostu kolejna grupa urządzeń końcowych. Dość specyficzna, bo wymagająca nowych kwalifikacji, chociażby z zakresu optyki. Nie będzie jednak problemem zdobycie u dostawców informacji o tym, jak określać obszar pokrycia monitoringiem, dobierać obiektywy i obliczać różne parametry, np. całkowitą przestrzeń dyskową potrzebną do zapisu obrazu zgodnego z polityką przechowywania danych u klienta. Na tym rynku przewagę może dać integracja systemów monitoringu, kontroli dostępu oraz innych rozwiązań w zakresie bezpieczeństwa fizycznego.
Jak w każdym sektorze branży IT, tak i w monitoringu IP trzeba zmierzyć się z błędnym przekonaniem klientów, że najważniejszy jest koszt zakupu. Tymczasem cena systemu dozorowego powinna być sprawą drugorzędną. Zdarza się, że system monitoringu jest instalowany tylko dlatego, że ubezpieczyciel wymaga tego przy zawieraniu umowy. Gdy później zdarzy się incydent, najtańsze kamery nic nie pokażą. A poszkodowani klienci, którzy chcieli maksymalnie zaoszczędzić, nabywając po kilkadziesiąt złotych kamery „no-name”, zwracają się do integratorów z prośbą o pomoc w znalezieniu i wdrożeniu profesjonalnego rozwiązania do monitoringu.
Wybór tanich rozwiązań wynika także z niewiedzy. Często klient postanawia umieścić kamery gdzie tylko się da, sądząc, że w ten sposób zapewni sobie lepszy monitoring. Jeżeli dojdzie do wniosku, że potrzebuje 30 kamer, to – mając określony budżet – będzie musiał kupić urządzenia tańsze.
– Nie wie, że lepszym rozwiązaniem będzie w tym wypadku nabycie 15 kamer dwa razy droższych. Wyda tyle samo, a efekt osiągnie znacznie lepszy – tłumaczy Maciej Cenkier, Surveillance Product Manager w Konsorcjum FEN.
Do błędnych decyzji zakupowych może prowadzić też pogląd wyrażany przez klientów (ale nierzadko i przez instalatorów), że w kamerach najważniejsza jest rozdzielczość. Przekonanie, że im więcej megapikseli, tym lepiej, niekoniecznie sprawdza się w praktyce. Przy większym zagęszczeniu pikseli do kamery wpada mniej światła i lepszy efekt może dać wysokiej jakości kamera o mniejszej rozdzielczości, z odpowiednio dobrym przetwornikiem.
– Kamera 2- lub 3-megapikselowa z większą światłoczułością zapewni lepszy obraz w dzień niż 8-megapikselowa i dłużej podtrzyma podgląd w pogarszających się warunkach oświetleniowych, bez przełączania się w tryb czarno-biały – mówi przedstawiciel Konsorcjum FEN.
System monitoringu wizyjnego potrzebuje pamięci masowej, w której będzie przechowywany obraz rejestrowany przez kamery. Można klientowi zaoferować serwer NAS, do którego producenci dołączają oprogramowanie do monitorowania, najczęściej z kilkoma darmowymi licencjami na kamery (kolejne są płatne). Choć nabycie NAS to dla klienta większy wydatek niż kupno rozwiązania przeznaczonego wyłącznie do monitoringu IP, duże znaczenie ma fakt, że otrzyma funkcjonalną pamięć masową, która będzie spełniać wiele innych zadań w jego firmie.
Klientowi chcącemu stworzyć profesjonalny system monitoringu integrator powinien zaproponować sprzęt przeznaczony do takich zastosowań a nie standardowe monitory ogólnego użytku.
– Ponieważ monitoring polega najczęściej na pracy w trybie 24/7, standardowe monitory będą ulegać częstszym awariom niż urządzenia zaprojektowane do ciągłego działania – mówi Elżbieta Jędryka, Business Development Manager w Alstorze. – Poza tym specjalistyczne monitory są dostosowane do wyświetlania obrazu wysokiej jakości i rozdzielczości, więc lepiej nadają się na przykład do wyświetlania obrazu z wielu kamer jednocześnie.
Wykorzystanie inteligencji w rozwiązaniach monitoringu wizyjnego polega na analizie obrazu i związanych z nim informacji, co może mieć mnóstwo zastosowań. Wśród tych wykorzystywanych w biznesie można wymienić na przykład badanie ruchu i zachowania klientów w sklepach w celu zwiększenia sprzedaży. Z kolei rozpoznawanie twarzy, niebezpiecznych przedmiotów, detekcja dymu i ognia to funkcje wykorzystywane w systemach bezpieczeństwa.
Na rynku są dostępne kamery o rozdzielczości nawet 30 Mpix (7K), rejestrujące bardzo szczegółowy obraz w dużym polu widzenia. Wielkie rozdzielczości wymagają technik skutecznie ograniczających wykorzystanie pasma i pamięci (kompresja H.264).
Wraz ze spadkiem cen sprzętu rośnie oczekiwanie, że będzie on dostarczał obraz złożony z większej liczby klatek na sekundę. W większości kamer do monitoringu IP standardem jest 30 kl./s, ale są też urządzenia rejestrujące obraz z szybkością 120 kl./s. Niektóre stosowane w monitoringu IP aplikacje wymagają dużych szybkości klatkowych, należy do nich m.in. rozpoznawanie tablic rejestracyjnych.
Modele hemisferyczne (180 albo 360 stopni) zaczynają powoli wypierać szybkoobrotowe kamery PTZ, które pokazują fragment całego obrazu, na który są w danym momencie skierowane. Kamera dookólna jest wyposażona w wiele soczewek, z których obraz – dzięki zaawansowanemu oprogramowaniu – jest automatycznie przetwarzany na pełny widok.
Dzięki postępowi w zakresie światłoczułości kamery IP stały się bardzo funkcjonalnymi urządzeniami, z których można korzystać także w nocy. Dzięki wykorzystaniu sensorów IR i termowizji do wykrywania ruchu i obiektów nie jest w ogóle potrzebne światło widzialne. Gdy zastosuje się funkcję dodawania koloru do obrazu w podczerwieni staje się on bardzo podobny do uzyskiwanego w świetle widzialnym.
Zapewniają dokładniejszy, oparty na głębi obraz, lepiej określają rozmiar, kształt i odległość do monitorowanych obiektów. Znajdują zastosowanie przede wszystkim w analityce wideo, sprawdzają się np. w precyzyjnym zliczaniu ludzi lub rozpoznawaniu niebezpiecznych zachowań.
Kontrola dostępu także musi być chroniona
Zaawansowane rozwiązania do ochrony danych nie pomogą, gdy nie zostaną wdrożone odpowiednie zabezpieczenia fizyczne. Inaczej przestępcy łatwiej będzie wejść do serwerowni i wykraść dysk z danymi, niż zaplanować wyrafinowany atak przez Internet. Najczęściej w kontroli wstępu do pomieszczeń i na zakładowy teren stosuje się systemy z kartami, czytnikami i kontrolerami. Ponieważ w sprzedaży jest wiele tego typu rozwiązań, aby osiągnąć oczekiwany poziom bezpieczeństwa, integrator musi wybrać właściwą technikę.
Zdecydowanie nie ma sensu wybór producenta rozwiązania, który dla wszystkich klientów stosuje ten sam klucz cyfrowy. Mniej bezpieczny będzie też system, w którym na wszystkich kartach przechowywany jest ten sam klucz. Czytniki kart powinny być dobrze zabezpieczone przed przejęciem klucza przez intruza. Skuteczniejsze będzie rozwiązanie, w którym klucze są przechowywane nie w zewnętrznym czytniku kart, ale w centralnym kontrolerze, do którego dostęp wymaga specjalnego uwierzytelnienia.
W miejscach, w których powinna być zastosowana zwiększona kontrola dostępu, stosuje się wieloskładnikowe uwierzytelnianie, na które składa się element, który użytkownik posiada (np. karta), element, który zna (PIN lub hasło), oraz taki, który jest charakterystyczny dla jego osoby (biometria). Użycie kombinacji wymienionych metod uwierzytelniania znacznie ogranicza ryzyko, że próbująca uzyskać dostęp osoba nie jest tą, za którą się podaje. W tym przypadku mniejszym problemem staje się zgubiona, skradziona lub sklonowana karta. Najtańsze tego typu rozwiązania, w których drugim po karcie elementem jest hasło lub PIN, wymagają użycia czytników z wbudowaną klawiaturą. Najlepiej, jeśli hasło będzie okresowo zmieniane – im częściej, tym lepiej.
Wygodę w systemach kontroli dostępu, zarówno pracownikom, jak i osobom odpowiedzialnym za administrowanie nimi, powinno dać zastosowanie biometrii. Wielofunkcyjne terminale, zapewniające biometryczną identyfikację osób, a także tradycyjny sposób kontroli dostępu za pomocą kart czy kodów, dają większe pole manewru we wdrożeniach i zwiększają bezpieczeństwo, umożliwiając zastosowanie dwóch wybranych metod łącznie (np. PIN-u i wzorca odcisku palca lub geometrii twarzy). Niestety, ze względu na relatywnie wysoki koszt klienci rzadko wybierają rozwiązania biometryczne, choć są niezwykle skuteczne i zapewniają wysoki poziom bezpieczeństwa.
Z kolei rozwiązania bazujące na rozpoznawaniu twarzy, ponieważ nie oferują jeszcze bardzo dużej dokładności, mogą być wykorzystywane wyłącznie jako drugi czynnik uwierzytelniający. Biometria od lat postrzegana jest jak docelowy system kontroli dostępu. Na razie, ze względu na cenę, złożoność, a także pewne problemy z użyciem systemów nie zyskują takiej popularności, jakiej się spodziewano. Warto także wiedzieć, że dane biometryczne są uznawane za osobowe, więc podlegają wyjątkowej, ujętej w przepisach ochronie.
Coraz częściej przedsiębiorstwa wybierają nowoczesne systemy kontroli dostępu bazujące na protokole IP. Tego rodzaju ochrona może być ściślej zintegrowana z systemem informatycznym firmy niż rozwiązania monitoringu IP. Ten sam system, który powoduje otwarcie zamka po zbliżeniu karty do czytnika, może służyć do logowania się pracownika na komputerze, przyznawać uprawnienia nowo zatrudnionym i odbierać je rozstającym się z firmą. W takim ujęciu integracja ogranicza ryzyko szkód wyrządzanych przez niezadowolonych byłych pracowników, którym zapomniano odebrać prawa dostępu. Fizyczny system kontroli dostępu przestaje więc pełnić wyłącznie rolę „odźwiernego”– bywa także połączony np. z funkcjami HR, takimi jak kontrola czasu pracy, płace itp.
Maciej Cenkier ,Surveillance Product Manager, Konsorcjum FEN
Dla integratorów oferujących systemy monitoringu wizyjnego ważna jest wiedza o ofercie rynkowej, umiejętność montowania kamer we właściwych miejscach oraz pełnego wykorzystania możliwości sprzętu i oprogramowania. Jest kilka sposobów zdobycia tej wiedzy. Niektórym partnerom wystarczy przeszkolenie z działania i doboru rozwiązań. Potem, wyposażeni w gotowe narzędzia i kalkulatory, radzą już sobie sami. Dla wielu, zwłaszcza początkujących, lepszym wyjściem jest skorzystanie z pomocy dystrybutora podczas kilku wdrożeń. Dystrybutor przeszkoli klienta końcowego, a przy okazji partnera, który zdobywa w ten sposób praktyczne doświadczenie.
Bezpieczeństwo fizyczne jako brak przestojów
Zasilanie gwarantowane i klimatyzacja to kolejny obszar bezpieczeństwa fizycznego związany z zachowaniem ciągłości działania systemów informatycznych (a także wielu innych). Nie ma znaczenia skala biznesu. Dla małej firmy komputery, serwery i sieć są tak samo ważne jak centrum danych dla korporacji. Straty wynikłe z uszkodzenia sprzętu są dotkliwe, a przestój oznacza przerwę w sprzedaży albo produkcji i utratę związanych z tym przychodów, a przy tym trudną do oszacowania utratę reputacji.
UPS-y chronią nie tylko przed zanikami zasilania, ale także przed jego złą jakością. Może ona spowodować nie mniejsze szkody niż przerwa w dopływie energii, a przestoje nawet dłuższe (gdy urządzenia ulegną awarii np. wskutek przepięcia).
– Rośnie liczba klientów, którzy wiedzą, że UPS to nie tylko podtrzymanie zasilania, ale również, w przypadku produktów online, bardzo dobre zabezpieczenie wrażliwych odbiorów oraz skuteczny filtr napięcia – zauważa Sławomir Franczak, kierownik ds. rozwoju biznesu UPS w Legrandzie.
Na polskim rynku systemów zasilania awaryjnego panuje bardzo silna konkurencja. Klient ma szeroki wybór marek i dostawców. Według Marka Bigaja, prezesa Evera, wybierając produkty, należy zwracać większą uwagę na wiarygodność dostawcy, jego historię rynkową i oferowany zestaw usług posprzedażowych.
Natomiast z doświadczeń polskiego oddziału firmy Socomec wynika, że klienci są coraz bardziej świadomi faktu, że nowoczesne zasilacze UPS powinny się charakteryzować wysoką niezawodnością (MTBF) oraz sprawnością (najlepiej potwierdzoną certyfikatem niezależnej jednostki badawczej). Dzięki wysokiej sprawności mniejsze są straty cieplne, a tym samym niższe koszty eksploatacji. Ważny jest jak najwyższy współczynnik mocy wyjściowej (bliski 1), co oznacza więcej mocy czynnej dla użytkownika. Klienci cenią sobie także możliwość zarządzania UPS-ami przez sieć i ich kompaktowe rozmiary. Łatwe powinny być: obsługa, rozbudowa i serwisowanie w autoryzowanym serwisie producenta (zapewniającym części zamienne, odpowiednio krótki czas naprawy oraz wydłużenie gwarancji).
– Klienci biznesowi oczekują m.in. wysokiej sprawności zasilaczy UPS, możliwości zarządzania nimi przez sieć, łatwej obsługi i rozbudowy oraz szybko i skutecznie działającego serwisu producenta – podsumowuje Dorota Suszek, regionalny kierownik sprzedaży w Socomecu.
Energooszczędność jest dla użytkowników istotną wartością dodaną do podstawowych funkcji zasilacza UPS. Przekłada się na całkowity koszt urządzenia, które po pewnym okresie eksploatacji okazuje się tańsze od tego z niską ceną zakupu. Warto informować klientów, którzy potrzebują np. wielu małych zasilaczy do sieci handlowej, że kilkadziesiąt złotych rocznie oszczędności na opłatach za energię przypadających na jedno urządzenie daje w sumie dużą kwotę.
W dziedzinie zasilania gwarantowanego można zaobserwować stopniowe rezygnowanie z dużych zasilaczy UPS na korzyść modułowej, skalowalnej konstrukcji, dzięki której klient może wybrać dokładnie taką moc, jakiej potrzebuje na danym etapie inwestycji, i stopniowo zwiększać ją, zgodnie z zapotrzebowaniem biznesowym. W takim modelu łatwiejsze staje się także zapewnienie redundancji, gdyż system działa nawet w przypadku awarii któregoś modułu.
Do zapewnienia ciągłości działania systemu informatycznego potrzeba także odpowiednio chłodzonej infrastruktury. Serwery nie będą bezpieczne, jeśli za odprowadzanie ciepła będzie odpowiadać ogólny system klimatyzacji budynku. Integrator może zabezpieczyć system IT klienta nie tylko dostarczając mu profesjonalny system chłodzenia, ale także pomagając w takim urządzeniu serwerowni, by zwiększyć jej efektywność energetyczną i jak najlepiej wykorzystać możliwości klimatyzacji precyzyjnej.
Marek Bigaj, prezes zarządu, Ever
Duże firmy, a coraz częściej także średnie, wybierając system zasilania gwarantowanego, stawiają przede wszystkim na kompleksowość oferty, w tym solidny serwis, oraz zoptymalizowane koszty utrzymania systemu. Przez kompleksowość rozumieją dostosowanie rozwiązania do specyficznych potrzeb, audyty z pomiarami parametrów sieci i charakterystyką obciążeń, po dostawę, instalację i uruchomienie rozwiązania, szkolenie w zakresie obsługi oraz rzetelną opiekę posprzedażną, m.in. okresowe przeglądy serwisowe sprzętu.
Ważne długotrwałe relacje
Dla większości firm IT jasne jest, że relacje z klientami nigdy nie powinny przebiegać według schematu „sprzedaj i zapomnij”. Muszą bazować na zaufaniu, a zachowa się je, jeśli dostarczane rozwiązania będą najlepiej spełniały potrzeby nabywcy. Szczegółową wiedzę o potrzebach i ich zaspokajaniu ma właśnie reseller oraz integrator, i to na nim – a nie dystrybutorach czy producentach – ciąży odpowiedzialność za właściwy dobór rozwiązań. Jest to szczególnie ważne w przypadku zapewniania bezpieczeństwa i ciągłości działania systemów użytkownika.
Zasilanie gwarantowane opiera się na zaawansowanych urządzeniach, które same mogą ulec awarii, wymagać aktualizacji oprogramowania czy rozwiązania problemów technicznych. Działania integratora powinny obejmować – oprócz technicznego opracowywania i dostosowywania projektów oraz uruchamiania sprzętu u klienta – także wsparcie posprzedażowe. Jest to niezmiernie ważne dla trwałości relacji. Jakość tego wsparcia będzie z kolei w dużym stopniu zależeć od relacji integratora z dostawcą. Warto zatem oferować rozwiązania takich producentów, którzy zapewnią właściwą i szybką pomoc w razie awarii.
Wsparcie w zakresie UPS-ów to tylko jeden z elementów obsługi klienta, polegający na dostarczaniu mu kompletnego systemu IT – serwerów, pamięci, szaf, okablowania itp. Wraz z rozwojem firmy klienta zwiększać się będą jego potrzeby dotyczące zasilania gwarantowanego. To stwarza możliwość rozbudowy i wymiany zasilaczy UPS, m.in. dodawania modułów do istniejącego systemu.
Jeśli rozwój biznesu klienta nie jest intensywny, jako powód do rozmowy o dalszych inwestycjach można wykorzystać fakt, że urządzenia mają określony cykl życia i wymagają modernizacji. Na przykład z czasem baterie w UPS-ach się zużywają, a użytkownicy powinni być systematycznie informowani o konieczności ich wymiany. Integrator może wykorzystać tę okazję do rozmowy o strategicznych decyzjach klienta dotyczących rozwoju firmowego systemu informatycznego.
Adam Pacocha, prezes Falcon 24, członek zarządu Luna & Sokół Security
Wobec konieczności optymalizacji kosztów wykorzystanie wideoanalityki w monitoringu rozwiązuje najbardziej palący problem związany z czasem pracy i kompetencjami agentów ochrony. Kamery IP w połączeniu z analizą wideo zapewniają dużą wydajność detekcji przez 24 godziny na dobę, 365 dni w roku. Przeniesienie zadań i odpowiedzialności z ludzi na urządzenia i postawienie agenta w nowej roli – osoby zarządzającej systemem zabezpieczeń, a nie bezpośrednio czuwającej nad bezpieczeństwem obiektu – to duży krok w kierunku zwiększenia jakości ochrony. Zaawansowane algorytmy zaszyte w systemie analizują scenę w czasie rzeczywistym i w razie incydentu przesyłają do stacji monitorowania alert wraz z załączonym obrazem. Dzięki analizie tysięcy godzin zarejestrowanych obrazów, pochodzących z różnych okresów i miejsc, oraz zwiększonej czułości systemu można w praktyce doprowadzić do zupełnego braku fałszywych alarmów. Oprogramowanie zapewnia też dokładną parametryzację wykrytego obiektu, w tym określenie jego wielkości oraz szybkości przemieszczania się.
Artykuł Monitoring wizyjny, kontrola dostępu i brak przestojów pochodzi z serwisu CRN.
]]>Artykuł Zabezpieczanie systemów cyfrowego monitoringu i kontroli dostępu pochodzi z serwisu CRN.
]]>Współczesna integracja systemów CCTV i KD dotyczy często obiektów rozproszonych i bezobsługowych. Monitoring i kontrola szaf teletechnicznych, stacji transformatorowych, kontenerów sieci szerokopasmowych, w tym węzłów szkieletowych, dystrybucyjnych, dostępowych i stacji bazowych, to już standard w nowo projektowanych obiektach. W rozwiązaniach ochronnych oferowanych przez C&C tego typu zabezpieczenia zapewniane są przy użyciu kamer IP zintegrowanych z lokalnym i centralnym zapisem obrazu na platformie VDG Sense oraz uniwersalnymi sterownikami kontroli dostępu Apollo. Do nadzoru nad całością służy System Zarządzania Bezpieczeństwem iProtect, który można zintegrować z systemami zewnętrznymi, np. siłowniami telekomunikacyjnymi.
Każde zdarzenie w systemie, np. uprawnione otwarcie drzwi lub aktywacja sygnału alarmowego, jest zintegrowane z obrazem z kamery. Operator na żywo widzi obraz przypisany do danego zajścia oraz ma szybki dostęp do nagrań archiwalnych za pomocą raportów zdarzeń. Ma to ogromne znaczenie w przypadku zarządzania wieloma obiektami i zaistnienia potrzeby wyszukania konkretnych zdarzeń, które miały miejsce w przeszłości (np. „pokaż wszystkie otwarcia drzwi w obiekcie X oraz ich nagrania”).
System ochrony w każdym obiekcie może działać autonomicznie. To ważna funkcja, gdy dojdzie do awarii połączenia między obiektem monitorowanym a centrum zarządzania. Obraz nagrywany jest bezpośrednio na nośniku znajdującym się w kamerze, a zdarzenia alarmowe oraz zapisy z systemu kontroli dostępu są buforowane w sterowniku systemu KD. Gdy komunikacja zostanie przywrócona, wszystkie zdarzenia są synchronizowane i zapisane w centralnej bazie danych. Użytkownik końcowy może nawet nie zauważyć, że nastąpiła przerwa w komunikacji między systemem ochrony obiektu a centralnym serwerem.
Systemy monitoringu powinny bazować na sprzęcie, który cechuje się niezawodnością, skalowalnością, redundancją oraz odpowiednimi wymiarami. W systemach niezintegrowanych w małych obiektach bezobsługowych często stosowano osobno centralkę systemu kontroli dostępu, systemu sygnalizacji włamania i napadu (SSWiN) lub moduł monitoringu warunków środowiskowych. Nierzadko montaż tych elementów był utrudniony z powodu braku miejsca w szafie, a rozwiązania te wymagały kilku obudów natynkowych. Sposobem na uporanie się z tego typu problemami jest sięgnięcie po inteligentny sterownik Apollo. Ma on wysokość 1U i został zaprojektowany do montażu w szafie 19-calowej. Apollo obsługuje czytniki kontroli dostępu, mierniki warunków środowiskowych oraz zawiera analogowe i cyfrowe wejścia przeznaczone do obsługi m.in. czujników SSWiN, pożarowych czy zalania. Dzięki wyjściom dużej mocy można sterować m.in. sygnalizatorem optyczno-akustycznym.
Całość rozwiązania może być zarządzana z wykorzystaniem uniwersalnego protokołu SNMP, co oznacza możliwość współpracy z różnymi systemami monitoringu urządzeń sieciowych. Sterownik może być zasilany napięciem zmiennym 230 V AC lub stałym 48 V DC z siłowni telekomunikacyjnej. Centralne zarządzanie, konfiguracja i nadawanie uprawnień nie wymaga wizyt serwisowych w obiektach rozproszonych. Urządzenie jest przystosowane do działania w chmurze oraz współpracy ze sprzętem mobilnym.
Więcej informacji: www.ccpartners.pl
Artykuł Zabezpieczanie systemów cyfrowego monitoringu i kontroli dostępu pochodzi z serwisu CRN.
]]>