Artykuł Jak hasło staje się przeżytkiem pochodzi z serwisu CRN.
]]>W nie tak znowu odległych latach, gdy hasła były uważane za skuteczną ochronę, często podchodzono do nich w sposób – delikatnie mówiąc – niefrasobliwy. Nazwą użytkownika był zazwyczaj adres mailowy, hasło było krótkie, łatwe do zapamiętania i związane z czymś, co znamy (np. imieniem psa). Te czasy to już na szczęście przeszłość, bo nawet w tych firmach, które wciąż polegają wyłącznie na hasłach, widać jednak pewną zmianę w zachowaniu użytkowników i administratorów.
– W przedsiębiorstwach, w których istnieje jako taka świadomość w obszarze cyberbezpieczeństwa, ale też bardzo mocne ograniczenia budżetowe, stosuje się zarządzanie polityką haseł. Nadaje im się wymagania co do długości, rodzaju użytych znaków oraz wymusza cykliczne zmiany hasła, uwzględniając wcześniejszą historię zmian. Takie rozwiązanie co prawda nie jest najlepsze, ale dobrze, że w ogóle jest stosowane – mówi Jakub Jagielak, lider technologiczny w obszarze cyberbezpieczeństwa w Atende.
Na przestrzeni ostatnich lat zaszło wiele zmian w sposobach realizacji dostępu do wszelkiego rodzaju zasobów. Nowa normalność to dziś praca hybrydowa albo nawet całkowicie zdalna. W budowaniu cyberbezpieczeństwa stosowane od dawna podejście „zamku i fosy” (wokół firmowej sieci) przestaje być efektywne z perspektywy nie tylko ochrony, ale również wygody użytkownika. Za trendami muszą podążać sposoby i narzędzia uwierzytelniania. Dziś hasło to za mało, nawet naprawdę skomplikowane. Proces uwierzytelniania bazujący tylko na nim lub czymkolwiek innym, co człowiek zna, to proszenie się o kłopoty.
Kilka składników zamiast hasła
W nowej rzeczywistości rośnie zainteresowanie rozwiązaniami MFA (Multi-Factor Authentication), czyli uwierzytelnienia wieloskładnikowego, najczęściej realizowanego w formie dwuskładnikowej (2FA). Przy odpowiedniej implementacji daje ono wyraźny wzrost bezpieczeństwa i ogranicza kradzieże tożsamości. Jeśli hasło wyciekło, to – dajmy na to – bez urządzenia mobilnego, które służy jako drugi wektor uwierzytelnienia, napastnikowi na niewiele się przyda.
– To, że fizycznie nie siedzimy już przy swoich służbowych biurkach, nie zmienia faktu, że potrzebujemy stałego i bezpiecznego dostępu do naszych narzędzi – mówi Michał Porada, Business Development Manager Cisco Security w Ingram Micro.– Z tego samego powodu firmy coraz chętniej migrują do chmury: dla prostego dostępu do zasobów czy współużytkowania dokumentów. Jak wtedy upewnić administratora systemu, że dostęp uzyskuje uprawniona osoba? W takim przypadku 2FA to podstawa.
Najbliższa przyszłość należy więc do dwuskładnikowego, czy nawet kilkuskładnikowego uwierzytelniania, w którym oprócz tradycyjnej metody (login plus hasło) stosuje się dodatkowe składniki potwierdzające, że osoba, która się właśnie loguje jest tą, za którą się podaje: token sprzętowy lub programowy, kod SMS albo wiadomość push.
– Jako dodatek do hasła, silną metodą podwójnego uwierzytelnienia jest klucz sprzętowy, z tego powodu, że generowanie drugiego składnika odbywa się poza systemem komputera. Token nie ma połączenia z internetem, więc hakerzy nie są w stanie go przejąć. Popularnym i dobrym rozwiązaniem są też aplikacje na smartfonie, ale tutaj nie można już wykluczyć kompromitacji urządzenia – mówi Jakub Jagielak.
Wymieniając inne sposoby weryfikacji tożsamości niż hasła, Michał Sanecki, architekt rozwiązań IT w NetFormers, zwraca uwagę na dane biometryczne. W tym sposobie uwierzytelniania wykorzystywane są unikalne cechy biologiczne osoby, aby zweryfikować jej tożsamość. System może analizować odciski palców, głos, siatkówkę, rysy twarzy itp. Dane biometryczne są bezpieczne, ponieważ są prawie niemożliwe do podrobienia lub powielenia. Metoda ta jest również przyjazna dla użytkownika – skany są szybkie, a sam sposób uwierzytelnienia całkiem wygodny. Nie trzeba pamiętać kodu ani nosić przy sobie urządzenia zewnętrznego. Jednak, aby ograniczyć ryzyko włamania, lepiej rozszerzyć podejście do zabezpieczeń.
– Hasło pozostaje ważnym czynnikiem, pod warunkiem, że nie jest używane samodzielnie. To samo dotyczy biometrii, która również ma swoje wady i w pewnych sytuacjach może okazać się zawodna. Dlatego wdrażamy rozwiązania, które łączą dwa lub więcej mechanizmów bezpieczeństwa dostępu do zasobów IT, w tym aplikacji i urządzeń. Zapewniają one bezpieczny dostęp do zasobów sieciowych, wykorzystujący właśnie wielopoziomową autentykację. Wspieranych w nich jest wiele metod uwierzytelniania, chociażby za pomocą aplikacji mobilnej, tokena, wiadomości SMS, czy czujników biometrycznych – mówi Michał Sanecki.
Artykuł Jak hasło staje się przeżytkiem pochodzi z serwisu CRN.
]]>Artykuł Wallix ułatwia zapewnienie zgodności z Dyrektywą NIS pochodzi z serwisu CRN.
]]>Przez długie lata technologie IT i OT były w przemyśle ściśle rozdzielone. Jednak wskutek konwergencji IT/OT systemy przemysłowe z ich specyficznymi protokołami komunikacyjnymi nie są już odizolowane – poprzez wprowadzenie technologii cyfrowych przemysł staje się coraz bardziej połączony z „resztą świata”. W efekcie jest również coraz bardziej narażony na cyberzagrożenia. W rzeczywistości staje się jednym z najczęściej atakowanych sektorów gospodarki. Dlatego, aby uniknąć konsekwencji potencjalnie katastrofalnego ataku, absolutną koniecznością w ochronie dostępu do danych, systemów i urządzeń przemysłowych mających wpływ na właściwe działanie kluczowej infrastruktury, jest zagwarantowanie jej cyberbezpieczeństwa.
Nic dziwnego, że rosnąca liczba ataków i zagrożeń dla systemów informatycznych prywatnych firm i organizacji publicznych określanych jako Operatorzy Usług Kluczowych skłoniła Unię Europejską do wydania dla nich rekomendacji dotyczących standardów bezpieczeństwa – w formie Dyrektywy NIS. Wśród nich znajdują się: kontrola kont administratorów, uwierzytelnianie czy zarządzanie prawami dostępu.
Rozwiązania Wallix zabezpieczają nie tylko tożsamość IT i dostęp, ale także chronią architekturę systemów automatyki przemysłowej i sterowania (IACS), oferując scentralizowaną kontrolę połączeń z wewnątrz i zewnątrz oraz udostępniając skuteczne narzędzia śledzenia oraz audytu w ramach utrzymania i administracji. Oprogramowanie WALLIX przeznaczone dla stacji końcowych pozwala na tzw. utwardzenie systemu operacyjnego i pełną kontrolę przywilejów dla aplikacji, procesów czy użytkowników. Ma to szczególe zastosowanie w przypadku systemów operacyjnych z rodziny Microsoft Windows, dla których przestano publikować poprawki. W efekcie rozwiązania Wallix umożliwiają Operatorom Usług Kluczowych zapewnianie zgodności i ochrony krytycznej infrastruktury.
Dowiedz się, w jaki sposób pakiet rozwiązań zabezpieczających Wallix współgra z rekomendacjami NIS i jak Wallix może pomóc w zapewnieniu zgodności z dyrektywą!
Informacji udziela:
Artykuł Wallix ułatwia zapewnienie zgodności z Dyrektywą NIS pochodzi z serwisu CRN.
]]>Artykuł Bezpieczny dostęp: MFA staje się standardem pochodzi z serwisu CRN.
]]>– Nie było czegoś takiego jak w ubiegłych latach, że jeśli projekty były przesuwane w czasie, to tylko na 1-2 kwartały – podkreśla Paweł Rybczyk, Senior Territory Sales Manager CEE&CIS w Wallix.
Teraz powinno być już lepiej
Są jednak optymistyczne przesłanki, by twierdzić, że czas sprzedaży oprogramowania do zabezpieczania dostępu dopiero się zaczyna. Wcześniej budżety musiały zostać przeznaczone na sprzęt, więc zeszłoroczne inwestycje na IT dotyczyły zakupów laptopów, serwerów, rozwiązań do wideokonferencji itp. W tym roku są już pierwsze oznaki innego podejścia. Klienci, dysponując niezbędną infrastrukturą sprzętową i połączeniami VPN, chcą teraz lepiej nadzorować to, co się dzieje w ich środowisku IT.
Na decyzje o zakupie lepszej ochrony bez wątpienia wpływać będzie nagłaśnianie poważnych incydentów bezpieczeństwa w Polsce, takich jak ataki na Małopolski Urząd Marszałkowski czy CD Projekt. Coraz częściej dochodzi do nich w naszym kraju, a pytani przez CRN Polska integratorzy twierdzą, że powoływanie się na te i podobne przykłady bardzo pomaga w rozmowach.
– Ponieważ teraz stały się zdalnymi nawet te zewnętrzne usługi, które wcześniej były realizowane na miejscu w firmie, to klienci chcą mieć lepszy wgląd w zasady takiego dostępu – twierdzi Paweł Rybczyk. – I niekoniecznie kontrolowani muszą być użytkownicy z uprawnieniami superadmina. Firmy chcą wiedzieć, kto i kiedy się łączy, a dodatkowo rejestrować, co robi. Za tym idzie integracja rozwiązań IAM/PAM z uwierzytelnianiem dwuskładnikowym.
Większe zainteresowanie zarządzaniem dostępem przejawia też przemysł, bowiem w zakładach produkcyjnych część czynności, w tym związanych z utrzymaniem czy serwisem urządzeń, zaczęła być wykonywana zdalnie. Wobec konieczności rygorystycznej kontroli dostępu wymagane są profesjonalne zabezpieczenia.
Hasła prędko nie odejdą
Przeszło dwa lata temu Gartner przewidywał, że do 2022 r. 60 proc. korporacji i globalnie działających przedsiębiorstw oraz 90 proc. średnich przedsiębiorstw wdroży metody bezhasłowe w ponad 50 proc. zastosowań, co miało być ogromnym wzrostem w porównaniu z 5 proc. w 2018 r. Na początku 2021 można mieć jednak wątpliwości, czy już za rok hasła znajdą się w odwrocie. Rzeczywiście, postęp techniczny w biometrii i rozwój standardów takich jak FIDO2 sprawiają, że trend „passwordless” przybiera na sile. Powstają ciekawe rozwiązania bazujące na biometrii behawioralnej, która jest połączeniem biometrii i analizy behawioralnej UBA (User Behavior Analytics), czyli uczenia maszynowego – rejestrującego standardowe zachowania użytkownika i alarmującego, gdy odbiegają one od normy. Przykładem może być rozwijana przez polski startup usługa Digital Fingerprints.
Pytani przez CRN Polska dostawcy i integratorzy nie zauważają jednak, by klienci gremialnie rezygnowali z haseł. Zwracają przy tym uwagę, że samo hasło nie powinno być jednak podstawą udzielenia dostępu do systemów newralgicznych. Reguły polityki związane z hasłami zmieniają się, ale pewne przyzwyczajenia użytkowników zostają. Gdy korzysta się z prostych haseł, trzeba być świadomym, że jest wiele metod, które mogą być wykorzystane przez napastników do ich złamania. Kolejnym zagrożeniem jest wykorzystywanie tych samych haseł przez użytkowników w wielu serwisach.
Dlatego bardzo wzrosło zainteresowanie rozwiązaniami MFA (uwierzytelniania wieloskładnikowego, najczęściej 2FA) w najróżniejszej formie. Jednakże z jakichkolwiek systemów klienci by nie korzystali, jeżeli nie będą za tym stały odpowiednie reguły polityki bezpieczeństwa, ich egzekwowanie i monitoring, na nic całe przedsięwzięcie.
– Warto pamiętać o zasadzie „least privilege”, czyli nieudzielania użytkownikom większego dostępu niż potrzebują do wykonania danego zadania – mówi Michał Porada, Business Development Manager Cisco Security w Ingram Micro. – Im mniej dostępu, szczególnie do zasobów newralgicznych, tym administratorzy lepiej śpią. Uprawnienia powinny być okresowo sprawdzane, ponieważ w firmach role pracowników często mogą się zmieniać, zaś treść dokumentu polityki bezpieczeństwa należy weryfikować. Uwierzytelnianie się za pomocą 2FA powinno być stosowane wszędzie, gdzie to możliwe.
Według Pawła Zwierzyńskiego, inżyniera sieciowego w Vernity, istotne jest, by użytkownicy posiadali uprawnienia do systemów zgodnie z funkcją biznesową jaką sprawują w firmie. Bardzo często są one jednak zbyt duże – zarówno w warstwie sieciowej, jak i systemowej.
– Nawet jeśli na początku zasady dostępu odpowiadają pełnionym funkcjom biznesowym, to po pewnym czasie ich spójność nie zostaje zachowana, czy to przez błędy administratorów, czy przez umyślne dawanie większych uprawnień dla „świętego spokoju”. Dlatego tak ważne jest ich cykliczne rewidowanie – mówi przedstawiciel poznańskiego integratora.
Michał Porada sugeruje, by zadawać klientowi wiele pytań o rzeczy, które mają bezpośredni wpływ na bezpieczeństwo w jego firmie. Przykładowo: co się stanie po podłączeniu małego routera Wi-Fi do gniazdka LAN w ścianie obok drukarki? Czy zapewniony jest wgląd w aktywność pracowników? Z jakich aplikacji oni korzystają i w jakim stanie są stacje końcowe? Czy pracownik nie próbuje logować się do konkretnych systemów wewnętrznych z wykorzystaniem nieautoryzowanego urządzenia?
Czym jest Zero Trust?
Skrajnym ograniczeniem i pełną kontrolą dostępu, a ostatnio bardzo nośnym marketingowo hasłem, jest koncepcja Zero Trust, powstała już wiele lat temu. U jej podstaw leży konieczność weryfikowania wszelkich prób połączenia z systemem przed udzieleniem dostępu do niego. Zasadą jest brak zaufania do wszystkich i wszystkiego, nawet jeśli to coś podłączone jest już do sieci lokalnej.
– Model ten nie jest możliwy do wdrożenia za pomocą jednego „magicznego pudełka”, bo tak naprawdę pociąga za sobą wiele elementów funkcjonujących w infrastrukturze oraz dotyczy całkowitej zmiany podejścia w dostępie do danych i zasobów, a także reguł polityki z tym związanych – mówi Michał Porada. – W rezultacie mocno dotyka użytkowników końcowych i chociaż dużo się mówi o Zero Trust, to pełne wdrożenie nie jest w tym przypadku procesem ani szybkim i tanim, ani bezbolesnym.
Choć na rynku zaczęły się pojawiać kompletne oferty promowane pod szyldem Zero Trust, to jednak wielu specjalistów uważa, że nie są to tak naprawdę produkty gotowe do wdrożenia i użycia. Szyte na miarę podejście Zero Trust wymaga zwykle użycia różnych produktów, co powinno wynikać ze specyfiki konkretnego klienta. Wdrożenie trzeba poprzedzić weryfikacją wszystkich zasobów w infrastrukturze klienta oraz każdego dostępu i dopiero na tej podstawie wprowadzać ograniczenia. Problem polega na tym, że potrzebnej do tego wiedzy w przedsiębiorstwach brakuje. O ile strategiczne podejście wykazują jeszcze duże firmy, o tyle mniejsze nie mają wystarczającego know-how.
Dopiero, gdy posiada się konsekwentnie realizowaną strategię bezpieczeństwa, można wdrażać różne produkty, które pomogą w realizacji modelu Zero Trust. Dlatego integrator oferujący taki produkt powinien klientowi pomóc w stworzeniu strategii, która będzie wystarczająca nie na miesiąc lub dwa, ale znacznie dłużej. Swoją drogą, dzięki temu, niejako przy okazji, relacja z klientem także staje się długoterminowa.
– W tym kontekście Zero Trust jest czymś pozytywnym. Klienci chcą o tym podejściu rozmawiać, a dla partnerów to szansa zrobienia z bezpieczeństwa projektu, a nie sprzedaży tego czy innego produktu – mówi Paweł Rybczyk.
W kontrze do Zero Trust wydają się działać niektórzy dostawcy rozwiązań bazujących na sztucznej inteligencji. Twierdzą, że zamiast zamykać wszystko, lepiej jest wdrożyć coś, co nauczy się prawidłowych zachowań w danym środowisku, wyszukując anomalie i reagując na nie. Ten rynek jest jednak wciąż w fazie rozwoju.
Zdaniem integratora
Z początkiem pandemii wyzwania, jakie pojawiły się u naszych klientów, dotyczyły głównie problemów wydajnościowych. Ich infrastruktury nie były gotowe na tak duży wzrost liczby użytkowników pracujących zdalnie. Później na pierwszy plan wyszły kwestie związane z bezpieczeństwem. Większość klientów korzysta tylko z haseł, co stanowi duże zagrożenie. Często dane uwierzytelniające do VPN to również poświadczenia korporacyjne, na przykład do Office 365, więc atakujący, przechwytując je, uzyskuje dostęp do infrastruktury – mieliśmy taki przypadek. Przy dostępie tylko na podstawie haseł i bez polityki w tym obszarze w każdej firmie znajdzie się użytkownik z hasłem typu „Zima2021!”. Klienci są coraz bardziej świadomi, że hasła to za mało i zaczynają postrzegać wieloskładnikowe uwierzytelnianie jako konieczne. Kolejne zagrożenie dotyczy tego, że domowe biura stały się w sumie zdalnymi oddziałami firm, a w domu działają urządzenia IoT. Łatwo się do nich włamać i przez nie uzyskać dostęp do infrastruktury firmowej.
Przyspieszenie na rynku usług bezpieczeństwa
Warto odnotować, że wśród klientów biznesowych zaczyna rosnąć zainteresowanie modelem subskrypcyjnym. Użytkownicy tacy mniej chętnie inwestują w wieczyste licencje, których cena zakupu jest odpowiednio większa, choć potem nie trzeba już nic płacić. Dzieje się tak, gdy przedsiębiorcy nie są pewni, jak rozwinie się sytuacja w gospodarce. Przy czym są klienci, którzy nie tylko decydują się na abonament, ale nierzadko chcą, by wybrane rozwiązanie ochronne było zarządzane przez dostawcę usługi.
– Nie chodzi tu o oferty SOC, których przybyło w ostatnich latach, ale ogólnie o usługę bezpiecznego dostępu do infrastruktury, która może bazować na różnych rozwiązaniach ochronnych – dodaje Paweł Rybczyk. – Może to być VPN oraz IAM/PAM z usługą zarządzania dostępem dla klienta, który nie dysponuje odpowiednim zespołem technicznym, by mógł tym zajmować się sam, albo nie ma czasu na kolejne szkolenie swojego przeciążonego personelu IT.
Wcześniej model MSSP z dużymi oporami przebijał się w Polsce do świadomości klientów, dostawców i ich partnerów. Wydaje się, że pandemia i krótkoterminowe planowanie wyraźnie zwiększyły trend świadczenia usług na zasadzie abonamentu, którymi zainteresowany jest nie tylko sektor prywatny, ale także publiczny. Dzięki temu integratorzy coraz częściej będą musieli nie tylko dostarczyć klientowi same produkty, jak przełącznik, router, firewall czy inne zabezpieczenia, ale „opakować” je kompleksową usługą, związaną z zarządzaniem czy integracją z innymi systemami. Co ważne, taki pakiet będzie wynikać z opracowanej wspólnie przez obie strony strategii bezpieczeństwa.
Jak chmura zmieni rynek zabezpieczeń?
Są sygnały z rynku, że klienci przenoszący się do chmury rezygnują z wdrożonych wcześniej we własnej infrastrukturze zabezpieczeń, w tym rozwiązań zarządzania dostępem. Gdy chodzi o chmurę i jej bezpieczeństwo, osobom odpowiedzialnym za IT w firmach zdarza się wpadać z jednej skrajności w drugą. Najpierw cloud był środowiskiem, któremu w ogóle nie należy ufać. Obecnie z kolei można spotkać się z opiniami, że po migracji do chmury już nie trzeba martwić się o narzędzia ochrony, bo wszystko zapewnia jej operator.
Takim klientom warto przypomnieć, kto odpowiada za bezpieczeństwo chmury i w jakim stopniu. Wszyscy dostawcy chmury publicznej proponują model odpowiedzialności współdzielonej z użytkownikiem. W przypadku często wybieranej przez przedsiębiorstwa usługi IaaS operator jest odpowiedzialny za całą infrastrukturę obsługującą – za usługi podstawowe, oprogramowanie do wirtualizacji i sprzęt, łatanie luk i naprawianie błędów w tym obszarze, a także zasilanie i redundancję centrum danych. Rzeczywiście, operator wnosi odporność na zagrożenia, ale tylko niektóre, na przykład ataki typu DDoS.
Dla użytkownika współdzielona odpowiedzialność w usłudze IaaS oznacza, że odpowiada on za to, co wnosi, czyli za systemy i aplikacje. Zarządzanie nimi, ich aktualizowanie i łatanie jest po jego stronie. Co ważne (choć może się to wydać mniej oczywiste), również do niego należy konfiguracja sieci i jej zabezpieczeń. Musi więc zadbać o wdrożenie także narzędzi do kontroli dostępu i uwierzytelniania, najlepiej zintegrowanych w jeden system ochrony dla wykorzystywanego najczęściej środowiska hybrydowego.
– Wykorzystanie chmury wiele zmienia, bo zapewnia wygodną obecnie decentralizację zasobów i możliwość korzystania z usług SaaS – mówi Michał Porada. – Trzeba jednak pamiętać, że dostęp do instancji chmurowych i przechowywanych tam danych również musi zostać odpowiednio zabezpieczony. Przechwycenie loginu i hasła bądź typowe błędy, na przykład przy ustaleniu dostępu do danych, mogą być początkiem dramatu.
Dostawcy wciąż dostosowują swoje oferty – proponują produkty, które są w stanie zabezpieczać dostęp zarówno w chmurze (w tym również w modelu multi-cloud), jak i on-premise. Dla klientów, którzy posiadają jakąś własną infrastrukturę i jednocześnie obawiają się uzależnienia od jednego usługodawcy, może to być lepszy wybór w porównaniu z natywnymi dla chmury narzędziami, które są oferowane przez jej operatorów.
Zdaniem producenta
W Polsce jako MSSP zaczynają działać operatorzy centrów danych, którzy chcą uzupełnić swoją ofertę infrastruktury o warstwę bezpieczeństwa i aplikacji. Ale nie tylko oni, bo w usługi wchodzą także niektórzy nasi integratorzy, którzy z różnych produktów ze swojego portfolio tworzą całościową ofertę as-a-Service pod wspólnym szyldem, na przykład bezpiecznego dostępu. Takie rozwiązanie nie jest wtedy hostowane po stronie partnera, jak w przypadku operatora centrum danych, tylko wdrażane u klienta, który płaci za nie abonament obejmujący, oprócz licencji, także zarządzanie. De facto w takim modelu dla producenta czy dystrybutora to integrator staje się klientem końcowym.
Firmy stanęły wobec wielkiego wyzwania, by z jednej strony zadbać o własne bezpieczeństwo, a z drugiej o komfort pracownika działającego w trybie zdalnym. Gdy wiele z nich ma już za sobą przygotowanie infrastruktury, odpowiednich licencji i reguł polityki, rośnie wśród nich chęć zapewnienia bezpieczniejszego i bardziej kontrolowanego dostępu. W tym tkwi przyczyna zainteresowania takimi rozwiązaniami jak 2FA oraz wykorzystaniem zaawansowanych możliwości narzędzi typu NAC do tworzenia granularnych zasad dostępu, zależnych nie tylko od poświadczeń, ale również wielu innych elementów, jak urządzenie, zainstalowane oprogramowanie, aktualizacje itp.
Od wybuchu pandemii na świecie gwałtownie wzrosła liczba niemal wszystkich rodzajów cyberataków, co związane jest przede wszystkim z masowym przechodzeniem firm na pracę zdalną i skupieniem się przestępców na użytkowniku końcowym, który w warunkach pracy w domu stał się jeszcze słabszym niż dotychczas ogniwem systemu. W efekcie łatwiejsze stało się wykradanie haseł, chociażby przy użyciu phishingu. Gdy każdy tydzień przynosi przykłady udanych ataków, w tym na firmy w Polsce, świadomi zagrożeń klienci będę szukać narzędzi, które w modelu Zero Trust pomogą im w zintegrowaniu dostępu do chmury, aplikacji i sieci, umożliwiając korzystanie z hybrydowego IT.
Artykuł Bezpieczny dostęp: MFA staje się standardem pochodzi z serwisu CRN.
]]>Artykuł PAM ułatwi uprzywilejowany zdalny dostęp do zasobów pochodzi z serwisu CRN.
]]>Ulubiony przez hakerów sposób na niezauważone przeniknięcie do firmowej infrastruktury IT odbywa się dzięki kradzieży danych uwierzytelniających, zwłaszcza z konta uprzywilejowanego. Aby temu zapobiec, przedsiębiorcy (czy instytucje) powinni stosować rozwiązania typu Identity and Access Management (IAM), które zapewniają dodatkową warstwę ochrony poprzez dodanie uwierzytelniania wieloskładnikowego w przypadku, gdy – dajmy na to – hasło do VPN-a jest zagrożone. Niemniej należy zwrócić uwagę na fakt, że systemy IAM identyfikują tylko poszczególnych użytkowników i nie umożliwiają szczegółowego administrowania uprawnieniami przypisanymi do poszczególnych zasobów w sieci. Do tego celu należy skorzystać z rozwiązań PAM.
Sam VPN nie wystarczy
Narzędzie WALLIX Bastion gwarantuje bezpieczny zdalny dostęp dla uprzywilejowanych użytkowników. Dodatkowo moduł Access Manager stanowi bardzo dobrą alternatywę lub dodatek do tradycyjnych narzędzi VPN, przy czym jest od nich prostszy i tańszy w konfiguracji oraz zapewnia możliwość bardziej szczegółowego nadzoru nad działaniami osób uprzywilejowanych. Rejestruje też te działania w celach audytowych. W przypadku incydentu dostarcza dane do szczegółowego prześledzenia kto, co i kiedy zrobił, aby możliwe było podjęcie jak najszybszego działania. Ważne jest jednak to, że z firmowej sieci nie należy usuwać mechanizmu VPN, jeśli jest już wdrożony. Funkcja Access Manager jest zalecana jako dodatek do VPN-a, zaś jej stosowanie jest wręcz koniecznością, jeśli w firmie nie korzysta się z tego rozwiązania.
WALLIX Bastion wyposażono także w menedżera haseł, który pozwala uniknąć ryzyka dzielenia się danymi do logowania pomiędzy pracownikami zdalnymi (w badaniach do tego typu praktyk przyznaje się ok. 50 proc. ankietowanych). Menedżer haseł generuje je w sposób automatyczny, z uwzględnieniem ustalonego stopnia złożoności i gwarantuje też ich zmianę w określonych odstępach czasu.
Dostęp z ograniczonym zaufaniem
Rozwiązanie typu PAM można połączyć z narzędziami EPM (Endpoint Privilege Management) do ochrony urządzeń końcowych pracowników zdalnych. Bazują one na koncepcji modelu bezpieczeństwa „zero trust” przez co zakładają, że potencjalnie każdy system może być infiltrowany. Wdrażają wewnętrzne zabezpieczenia, aby zapewnić, że system nie może zostać uszkodzony przez infiltrację spoza sieci korporacyjnej.
Taką zasadę najmniejszego uprzywilejowania zastosowano w rozwiązaniu WALLIX BestSafe. Dzięki temu każdy użytkownik, aplikacja i proces mają dostęp tylko do tych informacji i zasobów, które są niezbędne do wykonania konkretnej operacji. Ograniczenie to nie ma jednak żadnego wpływu na biznesową działalność pracowników. Mogą oni normalnie wykonywać swoje obowiązki, uruchamiać wymagające uprawnień aplikacje korporacyjne, a nawet instalować oprogramowanie z firmowej witryny, pod warunkiem, że nie jest ono zablokowane dla danego użytkownika przez dział IT. Nowość stanowi jedynie to, że do wszystkich tych operacji nie muszą mieć uprawnień administratora.
Dodatkowe informacje: Paweł Rybczyk, Territory Manager CEE/CIS, WALLIX, prybczyk@wallix.com
Artykuł PAM ułatwi uprzywilejowany zdalny dostęp do zasobów pochodzi z serwisu CRN.
]]>Artykuł WALLIX BestSafe, czyli ochrona na poziomie procesów i aplikacji pochodzi z serwisu CRN.
]]>I tym sposobem dochodzimy do narzędzi EPM (Endpoint Privilege Management), a więc nowej generacji zabezpieczeń, których zadaniem jest stworzenie „bariery immunologicznej” dla punktów końcowych. Zamiast w mało skuteczny sposób próbować identyfikować atak i następnie go blokować, EPM zatrzymuje wszystko, co nie jest dla „organizmu” naturalne. W efekcie w chronionych systemach mogą mieć miejsce tylko legalne procesy.
To nowe podejście ma szczególne znaczenie w przypadku urządzeń końcowych, przy użyciu których pracownicy zdalni (albo zewnętrzni wykonawcy) uzyskują dostęp do zasobów firmy. Zakłada ono wprawdzie, że każdy system może zostać zaatakowany, ale dzięki właściwym wewnętrznym zabezpieczeniom można ataku uniknąć. A jeśli nawet miałoby do niego dojść, to tylko poza firmową siecią. To jest możliwe, ponieważ ochrona punktów końcowych w EPM opiera się na zasadzienajmniejszego uprzywilejowania (Principle Of Least Privilege). Co oznacza, że bez praw administratora intruz albo złośliwe oprogramowanie nie będą w stanie uzyskać uprawnień niezbędnych do uruchamiania procesów i aplikacji.
Zasada wprowadza porządek, przyznając właściwe prawa odpowiednim użytkownikom i we właściwym kontekście. Eliminuje nadmierne uprzywilejowanie użytkowników na urządzeniach końcowych, by złośliwe oprogramowanie nie było w stanie uszkodzić systemu albo wykradać krytycznych danych. Umożliwia także usunięcie wszystkich lokalnych kont administratora w celu wzmocnienia ochrony. A dzięki blokowaniu kryptograficznych API, systemy stają się odporne na ransomware, cryptojacking i inne rodzaje złośliwego kodu.
Egzekwowanie zasady najmniejszego uprzywilejowania użytkowników to krok we właściwym kierunku, ale wciąż niewystarczający. Chodzi o to, by systemy były w stanie same chronić się przed zagrożeniami. Dlatego najskuteczniejsze rozwiązania EPM skupiają się na uprawnieniach nie na poziomie użytkowników, ale procesów i aplikacji. Wdrażana w ten sposób ochrona daje dużo większy zakres kontroli i bezpieczeństwa.
Szczegółowa ochrona na poziomie procesów z jednej strony zapewnia użytkownikowi dostęp do wszystkich narzędzi niezbędnych do wydajnego i niezakłóconego wykonywania jego zadań, z drugiej zaś dba o to, by udostępnione mu oprogramowanie nie było w stanie zaszkodzić systemowi, gdy napastnik zdoła przełamać jego zabezpieczenia.
Principle of Least Privilege w praktyce
Właśnie tak działa rozwiązanie WALLIX BestSafe, które – wdrażając zasadę najmniejszego uprzywilejowania – zwiększa bezpieczeństwo punktów końcowych. Skutecznie zapobiega między innymi atakom wykorzystującym malware, uruchamianym i rozprzestrzeniającym się na urządzeniach przy użyciu kont administratora. BestSafeuzupełnia zatem o ochronę EPM pozostałe narzędzia bezpieczeństwa oferowane przez francuskiego producenta.
Łącząc rozwiązania Bastion i BestSafe, oferta PAM-PEDM (Privileged Access Management and Privilege Elevation and Delegation Management) daje firmom dążącym do centralizacji zarządzania zasobami cyfrowymi możliwość stosowania zasady najmniejszego uprzywilejowania w kontroli nad dostępem i kontami uprzywilejowanymi. To szczególnie ważne w kontekście zgodności z regulacjami, takimi jak RODO czy NIS.
Dodatkowe informacje: Paweł Rybczyk, Territory Manager CEE & CIS, WALLIX, prybczyk@wallix.com
Artykuł WALLIX BestSafe, czyli ochrona na poziomie procesów i aplikacji pochodzi z serwisu CRN.
]]>Artykuł Nowa era uwierzytelniania: bez haseł i zaufania pochodzi z serwisu CRN.
]]>Jednak prawda jest taka, że również przed epidemią cybeprzestępcy bez nadmiernego trudu zdobywali zbyt słabo chronione dane uwierzytelniające. Rok temu firma Positive Technologies przeprowadziła test, w którym zleciła wynajętym hakerom przejęcie kontroli nad infrastrukturą teleinformatyczną określonych przedsiębiorstw. Pentesterzy wykonali swoje zadanie w 100 proc. Zazwyczaj potrzebowali około trzech dni na pokonanie zabezpieczeń, a w jednym przypadku wystarczyło zaledwie 10 minut. Zleceniodawcy testu informują, że aż w 61 proc. firm znaleźli łatwy sposób na przejęcie uprawnień administratora.
Positive Technologies zwraca przy tym uwagę na inny poważny problem, jakim jest wykrycie aktywności hakera w sieci. Niemal połowa czynności przeprowadzonych przez pentesterów nie została zauważona, bowiem wykonywane przez nich operacje wtapiały się w zadania realizowane przez użytkowników bądź administratorów (przeciętny atak, mający na celu zdobycie przywilejów admina, składał się z sześciu etapów). Działania te polegały między innymi na tworzeniu nowych uprzywilejowanych użytkowników na hostach sieciowych, eksportowaniu gałęzi rejestru i wysyłaniu żądań do kontrolera domeny.
Pożegnanie z hasłami
Dostawcy systemów bezpieczeństwa poszukują różnych rozwiązań, których celem jest ograniczenie do minimum ryzyka kradzieży danych uwierzytelniających. W tym kontekście eksperci Cisco przedstawili cztery trendy, które pozwalają spojrzeć na kwestie bezpieczeństwa w realiach nowej normalności. Jeden z nich zakłada… rezygnację ze stosowania haseł. Zdaniem przedstawicieli koncernu z San Jose tradycyjne hasła nie mają przyszłości, a zastąpią je zabezpieczenia biometryczne, udzielające dostępu do urządzenia czy aplikacji na podstawie zapisu linii papilarnych, ewentualnie obrazu twarzy czy tęczówki. Zwolennicy tego modelu duże nadzieje pokładają w standardzie FIDO2, który umożliwia uwierzytelnianie bez hasła przy użyciu wewnętrznych lub powiązanych systemów uwierzytelniania, w tym biometrii, albo urządzeń zewnętrznych (kluczy zabezpieczających, smartfonów, smart-watchy). Nie ulega wątpliwości, że jest to krok w odpowiednim kierunku, bowiem tradycyjne hasła często zawodzą, za co należy winić głównie ich użytkowników.
Ciekawe dane na ten temat przynosi analiza sporządzona przez studentów Wydziału Inżynierii Komputerowej Uniwersytetu Cypryjskiego. Młodzi badacze wzięli pod lupę ponad miliard kombinacji loginów oraz haseł, które wyciekły w wyniku różnego rodzaju naruszeń. W puli znalazło się niemal 169 milionów haseł oraz 393 miliony loginów, co oznacza, że bardzo lubią się one powtarzać. Oczywiście najpopularniejszym hasłem pozostaje nieśmiertelne „123456”, które pojawiło się 7 milionów razy. I choć powinno to dać nam wszystkim do myślenia, to siła przyzwyczajenia jest na tyle duża, że przedsiębiorcy jeszcze na długo pozostaną przy tradycyjnych sposobach uwierzytelniania. Tego zdania jest spory odsetek ekspertów ds. bezpieczeństwa.
– Popularność zabezpieczania za pomocą haseł cieszy się dużą popularnością i jak na razie nie zapowiada się, aby cokolwiek w tym zakresie miało ulec zmianie. Wprawdzie biometria jest świetną alternatywą dla tradycyjnych metod, ale od dłuższego czasu nie może ich zastąpić. Na pewno krokiem naprzód jest upowszechnienie biometrii w smartfonach. Proces ten postępuje, ale nawet FIDO2, pomimo swoich niewątpliwych zalet, będzie uzupełniać hasła, a nie je wypierać – tłumaczy Tomasz Fidera, IT Security Analyst w Netology.
Zero zaufania
Koncepcja Zero Trust, którą Cisco wymienia wśród czterech najważniejszych trendów w nowym świecie cyberbezpieczeństwa, jest niemal tak samo odważna jak rezygnacja z tradycyjnych haseł. W ostatnich miesiącach to jeden z najgorętszych tematów w branży nowych technologii. Polityka Zero Trust zakłada, że żaden użytkownik nie może uzyskać dostępu do firmowych zasobów, dopóki nie zostanie potwierdzona jego tożsamość. To bardzo ambitny cel, który wymaga od działów IT autoryzacji każdej próby dostępu. Poza tym samo przejście od tradycyjnej architektury bezpieczeństwa IT, budowanej w pewnym stopniu w oparciu o zaufanie do urządzeń i osób, w kierunku modelu, w którym nie ufamy nikomu, wymaga nie tylko nowych narzędzi, ale również innego sposobu myślenia.
Wiele projektów zabezpieczeń sieci bazuje na filozofii „zamku i fosy”. Wszystko, co znajduje się poza obwodem uważa się za wrogie, a rola firewalli, UTM-ów czy dostępu VPN polega na wzmocnieniu brzegu sieci. Natomiast wewnętrzne urządzenia podłączone do sieci oraz ich użytkownicy obdarzeni są na ogół zaufaniem. Jednak wraz z rosnącą liczbą udanych cyberataków, wiele osób w branży przekonało się, że przychodzi czas na zmianę paradygmatu bezpieczeństwa. Dodatkowym czynnikiem, który zachęca do zmiany strategii jest rosnące wykorzystanie chmury publicznej. Kiedy coraz więcej aplikacji, danych oraz usług zaczęło migrować do AWS-a czy Microsoft Azure, administratorzy bezpieczeństwa zorientowali się, że przepływy sieciowe nie przechodzą już tylko przez sieć korporacyjną, więc narzędzia zabezpieczające brzeg sieci stają się mniej skuteczne.
Wokół nowych trendów narasta wiele mitów. Marketerzy promujący politykę Zero Trust zapewniają, że sprawdzi się ona w każdym środowisku, niezależnie od stosowanego sprzętu oraz aplikacji. Jednak wdrożenie tego modelu jest łatwe tylko w tych przedsiębiorstwach, które dysponują nowoczesnymi rozwiązaniami sieciowymi. Ponadto wprowadzeniu Zero Trust nie sprzyjają popularne protokoły, takie jak P2P oraz Mesh. Drugi mit głosi, że koncepcja ta w żaden sposób nie dezorganizuje pracy firmy czy instytucji. A jednak, jeśli zrobi się to w nieudolny sposób, może ona przynieść de facto więcej kłopotów niż korzyści.
Pod znakiem 2FA
Niektóre przedsiębiorstwa rozpoczynają swoją drogę do Zero Trust od wdrażania uwierzytelniania dwuskładnikowego (2FA). W myśl tej koncepcji użytkownik, aby uzyskać dostęp do zasobów musi w pierwszej kolejności wprowadzić login i hasło, a następnie w celu potwierdzenia poświadczeń użyć tokena. Czasami administratorzy stosują dodatkowe zabezpieczenia, chociażby czas wymagany na autoryzację lub zezwolenie na logowanie z określonych lokalizacji. W teorii istnieje możliwość zwiększania liczby składników uwierzytelniania, aczkolwiek wiąże się to z dodatkowymi kosztami, co może zniechęcić użytkowników do stosowania tego rozwiązania.
– Wiele wskazuje na to, że firmy pozostaną przy 2FA, żeby niepotrzebnie nie komplikować procesów kontroli dostępu. Wyjątkiem mogą być służby specjalne czy wojsko oraz inne instytucje wymagające wyższego poziomu zabezpieczeń. Natomiast przyszłość należy do aplikacji mobilnych, które będą wypierać inne metody uwierzytelniania wieloskładnikowego – prognozuje IT Security Analyst w Netology.
I owszem, apki znajdują coraz szersze zastosowanie w uwierzytelnianiu dwuskładnikowym, niemniej warto odnotować, że w ostatnim czasie pojawiły się dodatkowe metody poświadczeń – push, kody QR czy biometria. Wydaje się również, że wśród małych i średnich przedsiębiorstw z coraz większą akceptacją zacznie spotykać się uwierzytelnianie wieloskładnikowe (MFA). Proces ten zresztą już się rozpoczął.
– Bariera obecności MFA w sektorze MŚP została przełamana. Ten dodatkowy składnik uwierzytelnienia jest funkcją systemu ochrony firewall (NGFW). W tym przypadku administrator rejestruje token sprzętowy lub mobilny w urządzeniu, przypisuje go użytkownikowi i proces można uznać za zakończony. Tam, gdzie wymagane są dodatkowe poświadczenia użytkownik zostanie o nie zapytany i wykorzysta jedną z dostępnych metod. MFA stało się proste, zarówno z punktu widzenia administracyjnego, jak i użytkowego – podkreśla Sebastian Mazurczyk, Senior System Engineer w Veracompie.
Technologia blockchain wypełnia brakujący element ewolucji internetu. Tym składnikiem jest relacja zaufania pomiędzy stronami, a to czyni tę technologię novum w obszarze bezpieczeństwa. Samo uwierzytelnienie relacji, stanowiące podstawowy cel zastosowania blockchaina, nie ogranicza się wyłącznie do tego obszaru. Na horyzoncie pojawia się uwierzytelnianie danych, choć w tym obszarze umocniły się już alternatywne i dobrze znane technologie. Tak czy inaczej można powiedzieć, że w architekturze sieci pojawiają się nowe komponenty, które w sposób niezaprzeczalny pozwalają na zbudowanie relacji zaufania pomiędzy stronami, w rezultacie wiarygodności wymienianych danych.
Klucze do królestwa
Liczne naruszenia danych, które stały się problemem nie tylko dla mniejszych firm, ale również globalnych koncernów, a także rozwój pracy grupowej, skutkujący współdzieleniem systemów i aplikacji, wymuszają na działach IT zmianę sposobu myślenia o bezpieczeństwie, a tym samym stosowania nowych narzędzi. Wydaje się niemal pewne, że beneficjentami nowego ładu powinni być dostawcy systemów zarządzania tożsamością IAM (Identity and Access Management) oraz PAM (Privileged Access Management). Pierwsze służą do zarządzania dostępem użytkowników do zasobów informatycznych, takich jak aplikacje, bazy danych, zasoby pamięci masowej i sieci. Zadaniem PAM jest zarządzanie kontami uprzywilejowanymi należącymi do administratorów IT, informatyków oraz serwisantów. Oprogramowanie tego typu wspomaga monitorowanie i zarządzanie kontami o specjalnych uprawnieniach Umożliwia też nadzór nad sesjami uprzywilejowanymi. Coraz częściej wykorzystywaną opcją jest PAM just-in-time, która pozwala nadawać uprawnienia tylko wtedy, gdy zaistnieje taka potrzeba, na dodatek w ściśle ograniczonym przedziale czasu. Znamienne, że w ubiegłym roku Gartner zamieścił oprogramowanie PAM na liście dziesięciu najważniejszych projektów w zakresie cyberbezpieczeństwa. Mamy więc do czynienia z kamieniem milowym w historii tego rodzaju rozwiązań.
– Jeśli nie korzystasz z narzędzi do zarządzania uprzywilejowanym dostępem, nadszedł czas, aby to zrobić. Złoczyńcy ścigają uprzywilejowanych użytkowników, bo oni mają dostęp do wrażliwych danych – mówi David Mahdi, Senior Research Director w Gartnerze.
W Polsce systemy PAM są bardzo często stosowane w dużych instytucjach. W mniejszych firmach spotyka się je bardzo rzadko. Wynika to ze struktury administracyjnej mniejszych podmiotów i złożonej implementacji rozwiązań PrivilegedAccess Management. Ponadto do obsługi takich systemów trzeba oddelegować wykwalifikowanego pracownika. Nie zmienia to faktu, że rodzime firmy zaczynają coraz poważniej myśleć o kwestiach związanych z zarządzeniem tożsamością oraz kontrolą dostępu. Specjaliści sygnalizują pozytywne zmiany w postawach wśród użytkowników oraz integratorów. Ci ostatni myślą bardziej kompleksowo i zamiast przedstawiać klientowi pojedyncze rozwiązanie wskazanego producenta, zaczęli koncentrować się na prezentacji planu podniesienia bezpieczeństwa w określonych obszarach. I ten sposób wydaje się, na ten moment, najbardziej skuteczny i godny polecenia.
Zdaniem specjalisty
Polityki dostępu nie dotyczą już tylko samych użytkowników. Precyzyjna kontrola musi obejmować również urządzenia i aplikacje, ponieważ te odgrywają równie ważną rolę w przetwarzaniu danych. Proces implementacji tego typu mechanizmów składa się z kilku etapów. Trzeba określić i zdefiniować zasoby, które będą podlegały kontroli, czyli użytkowników, aplikacje i urządzenia, a następnie zastosować narzędzia, które będą integrowały się z istniejącymi systemami i umożliwiały określenie mniej lub bardziej szczegółowych polityk. Na przestrzeni ostatnich lat tego typu mechanizmy stały się jednym z podstawowych punktów zainteresowania większych firm i organizacji, które coraz bardziej koncentrują się na zabezpieczeniu zasobów o strategicznym i biznesowym znaczeniu dla przedsiębiorstwa. W mniejszych firmach proces ten postępuje znacznie wolniej.
Mobilne aplikacje mogą zastąpić sprzętowe tokeny przede wszystkim ze względu na dużą wygodę. Token to kolejny przedmiot, który użytkownik musi mieć przy sobie i o nim pamiętać. Dlatego szybko rozwija się uwierzytelnianie wykorzystujące czynniki biometryczne. Nowoczesne smartfony już posiadają funkcje rozpoznawania twarzy czy linii papilarnych użytkownika. Dlatego wydaje się, że przyszłość należy do tokenów programowych i biometrii. Osobną kwestią jest wykorzystanie tego typu rozwiązań w biznesie. O ile duże firmy już ich używają, o tyle małe i średnie pozostają pod tym względem w tyle. Niemniej również w ich przypadku obserwujemy trend wzrostowy. Może go przyspieszyć MFA oferowane w modelu as a service. Administrator skupia się na określeniu dostępów dla użytkowników i metod uwierzytelniania, platformę zaś utrzymuje usługodawca.
Artykuł Nowa era uwierzytelniania: bez haseł i zaufania pochodzi z serwisu CRN.
]]>Artykuł Cyberbezpieczeństwo: jak zapewnić klientowi spokój? pochodzi z serwisu CRN.
]]>Jakub Jagielak, dyrektor ds. rozwoju cyberbezpieczeństwa, Atende
Mariusz Kochański, dyrektor Działu Systemów Sieciowych i członek zarządu, Veracomp
Maciej Kotowicz, Channel Account Executive, Sophos
Łukasz Nowatkowski, CTO i CMO, G DATA Software
Mateusz Pastewski, Cybersecurity Sales Manager, Cisco Systems
Paweł Rybczyk, Territory Manager CEE & CIS, Wallix
Na początek wypowiedzi uczestników w filmowej relacji ze spotkania
CRN Jak w ostatnich kilku latach zmieniał się segment cyberbezpieczeństwa? Jak w związku ze wzrostem zagrożeń ewoluuje podejście do ochrony systemów IT?
Mariusz Kochański Kiedyś retoryka, którą uprawialiśmy wobec klientów, była taka: jeśli kupisz to rozwiązanie i tamto, to ci się nie włamią. Wszyscy dostawcy byli w tym spójni. Od dobrych kilku lat możemy obserwować zmianę przekazu. Dziś wobec wielkiej skali zagrożeń brzmi on: każdy zostanie zaatakowany i te firmy i instytucje, które będą na to przygotowane, wcześniej zorientują się, że dzieje się coś złego. A rozpoznanie ataku jest obecnie znacznie trudniejsze niż kiedyś, bo pojawiły się zupełnie nowe rodzaje zagrożeń, polegające chociażby na wycieku danych czy przejmowaniu mocy obliczeniowej. W rezultacie żaden producent nie daje dziś gwarancji „kup moje rozwiązanie i na 100 proc. będziesz zabezpieczony”. A takie przypadki, jak niedawno ujawniony wyciek danych z British Airways i rekordowa, sięgająca niemal 200 mln funtów kara dla tych linii lotniczych, pokazują, że nawet przedsiębiorstwa z wielkim budżetem na ochronę IT nie mogą dziś czuć się bezpiecznie. Z drugiej strony wzrasta u nas świadomość zagrożeń, na co mają wpływ odgórne inicjatywy – nowa ustawa o krajowym systemie cyberbezpieczeństwa i lista firm o infrastrukturze krytycznej. Kiedyś ochrona była domeną tylko informatyków, a teraz także urzędnicy zaczynają się zastanawiać, co by się stało, gdyby ich miasto padło ofiarą jakiegoś ataku.
Maciej Kotowicz Akcenty w rozmowach z klientami przesuwają się z zabezpieczania przed czymś na minimalizowanie skutków. Inaczej mówiąc, użytkownik jest coraz bardziej świadomy, że może być zaatakowany, i chce wiedzieć, co się w związku z tym może stać. Kilkanaście lat wcześniej nasze próby edukowania klientów i tłumaczenia, że kupowane rozwiązanie nie zapewni im w pełni bezpieczeństwa, bo zawsze może coś się stać, i że jest jeszcze potrzebna polityka bezpieczeństwa, nie zawsze spotykały się ze zrozumieniem. Dziś mam wrażenie, że klientów uświadamiać już nie trzeba. Raczej dyskutować z nimi, czy ich polityka jest dobrze skonstruowana, co jeszcze trzeba w niej zmienić i o co ją rozszerzyć, wykraczając także poza obszar IT.
Paweł Rybczyk Dziś, przystępując do rozmów z klientami, w wielu wypadkach można nawet przyjąć założenie, że oni już są zaatakowani, i zapytać ich, czy zdają sobie z tego sprawę. To duża zmiana. Poza tym kiedyś jako zabezpieczenie kupowało się pojedyncze produkty, a dziś takie podejście niczego nie rozwiązuje. Skuteczne będą dopiero narzędzia złożone w pewien ekosystem, który dostarczy i stworzy integrator ze swoją wartością dodaną. Nowością jest automatyzacja w poszukiwaniu zagrożeń, bez której trudno byłoby sobie poradzić z tak wielkim jak obecnie wolumenem danych.
Z mojej perspektywy sytuacja stała się lepsza dzięki RODO, ponieważ część prezesów zapragnęła mieć pewnego rodzaju bilans otwarcia w kontekście bezpieczeństwa IT. To spowodowało, że wzrosła liczba audytów, firmy zaczęły sprawdzać, w którym miejscu się znajdują.
Paweł Rybczyk, Territory Manager CEE & CIS, Wallix
A więc już nie tylko prewencja, lecz także umiejętność reagowania na atak, który prędzej czy później musi nastąpić. Radzenie sobie z nim w taki sposób, by szkód nie było albo były minimalne. W jaki sposób się to robi?
Jakub Jagielak Klienci, z którymi rozmawiamy i próbujemy wspólnie ustalać strategię bezpieczeństwa, zwykle dochodzą do wniosku, że trzeba ją podzielić na trzy obszary: prewencji, detekcji i odpowiedzi na to, co ewentualnie się wydarzy w rezultacie ataku. Zauważam, że prewencji nie poświęca się już tak dużo uwagi jak pozostałym dwóm. Wynika to z tego, że dziś trudno nawet ustalić, kiedy, kto, jak i po co może przeprowadzić atak. Są przecież i tacy, którzy robią to tylko dla sportu, szkoląc się w przełamywaniu zabezpieczeń. Za to detekcja, a zwłaszcza odpowiedź na atak pochłaniają obecnie najwięcej czasu. W przypadku detekcji producenci oferują naprawdę dobre rozwiązania, które skutecznie podnoszą poziom bezpieczeństwa. Najwięcej do zrobienia jest w obszarze odpowiedzi na atak i tutaj dużą rolę odgrywają automatyzacja procesów i odpowiednie kadry.
Mateusz Pastewski Przy czym klienci dochodzą do wniosku, że dodawanie kolejnych warstw i rozwiązań wcale nie musi w znaczący sposób zwiększać bezpieczeństwo. W pewnym momencie zawsze pojawia się kwestia zarządzania ryzykiem i tego, czy rzeczywiście dysponuje się odpowiednimi kadrami i procesami zdolnymi obsłużyć takie skomplikowane środowisko. Niektórzy polscy klienci, z którymi rozmawiamy, mają u siebie rozwiązania nawet 20–25 różnych producentów rozwiązań zabezpieczających. Nasuwa się więc pytanie, jak w efektywny sposób zarządzać chociażby alarmami generowanymi przez te systemy. To właśnie w tym obszarze można ostatnio zaobserwować największą zmianę w świadomości polskich klientów. Żeby nie patrzeć na rozwiązania i problemy silosowo, w oderwaniu od siebie, tylko przez procesy, polityki i narzędzia, próbować radzić sobie z realnym wyzwaniem, jakim jest cyberbezpieczeństwo.
Mam jednak wrażenie, że o heterogeniczności środowiska inaczej będzie mówić dostawca, który wychodzi do rynku z bogatą ofertą bezpieczeństwa, a inaczej producent specjalizowanego, punktowego rozwiązania…
Paweł Rybczyk Nie chodzi o to, że jedna marka musi zastąpić wiele innych. Moim zdaniem jednoczesne wykorzystywanie wielu rozwiązań różnych producentów nie jest takim problemem jak braki w obszarze strategii bezpieczeństwa. Polscy klienci nie tworzą wieloletnich strategii, w których ramach byłyby dobierane nie tyle produkty, ile narzędzia pozwalające im zwiększać ochronę.
Mateusz Pastewski Zgadza się. Security jest tak wielką branżą, że nie ma jednego dostawcy, który może pójść do klienta i powiedzieć, że może rozwiązać wszelkie jego problemy z bezpieczeństwem. Zresztą nikt by nie chciał, żeby taki producent funkcjonował. Jesteśmy skazani na to, żeby się integrować w ramach jednego ekosystemu.
Wykorzystując model MSSP, integrator może mówić do klienta, który nie ma zasobów i ludzi: nie musisz kupować na własność najlepszych produktów, bo to ja rozwiążę twój problem związany z bezpieczeństwem. Do wynajmowanego produktu partner może dodawać swoją usługę.
Mateusz Pastewski, Cybersecurity Sales Manager, Cisco Systems
Mariusz Kochański Nie ma jednoznacznej odpowiedzi na pytanie, czy iść w kierunku systemu bardziej homogenicznego i unikać wielu vendorów, czy przeciwnie, kierować się zasadą „best of breed” i dobierać najlepsze w swojej klasie rozwiązania, nie oglądając się na to, że pochodzą od różnych producentów. W tym pierwszym przypadku zyskuje się bardziej zunifikowane interfejsy, można się łatwiej wyszkolić, ale trzeba się liczyć z ryzykiem, że producent nie dopracował wszystkich swoich rozwiązań, bo zarabia na wielu. W tym drugim przypadku można się spodziewać, że producenci tylko jednego rozwiązania dbają o to, by było jak najlepsze, bo tylko z niego mają pieniądze, ale dokładanie kolejnych marek do systemu skutkuje trudniejszą integracją i wieloma certyfikacjami, które trzeba zrobić, a potem jeszcze odnawiać. Ale jeśli nie ma jednoznacznej odpowiedzi, to trzeba po prostu iść do klienta, poznać jego potrzeby i przedstawić mu różne scenariusze.
Jakub Jagielak Integrator ma za zadanie dostarczyć klientowi kompleksowe rozwiązanie ochronne. Problem w tym, że na rynku znajduje się ogromna liczba produktów – szacuje się, że Polsce jest ich oferowanych grubo ponad tysiąc. Ta sytuacja ma swoje odbicie w infrastrukturze funkcjonującej u klientów. Średnio każdy z nich ma wdrożonych około 25 rozwiązań od różnych dostawców. Po pierwsze, trudno zarządzać takim skomplikowanym środowiskiem. Po drugie, jest ono bardziej podatne na awarie, a po trzecie, jeśli rozwiązania są od różnych producentów, to bardzo rzadko się wzajemnie komunikują. Dlatego rolą integratora jest zaprojektowanie systemu tak, by ograniczyć liczbę dostawców i sprawić, by wdrożone rozwiązania wymieniały z sobą informacje w celu zwiększenia poziomu bezpieczeństwa. Umiejętne skonstruowanie takiego systemu polega na tym, żeby ochrona w poszczególnych obszarach – punktach końcowych, serwerach czy sieci – była z sobą skorelowana i dawała spójny obraz zagrożeń i ich skuteczną detekcję. Dołożenie kolejnego rozwiązania nie musi skutkować podniesieniem poziomu bezpieczeństwa. Stąd bardzo istotna jest umiejętność dobrania odpowiednich narzędzi do konkretnego przypadku.
Wyrażone na początku opinie potwierdzają wzrost świadomości klientów. Mam jednak wrażenie, że chodzi o duże przedsiębiorstwa, a z tymi mniejszymi wcale nie jest tak dobrze. I wcale nie chodzi mi o te najmniejsze, w których ochrona zaczyna się i kończy na darmowym antywirusie…
Łukasz Nowatkowski Absolutnie się z tym zgadzam. Firmy używające do 100 komputerów często zupełnie nie zdają sobie sprawy, co się dzieje w ich sieciach. Nie mają świadomości zagrożeń i wprowadzonych polityk bezpieczeństwa. A jeśli ustawa RODO narzuca karę nawet 4 proc. od rocznych obrotów za wyciek danych osobowych, to czy nie znajdzie się haker, który takie dane ze źle chronionego przedsiębiorstwa wykradnie i zaproponuje, że nikt się o tym nie dowie za ułamek ustawowej kary? W przypadku małych firm ataki ransomware to dzisiaj katastrofa. Nie mają backupu, a jeśli już, to na tym samym serwerze co podstawowe dane. Tyle mówi się teraz o ukierunkowanych atakach, ale dotyczą one tylko dużych firm. A tak naprawdę atakowane jest wszystko, bo cyberprzestępcy nie są wybredni. Małe przedsiębiorstwa padają ofiarą ataku, bo – dajmy na to – prezes chce mieć otwarty port RDP do swojego serwera. Dlatego tacy klienci wciąż muszą być edukowani i powinny docierać do nich firmy, które zaoferują im usługi zarządzane w modelu MSSP (Managed Security Service Provider). Nie ma obecnie lepszego, a w zasadzie żadnego innego rozwiązania dla nich. Małej firmy nie stać na zatrudnienie własnego specjalisty od bezpieczeństwa. A taki jest potrzebny, bo jeden informatyk od wszystkiego nie wystarczy.
O skutkach cyberataków trudno usłyszeć – nikt się tym nie chce chwalić. Bo dla firmy to strzał w kolano, a dla jej CSO – ujma na honorze. Mimo że weszła ustawa, która ma zmusić wszystkich do ujawnienia, że był wyciek. Dlatego trzeba więcej mówić o skutkach ataków.
Łukasz Nowatkowski, CTO i CMO, G DATA Software
Mariusz Kochański W sektorze małych przedsiębiorstw nie ma już dzisiaj dylematów, czy pracownikom trzeba kupić komputery, czy telefony komórkowe. Jeśli zaś chodzi o bezpieczeństwo, to nie doczekaliśmy się jeszcze tego, by właściciel niewielkiej firmy traktował koszt z nim związany na równi z kosztem benzyny czy wynajmu lokalu. Zanim tak się stanie, ktokolwiek zwróci się do niego – czy to będzie jego informatyk, czy firma zewnętrzna – usłyszy pytanie: po co mi to i dlaczego tak drogo? Rozmowa będzie trudna, bo on nie zdaje sobie sprawy, ile może stracić, jeśli firma nie będzie zabezpieczona. I to niekoniecznie musi oznaczać, że zadziała marketing polegający na straszeniu klienta. Właściciel małej firmy ponosi tylko te koszty, co do których jest przekonany. Trzeba się sporo natrudzić, by za takie uznał te związane z bezpieczeństwem. Co może się wydać zabawne, pomyśli o ochronie firmy dopiero wtedy, gdy ransomware zainfekuje telefon jego dziecka i przepadną rodzinne zdjęcia z wakacji.
Jakub Jagielak Właśnie tak to działa. Ludzie nie boją się tego, że utracą dane firmowe, tylko prywatne, i jest to potwierdzone badaniami.
Paweł Rybczyk Nie ma wiele sensu tłumaczenie małej firmie, która ma jednego informatyka albo nie ma go wcale, złożonych problemów związanych z bezpieczeństwem. Może do niej dotrzeć tylko MSSP czy inny zaufany partner, który zajmie się sprawami IT. Dlatego w tym wypadku dostawca musi docierać nie do klienta końcowego, tylko przekonywać o wartości swojego rozwiązania integratora obsługującego lokalny rynek małych przedsiębiorstw.
Maciej Kotowicz Obszar oddziaływania dostawców na klienta końcowego w zasadzie jest ograniczony do dużych firm i instytucji. Gdy schodzi się w dół, do MŚP, to żaden producent nie jest dobrze przygotowany do tego, żeby dostarczyć partnerom najlepszy komunikat dla tych klientów. Nie wyjaśni z wszystkimi szczegółami, jak trzeba sprzedawać. Tę wiedzę nabywają sami resellerzy, świadomi nie tyle możliwości konkretnych produktów, ile w ogóle rozwiązań najbardziej odpowiednich dla danego przypadku.
W sektorze zabezpieczeń resellerowi najłatwiej zmonetyzować inwestycje poniesione na rozwijanie kompetencji. W tym obszarze jest bardzo duża grupa klientów wymagających indywidualnego podejścia. Nie jest tak, że bierzemy produkt z półki i go sprzedajemy.
Maciej Kotowicz, Channel Account Executive, Sophos
Pojawiła się w dyskusji kwestia kosztów bezpieczeństwa. W idealnym świecie mogłoby one być też postrzegane jako korzyść biznesowa, element przewagi firmy klienta na konkurencyjnym rynku. Czy w realnym nie ma na to szans?
Mariusz Kochański Podstawowym zadaniem każdego zarządu jest alokacja zasobów, a one ze swej natury są skończone. Właściciel kupi tylko to, co jest niezbędne. Jeśli zwiększy koszty, to konkurencja zaoferuje lepszą cenę za alternatywny produkt. Dlatego w rozmowie z klientem trzeba znaleźć to, czego on się naprawdę boi. Dam przykład: podczas spotkania pewien reseller zapytał właściciela hurtowni, co jest dla niego najcenniejsze. Okazało się, że lista klientów. Bezpieczeństwo go nie interesowało, bo miał zaufanych długoletnich pracowników. Nie zdawał sobie sprawy, że lista klientów może wyciec do konkurencji bez ich udziału. Gdy mu to uświadomiono, zdał sobie sprawę, że potrzebuje zabezpieczeń. I to była dla niego korzyść biznesowa. Ogólnie wartość biznesowa bezpieczeństwa jest ściśle związana z reputacją. Dlatego trzeba prowadzić dialog z osobami decyzyjnymi wokół tego, ile jest warta dobra opinia o ich firmie i jak zagrożenia informatyczne mogą ją zniszczyć. Celem dla naszej branży jest pokazanie na poziomie biznesowym, dlaczego wydatki na cyberbezpieczeństwo są kosztem niezbędnym.
Jakub Jagielak Z punktu widzenia firmy bezpieczeństwo zawsze będzie kosztem, to nie jest ani nigdy nie będzie inwestycja. Z mojego punktu widzenia, czyli integratora zwracającego się do klienta końcowego, rozwiązania ochronne udaje się sprzedać w dwóch przypadkach. Po pierwsze wtedy, kiedy regulator powie, że trzeba je kupić, i wtedy wszyscy na wyścigi rzucają się np. po SIEM albo inny produkt. Po drugie wtedy, gdy pojawia się realny problem, jak wyciek danych, i została naruszona integralność systemu. W tych dwóch sytuacjach klientowi rozwiązuje się worek z pieniędzmi i idzie na zakupy. Jeśli nie ma zagrożenia, a my nie jesteśmy w stanie mu go pokazać, możemy zapomnieć o sprzedaży.
Łukasz Nowatkowski Jeśli mówimy o korzyściach biznesowych, to nie dotyczą one tylko relacji z klientem końcowym, lecz także między producentami a partnerami. Partner też będzie wybierać oprogramowanie i sprzęt, który przyniesie mu największy zysk. Dzisiaj wszyscy patrzą na cenę i partner nie będzie wyjątkiem.
No właśnie, jaką rolę w oferowaniu bezpieczeństwa gra cena?
Mariusz Kochański Jeśli cena miałaby być najważniejszym kryterium, to nie sprzedawano by samochodów klasy BMW czy Volvo. Zresztą Volvo to tutaj dobry przykład, bo właśnie jego bezpieczeństwo ma usprawiedliwiać wyższą cenę tego samochodu. My jako branża, jeśli chcemy sprzedawać drożej, musimy pokazywać, co klient dostanie, jeśli zapłaci więcej.
Od dobrych kilku lat obserwujemy zmianę przekazu. Dziś wobec wielkiej skali zagrożeń brzmi on: każdy zostanie zaatakowany i te firmy i instytucje, które będą na to przygotowane, wcześniej zorientują się, że dzieje się coś złego.
Mariusz Kochański, dyrektor Działu Systemów Sieciowych i członek zarządu, Veracomp
Mateusz Pastewski Wątek motoryzacyjny to bardzo dobra ilustracja tego, jak bardzo powinniśmy zmienić sposób, w jaki producenci i integratorzy rozmawiają z naszymi klientami o cyberbezpieczeństwie. Zdecydowana większość ludzi jeżdżących nowymi bmw czy mercedesami tak naprawdę nie ma pieniędzy, żeby pójść do salonu i kupić taki samochód. Wszyscy oni korzystają z nich w ramach modeli usługowych, płacąc jakąś sumę co miesiąc. Są wtedy w stanie pozwolić sobie na produkt klasy premium i taka jest także przyszłość naszej branży. Wykorzystując model MSSP, integrator może mówić do klienta, który nie ma zasobów i ludzi: nie musisz kupować na własność najlepszych produktów, bo to ja rozwiążę twój problem związany z bezpieczeństwem. Do wynajmowanego produktu partner może dodawać swoją usługę. Nie widzę innej opcji, żeby zmienić podejście do cyberbezpieczeństwa w Polsce jak ta, by OPEX zastąpił CAPEX. Modeli działających na tej zasadzie może być wiele – polegających na zaimplementowaniu u klienta rozwiązań rozliczanych w abonamencie, a także bazujących na chmurze, do których partner będzie dokładać swoje usługi zarządzane.
Maciej Kotowicz Obserwuję zainteresowanie klientów modelem subskrypcyjnym. Dlatego naszą rolą jako dostawców jest wyedukowanie naszych partnerów pod kątem takiego rodzaju biznesu. Niejednokrotnie dla partnera, który przez całe lata działał na zasadzie „sprzedaj i zapomnij”, przejście na nowy model nie będzie łatwe. Musi zmienić podejście do klienta – teraz będzie mieć z nim ciągły kontakt, a nie tylko w czasie realizacji projektu. Będzie wysyłać mu raporty – raz w tygodniu czy miesiącu. Ta zmiana to dla firmy IT spore wyzwanie, ale też korzyści z możliwości elastycznego dopasowywania swojej usługi do tego, co klient potrzebuje.
Paweł Rybczyk Korzystamy z modelu subskrypcyjnego także jako narzędzia handlowego. Choć nasze rozwiązanie wpisuje się w schemat on-premise, to żeby skrócić proces testów i porównywania do wielu konkurencyjnych produktów, proponujemy wraz z partnerami kupno najmniejszej paczki subskrypcji, włącznie z wdrożeniem. Znając wartość swojego rozwiązania, liczymy na to, że po półrocznym albo rocznym okresie subskrypcyjnym nastąpi migracja do pełnego rozwiązania on-premise. I to działa.
Łukasz Nowatkowski Również chcemy, by wybór naszego oprogramowania w roli systemu zabezpieczającego odbywał się w modelu Managed Services. Nasi partnerzy są zainteresowani dostępem do zaawansowanych funkcji chmurowych. Jest to tym bardziej korzystne dla nich, że są rozliczani według liczby wykorzystywanych licencji i mogą przenosić je między użytkownikami. A przede wszystkim dlatego, że to oni świadczą usługę cyberochrony, zarządzając infrastrukturą klienta.
Nawet w modelu abonamentowym wciąż pozostaje sprawa nakłonienia klienta do zakupu rozwiązania…
Maciej Kotowicz Bez względu na to, w jakim modelu cyberochrona będzie oferowana – MSSP, on-premise czy hybrydowym – trzeba klienta przekonać, udowodnić mu, że może być potencjalnym celem ataku. Nie ma co ukrywać, że każdy próbuje oferować to, co się najłatwiej sprzedaje i przynosi zysk, ale wciąż nie wykorzystuje się scenariuszy sprzedażowych: jak pokazać produkt klientowi, żeby przyciągnąć jego uwagę na pięć minut. Błąd, który popełniają sprzedawcy u integratorów, a czasami także sami dostawcy, to próba zaprezentowania wszystkiego. Pokazania klientowi bardzo wielu funkcjonalności i na koniec zadania mu pytania, co mu się z tego podoba. Jeśli trafimy w potrzeby, to dobrze. Bardzo często strzały są jednak chybione. Dlatego dobrą praktyką jest dawanie integratorom gotowych modeli. Przykładem mogą być warsztaty PoC u klienta, ale połączone z elementem sprzedażowym – jak pokazywać korzyści z rozwiązania z punktu widzenia biznesu.
Łukasz Nowatkowski Resellerzy muszą być dobrze wyedukowani i w pewnych rzeczach wyspecjalizowani. Inaczej będzie się rozmawiać z najbardziej rozwijającym się dzisiaj sektorem e-commerce, gdzie wszystko działa w chmurze – tam są zapisane wszelkie dane klientów. Firmy tak działające to często wielkie biznesy. Inaczej zaś będzie się docierać do przedsiębiorcy, który mówi: moje dane będą bezpieczne w tym pokoju, za 4 tys. zł kupiłem do niego klimatyzację, wstawiłem UPS-a, przecież nikt mi tam nie wejdzie. Oczywiście nie ma on pojęcia, że na jego serwerze już jest coś zainstalowane i wykrada mu dane.
Jakub Jagielak Możemy próbować sprzedać wszystko, co mamy. Strzelamy wtedy na oślep – może z czymś trafimy. Tylko że dojdziemy do momentu, kiedy klient poczuje, że chcemy go naciągnąć. Możemy też próbować podejść od strony doradczej. Starać się być opiekunem klienta, mówiąc do niego: widzimy, że tu masz problem, i mamy na niego sposób. W wyborze odpowiedniego rozwiązania ważna będzie współpraca integratora z producentem albo dystrybutorem. Kluczowe jest znalezienie tego problemu, ale trzeba też przekonać klienta, że jest on realny, co nie musi być łatwe. Na jednej z konferencji tłumaczyłem, czego potrzebujemy, żeby pokonać bezpiecznie przejście dla pieszych. Odpowiedź jest prosta: procedury – spojrzeć w prawo, w lewo itd. A dlaczego potrzebujemy procedury? Bo czujemy się zagrożeni, ktoś może na nas najechać. Jeśli nie będzie poczucia zagrożenia, to rozmowa z klientem będzie bardzo trudna.
Możemy próbować sprzedać wszystko, co mamy. Strzelamy wtedy na oślep – może z czymś trafimy. Tylko że dojdziemy do momentu, kiedy klient poczuje, że chcemy go naciągnąć. Możemy też próbować podejść od strony doradczej.
Jakub Jagielak, dyrektor ds. rozwoju cyberbezpieczeństwa, Atende
Łukasz Nowatkowski Tyle że do procedury na przejściu dla pieszych się stosujemy, bo widzieliśmy skutki wypadków – w telewizji czy nawet osobiście. A o skutkach cyberataków trudno usłyszeć – nikt się tym nie chce chwalić. Bo dla firmy to strzał w kolano, a dla jej CSO – ujma na honorze. Przecież on nie przyzna się do tego, mimo że weszła ustawa, która ma zmusić wszystkich do ujawnienia, że był wyciek. Dlatego trzeba więcej mówić o skutkach ataków.
Paweł Rybczyk Z mojej perspektywy sytuacja stała się lepsza dzięki RODO, ponieważ część prezesów zapragnęła mieć pewnego rodzaju bilans otwarcia w kontekście bezpieczeństwa IT. To spowodowało, że wzrosła liczba audytów, firmy zaczęły sprawdzać, w którym miejscu się znajdują. Wynik audytu mógł pokazać, jak bardzo są zapóźnione. Oczywiście z tego powodu raczej nie uda nam się ich przekonać, że powinny kupić i wdrożyć rozwiązania za wiele milionów. Jeśli jednak integrator przedstawi im plan inwestycji w zabezpieczenia, odniesie sukces.
Przejdźmy do wspomnianego wyboru rozwiązania. Spotkałem się z opiniami integratorów, że kiedy klient robi sobie short listę produktów bezpieczeństwa, które go interesują, kieruje się opiniami niezależnych testów i rankingów, np. kwadrantów Gartnera. Czy potwierdzacie takie obserwacje?
Mateusz Pastewski Jeśli rynek producentów jest skomplikowany dla integratorów, to dla klientów tym bardziej. Dlatego będą oni zawsze szukać jakiegoś benchmarku, który im wskaże, kto jest liderem w danej kategorii, kto dopiero pretenduje do tego miana, a kto ma rozwiązanie niszowe.
Mariusz Kochański Resellerzy wielokrotnie zadawali nam pytanie: dlaczego wprowadziliście do oferty tę markę, a nie tamtą, która wysoko znajduje się w zestawieniu Gartnera? Trzeba pamiętać, że Gartner ocenia według dwóch kryteriów – z jednej strony funkcjonalności, z drugiej – sprzedaży. Gdyby tylko w ten sposób oceniać rynek, iPhone nigdy by się nie stał wiodącym smartfonem. Trzeba pamiętać też o dynamice rynku i postrzegać go nie tylko z amerykańskiej perspektywy, jak robi to Gartner. Ten ostatni nie odrobi lekcji za resellera i klienta, co lokalnie i dla danego odbiorcy jest obiektywnie najlepsze. Szalenie ważne jest w tym przypadku zupełnie inne postrzeganie segmentów enterprise i MŚP za oceanem i u nas.
Maciej Kotowicz Trzeba jednak przyznać, że w materiałach działających na polskim rynku dostawców Gartner się pojawia, bo każdy lubi się pochwalić. Rzeczywiście raport nie sprzeda rozwiązania za resellera, ale pomoże mu znaleźć się na short liście klienta. Umieści on tam ten produkt, nawet jeśli będzie się skłaniać ku innemu. Po to, żeby wyglądało to poważniej w oczach jego zarządu.
Mariusz Kochański Na raporty zawsze warto patrzeć, bo to jest dodatkowe źródło informacji. W końcu jest nie tylko Gartner, w pewnym momencie pojawił się też Forrester, a ostatnio za wyrocznię w branży bezpieczeństwa jest uważane NSS Labs. Nie można jednak traktować raportów jak świętość, bo są one pochodną wielu założeń. Przychodzi mi do głowy branża telco, która ufa tylko własnym testom.
Jakub Jagielak Rzeczywiście wielcy klienci mają potężne laboratoria, w których każde rozwiązanie jest sprawdzane pod każdym kątem. Zewnętrzne benchmarki nie mają dla nich dużego znaczenia. Tak jest nie tylko w branży telco, lecz także w sektorze finansowym – tego rodzaju klienci starają się przede wszystkim znaleźć takie funkcjonalności, które rozwiążą ich problemy. Potrafią oni nawet organizować własne hackathony, żeby dokładnie sprawdzić możliwości określonego rozwiązania. Dotyczy to jednak nielicznych firm i jeśli poza nimi na rynku liczą się raporty, to szansą na zwiększenie sprzedaży dla integratora może być tworzenie własnych, ewentualnie przeprowadzanie testów na własną rękę. My, zanim pójdziemy do klienta z rozwiązaniem, próbujemy najpierw sprawdzić je u siebie, nawet jeśli nie w 100 proc., to do tego stopnia, żeby móc skutecznie go bronić.
Łukasz Nowatkowski Trzeba przy tym zauważyć, że kiedyś o wyborze rozwiązania u klienta decydowała osoba stricte techniczna. Łatwo było jej wytłumaczyć funkcjonalności produktu i jego konfigurację. Dzisiaj często jest ważny wygląd – ładne pudełko ze sprzętem, które i tak zostanie zamknięte w data center, czy piękny interfejs użytkownika.
Na bezpieczeństwo składają się technologie, kompetentna kadra i procesy. W których z tych obszarów zauważacie największe braki u klientów?
Paweł Rybczyk Bardzo często w obszarze procesów. Przynajmniej tak to widzimy przez pryzmat tego, co oferujemy, czyli kontroli dostępu uprzywilejowanego. Nierzadko bywało tak, że gdy klient wybierał nasze rozwiązanie i zapraszał na wdrożenie, słyszałem: „No to proszę je teraz zainstalować”. Wyjaśniałem wtedy, że muszę najpierw wiedzieć, kto się do kogo łączy, jakie ma uprawnienia itp. Okazywało się, że informatyk klienta nie ma o tym pojęcia. Stwierdzałem wtedy, że mogę wrócić dopiero, jak powstanie jakaś mapa zależności, którą będę mógł swoim narzędziem zaimplementować. Odwrotnie się nie da. Dlatego pomoc w tworzeniu polityki bezpieczeństwa może być częścią biznesu partnerów.
Jakub Jagielak Jest jeszcze świadomość przedsiębiorstwa dotycząca bezpieczeństwa, z angielska nazywana security awareness. O tym, że nie zastąpi jej technologia, niech świadczy przykład jednej z firm, z którymi miałem przyjemność współpracować. Wdrożyła ona system antyphishingowy, który miał wyłapywać e-maile ze specjalnie spreparowanymi wiadomościami do pracowników. Ogłosiła ona wszem wobec, że taki system działa. W rezultacie skuteczność phishingu wzrosła o 20 proc. Pracownicy wyszli z założenia, że IT zdjęło z nich obowiązek zachowania czujności.
A co z brakami kadrowymi? Pod tym względem, delikatnie mówiąc, sytuacja na rynku nie wygląda najlepiej.
Mariusz Kochański Dzięki temu, że te braki występują, klienci końcowi potrzebują resellerów. Problem klientów polega na tym, iloma osobami dadzą radę obsłużyć swoje IT, zwłaszcza w przypadku mniejszych firm. Bank dysponujący wcześniej dwudziestoma kilkoma informatykami pewnie poradzi sobie i z dwudziestką. W mniejszej firmie tych informatyków jest trzech, dwóch, a bywa, że i jeden. Zajmując się wszystkim, trudno dobrze zająć się cyberochroną. To doskonały punkt wyjścia do rozmowy o wspomnianym modelu MSSP. Brak kadr jako punkt wyjścia do przekonywania klientów do długoterminowej relacji – ten argument już działa.
Mateusz Pastewski Jeśli chodzi o braki kadrowe i związane z tym szanse na biznes, to dam przykład dotyczący ustawy o krajowym systemie cyberbezpieczeństwa. Jej konsekwencją jest to, że pewna grupa stosunkowo małych podmiotów będzie zmuszona korzystać z centrum SOC. A przedsiębiorstwo, które ma do tysiąca adresów IP, nie będzie miało swojego zespołu, który będzie odpowiadać na zagrożenia. Dlatego oferta integratora działającego jako MSSP, który stworzy własne SOC, wydaje się dla tych firm naturalnym wyborem. Owszem, dla takiego integratora stworzenie własnego centrum będzie dużym kosztem, ale potem będzie on mógł ten biznes bardzo łatwo skalować, obsługując kolejnych nowych klientów.
Łukasz Nowatkowski Przed integratorem, który będzie chciał rozwijać biznes jako MSSP, stoją wyzwania. Jeśli ma wejść do infrastruktury firmy, musi zdobyć pełne zaufanie klienta. Integrator będzie musiał pokazać, jak się z tą infrastrukturą łączy, dopasować się do polityki bezpieczeństwa. Jeśli będzie miał w swoim portfolio 20 czy 100 klientów i każdy będzie miał wdrożoną inną politykę, to będzie musiał się do każdej dostosować, co nie będzie łatwe.
Paweł Rybczyk Model MSSP to przyszłość, ale przyniesie też redukcję liczby integratorów. Obecnie mamy na rynku bardzo wielu resellerów oferujących zabezpieczenia IT. Z różnych powodów – wskutek braku pracowników na rynku, a także specjalizacji i wymagań, by kadra była jak najbardziej wykwalifikowana. W niedalekiej przyszłości będzie ich mniej.
Na braki kadrowe odpowiedzią ma być automatyzacja i wykorzystanie uczenia maszynowego. To trend dominujący od kilku lat w wielu dziedzinach, także w branży security.
Maciej Kotowicz Za uczeniem maszynowym podąża cały rynek. W przypadku cyberbezpieczeństwa dla wszystkich jest oczywiste, że systemy bazujące na sygnaturach odchodzą w przeszłość. Nie da się zdefiniować dziś wszystkich potencjalnych zagrożeń i zabezpieczać się przez ich porównywanie z dostępnym wzorcem. Z pomocą przychodzi deep learning, który – jeśli będzie „nakarmiony” odpowiednią porcją wiedzy – z dużym prawdopodobieństwem prawidłowo zareaguje na zagrożenie. Dlatego wielu producentów sięga po tego rodzaju mechanizmy, które pomagają użytkownikowi końcowemu podjąć właściwą decyzję, bo ta zawsze pozostaje po jego stronie.
Mariusz Kochański Uczenie maszynowe już bardzo dobrze sprawdza się w radiologii i wykrywaniu nowotworów – są tam dostępne miliony zdjęć. Problem polega na tym, że w przypadku cyberbezpieczeństwa nie ma bogatej historii incydentów do nauczenia rozwiązań opartych na machine learningu. Każdy producent coś robi w tym obszarze, pojawiają się inicjatywy, żeby takimi informacjami się dzielić. Ale do tego dochodzi taki aspekt jak specyfika konkretnej firmy. Nie ma historii zachowania pracowników w polskim MŚP, może jest jakaś w amerykańskim SMB. Nie wiadomo tylko, czy jedno będzie przystawało do drugiego.
Łukasz Nowatkowski Żeby sztuczna inteligencja zastąpiła specjalistę ds. bezpieczeństwa, potrzeba jeszcze lat. Niemniej to bardzo ciekawy trend i na pewno będzie ona bardzo przydatna na etapie podejmowania decyzji.
Może od tego pytania powinniśmy zacząć, ale dobre też jest na zakończenie dyskusji. Cyberbezpieczeństwo w branży IT to najwięcej produktów i usług, które można tworzyć, bazując na tych produktach. Czy w związku z tym na ochronie zasobów i danych zarabia się lepiej niż na innych obszarach IT?
Mateusz Pastewski Oferowanie usług zabezpieczających pozwala integratorom wyróżnić się na rynku. Na zaprezentowanie się w roli zaufanego doradcy, który – mając duże kompetencje – jest w stanie skuteczniej radzić sobie z konkurencją. Przy czym cyberbezpieczeństwo zawsze było i jest branżą o wysokiej marży, oferując wiele korzyści integratorom. Trzeba jednak zaznaczyć, że to bardzo trudny segment rynku. Z roku na rok przybywa rozwiązań ochronnych, ataki są coraz bardziej wyrafinowane, więc start z własnym biznesem nie jest łatwy. Nie da się szybko nabyć wszystkich niezbędnych kompetencji. Dobra informacja jest taka, że są też produkty prostsze w sprzedaży, wdrażaniu i utrzymaniu. I to od nich warto zacząć swoją przygodę z cyberbezpieczeństwem, by potem przejść do bardziej zaawansowanych systemów.
Mariusz Kochański Rynek zawsze dobrze płaci za te kompetencje, które są unikatowe. Z chwilą, kiedy się upowszechniają, ich cena spada. Z bezpieczeństwem jest tak, że pojawiają się ciągle nowe zagrożenia i rozwiązania, które stanowią na nie odpowiedź. Jeśli kiedyś cyberochrona będzie oferowana w taki sam sposób jak prąd z gniazdka, to marże zaczną spadać. Ale zanim to się stanie, o ile w ogóle do tego dojdzie, to miną lata, podczas których będzie można zarabiać sensowne pieniądze.
Maciej Kotowicz W sektorze zabezpieczeń resellerowi najłatwiej zmonetyzować inwestycje poniesione na rozwijanie kompetencji. W tym obszarze jest bardzo duża grupa klientów wymagających indywidualnego podejścia. Nie jest tak, że bierzemy produkt z półki i go sprzedajemy. W innych obszarach jest większa standaryzacja i powtarzalność, więc trudno wykazać swoje unikatowe umiejętności.
Łukasz Nowatkowski Wszystko wskazuje na to, że będzie się zmieniać podejście sprzedażowe. Na pewno coraz większe znaczenie będzie mieć prędkość dostarczania usługi. Będą wygrywać tacy, którzy są w stanie zapewnić ją niemal natychmiast. A to powinno promować model MSSP.
Paweł Rybczyk Nie można zapominać, że dostawca rozwiązań ochronnych od dostawcy innych rozwiązań IT różni się tym, że działa w bardzo wrażliwej sferze. Ponieważ przede wszystkim musi zdobyć zaufanie klienta, to niezwykle ważne stają się wszelkiego rodzaju umiejętności miękkie – kompleksowość usługi, doskonała merytoryczna znajomość tego, co się oferuje. Popełnienie jednego błędu podczas rozmowy może doprowadzić do utraty zaufania i położyć cały projekt.
Jakub Jagielak O cyberbezpieczeństwo bym się nie martwił, bo zmiany w tym obszarze występują stale na zasadzie akcja-reakcja. Jeżeli powstanie nowe zagrożenie, producent udostępni nowe rozwiązanie, które usunie lukę. W dającej się przewidzieć przyszłości sytuacja powinna się utrzymywać na stałym poziomie – bez spektakularnych wzrostów i spadków zarówno w obszarze zagrożeń, jak i stanu cyberbezpieczeństwa. Będzie powolny trend dochodzenia do coraz wyższych poziomów obsługi klienta i zabezpieczania jego systemów. Tym, na co trzeba zwrócić uwagę, jest postępująca zmiana pokoleń. Młodzi ludzie chcą informacji natychmiast i w skondensowanej formie. Nikt nie będzie się zastanawiać nad ofertą, która ma 50 stron do przeczytania. Coraz częściej będzie potrzebny krótki konspekt – co system robi i jak rozwiązuje problemy.
Debatę prowadził
Tomasz Janoś
Artykuł Cyberbezpieczeństwo: jak zapewnić klientowi spokój? pochodzi z serwisu CRN.
]]>Artykuł Zarządzanie dostępem: hasło to za mało pochodzi z serwisu CRN.
]]>Jeśli więc administratorzy wcześniej nie zgłaszali zwierzchnikom żadnych problemów, teraz zarządy – wiedząc o wymogach formalnych – raz na jakiś czas decydują się na sprawdzenie, czy rzeczywiście ich nie ma. Gdy w wyniku audytu firma dostanie słabą ocenę, dajmy na to w zakresie kontroli dostępu do infrastruktury IT, integratorzy mogą się spodziewać zapytań o sposoby rozwiązania problemów.
Na rynku są trzy typy rozwiązań zabezpieczających infrastrukturę IT, które spełniają potrzeby przedsiębiorstw w obszarze cyberbezpieczeństwa. Pierwsze to klasyczne narzędzia do ochrony, w rodzaju antywirusa, antyspamu, firewalla oraz IPS, które filtrują pliki i ruch w sieci, chroniąc przed zagrożeniami przenoszonymi za ich pośrednictwem. Drugi typ stanowią platformy zbierające różnego rodzaju logi dostarczane przez infrastrukturę (z danymi surowymi albo przetworzonymi), szukające anomalii i podejrzanych aktywności, także przy użyciu technik uczenia maszynowego i sztucznej inteligencji.
Na trzecią grupę składają się rozwiązania, które nie oferują ochrony opartej na filtrach i skanerach, ale wymuszają stosowanie odpowiednich reguł polityki bezpieczeństwa, m.in. związanych z dostępem do firmowych danych (zarówno pracowników jak i współpracowników, w tym także z podmiotów zewnętrznych), zarządzaniem hasłami oraz kluczami SSH do kont uprzywilejowanych. Specjaliści podkreślają, że w tego typu rozwiązaniach ważną rolę odgrywa zarządzanie dostępem uprzywilejowanym. Nie powinno więc dziwić, że w zestawieniu dziesięciu najlepszych projektów ochronnych z roku bieżącego analitycy Gartnera umieścili Privileged Access Management na pierwszym miejscu.
W zakresie zabezpieczania dostępu ważna jest taka organizacja infrastruktury, która określi jasny podział sieci na segmenty. Łatwo wówczas zastosować narzędzia, które służą do monitorowania dostępu z prawami administratora oraz zarządzania kontami uprzywilejowanymi (np. sposobem przydzielania haseł użytkownikom bądź urządzeniom oraz kontrolą ich wykorzystywania).
Niektóre urządzenia muszą mieć dostęp na poziomie uprzywilejowanym, bo inaczej nie byłoby mowy o bezpieczeństwie odmienianej ostatnio przez wszystkie przypadki automatyzacji działania infrastruktury. A gdy na rynku brakuje specjalistów, wszyscy starają się w mniejszym lub większym zakresie wprowadzać zautomatyzowane zarządzanie firmową infrastrukturą IT.
Audytorzy uważnie przeglądają skrypty związane z automatyzacją, m.in. dotyczące budowania nowych maszyn wirtualnych czy aplikacji w chmurze. Sprawdzają, jak są tworzone konta użytkowników i hasła do nich oraz gdzie te dane są przechowywane. Dlatego zarządzanie dostępem uprzywilejowanym i kontami z prawami administratora staje się coraz ważniejsze, zarówno w przedsiębiorstwach, jak i w instytucjach.
Zdobywanie wiedzy w zakresie kontroli dostępu (również uprzywilejowanego) nie jest jednak proste. Zdaniem Marty Zborowskiej, Sales Directora w Connect Distribution, to wciąż nowy temat i wymaga od dostawców działań edukacyjnych. W praktyce w każdej firmie wykorzystywane są hasła i konta uprzywilejowane, które umożliwiają uzyskanie dostępu do krytycznych danych i systemów. Jednak, gdy rozmowa z klientem schodzi na rozwiązania PAM, najważniejszą dla niego kwestią pozostaje nagrywanie sesji.
– Gdy próbujemy tłumaczyć, dlaczego PAM jest tak istotny i dlaczego konta uprzywilejowane muszą znajdować się pod kontrolą, reakcja klienta ogranicza się do pytania: czy macie państwo nagrywarkę sesji internetowych? – mówi Marta Zborowska.
Jeśli nawet klienci słyszeli o zagrożeniach związanych z kontami uprzywilejowanymi, twierdzą, że nie potrzebują jeszcze narzędzi do zarządzania nimi, a inni odsuwają zakup takich rozwiązań na plan dalszy. Skupiają się wyłącznie na udokumentowanym posiadaniu nagranej sesji, ponieważ tego wymagają przepisy i o tym mówią przeprowadzający audyt.
Według specjalistów, z którymi rozmawialiśmy, polscy klienci, a konkretnie osoby odpowiedzialne w firmach za bezpieczeństwo IT, wciąż działają bez jasnej, długoterminowej strategii. Rzadko zdarza się, że w przypadku ograniczonego budżetu planowane jest wdrożenie najpierw jednego zabezpieczenia (przykładowo zarządzania dostępem uprzywilejowanym), a za rok – gdy znów będą pieniądze – implementacja uwierzytelniania dwuskładnikowego. Klienci najczęściej działają bowiem od szkody do szkody, reagując przede wszystkim na bieżące problemy.
Rozwiązanie do zarządzania dostępem przejmuje kontrolę nad wszystkimi mechanizmami logowania się do zasobów IT. Często na początku wykonuje audyt wszystkiego, co jest w sieci, by następnie umożliwić nadawanie uprawnień zgodnie z przyjętą polityką bezpieczeństwa. Od niej będzie zależeć, czy wystarczy uwierzytelnienie za pomocą hasła, czy potrzebne będzie wdrożenie rozwiązania wieloskładnikowego (Multi-Factor Authentication). MFA zwiększa poziom ochrony i zwykle jest wprowadzane w modelu dwuskładnikowym – login/hasło plus wybrany dodatkowy sposób uwierzytelniania. Na rynku dostępnych jest wiele różnych rozwiązań do tworzenia takich zabezpieczeń.
– Odnotowujemy coraz więcej zapytań dotyczących możliwości współpracy systemu zarządzania dostępem uprzywilejowanym z uwierzytelnianiem dwuskładnikowym – twierdzi Paweł Rybczyk, Territory Manager CEE & CIS w firmie Wallix.
Oceniając polski rynek rozwiązań do uwierzytelniania wieloskładnikowego, Krzysztof Hałgas, dyrektor Bakotechu, zauważa na nim wyraźny podział. Z jednej strony są firmy i instytucje, które zgodnie z wewnętrznymi regulacjami powinny korzystać z tego typu rozwiązań i używają ich od wielu lat. Ta część rynku jest w pewnym sensie zamknięta, bo w całości opanowana przez dostawców, którzy są liderami w tym segmencie. Wykorzystywane są tu przeważnie tokeny sprzętowe (rzadziej programowe).
Marta Zborowska
Sales Director, Connect Distribution
Klienci uważają, że same hasła stanowią wystarczające zabezpieczenie. Zdarza się też, że polityka bezpieczeństwa firmy polega na korzystaniu z pliku Excela, z którego administrator w razie potrzeby przydziela hasła. W przedsiębiorstwach rzadko stosuje się generatory haseł, które dostarczają trudne do złamania poświadczenia. Niejednokrotnie hasła do kont uprzywilejowanych są takie same, jak do kont zwykłych użytkowników. Wykorzystują najprostsze kombinacje – typu qwerty123, zaczynające się od imienia albo daty urodzenia użytkownika. Dlatego przed dostawcami i ich partnerami biznesowymi jest jeszcze dużo pracy polegającej na zwiększeniu wiedzy klientów w zakresie bezpieczeństwa, najlepszych praktyk oraz odpowiednich do tego narzędzi.
Z drugiej strony są średni i mali przedsiębiorcy, którzy albo nie uświadamiają sobie potrzeby używania bardziej zaawansowanych mechanizmów kontroli dostępu, albo sądzą, że ich to nie dotyczy (co na jedno wychodzi). Zaczynają myśleć o ich wdrożeniu dopiero wtedy, kiedy coś się wydarzy. Do zarządów firm dociera wówczas, że wieloskładnikowe uwierzytelnianie uchroniłoby ich przed szkodą.
– Liderzy rynku nie trafiają do takich klientów, bo są skoncentrowani na dużych przedsiębiorstwach. Poza tym ich rozwiązania są relatywnie drogie i mogą być trudne we wdrożeniu. Tymczasem na rynku znajdują się produkty, które za nieduże pieniądze umożliwiają prostą instalację i wygodne wykorzystanie MFA – wyjaśnia Krzysztof Hałgas.
W przeznaczonych dla tej grupy klientów systemach kontrolę dostępu do informacji zapewnia przykładowo programowe rozwiązanie zarządzane z chmury, wprowadzające uwierzytelnianie wieloskładnikowe do systemu informatycznego, które będzie wykorzystywać smartfony jako urządzenia zapewniające dodatkowy składnik autentykacji. Dzięki chmurze łatwiejsze staje się także administrowanie rozwiązaniem – dodawanie użytkowników, integrowanie z AD, zdalne przyznawanie uprawnień i ich odbieranie. Z kolei dzięki temu, że tokenem sprzętowym staje się smartfon, użytkownicy nie muszą nosić ze sobą żadnego dodatkowego urządzenia do uwierzytelniania.
Wykorzystanie chmury i telefonów w takich rozwiązaniach może jednak budzić obawy klientów. Dostawcy bronią swych rozwiązań, tłumacząc potencjalnym nabywcom, że takie środowisko jest w pełni bezpieczne: w chmurze przechowuje się niewiele informacji i to w formie, która zapobiega ich nieuprawnionemu wykorzystaniu. Odnosząc się do kwestii telefonów, mówią o mechanizmach, które uniemożliwiają uzyskanie kodu uwierzytelniającego na innym urządzeniu niż smartfon, dla którego ów kod jest przeznaczony.
Obecnie wiele firm stosuje systemy pojedynczego logowania (Single Sign-On), które ułatwiają życie użytkownikom, gdyż nie wymagają wpisywania kolejnych danych uwierzytelniających podczas logowania się do systemów i aplikacji. Z drugiej strony upraszczają pracę administratorom, zapewniając im większą kontrolę nad hasłami. Dzięki temu nie muszą pamiętać o odbieraniu uprawnień odchodzącym bądź zwalnianym pracownikom. Wystarczy, że wyłączą jedno hasło, a wszystkie uprawnienia takiej osoby tracą ważność, co uniemożliwia jej wszelki dostęp do danych. We wdrażaniu SSO jeszcze większe znaczenie ma wdrożenie uwierzytelniania dwuskładnikowego, bo jeśli jeden „klucz” otwiera tak wiele „drzwi”, to tym bardziej trzeba upewnić się, że używa go odpowiednia osoba.
Paweł Rybczyk
Territory Manager CEE & CIS, Wallix
Wobec pojawiają-cych się regulacji lokalnych, takich jak ustawa o cyber-bezpieczeństwie, albo przepisów o znacznie większym zasięgu, w rodzaju RODO, bardzo wzrosło znaczenie compliance. Wiele firm zaczęło przeprowadzać audyty, z których wynika, że trzeba zainwestować w nowe zabezpieczenia albo nawet całkiem przebudować infrastrukturę ochronną. Przekłada się to na zwiększenie liczby realizowanych projektów i wzrost zainteresowania rozwiązaniami typu PAM, nie tylko w Polsce, ale w całym regionie Europy Środkowej i Wschodniej. O tym, że klienci szukają takich zabezpieczeń, może też świadczyć liczniejsze niż jeszcze niedawno grono producentów z tego segmentu działających na naszym rynku.
Jakiś czas temu wydawało się, że biometria opanuje rynek uwierzytelniania. Pojawiło się wiele rozwiązań wykorzystujących odcisk palca i inne metody biometryczne. Analitycy przewidywali, że ich sprzedaż będzie rosła w szybkim tempie, ale tak się nie stało. Na przeszkodzie stoją prawdopodobnie dodatkowe koszty czytników oraz konieczność używania przez pracowników kolejnego urządzenia.
– Klienci wolą prostsze we wdrożeniu rozwiązania i – bez zmian – częściej korzystają z tokenów sprzętowych i programowych – utrzymuje Krzysztof Hałgas.
Dostawcy i ich partnerzy z branży zabezpieczeń przyznają, że zastosowanie biometrii do uwierzytelniania się wciąż nie zyskało popularności w segmencie biznesowym. Co innego na rynku konsumenckim, gdzie się szeroko rozpowszechniło. Posiadacze nowych smartfonów bardzo często uzyskują do nich dostęp przy użyciu czytnika linii papilarnych, skanera tęczówki czy mechanizmu rozpoznawania twarzy. Choć trzeba pamiętać, że poziom takich zabezpieczeń jest różny. Parę miesięcy temu Holenderskie Stowarzyszenie Konsumentów przedstawiło wyniki testów, które pokazały, że wiele modeli smartfonów znanych marek udało się odblokować za pomocą wysokiej jakości fotografii właściciela.
Niemniej techniki biometryczne są stale doskonalone. Łatwość ich użycia sprawia, że z biegiem czasu klienci będą zapewne domagać się ich stosowania także w życiu zawodowym. Nie byłby to pierwszy przykład przenikania trendów konsumenckich do biznesu. Mimo falstartu biometrii przed laty, można przypuszczać, że będzie ona zyskiwać na znaczeniu jako drugi, wygodny element uwierzytelniający w schemacie MFF. A w przyszłości, kto wie? Może jedyny.
Dostawcy przekonują, że kontrola dostępu informatycznego powinna być dla zarządów firm tak oczywista, jak kontrola dostępu fizycznego. O ile jednak przedsiębiorcy nie mają dzisiaj żadnych wątpliwości, że potrzebują ochrony z kamerami i całodobowym monitoringiem, o tyle wciąż nie są przekonani, że równie dokładnie powinno się kontrolować, kto i jak korzysta z firmowych zasobów IT.
Z doświadczeń producentów rozwiązań do uwierzytelniania i ich partnerów wynika, że często pracownicy działów IT nie tłumaczą szefom, dlaczego kontrola dostępu do firmowej infrastruktury jest konieczna, jak działa i jakie bywają konsekwencje braku odpowiednich zabezpieczeń. Dlatego to integratorzy powinni rozmawiać z osobami decyzyjnymi w przedsiębiorstwach i wyjaśniać, że ułatwianie intruzowi dostępu do firmowej sieci nie różni się od wpuszczania złodzieja do siedziby, a szkody mogą być dużo większe. Ponieważ edukacja jest tak ważna, dostawcy oferują coraz więcej szkoleń, zarówno dla swoich partnerów, jak i ich klientów.
Przewiduje się, że zarządzanie tożsamością i dostępem będzie w kolejnych latach odgrywać ważną rolę na rynku zabezpieczeń, ze względu na zapewnianą przez takie rozwiązania centralizację kontroli oraz efektywność ich działania. Dzięki umożliwieniu zaawansowanego uwierzytelniania, wykorzystywania katalogu, zarządzania hasłami, korzystania z funkcji pojedynczego logowania (SSO) oraz przeprowadzania audytu przedsiębiorcy zyskują gwarancję, że ich najważniejsze dane i aplikacje są właściwie zabezpieczone.
Zdaniem integratora
Bartosz Dzirba, CTO i członek zarządu, Passus SA
Działając na rynku zabezpieczeń czy w ogóle IT, warto współpracować z producentami niszowymi. Ich rozwiązania wcale nie muszą być tańsze niż najpopularniejsze produkty, choć zwykle są, z prostego powodu: jeśli ktoś chce wejść na rynek, to próbuje się wyróżnić także ceną. Mniejsi producenci mają do tego tę wielką zaletę, że są w swych działaniach bardziej elastyczni niż najwięksi i bardzo szybko reagują nawet na bardzo specyficzne potrzeby. Interesują się także mniejszymi projektami i nigdy nie jesteśmy dla nich anonimowym partnerem spośród tysiąca innych. Oczywiście, istnieje niebezpieczeństwo, że taki dostawca w kolejnych latach przestanie funkcjonować jako startup i nie rozwinie się. Gdy się jednak trafi na inwestującego w swój rozwój producenta z ciekawym rozwiązaniem, robienie z nim biznesu daje dużą satysfakcję.
Artykuł Zarządzanie dostępem: hasło to za mało pochodzi z serwisu CRN.
]]>Artykuł PAM to nie tylko nagrywanie sesji pochodzi z serwisu CRN.
]]>Password Manager w WALLIX Bastion
Moduł zarządzania hasłami ułatwia wprowadzanie najlepszych praktyk wykorzystania danych uwierzytelniających, narzucając warunki tworzenia kont. Stosujące się do tych reguł organizacje mogą być pewne, że ich najbardziej krytyczne systemy i dane nie będą dostępne dla osób niepowołanych.
Wykorzystując Password Managera, zespół ds. bezpieczeństwa może zastosować szereg środków ochrony. Należą do nich:
Silne hasła – wymuszanie stosowania trudnych do złamania haseł, złożonych z kombinacji małych i wielkich liter oraz znaków specjalnych. Co więcej, używanie zaawansowanego szyfrowania gwarantuje, że tworzone hasła są dobrze chronione.
Brak dostępu root – dzięki zaawansowanym metodom szyfrowania nawet uprzywilejowani użytkownicy nie mają dostępu do haseł root. W ten sposób ogranicza się ryzyko związane z zarządzaniem hasłami oraz możliwość wykorzystania skradzionych danych uwierzytelniających.
Automatyczna rotacja – zmuszanie użytkowników do regularnej zmiany haseł chroni firmy przed zagrożeniami takimi jak ryzyko niepowołanego użycia starszych bądź zapomnianych haseł do kont uprzywilejowanych.
Kontrola dostępu – obecnie pracownicy i wszyscy inni użytkownicy chcą dostępu do systemów z dowolnego miejsca – tam, gdzie aktualnie wykonują swoją pracę. Password Manager wymusza kontrolę dostępu, obsługując osoby działające w różnych miejscach i jednocześnie umożliwiając zespołom ds. bezpieczeństwa kontrolę nad tym, kto ma dostęp do jakich zasobów.
AAPM: co to takiego i do czego służy
Są aplikacje, które do prawidłowego działania potrzebują połączeń z innymi programami. Podobnie jak użytkownicy, aby mieć dostęp do wymaganych usług, muszą się one uwierzytelniać na serwerach. Dobrze znanym przykładem jest np. zezwolenie systemowi ticketowemu, jak np. Redmine, na uwierzytelnianie się przy użyciu usługi katalogowej (AD). Gdy serwer Redmine
jest uwierzytelniony, może przy użyciu połączenia z AD autoryzować tożsamości użytkowników, którzy chcą mieć dostęp do jego usług. W rezultacie konta AD nie są duplikowane, a cały proces uwierzytelniania użytkowników pozostaje scentralizowany.
Często dane uwierzytelniające wykorzystywane przy połączeniu jednej aplikacji z drugą są przechowywane w prostym pliku konfiguracyjnym i zapisane jawnym tekstem. Moduł AAPM został stworzony w celu wyeliminowania tego rodzaju plików oraz domyślnych, na stałe zakodowanych haseł aplikacji. Zapewnia bezpieczny mechanizm, który umożliwia przeprowadzanie procesu autoryzacji pomiędzy aplikacjami. Od niedawna WALLIX Bastion oferuje w ramach modułu AAPM fingerprinting, służący do uwierzytelniania aplikacji niezależnych dostawców.
Więcej informacji:
Paweł Rybczyk, Business Developer CEE & Russia, WALLIX, prybczyk@wallix.com
Artykuł PAM to nie tylko nagrywanie sesji pochodzi z serwisu CRN.
]]>Artykuł Zarobić na dostępie pochodzi z serwisu CRN.
]]>Ale to będzie się zmieniać. Zarówno na świecie, jak i lokalnie na rynku zarządzania dostępem i tożsamościami przewidywane są solidne wzrosty. Według analityków z Zion Market Research do 2022 r. ma on osiągnąć globalną wartość 15,92 mld dol. (w 2016 r. było to 7,85 mld dol.). Wśród najważniejszych wdrażanych komponentów zarządzania dostępem i tożsamościami mają być takie funkcje jak: provisioning, Single Sign-On, zaawansowane uwierzytelnianie, audyt, compliance & governance, usługi katalogowe i zarządzanie hasłami.
W stymulowaniu popytu ważne jest, by rozmowy z klientami o zarządzaniu dostępem były prowadzone bardziej w kontekście biznesowym niż technologicznym. W ten sposób łatwiej można przekonać rozmówców, że zaoszczędzą realne pieniądze, mając rozwiązane problemy dotyczące szeroko rozumianego „compliance” oraz bezpieczeństwa swoich systemów informatycznych. Większa świadomość przełoży się na rosnące zainteresowanie zarządzaniem dostępem do sieci i informacji. Potrzeba posiadania narzędzi IAM (Identity and Access Management – zarządzanie tożsamością i dostępem) oraz PAM (Privileged Access Management – zarządzanie dostępem uprzywilejowanym) z czasem stanie się integralnym elementem strategii rozwoju IT.
Zarówno klienci myślący o wykorzystaniu rozwiązań do zarządzania dostępem, jak i integratorzy mający pomóc im we wdrożeniach powinni śledzić najważniejsze trendy w tym obszarze zabezpieczeń. Tym bardziej że stają się one coraz bardziej złożone – ewoluują wraz z pojawianiem się nowych zagrożeń i dostosowują się do zmian w sposobach funkcjonowania przedsiębiorstw. Takie elementy rozwiązań IAM/PAM, jak scentralizowane zarządzanie dostępem, automatyzacja, raportowanie i składowe polityki bezpieczeństwa tworzone w kontekście specyficznych aplikacji, muszą sprostać wyzwaniom, z jakimi zmagają się dziś firmy. A tych jest niemało…
Coraz bardziej rozproszone środowisko pracy
Po pierwsze dostęp do aplikacji i danych od dawna nie ogranicza się tylko do wewnętrznej sieci. Mobilny i zdalnie pracujący personel może być bardziej produktywny od osób stale przebywających w biurze. Jednocześnie daje szansę na ograniczenie kosztów prowadzenia działalności biznesowej. Jednakże geograficznie rozproszeni pracownicy to dla działu IT istotny problem do rozwiązania. Jak zapewnić spójną obsługę użytkowników łączących się z zewnątrz z zasobami firmy, nie zmniejszając równocześnie ryzyka w kontekście bezpieczeństwa IT?
Większa mobilność i zdalny dostęp wymagają kontroli nad poczynaniami pracowników, zewnętrznych usługodawców, partnerów biznesowych itp., którą niełatwo zapewnić. W dodatku firmy zostały zmuszone do mniej lub bardziej formalnego wprowadzenia modelu BYOD, co jeszcze bardziej komplikuje sprawę. Wyzwanie działu IT polega na tym, jak szybko reagować na potencjalne zagrożenia, a jednocześnie nie ograniczać produktywności pracowników ani ich wolności wyboru. Administratorzy muszą sobie poradzić z ustaleniem praw dostępu do firmowych danych oraz określeniem urządzeń, z których dostęp może być zapewniany.
Rośnie wykorzystanie opartych na chmurze aplikacji SaaS (Software as a Service), więc użytkownicy z dowolnego miejsca i dowolnego urządzenia uzyskują dostęp do podstawowych dla biznesu narzędzi, takich jak Office 365 czy Salesforce. Jednakże wraz z rozwojem rozproszonego środowiska pracy wzrasta złożoność zarządzania tożsamością użytkowników aplikacji chmurowych. Bez sprawnego administrowania hasłami trudno zapewnić bezproblemowy i bezpieczny dostęp do wykorzystujących chmurę aplikacji, a koszty obsługi sfrustrowanych użytkowników przez działy IT będą rosły.
Marta Zborowska
Sales Director, Connect Distribution
W Polsce nie ma jeszcze wysokiej świadomości klientów w obszarze zarządzania dostępem uprzywilejowanym. Szczególnie w mniejszych firmach, gdzie stosuje się wciąż bardzo niebezpieczne praktyki, jak np. przechowywanie haseł w nieszyfrowanych plikach na serwerach firmowych. Duży wpływ na wzrost zainteresowania tematem mają obowiązujące regulacje RODO. Dzięki nim problem zarządzania kontami uprzywilejowanymi jest coraz powszechniej dostrzegany i firmy zaczynają poszukiwać profesjonalnych metod oraz narzędzi.
Jak szybko przydzielić dostęp…
Bez scentralizowanego narzędzia administrator musi ręcznie przydzielać dostęp do systemu IT. Im więcej czasu potrzeba, by pracownik uzyskał dostęp do podstawowych aplikacji biznesowych, tym jest on dla firmy mniej produktywny. W wielu firmach administratorzy muszą „przekopywać się” przez konta użytkowników, by ustalić, do jakich zasobów mają im zostać przyznane prawa. Ręczne przydzielanie dostępu jest czasochłonne i prowadzi do błędów. Dlatego szczególnie duże przedsiębiorstwa potrzebują wydajnych narzędzi do zarządzania tożsamością użytkowników i dostępem.
…a później jeszcze szybciej go odebrać
Nie mniej ważne od przydzielania praw dostępu jest ich odbieranie. Brak odpowiedniego działania w przypadku pracownika, który opuszcza firmę bądź przenosi się do innego działu, może mieć poważne konsekwencje dla bezpieczeństwa informacji. Aby maksymalnie ograniczyć ryzyko nadużyć, dział IT musi odebrać dostęp najszybciej, jak to możliwe.
To bardzo ważny element IAM, ponieważ w czasie zatrudnienia w firmie pracownik mógł zgromadzić wiele haseł do różnych aplikacji. Bez scentralizowanego narzędzia do zarządzania administratorowi trudno jest się zorientować, kto ma do czego dostęp. W sytuacji, gdy narzędzie to zostanie zintegrowane z systemem obsługującym dział HR, chwilę po tym, jak odchodzący pracownik opuścił firmę, wszystkie prawa dostępu, jakie posiadał, mogą zostać odebrane. Gdyby miało to być obsługiwane ręcznie, proces trwałby miesiącami. Wobec szkód, do jakich może doprowadzić niezadowolony ze zwolnienia pracownik, oszczędności wynikające z szybkiego i skutecznego pozbawiania praw dostępu są łatwe do wykazania.
Adam Kuligowski, wiceprezes zarządu, Sidio
Nie tak łatwo jest sprzedać rozwiązanie PAM. Firmy większe, świadome zagrożeń dla bezpieczeństwa swojej infrastruktury znają produkty do zarządzania dostępem uprzywilejowanym i wiedzą, do czego one służą. Mimo to wiele z nich nie sięga po tego rodzaju rozwiązania, tylko korzysta z narzędzi takich jak TeamViewer czy Cisco WebEx, niezapewniających należytej kontroli. Mniejsi klienci zwykle w ogóle nie widzą potrzeby nadzorowania użytkowników uprzywilejowanych – zewnętrznych usługodawców czy własnych pracowników, którzy mają dostęp do zasobów krytycznych. Nie dostrzegają w tym żadnych zagrożeń. W efekcie dosyć trudno jest przekonać klientów do wygospodarowania budżetów. Dlatego bezwzględnie trzeba im wykazywać na praktycznych przykładach, że brak kontroli nad logującymi się użytkownikami to duże zagrożenie. Bez wiedzy o tym, kto i kiedy uzyskuje dostęp do systemu, co dzieje się z danymi dostępowymi przekazanymi zewnętrznym usługodawcom, trudno mówić o bezpieczeństwie.
Problem z hasłami
Średnia firma zwykle korzysta z kilkudziesięciu aplikacji, baz danych i systemów, które wymagają od użytkowników uwierzytelnienia. Im większe przedsiębiorstwo, tym większy problem. Wyniki badań przeprowadzonych wśród firm z listy Fortune 1000 ujawniają, że posługują się one średnio 200 bazami lub katalogami z informacjami o użytkownikach w celu kontrolowania dostępu do swoich systemów informatycznych.
Przybywa też rozwiązań bazujących na chmurze, a pracownicy są zmuszeni zapamiętywać coraz więcej haseł dostępu do aplikacji, które mogą wykorzystywać różne metody uwierzytelniania o odmiennych standardach i protokołach. Użytkownicy spędzają coraz więcej czasu na obsłudze danych uwierzytelniających, więc ich frustracja rośnie. Tym bardziej że – w przypadku niektórych aplikacji – zmiana hasła jest wymagana co 30 dni. Jak wszyscy wiemy, hasła muszą być długie i złożone – to zalecenie powtarzane jest od lat jak mantra. Powinny zawierać małe i wielkie litery, cyfry oraz znaki specjalne. Konieczność zapamiętywania coraz większej liczby skomplikowanych haseł to udręka dla użytkowników. Trudno się więc dziwić, że w badaniu firmy Cyberark prawie jedna trzecia respondentów oznajmiła, że przechowuje poświadczenia w pliku na firmowym komputerze. Kolejne 20 proc. ankietowanych przyznało się, że ma je zapisane w prywatnych notatkach.
Gdy dla pracowników obsługa haseł staje się dużym problemem, częściej zwracają się po pomoc do działu IT. Statystyki pokazują, że nawet jedna trzecia zgłoszeń do help desku może dotyczyć próśb o zresetowanie hasła. Takiemu marnowaniu cennych zasobów może zapobiec skutecznie wdrożone rozwiązanie z mechanizmem SSO (Single Sign-On), zapewniającego jednorazowe logowanie się do usługi sieciowej i uzyskanie dostępu do wszystkich autoryzowanych zasobów z nią związanych. W celu zwiększenia bezpieczeństwa uwierzytelnianie SSO powinno być wieloskładnikowe.
Dostęp uprzywilejowany
Przez wewnętrznych użytkowników najczęściej rozumie się pracowników firmy. Aby jednak skutecznie ograniczyć ryzyko niepożądanych wizyt w systemie, definicję trzeba rozszerzyć. Za użytkowników wewnętrznych powinno się uznać pracowników, zewnętrznych usługodawców, partnerów, a także dostawców, którzy mają dostęp do firmowych systemów i danych.
Wyniki ankiety przeprowadzonej wśród 400 specjalistów IT z Ameryki Północnej i Europy przez firmę Loudhouse pokazują, że średnio 59 proc. kont uprzywilejowanych w przedsiębiorstwach jest tworzonych dla zewnętrznych podmiotów (w tym partnerów/resellerów – 30 proc., zewnętrznych usługodawców – 16 proc., i niezależnych dostawców – 13 proc.). Wychodzi więc na to, że większość „użytkowników wewnętrznych” z prawami administratora to osoby mało znane administratorom IT lub w ogóle nieznane.
Nierzadko w firmie liczba kont uprzywilejowanych (czyli takich, których niewłaściwe wykorzystanie stwarza największe zagrożenie dla bezpieczeństwa) przekracza liczbę użytkowników. Dzieje się tak, ponieważ pracownicy muszą radzić sobie z wieloma dostępami, a do tego dochodzą jeszcze maszyny i aplikacje, które także muszą uzyskiwać dostęp do określonych danych i systemów. Co istotne, wobec postępującej automatyzacji wymagających uwierzytelniania interakcji typu maszyna–maszyna czy aplikacja–aplikacja będzie coraz więcej.
Ochronę zasobów i zachowanie zgodności z regulacjami ułatwią klientom rozwiązania PAM. Umożliwiają zabezpieczanie, zarządzanie i monitorowanie kont uprzywilejowanych oraz uzyskiwanego za ich pomocą dostępu.
Adam Kuligowski, wiceprezes zarządu w Sidio, zauważa, że klienci decydujący się na zakup rozwiązania do zarządzania dostępem uprzywilejowanym wybierają je przede wszystkim ze względu na szeroko pojęte zarządzanie sesjami administracyjnymi.
– Chcą kontrolować, kto i do czego ma mieć dostęp oraz w jakim zakresie, nagrywać sesje administracyjne na wideo i otrzymywać ich transkrypcje – tłumaczy integrator.
Marta Zborowska, Sales Director w Connect Distribution, także zwraca uwagę na możliwość kontroli przez nagrywanie sesji administracyjnych. Celem jest audyt w przypadku jakichś nieprawidłowości w działaniu administratorów i wyeliminowanie nieuzasadnionych podejrzeń. Jej zdaniem bardzo często zarządzanie dostępem do kont uprzywilejowanych jest też kojarzone z administrowaniem hasłami.
– Najbardziej świadomi klienci szukają rozwiązań kompleksowych, obejmujących całokształt kontroli dostępu na każdym poziomie: od stacji końcowych przez wszelkie urządzenia infrastruktury podlegające zarządzaniu aż po serwery i działające na nich aplikacje – mówi specjalistka warszawskiego VAD-a.
Zgodność z regulacjami
Kłopoty związane z compliance & governance należą do najważniejszych powodów wdrażania rozwiązań IAM/PAM. W ostatnim czasie najwięcej mówiło się o konsekwencjach wprowadzenia unijnego rozporządzenia RODO, ale nie mniej ważne okazują się regulacje branżowe.
W obliczu kar za niezastosowanie się do przepisów przedsiębiorstwa muszą starać się ograniczyć ryzyko związane z nieuprawnionym dostępem do informacji. Polega to m.in. na modyfikowaniu reguł polityki bezpieczeństwa dotyczących zarządzania i ochrony danych. Odpowiednie narzędzia znakomicie ułatwiają obsługę takich zadań, jak określanie praw dostępu dla użytkowników uprzywilejowanych czy śledzenie oraz dokumentowanie, kto i kiedy miał dostęp do konkretnych zasobów informacji. W rezultacie przyczyniają się do zachowania zgodności z regulacjami i sprawiają, że proces audytu może przebiegać bezproblemowo.
Z drugiej strony działanie rozwiązań IAM/PAM będzie na tyle skuteczne, na ile skuteczne będzie zaimplementowana polityka bezpieczeństwa w kontekście dostępu i zarządzania tożsamościami. Te produkty w praktyce mają odzwierciedlać reguły stworzone wcześniej „na papierze”. Tym samym bezpośrednio odnoszą się do sfery „compliance”. Dostawcy twierdzą, że jest to tak ewidentne, że nawet nie trzeba klientom tego tłumaczyć.
– Podczas prezentacji rozwiązania PAM staram się nie odwoływać bezpośrednio do RODO. Wiem, że odbiorcy sami zauważą, jak bardzo tego rodzaju narzędzia wpisują się w kontekst zachowania zgodności z tymi i innymi przepisami związanymi z „compliance” – mówi Paweł Rybczyk, Business Developer CEE & Russia w firmie Wallix.
Paweł Rybczyk
Business Developer CEE & Russia, Wallix
To dobry czas dla rozwiązań takich jak PAM. Po pierwsze dlatego, że na rynku nie brakuje problemów z zatrudnieniem specjalistów IT, które będą jeszcze narastać. W rezultacie organizacje muszą sięgać po zewnętrznych usługodawców, których trzeba kontrolować i rozliczać. Drugim powodem wzrostu zainteresowania rozwiązaniem PAM są różnego rodzaju normy i wytyczne – ogólne albo specyficzne dla wybranej grupy klientów czy sektora rynku. Wszystkie regulacje, w kontekście PAM, zazwyczaj odnoszą się do kontroli dostępu do danych oraz zarządzania kontami uprzywilejowanymi. Po trzecie coraz więcej mówi się o automatyzacji w IT. Podczas wymiany informacji między elementami zautomatyzowanej infrastruktury często dochodzi do wymiany poświadczeń i autoryzacji czynności, więc także w tym wypadku zapewnienie bezpiecznego dostępu jest krytyczne dla bezpieczeństwa całego systemu IT.
Kontrola dostępu: całościowe podejście
Klienci mają kłopoty ze znalezieniem specjalistów IT. Na rynku brakuje ludzi z odpowiednimi kompetencjami, a zatrudnianie ich coraz więcej kosztuje. Powinno to napędzać sprzedaż rozwiązań takich jak IAM/PAM, automatyzujących wiele zadań, które musiałyby być wykonywane ręcznie przez pracowników działu IT. Narzędzia te umożliwiają też kontrolę nad zewnętrznymi usługodawcami, których trzeba wynajmować, gdy brakuje własnego personelu.
Braki w zatrudnieniu są tak duże, że nierzadko w przedsiębiorstwach po prostu nie ma kto zająć się obsługą narzędzi do zarządzania dostępem. W rezultacie otwiera to integratorom pole do działania w modelu IAM/PAM as a Service. Są produkty zapewniające świadczenie takich usług, a dostawcy przyznają, że klienci pytają o możliwość zakupu rozwiązania opłacanego w abonamencie i zarządzanego przez jakiś zewnętrzny podmiot. Na pytaniach się jednak zwykle kończy, bo kiedy dochodzi do testów, zwykle wybierają oni wersję on-premise. Z jednej strony może to świadczyć o tym, że czas robienia biznesu z wykorzystaniem chmury jeszcze u nas nie nadszedł, a z drugiej wskazywać, że IAM/PAM jako narzędzia z newralgicznego obszaru mogą się w modelu usługowym trudniej sprzedawać.
– W przypadku PAM as a Service mogą się pojawić problemy natury „politycznej”. Sytuacja, gdy jeden integrator, zarządzający usługą, ma kontrolować działania drugiego integratora, wynajętego przez klienta do innych prac, jest potencjalnie konfliktowa – zauważa Paweł Rybczyk.
Integrator oferujący rozwiązania typu IAM/PAM musi nie tylko posiadać dużą wiedzę o dostępnych narzędziach, ale także wykazać się głęboką znajomością środowiska klienta oraz zachodzących tam procesów. Dbając o ochronę dostępu, nie może zapomnieć o innych aspektach bezpieczeństwa oraz o konieczności integracji wdrażanych narzędzi z istniejącymi systemami.
– Dlatego przy wyborze rozwiązania do zarządzania dostępem powinien kierować się nie tylko kryterium ceny, ale przede wszystkim funkcjonalnością, możliwością integracji z innymi systemami bezpieczeństwa i elastycznością konfiguracji w zależności od potrzeb klienta – twierdzi Marta Zborowska.
Ten wybór jest rownież – jak zawsze w przypadku rozwiązań z zakresu bezpieczeństwa – wynikiem pewnego kompromisu. Integratorzy wdrażający narzędzia do zarządzania tożsamościami i dostępem do firmowych zasobów oraz działy IT klientów muszą znaleźć równowagę pomiędzy zaawansowaniem mechanizmów bezpieczeństwa a uproszczeniem procedur dostępu. Klient tylko wtedy uzyska duży zwrot z inwestycji, gdy zapewni mu się ochronę, która z jednej strony skutecznie zabezpieczy przed materialnymi i niematerialnymi stratami wynikającymi z naruszeń bezpieczeństwa, a z drugiej będzie miała pozytywny wpływ na produktywność pracowników.
Artykuł Zarobić na dostępie pochodzi z serwisu CRN.
]]>