Artykuł Cyberwojna z usługami w tle pochodzi z serwisu CRN.
]]>Ciekawie prezentuje się lista ofiar zmuszonych do opłacenia horrendalnych haraczy za odszyfrowanie danych. Na jej szczycie znajduje się agencja turystyczna CWT Global, która zapłaciła napastnikom 4,5 mln dol., zaś kolejne rekordowe okupy uiściły sieć rurociągów naftowych Colonial Pipeline (4,4 mln dol.) oraz dystrybutor surowców chemicznych Brenntag (4,4 mln dol.).
Jedną z powszechnie stosowanych metod dystrybucji złośliwego oprogramowania jest model usługowy RaaS (Ransomware as a Service). Tym samym leży ono w zasięgu organizacji przestępczych z całego świata. Hakerzy nie muszą opracowywać własnych złośliwych programów, bowiem korzystają z gotowców dostarczanych przez gangi ransomware. Tacy operatorzy jak DoppelPaymer, Egregor, Mailto (Net-Walker), REvil/Sodinokibi czy Ryuk, pobierają prowizje w wysokości 20–30 proc. zysku pochodzącego z okupu.
Czy w związku z tym przedsiębiorstwa oraz inne organizacje powinny pójść w podobnym kierunku i postawić na model usługowy? W zasadzie to się już dzieje, co potwierdzają dane Gartnera. Wynika z nich, że ogólne globalne wydatki na cyberbezpieczeństwo wyniosą w tym roku 150,4 mld dol., z czego 48 proc. przypadnie właśnie na usługi.
Usługi lekarstwem na braki personalne
Według konsorcjum Cybersecurity and IT Security Certifications and Training (ISC)², na całym świecie pracuje około 2,8 mln specjalistów od cyberbezpieczeństwa. Niestety, jest to o 1,2 mln za mało, aby podjąć w miarę wyrównaną walkę z cyberprzestępcami. Problem ten dotyka szczególnie małe i średnie firmy, które coraz rzadziej stać na zatrudnienie odpowiedniej klasy fachowców. Z badania przeprowadzonego przez Datto wynika, że niemal 70 proc. dostawców zarządzanych usług bezpieczeństwa (MSSP) postrzega ransomware jako najpoważniejsze cyberzagrożenie czyhające na MŚP. Ale tylko 30 proc. małych i średnich firm wyraża duże zaniepokojenie działaniami gangów ransomware.
Sytuacji nie ułatwia zróżnicowanie narzędzi ochronnych, z których korzystają przedsiębiorcy. Zarządzanie flotą urządzeń oraz zainstalowanym na nich oprogramowaniem (i prowadzenie jego aktualizacji) często przerasta możliwości finansowe oraz kadrowe mniejszych firm. Poza tym, systemy bezpieczeństwa IT stają się coraz bardziej złożone, w związku z czym ich obsługa wymaga specjalistycznej wiedzy. Klasyczny przykład stanowi tutaj EDR (Endpoint Detection and Response). Oprogramowanie monitoruje urządzenia końcowe i reaguje na podejrzane działania, przez co minimalizuje ryzyko cyberataku. Jednak, aby analizować informacje pozwalające wykrywać potencjalne zagrożenia, trzeba dysponować specjalistami.
Braki kadrowe nie są wyłącznie bolączką mniejszych przedsiębiorstw. Eksperci zwracają uwagę na częste roszady personalne w działach IT instytucji państwowych. Czasami jest to utrudnienie dla integratorów, zwłaszcza kiedy zespół informatyczny obsługuje zaawansowane narzędzia, takie jak SIEM. Odejście specjalistów, nawet gdy zastąpią ich nowi pracownicy, prowadzi do tego, że zbudowanie kwalifikacji u takiego klienta może być sporym wyzwaniem. Czasami duże koncerny realizują we własnym zakresie duże projekty związane z cyberbezpieczeństwem, a do takich należy otwarcie własnego ośrodka SOC (Security Operations Center). Niekiedy wydatki na ten cel potrafią pochłaniać ponad 30 proc. budżetu na cyberbezpieczeństwo. To zbyt dużo, aby zaaprobować takie rozwiązanie, dlatego też menedżerowie decydują się na wsparcie ze strony zewnętrznego dostawcy.
Kilka opcji usługowych
Wielu specjalistów ds. cyberbezpieczeństwa twierdzi, że przyszłość należy do modelu MSSP (Managed Security ServiceProvider). Nie jest to nowa forma sprzedaży, bowiem jej początki sięgają końca lat 90. W owym czasie usługodawcy oferowali w tym modelu firewalle. W obecnych czasach pod pojęciem MSSP kryją się kompletne rozwiązania ochronne. Podstawowym zadaniem MSSP jest monitorowanie bezpieczeństwa i reagowanie na incydenty w sieciach korporacyjnych i urządzeniach końcowych.
Wraz z rozwojem sieci i ewolucją technik telekomunikacyjnych pojawia się wsparcie dla innych platform, takich jak infrastruktura bazująca na chmurze. Według MarketsandMarkets, globalne wydatki na zarządzane usługi bezpieczeństwa wyniosły w ubiegłym roku 31 mld dol. Analitycy przewidują, że w najbliższych latach będą one rosły w tempie 8 proc. rocznie, a w 2025 r. przekroczą 46 mld dol. Warto zwrócić przy tym uwagę na fakt, że ciekawe perspektywy rysują się przed rynkiem MDR (Managed Detection and Response), czyli de facto EDR oferowanym w modelu usługowym.
– Klienci rozumieją, że wdrożenie EDR może podnieść poziom bezpieczeństwa ich infrastruktury, ale zadają sobie pytanie, kto będzie tym zarządzał – mówi Paweł Jurek, wicedyrektor ds. rozwoju w Dagmie. – Dlatego warto mieć kompletną ofertę: rozwiązanie EDR wraz z zarządzaniem incydentami. Szukamy partnerów, którzy chcą zaangażować się w świadczenie tego rodzaju usług na bazie oferowanych przez nas rozwiązań.
MDR zapewnia firmom 24-godzinne usługi w zakresie cyberochrony. Usługodawca w tym przypadku czuwa nad urządzeniami końcowymi, a także zajmuje się analityką bezpieczeństwa i ekspertyzami. Niektórzy producenci próbują pójść nieco szerzej i połączyć w ramach jednego pakietu usług system antywirusowy, ochronę poczty elektronicznej, synchronizację i współużytkowanie plików, backup oraz odzyskiwanie danych. Prekursorem tego trendu jest Acronis i zdaniem Artura Cyganka, dyrektora tej firmy na region Europy Wschodniej, walorem łączenia wielu elementów z zakresu cyberbezpieczeństwa i ochrony danych jest możliwość stworzenia unikalnej na rynku oferty.
– Nasz partner nie musi wyszczególniać cen pojedynczych usług, lecz tworzy na ich bazie paczkę. Takie rozwiązanie pozwala utrzymać klientów. Konkurenci nie potrafią ocenić i zrozumieć wyceny zestawu, tym samym ciężko im na tym polu rywalizować z nami – tłumaczy Artur Cyganek.
Z kolei IBM, wspólnie z Ingram Micro, zachęca integratorów do zaangażowania się w sprzedaż usług bezpieczeństwa w ramach modelu ESA. To umowa, która umożliwia korzystanie z rozwiązań IBM bazujących na otwartych standardach. Integrator tworzący usługę dostarcza ją klientom pod własną marką i na własnych warunkach.
– Jednym z przykładów jest wykorzystanie standardowego systemu SIEM. Wiele firm nie dysponuje specjalistami do jego obsługi, więc świadczenie usług na bazie tego produktu stanowi interesującą opcję dla integratorów – podkreśla Grzegorz Ligier, Embedded Solutions Leader Central and Eastern Europe w IBM-ie.
Zdaniem integratora
W ostatnim czasie firmy przeznaczają znaczne środki finansowe na audyty bezpieczeństwa, takie jak testy penetracyjne czy socjotechniczne. Obecnie jest to najbardziej dynamicznie rozwijająca się gałąź usług z zakresu ochrony IT. Zauważamy też, że duże korporacje inwestują obecnie w usługi zewnętrznych dostawców SOC. Ciekawe perspektywy rysują się przed integratorami dysponującymi odpowiednim personelem. Największe pole do działania otwiera się w segmencie ochrony poczty elektronicznej oraz w takich obszarach jak stały monitoring czy wykrywanie nieprawidłowości w sieci.
Do rozwoju i popularyzacji usług cyberbezpieczeństwa na naszym rynku potrzebna jest większa świadomość firm w kontekście występujących zagrożeń. Rośnie popularność chmury obliczeniowej czy IoT, ale z drugiej strony brakuje odpowiednich zabezpieczeń i wykwalifikowanych specjalistów. Niejednokrotnie bywa, że niektóre zagrożenia są po prostu bagatelizowane. Usługodawcy powinni postawić na edukację klientów, zapewnić profesjonalne doradztwo, przygotować strategię bezpieczeństwa IT oraz odpowiednie procedury, a może nawet outsourcować specjalistów.
Wirtualne sieci prywatne czy zero zaufania?
Wirtualne sieci prywatne istnieją już od dłuższego czasu, ale ich popularność nabrała rozpędu w ciągu ostatnich kilkunastu miesięcy. Obecnie szacuje się, że co czwarty użytkownik internetu korzysta z VPN-a. Jeszcze do niedawna uważało się, że to rozwiązanie przeznaczone dla firm bądź internautów mających niecne zamiary, jednak coraz więcej osób zaczyna po prostu dbać o swoją prywatność. VPN stanowi przeszkodę dla napastników, gdyż chroni wszystkie dane przesyłane z urządzeń, co uniemożliwia podsłuchiwanie sieci lub przeprowadzanie ataków typu man-in-the-middle.
Dostawcy usług dysponują rozwiązaniami VPN dla użytkowników indywidualnych i biznesowych. Te drugie kierowane są przede wszystkim do mniejszych firm, o ograniczonych środkach finansowych na zarządzanie bezpieczeństwem. Tym, co różni biznesowe sieci VPN od konsumenckich, jest zabezpieczenie całej firmy, a nie pojedynczego urządzenia, a także dodatkowa ochrona przed inwigilacją i włamaniami. Oznacza to w praktyce, że pracownicy korzystają z jednego uniwersalnego konta, nad którym pełną kontrolę sprawuje opiekun.
Wprawdzie oferta w zakresie usług VPN jest bardzo szeroka, rodzime firmy wykazują nimi umiarkowane zainteresowanie. Karol Labe, właściciel Miecz Netu, przyznaje, że klienci nie kwapią się do inwestowania w tego typu usługi, a ich sprzedaż raczkuje. Najczęściej wynika to z faktu, że przedsiębiorcy wykorzystują do tego celu swoje zasoby sprzętowe. Podobne spostrzeżenia ma Paweł Jurek. Jak dotąd Dagma dostarczała sprzęt zapewniający funkcję VPN, co pokrywało całkowicie potrzeby użytkowników. Od niedawna jednak oferta firmy wzbogaciła się o systemy dostępne w modelu MSSP.
– Tworzymy dla partnerów również rozwiązania VPN rozliczane w abonamencie miesięcznym. Jeszcze nie wiemy, jak przyjmą to partnerzy oferujący usługi. Na pewno będziemy w stanie więcej powiedzieć na ten temat za kilka miesięcy, kiedy nasza nowa oferta bardziej się upowszechni – tłumaczy Paweł Jurek.
W gronie ekspertów oraz analityków nie brakuje opinii, iż VPN w niektórych przypadkach staje się rozwiązaniem archaicznym. Rob Smith z Gartnera twierdzi, że większość firm zamiast wybierać VPN powinno pomyśleć o zarządzaniu dostępem zgodnie z zasadą „zero trust”. Choć jednocześnie dostrzega obszary, w których zastosowanie wirtualnych sieci prywatnych wciąż znajduje uzasadnienie. Zdaniem Smitha, są to instytucje samorządowe czy banki, a więc podmioty bazujące na własnych centrach danych.
Grzegorz Nocoń, inżynier systemowy w firmie Sophos, zauważa wśród klientów wzrost zainteresowania mechanizmami SD-WAN. Ich użycie pozwala określić ważne parametry dotyczące pracy sieci, takie jak opóźnienie czy liczbę utraconych pakietów oraz uzyskać pełną skalowalność w zakresie udostępniania lokalnych zasobów zdalnym użytkownikom. Natomiast stosowane rozwiązania, bazujące na tunelowaniu VPN, nie dają możliwości powiązania konkretnego użytkownika z aplikacją, a tym samym weryfikacji stanu bezpieczeństwa urządzenia.
Backup w chmurach
Backup jako usługa stanowi od pewnego czasu alternatywę dla tradycyjnych metod. Polega na tworzeniu kopii zapasowych plików, folderów lub dysków twardych w zabezpieczonych zasobach chmury publicznej. Dzięki możliwości odzyskania danych ze zdalnego repozytorium takie rozwiązanie pomaga chronić dane przed skutkami cyberataków oraz zaszyfrowania za pomocą oprogramowania ransomware, a także klęsk żywiołowych oraz błędów użytkowników.
Rynek BaaS (Backup as a Service) i ekosystem dostawców jest bardzo szeroki. Obejmuje dostawców chmury, takich jak AWS, Google i Microsoft. Są też gracze, którzy rozpoczynali swoją przygodę z rynkiem od chmury publicznej – Clumio czy Druva. Bardzo silną stawkę tworzą producenci od lat działający w segmencie tradycyjnych systemów do tworzenia kopii zapasowych – Commvault, Dell EMC, HPE, NetApp, Veeam czy Veritas.
Agencja badawcza Technavio prognozuje, że rynek BaaS będzie rosnąć w latach 2021–2025 w tempie 32 proc. rocznie i osiągnie w tym czasie wartość 14,29 mld dol. Jednym z motorów napędowych tego trendu ma być oprogramowanie Software as a Service, z Microsoft 365 oraz Salesforce’em na czele. Dzieje się tak z dwóch powodów – usługi te i inne, podobne, generują ogromną ilość danych, zaś ich dostawcy w większości przypadków nie biorą odpowiedzialności za ich utratę.
Kolejnym czynnikiem sprzyjającym wzrostowi popularności backupu w chmurze są nowe aplikacje i napływ zdalnych pracowników. Przedsiębiorstwa muszą wzmocnić ochronę danych, nie tylko ze względu na szalejący ransomware, ale również wymagania dotyczące zgodności. BaaS powinien sprostać tym potrzebom.
– W dobie popularyzacji chmury obliczeniowej zupełnie naturalnym krokiem jest replikacja kopii zapasowych do chmury w postaci BaaS – mówi Rafał Hryniewski, Team Leader w Billennium. – Kluczowe dla popularyzacji tego typu rozwiązań jest zaprezentowanie zarządom przedsiębiorstw korzyści wynikających z takiego modelu. Podobnie jak w przypadku typowych usług chmurowych, najbardziej przekonujące są niższe koszty, bowiem nie trzeba inwestować we własną infrastrukturę IT oraz oprogramowanie.
Dostawcy systemów BaaS liczą też na rozbudowę regionów Google Cloud i Microsoft Azure w Polsce. Przemysław Mazurkiewicz, EMEA CEE Sales Engineering Director w firmie Commvault wyraża nadzieję, że nowa oferta światowych gigantów zachęci do korzystania z usług backupu w chmurze klientów z branży bankowej i rynku publicznego.
Zdaniem specjalisty
To klienci, poprzez swoje decyzje, wpłyną na obraz rynku i proporcje pomiędzy usługowym modelem bezpieczeństwa, a tradycyjną sprzedażą rozwiązań. Na pewno jest to duża zagadka, dlatego chcemy mieć ofertę konkurencyjną zarówno dla integratorów skupiających się na oferowaniu rozwiązań, jak i dla partnerów stawiających bardziej na usługi. W tej chwili, jeśli chodzi o usługi, oferujemy przede wszystkim audyty bezpieczeństwa informacji, konfiguracji oprogramowania, testy penetracyjne czy też socjotechniczne. Dużym zainteresowaniem cieszą się one w takich branżach jak ochrona zdrowia czy energetyka, a także w instytucjach korzystających z infrastruktury krytycznej.
W Polsce widoczny jest znaczny wzrost zainteresowania usługami zarządzania bezpieczeństwem, zarówno wśród dostawców, jak i klientów końcowych. Duży udział w tym rynku mają lokalni gracze świadczący usługi Security Operations Center. Wybór ofert na polskim rynku rośnie, jednak przed podjęciem decyzji firmy powinny pamiętać o kilku kwestiach. Warto sprawdzać ilu klientów ma usługodawca, czy oferuje usługi dostępne w trybie 24/7 i czy uwzględnia reakcje na zagrożenie, które pojawi się na przykład w niedzielę o drugiej nad ranem. Ważny jest ponadto czas odpowiedzi, jak też czy usługa jest świadczona proaktywnie oraz jak przebiega współpraca z zespołem reagowania.
W praktyce każda firma, która generuje i przetwarza dane, poszukuje środków służących do zabezpieczania efektów tej pracy oraz ciągłości działania. Dostrzegamy jednak wyraźne różnice w podejściu przedsiębiorców do cyberbezpieczeństwa. Widoczne są tutaj dwie dominujące grupy klientów. Pierwsza „odhacza” bezpieczeństwo, poprzez kupienie oraz zainstalowanie. Druga chce i potrafi analizować potrzeby, aby z gotową listą wymagań zweryfikować bieżące zabezpieczenia. Jeśli chodzi o usługi bezpieczeństwa, największą popularnością cieszą się najbardziej zaawansowane pakiety ochronne, których nie trzeba dodatkowo wspierać rozwiązaniami firm trzecich. Z tego powodu kilka miesięcy temu wycofaliśmy z naszej oferty proste systemy antywirusowe na rzecz rozbudowanych produktów.
Artykuł Cyberwojna z usługami w tle pochodzi z serwisu CRN.
]]>Artykuł Triada Widoczności SOC: wezwanie do podejścia skoncentrowanego na sieci pochodzi z serwisu CRN.
]]>Ten kierunek myślenia podchwycił Gartner, tworząc koncept zwany Triadą Widoczności SOC, opierającą się na trzech uzupełniających się filarach. Dwa z nich to SIEM oraz wykrywanie i reagowanie na punktach końcowych (Endpoint Detection & Response – EDR). Trzeci nazwano NDR (Network Detection & Response – sieciowe wykrywanie i reagowanie), który wcześniej nazywany był po prostu analizą ruchu sieciowego. NDR dodaje perspektywę sieciową i tym samym uzupełnia Triadę Widoczności SOC.
Ideą triady jest siła wynikająca ze zróżnicowania: możliwości każdego rozwiązania niwelują słabości pozostałych dwóch. EDR jest tylko spojrzeniem na punkty końcowe, SIEM może przetwarzać różne logi (i nawet używać danych sieciowych jako źródła), a NDR zapewnia kompleksową perspektywę sieciową. Aby lepiej zrozumieć, w jaki sposób NDR pasuje do triady, rozważmy następujący przykład. Podczas podróży służbowej laptop pracownika został zainfekowany przez ransomware. Po powrocie i podłączeniu do sieci firmowej ransomware poszukuje podatnych urządzeń. W końcu atakujący odkrywają podatność i udaje im się niezauważenie zdobyć dane dostępowe. Dzięki nim uzyskują dostęp do wrażliwych danych prywatnych, które mogą zaszyfrować lub wykraść dzieląc je na mniejsze części i wysyłając w niewinnie wyglądającej komunikacji ICMP. Teraz EDR i SIEM powinny wykryć takie działania, jednak nie zawsze tak się dzieje i dlatego ciągle pojawiają się informacje o nowych atakach ransomware.
W takich przypadkach sprawdza się podejście zorientowane na monitorowanie sieci. Na każdym etapie ataku, przeciwnik zostawia ślady w ruchu sieciowym, które są niezwykle trudne do zamaskowania. One pozwalają NDR dodać znaczący poziom rzetelności do triady. Mimo że w żadnym wypadku nie zastępuje EDR lub SIEM, NDR jest kluczowym składnikiem w warstwowym systemie bezpieczeństwa, który jest potrzebny, by walczyć ze współczesnymi zagrożeniami.
Rozwiązanie do wykrywania anomalii w ruchu sieciowym – Flowmon ADS – analizuje go z wielu perspektyw, aby zapobiec wszystkim aspektom nowoczesnych i dynamicznie zmieniających się cyberzagrożeń. Silnik ADS wykorzystuje połączenie metod uczenia maszynowego, heurystycznego, statystycznego, związanego z politykami i opartego na sygnaturach. Dzięki Flowmon ADS firma może uzupełnić tradycyjne narzędzia bezpieczeństwa i stworzyć wielowarstwowy system ochronny, zdolny do wykrycia zagrożeń na każdym etapie naruszenia bezpieczeństwa, włączając w to złośliwe zachowania, ataki na aplikacje krytyczne, naruszenie danych i całe spektrum innych wskaźników. Flowmon ADS pomaga działom cyberbezpieczeństwa zredukować ilość nakładów pracy bez kompromisu w zakresie kontroli.
Zachęcamy do pobrania bezpłatnej, w pełni funkcjonalnej wersji próbnej na trzy miesiące.
Dodatkowe informacje: Jeżeli jesteś zainteresowany produktami Flowmon lub udziałem w Programie Partnerskim Flowmon napisz do naszego zespołu w Polsce: poland@flowmon.com.
Artykuł Triada Widoczności SOC: wezwanie do podejścia skoncentrowanego na sieci pochodzi z serwisu CRN.
]]>Artykuł Ivanti: profesjonalne zarządzanie infrastrukturą IT pochodzi z serwisu CRN.
]]>Proces ujednolicania infrastruktury IT należy zacząć od inwentaryzacji zasobów klienta i analizy stanu posiadania. W tym zadaniu pomocne będzie narzędzie Ivanti Xtraction, które umożliwia automatyczną wizualizację zebranych informacji w przejrzysty sposób, co przyspiesza podejmowa-nie decyzji.
Następnie integratorzy mogą wspomóc klientów w tworzeniu procedur zapewniających sprawne zarządzanie systemami operacyjnymi, aplikacjami i profilami użytkowników w firmowych środowiskach IT.Do tego celu warto wykorzystać rozwiązanie typu UEM do zunifikowanego zarządzania urządzeniami końcowymi (komputerami stacjonarnymi, laptopami, tabletami i smartfonami), które łączy w sobie funkcjonalność kilku innych pakietów oprogramowania, w tym do zarządzania urządzeniami mobilnymi (Enterprise Mobility Management, EMM) oraz środowiskiem pracy użytkowników. Immanentną cechą tego typu narzędzi jest zastosowanie inteligentnego mechanizmu, który pozwala pracownikom firmy wykonywać wiele działań samodzielnie, m.in. zmieniać hasła, wnioskować o uprawnienia dostępu, jak też instalować oprogramowanie. Rozwiązania Ivanti świetnie nadają się do tego celu, ponieważ zapewniają zarządzanie praktycznie wszystkimi wykorzystywanymi w firmach systemami operacyjnymi, jak: Windows (zainstalowany w maszynach fizycznych i wirtualnych), macOS, Linux, Unix, iOS oraz Android. Współpracują także z urządzeniami Apple TV i Raspberry Pi.
Ivanti Unified Endpoint Manager umożliwia także łatwą migrację osobistych ustawień i plików użytkowników do systemu Windows 10 oraz automatyzuje proces jego aktualizacji, przy minimalnym obciążeniu sieci. Rozwiązanie to pomaga również w szybkim przygotowaniu dla użytkowników prekonfigurowanych urządzeń z systemem Windows, dzięki wykorzystaniu funkcji Windows Autopilot, bez konieczności korzystania z aplikacji Microsoft Intune oraz dużego zaangażowania pracowników działu IT.
Naturalnym rozszerzeniem pakietu Unified Endpoint Manager, wpływającym na poprawę bezpieczeństwa infrastruktury IT, jest narzędzie Ivanti Patch for Endpoint Manager. Dba ono o aktualizowanie systemów operacyjnych i aplikacji – w bardzo dużym stopniu automatyzuje proces wgrywania poprawek do posiadanego przez przedsiębiorstwo oprogramowania (zarówno na urządzeniach końcowych, jak i serwerach z systemami Windows, Linux, Unix, Solaris i macOS). Jego unikalną cechą jest to, że swoim działaniem obejmuje również komputery, które nie są na stałe podłączone do firmowej sieci, np. laptopy tych handlowców, którzy od czasu do czasu korzystają z korporacyjnych zasobów przez internet. Po nawiązaniu przez nich połączenia, na komputerze wymuszane jest dokonanie stosownych aktualizacji lub zmiana ustawień, zgodnie z nowymi regułami polityki bezpieczeństwa.
Około 60 proc. ataków na firmową infrastrukturę IT dotyczy urządzeń końcowych, 40 proc. zagrożonych systemów znajduje się zaś w serwerowniach i centrach danych. Ich właściwa ochrona to wyjątkowo ważny obowiązek wszystkich działów bezpieczeństwa i administratorów. Brak możliwości skorzystania ze skutecznego narzędzia do łatania i brak odpowiednich reguł polityki bezpieczeństwa, oznacza dla firmy nieuchronną katastrofę. Dlatego Ivanti posiada w swojej ofercie narzędzie Patch for Linux, Unix, Mac, które ułatwia rozwiązanie tego problemu, zapewniając zgodność z regułami polityki bezpieczeństwa odnoszącymi się do łatania tych systemów operacyjnych dla pecetów i serwerów oraz przeznaczonych dla nich tysięcy aplikacji od setek dostawców. Oprogramowanie umożliwia szybkie wykrywanie luk w firmowym środowisku IT i automatycznie instaluje profesjonalnie przetestowane poprawki.
Aktualizacji systemów IT nie można sprowadzić do podejmowanych od czasu do czasu działań. Jest to nieustannie trwający proces, który musi być zaplanowany w inteligentny sposób, objęty harmonogramem, w ramach którego wykonywane będą konkretne czynności, aby z jednej strony zminimalizować ryzyko ataku, z drugiej zaś nie paraliżować pracy firmy. Dlatego warto podkreślić, że kryteria te zostały wzięte pod uwagę przez projektantów rozwiązania Patch for Linux, Unix, Mac. Dzięki temu nieustannie aktualizowane są w nim informacje o nowych poprawkach, automatycznie prowadzona jest ocena tego, czy powinny one zostać zainstalowane oraz na ile jest to pilne. Administratorzy zaś nadal mogą sprawować nadzór nad przebiegiem ich wdrożenia tak, żeby naprawa była wykonywana bez zakłócania pracy użytkowników i infrastruktury krytycznej.
Oprogramowanie Ivanti Patch może być zintegrowane z systemami bezpieczeństwa informacji i zarządzania zdarzeniami (SIEM). Kolejną ważną zaletą tego narzędzia jest ułatwienie zapewnienia zgodności z przepisami i wewnętrznymi regulacjami w przedsiębiorstwach, głównie tymi dotyczącymi bezpieczeństwa środowisk IT (także RODO). Ułatwia ono także wymianę informacji oraz współpracę między działami IT, DevOps oraz osobami odpowiedzialnymi za całościowe bezpieczeństwo w firmie – do dyspozycji wszystkich tych zespołów są informacje ze zintegrowanych raportów podsumowujących aktualnystan ochrony poszczególnych obszarów oraz zawierających ocenę potrzeby wdrożenia kolejnych aktualizacji.
Autoryzowanymi dystrybutorami oprogramowania Ivanti w Polsce są: Alstor SDS, Prianto i Veracomp.
Trzy pytania do…
Jak ewoluują oczekiwania biznesowych użytkowników rozwiązań do zarządzania infrastrukturą IT?
Od kilku lat mamy na tym rynku do czynienia z postępującymi zmianami. Przede wszystkim klientom przestała wystarczać funkcjonalność narzędzi do zarządzania urządzeniami końcowymi typu Endpoint Manager. W efekcie coraz bardziej interesują się systemami do ujednoliconego zarządzania infrastrukturą – Unified Endpoint Manager. Oczekują także ułatwień dla administratorów IT i działu bezpieczeństwa, przede wszystkim możliwości zarządzania z jednej konsoli urządzeniami wyposażonymi w różne systemy operacyjne – Windows, Linux, Unix, macOS, Android czy iOS. Im większy jest stopień rozproszenia infrastruktury i im bardziej złożona struktura organizacyjna firmy, tym większe korzyści odnosi klient z korzystania z profesjonalnych rozwiązań typu UEM. Jest to szczególnie istotne w obecnych czasach, kiedy nastąpił potężny wzrost znaczenia pracy wykonywanej zdalnie.
Jak zatem będzie postępował dalszy rozwój narzędzi do zarządzania środowiskiem IT?
Konieczne jest w pełni zintegrowane oraz zautomatyzowane podejście, które usprawnizarządzanie procesami w firmach oraz zwiększy ilość samoobsługowych działań ze strony użytkowników. To z kolei przełoży się na znaczną oszczędność czasu po stronie działu IT. Co ważne, Ivanti ma już w ofercie takie rozwiązania. Są to pakiety określane przez nas mianem „Unified IT”, zawierające funkcje dostępne dotychczas w oddzielnych narzędziach do zarządzania tożsamością użytkowników, urządzeniami końcowymi, usługami i innymi zasobami oraz ich bezpieczeństwem.
Które z tych obszarów są kluczowe?
Przede wszystkim zarządzanie zasobami, czyli IT Asset Management. Świadomość stanu posiadania sprzętu i oprogramowania daje wiedzę, czym należy zarządzać, co zabezpieczać, jakie są cykle życia obiektów poddawanych konfiguracji itd. Tu także zderzają się dwa światy – rzeczywisty, obecny w fizycznym środowisku, z formalnym, wynikającym z dokumentów zakupowych, umów, licencji, gwarancji i tym podobnych. Do tego warto jest zarekomendować oprogramowanie Ivanti UEM, które jest systemem dokonującym „skanowania” środowiska, by zasilić danymi narzędzie ITAM oraz pomóc w automatyzacji wielu procesów.
Dodatkowe informacje: Bogdan Lontkowski, dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie, Ivanti, bogdan.lontkowski@ivanti.com
Artykuł Ivanti: profesjonalne zarządzanie infrastrukturą IT pochodzi z serwisu CRN.
]]>Artykuł Bezpieczeństwo sieci: od podstaw do sztucznej inteligencji pochodzi z serwisu CRN.
]]>W walce z cyberzagrożeniami wciąż problem stanowi zbyt późne identyfikowanie ataków. W szybkim wykrywaniu incydentów i reagowaniu na nie pomóc mają rozwiązania w rodzaju SIEM (Security Information and Event Management), zapewniające szeroki wgląd w system IT oraz funkcje monitorowania i analizy zdarzeń w czasie rzeczywistym. Problem w tym, że często wgląd ten bywa zbyt szeroki, dostarczana jest masa danych i trudno wyłowić te, które mają jakieś znaczenie. Dlatego z jednej strony rośnie rola zewnętrznych usług, a z drugiej automatyzacji – usprawniającej wykrywanie zagrożeń i bazującej na algorytmach maszynowych.
DOBRY FIREWALL TO WCIĄŻ PODSTAWA
Gdy zaobserwowano jak duże szkody wyrządził ransomware WannaCry zmieniło się podejście do bezpieczeństwa sieci. Gdy coraz częściej mają miejsce ataki dnia zerowego, w których wykorzystywane są nieujawnione wcześniej luki w zabezpieczeniach systemów i aplikacji, UTM oparty na zabezpieczeniach sygnaturowych przestaje wystarczać.
Niezmiennie podstawą ochrony sieci są wszelkiego rodzaju firewalle nowej generacji, bo oferując wiele funkcji, zastąpiły urządzenia brzegowe realizujące pojedyncze zadania. Klientom zależy zwłaszcza, by chroniły przed atakami z wykorzystaniem ruchu szyfrowanego, których jest coraz więcej. Wcześniej szyfrowana komunikacja była poza kontrolą firewalli, ale teraz standardem stało się już rozszywanie sesji SSL. Ważnym elementem nowoczesnego firewalla jest sandboxing. Klienci chcą też kontroli dostępu do sieci, uzyskiwanego za pomocą urządzeń mobilnych. Ci, którzy korzystają z usług zewnętrznych, potrzebują rozwiązania do zarządzania dostępem uprzywilejowanym. Ze swojej strony dostarczamy klientom kompleksową ochronę w formie sprzętowej lub programowej, przy czym bardzo istotna jest wartość dodana, wynikająca z naszych kompetencji. Najwięcej zarabia się bowiem na sprzedaży usług, czyli dokładaniu swojej wiedzy i doświadczenia do oferowanych produktów. Sprzedajemy swój pomysł na bezpieczeństwo, pokazując klientom, jak można sieć podzielić i skonfigurować, czy też jak kontrolować użytkowników, czyli optymalnie wykorzystać kupione narzędzia.
– Tradycyjne narzędzia nie zapobiegną już atakowi, w wyniku którego dojdzie do zaszyfrowania dysków lub innych szkód – tłumaczy Mariusz Bajgrowicz, Security Product Manager w Ingram Micro.
Podstawą aktywnej ochrony sieci pozostaje zatem UTM, ale już nie tylko z typowymi licencjami obejmującymi: antywirus, antyspam, IDS/IPS i podstawowy filtr sieciowy. Nowe platformy zapewniają detekcję i zapobieganie zaawansowanym atakom, a także działania naprawcze. W tym celu mogą wykorzystywać heurystykę i analizę zachowań, sandboxing, sieci reputacyjne, zarządzanie informacją o zagrożeniach (Threat Intelligence) i inne mechanizmy.
Rosnącą popularnością cieszy się zwłaszcza sandboxing, który jest realizowany w chmurze albo lokalnie, w ramach platformy sprzętowej. Są klienci, którzy wybierają sandboxing jako uzupełnienie posiadanych rozwiązań UTM. W ostatnich latach nastąpił znaczny spadek cen sprzętu, po części spowodowany agresywną polityką producentów, którzy chcą w ten sposób zwiększać swoje udziały rynkowe. Firmy używające kilkuletnich urządzeń często decydują się zatem na ich wymianę na zupełnie nowe, oferujące więcej funkcji, w tym właśnie „piaskownicę”.
Nawet, gdy firma już dysponuje tak wyrafinowanymi mechanizmami, jak sandboxing, administrator nie może zapominać o podstawowych regułach zapewnienia bezpieczeństwa. Dlatego bardzo ważną funkcją platformy ochronnej jest wymuszanie instalowania aktualizacji systemowych na urządzeniach końcowych, jak tylko się pojawią. Warto zwracać zatem uwagę klientów na fakt, że pozostawienie niezałatanej luki jest jak otwarcie drzwi do systemu informatycznego z zaproszeniem do ataku. Można przy tym demonstrować, jak proces dostarczania łatek jest realizowany przez poszczególnych producentów platform bezpieczeństwa sieciowego.
Krzysztof Hałgas
dyrektor Bakotechu
Działanie w modelu usługowym to dziedzina, która w ostatnim czasie najszybciej się rozwija. Gdy zatrudnienie dobrego administratora stało się problemem, decydujący się na zewnętrzną usługę klient nie musi martwić się o wykwalifikowanych specjalistów. Dzięki niej ma dostęp do fachowców o potrzebnych kompetencjach. Taki model działania sprawia także, że klient ma szersze pole manewru – może łatwo zrezygnować z niepotrzebnej już usługi lub zmienić ją na inną. Dlatego obserwujemy systematyczny wzrost znaczenia oferty usługowej. To już nie są tylko najprostsze rozwiązania, w tej formie klient może już kupić praktycznie większość narzędzi zapewniających bezpieczeństwo IT.
Sławomir Karpiński
prezes Connect Distribution
Sytuacja na rynku UTM-ów dynamicznie się zmienia. Rozwiązania i marki, które jeszcze parę lat temu były poza zasięgiem finansowym polskich klientów, dziś są dla nich dostępne. Poza ceną, na którą klienci nadal zwracają baczną uwagę, ważna jest wydajność. I to nie tylko opisana w specyfikacji urządzenia, lecz potwierdzona przez praktyczne testy. A są produkty, w których po włączeniu wszystkich funkcji ochrony wydajność spada dramatycznie. Dlatego nawet w małych projektach ważny jest etap Proof of Concept, podczas którego weryfikuje się rzeczywiste możliwości rozwiązania.
Istotnym elementem UTM powinna być także ochrona sieci bezprzewodowych. O ile LAN bywa dobrze zabezpieczony, o tyle o firmy zwykle zapominają o WiFi. Punkty dostępowe, przez które łączy się wiele osób, są bardzo często pozbawione ochrony realizowanej przez UTM, a zatem rozwiązanie, które integruje bezpieczeństwo obu rodzajów sieci, bardzo się przydaje.
SZYFROWANIE TO BROŃ OBOSIECZNA
Wzrost ilości przesyłanych zaszyfrowanych danych, które w październiku ubiegłego roku stanowiły aż połowę globalnego transferu (generowanego zarówno przez zwykłych użytkowników, jak i cyberprzestępców), postawił przed specjalistami ds. cyberbezpieczeństwa nowe wyzwania związane z monitorowaniem zagrożeń. Z jednej strony stosowane obecnie na dużą skalę szyfrowanie połączeń i danych w spoczynku wyraźnie zwiększa poziom ich bezpieczeństwa, z drugiej także cyberprzestępcy wykorzystują ruch szyfrowany, np. w celu ukrycia zapytań wysyłanych do serwerów Command and Control. W ciągu ostatniego roku eksperci Cisco zaobserwowali trzykrotny wzrost częstości wykorzystywania szyfrowanej komunikacji sieciowej w sprawdzanym ruchu związanym z plikami malware. Konieczne staje się więc użycie właściwych mechanizmów ochrony.
W efekcie niezbędnym elementem zabezpieczenia firmowych sieci są wszelkiego rodzaju bramy VPN. Rozwiązania przeciwdziałające atakom, bazujące na ruchu zaszyfrowanym, wchodzące w skład nowoczesnych platform UTM/NGFW lub oferowane jako oddzielne produkty, przeprowadzają analizę źródeł komunikacji i certyfikatów bezpieczeństwa oraz wykorzystują proxy SSL. Ten ostatni mechanizm zapobiega nawiązaniu bezpośredniej komunikacji z urządzeniem końcowym i – działając zgodnie ze schematem legalnego „man in the middle” – rozdziela jedno połączenie na dwa: ze źródłem ruchu i z chronionym użytkownikiem.
Grzegorz Krzątała
Channel Leader, Juniper Networks
W zapewnianiu bezpieczeństwa sieci ważne są trzy elementy. Po pierwsze, rozciągnięcie funkcjonalności NGFW na wszystkie elementy infrastruktury sieciowej. Już nie tylko firewall, ale i przełączniki oraz routery muszą pełnić rolę elementów, które służą do egzekwowania reguł polityki bezpieczeństwa. Po drugie, kluczowa staje się pełna automatyzacja reagowania na incydenty bezpieczeństwa. Obecnie administratorzy nie poradzą sobie sami, to sieć musi wykryć atak i podjąć właściwe działania, aby wyizolować zagrożenie i nie dopuścić do jego rozprzestrzeniania się. I wreszcie trzeci element: ochrona środowisk fizycznych oraz wirtualnych i to nie tylko we własnej infrastrukturze, ale także w zasobach chmurowych.
Czasy, gdy na zakup NGFW mogli sobie pozwolić tylko najwięksi i najbogatsi klienci, to już przeszłość. Producenci coraz częściej oferują rozwiązania, które mogą chronić zarówno małe firmy, jak i korporacje. Zapewniają, jeśli nie taki sam, to bardzo zbliżony poziom zabezpieczeń. Ceny można zatem dostosować do finansowych możliwości klienta.
– Inna jest tylko wielkość „pudełka”, skalowalność i wydajność rozwiązania. Natomiast wykorzystywane są te same silniki antywirusowe, tak samo działa obsługa SSL i sandboxing – wyjaśnia Mariusz Bajgrowicz.
KONTROLA DOSTĘPU, ZWŁASZCZA UPRZYWILEJOWANEGO
Kontrola dostępu do sieci to jeden z najistotniejszych aspektów bezpieczeństwa sieciowego. Decyduje o tym, kto ma dostęp, do jakiego zasobu i przy użyciu jakiego urządzenia. Może zapobiec łączeniu się z siecią z nieautoryzowanych urządzeń, ograniczyć dostęp do określonych plików i zasobów sieciowych, określić jakie uprawnienia powinny być przydzielone poszczególnym osobom w firmie. Uwzględnione w procesie projektowania sieci mechanizmy kontroli dostępu ułatwiają wprowadzanie zawartej w przepisach RODO zasady Privacy by Design i zapobiegają kradzieży informacji.
Obecnie stosowanie całościowych rozwiązań typu Network Access Control w przedsiębiorstwach jest utrudnione. Kontrolą dostępu muszą być bowiem objęte nie tylko zestandaryzowane korporacyjne komputery PC, ale i mnóstwo rozmaitego sprzętu mobilnego (często będącego własnością użytkowników). Do tego dochodzą urządzenia tworzące Internet rzeczy, zwirtualizowane serwery itp. W dodatku do sieci podłączają się nie są tylko pracownicy firmy, ale także usługodawcy, serwisanci, partnerzy, dostawcy lub goście. Dlatego producenci zaczęli się skupiać na określonych rodzajach dostępu, tworząc prostsze w użyciu, a dzięki temu skuteczniejsze narzędzia ochronne.
Mariusz Bajgrowicz
Security Product Manager, Ingram Micro
Rozwiązania typu UTM/NGFW są oferowane w cenach na tyle atrakcyjnych, że przedsiębiorcy często wolą kupić nowe urządzenie, niż przedłużać umowę wsparcia dla starszego sprzętu. W ten sposób, praktycznie za cenę odnowienia posiadanych licencji i wsparcia, otrzymują lepszą ochronę, lepiej przystosowaną do aktualnych, a także przyszłych zagrożeń. Nowe urządzenia są znacznie wydajniejsze i wyposażone w bogatsze funkcjonalnie oprogramowanie, zapewniające lepsze zarządzanie. Najczęściej umożliwiają też wykorzystanie wielu mechanizmów obrony przed zaawansowanymi atakami dnia zerowego, w tym sandboxing.
Dawid Królica
Area Sales Manager, Extreme Networks
Wiele przedsiębiorstw doświadczyło strat finansowych i wizerunkowych z powodu ataków wykorzystujących niezabezpieczone punkty końcowe połączone z firmową siecią. Rozwiązaniem nie może być tylko odcięcie portów albo zwiększenie fizycznej ochrony w budynku. Efektywna kontrola dostępu wymaga proaktywnego podejścia i zagwarantowania, by wszystkie urządzenia końcowe były właściwie zabezpieczone i wolne od niebezpiecznych plików, zanim zostanie im przyznany dostęp do wewnętrznych zasobów sieciowych danej firmy.
Ze względu na nowe przepisy o ochronie danych osobowych dostawcy zwracają uwagę klientów na to, jak ważne staje się zarządzanie dostępem uprzywilejowanym. Rośnie potrzeba stosowania rozwiązań Privileged Access Management, zwłaszcza wykorzystania ich podstawowych funkcji, czyli nagrywania sesji i zarządzania hasłami. Wynika to przede wszystkim z coraz powszechniejszego wykorzystania w firmach outsourcingu, który sprawia, że użytkownikom spoza firmy przydziela się dostęp do najważniejszych jej zasobów (w tym wrażliwych danych), często właśnie na poziomie uprzywilejowanym, a przy tym bardzo słabo kontrolowanym. Standardowa funkcja PAM, czyli nagrywanie sesji, po pierwsze zapewnia bezpieczeństwo (zniechęcając zarejestrowanego użytkownika do nadużyć i prowadząc dokumentację wszelkich działań potrzebną do audytu i ewentualnych dochodzeń śledczych), po drugie – umożliwia dokładne rozliczanie z wykonanej pracy.
Jednak rozwiązania PAM to dużo więcej niż nagrywanie sesji. Dzięki nim można ułatwić klientom ochronę zasobów i przestrzeganie regulacji prawnych bądź branżowych przez zabezpieczanie, zarządzanie oraz monitorowanie uprzywilejowanych kont i uzyskiwanego za ich pomocą dostępu. Taka ochrona obejmuje różne elementy systemowe i infrastrukturalne – od systemów operacyjnych, baz danych i aplikacji po urządzenia sieciowe, wirtualizatory i chmurowe aplikacje SaaS.
ZA DUŻO ALERTóW, ZA MAŁO SPECJALISTóW
Rozwiązania typu UTM/NGFW to bardzo pożyteczne, wręcz niezbędne narzędzia do ochrony sieci – pokazują, co się dzieje w systemie. Informacje są zapisywane w logach, które następnie gromadzi rozwiązanie SIEM. Ma to pomóc w szybkim wykrywaniu incydentów i reagowaniu na nie, zapewniając szczegółowy wgląd w system IT oraz funkcje monitorowania i analizy zdarzeń w czasie rzeczywistym. To kolejny element, na którym powinno bazować zabezpieczanie sieci w każdym przedsiębiorstwie, tym bardziej że platformy SIEM „trafiły pod strzechy”.
– Jeszcze kilka lat temu tego typu rozwiązania, oferowane przez zaledwie kilku dostawców, były drogie i przeznaczone wyłącznie dla bardzo dużych firm. Nawet średnie przedsiębiorstwa nie brały pod uwagę zakupu tego produktu – zauważa Krzysztof Hałgas, dyrektor Bakotechu.
Obecnie w sprzedaży znajduje się ogromna liczba narzędzi zapewniających agregowanie i korelowanie logów systemowych. A SIEM stał się podstawowym elementem ochrony sieci, szczególnie że jako rozwiązanie gromadzące informacje o tym, to co się w niej zdarzyło, zyskuje na znaczeniu w kontekście RODO.
Administratorzy muszą się obecnie mierzyć z wielką masą informacji generowanych przez platformy UTM/NGFW/IDS/IPS, agregowanych i korelowanych przez rozwiązania typu SIEM. Problemem jest jednak trudna do prześledzenia liczba ujawnianych zdarzeń, z których zdecydowana większość jest odchyleniem od normy, ale w rzeczywistości nie ma związku z żadnym atakiem. Przykładowo, skanowanie portów serwera może być wstępem do ataku, ale najczęściej nie jest.
Paweł Rybczyk
Business Developer CEE&Russia, Wallix
W obszarze bezpieczeństwa sieci mamy dwie warstwy kontroli. Pierwsza obejmuje przepływ danych przez sieć, który w ramach ochrony jest analizowany przez rozmaite narzędzia pod kątem incydentów. Druga to zarządzanie dostępem w odniesieniu nie tylko do punktów końcowych – baz danych, serwerów, urządzeń użytkowników – ale także elementów tworzących firmową sieć, przełączników, routerów oraz firewalli. W drugim przypadku bardzo ważne jest zarządzanie kontami uprzywilejowanymi oraz kontrola zautomatyzowanej komunikacji między urządzeniami a aplikacjami.
– Jeśli administratorzy mają pod opieką środowisko złożone z wielu setek czy tysięcy urządzeń, z których SIEM agreguje logi i wysyła alerty o każdym podejrzanym zdarzeniu, w krótkim czasie przestają w ogóle reagować na te ostrzeżenia – twierdzi Paweł Rybczyk, Business Developer CEE&Russia w firmie Wallix.
W dodatku na rynku brakuje specjalistów ds. bezpieczeństwa, którzy mogliby logi sprawdzać i interpretować. To szansa dla integratorów, którzy w charakterze dostawców zewnętrznych usług zarządzanych mogą rozbudować ofertę dla klientów o Security Operations Center as a Service. Oczywiście musi być to usługa z prawdziwego zdarzenia, bo oferowanie klientowi sprawdzania logów raz na tydzień mija się z celem.
AUTOMATYZACJA, A NAWET SZTUCZNA INTELIGENCJA
Równolegle do rozwoju usług zewnętrznych będzie rosło znaczenie rozwiązań, które – wykorzystując sztuczną inteligencję oraz uczenie maszynowe – mogą automatycznie analizować ruch sieciowy. Mechanizm ich działania polega na uczeniu się wzorców w działającej sieci i na tej podstawie identyfikowaniu odchyleń od normy. Obserwujemy obecnie pierwsze zastosowania sztucznej inteligencji w zakresie bezpieczeństwa sieciowego.
– Celem jest użycie algorytmów zamiast sygnatur w analizie ruchu sieciowego po to, by liczba alertów zmniejszyła się z tysięcy do kilku tygodniowo, za to rzeczywiście istotnych dla bezpieczeństwa – wyjaśnia Paweł Rybczyk.
Według autorów raportu Cisco 2018 Annual Cybersecurity Report wdrażanie rozwiązań z zakresu uczenia maszynowego zwiększy bezpieczeństwo sieci, ponieważ w dalszej perspektywie mogą one „nauczyć się” wykrywać wzorce w szyfrowanych połączeniach, chmurze oraz środowisku Internetu rzeczy. Część z 3,6 tys. profesjonalistów, którzy wzięli udział w ankiecie Cisco, przyznaje, że chętnie uzupełniłoby portfolio posiadanych narzędzi o rozwiązania z zakresu uczenia maszynowego oraz sztucznej inteligencji, ale zniechęca ich duża liczba błędnych alertów (false positives) generowanych przez te systemy. Dalszy rozwój wspomnianych, wciąż nowatorskich, technik zapewne znacząco zwiększy liczbę prawidłowych wskazań w monitorowanym środowisku sieciowym.
Nic nie zastąpi własnych testów
W wyborze platform bezpieczeństwa sieciowego klienci mogą zwracać uwagę na wyniki testów przeprowadzanych przez niezależne organizacje. Przykładowo, pokazują one jak spada wydajność wielofunkcyjnego firewalla po włączeniu kolejnych mechanizmów ochrony. Dostawcy i ich partnerzy twierdzą, że w sprzedaży tego typu urządzeń (i wszelkich rozwiązań ochrony sieciowej) wyraźnie pomaga pozycja zajmowana przez producenta w magicznym kwadrancie Gartnera. W ocenie producentów ważne są też raporty przedstawiające ich zaangażowanie w wykrywanie dotychczasowych zagrożeń oraz przygotowanie do przyszłych zadań.
Skuteczniej niż zewnętrzne testy i raporty przekona jednak potencjalnego nabywcę okazja sprawdzenia możliwości systemów UTM/NGF w środowisku funkcjonującym w jego firmie. Warto zatem przedsiębiorstwu poszukującemu nowego rozwiązania zapewnić do testów kilka rozwiązań z tej samej półki cenowej i ułatwić porównanie ich możliwości. Wpięcie urządzenia do sieci i uzyskanie po dwóch tygodniach jego używania raportów mówiących, ile jest luk w systemie, ile szkodliwego oprogramowania przepuściły obecnie wykorzystywane zabezpieczenia, a także sprawdzenie, jak przyjazny i funkcjonalny jest interfejs zarządzania, to najlepszy sposób na dobranie właściwej dla danego środowiska platformy UTM.
Artykuł Bezpieczeństwo sieci: od podstaw do sztucznej inteligencji pochodzi z serwisu CRN.
]]>Artykuł SIEM: teraz też dla małych i średnich firm pochodzi z serwisu CRN.
]]>Rozporządzenie MSWiA z 29 kwietnia 2004 r. mówi, że wysoki poziom ochrony obowiązuje, gdy przynajmniej jedno urządzenie systemu IT, służącego do przetwarzania danych osobowych, jest połączone z siecią publiczną. Warto tu przypomnieć odpowiedź GIODO na zapytanie dotyczące narzędzi zapewniających adekwatny wobec ustawy poziom ochrony. Wynika z niej, że przedsiębiorca powinien zabezpieczyć punkt styku przed zagrożeniami pochodzącymi z sieci publicznej, a jednym z wymienianych sposobów jest zastosowanie urządzeń klasy UTM. Odpowiednią ochronę zapewnia seria rozwiązań zabezpieczających FortiGate firmy Fortinet.
20 lat temu na rynku pojawiły się pierwsze platformy kategorii Security Information and Event Management, początkowo przeznaczone dla wielkich i dużych przedsiębiorstw w celu zredukowania liczby fałszywych alarmów generowanych przez ówczesne systemy wykrywania włamań (IDS). Zmieniające się trendy rynkowe i zwiększenie liczby ataków na firmy przyczyniły się do rozwoju tych rozwiązań, które dziś mają o wiele więcej zastosowań i łatwiej integrują się z infrastrukturą IT.
Obecnie zadaniem SIEM jest przede wszystkim gromadzenie informacji o zdarzeniach, ich agregacja, uporządkowanie i przechowywanie w formie dziennika, analiza informacji, a także prezentacja wniosków zgrupowanych w raportach. Służą do zapewniana ochrony danych i infrastruktury sieciowej oraz zgodności zasad dostępu do danych z przepisami.
– Te niegdyś drogie rozwiązania w dzisiejszych realiach rynkowych są zdecydowanie w zasięgu małych i średnich przedsiębiorstw – podkreśla Artur Madejski, Product Manager Fortinet w Veracompie. – Ich zastosowanie zwiększa efektywność i skuteczność wykrywania zagrożeń.
System klasy SIEM może wpłynąć na skrócenie czasu wykrycia ataku oraz ułatwia podjęcie działań w celu uniknięcia lub ograniczenia jego konsekwencji. Zapewnia także monitorowanie infrastruktury serwerowej i sieciowej, co ułatwia wczesne wykrywanie awarii. Niektóre tego typu rozwiązania, np. FortiSIEM, wykrywają tzw. wskaźniki kompromitacji (Indicators of Compromise) i na tej podstawie tworzą raporty pozwalające na ocenę skuteczności systemów bezpieczeństwa.
Zaawansowane platformy SIEM mają wiele funkcji. Analizują działania użytkowników oraz funkcjonowanie systemów operacyjnych, aplikacji, środowisk wirtualnych, pamięci masowych, baz danych, komunikacji VoIP, rozwiązań uwierzytelniających – wszystko w celu wykrycia anomalii i zablokowania lub odparcia ataku.
Prawidłowo wdrożone platformy SIEM spełnią oczekiwania wymagających administratorów systemów informatycznych, a w kontekście raportowania oraz testowania także oczekiwania Administratora Bezpieczeństwa Informacji, na którym ciąży ustawowy obowiązek zapewnienia adekwatnych środków technicznych i organizacyjnych gwarantujących ochronę przetwarzanych danych osobowych.
Dodatkowe informacje: Artur Madejski, Product Manager Fortinet, Veracomp,
Artykuł powstał we współpracy z firmami Fortinet i Veracomp.
Artykuł SIEM: teraz też dla małych i średnich firm pochodzi z serwisu CRN.
]]>Artykuł Bakotech wyłącznym dystrybutorem AlienVault pochodzi z serwisu CRN.
]]>Dostawca oferuje platformę AlienVault Uni?ed Security Management (USM), której zadaniem jest sprawniejsza detekcja zagrożeń, reakcja na incydenty i zarządzanie dla zespołów IT z ograniczonymi zasobami. AlienVault USM informuje o wszystkich zagrożeniach w sieci oraz umożliwia szybkie rozwiązywanie problemów. Ma 5 podstawowych mechanizmów (Asset Discovery, Behavioral Monitoring, Vulnerability Assesment, SIEM, Threat Detection), co pozwala na monitorowanie bezpieczeństwa, proste zarządzanie zdarzeniami i raportowanie, nieprzerwaną ochronę przed zagrożeniami oraz szybkie wdrażanie.
Artykuł Bakotech wyłącznym dystrybutorem AlienVault pochodzi z serwisu CRN.
]]>