Artykuł Macierze SAN: zmiany w rytmie flash pochodzi z serwisu CRN.
]]>Najpoważniejszą alternatywę dla macierzy SAN stanowią serwery NAS. Są stosunkowo tanie i dużo łatwiejsze w konfiguracji niż rozwiązania konkurencyjne. Dlatego NAS-y zazwyczaj trafiają do małych i średnich firm, gdzie służą jako platformy do przechowywania danych ogólnego przeznaczenia i tworzenia kopii zapasowych bądź jako serwery plików.
W przypadku NAS-ów cały ruch kierowany jest przez sieć LAN. Z kolei macierze dyskowe SAN wykorzystują sieć opracowaną wyłącznie z myślą o przechowywaniu danych, gdzie ruch jest zazwyczaj obsługiwany przez protokół Fibre Channel. Warto zaznaczyć, że na rynku od dawna dostępne są rozwiązania typu unified storage, które pozwalają na natywną obsługę plików oraz bloków w ramach jednego systemu. Zwolennicy takich systemów przekonują, że jest to poważne udogodnienie dla przedsiębiorstw, ponieważ te, zamiast inwestować w macierze NAS i SAN, instalują pojedyncze urządzenie.
– Największe zainteresowanie macierzami unified storage przejawia sektor MŚP, co jest rezultatem częstego braku działów IT w takich firmach. Zastosowanie uniwersalnych systemów odpowiada na potrzeby współdzielenia różnego rodzaju danych na jednym urządzeniu – wyjaśnia Sebastian Kulpa, Senior Client Executive w Lenovo Data Center Group.
Przeciwnicy unifikacji twierdzą, że sprawdza się ona jedynie w przypadku firm, które muszą ogarnąć małą ilość danych, przykładowo 30 TB plików oraz 5 TB bloku. Natomiast wdrożenie rozwiązania unified storage w sytuacji, kiedy występują poważne dysproporcje pomiędzy zasobami plikowymi i blokowymi nie opłaca się zarówno ze względów ekonomicznych, jak i technologicznych. Trzeba też mieć na uwadze, że rywalizacja w segmencie pamięci masowych już od pewnego czasu nie ogranicza się wyłącznie do rywalizacji macierzy SAN i NAS. Część firm migruje do chmury, a kilka miesięcy temu Amazon zaprezentował usługę EBS io2 o niezawodności rzędu 99,999 proc. i 500 IOPS na każdy GB danych.
Zdaniem integratora
Popyt na macierze SAN od dłuższego czasu pozostaje na niezmienionym poziomie. Z naszych doświadczeń wynika, że pandemia nie zahamowała sprzedaży tej klasy systemów. Klienci kupujący macierze kierują się głównie ich funkcjonalnością oraz wydajnością i wybierają je pod kątem konkretnych zastosowań. Coraz więcej firm inwestuje w macierze all-flash, które są przeznaczone do obsługi wirtualizacji, a także baz danych o dużym obciążeniu. Jednak zdarzają się też przypadki, że choć nie ma wyraźnych przesłanek, aby wdrożyć all-flash, klienci decydują się na taki krok. Najczęściej dotyczy to firm korzystających z niewielkiej przestrzeni dyskowej. Natomiast macierze hybrydowe zazwyczaj trafiają do organizacji potrzebujących dużych pojemności liczonych w kilkuset terabajtach. Warto podkreślić, że od ponad dwóch lat obserwujemy wzrost zapotrzebowania na pamięć masową typu all-flash kosztem rozwiązań hybrydowych. Obecnie większość sprzedawanych przez nas macierzy to właśnie rozwiązania typu all-flash. Dzieje się tak ze względu na wysycenie możliwości rozwiązań hybrydowych, spowodowane między innymi nieprzewidywalną wydajnością, a także na korzyści związane z adopcją mechanizmów redukcji danych na systemach all-flash. Producenci zapewniają parametry deduplikacji i kompresji na poziomie 4:1. Jeśli porównamy cenę terabajta pamięci flash w stosunku do rozwiązań standardowych, zakup macierzy hybrydowej może się nie opłacać.
Zdaniem Krzysztofa Wyszyńskiego, IT Architecta w Netology, taka usługa jest idealna dla użytkowników, którzy uruchamiają projekty raz na kilka miesięcy. Jednak dla klientów wymagających ciągłej dostępności, EBS io2 może się nie opłacać. Inną alternatywą dla macierzy SAN jest inwestycja w architekturę hiperkonwergentną czy systemy klasy Software Defined Storage (SDS). Jak widać, przedsiębiorcy poszukujący systemów pamięci masowych mają pole manewru, co może nieco niepokoić dostawców klasycznych macierzy dyskowych. Choć ci ostatni wciąż mają w zanadrzu kilka silnych argumentów, a chyba najmocniejszym jest chęć korzystania przez przedsiębiorców ze znanych i sprawdzonych rozwiązań.
– Rodzimi klienci bardziej preferują macierze SAN niż rozwiązania SDS. Wynika to z faktu, że dużo łatwiej się nimi administruje. Nowe interfejsy graficzne pozwalają, po odpowiednim skonfigurowaniu, zarządzać macierzami także mniej doświadczonym administratorom. Natomiast SDS wymaga większego zaangażowania ze strony działu IT – tłumaczy Tomasz Spyra, CEO Rafcomu.
All-flash dyktuje warunki
Największe ożywienie w segmencie macierzy SAN nastąpiło wraz z pojawieniem systemów all-flash. W początkowej fazie były one traktowane jako urządzenia zarezerwowane dla organizacji z wypchanymi portfelami, ale to się powoli zmienia. Obecnie urządzenia all-flash są motorem napędowym rynku macierzy SAN. Według IDC w trzecim kwartale ubiegłego przychody z ich sprzedaży wyniosły 2,7 mld dol., co oznacza 0,5 proc. wzrost w ujęciu rok do roku. Niewiele więcej, bo 2,8 mld dol., wydali klienci na zakup macierzy hybrydowych wyposażonych zarówno w nośniki flash, jak i tradycyjne dyski HDD. Jednak w tym przypadku nastąpił spadek o 0,7 proc. Biorąc pod uwagę fakt, że w ubiegłym roku świat biznesu zmagał się z poważnym kryzysem gospodarczym, powyższe wyniki należy uznać za przyzwoite. W bieżącym roku można spodziewać się kolejnych wzrostów, a ich poziom w dużym stopniu będzie zależeć od tempa w jakim topnieć będą ceny pamięci NAND Flash. Jim Handy, dyrektor generalny Objective Analysis, przewiduje, że do końca 2021 r. ten spadek wyniesie około 10 proc.
Część ekspertów oraz producentów macierzy dyskowych duże nadzieje pokłada w pamięciach QLC, które stanowią kolejny krok w rozwoju technologii komórek wielostanowych. Eric Burgener, wiceprezes ds. badań w IDC, uważa, że już w najbliższych miesiącach będziemy świadkami ekspansji systemów korporacyjnych korzystających z nośników QLC, pozwalających na obniżenie ceny za GB pamięci flash. Jednak entuzjazmu Burgenera nie podzielają eksperci z Della czy IBM-a. Ci pierwsi przewidują, że urządzenia wyposażone w QLC trafią do głównego nurtu nie wcześniej niż w 2022 r. Lider rynku korporacyjnych pamięci masowych tłumaczy to tym, że nie dostrzega wystarczających korzyści ekonomicznych, które rekompensowałyby wady nośników QLC NAND.
– Mamy do czynienia ze skomplikowaną technologią. W przypadku odczytów występują dłuższe opóźnienia niż w przypadku TLC. Do tego dochodzi stosunkowo niewielka wytrzymałość. Dlatego też nośniki QLC nie będą mogły być używane przy większych obciążeniach. Jednak zawsze są sposoby, aby ominąć problemy. Wystarczy umieścić w pokoju sprytnych inżynierów i mówić im, że nie mogą czegoś zrobić. Warto nad tym popracować, tym bardziej, że pozwala to obniżyć koszty flash o 20 – 25 proc. – przyznaje Andy Walls, CTO i główny architekt IBM Flash Systems.
Konstruktorzy starają się za wszelką cenę upchnąć jak najwięcej bitów w komórce pamięci. Tego typu działania prowadzą do obniżenia ceny NAND Flash. Dobra wiadomość jest taka, że im się to udaje, niemniej upychanie bitów niesie ze sobą pewne negatywne konsekwencje. QLC pozwala na przechowywanie 4 bitów informacji w jednej komórce pamięci i choć są one tańsze od innych rodzajów pamięci flash NAND, to nie ma nic za darmo. Rzecz w tym, że każdy bit dodany do komórek flash NAND zmniejsza wytrzymałość mierzoną jako liczba zapisów przed zużyciem komórki. I jeśli SLC jest oceniane na około 100 000 cykli zapisu na komórkę, MLC na 10 000, a TLC na 1000, to QLC zaledwie na… 100.
Niemniej proces zagęszczania nie kończy się na QLC. Coraz częściej słyszy się o planach wprowadzenia do macierzy all-flash kolejnego rodzaju pamięci NAND Flash. Chodzi o 5-bitowe pamięci PLC (penta-level cell). Nowe nośniki oferują jeszcze wyższe zagęszczenie, a tym samym niższą cenę niż QLC, ale jednocześnie słabszą trwałość (10 cyklów zapisu) i niższą wydajność.
Co z tym Fibre Channel?
Co by nie mówić o Fibre Channel (FC), ta licząca sobie ponad trzy dekady technologia jest wyjątkowo odporna. Już niejednokrotnie odsyłano ją do lamusa, a po raz pierwszy chyba gdzieś około 2002 r. Wówczas miał ją zastąpić protokół iSCSI,później duże nadzieje wiązano z Fibre Channel over Ethernet. Choć oba protokoły nadal istnieją, w sieciach SAN dominuje Fibre Channel, co jest o tyle ciekawe, że ustępuje pod względem wydajności rywalom. Przełączniki FC oferują bowiem przepustowość na poziomie 4, 8, 16 i 32 Gb/s, a chociaż w drugiej połowie ubiegłego roku Broadcom przedstawił 7 generację switchy, umożliwiającą transfer na poziomie 64 Gb/s., to jakby nie patrzeć, jest to wciąż mniej niż 100 GbEthernet. Co jednak nie ma większego wpływu na decyzje zakupowe klientów.
– W 90 proc. przypadków zastosowanie FC w zupełności wystarcza, zarówno pod kątem prędkości transferu, jak i wydajności mierzonej w IOPS. Co więcej, większość klientów nie jest w stanie wykorzystać nawet połowy przepustowości w posiadanych macierzach SAN – podkreśla Sebastian Kulpa.
Prace w toku
Niemniej w biurach badawczo-rozwojowych cały czas trwają poszukiwania rozwiązań, które mogą zastąpić wysłużoną technologię. Jednym z największych faworytów wydaje się być na dzień dzisiejszy NVMe over Fabric. Jak sama nazwa wskazuje, to rozwiązanie powiązane ze standardem NVMe, który pozwala na podłączenie dysków SSD za pośrednictwem szyny PCIe. To umożliwia napędom NAND Flash pokazanie ich maksymalnych możliwości w zakresie przepustowości. Jednocześnie to duży krok w dalszej ewolucji i rozwoju systemów all-flash. Jednak, aby w efektywny sposób korzystać z NVMe w macierzach dyskowych, trzeba je podłączyć za pomocą sieci umożliwiającej odpowiednią jakość obsługi. I tutaj z odsieczą przychodzi właśnie NVMe over Fabric. Jego największą zaletą jest kompatybilność ze standardami sieciowymi, jak Fibre Channel, iWARP, RDMA over Converged Ethernet, (RoCE), InfiniBand czy TCP.
– Paradoksalnie, adaptacja standardu NVMe w warstwie sieci najszybciej dokonała się u producentów przełączników FC, czyli Broadcoma i Cisco. Jeśli dysponujemy siecią SAN Brocade’a 5 generacji, czyli technologią z 2013 roku, nasza sieć SAN jest gotowa na NVMeoF z zachowaniem istniejącej architektury i metod administracyjnych – mówi Krzysztof Wyszyński.
Technologia jest stosunkowo nowa i jak na razie znajduje zastosowanie w urządzeniach współdziałających z aplikacjami przeznaczonymi do obsługi zaawansowanej analityki biznesowej czy realizacji projektów związanych ze sztuczną inteligencją oraz uczeniem maszynowym. Jest jeszcze za wcześnie, aby przewidzieć przyszłość NVMeoF,ale są przesłanki pozwalające mieć nadzieję, że nie podzieli ona losów takich protokołów, jak Fibre Channel over Ethernet. Większość dostawców macierzy pamięci masowej oferuje już macierze półprzewodnikowe z wewnętrzną pamięcią NVMe. Analitycy Gartnera przewidują, iż w ciągu najbliższych 12 miesięcy, coraz więcej dostawców infrastruktury będzie oferować obsługę łączności NVMe-oF do hostów obliczeniowych.
Zdaniem specjalisty
Po pierwszym zamknięciu gospodarki popyt na macierze SAN wyraźnie spadł. Rynek na tej klasy systemy skurczył się o ponad 20 proc. w ujęciu rocznym. Natomiast w drugiej połowie nastąpiło wyraźnie odbicie – sprzedaż wzrosła o jedną piątą. Niełatwo prognozować jaka będzie tendencja w 2021 r., bo sytuacja z jednej strony jest wciąż niepewna, zaś z drugiej nic tak w ostatnich latach nie przyspieszyło cyfrowej transformacji jak pandemia. Naturalnie, wraz z rosnącą cyfryzacją gospodarki wręcz wykładniczo rośnie liczba danych, które oczywiście trzeba gdzieś przechowywać. Stąd też wzrastający popyt na macierze SAN. Największą popularnością cieszą się systemy hybrydowe. Odnotowujemy też wzrost sprzedaży all-flash, aczkolwiek trend ten uległ spowolnieniu, gdyż ceny nośników SSD nie spadają w tak szybkim tempie, jak było to jeszcze niedawno prognozowane.
Wybuch pandemii na przełomie 2019 i 2020 r. przyczynił się do spowolnienia sprzedaży macierzy SAN. Jednak w drugiej połowie ubiegłego roku na rodzimym rynku nastąpił znaczny wzrost popytu na tego typu systemy. Przewidujemy, że jeżeli sytuacja pandemiczna się nie pogorszy, to tendencja wzrostowa utrzyma się także w 2021 r. Większość macierzy SAN obsługuje systemy transakcyjne, w których kluczowa jest wydajność i krótkie czasy odpowiedzi. Dlatego też klienci wybierają rozwiązania all-flash, zwłaszcza że rośnie pojemność dysków SSD i spada koszt za TB. Macierze all-flash, szczególnie z gwarantowanym stopniem redukcji danych, zapewniają dodatkowe korzyści, takie jak zdecydowanie mniej miejsca w szafie w serwerowni, niższe zużycie energii i mniejsze wydzielanie ciepła.
Pandemia nie spowodowała spadku popytu na macierze SAN, ponieważ branże najmocniej dotknięte przez lockdown nie są głównymi odbiorcami tego typu rozwiązań. Z drugiej strony niesamowicie szybko postępujący rozwój rynku e-commerce wręcz przyczynił się do wzrostu zapotrzebowania na macierze SAN. Sklepy internetowe oraz liczne branże, które przeniosły swoją działalność do sieci, potrzebują niezawodnych i wydajnych rozwiązań z niskimi opóźnieniami, które zapewnią dostępność systemu transakcyjnego w trybie 24/7. W konfiguracjach najpopularniejszych systemów widać wyraźny spadek udziału dysków talerzowych SAS 10K oraz całkowite odejście od dysków SAS 15K, które zostały wyparte przez SSD ze względu na lepszą wydajność w bardzo zbliżonej cenie oraz wyższe pojemności.
Artykuł Macierze SAN: zmiany w rytmie flash pochodzi z serwisu CRN.
]]>Artykuł Ochrona danych: poprzeczka coraz wyżej pochodzi z serwisu CRN.
]]>Uczestnicy debaty:
Artur Cyganek, dyrektor regionalny na kraje Europy Wschodniej, Acronis
Wojciech Wróbel, Presales Manager Fujitsu IP, Fujitsu Technology Solutions
Marcin Zmaczyński, dyrektor marketingu na Europę Środkowo-Wschodnią, Aruba Cloud
Krzysztof Wyszyński, architekt IT, Netology
Debatę prowadził Wojciech Urbanek
Wszyscy uczestnicy wypowiadają się w filmie ze spotkania:
Artur Cyganek Tak, jak w każdej dziedzinie życia, mamy do czynienia z dojrzałymi użytkownikami i tymi postępującymi nieracjonalnie. Niedawno do jednego z naszych partnerów zgłosił się zrozpaczony klient, właściciel biura rachunkowego zainfekowanego oprogramowaniem ransomware. Wirus w jednej chwili sparaliżował wszystkie 60 stanowisk pracy. I chociaż firma ma platformę do backupu, to nie wykupiła usług wsparcia. W rezultacie oprogramowanie nie było aktualizowane przez trzy lata… Akcja ratunkowa zakończyła się sukcesem, bowiem odzyskano 90 proc. zaszyfrowanych danych. Gdyby jednak działała funkcja odpowiedzialna za blokowanie ataków, udałoby się uniknąć kłopotów. Oczywiście nie jest to przypadek odosobniony, bo wprawdzie nie spotyka się już firm, które nie mają żadnego zabezpieczenia, ale posiadanie jakiegokolwiek narzędzia do tworzenia kopii zapasowych nie rozwiązuje problemu.
Artur Cyganek
„Klasyczne podejście, sprowadzające się̨ do wyceny zabezpieczenia za 1 GB danych, nie sprawdzi się w obecnych warunkach. Musimy wyjść́ naprzeciw potrzebom i możliwościom finansowym klientów i coraz częściej proponować́ im model OPEX.”
Wojciech Wróbel Powyższy przykład pokazuje znaną prawdę, że znaczna część klientów zaczyna podejmować przemyślane działania dopiero po wystąpieniu nieprzyjemnych zdarzeń. Tymczasem można było zabezpieczyć się wcześniej, optymalizując i dobierając właściwe rozwiązania, a także klasyfikując dane. Zauważam, że u wielu klientów występuje efekt chomika, tzn. robią kopie zapasowe wszystkich posiadanych danych. Co ważne, z licznych badań wynika, że w przypadku klientów enterprise’owych około 20 proc. przechowywanych danych to rzeczywiście dane krytyczne i istotne z punktu widzenia biznesu. Reszta odgrywa rolę drugoplanową lub jest kolejną kopią danych niewymagających ochrony. W wyniku takiej sytuacji przedsiębiorstwa ponoszą niepotrzebnie wysokie koszty związane ze składowaniem danych. Dlatego tak istotna jest optymalizacja. Ważne jest, by skoncentrować się na kluczowych kwestiach i nie bawić się we wróżbiarstwo.
Marcin Zmaczyński Choć naszym kluczowym biznesem jest sprzedaż infrastruktury w modelu chmurowym, zauważamy, że wśród klientów rośnie zainteresowanie usługami Backup as a Service (BaaS) i Distaster Recovery as a Service (DRaaS). Przy czym mniejsze firmy korzystają z BaaS, a większe częściej decydują się na DRaaS. Choć co prawda chmura publiczna zaczyna dopiero budować swoją popularność wśród polskich przedsiębiorców, to backup online jest już chętnie wybieranym rozwiązaniem. Najczęściej jest to ich pierwszy krok ku chmurze. Niedawno firma jednego z moich znajomych padła ofiarą ataku ransomware. Wprawdzie korzystała z narzędzia do backupu, aczkolwiek kopia zapasowa znajdowała się w lokalnej sieci i została zaszyfrowana podobnie jak pozostałe pliki. W tej sytuacji, jak w większości takich przypadków, choć firmy niechętnie to przyznają, konieczne było zapłacenie okupu. Gdyby backup był wykonywany do chmury, udałoby się uniknąć problemu. Zresztą po całym zdarzeniu poszkodowane przedsiębiorstwo zaczęło korzystać z BaaS, w myśl powiedzenia „mądry Polak po szkodzie”. Backup to podstawa w zachowaniu bezpieczeństwa, ale trzeba też spojrzeć szerzej na kwestie związane z szyfrowaniem danych, a także dostępem do informacji. Z tym często mają problem nie tylko małe czy średnie firmy, lecz także koncerny. Kwestie te kompleksowo wyjaśnia przygotowany przez Aruba Cloud e-book „Vademecum bezpiecznej chmury”, wydany z myślą o wszystkich, którzy przenieśli lub planują przenieść swoje dane do chmury i chcą poznać wszystkie mechanizmy gwarantujące maksimum bezpieczeństwa.
Krzysztof Wyszyński Nawet jeśli przedsiębiorstwo wdraża rozwiązania do backupu z najwyższej półki cenowej, wcale nie oznacza, że ma strategię dotyczącą ochrony danych. Powinno mieć pomysł na zabezpieczenie całego cyklu od początku do końca. Tymczasem backup jest często przedostatnią lub ostatnią linią ratunku. W przypadku kiedy inne narzędzia zawiodą, następuje odtwarzanie zasobów i czasami proces ten trwa kilka dni. Jak zaś powinna wyglądać strategia ochrony danych z punktu widzenia integratora? Przede wszystkim należy wyznaczyć osobę odpowiedzialną za ciągłość działania firmy, może to być zarówno właściciel, jak i szef działu IT. Musi on mieć dostęp do informacji, czy dane są bezpieczne, a kwestia, czy znajdują się one na taśmie, dysku, czy w chmurze publicznej, ma drugorzędne znaczenie. Kolejną istotną rzeczą jest klasyfikacja parametrów ochrony danych, bowiem niektóre z nich są archiwizowane, inne zaś podlegają backupowi. W czasie wdrażania w życie strategii ochrony danych należy stosować podejście wyspowe, tzn. sukcesywnie adresować zadania dla mniejszych obszarów.
Analitycy Gartnera uważają, że jednym z największych wyzwań związanych z danymi jest zarządzanie, a nie dostępność pamięci masowych. Tych ostatnich nie brakuje, a biznes nie radzi sobie z cyfrowymi zasobami, chociażby ze względu na efekt chomika, o którym już wspominaliśmy. Czy zatem procesy związane z ochroną danych powinna poprzedzić wnikliwa analiza i optymalizacja?
Marcin Zmaczyński Jako dostawcy usług chmurowych z założenia nie możemy ani nie powinniśmy mieć dostępu do danych klienta, dlatego też nie mamy możliwości zajmowania się ich analizą pod kątem optymalizacji i wykorzystania. Udostępniamy jedynie infrastrukturę i jesteśmy odpowiedzialni za jej bezpieczeństwo fizyczne. Niemniej widzimy, że dyskusje na ten temat toczą się w sektorze finansowym, który widzi, jakie korzyści mogłoby mieć przeniesienie części usług do chmury, ale ograniczają go regulacje. Co prawda komunikat KNF z stycznia tego roku nieco liberalizuje przepisy, zezwalając na migrację niektórych kluczowych funkcji do chmury, jednak zarówno bank, jak i dostawca są obostrzeni wieloma wymogami, które muszą spełnić, m.in. w kwestii kompetencji pracowników odpowiedzialnych za IT i certyfikacji, jakie powinno posiadać centrum danych. Z kolei zgodnie z wymogami unijnej dyrektywy PSD2 banki muszą udostępnić innym podmiotom dostęp do rachunków swoich klientów za pośrednictwem otwartego API. Poza tym niezależnie od sektora gospodarki dane będą cały czas nabierać znaczenia. Jest podobnie jak z ropą, którą zaczęto wydobywać, chociaż nie do końca było wiadomo, jak ją wykorzystać. Uczenie maszynowe i wielkie zbiory danych otwierają zupełnie nowe możliwości przed światem biznesu i informacje obecnie postrzegane jako mało ważne mogą już niedługo okazać się potrzebne.
Marcin Zmaczyński
„Dla MŚP współpraca z integratorami to najwłaściwszy kierunek. Uważam również̇, że integratorzy powinni mieć́ jak najbogatsze portfolio usług i produktów oraz budować́ z nich tak jak kloców Lego rozwiązania dopasowane do indywidualnych potrzeb klientów.”
Artur Cyganek Analityka jest istotna dla klientów korporacyjnych, z kolei MŚP to się nie opłaca. Przeciętny użytkownik woli wykonać kopię zapasową obejmującą wszystkie przechowywane dane, aniżeli dokonywać w klasyfikacji, posługując się na dodatek narzędziami, których nie zna. Na rynku są oferowane bardzo dobre rozwiązania do analityki, aczkolwiek dostawcy adresują je do dużych przedsiębiorstw. Tego typu użytkownicy powinni sięgać po profesjonalne systemy umożliwiające podjęcie decyzji, że – dajmy na to – określone 80 proc. danych ma podlegać archiwizacji, a pozostałe wymagają backupu.
Krzysztof Wyszyński Jako integrator realizujemy usługi doradcze w dziedzinie klasyfikacji danych. Nie jest to jednak łatwy temat, bowiem każdy dział w firmie uważa, że jego dane są najważniejsze i powinny być chronione. To sprawia, że w dużych przedsiębiorstwach proces optymalizacji może przebiegać bardzo długo. Jeśli firma używa kilkudziesięciu terabajtów danych analizy mijają się z celem, z kolei korporacje przetwarzające kilkaset terabajtów, a nawet petabajty danych dzięki klasyfikacji zasobów cyfrowych zyskają wymierne korzyści.
Krzysztof Wyszyński
„Nawet jeśli przedsiębiorstwo wdraża rozwiązania do backupu z najwyższej półki cenowej, wcale nie oznacza, że ma strategię dotyczącą ochrony danych. Powinno mieć́ pomysł na zabezpieczenie całego cyklu od początku do końca.”
Wojciech Wróbel Składowanie danych to najprostszy proces. Ich przetwarzanie jednak wymaga zdecydowanie większego wysiłku, dodatkowej pracy i narzędzi. Dane powinny wykonywać określoną pracę, a firmy powinny zaplanować strategię ich przetwarzania i zarządzania nimi. Przedsiębiorcy zwracają się do nas z prośbą o taką pomoc i jesteśmy w stanie im właściwie doradzić. Tym bardziej że istnieją w tym zakresie duże możliwości, chociażby archiwizacja albo przeniesienie części zasobów do chmury publicznej, a także zastosowanie różnych modeli biznesowych i rozmaitych typów mediów do skutecznego zarządzania kosztami.
Ransmoware, przyrastająca ilość danych, rozwój usług chmurowych to zagadnienia, które przewijają się w naszej dyskusji. Co stanowi największe wyzwanie dla firm zajmujących się ochroną danych, a jakie czynniki są wyolbrzymiane przed media czy też analityków? Czy moglibyśmy spróbować dokonać pewnej gradacji w tym zakresie?
Artur Cyganek Nie chciałbym, żeby dyskusja o zabezpieczaniu danych sprowadzała się do kwestii związanych z analityką, backupem i disaster recovery. Największym ryzykiem związanym z utratą cyfrowych zasobów nie jest awaria sprzętu czy nośnika. Dużo poważniejsze wyzwanie stanowi powstrzymanie ataków ransomware. W dalszym ciągu na rynku są dostępne produkty do tworzenia backupu, które nie gwarantują ochrony przed ransomware’em. Dlatego też wiele cyberataków rozpoczyna się od zaszyfrowania kopii zapasowej, a następnie reszty plików. Kolejnym wyzwaniem jest wzrost generowanych danych. Analitycy Gartnera i IDC prognozują, że będzie on dziesięciokrotnie większy na urządzeniach końcowych niż w serwerowniach. Klasyczne podejście, sprowadzające się do wyceny zabezpieczenia za 1 GB danych, nie sprawdzi się w obecnych warunkach. Musimy wyjść naprzeciw potrzebom i możliwościom finansowym klientów i coraz częściej proponować im model OPEX. Poza tym staramy się dostarczać rozwiązania nie tylko do backupu, lecz także chroniące przed ransomware’em.
Krzysztof Wyszyński Zabezpieczenie danych – mam na myśli nie tylko backup, lecz także archiwizację, replikację, ochronę urządzeń końcowych – to najłatwiejsze procesy od strony technicznej. Jeśli istnieje mapa drogowa, strategia działania, a także świadomość klienta dotycząca posiadanych danych, proces wdrażania narzędzi przebiegnie sprawnie. Najtrudniejsza jest edukacja klienta. Często przedsiębiorcy nie wiedzą, czego tak naprawdę od nas oczekują, zamawiają system do backupu, a integrator sprzedaje odpowiedni produkt. To jednak nie rozwiązuje do końca problemu, bo haker może zaszyfrować kopię zapasową. Najważniejsze, by podczas realizacji projektu zachować właściwe proporcje, tzn. 80 proc. czasu poświęcić na pracę analityczną, a pozostałe 20 proc. na wdrożenie.
Marcin Zmaczyński Proces backupu jest tylko wierzchołkiem góry lodowej w segmencie ochrony danych. Czasami spotykamy się nawet z dużymi przedsiębiorstwami, którym wydaje się, że tworzenie kopii zapasowych zapewni im 100-proc. bezpieczeństwo. Jak wynika z badania „Thales Cloud Security Study”, przeprowadzonego w 2019 r. na zlecenie firmy Thales, tylko połowa firm szyfruje swoje dane w chmurze. Brak wiedzy przedsiębiorców to poważny problem, dlatego tak ważna jest edukacja, nie tylko wyższej kadry menedżerskiej, lecz także pracowników niższego szczebla. W budowanie świadomości powinni zaangażować się producenci, dostawcy usług i integratorzy. Z kolei dla firm odpowiednia polityka bezpieczeństwa, regulująca zasady obchodzenia się z danymi, powinna być obowiązkowym dokumentem. Kolejnym wyzwaniem są pracownicy mobilni, pracujący w różnych miejscach i porach. Pojawia się pytanie, jak reagować, kiedy użytkownicy logują się o nietypowych porach. Nie ulega wątpliwości, że liczba tzw. nomadów będzie cały czas wzrastać. Duże firmy zaczynają się tego obawiać i nie do końca wiedzą, w jaki sposób zabezpieczyć się przed atakami hakerów podszywających się pod pracowników. Ponadto należy brać pod uwagę ciągły wzrost liczby smartfonów, do których wkrótce dołączą urządzenia Internetu rzeczy.
Wojciech Wróbel
„W przypadku klientów enterprise’owych około 20 proc. przechowywanych danych to rzeczywiście dane krytyczne i istotne z punktu widzenia biznesu. Reszta odgrywa rolę drugoplanową lub jest kolejną kopią danych niewymagających ochrony.”
Wojciech Wróbel Z naszych obserwacji wynika, że największym problemem jest zmiana mentalności firm. Backup jest postrzegany jedynie w kontekście generowania kosztów, a nie czegoś, co zapewnia ciągłość prowadzenia biznesu. Nawet w dużych korporacjach ludzie od backupu znajdują się w cieniu specjalistów odpowiadających za działanie aplikacji krytycznych. Zaskakuje nas również niechęć wielkich przedsiębiorstw do archiwizacji danych. To o tyle dziwne, że część zasobów można przenieść na tani i trwały nośnik taśmowy, dla którego obsługa mechanizmu WORM jest skuteczną ochroną przed atakami ransomware. Nierzadko backup myli się z archiwizacją, a to przecież różne obszary, inaczej wpływające na rozwój biznesu. Należy mieć na uwadze, że bezpieczeństwo firmy i jej zasobów informatycznych to nie tylko tworzenie kopii zapasowych, lecz także ciągłe monitorowanie interakcji ze światem zewnętrznym i tworzenie bezpiecznych zasad dla działań pracowników.
Wspominacie Panowie o konieczności edukacji, zwłaszcza klientów z sektora MŚP. Ale o cyberzagrożeniach mówi się niemal wszędzie. Czy tylko brak wiedzy sprawia, że firmy nie inwestują w nowoczesne narzędzia ochrony i nie wypracowały strategii zapewniających skuteczne zapobieganie atakom, np. ransomware? Może po prostu lekceważą zagrożenia?
Marcin Zmaczyński Firmy MŚP nie mają czasu na opracowywanie strategii zabezpieczeń. W dużo lepszej sytuacji znajdują się duże koncerny ze względu na skalę działania. Jednak i one mają sporo do poprawy. Wspominane już badanie firmy Thales pokazuje, że jedynie 32 proc. przedsiębiorstw stosuje zasadę „security first”, jeśli chodzi o usługi w chmurze. W przypadku sektora MŚP zdecydowana większość zasobów fizycznych i czasowych jest przeznaczana na walkę o klienta i zgodność z obowiązującymi regulacjami, dlatego bezpieczeństwo spada w hierarchii potrzeb, a nie wynika z bierności czy lekceważenia. To firmy, które walczą, żeby utrzymać się na powierzchni i rozwijać. Niestety, prawda jest też taka, że segment MŚP nie zawsze nadąża za nowinkami technologicznymi. Wyjątek stanowią mniejsze firmy powiązane z branżą IT.
Artur Cyganek Sektor MŚP jest doskonałym obszarem do działania dla resellerów. Mają oni okazję uświadomić klientom potrzebę rozszerzenia opieki informatycznej o bezpieczeństwo i przekonać ich do niej. To miejsce na zarabianie większych pieniędzy ze względu na wyższe marże niż w przypadku tradycyjnych wdrożeń infrastrukturalnych. Istnieje też możliwość doradztwa i świadczenia usług. Zauważam, że wielu partnerów, wcześniej związanych wyłącznie ze sprzedażą i z wdrożeniami rozwiązań infrastrukturalnych, zaczyna dostrzegać wagę rozwiązań służących do ochrony danych – przychodzą do nas i chcą się w tym kierunku rozwijać.
Wojciech Wróbel Z jednej strony rynek MŚP jest bardziej podatny na zmiany niż pozostałe sektory, z drugiej – przeszkodą w podejmowaniu decyzji może być ograniczony budżet. Cyberprzestępcy chętnie atakują tę grupę użytkowników, ponieważ znają te słabości. Istnieje szansa, żeby wyjść z takiego schematu i uniknąć wielu zagrożeń. Dlatego wśród małych i średnich przedsiębiorców warto budować świadomość dotyczącą potrzebę ochrony danych. Tym bardziej że informacje o innowacjach w tym segmencie rynku rozchodzą się bardzo szybko.
Krzysztof Wyszyński Model OPEX wydaje się dla MŚP korzystniejszy niż tradycyjny model zakupów. Integratorzy kreują usługi, które są dostępne w przystępnej cenie w modelu miesięcznym, bo większości małych firm nie stać na zakup nowoczesnych narzędzi. Kiedy projektujemy architekturę dla niewielkiej bądź średniej firmy, należy brać od uwagę, że działa ona na bardzo konkurencyjnym rynku. Nie można w związku z tym wprowadzać regulacji bezpieczeństwa, które w jakikolwiek sposób spowalniałaby działania operacyjne. Właściciel małego bądź średniego biznesu nigdy nie zgodzi się na taką opcję. W związku z tym uwzględniamy, że pliki mogą być zaszyfrowane w wyniku działania ransmoware. Jednakże wpływ tego ataku na działalność firmy ma być minimalny. W praktyce najczęściej sprowadza się do tego, że odcinamy urządzenie końcowe od bezpośredniego dostępu do danych, z którymi pracuje użytkownik. W ten sposób strefa bezpieczeństwa znajduje się na granicy centrum danych.
Z jednej strony rodzime MŚP narzekają na brak środków na rozwiązania IT i deficyt specjalistów, z drugiej – niechętnie korzystają z usług chmurowych. Tymczasem jednym z wiodących trendów światowych jest multicloud. Czy nie jesteśmy świadkami pewnego paradoksu występującego na rodzimym rynku?
Krzysztof Wyszyński Małe firmy niemal zmusza się do korzystania z usług w chmurze, czego klasyczny przykład stanowi Microsoft Office 365. Wychodzimy do tej grupy klientów z ofertą zabezpieczenia danych poza chmurą dostawcy. MŚP nigdy nie będą poważnym usługobiorcą dla wielkiego dostawcy, takiego jak Amazon, Google czy Microsoft. Oni nie wezmą na siebie odpowiedzialności związanej z zabezpieczeniem danych takiego klienta. Z kolei my jesteśmy w stanie wyciągnąć zasoby z chmury, a następnie przechowywać i zabezpieczać je w innym data center.
Marcin Zmaczyński Najwięksi dostawcy usług chmurowych nie negocjują z MŚP. Nie robią tego w Stanach Zjednoczonych ani nie mają żadnych powodów, by odstępować od tej reguły na mniejszych rynkach, takich jak Polska. Ale oprócz wielkiej czwórki – Amazona, Alibaby, Google’a i Microsoftu – na rynku działa wielu mniejszych usługodawców. W związku z tym multicloud jest jedyną słuszną drogą. Polska firma może być zainteresowana ofertą Amazona, ale warto uwzględnić uwarunkowania prawne, chociażby Cloud Act. Ustawa ta daje wiele możliwości amerykańskim usługodawcom, m.in. w uzasadnionych przypadkach przekazanie danych klienta organom ścigania bez wiedzy i zgody sądu. Wprawdzie MŚP nie zauważają tego problemu, ale większe firmy zaczynają sobie zdawać z tego sprawę. Uważam, że słuszny kierunek wyznacza europejska, w tym także polska, administracja, która coraz częściej stawia na lokalnych dostawców usług chmurowych. Ważną rolę odgrywa także CISPE, organizacja zrzeszająca firmy z tej branży, działające na rynku europejskim, której głównym zadaniem jest edukacja i współpraca przy wypracowywaniu maksymalnie bezpiecznych i korzystnych dla klientów rozwiązań legislacyjnych. Kiedy do chmury publicznej zaczną migrować spółki sektora publicznego i administracja, mniejsi przedsiębiorcy przekonają się, że jest ona bezpieczna. To bardzo ważne, bowiem z badań przeprowadzonych przez Aruba Cloud wśród MŚP wynika, że największą barierą spowalniającą migrację do chmury jest obawa o bezpieczeństwo danych. Co ciekawe, ci sami respondenci wskazali bezpieczeństwo jako największą zaletę modelu chmurowego… Polacy są otwarci na nowe technologie, mamy świetnych programistów, dlatego wydaje się, że w nieodległej przyszłości rodzimi przedsiębiorcy nabiorą zaufania do dostawców usług chmurowych.
Artur Cyganek Niechęć małych i średnich przedsiębiorstw do usług w chmurze wynika w dużym stopniu ze złej atmosfery, którą wokół nich się tworzy. Dotyczy to m.in. sektora publicznego, zwłaszcza na poziomie samorządów lokalnych. Nierzadko, podczas imprez adresowanych do tej grupy odbiorców, spotykam się z wystąpieniami prelegentów negatywnie wypowiadających się o chmurze publicznej. Następnie przekaz ten powielają media. Oczywiście pojawiają się pewne oznaki, które pozwalają patrzeć na przyszłą adaptację usług chmurowych z umiarkowanym optymizmem. Chciałbym jednak, by proces ten nabrał tempa, bowiem wszyscy bardziej na tym tracimy, niż zyskujemy. Przy czym dużo zależy też od postawy resellerów. Wciąż spotykam partnerów, którzy wprost przyznają, że wolą sprzedawać produkty w modelu tradycyjnym, ponieważ nie dostrzegają profitów płynących ze sprzedaży usług. Co ciekawe, taka postawa jest charakterystyczna zazwyczaj dla mniejszych resellerów czy integratorów, którzy nie obsługują wielkich koncernów.
Wojciech Wróbel Oczekujemy na przełom i otwarcie w podejściu rodzimych przedsiębiorców do usług chmurowych. Na pewno istnieją pewne obawy dotyczące chociażby tego, czy wyspecjalizowane oprogramowanie będzie działało tak samo w chmurze jak w środowisku lokalnym. Jak na razie nie wszystkie rozwiązania sprawdzają się w środowisku chmurowym. Z pewnością proces adaptacji byłby szybszy, gdyby istniały narzędzia ułatwiające migrację do chmury, również bardziej zaawansowanych systemów. Podzielam opinię, że pojawienie się Operatora Chmury Krajowej powinno mieć pozytywny wpływ na rozwój chmury. Inna kwestia to postawa specjalistów IT, którzy często boją się, że stracą pracę. Tymczasem muszą wiedzieć, że są potrzebni, by realizować zadania związane z migracją, monitorowaniem czy zarządzaniem danymi. Jednak to wymaga odważniejszego podejścia ze strony pracodawców. Warto podkreślić, że rozwój idei multicloudu to bardzo pozytywny trend, bowiem daje możliwość przedsiębiorcom do podejmowania różnego rodzaju decyzji i wyboru optymalnego wariantu cyfrowej transformacji. Elastyczność lokalnych dostawców stanowi duży atut przy tworzeniu środowiska chmury hybrydowej, czyli takiej, w której część zasobów informatycznych pozostaje jednak wewnątrz firmy. Często tego oczekują nasi klienci i dlatego staramy się promować rozwiązania zgodne z ich potrzebami.
Wszystko wskazuje na to, że najbliższa przyszłość będzie należeć do chmury hybrydowej i większość firm będzie nadal korzystać z własnego oprogramowania i sprzętu do ochrony danych. W jakim kierunku będą ewoluować produkty? Czy sprawdzą się zapowiedzi niektórych producentów, że nadejdzie era wielofunkcyjnych kombajnów, które oprócz tego, że współpracują z chmurami różnych usługodawców, to jeszcze realizują funkcje backupu, archiwizacji, zarządzania kopiami, wyszukiwania i analizy danych?
Krzysztof Wyszyński Wszystko zależy od rodzaju klienta. Systemy all-in-one wydają się dobrym rozwiązaniem dla małych firm. U klientów enterprise wielofunkcyjny kombajn nie jest najistotniejszą wartością. Zdecydowanie ważniejsza jest raportowalność. Poszczególne narzędzia nie muszą być scalone na jednej platformie technicznej. Z kolei powinny być zintegrowane na poziomie raportowania, co oznacza możliwość łatwego sprawdzenia, czy spełnione jest SLA i wykonano testy odtworzeniowe. W dużych przedsiębiorstwach istnieje dużo obszarów, a dane są mocno zróżnicowane, dlatego lepszą opcją wydaje się wybór pojedynczych wyspecjalizowanych produktów. To też dywersyfikuje ryzyko zarówno z punktu widzenia ochrony danych, jak i ewentualnego niepowodzenia realizacji projektu. Wdrożenie systemu all-in-one, obejmującego różne obszary ochrony danych, w dużej firmie może trwać nawet dwa lata. Lepszym sposobem jest cykliczne wprowadzanie pojedynczych elementów. Pewnego rodzaju barierą dla MŚP jest cena systemów all-in-one, niemniej tego typu produkty występują także w modelu usługowym.
Wojciech Wróbel Uważam, że również wśród dużych przedsiębiorstw można znaleźć ciekawe przypadki zastosowania wielofunkcyjnych urządzeń do ochrony danych. W przypadku tego typu klientów zarządzanie wieloma różnorodnymi platformami może być bardzo uciążliwe i kosztowne. Konsolidacja takich złożonych systemów, uproszczenie raportowania i dobra analityka stanowią duże ułatwienie dla klientów i dają wymierne oszczędności. Co ciekawe, kiedy występujemy w roli integratora, zauważamy, że MŚP są bardziej elastyczne, a tym samym skłonne do zaplanowania korzystnych zmian. Niewykluczone, że w końcu przyjmą się u nich wielofunkcyjne systemy pełnej ochrony danych, niezależnie od parametrów ich retencji. Klienci z sektora enterprise wprawdzie sami pytają o nowości i możliwości ewentualnych zmian, ale wprowadzanie innowacyjnych rozwiązań wymaga trochę czasu.
Artur Cyganek Oprogramowanie do ochrony będzie oferowane nie tylko w tradycyjnej formie, lecz także jako usługa. Kolejnym ważnym kierunkiem jest konsolidacja i integracja narzędzi. W małej bądź średniej firmie posiadanie oddzielnych systemów: antywirusowego, do monitorowania i raportowania, nie zdaje egzaminu. Zresztą rynkowy sukces rozwiązań zabezpieczających przed ransomware’em, a jednocześnie tworzących backup pokazuje, że jest to słuszna droga, którą zamierzamy podążać. Najpierw planujemy wprowadzenie zintegrowanych systemów w modelu SaaS, a następnie tradycyjnym. Ważne jest, by umożliwić bezkosztowe wejście w ten segment rynku resellerom i integratorom. W obecnych czasach rozmowa o zabezpieczeniu danych w klasycznym rozumieniu nie ma racji bytu. Model usługowy otwiera nowe możliwości przed partnerami, w tym świadczenie usług administracyjnych.
Marcin Zmaczyński Dla MŚP współpraca z integratorami to jak najwłaściwszy kierunek. Uważam również, że integratorzy powinni mieć jak najbogatsze portfolio usług i produktów oraz budować z nich tak jak kloców Lego rozwiązania dopasowane do indywidualnych potrzeb klientów. Duzi usługodawcy nie są w stanie tego zapewnić. Jesteśmy mniejsi od Amazona, Google’a czy Microsoftu, ale za to dużo bardziej elastyczni. Myślę, że związanie się małej czy średniej polskiej firmy z wielkim usługodawcą zza oceanu może nieść z sobą pewne ryzyko, chociażby pod kątem wsparcia. Dlatego też ta grupa klientów będzie poszukiwać alternatywnych rozwiązań, co otwiera nowe szanse przed integratorami, producentami i usługodawcami, którzy nie należą do tzw. wielkiej czwórki. Jako Aruba sami chętnie współpracujemy z integratorami, którzy na podstawie oferowanych przez nas usług oferują rozwiązania szyte na miarę pod konkretnego klienta.
Artykuł Ochrona danych: poprzeczka coraz wyżej pochodzi z serwisu CRN.
]]>