Artykuł HPE i Cohesity: koniec chaosu w centrach danych pochodzi z serwisu CRN.
]]>– Rozproszona architektura zwiększa złożoność środowisk informatycznych oraz ilość danych, co cyberprzestępcy umiejętnie wykorzystują. Poza tym, ze względu na fakt, że coraz więcej danych jest tworzonych i przechowywanych poza lokalnym centrum danych, organizacje muszą przestrzegać regulacji rządowych, których wcześniej nie miały obowiązku uwzględniać – mówi Marcin Tymieniecki, Business Development Manager HPE w Also.
Pokonanie tych przeszkód wymaga nie tylko przedefiniowania strategii w zakresie ochrony i zarządzania danymi, ale również inwestycji w narzędzia nowej generacji, które zastąpią konwencjonalne rozwiązania. Część firm już zapoczątkowała ten proces, a widoczne są też pewne ruchy ze strony producentów rozszerzających swoją ofertę, a także wchodzących w alianse, co ma im pomóc w realizacji rosnących potrzeb klientów. Ciekawym przykładem jest współpraca HPE z Cohesity – jednym z najbardziej obiecujących nowych graczy w segmencie ochrony danych.
Badania IDC pokazują, że korporacyjne systemy pamięci masowych rozrastają się wykładniczo – 30,9 proc. przy pięcioletnim CAGR. Nie ma co liczyć na to, że w najbliższych latach to tempo osłabnie. Co gorsza, pojawił się kolejny problem w postaci nadmiernego rozwarstwiania infrastruktury IT. Otwiera to nowe możliwości przed hakerami, którzy mogą atakować coraz więcej – na ogół słabo zabezpieczonych – punktów końcowych. W ostatnich latach prawdziwą zmorą stały się gangi ransomware, które każą sobie płacić coraz wyższe stawki za odszyfrowanie danych. Według Coverware w IV kwartale 2021 r. średnia opłata za odszyfrowanie danych wynosiła 322 168 dol., co oznacza 130 proc. wzrostu kwartał do kwartału.
Napastnicy sięgają przy tym po nowe, zaawansowane metody ataków. W przeszłości przed ransomwarem można się było zabezpieczyć przy pomocy dobrej kopii bezpieczeństwa, ponieważ jedyną intencją napastników było zablokowanie użytkownikom dostępu do danych. Obecnie hakerzy nie tylko usuwają kopię zapasową, ale również wykradają i upubliczniają dane. Przedsiębiorstwa stają przed wyborem – płacić haracze czy przeznaczyć środki na wzmocnienie fortyfikacji. Przy czym sam zakup narzędzi to jeden z kroków, konieczna jest też współpraca działów bezpieczeństwa ze specjalistami ds. przetwarzania danych.
– Rozwiązania do zarządzania i ochrony danych tradycyjnie są systemami zamkniętymi, utrudnia to współpracę działów bezpieczeństwa oraz IT. Tym samym sąsiednie aplikacje, które mogłyby korzystać z analityki i sztucznej inteligencji, mają z tym problem. Zamknięty charakter tradycyjnego zarządzania danymi prowadzi do nieefektywności i złożoności, a rozproszona infrastruktura dodatkowo komplikuje sytuację – mówi Marcin Tymieniecki.
Choć środowisko IT ewoluuje, nadal istnieje liczna grupa firm korzystających z tradycyjnych systemów ochrony danych. Utrzymywanie wiekowego sprzętu oraz oprogramowania jedynie utrwala funkcjonowanie silosów w centrum przetwarzania danych i prowadzi do dalszej segmentacji infrastruktury oraz zespołów odpowiedzialnych za ich obsługę. Nowoczesne narzędzia do zarządzania danymi, takie jak Cohesity DataPlatform, są wyposażone w scentralizowaną konsolę do obsługi wielu urządzeń i aplikacji w wielu środowiskach pamięci masowych, co znacząco ułatwia pracę ich administratorom. Ponadto umożliwiają realizację wielu funkcji IT, takich jak tworzenie kopii zapasowych, odzyskiwanie danych po awarii, migracja, zapewnienie zgodności z wewnętrznymi wytycznymi czy archiwizacja. Chyba najlepiej ideę funkcjonowania tego typu rozwiązań oddaje wypowiedź Mohita Arona, założyciela i CEO Cohesity.
– Nie interesują nas aplikacje krytyczne, które stanowią jedynie wierzchołek góry lodowej. To zaledwie 20 procent danych, cała reszta spoczywa „pod powierzchnią wody”. Innymi słowy, pozostałe 80 procent stanowią dane porozrzucane po różnych urządzeniach służących do tworzenia kopii zapasowych, przechowywania plików, obiektów, danych analitycznych czy pochodzących z testów – tłumaczy Mohit Aron.
Analitycy zwracają uwagę na fakt, że tradycyjna ochrona koncentruje się na przesyłaniu ważnych danych z zasobów lokalnych do chmury, ale niebawem się to zmieni. IDC przewiduje, że do 2025 r. aż 49 proc. światowych danych będzie przechowywanych w chmurze publicznej. W związku z tym nowa generacja urządzeń musi uwzględniać, iż w nieodległej przyszłości najważniejsze aplikacje i dane będą powstawać przede wszystkim w środowisku chmurowym.
Do zbudowania firmy, która potrafi skutecznie odpierać natarcia hakerów, niezbędne jest kompleksowe podejście. Chociażby takie, jakie proponuje NIST Cyber Security Framework (NIST CSF). Pięć filarów stanowią tutaj: identyfikacja, ochrona, reagowanie, odzyskiwanie i wykrywanie. Tradycyjna ochrona danych całkowicie pomija ostatni z wymienionych obszarów. A najnowsza generacja rozwiązań do zarządzania danymi integruje funkcje bezpieczeństwa i stosuje odpowiednie środki zaradcze na wcześniejszych etapach cyberataku – nie tylko po incydencie.
– Obecne narzędzia do zarządzania danymi już wykorzystują sztuczną inteligencję do identyfikowania, z których kopii zapasowych można bezpiecznie odtworzyć dane. Zarządzanie danymi nowej generacji rozszerzy wykorzystanie sztucznej inteligencji do wykonywania analiz obszaru danych jako całości oraz oceny podatności na zagrożenia. Będzie również wydawać zalecenia dotyczące poprawy stanu bezpieczeństwa firmy – dodaje Marcin Tymieniecki.
Aby zrealizować ten cel, konieczna jest integracja systemów do zarządzania danymi z rozwiązaniami partnerskich firm technologicznych i stworzenie ekosystemu do komunikacji między programami i do udostępniania ich funkcji.
Artykuł HPE i Cohesity: koniec chaosu w centrach danych pochodzi z serwisu CRN.
]]>Artykuł QNAP QTS 5.0: większe bezpieczeństwo i wydajność pochodzi z serwisu CRN.
]]>Nowe jądro systemu QTS 5.0 usprawniło wydajność połączeń z magistralą PCIe, co przełożyło się na zwiększenie wydajności transferu danych z i na dyski SSD NVMe wykorzystywane jako pamięć podręczna, a przez to odciążenie pamięci RAM. Wysoka wydajność utrzymuje się nawet wtedy, gdy wielu użytkowników jednocześnie korzysta z tych samych udostępnionych folderów. Dodatkową zaletą jest przyspieszenie przesyłania dużych plików za pośrednictwem protokołu SMB/NFS.
Dzięki współpracy firm QNAP i ULINK Technology powstała aplikacja DA Drive Analyzer. Zawiera ona bazujący na sztucznej inteligencji mechanizm, który przewiduje spodziewaną żywotność dysków i tym samym umożliwia podjęcie z wyprzedzeniem działań zapobiegających utracie danych w wyniku awarii.
Użytkownicy mogą także zainstalować aplikację TeamViewer QNAP NAS i za jej pomocą zdalnie łączyć się ze swoimi serwerami z komputera PC z systemem Windows. Zapewnia to bezpieczne rozwiązanie zdalnego dostępu bez konfigurowania skomplikowanych tuneli VPN.
Nowością jest także intuicyjna w obsłudze aplikacja QuFTP, która skupia wszystkie funkcje związane z przesyłaniem danych z zastosowaniem protokołu FTP. Wbudowany w nią mechanizm szyfrowania SSL/TLS zapewnia większe bezpieczeństwo i ochronę transmisji. Możliwe jest też ograniczenie prędkości transferu danych przez FTP – dla całego urządzenia bądź poszczególnych użytkowników czy też ich grup.
W znajdującej się w systemie QTS 5.0 aplikacji QNAP AI Core zastosowano bazujący na sztucznej inteligencji mechanizm analizy obrazów Edge TPU (Tensor Processing Unit), który umożliwia szybkie rozpoznawanie przez serwery QNAP NAS twarzy i obiektów. Aplikacja AI Core współpracuje ze sprzętowymi akceleratorami firmy Coral, które dostępne są jako moduł M.2 lub zewnętrzne urządzenie, podłączane przez port USB.
Rozwiązanie to znalazło zastosowanie w aplikacji do zarządzania zdjęciami QuMagie – umożliwia znaczne skrócenie czasu oczekiwania na rozpoznanie i klasyfikację obrazu podczas importowania dużej liczby fotografii. Z kolei w aplikacji QVR Face funkcja Edge TPU zapewnia analizę wideo w czasie rzeczywistym w rozbudowanych środowiskach monitoringu wideo, w których konieczne jest szybkie rozpoznawanie dziesiątek tysięcy twarzy lub analiza danych z bardzo dużej liczby kamer.
Wyższy poziom bezpieczeństwa
Ochrona danych użytkowników od zawsze stanowi priorytet dla inżynierów QNAP-a. Dlatego w nowej wersji systemu QTS wprowadzono kilka usprawnień gwarantujących zabezpieczenie przed wyciekiem danych bądź ich zaszyfrowaniem w wyniku ataku ransomware. Jedną z nich jest opcja automatycznego aktualizowania oprogramowania. Teraz można ją włączyć osobno dla firmware’u oraz dla aplikacji pobranych ze sklepu App Center. Dostępny jest też wybór, czy ma być instalowana każda nowa wersja oprogramowania czy tylko te z poprawkami bezpieczeństwa. Pojawiło się także szyfrowanie protokołem TLS 1.3 oraz zabezpieczenie dostępu do serwera NAS kluczami SSH, co zapobiega procederowi łamania haseł czy innym podobnym atakom.
Już wkrótce w nowej wersji systemu dostępna będzie nowa usługa QVPN 2.0, w której zastosowano popularny, nieobciążający systemu i niezawodny protokół WireGuard VPN. Obsługująca tę funkcję aplikacja wyposażona będzie w intuicyjny interfejs umożliwiający ustanowienie bezpiecznego połączenia, a więc narzędzie szczególnie wartościowe w przypadku pracy z miejsca poza biurem.
Autoryzowanymi dystrybutorami rozwiązań QNAP w Polsce są: AB, EPA Systemy i Konsorcjum FEN.
Dodatkowe informacje: Grzegorz Bielawski, Country Manager, QNAP, gbielawski@qnap.com
Artykuł QNAP QTS 5.0: większe bezpieczeństwo i wydajność pochodzi z serwisu CRN.
]]>Artykuł Poufne – znaczy dobrze rozpoznane pochodzi z serwisu CRN.
]]>Za największe zagrożenie dla polskich przedsiębiorstw uznaje się wycieki danych spowodowane przez złośliwe oprogramowanie (malware), ale także wyłudzanie danych uwierzytelniających (phishing), wycieki danych w wyniku kradzieży lub zgubienia nośników czy też urządzeń mobilnych oraz kradzież danych przez pracowników. Dla połowy firm biorących udział we wspomnianym badaniu największą barierą utrudniającą budowanie odpowiedniego poziomu zabezpieczeń były trudności w znalezieniu oraz utrzymaniu odpowiednio wykwalifikowanych pracowników.
W tej sytuacji szczególnego znaczenia nabiera wprowadzanie efektywnych mechanizmów ochrony danych w przedsiębiorstwach. Chodzi zarówno o rozwiązania techniczne, jak i zasady dostępu oraz korzystania z danych przez zatrudnianych w firmach użytkowników systemów informatycznych. Jak podkreślają specjaliści od cyberbezpieczeństwa, odpowiedzialność za ochronę danych powinna spoczywać na każdym pracowniku, nie tylko ekspertach IT lub fachowcach od bezpieczeństwa.
Jest to szczególnie ważne obecnie, gdy zauważalne są wysokie wzrosty kosztów związanych z naruszeniem bezpieczeństwa danych. Jak wynika z przeprowadzonego przez IBM Security globalnego badania, średni koszt jednego incydentu wyniósł wśród uczestniczących w badaniu firm 4,24 mln dol. To najwyższy rezultat odnotowany w 17-letniej historii raportu. Z jego tegorocznej edycji wynika, że poszczególne przypadki stały się bardziej kosztowne, a ich skutki trudniejsze do naprawienia w związku ze zmianami w sposobie prowadzenia działalności w trakcie pandemii.
Jak zauważają autorzy raportu, w 2020 r. firmy zostały zmuszone do szybkiego dostosowywania swoich metod pracy do nowych warunków, w tym pracy zdalnej, oraz korzystania w większym niż dotychczas zakresie z rozwiązań chmurowych. Szybkim zmianom informatycznego środowiska pracy nie towarzyszyły jednak równie szybkie modyfikacje stosowanych zabezpieczeń, co obniżyło zdolność tych rozwiązań do właściwego reagowania na przypadki naruszenia danych.
Ochrona danych w prawie
Wśród danych, które w każdych warunkach – a zwłaszcza w sytuacji zwiększonego ryzyka naruszeń, jak ma to miejsce obecnie – powinny zostać poddane szczególnej ochronie, są dane wrażliwe, najbardziej istotne dla prowadzonej działalności, newralgiczne dla sprawnego funkcjonowania przedsiębiorstwa. Są to zazwyczaj informacje poufne, do których nie może mieć dostępu nikt poza ściśle określonymi i jednoznacznie wskazanymi użytkownikami. Do tego powinny być przetwarzane zgodnie z precyzyjnie zdefiniowanymi procesami.
Skutki wycieku danych wrażliwych mogą się wiązać z co najmniej dwojakiego rodzaju kosztami: biznesowymi i prawnymi. W pierwszym przypadku zagrożona może zostać przewaga konkurencyjna firmy i jej pozycja rynkowa. W drugim, przedsiębiorstwo może zostać pociągnięte do odpowiedzialności wynikającej z regulacji prawnych, w tym również do zapłacenia kar, często wysokich. Natomiast w obu na szwank narażona zostaje reputacja danego podmiotu.
Przepisy polskiego prawa obejmują kilka rodzajów informacji, które zostały poddane ochronie. Ustawa o ochronie informacji niejawnych określa zasady ochrony danych zastrzeżonych, poufnych, tajnych i ściśle tajnych. Istnieją też regulacje dotyczące ochrony informacji będących różnego rodzaju tajemnicą: państwową, służbową, tajemnicą przedsiębiorstwa czy zawodową (lekarską, adwokacką itp). Osobne przepisy dotyczą zachowania tajemnicy branżowej, na przykład bankowej czy telekomunikacyjnej. Do innych, prawnie chronionych, należy też tajemnica statystyczna, korespondencji i negocjacji.
Zasady ochrony tajemnicy przedsiębiorstwa określa ustawa o zwalczaniu nieuczciwej konkurencji. Zgodnie z jej zapisami, do tajemnicy firmowej zalicza się informacje: techniczne, technologiczne, organizacyjne lub inne stanowiące wartość gospodarczą, ale które nie są powszechnie znane albo nie są łatwo dostępne dla osób nimi zainteresowanych. Chodzi głównie o dane związane z działalnością gospodarczą, które mają wartość biznesową, jak bazy klientów, receptury, informacje o kontrahentach, rynkach zbytu, plany produkcji itp. To jednak przedsiębiorca musi określić, które konkretnie informacje stanowią tajemnicę przedsiębiorstwa i powinny zostać objęte ochroną.
W osobny sposób uregulowana została ochrona danych osobowych. Jej zasady określa obowiązujące od maja 2018 r. unijne rozporządzenie o ochronie danych osobowych (RODO). Należy pamiętać, że mogą one być przetwarzane tylko w ściśle określonych warunkach i do ściśle określonych celów. Mówią o tym art. 5 i 6 unijnego rozporządzenia. Przepisy nie precyzują natomiast, w jaki sposób i za pomocą jakich narzędzi ma to być realizowane. Zastosowane rozwiązania mają być adekwatne do oszacowanego ryzyka, zdefiniowanych zagrożeń i istniejących uwarunkowań.
Dokładna klasyfikacja przetwarzanych danych zwiększa trafność podejmowanych przez systemy informatyczne decyzji w zakresie ochrony. Pozwala na udostępnianie danych z poszczególnych kategorii tylko właściwym, uprawnionym użytkownikom. Precyzyjna klasyfikacja oznacza w efekcie większą skuteczność ochrony ważnych dla przedsiębiorstwa zasobów informacji. W dużych firmach pomocna może okazać się automatyzacja procesów klasyfikacji czy etykietowania danych. Coraz częściej na rynku dostępne są rozwiązania korzystające z algorytmów sztucznej inteligencji.
Zgodnie z katalogiem
Podstawą ochrony danych poufnych jest ich właściwa identyfikacja i klasyfikacja. Zanim zostanie podjęta decyzja o wyborze rozwiązania technicznego czy organizacyjnego do zabezpieczenia zasobów informacyjnych, trzeba dokładnie określić jakimi danymi wrażliwymi firma dysponuje, gdzie są one zlokalizowane oraz w jakich procesach są lub mogą być przetwarzane. Trzeba ustalić, w jaki sposób dane są przechowywane oraz udostępniane zarówno wewnątrz, jak i na zewnątrz przedsiębiorstwa. Na podstawie wyników takiej analizy można wskazać kto i w jakim zakresie może lub powinien mieć do nich dostęp.
Ochrona będzie naprawdę skuteczna tylko wówczas, gdy rozpocznie się od inwentaryzacji i uporządkowania danych, czyli weryfikacji ich umiejscowienia, a następnie sklasyfikowania. To zadanie może być dla integratorów okazją do świadczenia dodatkowych usług w postaci stworzenia struktury zbiorów danych klientów pod kątem możliwości ich jak najlepszego zabezpieczenia.
Dobrze przeprowadzona, szczegółowa identyfikacja danych poufnych i wrażliwych może przełożyć się również na wymierne korzyści biznesowe. Pozwoli na zastosowanie precyzyjnie dobranych narzędzi oraz zabezpieczeń do konkretnych zasobów informacyjnych i związanego z nimi ryzyka. Nie trzeba będzie ponosić niepotrzebnych kosztów jednakowej, szerokiej ochrony wszystkich danych w przedsiębiorstwie.
Do wprowadzenia i utrzymania porządku w zbiorach informacji pomocne mogą być narzędzia informatyczne do klasyfikacji danych. Wchodzą one zazwyczaj w skład systemów do ochrony przed wyciekiem danych (DLP – Data Lost Prevention), ale są też dostępne jako osobne oprogramowanie. Pozwalają na indeksowanie przetwarzanych danych pod kątem ich znaczenia dla bezpieczeństwa firmy – dzięki temu możliwa jest potem ich automatyczna ochrona. Na przykład system może zablokować dostęp do pliku z danymi osobowymi lub uniemożliwić jego wysłanie jako załącznika w e-mailu pracownikowi, który nie jest upoważniony do przetwarzania tych właśnie danych.
Skuteczność działania systemów DLP jest tym większa, im bardziej przemyślane, jednoznaczne i precyzyjne zasady klasyfikacji danych zostały wypracowane w firmie. Może w tym z pewnością pomóc wprowadzenie polityki data governance. Współpraca ze specjalistami z tej dziedziny może być również polem dodatkowej aktywności biznesowej dla usługodawców zajmujących się cyberbezpieczeństwem.
Tylko dla wybranych
Gdy zostały już odpowiednio rozpoznane i skatalogowane zasoby danych, w tym zidentyfikowane te podlegające szczególnej ochronie, pora na wprowadzenie mechanizmów kontroli dostępu do nich. W aspekcie technicznym można skorzystać z wielu różnych dostępnych na rynku rozwiązań, np. zastosować szyfrowanie, pseudonimizację, bądź (w uzasadnionych przypadkach) anonimizację danych. Pseudonimizacja to proces odwracalny, anonimizacja zaś polega na trwałym usunięciu informacji umożliwiających wszelką identyfikację ich podmiotu.
Integratorzy mogą wdrażać u klientów systemy uwierzytelniania, kontroli tożsamości, blokowania nieuprawnionego dostępu, czy też zarządzania kontami uprzywilejowanymi. Przydatne może być stworzenie centralnej bazy użytkowników, która ułatwia sprawdzanie kto do jakich danych ma dostęp i w jaki sposób z nich korzysta. Z kolei centralna baza haseł dostępu pozwoli na monitorowanie zagrożeń związanych z nieuprawnionym użyciem kont uprzywilejowanych.
I tak, narzędzia typu Single Sign-On umożliwiają pracownikom firmy jednorazowe, centralne logowanie do wszystkich autoryzowanych zasobów, systemów i usług sieciowych. Grupują w jednym miejscu wszystkie przydzielone użytkownikom reguły dostępu, dając tym samym większe możliwości monitorowania sposobów korzystania z przyznanych uprawnień. Pojedynczy punkt dostępu ułatwia pracownikowi korzystanie z przydzielonych zasobów i narzędzi, a działowi IT czy cyberbezpieczeństwa pozwala na skuteczniejszą kontrolę i ochronę firmowego środowiska.
Z kolei systemy klasy Identity Management i Access Management (zarządzanie tożsamością i dostępem) umożliwiają przydzielanie użytkowników do określonych grup oraz nadawanie im odpowiednich, ściśle zdefiniowanych ról, do których przypisane są uprawnienia do korzystania ze ściśle określonych rodzajów danych w ściśle określonych sytuacjach. Rozwiązania klasy PAM (Privileged Access Management) pozwalają natomiast na monitorowanie dostępu do zasobów przez użytkowników uprzywilejowanych.
Systemy kontroli dostępu zapewniają coraz więcej funkcji i możliwości ochrony firmowych zasobów. Wiele z nich bazuje na algorytmach sztucznej inteligencji, przede wszystkim z zakresu uczenia maszynowego. Systemy biometrii behawioralnej uczą się zachowania użytkowników, dzięki czemu są w stanie z dużym prawdopodobieństwem rozpoznać, jakie czynności można uznać za normalne, a co odbiega od ustalonego wzorca i powinno być powodem do alarmu. Ochrona dostępu bazuje na analizie tego, jak użytkownik posługuje się komputerem i w jaki sposób z niego korzysta, a nie tego, co robi.
Podejście to jest bardzo użyteczne w przeciwdziałaniu nieznanym wcześniej incydentom i zagrożeniom, typu zero day. Rozwiązania korzystające z mechanizmów sztucznej inteligencji mogą być również bardzo skuteczne przy zyskującym w pandemii na popularności podejściu do bezpieczeństwa w modelu braku zaufania (Zero Trust). Bazuje ono na przekonaniu, że nie należy ufać czemukolwiek ani komukolwiek zarówno wewnątrz, jak i na zewnątrz środowiska IT. Dlatego trzeba nieustannie sprawdzać i weryfikować wszelkie próby korzystania z zasobów przed udzieleniem do nich dostępu. Żeby mogło to odbywać się sprawnie i szybko, musi być robione w sposób automatyczny. Takie możliwości zapewniają narzędzia analityczne, korzystające z algorytmów sztucznej inteligencji. To ważny kierunek rozwoju systemów zabezpieczeń, który powinny brać pod uwagę firmy poważnie myślące o rozwoju działalności w obszarze cyberbezpieczeństwa.
Zdaniem integratora
Powszechna migracja do pracy zdalnej zmieniła istotnie podejście do bezpieczeństwa danych, poważnie też zaczęła być traktowana koncepcja Zero Trust. Rośnie zainteresowanie klientów systemami do klasyfikacji danych oraz rozwiązaniami DLP, a więc do ochrony przed wyciekami. W znaczący sposób zyskują też na popularności systemy klasy Privileged Identity/Access Management (PIM/PAM), które zabezpieczają i kontrolują procesy zdalnego, uprzywilejowanego dostępu do urządzeń klientów. To obecnie istotny wektor ataków mających na celu pozyskiwanie danych wrażliwych przedsiębiorstwa. Coraz większego znaczenia nabiera także monitoring incydentów – zauważalny jest wzrost zainteresowania usługami Security Operations Center. Brak na rynku odpowiednich specjalistów i wysokie koszty ich zatrudnienia uniemożliwiają klientom budowanie takich struktur u siebie.
Od marca 2020 roku większość naszych klientów zaczęła przechodzić na pracę zdalną. Scentralizowana dotąd infrastruktura musiała zostać w sposób bezpieczny rozproszona. Problemem był brak wdrożonych rozwiązań chroniących tunel połączeń pomiędzy oddziałami oraz niezabezpieczone urządzenia mobilne. Pracownicy w domowym biurze, korzystający z VPN, bardzo często nie mieli właściwych zabezpieczeń, co zwiększyło podatność ich sieci na ataki. Odnotowaliśmy znaczny wzrost liczby incydentów phishingowych, wykorzystania narzędzi typu keylogger oraz do kradzieży haseł. W firmach zapominano także o tym, że to administrator powinien kontrolować, gdzie i przez kogo będą pobierane oraz przetwarzane dane stanowiące ich własność intelektualną. Skutecznym sposobem na zabezpieczenie w krótkim czasie firmowych zasobów w realiach pracy zdalnej okazywał się być scentralizowany dostęp do danych poprzez zaufaną, chmurową platformę.
Artykuł Poufne – znaczy dobrze rozpoznane pochodzi z serwisu CRN.
]]>Artykuł Zarządzanie danymi z chmury otwiera nowe możliwości pochodzi z serwisu CRN.
]]>Omer Asad Tę sytuację należy rozpatrywać przez kontekst charakteru danych, które mogą być ustrukturyzowane, np. bazy danych lub repozytoria backupu, jak też nieustrukturyzowane, a zatem pliki czy różnego typu informacje spływające z czujników Internetu Rzeczy. Ilość danych obu rodzajów dramatycznie rośnie, ale nad danymi ustrukturyzowanymi z założenia łatwiej jest zapanować. Natomiast w przypadku danych nieustrukturyzowanych nasi klienci sami dostrzegają, że w ich zbiorach panuje wielki bałagan. Rozmawiałem ostatnio z jednym z szefów IT dużej firmy, który przyznał, że ma 90 tys. działających wirtualnych maszyn i nie ma pojęcia, co większość z nich robi, ale boi się którąkolwiek wyłączyć, żeby nie wstrzymywać działalności biznesowej w jakimś obszarze. Uważam więc, że w firmach konieczne będzie bardzo szerokie wprowadzenie kontekstowych mechanizmów opisujących meta-danymi posiadane przez nie zasoby oraz umożliwiających ich przeszukiwanie i analizowanie. W przedsiębiorstwach, które tego nie zrobią, problem będzie się tylko pogłębiał.
Rozwiązania do zaawansowanego zarządzania danymi są już obecne na rynku od pewnego czasu. Co stoi na przeszkodzie, aby były powszechnie wdrażane?
Jest wiele wyzwań, które mogą utrudniać ten proces. Przede wszystkim w firmach funkcjonuje bardzo wiele systemów IT, często wiekowych, które nie zawsze mogą być objęte mechanizmem tworzenia meta-danych. Kolejnym wyzwaniem jest niespójna strategia korzystania z publicznych zasobów chmurowych – wciąż wiele firm ma trudności z podjęciem decyzji, które dane będą w chmurze, a które on-premise i w jaki sposób w obu przypadkach będą zarządzane. U części klientów problem z zarządzaniem danymi mógłby zostać rozwiązany poprzez wprowadzenie obiektowych pamięci masowych, ale na znaczący wzrost ich popularności trzeba będzie jeszcze poczekać. Do tego dochodzą często też zaniedbywane środowiska backupu i archiwizacji. W efekcie, w infrastrukturze klientów jest wiele „wysp” z pamięciami masowymi i znajdującymi się w nich danymi, a każda z tych wysp rośnie, zamiast ulec integracji w jedną całość.
Jak zatem nad tym zapanować?
Firmy zatrudniają coraz więcej osób na takich stanowiskach jak inżynierowie danych lub główni specjaliści ds. danych, jednak większość tych osób skupia się nadal na informacji nieustrukturyzowanej. My zaś uważamy, że potrzebne jest tu podejście całościowe. Metadane powinny być świadome kontekstu danych, niezależnie od ich charakteru i miejsca przechowywania. To zresztą ułatwi też podejmowanie decyzji, które dane lub ich starsze wersje można usunąć, a których nie, co odciąży również systemy backupu i archiwizacji. Dlatego sami podjęliśmy próbę stworzenia takiej platformy – Data Services Cloud Console. Umożliwia ona zarządzanie z poziomu chmury na razie wybranymi modelami naszych macierzy dyskowych, ale w planach jest rozszerzenie listy obsługiwanego sprzętu, być może też na rozwiązania konkurencyjne, a także kontekstowe katalogowanie danych. Naszym głównym celem jest oddzielenie procesu zarządzania macierzami od zarządzania znajdującymi się na nich danymi, a następnie uproszczenie obydwu. Obok usług zarządzania danymi planujemy dodać też funkcje związane z przywracaniem środowiska do pracy po wystąpieniu awarii lub katastrofy oraz moduły audytu i weryfikacji zgodności procesów dotyczących zarządzania danymi z regulacjami prawnymi.
Z tego typu wprowadzaniem dodatkowej warstwy abstrakcji do środowiska pamięci masowych mieliśmy już do czynienia w przypadku rozwiązań do wirtualizacji macierzy, dostępnych w ofercie kilku producentów. Tam jednak funkcjonalność wirtualizowanej macierzy była degradowana do poziomu zwykłej półki dyskowej, zaś wirtualizator przejmował wszystkie funkcje związane z zarządzaniem nośnikami i danymi. Czy chmurowe systemy zarządzania środowiskiem macierzy będą działały w podobny sposób?
Rzeczywiście, w przypadku tradycyjnej wirtualizacji pamięci masowych to wirtualizator przejmuje na siebie odpowiedzialność za zarządzanie sprzętem i danymi. Jeżeli jest to wydajne i bogate w funkcje rozwiązanie, to sytuacja taka jest z korzyścią dla użytkownika, ale może też się zdarzyć, że funkcjonalność podłączonej do niego macierzy była większa i niektóre opcje zostaną utracone. My przyjęliśmy inne podejście – nie prowadzimy wirtualizacji sprzętu, a jedynie ułatwiamy zarządzanie nim z jednego miejsca, niezależnie od rzeczywistej lokalizacji macierzy dyskowej. Bazujemy na powszechnie przyjętych w branży standardach, dostępnych poprzez interfejs API. Dzięki temu klienci nadal mogą korzystać z unikalnych funkcji danego modelu macierzy, jeśli takie ma. Specyfikacja tego interfejsu API zostanie opublikowana, więc konkurencyjni dostawcy systemów dyskowych będą mogli dostosować je do współpracy z naszą platformą chmurową. Mogą również stworzyć API dla własnych rozwiązań, żebyśmy to my dokonali takiej integracji. Tylko, niestety, ich strategia produktowa często bazuje na zamkniętym ekosystemie, co utrudnia klientowi podjęcie decyzji. Ja jestem zdecydowanym przeciwnikiem podejścia vendor lock-in, dlatego dbam, aby migracja środowiska pamięci masowych była łatwa zarówno na nasze rozwiązania, jak też z naszych na inne. Klient nie może czuć, że znalazł się w pułapce, związanej chociażby z wysokim kosztem migracji danych do środowiska innego producenta.
W niektórych modelach swoich macierzy wykorzystujecie mechanizmy sztucznej inteligencji do analizy pracy urządzenia i przewidywania ryzyka wystąpienia potencjalnych problemów. Czy widzicie możliwość zastosowania sztucznej inteligencji w podobny sposób do zarządzania danymi?
Oczywiście. Zresztą nad tego typu mechanizmami prowadzimy zaawansowane prace. Dlatego niedawno przejęliśmy firmę Zerto, która świadczy chmurowe usługi zarządzania danymi i zabezpieczania ich. Sztuczna inteligencja będzie bardzo pomocna w rozbudowanych środowiskach klientów, w których jest wiele systemów pamięci masowych. Dzięki takim mechanizmom będzie możliwe zautomatyzowanie decyzji dotyczących tego, na której macierzy dane wymagające dostępności z określonym poziomem SLA powinny być przechowywane. Informacje o wydajności i niezawodności poszczególnych systemów dyskowych będą zbierane przez cały czas, co ułatwi z jednej strony dostrojenie i zwiększenie wartości tych parametrów, a z drugiej dopasowanie ich do aktualnych potrzeb użytkowników. Zadaniem administratorów będzie wyłącznie zaakceptowanie rekomendacji lub w ogóle wyrażenie zgody, aby cały proces dział się automatycznie.
Czy docelowo, w środowisku wyposażonym w narzędzia umożliwiające kontekstowe zarządzanie danymi, za ten proces nadal powinny odpowiadać zespoły IT? Czy też należy zakładać, że ich rola wkrótce ulegnie zmianie, a może powstaną osobne działy zarządzania informacją, z którymi IT będzie ściśle współpracować?
To raczej będzie naturalny proces ewolucji struktury wewnątrz przedsiębiorstw. Nie wszystko da się zaplanować, czego świadkami już parokrotnie byliśmy. Wielu informatyków i programistów w firmach próbowało korzystać z usług chmurowych do momentu, gdy okazało się, że na przykład nie pozwala im na to prawo. My tylko dajemy narzędzie do zarządzania z chmury, co zresztą nie jest nową koncepcją, bo w podobny sposób można już zarządzać urządzeniami sieciowymi czy sprzętem mobilnym. Ewentualna modyfikacja struktury firmy, będąca skutkiem wdrożenia nowego narzędzia, zależy od niej samej.
Decyzja o skorzystaniu z usług w chmurze publicznej do zarządzania danymi od razu rodzi wątpliwości co do bezpieczeństwa. Jakie wyzwania w tym zakresie widzicie i jak sobie z nimi radzicie?
W kontekście zarządzania urządzeniami mamy duże doświadczenie płynące z dwóch usług. Pierwsza to wspomniany już InfoSight – jest to mechanizm analizy pracy macierzy dyskowych, kupiony wraz z firmą Nimble Storage, a następnie rozszerzony przez nas o funkcję analizy pracy naszych serwerów. Druga usługa to Aruba Central, która umożliwia zarządzanie urządzeniami sieciowymi Aruba Networks. Z obu usług korzystają tysiące klientów i nigdy nie mieliśmy żadnej sytuacji kryzysowej związanej z bezpieczeństwem danych. Ważne też podkreślenia jest, że mechanizmy tych usług zostały stworzone tak, aby niemożliwe było wykorzystanie ich do kradzieży poufnych danych ze środowiska klienta. Algorytmy tych usług nigdy nie wysyłają zapytania o dane do urządzeń, ponieważ ten proces jest odwrócony – to urządzenia wysyłają informacje o statusie swojej pracy do modułu zarządzającego. Zadbaliśmy także, aby dane spływające z urządzeń różnych klientów były odizolowane od siebie i zagwarantowaliśmy ich szyfrowanie. Pozytywnie zweryfikowaliśmy też zgodność całej procedury z RODO i zapewniamy, że informacje dotyczące sprzętu europejskich klientów nie opuszczają Europy.
Czy, w kontekście takich zmian w modelu przechowywania i przetwarzania danych, rola partnerów kanałowych w jakiś sposób ulegnie zmianie?
Lista usług, które mogą świadczyć integratorzy dzięki tym zmianom, znacznie się rozrasta. Będą mogli wykorzystywać nowe mechanizmy bazujące na sztucznej inteligencji, do analizy danych klientów oraz rekomendowania najbardziej optymalnych rozwiązań do ich przechowywania i zarządzania nimi. Wcześniej takie rekomendacje przygotowywane były głównie na bazie szacunków lub samodzielnie tworzonych skryptów, które nie uwzględniały wielu aspektów. Żeby zapewnić taką możliwość naszym partnerom, kupiliśmy firmę CloudPhysics, która stworzyła platformę do analizy danych. Zdecydowaliśmy, że partnerzy będą mogli korzystać z niej za darmo – zostanie udostępniona pod koniec tego roku. Oczywiście nadal możliwe będzie, aby klienci przekazywali współpracującym z nimi integratorom zarządzanie swoim środowiskiem z wykorzystaniem platformy chmurowej.
Nie można zapominać jednak, że fizycznie te dane muszą być gdzieś przechowywane. Jak waszym zdaniem będzie wyglądała przyszłość nośników, które do tego służą? Przez ostatnie lata jesteśmy świadkami rewolucji spowodowanej przez zdobywające coraz większe uznanie pamięci flash NVMe. Są one coraz częściej stosowane w profesjonalnych systemach pamięci masowych i wszystko wskazuje na to, że wkrótce zdominują rynek.
Rzeczywiście, półprzewodnikowe pamięci flash doprowadziły do rewolucji ze względu na łatwość zarządzania, przewidywalność odnośnie do awaryjności, mniejszy niż w przypadku dysków pobór prądu oraz większą gęstość zapisu, co przekłada się na możliwość zmniejszenia wymiarów urządzeń pamięci masowych. Cieszy też, że cały czas tanieją. Natomiast dzięki zastosowaniu w dużych systemach nowych nośników flash NVMe doszło do ciekawego odwrócenia sytuacji – do tej pory to pamięci masowe były wąskim gardłem, natomiast obecnie stały się nim inne elementy infrastruktury IT, przede wszystkim sieć. Między innymi dlatego powstał protokół NVMe over Fabric, żeby optymalnie wykorzystać posiadaną przez firmy infrastrukturę Fibre Channel. Uważam jednak, że nie jest to najbardziej optymalne rozwiązanie, szczególnie jeśli klienci nie dysponują infrastrukturą Fibre Channel o przepustowości 16 lub 32 Gb/s.
Czy to oznacza, że standard Fibre Channel, uważany za jedno z najbardziej stabilnych i niezawodnych rozwiązań w branży IT, odejdzie do lamusa?
Na pewno nie od razu, bo korzysta z niego bardzo wielu klientów, ale w dłuższej perspektywie czasowej raczej jest to nieuniknione. Uważam, że ze względu na olbrzymią popularność standardu Ethernet znacznie częściej stosowane będą zapewniające podobną wydajność, jak NVMe-oF,protokoły NVMe over RoCE lub TCP RDMA, które gwarantują bezpośredni dostęp do pamięci poprzez infrastrukturę ethernetową. Jest ona nieustannie rozwijana i w centrach danych powszechne stają się już łącza o przepustowości 40 Gb/s, gwarantujące bardzo małe opóźnienia przesyłanych danych. A skoro efektywna wydajność transferu danych w sieci Ethernet zbliżyła się do tej zapewnianej przez Fibre Channel, to raczej oczywistą decyzją klientów będzie, aby utrzymywać tylko jedną, a do tego łatwiejszą w zarządzaniu infrastrukturę sieciową, zamiast dwóch.
Jednym z ciekawych trendów jest integracja systemów pamięci masowych i backupu, także długoterminowego. Dzięki temu możliwe jest korzystanie z kopii danych, na przykład wirtualnych maszyn, natychmiast po wystąpieniu awarii środowiska podstawowego. Czy tego typu podejście ma sens i utrzyma się na rynku?
Nie dość, że się utrzyma, to uważam, że ta integracja powinna postępować jeszcze głębiej, a więc funkcje backupu należy zintegrować bezpośrednio z systemami pamięci masowych. Częściowo to zresztą już się dzieje, ponieważ w macierzach dyskowych obecne są snapshoty, czyli kopie migawkowe, ale one zapewniają tylko krótkoterminowe przywracanie danych z nieodległego momentu w przeszłości. Natomiast w procesie tworzenia bardziej rozbudowanego systemu, spełniającego wymogi skomplikowanej strategii zabezpieczania danych, klient jest zdany sam na siebie. Jego sytuację utrudnia też fakt, że obsługa środowiska backupowego jest bardzo droga i czasem nieskuteczna, bo często zdarza się, że administratorzy mają trudności z odzyskaniem danych. Między innymi z tego powodu zdecydowaliśmy, że w naszej chmurowej konsoli będzie dostępna także funkcja backupu, realizowana z zastosowaniem sztucznej inteligencji, aby zminimalizować ryzyko niepowodzenia tego procesu.
Podobnym trendem jest podejmowana przez niektórych producentów oprogramowania do backupu próba integracji go z mechanizmami chroniącymi przed złośliwym kodem. Czy należy traktować to jako ciekawostkę, czy też może trzeba zakładać, że wkrótce antywirusy trafią także do macierzy dyskowych?
Ten kierunek jest jak najbardziej słuszny, a mechanizmy zwalczające złośliwy kod powinny jak najszybciej trafić również do systemów pamięci masowych w celu analizy zgromadzonych w nich plików. Tam zresztą będą mogły działać z bardzo dużą wydajnością, bez obciążania serwerów lub też urządzeń końcowych. Pozwoliłoby to również na uniknięcie zainfekowania stacji roboczych, jeszcze zanim podejrzany plik zostanie przesłany przez sieć.
Pomiary wydajności systemów pamięci masowych to jeden z najtrudniejszych, a jednocześnie budzących duże emocje tematów. Wcześniej dobrym punktem odniesienia były wyniki publikowane przez Storage Performance Council, ale od kilku lat testom wydajnościowym nie są już poddawane najnowsze modele systemów dyskowych liczących się producentów, także HPE. Dlaczego tak się dzieje i jakie źródło informacji o wydajności pamięci masowych jest dziś najbardziej wiarygodne?
Z czasem testy porównawcze SPC stały się nieco mniej istotne ze względu na brak możliwości uwzględnienia takich czynników zapewniających wartość dodaną, jak kompleksowe usługi do zarządzania danymi, które są obecnie standardem u wielu popularnych dostawców pamięci masowych. Jest to główny powód, dlaczego dziś coraz mniej wiodących producentów publikuje wyniki w rankingu SPC. I niestety, nie istnieje obecnie żadne inne źródło porównujące parametry wydajnościowe systemów pamięci masowych.
Rozmawiał Krzysztof Jakubik
W HPE odpowiada za poszerzenie portfolio firmy w zakresie chmury i zarządzania danymi. Poprzednio pracował w Pure Storage, gdzie zajmował się zarządzaniem w obszarze oprogramowania oraz produktami wielochmurowymi, strategią, marketingiem technicznym i funkcjami architektury rozwiązań. Zajmował również kierownicze stanowiska w Riverbed Technology, NetApp i Sun Microsystems. Z wykształcenia jest informatykiem, tytuł magistra uzyskał na amerykańskiej uczelni DukeUniversity. Obecnie mieszka w San Jose w Kalifornii.
Artykuł Zarządzanie danymi z chmury otwiera nowe możliwości pochodzi z serwisu CRN.
]]>Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Flagowym produktem Strong Box Data jest platforma StrongLink, przeznaczona do zarządzania zasobami przechowywanymi na heterogonicznych systemach pamięci masowej. System obsługuje pliki znajdujące się zarówno w chmurze publicznej, jak i środowisku lokalnym, radzi też sobie z różnymi rodzajami nośników – twardymi, pamięciami flash oraz taśmami. StrongLink jest bezagentowy i wdrażany na maszynach wirtualnych lub rozwiązaniach sprzętowych. Z platformy korzysta Niemieckie Centrum Opracowań Klimatologicznych, które gromadzi 150 PB danych na pięciu bibliotekach taśmowych pochodzących od różnych producentów.
– Organizacje prowadzące operacje na dużych zbiorach danych często zadają sobie pytania: co mam, gdzie to aktualnie się znajduje, w jakim miejscu powinno być umieszczone, jak korzystają z tego pracownicy. Zastosowanie naszej platformy powoduje, że tego typu dylematy znikają – tłumaczy Floyd Christofferson, CEO StrongBox Data.
Dane niczym zombie
O dane klientów korporacyjnych ze Strong Box Data konkuruje startup Komprise. Platforma Komprise Intelligent Data Management służy do obsługi nieustrukturyzowanych danych, a także ich archiwizacji, analizy, umożliwiając dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System nie wykorzystuje żadnych agentów, bazuje na otwartych standardach i zapewnia natywny dostęp z dowolnej lokalizacji.
– Naszym celem jest uzmysłowienie menedżerom, że istnieje zjawisko, które określamy jako „dane zombie”. Firmy niepotrzebnie tracą mnóstwo czasu, energii i pieniędzy na przechowywania i przetwarzania zbędnych zasobów cyfrowych – tłumaczy Krishna Subramanian, COO Komprise.
Założyciele tego kalifornijskiego startupu z siedzibą w Campbell twierdzą, że mnogość rozwiązań oferowanych na rynku pamięci masowych pogłębia chaos, a firmy popełniają kardynalne błędy, takie jak kupowanie nadmiarowej przestrzeni dyskowej czy traktowanie chmury jako taniej szafki do przechowywania plików. Niektórzy klienci Komprise przyznają, że udało im się zredukować koszty związane z backupem oraz przechowywaniem informacji nawet o 70 proc., inni wskazują na kilkunastokrotne przyspieszenie procesu migracji danych. Krishna Subramanian przyznaje, że trwająca pandemia nie wpływa negatywnie na prowadzony biznes. Wręcz przeciwnie, w ubiegłym roku pojemność nieustrukturyzowanych danych usługodawców, którymi zarządza Komprise wzrosła o 380 proc. Na liście klientów tej firmy znajduje się wiele znanych koncernów, w tym Pfizer, ATT, Qualcomm czy Raytheon. Niewykluczone, że już wkrótce firma pozyska nowych klientów na Starym Kontynencie – w styczniu podpisała ogólnoeuropejską umowę z Tech Datą.
(De)centralizacja w hurtowniach danych
Przyrost danych to tylko jedno z wyzwań stojących przed dużymi przedsiębiorstwami. Nie mniej uciążliwe staje się zapanowanie nad złożoną infrastrukturą, która sprawia, że firmy gubią się w gąszczu cyfrowych zasobów. W efekcie, według IDC, pracownicy mogą spędzać nawet ponad 70 proc. swojego czasu na wyszukiwanie i przygotowywanie danych do analizy.
– Dlatego ze swojej strony zamierzamy zapewnić naszym klientom elastyczność w realizacji zadań analitycznych w oparciu o ich środowiska lokalne i chmurowe. Wiele organizacji zainwestowało poważne środki finansowe w infrastrukturę lokalną, aby zarządzać swoimi danymi. Nie zamierzają z tego zrezygnować, a przenoszenie wszystkiego do chmury nie ma sensu. Zauważamy, że firmy stawiają na hybrydowe podejście do analityki – mówi George Shahid, CEO Datameer.
Ta kalifornijska firma oferuje chmurową platformę obsługującą pełny cykl życia danych – od ich odkrywania, poprzez analizę i transformację z różnych źródeł, aż po katalogowanie artefaktów analitycznych. Datameer działa na rynku od dwunastu lat i skupia przede wszystkim klientów z sektora finansowego, w tym HSBC, Deutsche Bank, Citi czy American Express. Najnowsze rozwiązanie Datameer Spotlight zapewnia użytkownikom dostęp do dowolnego źródła danych – zarówno w środowisku lokalnym, jak i chmurze, w tym hurtowni danych i jezior danych oraz dowolnych aplikacji. Platforma pozwala łączyć i tworzyć nowe wirtualne zestawy danych za pośrednictwem interfejsu wizualnego (lub edytora kodu SQL dla bardziej zaawansowanych), bez konieczności replikacji danych.
– Obecne podejście do wykorzystania informacji do celów analitycznych nie zmienia się od prawie trzech dekad. Organizacje przesyłają wszystkie dane przedsiębiorstwa do scentralizowanej hurtowni danych lub jeziora danych, co jest kosztownym i czasochłonnym procesem – zauważa George Shahid.
Udane debiuty takich firm jak Snowflake czy Fivetran, oferujących usługi w chmurze publicznej, ożywiły nieco skostniały rynek pamięci masowych. Dzięki temu użytkownicy nie muszą inwestować w nadmiarową pamięć masową i dokonywać lokalnych obliczeń. Niestety, podstawowy paradygmat duplikowania i centralnego przechowywania danych, pozostaje taki sam. Datameer zachęca przedsiębiorców do podjęcia odważniejszych kroków. Ale trudno powiedzieć, czy niewielkiej firmie uda się przełamać hegemonię wymienionych wcześniej firm i weteranów, takich jak Oracle, Teradata czy Informatica.
SaaS: dane bez ochrony
Migracja zasobów do chmury publicznej nie zwalnia szefów działów IT od odpowiedzialności za dane. Szczególnie ciekawym przypadkiem jest rynek SaaS. Microsoft, AWS czy Salesforce zobowiązują się do zapewniania dostępności usług, zachowania prywatności przechowywanych informacji czy fizycznej ochrony infrastruktury. Nie biorą natomiast odpowiedzialności za tzw. zagrożenia wewnętrzne, czyli przypadkowe skasowanie danych, sabotaż ze strony pracowników czy cyberataki. Niestety, większość użytkowników nie zdaje sobie z tego sprawy, aż do czasu pierwszej utraty danych. Dostawcy usług nie kwapią się zbytnio do tego, żeby uświadamiać klientów, tym bardziej, że na nieroztropnych użytkownikach można nieźle zarobić. Na przykład Salesforce każe sobie płacić za odzyskanie danych 10 tys. dol., a czas oczekiwania na realizację usługi to 6 do 8 tygodni.
To wszystko nie zmienia faktu, że segment systemów backupu dla SaaS rozwija się w ostatnim czasie dość dynamicznie. Największe możliwości wyboru mają użytkownicy Office 365, którzy mogą korzystać z rozwiązań takich producentów jak Acronis, Barracuda, Commvault czy Veeam. Od niedawna do tego grona dołączył amerykański startup HYCU. Pierwszym produktem HYCU było oprogramowanie do backupu systemów Nutanix, które zadebiutowało na rynku niespełna trzy lata temu. Było to unikalne rozwiązanie na rynku i żaden z producentów nie zdecydował się na podobny krok. Od tego czasu ten startup, z siedzibą w Bostonie, powoli rozwija ofertę dokładając narzędzia do backupu dla Google Cloud, AWS czy Microsoft Azure. Najnowszy produkt HYCU Protégé dla Microsoft Office 365 zapewnia natywne tworzenie kopii zapasowych i odzyskiwanie w chmurze dla Outlooka, Teams, SharePointa, OneDrive’a i OneNote’a. W segmencie systemów do backupu Office 365 robi się więc coraz bardziej tłoczno.
Artykuł Zatopieni w jeziorze danych pochodzi z serwisu CRN.
]]>Artykuł Storage X: pamięć masowa z wieloma niewiadomymi pochodzi z serwisu CRN.
]]>– Jestem zszokowany tym, że koncerny wydają miliony dolarów na pamięci masowe, a kompletnie nie dbają o widoczność i czytelność danych. – przyznaje Piyush Mehta.
Umiejętne zarządzanie cyfrową informacją w dużych firmach przynosi określone profity. O tym wie niemal każdy menedżer. Gorzej jest z realizacją tego celu. Według Data Dynamics aż 76 proc. organizacji chce wykorzystać potencjał posiadanych danych, ale jedynie 15 proc. ma narzędzia pozwalające to uczynić. Z kolei Wall Street Journal szacuje, że zwiększenie użyteczności danych o 10 proc. przyczyniłoby się do wzrostu przychodów dużej firmy z listy Fortune 1000 o 2 miliardy dolarów. Zatem gra jest warta świeczki.
Amerykańska firma Data Dynamic już od siedmiu lat działa na rynku pamięci masowych, dostarczając oprogramowanie Storage X. Jest on adresowano dla klientów korporacyjnych i służy do pracy z plikami rozproszonymi po różnych urządzeniach, pracujących w środowisku lokalnym oraz chmurze. Oprogramowanie współpracuje z macierzami i serwerami bez wsparcia ze strony agentów czy jakichkolwiek bram. System analizuje dane, odpowiada za ich migrację i przenoszenie, zarządza nimi, a także podpowiada jak efektywnie je wykorzystać.
Jednym z największych problemów z jakim muszą się zmierzyć korporacje jest migracja danych. Pliki przechowywane przez wiele lat zazwyczaj znajdują się w izolacji i trudno je przenieść do innych, często niekompatybilnych platform NAS. Tymczasem zmiany są konieczne, chociażby ze względu na potrzebę obsługiwania nowoczesnych aplikacji internetowych, a przede wszystkim optymalizację kosztów pamięci masowych. Szczególnie uciążliwy jest eksport dużych ilości danych pomiędzy heterogenicznymi macierzami dyskowymi. Storage X wykonuje tego typu operacje pomiędzy NAS-ami różnych producentów, a także w obrębie serwerów.
Piyush Mehta przytoczył przykład pokazujący optymalizację 4 PB danych. Przechowywanie plików o takiej objętości w systemie NAS starszej generacji kosztuje miesięcznie około 1,2 mln dolarów. Natomiast po przeniesieniu 10 proc. danych do nowego systemu NAS oraz 15 proc. do chmury publicznej, koszty przechowywania plików spadły do 960 tysięcy dolarów. Optymalizacja jednej czwartej zasobów pozwoliła uzyskać 20 proc. oszczędności.
Data Dynamics dwa razy w roku wprowadza nową wersję oprogramowania. W grudniu na rynku pojawi się Storage 8.2, a innowacje związane będą z obsługa mikrousług i większej integracji z aplikacjami biznesowymi. Piyush Mehta szacuje, iż na koniec bieżącego roku firma będzie zarządzać 80 PB danych. Jak na razie większość klientów pochodzi ze Stanów Zjednoczonych, z czego aż 26 przedsiębiorstw z listy Fortune 100. Data Dynamics przejawia coraz większe zainteresowanie Europą. Amerykanie obsługują m.in dwa duże banki we Francji, a także firmy z Niemiec oraz Wielkiej Brytanii. To bardzo perspektywiczny segment rynku, choć wciąż jest wielu klientów postępujących nieracjonalnie.
– Nadal spotykamy firmy, które magazynują dane na taśmach od trzech dekad i w ogóle z nich nie korzystają. Nie kasują ich, ponieważ zawsze mogą się przydać. Ale dlaczego mieliby zrobić z nich użytek właśnie teraz? – zastanawia się Piyush Mehta.
Artykuł Storage X: pamięć masowa z wieloma niewiadomymi pochodzi z serwisu CRN.
]]>Artykuł Wielka kasa dla startupu z branży storage pochodzi z serwisu CRN.
]]>Bain Capital Ventures dołączył do grupy innych inwestorów startupu – Lightspeed Venture Partners, Greylock Partners, Khosla Ventures i IVP. Łączna wartość kapitału pozyskanego przez Rubrik wynosi 553 milionów dolarów.
– Nowe środki finansowe pozwolą nam wprowadzić w bieżącym roku innowacyjne rozwiązania i produkty. Dzięki nim klienci będą czerpać korzyści z migracji do chmury publicznej oraz eksplozji danych. IDC szacuje, że w tym roku wartość globalnego rynku zarządzania danymi osiągnie poziom 48 miliardów dolarów. – mówi Bipul Sinha, współzałożyciel i dyrektor generalny firmy Rubrik.
Rubrik planuje również rozszerzać współpracę z partnerami takimi jak: Microsoft, Cisco, AWS, SAP, Nutanix, Oracle, VMware, Google Cloud, Pure Storage.
Rubrik powstał w 2014 roku i zatrudnia obecnie 1600 osób. Startup zapewnia swoim klientom globalne wsparcie 24/365. Rubrik w stu procentach opiera swoją sprzedaż na kanale partnerskim. Na liście klientów firmy z Palo Alto znajdują się m.in Cisco, Expedia, FTP (francuska telewizja publiczna), Departament Handlu Stanów Zjednoczonych, Departament Obrony Stanów Zjednoczonych czy Uniwersytet Kalifornijski w San Diego.
W drugiej połowie ubiegłego roku do startupu dołączył John Chambers, były prezes Cisco. W Rubriku pełni funkcję doradcy zarządu. Chambers zamierza też osobiście inwestować w firmę.
Artykuł Wielka kasa dla startupu z branży storage pochodzi z serwisu CRN.
]]>Artykuł Commvault partnerem Google Cloud pochodzi z serwisu CRN.
]]>Współpraca Commvault i Google Cloud pozwoli przedsiębiorstwom na wdrożenie jednego rozwiązania do całościowego zarządzania danymi. Obejmie ono tworzenie kopii zapasowych i odtwarzanie danych, zarządzanie i procesy eDiscovery w środowisku lokalnym, Google Cloud Platform oraz w innych środowiskach chmurowych.
Według ankiety Commvault przeprowadzonej wśród kadry zarządzającej we współpracy z CITO Research 56 proc. przedsiębiorstw korzysta wyłącznie z chmury lub planuje przenieść 100 proc. swoich obciążeń do chmury. Z kolei w ankiecie zleconej przez Google i przeprowadzonej przez MIT Sloan 75 proc. biznesowej i informatycznej kadry zarządzającej odpowiedziało, że zadaniem, które najczęściej wdrażają w chmurze, jest przechowywanie danych.
Artykuł Commvault partnerem Google Cloud pochodzi z serwisu CRN.
]]>Artykuł Zarządzanie danymi: oddzielić ziarna od plew pochodzi z serwisu CRN.
]]>Analitycy z IDC straszą, że w 2025 r. ilość przetwarzanych danych wyniesie 163 ZB – dziesięciokrotnie więcej niż rok temu. Taki stan rzeczy nie pozostaje bez wpływu na budżety przeznaczone na informatykę. Wprawdzie cena za 1GB powierzchni dyskowej spada, a poza tym istnieje alternatywa w postaci tanich taśm czy usług chmurowych, niemniej kłopotów nie brakuje. Jedną z największych bolączek administratorów serwerowni jest rosnąca liczba macierzy dyskowych oraz serwerów. Często pochodzą one od kilku producentów, różnią się wiekiem i bazują na różnych technologiach. Zarządzanie tak skomplikowaną strukturą wymaga użycia odpowiednich narzędzi. Tymczasem, jak wynika z badań Experian Data Quality, jedynie 24 proc. firm korzysta z centralnego systemu zarządzającego danymi.
– Infrastruktura nie musi być droga, pod warunkiem że nie obciąża się jej zbędnymi zasobami. Jestem przekonana, że 80 proc. kosztów eksploatacji pamięci masowej pochłania zarządzanie danymi, czyli takie procesy jak: migracja, obsługa, ochrona i znajdowanie odpowiednich danych – twierdzi Krishna Subramanian, prezes Komprise.
Czy to trafna diagnoza? Hinduska menedżer, która notabene znalazła się na prestiżowej liście „Women of the Channel 2017” amerykańskiego wydania CRN, nie jest odosobniona w swoim osądzie. W Dolinie Krzemowej działa wiele firm, które podobnie jak Komprise pracują nad rozwiązaniami zapewniającymi uporządkowanie cyfrowych zasobów, a fundusze venture capitals chętnie inwestują w tego typu projekty. Klientów nie powinno zabraknąć, bo na firmowych serwerach spoczywa mnóstwo bezużytecznych plików.
– Słaba jakość danych stanowi duży problem w przypadku większości przedsiębiorstw. Korzystanie z tego typu zasobów można porównać do podróżowania dorożką w XXI wieku – mówi Bruce Rogers, CIO w Forbes Media.
Jednak przedsiębiorcy powoli zaczynają sobie zdawać sprawę, że należy oddzielić ziarna od plew. Według cytowanego wcześniej badania Experian Data Quality 31 proc. firm planuje w ciągu najbliższych dwunastu miesięcy wdrożyć projekty związane z integracją cyfrowych zasobów.
Rubrik przygodę z rynkiem IT rozpoczął dwa lata temu od prezentacji rozwiązania do backupu i odzyskiwania danych. Od tego czasu startup zdążył stworzyć osiem jego kolejnych wersji, wprowadzając przy okazji szereg innowacji. Owocem licznych zmian jest platforma Cloud Data Management 4.0, pod względem funkcjonalności budząca nieodparte skojarzenia ze szwajcarskim scyzorykiem. System umożliwia ochronę danych, obsługuje wyszukiwanie indeksowe, a także zarządza backupem, kopiami dokumentów, archiwum oraz zasobami przechowywanymi w chmurze.
Platformę Cloud Data Management 4.0 tworzą oprogramowanie oraz fizyczny sprzęt. W zależności od skali dostępne są wersje o różnych parametrach, ale wszystkie obsługują nośniki SSD i klasyczne dyski. Rubrik zdążył wyrobić sobie markę za oceanem. Resellerzy, którzy wzięli udział w badaniu Pacific Crest Securities, umieścili startup wśród pięciu najbardziej perspektywicznych, młodych dostawców rozwiązań dla centrów danych. W tym gronie znaleźli się także Pure Storage, Nutanix, należące do HPE – Nimble Storage, oraz Simplivity. Rubrik szybko stał się też ulubieńcem inwestorów z Doliny Krzemowej, którzy do tej pory zasilili startup kwotą 292 mln dol. Pod koniec sierpnia do grona inwestorów dołączył koszykarz Kevin Durant, będący graczem Golden State Warriors, aktualnego mistrza NBA.
Firmę obecnie wycenia się na 1,3 mld dol., dzięki czemu dołączyła do tzw. jednorożców, czyli technologicznych startupów o wartości przynajmniej 1 mld dol.
– Jesteśmy dopiero na początku podróży. Realizujemy długoterminową strategię budowy stabilnej firmy. Na razie zrealizowaliśmy mniej niż 10 proc. naszych założeń – przyznaje Bipul Sinha, CEO Rubrik.
Trafić na odpowiedni poziom
Większość macierzy dyskowych oferuje funkcję automatycznego rozmieszczania plików w różnych warstwach pamięci. System sprawdza, które dane są najczęściej eksploatowane, i przenosi je na szybkie nośniki SSD, a nieużywane fragmenty trafiają na wolniejszy dysk, np. SATA. Ale co zrobić w sytuacji, gdy firma ma kilka różnych systemów, przechowuje pliki w środowisku lokalnym i chmurze oraz wykorzystuje różne technologie składowania danych? Na rynku pojawiają się rozwiązania, które próbują zmierzyć się z tym wyzwaniem.
– Nasi klienci przechowujący ogromne ilości danych, korzystający z różnych macierzy dyskowych natrafiają na liczne problemy. Jednym z najważniejszych jest odpowiednia alokacja plików – przyznaje David Cerf, CEO Strong Box Data Solutions.
Wprawdzie firma działa zaledwie od roku, ale ani jej szef, ani pracownicy nie są nowicjuszami w branży pamięci masowych. David Cerf, wcześniej wiceprezes ds. rozwoju biznesu w Crossroads Systems, wykupił system do archiwizacji StrongBox i rozpoczął działalność na własny rachunek. System jest sprzedawany przez Fujifilm pod marką Dternity. Jednak ciekawszym rozwiązaniem wydaje się oprogramowanie StrongLink, które trafiło do sprzedaży na początku roku.
– Ten produkt to przyszłość zarządzania danymi – zapowiada szumnie David Cerf.
Omawiane oprogramowanie wyszukuje pliki oraz obiekty i ocenia je na podstawie metadanych, dokonując klasyfikacji. Następnie przenosi dane pomiędzy warstwami lub różnymi urządzeniami. Żeby połączyć różne pamięci masowe w inteligentną pulę, a następnie nią zarządzać, StrongLink wykorzystuje uczenie maszynowe, a także uprzednio zdefiniowane polityki. David Cerf zapewnia, że wdrożenie oprogramowania StrongLink umożliwia obniżenie kosztów związanych z eksploatacją danych nawet o 80 proc.
Alternatywne rozwiązanie oferuje Komprise. Choć ten wspomniany już wcześniej startup działa zaledwie od trzech lat, niemniej zdążył pozyskać 18 mln dol. od inwestorów z Doliny Krzemowej. Firmę dostrzegli też analitycy Gartnera, umieszczając ją na liście „Cool Vendor in Storage Technologies 2017”.
Komprise opracował oprogramowanie łączące funkcje zarządzania pamięciami masowymi z zaawansowaną analityką. Software pozwala administratorowi zdefiniować wiele reguł dotyczących przenoszenia danych oraz ich archiwizacji. Na system składają się dwa elementy: Komprise Director oraz Komprise Observer. Pierwszy z wymienionych służy do zarządzania i administracji. Najczęściej uruchamia się go w chmurze Amazona, jako SaaS lub (rzadziej) jako lokalną maszynę wirtualną. Z kolei komponent Komprise Observer odpowiada za inwentaryzację pamięci masowych oraz realizację polityk zdefiniowanych przez Komprise Director. Jest to wirtualna maszyna umieszczana w środowisku klienta. Użytkownik ma możliwość utworzenia praktycznie nieograniczonej ilości tego typu „wirtualek” wraz ze wzrostem przechowywanych zasobów.
Oprogramowanie zdaje egzamin w dużych przedsiębiorstwach przetwarzających petabajty danych. Nie bez przyczyny na liście referencyjnej klientów Komprise znajdują się m.in. Electronic Arts czy AIG.
– Jak wspomniałam wcześniej, sam proces przechowywania danych jest stosunkowo tani. Nie można tego powiedzieć natomiast o ręcznym zarządzaniu zasobami. Automatyzacja umożliwia odkrywanie danych o znacznej wartości. To atrakcyjna propozycja dla dużych przedsiębiorstw, które coraz częściej przychodzą do nas i proszą o pomoc. Jedno z nich, poważny bank, przez bezużyteczne dane (tzw. zombie) tracił w skali roku 9 mln dol. – podkreśla Krishna Subramanian.
Artykuł Zarządzanie danymi: oddzielić ziarna od plew pochodzi z serwisu CRN.
]]>Artykuł Warto starać się o certyfikat RODO pochodzi z serwisu CRN.
]]>Maciej Kawecki Prezes planowanego Urzędu Ochrony Danych Osobowych, który zastąpi GIODO, będzie miał obowiązek przygotowywania listy dobrych praktyk. Nie będą one wiążące dla podmiotów przetwarzających dane osobowe, ale mogą stanowić dobry punkt odniesienia dla podejmowanych działań. Będą opracowywane we współpracy z izbami gospodarczymi i cyklicznie aktualizowane.
CRN A co z kodeksami postępowań przygotowanymi przez organizacje branżowe?
Maciej Kawecki Jeżeli zostaną zatwierdzone przez prezesa nowego urzędu, to będzie oznaczało, że zawarte w nich zasady postępowania są zgodne z RODO. Cenną wskazówką mogą też być dla wszystkich wytyczne opracowywane sukcesywnie przez europejskich inspektorów ochrony danych osobowych zrzeszonych w Grupie Roboczej Artykułu 29.
CRN Które z postanowień RODO mają szczególne znaczenie dla dalszego funkcjonowania systemów informatycznych i będą w znaczący sposób wpływały na ich kształt?
Maciej Kawecki Prawo do swobodnego przenoszenia danych będzie wymagało zapewnienia kompatybilności systemów informatycznych między różnymi firmami. Każda osoba będzie mogła zażądać przekazania danych bezpośrednio jej samej, na przykład na wybranym nośniku, bądź przekazania z jednej firmy czy organizacji do drugiej. Firmowe systemy IT muszą zostać przygotowane na wysyłanie i przyjmowanie danych w zgodnych formatach.
CRN Wyzwaniem dla IT będzie też zapewnienie prawa do bycia zapomnianym…
Maciej Kawecki Dotyczy ono wszystkich danych, również tych znajdujących się na kopiach bezpieczeństwa. Dzisiaj usunięcie danych z kopii zapasowych nie jest możliwe, ale prawo tego wymaga, więc trzeba będzie znaleźć na to skuteczny sposób. Odpowiedniego przygotowania systemów informatycznych będzie wymagał również obowiązek pseudonimizacji danych.
CRN Co będzie ostatecznie decydować o zgodności narzędzi IT z wymogami rozporządzenia? W wyborze odpowiednich rozwiązań pomógłby z pewnością system certyfikacji.
Maciej Kawecki Planujemy wprowadzenie certyfikacji. Będą o nie mogli ubiegać się zarówno administratorzy danych osobowych, jak i podmioty je przetwarzające oraz producenci oprogramowania. Akredytacją podmiotów certyfikacyjnych, które będą podmiotami prywatnymi, zajmie się Urząd Ochrony Danych Osobowych. Certyfikat będzie oznaczał zgodność określonego rozwiązania IT z wymogami RODO. Posiadanie certyfikatu będzie brane pod uwagę przy kontrolach prowadzonych przez organ nadzorczy. Certyfikaty będą przyznawane tylko firmom prywatnym. Sektor publiczny będzie z procesu certyfikowania wyłączony.
CRN Co przedsiębiorcy powinni szczególnie brać pod uwagę przed podjęciem decyzji o wyborze dostawcy i rozwiązania?
Maciej Kawecki Każdy przedsiębiorca będzie musiał zadać sobie pytanie: czy użyte przeze mnie środki gwarantują należytą ochronę danych? Żeby tak było, muszą to być środki powszechnie dostępne, ogólnie uznane za skuteczne i za stabilne technologicznie. Wtedy można przyjąć, że są odpowiednie dla zapewnienia zgodności z wymogami RODO.
Artykuł Warto starać się o certyfikat RODO pochodzi z serwisu CRN.
]]>