Artykuł Dane zniszczone do ostatniego bitu pochodzi z serwisu CRN.
]]>W przypadku HitITgroup profesjonalne niszczenie nośników danych odbywa się na dwa sposoby. Twarde dyski poddawane są procesowi demagnetyzacji, który polega na wytworzeniu pola elektromagnetycznego o wielkiej sile, niszczącego logiczną strukturę talerzy dysku. Metoda ta nie zadziała jednak w przypadku półprzewodnikowych nośników pamięci flash, jak dyski SSD. W ich przypadku stosowana jest fizyczna niszczarka płytek drukowanych i znajdujących się na nich kości pamięci. Metoda ta może być zastosowana również wobec talerzy twardych dysków.
Co ważne, w trosce o środowisko naturalne dyski przed fizycznym zniszczeniem są rozbierane, a samemu procesowi niszczenia ulegają tylko nośniki magnetyczne lub płytki z kośćmi pamięci. Dzięki temu klient może być pewien, że swoimi działaniami nie powiększy niebezpiecznej i nikomu niepotrzebnej góry elektrośmieci.
Zapraszamy do współpracy partnerów, którzy chcą rozbudować swoją ofertę o usługi niszczenia danych. Oferujemy im 30-procentowy rabat na świadczone przez nas usługi, jak też na licencje oprogramowania do niszczenia danych WIPERAPP. Jesteśmy bardzo elastyczni, jeśli chodzi o warunki współpracy. Partner może dostarczać do nas nośniki swoich klientów albo skontaktować nas z klientem, jeśli ich zniszczenie musi odbyć się w jego siedzibie – także w tej sytuacji wypłacona zostanie prowizja. Natomiast po zakupie oprogramowania WIPERAPP partner może sam świadczyć usługi niszczenia danych, bez konieczności dzielenia się z nami zyskiem. Co więcej, zapewniamy mu pełne wsparcie i szkolenie, podczas którego dzielimy się wiedzą umożliwiającą zwiększenie efektywności czyszczenia nośników.
Gdy pojemność i wydajność dysku są wystarczające, aby nadal mógł być używany w komputerze, można skorzystać z oprogramowania do bezpowrotnego kasowania danych, gwarantującego niemożliwość ich późniejszego odzyskania. Bazując na swoim profesjonalnym doświadczeniu w zakresie niszczenia danych, programiści firmy HitITgroup opracowali działające w ten sposób narzędzie WIPERAPP.
Aplikacja jest zgodna z najnowszą wersją amerykańskiego standardu NIST 800–88 Rewizja 1. Wymaga on, aby producenci twardych dysków zawarli w ich wewnętrznym oprogramowaniu algorytmy bezpiecznego i całkowitego usuwania danych. Mechanizm ten – obsługiwany również przez oprogramowanie WIPERAPP – został nazwany Purge i obecnie stanowi najprostszą i zarazem najbezpieczniejszą metodę oczyszczania dysków ze zbędnych danych. Dla każdego dysku, z którego usunięte zostały informacje, a następnie potwierdzona została niemożliwość ich odzyskania, wystawiany jest indywidualny certyfikat.
WIPERAPP umożliwia także bezpieczne kasowanie danych z dysków SSD w taki sposób, aby nie była skracana ich żywotność. W tym kontekście od talerzowych twardych dysków nośniki półprzewodnikowe odróżnia fakt, że każda czynność zapisu danych wpływa na trwałość komórek pamięci flash. Dlatego podczas czyszczenia przez oprogramowanie WIPERAPP dane z dysków SSD usuwane są nie poprzez skracające żywotność dysku nadpisanie, lecz skasowanie. Większość powszechnie dostępnych amatorskich aplikacji nie jest wyposażona w tak działający mechanizm usuwania danych z pamięci flash.
Oprogramowanie WIPERAPP dostępne jest w postaci tradycyjnej licencji, jak również dystrybuowane jest na nośniku USB (WIPERPEN) oraz w postaci podłączanego do sieci urządzenia WIPERBOX, umożliwiającego automatyczne usuwanie danych na wielu stanowiskach.
Artykuł Dane zniszczone do ostatniego bitu pochodzi z serwisu CRN.
]]>Artykuł Hybryda to hydra dla danych pochodzi z serwisu CRN.
]]>Specyfikę zagrożeń związanych z pracą zdalną pokazują wyniki badania McKinsey Global Survey. Po wybuchu pandemii firmy zainwestowały w wiele systemów do pracy zdalnej. W ciągu kilku miesięcy wprowadziły tyle nowych rozwiązań, ile wcześniej w czasie czterech lat. Nadmiar narzędzi powoduje dezorientację i frustrację pracowników, którzy muszą często przełączać się z jednego systemu na drugi. To może w konsekwencji zagrażać bezpieczeństwu firmy i prowadzić do wycieku poufnych danych.
Do tego realne wciąż pozostają zagrożenia znane z poprzednich okresów. Nic więc dziwnego, że – jak wynika z tegorocznego, opracowanego przez KPMG „Barometru cyberbezpieczeństwa” – co najmniej 69 proc. firm w Polsce odnotowało w 2021 roku przynajmniej jeden incydent zagrażający danym. To o 5 punktów procentowych więcej niż rok wcześniej. Ponad 20 proc. przedsiębiorstw zauważyło w 2021 roku wzrost liczby cyberataków, a tylko u 4 proc. badanych była ona mniejsza niż przed rokiem.
Raport KPMG pokazuje, że za największe zagrożenie firmy w Polsce uznają kradzież danych. Głównie poprzez phishing, czyli wyłudzanie danych uwierzytelniających, a w drugiej kolejności poprzez malware, czyli wyciek danych za pośrednictwem złośliwego oprogramowania. Przedsiębiorstwa obawiają się też zaawansowanych ataków ze strony cyberprzestępców (Advanced Persistent Threat, APT) oraz kradzieży danych przez pracowników.
W przypadku tak wysokiego ryzyka wycieku danych szczególnego znaczenia nabierają działania zmierzające do zapewnienia ich należytej ochrony. Zwłaszcza w przypadku danych poufnych czy wrażliwych, istotnych dla sprawnego funkcjonowania przedsiębiorstwa. Skala potrzeb w tym zakresie otwiera szerokie pole do działania dla integratorów. Tym bardziej, że jak wynika z badania KPMG, firmy w Polsce wciąż mają trudności z zatrudnieniem i utrzymaniem wykwalifikowanych pracowników. A przecież do zapewnienia specjalnej ochrony wielu rodzajów danych są zobowiązane przez istniejące przepisy.
Polskie prawo obejmuje ochroną kilka rodzajów informacji. Ustawa o ochronie informacji niejawnych określa zasady zabezpieczania czterech grup danych: zastrzeżonych, poufnych, tajnych i ściśle tajnych. Są również przepisy dotyczące ochrony informacji będących różnego rodzaju tajemnicą: państwową, służbową i zawodową. Ustawowej ochronie podlegają też tajemnice związane z funkcjonowaniem poszczególnych branż i sektorów gospodarki, w tym bankowa oraz telekomunikacyjna. Do prawnie chronionych należą też: tajemnica korespondencji i negocjacji, statystyczna czy geologiczna.
Z kolei zasady ochrony tajemnicy przedsiębiorstwa narzuca ustawa o zwalczaniu nieuczciwej konkurencji. Do tajemnicy przedsiębiorstwa należą informacje posiadające wartość gospodarczą, ale które nie są powszechnie znane albo nie są łatwo dostępne dla osób nimi zainteresowanych (np. bazy klientów, receptury, informacje o kontrahentach, plany produkcji, informacje o rynkach zbytu itp.) Przedsiębiorca musi jednak sam wskazać, które konkretnie informacje stanowią tajemnicę jego firmy i powinny zostać objęte ochroną.
W osobny sposób uregulowana została ochrona danych osobowych. Jej zasady określa obowiązujące od maja 2018 roku unijne rozporządzenie o ochronie danych osobowych (RODO). Mogą być one przetwarzane wyłącznie w ściśle określonych warunkach i do ściśle określonych celów. Mówią o tym artykuły 5. i 6. unijnego rozporządzenia.
Przepisy RODO nie precyzują jednak, w jaki sposób ma to być realizowane. Zastosowane rozwiązania muszą być adekwatne do oszacowanego ryzyka i istniejących uwarunkowań, w tym dostępnych narzędzi. Szczególną formą ochrony danych osobowych jest anonimizacja. Polega na usunięciu wszystkich informacji, które umożliwiałyby identyfikację konkretnej osoby.
Drukarkowa pięta achillesowa Budując system ochrony danych trzeba wziąć pod uwagę zwiększoną w warunkach pracy hybrydowej liczbę ataków na oprogramowanie sprzętowe (firmware). Jak wynika z globalnego badania HP Wolf Security, obrona przed atakami na firmware stała się w środowisku pracy rozproszonej trudniejsza niż wcześniej. Ponad 80 proc. biorących udział w badaniu liderów IT twierdzi, że poważne zagrożenie stanowią obecnie ataki na komputery osobiste. Z kolei zdaniem 76 proc. respondentów duży problem stanowią również ataki na firmware urządzeń drukujących. Brak ochrony w tych miejscach może narazić na szwank cały system bezpieczeństwa informacji w przedsiębiorstwie. Zgodnie z wynikami badania przeprowadzonego przez Brothera, tylko jedna czwarta informatyków dba o ochronę danych gromadzonych w drukarkach. Ponad połowa nie korzysta z funkcji uwierzytelniania użytkowników, a trzy czwarte nigdy nie uruchomiło szyfrowania dokumentów. Urządzenia drukujące są często pomijane przy tworzeniu bezpiecznego środowiska pracy.
Artykuł Hybryda to hydra dla danych pochodzi z serwisu CRN.
]]>Artykuł Nowy program partnerski Synology pochodzi z serwisu CRN.
]]>Program partnerski Synology w nowej wersji został zmodyfikowany tak, aby promować najbardziej aktywnych partnerów, zaangażowanych w realizowanie projektów. Zapewniono w nim dodatkowe korzyści uzależnione od kwalifikacji partnera oraz zaangażowania w sprzedaż projektową produktów tej marki. Zarejestrowani partnerzy uzyskują u dystrybutorów Synology dostęp do cen resellerskich i rabatów projektowych. Jedną z nowości jest rozszerzenie kanału subdystrybucyjnego, do którego dołączyło Exclusive Networks. Dzięki temu zakupy pod projekty realizowane u tego subdystrybutora także będą zaliczane do całości obrotu branego pod uwagę przy rozliczeniach partnerów pod kątem korzyści wynikających z programu partnerskiego.
Uruchomiony został także nowy program MSP dotyczący usług chmury publicznej Synology C2. Od tej pory możliwe jest także oferowanie ich jako części wdrożenia serwerów NAS lub jako odrębnej usługi. Do programu MSP C2 można się zgłaszać przez formularz na stronie lub kontaktując się bezpośrednio z przedstawicielem Synology.
Nowy program partnerski został skonstruowany tak, aby premiować najbardziej aktywnych partnerów Synology. Wiele wprowadzonych zmian wynika zresztą z sugestii, które bezpośrednio od nich otrzymywaliśmy. Dla każdego aktywnego partnera jest dostępna oferta sprzętu NFR ze zniżką. Każdy zarejestrowany partner może liczyć na wsparcie polskiego zespołu Synology. Dodatkowe korzyści zyskują partnerzy, którzy inwestują w kompetencje i certyfikacje, aby jeszcze lepiej móc promować nasze rozwiązania.
Firmy uczestniczące w programie partnerskim Synology mogą zapewniać swoim klientom szereg dodatkowych korzyści. Dla części produktów dostępna jest świadczona przez dystrybutorów we współpracy z Synology bezpłatna usługa szybkiej naprawy lub wymiany sprzętu – w ciągu 3–5 dni roboczych.
Dla wybranych droższych modeli można także wykupić u dystrybutorów gwarancję Next Business Day (NBD). Istnieją różne poziomy gwarancji, niektóre z nich mają opcję „OnSite NBD”, obejmującą cały system wraz z akcesoriami, a także możliwość pozostawienia nośników danych u klienta w razie awarii. Przy składaniu oferty należy zapytać dystrybutora o dostępność tej opcji, ponieważ nie można jej nabyć już po dokonaniu zakupu.
Artykuł Nowy program partnerski Synology pochodzi z serwisu CRN.
]]>Artykuł Pamięci USB godne zaufania pochodzi z serwisu CRN.
]]>– O pamięciach USB mówi się czasami, że wkrótce podzielą los dyskietek, gdyż coraz więcej plików wymienianych jest poprzez chmurę. Zapomina się jednak o konieczności zapewnienia bezpieczeństwa danych poprzez ich zaszyfrowanie. Wymuszają to obowiązujące w kilku branżach regulacje prawne, jak też dotyczące wszystkich przedsiębiorców zapisy RODO. W przypadku chmury nie ma gwarancji poprawności implementacji mechanizmów szyfrujących. Natomiast w oferowanych przez nas nośnikach USB takiej gwarancji można być pewnym, co potwierdza szereg przyznanych im certyfikatów – mówi Robert Sepeta, Business Development Manager na Polskę w Kingstonie.
Kingston rekomenduje stosowanie nośników z wbudowanym modułem szyfrowania sprzętowego, w przypadku których niemal do zera wyeliminowane jest ryzyko uzyskania dostępu do danych na skradzionym nośniku. Łatwiejsze jest też zdalne wyczyszczenie danych na zaszyfrowanych dyskach przez administratorów dysponujących odpowiednimi narzędziami. Ważne jest również, że proces sprzętowego szyfrowania tylko w mikroskopijnym stopniu wpływa na wydajność zapisu i odczytu danych.
IronKey Vault Privacy 80 (IKVP80ES) to pierwszy, niezależny od systemu operacyjnego, szyfrowany sprzętowo zewnętrzny dysk SSD firmy Kingston. Dostępne są trzy modele o pojemności 480, 960 oraz 1920 GB, podłączane do komputera przez port USB 3.2 Gen 1 (złącze typu C), zapewniające zapis i odczyt z prędkością do 250 MB/s. Nośniki objęte są trzyletnią, ograniczoną gwarancją.
Pliki zapisane na dysku Vault Privacy 80 szyfrowane są 256-bitowym kluczem XTS-AES, a za przebieg tego procesu odpowiada certyfikowany bezpieczny mikroprocesor. Dzięki wykorzystaniu tak silnych metod kryptograficznych nośnikowi temu przyznano certyfikat FIPS 197 oraz Common Criteria EAL5+ (CC EAL5+); nośnik jest też zgodny z wytycznymi TAA (TradeAgreements Act). Dysk ma także funkcję szybkiego usunięcia wszystkich haseł i klucza szyfrowania.
Dzięki wbudowanemu intuicyjnemu kolorowemu ekranowi dotykowemu, dysk VP80 ES jest bardzo łatwy w obsłudze. Odblokowywany jest, podobnie jak smartfon, za pomocą numerycznego kodu PIN lub hasła (możliwe jest skonfigurowanie haseł o różnych uprawnieniach – administratora i użytkownika). Administrator może aktywować hasło użytkownika i ustawić opcje zabezpieczeń, takie jak konfiguracja wymagań dotyczących hasła i jego długości (od 6 do 64 znaków), reguł haseł alfanumerycznych, maksymalnej liczby prób wpisania hasła oraz limitu czasu do automatycznego zablokowania dysku. Dodatkowo można użyć znaku spacji, aby łatwiej zapamiętać hasło szyfrujące wprowadzone jako ciąg słów.
Aby zredukować liczbę nieudanych prób logowania, dostępny jest przycisk „oko”, który wyświetla wprowadzone hasło. Gdy użytkownik zapomni hasła, urządzenie jest wyposażone w funkcję pozwalającą użyć hasła administratora do odzyskania dostępu. Zainstalowany w urządzeniu podpisywany cyfrowo firmware jest wyposażony w mechanizmy chroniące przed atakami typu brute force i Bad-USB. W przypadku niepoprawnego wprowadzenia hasła 15 razy z rzędu uruchamiany jest proces kryptograficznego usuwania danych z dysku. Możliwe jest także aktywowanie trybu „tylko do odczytu” (blokada zapisu) w celu ochrony przed modyfikacją danych przez złośliwe oprogramowanie, np. ransomware.
Autoryzowanymi dystrybutorami produktów Kingstona w Polsce są: AB, Action, Also, Ingram Micro i Tech Data.
Dodatkowe informacje: Robert Sepeta, Business Development Manager, Kingston Technology, rsepeta@kingston.eu
Artykuł Pamięci USB godne zaufania pochodzi z serwisu CRN.
]]>Artykuł Chmura wreszcie dojrzała pochodzi z serwisu CRN.
]]>Interesujące są przewidywania analityków IDC wyrażone w ostatnim raporcie „Worldwide Quarterly Enterprise Infrastructure Tracker: Buyer and Cloud Deployment”, według których w 2022 roku po raz pierwszy w historii wydatki na współużytkowaną infrastrukturę chmurową przewyższą wydatki na infrastrukturę niezwiązaną z chmurą. To kolejny argument za tym, by integratorzy chcący rozwijać swój biznes uwzględniali w nim współpracę z operatorami chmury.
Operatorzy centrów danych chętnie współpracują z VAR-ami i integratorami, gdyż w ten sposób poszerzają swój rynkowy zasięg. Mogą wykorzystać kompetencje partnerów w obszarze cyfrowej transformacji, ich wiedzę w zakresie usług zarządzanych oraz zdolności do wpływania na decyzje zakupowe klientów końcowych.
Współpraca może polegać na umieszczeniu sprzętu sieciowego i serwerów klienta (albo swoich) w placówce dostawcy usług kolokacji, który oferuje powierzchnię, zasilanie i chłodzenie. Zapewnia również usługi łączności, które w celu zwiększenia redundancji i wydajności komunikują klientów z wieloma operatorami telekomunikacyjnymi i dostawcami usług internetowych.
Takie połączenia międzysieciowe są coraz częściej wykorzystywane w celu uzyskania dostępu do publicznych platform chmurowych. Może on być realizowany poprzez bezpośrednie połączenie, zapewniające klientowi prywatne łącze do platform w chmurze, z pominięciem publicznego internetu. We współpracy z dostawcami usług, partnerzy mogą również wspierać inicjatywy swoich klientów w zapewnianiu wydajnej i bezpiecznej pracy zdalnej.
Partnerzy doceniają także oferowane przez operatorów centrów danych specjalizowane usługi w różnych konkretnych obszarach, w tym: sieciowym, przetwarzania hybrydowego i wielochmurowego, bezpieczeństwa i ochrony danych czy analityki. Bazując na dostarczanych przez operatora usługach, partnerzy mogą sprawniej wypełniać luki w infrastrukturze spowodowane przez brak kompetencji klientów. Przykładowo, mogą oferować im pomoc w migracji do chmury albo ułatwiać wdrażanie coraz częściej wykorzystywanych programowych sieci rozległych (SD-WAN).
Jak pokazują badania rynkowe, sieci SD-WAN są już postrzegane jako dojrzałe. Ankietowane firmy do najważniejszych powodów ich wdrażania zaliczają uzyskanie oszczędności w obszarze infrastruktury WAN oraz zwiększenie ciągłości działania sieci. Istotne są dla nich takie kwestie, jak wzrost wydajności i uzyskanie wglądu w działanie sieci oraz aplikacji w trybie end-to-end, zwłaszcza chmurowych (np. Microsoft Office 365). Klienci z dojrzałą strategią rozwoju swojej infrastruktury sieciowej wskazują też na SD-WAN jako narzędzie do migracji do architektury zorientowanej na aplikacje i centralnie zarządzane oddziały.
We współpracy z operatorami centrów danych integrator może dostarczać rozwiązania SD-WAN, zapewniając przedsiębiorstwom z wieloma oddziałami przede wszystkim szybkie, zautomatyzowane podłączanie do infrastruktury IT kolejnych placówek oraz bardziej efektywny sposób obsługi krytycznych aplikacji SaaS i możliwość lepszego wykorzystania innych usług chmurowych. Z wielu badań wynika, że większość firm używa już przynajmniej kilku aplikacji dostarczanych w tym modelu i trend ten będzie się tylko pogłębiał. Jeśli wcześniej przewidywano, że światowy rynek SaaS będzie rósł w latach 2018–2023 w tempie ponad 20 proc. rocznie, to pandemia te szacunki podciągnęła wyraźnie w górę.
W ciągu najbliższych lat ma się też zmieniać model funkcjonowania centrów danych. Eksperci z firmy Vertiv przekonują, że coraz więcej danych będzie przetwarzanych w infrastrukturze brzegowej. Jak wynika z badania przeprowadzonego przez tego dostawcę, wyraźnie rośnie zapotrzebowanie na prowadzenie obliczeń bliżej użytkownika końcowego. W przypadku aplikacji, dla których najważniejszymi parametrami dotyczącymi ich wydajności są szybkość oraz małe opóźnienia w transmisji danych, jedynym sposobem na ich zagwarantowanie jest rozbudowa brzegu sieci.
Aby zaspokoić popyt na takie przetwarzanie, firmy poważnie myślą o rozwijaniu rozwiązań z zakresu infrastruktury brzegowej, ale ich budowanie może być skomplikowane. Jeśli ma ona uzupełniać chmurę publiczną czy własne centrum danych, należy rozważyć kwestie dotyczące oprogramowania i sprzętu, zaawansowanego zarządzania oraz wiele innych. Dlatego klienci będą współpracować z partnerami i dostawcami zapewniającymi wdrażanie rozwiązań obsługujących brzeg sieci w taki sposób, który umożliwi ich łatwe konfigurowanie i dostosowanie do indywidualnych potrzeb.
Artykuł Chmura wreszcie dojrzała pochodzi z serwisu CRN.
]]>Artykuł Jakie są różnice między backupem a wysoką dostępnością? pochodzi z serwisu CRN.
]]>W ostatecznym rozrachunku sprowadza się to do konieczności odpowiedzenia sobie na pytanie: które dane moja firma potrzebuje backupować, a bez których nie może się obejść, więc trzeba zapewnić ich wysoką dostępność? Znajomość tej różnicy pomaga określić czas potrzebny na przywrócenie systemu do pracy (Recovery Time Objective, RTO) dla danego typu danych lub aplikacji.
24-godzinny czas odzyskiwania danych może mieścić się w zakresie RTO dla danych i aplikacji nieistotnych. Z drugiej strony, w przypadku zasobów o znaczeniu krytycznym, niedostępność danych przez całą dobę może znacznie nadszarpnąć swobodne funkcjonowanie firmy. Koszty z tym związane mogą niekiedy okazać się znacznie wyższe niż zapłata za odszyfrowanie danych, wymuszona w ramach ataku ransomware.
Równie ważna jak określenie wymaganego czasu RTO, jest decyzja dotycząca tego ile potencjalnie danych będzie można utracić. Przedstawiana jest ona w postaci punktu w przeszłości (Recovery Point Objective), w którym po raz ostatni wykonana została kopia danych. Na przykład wysokowydajny system, wykonujący przetwarzanie krytycznych transakcji online (OLTP), nie może sobie pozwolić na utratę danych pomiędzy cyklami tworzenia kopii zapasowych.
Dobrze zaprojektowane plany tworzenia kopii zapasowych są zwykle mieszanką zarówno standardowego backupu, jak i mechanizmów wysokiej dostępności. Dlatego warto znać różnice między nimi, aby móc wybrać właściwe podejście do danego systemu, aplikacji lub zestawu danych.
Istnieje wiele powodów, aby regularnie tworzyć niezawodne kopie zapasowe systemów biznesowych. Mogą one dotyczyć zwykłych korzyści związanych z przechowywaniem dokumentów, np. brak konieczności rozpoczynania projektu od początku w przypadku przypadkowego skasowania pliku. Ułatwiają także spełnienie wymogów branżowych lub przepisów prawnych.
Kopie zapasowe są wykonywane w określonych odstępach czasu, zazwyczaj raz dziennie w godzinach wolnych od pracy, i przechowywane na serwerze kopii zapasowych. Często mają przypisaną wartość zwaną retencją, określającą przez jak długi czas przechowywana jest kopia. Tę decyzję należy podjąć biorąc pod uwagę aspekty biznesowe i wewnętrzne reguły polityki, ale także obowiązujące dane przedsiębiorstwo przepisy prawa, które często wymuszają stosowanie przedłużonej retencji, nawet na rok lub dłuższy okres.
Ostatnio serwery kopii zapasowych znalazły się na celowniku cyberprzestępców atakujących za pomocą oprogramowania ransomware. Dlatego konieczne jest skrupulatne przeanalizowanie przyjętych przez firmę mechanizmów tworzenia backupu, aby nie został on zaszyfrowany. Jedną z preferowanych metod jest wykonanie wtórnej kopii w chmurze. Ponieważ znajdzie się ona w oddzielnej strefie, zapewniona w ten sposób zostaje dodatkowa warstwa bezpieczeństwa.
W większości przypadków dla kopii zapasowych czas przywrócenia systemu do pracy (RTO) określany jest na poziomie godzin (awaria sprzętu, atak ransomware) lub nawet dni (zalana serwerownia). Dla niektórych działów, np. kadr, taki czas RTO może być akceptowalny. W przypadku systemu sprzedaży będzie to jednak oznaczać znaczną utratę przychodów.
Artykuł Jakie są różnice między backupem a wysoką dostępnością? pochodzi z serwisu CRN.
]]>Artykuł Pamięciom masowym kryzys niestraszny? pochodzi z serwisu CRN.
]]>Marketingowe slogany zachęcające do zrezygnowania z taśm lub nawet napędów HDD na rzecz dysków półprzewodnikowych, bądź przenoszenia wszystkich zasobów cyfrowych z własnej serwerowni do chmury publicznej, jak na razie działają na nielicznych. Większość szefów IT podejmuje decyzje bez emocji, co oddają statystki sprzedaży sprzętu oraz nośników. Jeśli już firmy decydują się na wdrożenie nowinek technicznych bądź migracji do chmury, najczęściej wybierają model hybrydowy.
Jak wynika z raportu IDC w pierwszym kwartale br. globalny rynek systemów pamięci masowych dla klientów korporacyjnych wzrósł o 2 proc. rok do roku. Jednak popyt w poszczególnych częściach świata nie był równomierny. Zakłócenia w łańcuchach dostaw, inwazja Rosji na Ukrainę oraz inflacja należały do czynników hamujących wzrost rynku.
Analitycy dostrzegają też jednak pozytywne symptomy, które powinny ożywić w najbliższych miesiącach sprzedaż pamięci masowych. Na pierwszym miejscu wymieniają znaczny wzrost zapotrzebowania na powierzchnią dyskową, a następnie transformację cyfrową oraz potrzebę usprawnienia prowadzonych przez firmy analiz biznesowych, jak też zwiększenie produktywności pracowników i poprawę jakości obsługi klienta. Z kolei największe obawy budzą ograniczona podaż oraz inflacja.
Niestety, przedłużająca się wojna w Ukrainie wpływa na sprzedaż sprzętu w sposób bezpośredni oraz pośredni. W tym pierwszym przypadku ciągnie w dół przychody osiągane przez producentów w Europie Środkowo-Wschodniej. Konflikt wywindował przy tym ceny energii i koszty transportu, co odbiło się na branży IT.
Co jednak ważne, analitycy IDC postrzegają rynek systemów pamięci masowych jako dość odporny na negatywne czynniki. Jako jeden z głównych powodów takiego stanu rzeczy wymieniają cyfrową transformację bazującą na danych. Koniunkturę na macierze dyskowe napędzają też przyrost ilości cyfrowych zasobów, zwiększone wymagania w zakresie ochrony informacji, a także obsługi krytycznych zadań obliczeniowych. Według prognoz IDC globalny rynek zewnętrznych systemów pamięci masowych będzie rósł w latach 2021–2026 w średnim tempie 4,4 proc. rocznie. Przy czym największa dynamika wzrostu przypadnie na lata 2022 (5 proc.) oraz 2023 (4,8 proc.).
Rodzimi przedsiębiorcy od lat inwestują w macierze podłączane do sieci SAN. Wprawdzie w ostatnich latach pojawiły się alternatywy w postaci infrastruktury hiperkonwergentnej, systemów klasy Software Defined Storage (SDS) czy usług chmurowych, jak chociażby Amazon Elastic Block Store, ale też wiele firm nadal preferuje klasyczne rozwiązania.
Macierze SAN są cenione za wydajność, skalowalność oraz stosunkowo dużą odporność na awarie. Sprzęt ten zazwyczaj służy do hostingu baz danych, ale zdaje również egzamin w przedsiębiorstwach korzystających z wirtualnych serwerów bądź desktopów (VDI). Znaczne ożywienie w tym segmencie rynku przyniosło pojawienie się macierzy z wyłącznie półprzewodnikowymi dyskami (all-flash). Niegdyś, ze względu na wysoki koszt jednostki pojemności, były one zarezerwowane głównie dla instytucji finansowych bądź wielkich korporacji, ale wraz ze spadkiem cen nośników SSD, a także zmianami w architekturze macierzy dyskowych, sytuacja uległa zasadniczej zmianie.
– U nas udział systemów all-flash w całościowej sprzedaży macierzy dyskowych wynosi około 70 proc. Po tego typu rozwiązania sięgają przede wszystkim klienci korzystający z wirtualizacji. Natomiast urządzenia z dyskami NL-SAS wybierane są do celów archiwizacji, składowania danych z monitoringu czy backupu. W przypadku macierzy zapewniających podstawową funkcjonalność i stosunkowo niewielkie pojemności, różnice w cenach pomiędzy modelami z modułami all-flash a wersją z dyskami SAS nie są zbyt duże – mówi Tomasz Spyra, CEO Rafcomu.
Obecnie wszyscy liczący się producenci oferują macierze z nośnikami NVMe, które prawdopodobnie zaczną wypierać modele wyposażone w SSD z interfejsem SAS. Systemy uzbrojone w nowoczesne dyski gwarantują opóźnienia poniżej 100 mikrosekund i przepustowość liczoną w dziesiątkach gigabajtów, a jednocześnie realizują miliony operacji wejścia-wyjścia na sekundę (IOPS).Oprócz wyraźnego zwrotu w stronę NVMe, popularyzują się usługi zarządzania sprzętem za pośrednictwem chmury.
– Producenci sprzętu aktywnie rozwijają taki model. To zmiana, która czeka nas w niedalekiej przyszłości. Oczywiście u niektórych klientów budzi to obawy o poufność informacji. Jednak należy podkreślić, że w ramach takiej usługi zbierane są tylko dane telemetryczne, a nie te przechowywane na urządzeniach – podkreśla Grzegorz Korus, inżynier wsparcia technicznego w polskim oddziale Exclusive Networks.
Wiele wskazuje na to, że nadchodzące lata mogą być trudne dla rozwiązań klasy high-end, co wynika ze zmian, jakie miały miejsce w ofercie sprzętu klasy midrange. Macierze ze średniej półki umożliwiają chociażby rozbudowę typu scale-out (równoległy wzrost pojemności i wydajności) oraz obsługę rozproszonych klastrów. Producenci dążą do unifikacji produktów, o czym świadczy wprowadzanie wspólnych systemów operacyjnych dla całych linii produktowych, co powinno sprzyjać sprzedaży tego typu sprzętu.
Artykuł Pamięciom masowym kryzys niestraszny? pochodzi z serwisu CRN.
]]>Artykuł SonicWall – zdalny dostęp dla małych i dużych pochodzi z serwisu CRN.
]]>Natomiast rodzina SMA 1000 (modele SMA 6210, 7210 i 8200v) została zaprojektowana jako zaawansowana bezpieczna brama dostępowa dla średnich firm, międzynarodowych korporacji i dostawców zarządzanych usług bezpieczeństwa (MSSP). Urządzenia mają wbudowane wielowarstwowe mechanizmy chroniące zasoby korporacyjne i umożliwiające użytkownikom bezpieczną pracę z dowolnego miejsca i przy użyciu dowolnych urządzeń.
Łatwy dostęp do danych i zasobów potrzebnych pracownikom można zapewnić za pomocą współpracującej z urządzeniami SMA i firewallami nowej generacji aplikacji SonicWall Mobile Connect (SMC). Działa ona na systemach iOS, macOS, Android, Chrome OS, Kindle Fire i Windows (dostępna jest w sklepach z aplikacjami zintegrowanych z tymi systemami).
Użytkownik Mobile Connect otrzymuje dostęp do sieci korporacyjnej dopiero po zalogowaniu się, a także ustaleniu lokalizacji urządzenia i wskaźników wynikających z przyjętych kryteriów zaufania. Aplikacja weryfikuje czy na urządzeniu mobilnym zainstalowana jest najnowsza wersja systemu operacyjnego oraz czy nie nastąpiła ingerencja w jego strukturę (jailbrake/root).
Mobile Connect w połączeniu z SMA umożliwia administratorom egzekwowanie zasad określających, które oprogramowanie na urządzeniu mobilnym może uzyskać dostęp VPN do firmowej sieci. To gwarancja, że tylko autoryzowane mobilne aplikacje biznesowe wykorzystują szyfrowane połączenie. Mobile Connect jest jedynym rozwiązaniem, które nie wymaga modyfikacji aplikacji mobilnych w celu uzyskania przez nie dostępu VPN. Ponadto rozwiązanie to łatwo integruje się z większością systemów uwierzytelniania, w tym z najpopularniejszymi dostawcami tożsamości i mechanizmów logowania wieloskładnikowego.
SonicWall Central Management Server (CMS) jest wydajnym i intuicyjnym rozwiązaniem do szybkiego wdrażania wielu urządzeń SMA 1000 oraz centralnego zarządzania nimi za pomocą jednego interfejsu administratora (współpracuje z systemem SMA OS v12.1 lub nowszym). Jest w stanie obsługiwać do 100 urządzeń SMA 1000 i miliona jednocześnie zalogowanych użytkowników. Usprawnia zarządzanie regułami polityki bezpieczeństwa i może być łączone w klastry w celu zwiększenia redundancji i skalowalności. Dostawcom usług CMS upraszcza zarządzanie bezpieczeństwem i stwarza dodatkowe możliwości uzyskania przychodów.
Central Management Server jest dostępny w modelu subskrypcyjnym i może być wdrożony w chmurze prywatnej jako urządzenie wirtualne lub w chmurze publicznej AWS i Microsoft Azure z zastosowaniem licencji Bring Your Own License (BYOL). Administrator może używać centralnej konsoli systemu CMS do zarządzania wszystkimi urządzeniami SMA, niezależnie od ich lokalizacji (komunikacja między nimi zabezpieczona jest protokołem TLS).
Artykuł SonicWall – zdalny dostęp dla małych i dużych pochodzi z serwisu CRN.
]]>Artykuł ABBYY: sztuczna inteligencja do zarządzania dokumentami pochodzi z serwisu CRN.
]]>Pomóc w tym może aplikacja ABBYY FineReader PDF. To uniwersalne narzędzie, które zapewnia pracownikom przetwarzającym informacje wydajne zarządzanie dokumentami. Wbudowany mechanizm OCR ułatwia digitalizację dokumentów, opracowywanie znajdujących się w nich treści, zabezpieczanie plików przed edycją oraz udostępnianie i współpracę na nich. W ten sposób redukowane są ograniczenia powodowane przez niedostępne i nieprzeszukiwalne dokumenty, a także zadania wymagające korzystania z wielu programów. Dzięki profesjonalnemu narzędziu pracownicy mogą skupić się na swoich obszarach specjalizacji, zamiast tracić cenny czas na zawiłe zadania administracyjne.
ABBYY FineReader PDF zapewnia kompleksowy zestaw narzędzi ułatwiających pracę w równie wydajny sposób z dokumentami w różnych formatach – powstałych od razu w postaci cyfrowej lub zeskanowanych z papieru. Umożliwia uzyskanie dostępu do tekstów, tabel oraz całego układu dokumentu PDF, a następnie edytowanie ich bez dodatkowych etapów konwersji – poprawianie całych zdań i akapitów, a nawet zmienianie układu dokumentu.
Dokumenty PDF mogą być konwertowane do wielu formatów plików (w tym Word i Excel) w celu zapewnienia ich zaawansowanej edycji. Również po zeskanowaniu papierowego dokumentu można rozpoznać jego treść i zapisać w formacie PDF, zgodnie ze specyfikacją ISO. Na dokumentach PDF można też współpracować, dzielić się pomysłami oraz poznawać opinie zespołu dzięki zastosowaniu narzędzi do dyskusji, takich jak zaznaczanie fragmentów tekstu, komentowanie i rysowanie. Stworzone dokumenty mogą być podpisywane cyfrowo, jak też zabezpieczane hasłem. FineReader PDF ułatwia również redagowanie danych wrażliwych oraz usuwanie danych ukrytych. Tak bogaty zestaw funkcji ułatwia zwiększenie wydajności codziennej pracy oraz zredukowanie liczby używanych aplikacji i wyeliminowanie konieczności wykonywania tej samej pracy dwukrotnie.
FineReader PDF oferowany jest w dwóch opcjach. Wersja Standard umożliwia tworzenie, konwertowanie, edytowanie i zabezpieczanie dokumentów PDF, a także rozpoznawanie tekstu za pomocą OCR. Natomiast wersja Corporate zapewnia dodatkowo porównywanie dokumentów w różnych formatach – także pomiędzy edytowalnym plikiem i nieprzeszukiwalnym skanem. Znalezione zmiany można wyeksportować w przejrzysty sposób w formie komentarzy w dokumencie PDF lub śledzenia zmian w pliku Worda, aby możliwa była dalsza współpraca przy nich z innymi osobami.
Wersja Corporate umożliwia także automatyzowanie procesu digitalizacji i przetwarzania za pomocą funkcji Hot Folder (do 5 tys. stron miesięcznie), aby usprawnić rozpoznawanie OCR powtarzających się fragmentów tekstu lub konwertować wiele dokumentów na przeszukiwalne pliki PDF i PDF/A lub do edytowalnych formatów Microsoft Word, Excel i innych.
Artykuł ABBYY: sztuczna inteligencja do zarządzania dokumentami pochodzi z serwisu CRN.
]]>Artykuł Rośnie znaczenie archiwizacji poczty elektronicznej jako elementu cyberodporności pochodzi z serwisu CRN.
]]>Poczta elektroniczna jest istotną częścią codziennej pracy i komunikacji w każdej firmie. Wiadomości zawierają dużą ilość krytycznych dla biznesu informacji, takich jak umowy, faktury, dane osobowe czy zamówienia zakupu. Utrzymanie ich stałej dostępności ma kluczowe znaczenie – utrata wpłynęłaby na zakłócenie działalności, a nawet mogłaby zagrozić reputacji firmy lub wręcz jej istnieniu, w zależności od skali utraconych danych.
Istnieje wiele przyczyn utraty danych z poczty elektronicznej. Należą do nich: złośliwa działalność wewnątrz firmy, błędy ludzkie (zazwyczaj usunięcie wiadomości e-mail przez pracowników), cyberataki, klęski żywiołowe lub inne niekontrolowane przyczyny, takie jak pożar w budynku firmy. Istnieje również ryzyko związane z czynnikami zewnętrznymi, np. zakłócenia działalności biznesowej spowodowane przez dostawców usług w chmurze, których usługi mogą zostać wstrzymane z powodu problemów technicznych.
Aby sprostać tym wyzwaniom i zminimalizować ryzyko, firmy coraz częściej sięgają po koncepcję cyberodporności, która staje się coraz ważniejsza wraz z postępującą cyfryzacją. Zagadnienie to odnosi się nie tylko do koncepcji i środków ochrony przed cyberatakami, ale także do zarządzania ciągłością biznesową. Wymaga zdefiniowania strategii, działań i procesów, które w sytuacji awaryjnej, gdy np. w ramach cyberataku pokonany zostanie firewall, zapobiegną zakłóceniu pracy firmy lub umożliwią jej jak najszybsze wznowienie.
Ważną częścią zarządzania ciągłością działania są mechanizmy Disaster Recovery, obejmujące zabezpieczanie i odtwarzanie niezbędnej infrastruktury technicznej, czyli krytycznych dla biznesu danych oraz wszystkich sieci i systemów informatycznych. Cennym wsparciem w tym zakresie jest wykorzystanie kopii zapasowych (backup) oraz archiwizacji poczty elektronicznej.
Kopie zapasowe przechowują firmowe dane z momentu, w którym zostały zabezpieczone. Dzięki temu w przypadku awarii możliwe jest przywrócenie podzbiorów danych lub całych systemów czy serwerów. Jednak wolumeny kopii zapasowych odzwierciedlają tylko te dane, które istniały w momencie tworzenia backupu. Zmiany dokonane po jego utworzeniu nie są rejestrowane. Oznacza to, że kopie zapasowe muszą być wykonywane regularnie – z uwzględnieniem kosztów i korzyści – tak aby były jak najbardziej aktualne.
Oprócz regularnego tworzenia kopii zapasowych, zaleca się stosowanie profesjonalnego rozwiązania do archiwizacji poczty elektronicznej. Biorąc pod uwagę, że wiadomości e-mail – wciąż najważniejsze medium komunikacyjne – zawierają dużą liczbę krytycznych dla działalności biznesowej dokumentów, ważne jest, aby zachować do nich dostęp, nawet w przypadku awarii serwera pocztowego lub innej przyczyny utraty dostępu.
Niezależne rozwiązanie do archiwizacji poczty elektronicznej może pomóc w zachowaniu krytycznych dla biznesu wiadomości e-mail i uprościć ich odzyskiwanie, dzięki czemu cały wolumen danych o nich jest bezpiecznie przechowywany w archiwum i pozostaje dostępny np. do operacji wyszukiwania i odzyskiwania. Nawet w przypadku katastrofy, po której serwer poczty elektronicznej musi zostać przywrócony z kopii zapasowej i przez pewien cenny czas nie jest dostępny, pracownicy mogą uzyskać dostęp do wysłanych i otrzymanych wcześniej e-maili. Ponadto rozwiązanie do archiwizacji może uprościć procesy tworzenia kopii zapasowych i odzyskiwania wiadomości z serwera poczty elektronicznej. Utrzymywanie na nim niewielkiej ilości danych oznacza, że proces tworzenia kopii zapasowej będzie wymagał mniej czasu i pojemności pamięci masowej, a po wystąpieniu awarii będzie można szybciej przywrócić serwer do pracy.
Zarówno archiwizacja poczty, jak i rozwiązania do tworzenia kopii zapasowych, są niezbędne dla zachowania ciągłości działania firmy, ale nie wykluczają się wzajemnie. Z reguły strategia tworzenia backupu służy do ochrony danych (w idealnym przypadku także samego archiwum poczty elektronicznej) w perspektywie średnio- i krótkoterminowej, a w razie potrzeby umożliwia odtworzenie tych informacji.
Rozwiązanie do archiwizacji poczty elektronicznej, jeśli jest włączone do strategii tworzenia kopii zapasowych, umożliwia przechowywanie wiadomości e-mail w ich oryginalnym stanie przez wiele lat. Stosując oba rozwiązania razem, firmy mają zapewnione zwiększenie odporności na cyberzagrożenia w całym swoim środowisku IT.
Artykuł Rośnie znaczenie archiwizacji poczty elektronicznej jako elementu cyberodporności pochodzi z serwisu CRN.
]]>