Artykuł Zabezpieczanie danych w usługach chmurowych pochodzi z serwisu CRN.
]]>Chmura w Polsce jest przeważnie rozważana przy wdrażaniu nowych systemów i środowisk, jednak nadal są one w większości lokowane we własnej infrastrukturze. Rynek takich rozwiązań jak Microsoft 365 napotyka wciąż bariery regulacyjne oraz związane z obawami firm przed zmianą. Poziom akceptacji dla usług w chmurze stale się jednak zwiększa, ale głównie w mniejszych firmach, a nie w sektorze publicznym czy przy projektach finansowanych ze środków unijnych.
Mniejsi przedsiębiorcy szukają przede wszystkim gotowych rozwiązań Software as a Service (SaaS),ponieważ nie mają możliwości tworzenia własnych na bazie Infrastructure as a Service lub Platform as a Service (IaaS/PaaS). Większe firmy oraz ci, którzy potrzebują unikalnego podejścia, chętniej korzystają z PaaS i IaaS do budowania własnych rozwiązań. W Polsce najbardziej popularne i zaawansowane na rynku są usługi Backup as a Service i Disaster Recovery as a Service (BaaS/DRaaS), powszechnie oferowane zarówno przez globalnych, jak i lokalnych dostawców.
Źródło: Veeam Cloud Protection Trends Report for 2023 (https://vee.am/CPT23)
Artykuł Zabezpieczanie danych w usługach chmurowych pochodzi z serwisu CRN.
]]>Artykuł Qualstar – niezawodne, bezpieczne, ekonomiczne zabezpieczanie danych na taśmach pochodzi z serwisu CRN.
]]>Qualstar oferuje rozwiązania taśmowe zgodne z nieustannie rozwijanym i rozbudowywanym już od ponad 20 lat standardem LTO. Każda nowa generacja taśm zapewnia większą pojemność – w przypadku LTO-9 jest to obecnie 45 TB na nośnik (z uwzględnieniem sprzętowej kompresji o współczynniku 2,5:1), a więc o 50 proc. więcej niż w przypadku LTO-8 i 3 razy więcej w porównaniu z LTO-7.
Jeśli firma objęta jest wymogiem prawnym lub wynikającym z przyjętej przez zarząd strategii zarządzania danymi, istnieje możliwość wykorzystania funkcji zapisu na taśmie z aktywną blokadą usunięcia, przepisania lub modyfikacji danych (WORM – Write Once, Read Many). Taśmy, dzięki temu, że po wyjęciu z napędu są nośnikiem oddzielonym od stałego dostępu do danych, świetnie sprawdzają się jako zabezpieczenie przed utratą ciągłości biznesowej w wyniku zaszyfrowania systemu IT przez ransomware lub usunięcia danych przez inny złośliwy kod.
– Wbrew opinii propagowanej przez producentów dyskowych systemów do backupu, taśmy nie są i w najbliższym czasie nie staną się przestarzałą technologią. Idealnie odpowiadają na współczesne potrzeby biznesowe przedsiębiorstw, ułatwiając im zabezpieczenie wykładniczo rosnącej ilości danych w nowoczesnych środowiskach, takich jak big data, chmura, Internet Rzeczy, cyfrowy monitoring wideo i innych – mówi Arthur Kilian, Regional Sales Manager CEE w firmie Qualstar.
Taśmowy sposób zapisu przeszedł próbę czasu – technologia ta jest wykorzystywana przez ponad 70 lat i stała się niezbędnym elementem wielowarstwowej infrastruktury pamięci masowej. Przez cały ten czas nieustannie rosła niezawodność, wydajność i pojemność nośników. W wielu przedsiębiorstwach w praktyce sprawdziły się zapewniające dużą skalowalność biblioteki taśmowe, w których można stosować różne generacje napędów, co stanowi świetne zabezpieczenie inwestycji na przyszłość.
Qualstar ma w swojej ofercie pełną paletę rozwiązań taśmowych LTO dla firm różnej wielkości – od małych do największych korporacji. Są wśród nich zewnętrzne napędy z rodziny Qi/Qi Mac od 7. do 9. generacji LTO, z interfejsami SAS 6 Gb/s lub Thunderbold 3. Dostępne są też zapewniające różny poziom skalowalności biblioteki taśmowe Q8, Q24, Q40 i Q80. W ich przypadku nazwa modelu oznacza liczbę gniazd na taśmy w głównej obudowie biblioteki, przy czym możliwe jest zwielokrotnienie pojemności za pomocą dodatkowych modułów, a także prędkości – za pomocą dodatkowych napędów (np. do 42 w bibliotece Q80). Wszystkie oferowane rozwiązania są kompatybilne z większością popularnych aplikacji do backupu (np. takich firm jak Veeam, Arcserve, Veritas) i archiwizacji danych (np. Archiware, FujiFilm Object Archive, XenData).
Biblioteki Qualstar standardowo wyposażone są w czytniki kodów kreskowych oraz funkcje szyfrowania i partycjonowania (dzielenie fizycznej biblioteki na wiele – zależnie od liczby zainstalowanych napędów – wirtualnych bibliotek). Mają też interfejs zdalnego zarządzania, dzięki któremu administratorzy IT mogą nie odchodząc od biurka konfigurować proces backupu i archiwizacji, zarządzać nim i diagnozować ewentualne problemy.
Sprzęt ten objęty jest dwuletnią gwarancją z usługą szybkiej wymiany komponentów (door-to-door) z możliwością rozszerzenia do 7 lat i wykupienia opcjonalnego serwisu w siedzibie klienta. Autoryzowanym dystrybutorem rozwiązań Qualstar w Polsce jest Exclusive Networks Polska.
Dodatkowe informacje: Arthur Kilian, Regional Sales Manager CEE, Qualstar Corp., arthur.kilian@qualstar.com, tel. 784 689 906
Artykuł Qualstar – niezawodne, bezpieczne, ekonomiczne zabezpieczanie danych na taśmach pochodzi z serwisu CRN.
]]>Artykuł Diskus: podłączyliśmy demagnetyzer do chmury pochodzi z serwisu CRN.
]]>W ofercie Diskusa dostępne są dwa modele demagnetyzerów ProDevice – ASM120 i ASM240. Generują one pole magnetyczne o mocy, odpowiednio, do 11 i 20 tys. Gauss. Model ASM240 został ostatnio znacznie rozbudowany, a jego nowa wersja oznaczona jest symbolem ASM240+. Demagnetyzer wyposażono w zestaw czujników środowiskowych oraz zmodernizowano oprogramowanie, co pozwala na prowadzenie zdalnej diagnostyki – zarówno podstawowej, realizowanej samodzielnie przez klienta lub współpracującego z nim partnera, jak też zaawansowanej, wykonywanej przez inżynierów Diskusa.
Kluczową cechą modelu ASM240+ jest komunikacja z chmurowym portalem ProDevice Cloud Portal. Jest to usługa, która będzie dostępna dla wszystkich nowych modeli demagnetyzerów. Umożliwia zdalne zarządzanie nimi – nie tylko przez klientów, ale także przez partnerów, na przykład świadczących usługi wypożyczania degausserów ProDevice.
ProDevice Cloud Portal jest też platformą wymiany informacji dla stworzonej przez Diskus aplikacji mobilnej dla systemów Android i iOS, wspierającej proces niszczenia danych z nośników magnetycznych. Współpracuje ona z modelem ASM240+, z którego zbiera informacje o tym z jakich nośników dane są kasowane. Umożliwia skanowanie kodów kreskowych demagnetyzowanych nośników, a także robienie zdjęć i nagrywanie filmów, dokumentujących progres usuwania danych. Wszystkie te dane dostępne są w przejrzystym raporcie, który użytkownik pobiera na komputer.
– Model ASM240+ jest jedynym na świecie demagnetyzerem, który współpracuje z aplikacją na urządzeniach mobilnych – podkreśla Tomasz Filipów, dyrektor zarządzający Diskus Polska. – Planujemy także zrobić wersję „plus” naszego degaussera o mniejszej mocy – ASM120. Niestety, niemożliwa będzie natomiast rozbudowa już posiadanych przez klientów degausserów, aby zapewnić ich współpracę z ProDevice Cloud Portal i aplikacją mobilną. Zmiany w nowych modelach, mimo że niewidoczne na pierwszy rzut oka, są znaczne, gdyż całkowicie przeprojektowane zostały ich płyty główne i dodano wiele czujników.
Prace nad nowymi urządzeniami ProDevice prowadzone są w Centrum Badawczo-Rozwojowym producenta. Jest to jedna z najlepiej wyposażonych w całej Europie placówek, która zajmuje się badaniami nad usuwaniem danych z nośników. Diskus kontynuuje także podjęte parę lat temu prace nad mechanizmem gwarantowanego usuwania danych z kości pamięci NAND flash bez konieczności ich fizycznego niszczenia.
Okres pandemii był dla nas niemałym wyzwaniem. Przez dość długi czas niemożliwe było niszczenie danych w siedzibie klienta. Na szczęście nasi partnerzy nie zrezygnowali z usług Diskusa, ich realizację przełożyli jedynie na późniejszy okres. Dlatego teraz obserwujemy na rynku znaczny wzrost popytu na prace związane z certyfikowanym, nieodwracalnym usuwaniem danych z nośników pamięci. Zauważyliśmy także duży wzrost sprzedaży bibliotek taśmowych i nośników, co było pokłosiem zintensyfikowanych, a jednocześnie coraz skuteczniejszych ataków ransomware. Wiele polskich firm i instytucji publicznych padło ich ofiarą, a backup na odłączone od systemu produkcyjnego nośniki to nadal najlepsza i najtańsza gwarancja odzyskania danych.
Dodatkowe informacje: Tomasz Filipów, dyrektor zarządzający, Diskus Polska, diskus@diskus.pl
Artykuł Diskus: podłączyliśmy demagnetyzer do chmury pochodzi z serwisu CRN.
]]>Artykuł Ochrona danych ma wiele twarzy pochodzi z serwisu CRN.
]]>
Taka sytuacja jest idealna dla integratorów, którzy chcą świadczyć kompleksowe usługi. Klienci zrozumieli już bowiem, jaką wartość stanowi dla nich informacja, i coraz chętniej rozmawiają o procesach związanych z ochroną danych, a nie tylko o sprzęcie czy oprogramowaniu, które daną funkcję zapewni. W wielu przypadkach to także otwarta droga do sprzedaży usług chmurowych – backupu online i wirtualnych serwerów.
Współpraca z mniejszymi klientami ma jednak pewne charakterystyczne cechy. Zawsze trzeba pamiętać, że trzy razy oglądają każdą wydaną złotówkę. Dlatego integrator musi zagwarantować, że kupione przez klienta rozwiązanie spełni założony cel. Inaczej współpraca skończy się dość szybko. W tym przypadku bowiem znacznie trudniej ukryć własny błąd niż podczas większych projektów, gdzie odpowiedzialność często jest rozmyta. Na korzyść natomiast działa fakt, że – szczególnie w małych firmach – raczej nie ma problemów ze skalowalnością. W znakomitej większości przypadków ich potrzeby zaspokoi średniej klasy serwer NAS z kilkoma dyskami.
W ostatnich latach zmieniły się priorytety związane z przechowywaniem danych. Mimo że statystyki pokazują przyrost ilości elektronicznych informacji, z jakim nie mieliśmy nigdy do czynienia, zjawisko to nie dotyczy małych firm, lecz głównie dostawców usług i przedsiębiorstw przetwarzających dane w modelu Big Data. Zapotrzebowanie na pojemność w mniejszych podmiotach nie stanowi problemu. Niewiele z nich dysponuje biznesowymi danymi, których objętość przekracza jeden terabajt (oczywiście z wyjątkiem tych przedsiębiorstw, które przetwarzają duże pliki multimedialne). Oznacza to, że wszystkie firmowe informacje można byłoby zmieścić na jednym dysku… sprzed kilku lat.
Natomiast duża zmiana dotyczy ciągłości pracy. Zarządy firm praktycznie przestały akceptować fakt, że kluczowe dla funkcjonowania przedsiębiorstwa systemy IT mogą być niedostępne przez dłuższy czas. Co więcej, często nawet spowolnione działanie w wyniku dużego obciążenia systemów bywa przedmiotem zgłoszenia serwisowego. Zatem zapewnienie ciągłości pracy to priorytet w doborze właściwych rozwiązań. System przechowywania danych musi być bowiem skonstruowany tak, aby w przypadku awarii lub katastrofy użytkownicy w miarę możliwości w ogóle nie odczuli przestoju. Odzyskiwanie informacji z backupu powinno raczej stanowić ostateczność.
Gwarancję nieprzerwanego dostępu można uzyskać jedynie poprzez utworzenie – podobnie jak w przypadku backupu– zbioru różnych procesów i procedur. Powinny uwzględniać kilka kluczowych kwestii. Po pierwsze tę związaną z sieciami, a konkretnie ich odpowiednią przepustowością, możliwością bezprzewodowego podłączenia się czy szyfrowaniem połączeń zdalnych. Ważna jest ponadto ochrona danych przed utratą, co zapewni struktura RAID w macierzy, replikacja i backup. Wreszcie należy zadbać o szybkie przywrócenie dostępu w przypadku różnego rodzaju awarii. Pomogą w tym spisane i przetestowane procedury działania realizowane przez administratorów lub zewnętrzne firmy świadczące usługi wsparcia.
Jak już wspomnieliśmy, pojemność systemów pamięci masowych nie stanowi dla mniejszych firm tak dużego wyzwania, jak zapewnienie odpowiedniej wydajności. Między innymi z tego powodu zmuszone są do inwestowania w macierze dyskowe, w których – w dużym uproszczeniu – łączna wydajność jest sumą wydajności wszystkich aktywnych twardych dysków (o ile kontroler macierzowy nie jest wąskim gardłem). Kolejna ich zaleta to możliwość połączenia dysków w strukturę RAID, dzięki której awaria jednego lub dwóch napędów nie powoduje utraty danych.
Wojciech Kotkiewicz
Wykorzystanie dysków SSD w serwerach NAS jeszcze niedawno mogło uchodzić za ekstrawagancję, głównie ze względu na cenę tego nośnika. Jednak rozwiązania te dość szybko stały się popularne, głównie za sprawą pojawienia się układów 3D NAND TLC, w których w jednej komórce można zapisać aż trzy bity pamięci. Co prawda, niektórzy sceptycy podkreślają, że wspomniane napędy nie nadają się do zastosowań w dużych, profesjonalnych środowiskach IT, ze względu na niezweryfikowaną jeszcze w pełni niezawodność, ale w mniejszych mogą stanowić rozsądny kompromis między wydajnością i ceną.
W mniejszych firmach dużą i zasłużoną popularność zyskały wielofunkcyjne serwery NAS. Najmniejsze modele tych urządzeń (od jednego do czterech dysków) sprawdzają się u użytkowników prywatnych i w mikroprzedsiębiorstwach, ale większe dobrze radzą sobie – także pod względem wydajności – w bardziej wymagających zastosowaniach. Większość dostawców zadbała o certyfikaty zgodności przyznane przez producentów rozwiązań wirtualizacyjnych, chociaż liczba uruchomionych równocześnie wirtualnych maszyn raczej nie powinna przekraczać kilkunastu. Z drugiej strony, naprawdę niewiele małych i średnich firm potrzebuje do pracy tak wielu wirtualnych serwerów.
– W codziennej pracy odczytywana i zapisywana jest ilość danych stanowiąca nie więcej niż kilkanaście procent objętości danej wirtualnej maszyny. Poza tym serwery NAS świetnie sprawdzają się jako repozytorium backupu w środowiskach wirtualizacyjnych – przekonuje Grzegorz Bielawski, szef polskiego oddziału QNAP.
W serwerach NAS, które umożliwiają instalację ośmiu lub więcej twardych dysków, warto rozważyć zainstalowanie kilku rodzajów nośników danych. Jako miejsce do przechowywania plików można zastosować zwykłe dyski SATA. Dla danych, które ulegają ciągłym modyfikacjom – w bazach danych lub wirtualnych maszynach – można przeznaczyć dyski SSD. Natomiast do zapisywania danych z wideomonitoringu należy zastosować specjalne twarde dyski oferowane przez wszystkich trzech obecnych na rynku dostawców – Seagate’a, Toshibę i WD. Kontroler tych napędów został przystosowany do ciągłego zapisu danych i relatywnie bardzo rzadkiego ich odczytu – odwrotnie niż w przypadku tradycyjnego wykorzystania napędów dyskowych.
Ludzie dzielą się na tych, którzy backup robią, i na tych, którzy… będą go robili po utracie danych. Ta brutalna prawidłowość nadal się sprawdza. W firmach przetwarza się coraz więcej elektronicznych informacji, rośnie więc prawdopodobieństwo ich utraty. To zaś oznacza pozyskanie klienta, dla którego trzeba zaprojektować system tworzenia zapasowych kopii danych. Jaki? To zależy od rodzaju użytkownika.
Backup ratunkiem przed ransomware
Od trzech lat branżę związaną z bezpieczeństwem danych elektryzuje „ransomware” – złośliwy kod, który blokuje dostęp do wybranych zasobów komputera (najczęściej przez zaszyfrowanie danych), a za odblokowanie żąda okupu wpłaconego w bitcoinach do portfela cyberprzestępców.
Najlepszym, bo bezpłatnym, sposobem przeciwdziałania skutkom ransomware jest odzyskanie danych z kopii zapasowej. Natomiast projektując procedury backupowe, należy zwrócić uwagę na to, czy w trakcie ich realizacji oryginalne pliki nie zostaną nadpisane przez te zaszyfrowane. Sytuację komplikuje też fakt, że oprogramowanie ransomware potrafi zaszyfrować nie tylko pliki znajdujące się na lokalnym twardym dysku komputera, ale także te udostępnione przez sieć, np. z serwera NAS. W takiej sytuacji wykonywanie kopii na serwer NAS, a następnie zewnętrzny dysk niewiele pomoże.
Rozwiązania są dwa. Pierwsze to pozostawianie podczas wykonywania backupu także kopii starych wersji plików (pozwala na to większość pakietów oprogramowania do backupu). Drugim jest wykonywanie od czasu do czasu kopii zapasowej na nośniku wymiennym (zewnętrznym twardym dysku, kasecie RDX czy zwykłej taśmie LTO), odłączanym od głównego systemu przechowywania danych.
Generalnie firmy nadal interesują się wykorzystaniem taśm do backupu, bo wciąż jest to najtańszy wymienny nośnik w przeliczeniu na jednostkę pojemności (ale też wymagający najdłuższego czasu na dostęp do danych). Taśmy są też coraz bardziej popularne w systemach długoterminowej archiwizacji offline. Natomiast ich zastosowanie w małych i średnich przedsiębiorstwach nie ma sensu, ze względu na rozwijające się usługi backupu online i taniejące, proste systemy do replikacji danych.
Najważniejszym elementem środowiska do backupu w MŚP powinien być wspomniany już serwer NAS z dyskami połączonymi w strukturę RAID, co zapewnia ochronę przed skutkami uszkodzenia dysku. Zainstalowane na komputerach użytkowników oprogramowanie będzie wykonywało kopię na ten serwer zgodnie z założonym harmonogramem (najczęściej raz dziennie). Do serwera można też podłączyć, przez port USB lub eSATA, zewnętrzny dysk o dużej pojemności, aby właśnie na niego trafiała wykonywana w nocy kopia kopii (ochrona przed skutkiem awarii zasilacza lub kontrolera macierzowego serwera). Dane na zewnętrznym dysku trzeba koniecznie zaszyfrować, co uniemożliwi dostęp do nich złodziejowi napędu.
Obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych między dwoma budynkami, oddalonymi o wiele kilometrów. Dostęp do takiej funkcji zapewnia większość serwerów NAS. Wystarczy kupić dwa bliźniacze urządzenia, zainstalować w nich dyski o podobnej pojemności i skonfigurować je tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez sieć lokalną lub Internet na serwer zapasowy.
Jeżeli użytkownik firmowego laptopa często podróżuje i nie ma połączenia z lokalną siecią, można zainstalować mu oprogramowanie do backupu, które regularnie będzie wykonywało kopię najważniejszych plików na kartę SD, bo większość notebooków ma gniazdo umożliwiające jej instalację. Pojemność karty powinna być zbliżona do dwukrotności objętości zabezpieczanych danych, dzięki czemu będzie miejsce na zapisywanie także poprzednich wersji plików. Gdy awarii ulegnie laptop lub jego twardy dysk, wystarczy wyjąć kartę i włożyć ją do innego laptopa. Dzięki temu użytkownik ma dostęp do swoich danych natychmiast – nie musi ich pobierać z centralnego serwera.
Jerzy Adamiak
Podczas budowania archiwum elektronicznych danych trzeba pamiętać, że sama archiwizacja, podobnie jak backup, jest procesem, a nie konkretną czynnością. Dlatego, dobierając sprzęt i oprogramowanie, należy uwzględnić, z dużym zapasem, przyrost ilości informacji i możliwe zmiany ich charakteru. Dobrym przykładem może być to, że co parę lat znacznie zwiększa się objętość archiwizowanych treści multimedialnych – zdjęć i wideo – w związku ze wzrostem rozdzielczości matryc w aparatach i kamerach. Warto też być świadomym obowiązującego prawa, np. dotyczącego ochrony danych osobowych lub przechowywania dokumentacji księgowej, bo może ono wpływać na sposób, w jaki należy archiwizować dane.
Od niemal dekady słuszne zainteresowanie budzą usługi backupu online. Dzięki coraz szybszym łączom internetowym to idealne rozwiązanie głównie dla często podróżujących pracowników. Ponieważ jest to backup przyrostowy, operacja będzie praktycznie niezauważalna nawet przy połączeniu z Internetem przez łącze komórkowe. W efekcie użytkownik zyska dostęp do danych np. za pomocą smatrfona, jeśli jego laptop ulegnie awarii. Ale z backupu online coraz częściej korzystają także administratorzy wykonujący kopie zgromadzonych centralnie danych. Ułatwia to m.in. oprogramowanie, które obecnie jest wbudowane w większość serwerów NAS.
Proponując klientowi usługi backupu, zawsze trzeba pamiętać o restrykcjach prawnych. Dane osobowe nie powinny opuszczać Unii Europejskiej, ale więcej ograniczeń nakłada „Rozporządzenie ministra finansów z 14 lipca 2005 r. w sprawie wystawiania oraz przesyłania faktur w formie elektronicznej”. Paragraf 6.1 tego rozporządzenia nakazuje, żeby faktury wystawione lub otrzymane drogą elektroniczną były przechowywane na terytorium Polski (w przypadku przechowywania ich na terytorium państwa członkowskiego UE należy poinformować o tym właściwego naczelnika urzędu skarbowego). Dlatego, jeśli chcemy zaoferować klientowi usługę backupu online dokumentów księgowych, warto sprawdzić, gdzie znajduje się centrum danych jej operatora.
Globalnie usługi backupu online świadczone są przez tysiące firm. Nigdy jednak nie wiadomo, której można wystarczająco zaufać i gdzie znajdują się jej centra danych. Dlatego w pewnym momencie klienci zaczęli sugerować swoim zaufanym dostawcom IT, że najchętniej przechowywaliby dane w ich serwerowniach. Nie wszystkich jednak stać na budowę własnych serwerowni, dlatego wypracowano rozwiązanie kompromisowe.
– Firmy partnerskie nie muszą budować własnych serwerowni, aby móc świadczyć usługi backupu online swoim klientom – mówi Marcin Zmaczyński, dyrektor polskiego oddziału Aruba Cloud. – Mogą wykupić u jednego z dostawców usług infrastruktury w chmurze odpowiednią przestrzeń dyskową i, korzystając z komercyjnie dostępnego oprogramowania do backupu, stworzyć własną usługę o identycznej funkcjonalności jak oferowana przez tradycyjnych dostawców.
Dzięki temu integratorzy zyskują dużą swobodę zarówno w zarządzaniu technicznymi parametrami usługi, jak i finansowymi. Mogą dowolnie ustalać politykę cenową wobec swojego klienta, zapewniając mu backup online jako wartość dodaną do innych usług. Finalnie mogą też zarobić znacznie więcej, niż wynosi prowizja (ok. 10 proc.) uzyskana ze zwykłej odsprzedaży lub polecania usług backupu online świadczonych przez firmy trzecie.
Artykuł Ochrona danych ma wiele twarzy pochodzi z serwisu CRN.
]]>