Artykuł Stacje robocze Lenovo gwarantują wydajną pracę pochodzi z serwisu CRN.
]]>
W stacjach roboczych Lenovo stosowane są wielordzeniowe procesory Intel Xeon (4–18 rdzeni), a w niektórych zainstalowany jest drugi CPU. Zapewniają one płynną pracę z wieloma, nawet najbardziej wymagającymi aplikacjami. Co prawda w kilku modelach można też spotkać układy z serii Intel Core i7, ale tego typu maszyny wykorzystywane są głównie do zadań wymagających mniejszej mocy obliczeniowej.
Istotną cechą wyróżniającą stacje robocze jest pamięć ECC (Error Correction Code), w której zaimplementowano mechanizmy korekcji błędów, co zapewnia niezawodną pracę. Co więcej, pamięci typu ECC gwarantują też znacznie większą stabilność działania systemu i uruchomionych programów niż zwykłe pamięci RAM.
Także podzespoły graficzne w stacjach roboczych różnią się od stosowanych w zwykłych komputerach. Nie montuje się w nich kart z serii GeForce czy Radeon, ale modele z serii NVIDIA Quadro np. M6000 z 24 GB pamięci RAM lub AMD FirePro W9100 z 32 GB pamięci GDDR5 (możliwa jest także instalacja kilku kart graficznych). Różnią się one od wydajnych modeli znanych z komputerów dla graczy przede wszystkim jakością użytych komponentów, trwałością i niezawodnością działania, a także przystosowaniem ich sterowników do współpracy ze specjalistycznymi aplikacjami. Ta ostatnia cecha potwierdzana jest często certyfikatami przyznawanymi przez niezależnych producentów oprogramowania, w tym firmy produkujące systemy CAD.
Kolejnym, ale nie ostatnim elementem, różniącym stacje robocze od zwykłych komputerów, jest system pamięci masowej. Także tutaj chodzi o zapewnienie maksymalnego bezpieczeństwa danych przechowywanych na dyskach oraz szybkości i niezawodności dostępu do informacji. Ponieważ komputery te często wykorzystywane są do obróbki grafiki, wymagają też dużych pojemności. Dlatego w niektórych modelach instaluje się więc nawet 14 twardych dysków. Pracują one zwykle połączone w strukturę macierzy RAID (poziom 0, 1, 5 lub 10), dzięki czemu w znaczący sposób zwiększone zostaje bezpieczeństwo zapisywanych i przechowywanych danych. Aby znacznie przyspieszyć pracę stacji roboczych i zwiększyć szybkość dostępu do danych, ich producenci coraz częściej wykorzystują dyski SSD.
Stacją roboczą niekoniecznie musi być komputer stacjonarny – może nią być też laptop, chociaż jego parametry także różnią się od parametrów typowych cienkich notebooków czy łatwych do przenoszenia i energooszczędnych ultrabooków. Tego typu urządzenia są dużo cięższe, grubsze i większe od większości oferowanych na rynku laptopów. Zaliczają się raczej do grupy sprzętu określanego mianem desktop replacement niż do typowych urządzeń mobilnych.
Większe wymiary obudowy przenośnej stacji roboczej związane są z koniecznością montażu procesorów wymagających bardziej efektywnego chłodzenia (w tym jednostek z serii Intel Xeon), do 64 GB pamięci RAM oraz odpowiednich wersji profesjonalnych kart graficznych. Typowe mobilne urządzenia tej klasy to model z 15- albo 17-calowym ekranem. Komputery z ekranami o mniejszych przekątnych, których produkuje się niewiele, przeznaczone są przede wszystkim do pracy w terenie z mniej wymagającymi profesjonalnymi aplikacjami.
Warto zwrócić też uwagę na jakość obudowy. Na przykład Lenovo w swoich przenośnych stacjach roboczych montuje dodatkowe elementy wzmacniające konstrukcję komputera. Umieszczona w obudowie magnezowa ramka usztywnia i wzmacnia notebook, sprawiając, że można go podnieść i trzymać za wyświetlacz bez obawy, że w ten sposób uszkodzona zostanie matryca.
Dlaczego warto zdecydować się na stację roboczą Lenovo?
• Wydajne procesory Intel Xeon z 4, 6, 8, 10, 12, 14 lub 18 rdzeniami. Płyty główne części stacji roboczych mają architekturę dwuprocesorową.
• Pamięć RAM z korekcją błędów ECC (w najwydajniejszych stacjach roboczych do 1 TB). Zapewnia większą stabilność działania systemu niż zwykłe pamięci non-ECC.
• Profesjonalne karty graficzne z rodziny NVIDIA Quadro lub AMD FirePro do pracy z profesjonalnymi aplikacjami graficznymi i oprogramowaniem CAD.
• Certyfikaty niezależnych producentów oprogramowania (ISV).
• Wyciszone obudowy zapewniające wysoki komfort podczas wielogodzinnej pracy, wyposażone w zasilacze o bardzo dużej sprawności.
• Możliwość instalacji większej liczby dysków twardych (do 14), pracujących w macierzy RAID 0, 1, 5, 10.
Resellerzy zarejestrowani w programie partnerskim Lenovo mają dostęp do platformy I DO Lenovo (www.idolenovo.pl). Jest to miejsce, w którym uzyskują wsparcie sprzedażowe oraz szczegółowe informacje ułatwiające prowadzenie biznesu z Lenovo. Za zakupy dokonywane u autoryzowanych partnerów otrzymują punkty w programie lojalnościowym, które później mogą wymienić na nagrody. Mogą też rejestrować swoje projekty, dzięki czemu uzyskują na nie dodatkowe rabaty.
Obecnie w mobilnych stacjach roboczych standardowo montuje się dwa dyski. Jeden to napęd SSD, który korzysta z interfejsu SATA lub M.2 (znajduje się na nim system operacyjny, aplikacje oraz najważniejsze, aktualnie przetwarzane pliki). Drugi to zwykły twardy dysk przeznaczony na archiwalne dane. Coraz częściej produkowane są modele wyposażone w trzy, a nawet cztery napędy (także połączone w strukturę RAID).
W przenośnych stacjach roboczych stosowane są mobilne odpowiedniki profesjonalnych kart graficznych z serii NVIDIA Quadro i AMD FirePro. Drugi, najsilniejszy z dostępnych obecnie, mobilny układ graficzny firmy NVIDIA to Quadro M5000M, który dysponuje 1536 jednostkami CUDA oraz 8 GB pamięci GDDR5 o przepustowości 160 GB/s. Układ umożliwia swobodne generowanie obrazów wirtualnej rzeczywistości, co potwierdza m.in. certyfikat NVIDIA VR Ready.
– Podstawowe pytanie, które reseller powinien zadać klientowi zainteresowanemu wyborem stacji roboczej, brzmi: czy potrzebuje on sprzętu przenośnego, czy stacjonarnego. Mobilne urządzenie umożliwia pracę zarówno w domu, u klienta, jak i w biurze, a okazjonalnie (ze względu na spory ciężar i wymiary) w podróży. Stacjonarna stacja robocza zawsze wyposażona będzie w lepsze i znacznie bardziej wydajne podzespoły, które w razie potrzeby można zastąpić nowszymi. Można też rozbudować ją o nowe komponenty, np. dodając drugi procesor czy drugą kartę graficzną – mówi Łukasz Rutkowski, DT&WS Business Development Manager SMB w Lenovo.
Resellerzy przygotowujący ofertę dla klientów powinni bardzo uważnie przyglądać się specyfikacjom sprzętowym i szukać przede wszystkim najwyższej jakości i wydajności. Ich oczekiwania spełni oferta sprzętu Lenovo. Producent połączył podzespoły najwyższej klasy z przełomowymi rozwiązaniami konstrukcyjnymi. W ten sposób użytkownicy mają pewność, że stacje robocze Lenovo sprawdzą się z każdą wymagającą aplikacją, czego potwierdzeniem są liczne certyfikaty niezależnych dostawców oprogramowania.
Dodatkowe informacje:
Łukasz Rutkowski,
DT&WS Business Development Manager SMB,
Lenovo Poland, lrutkowski1@lenovo.com
Artykuł powstał we współpracy z firmą Lenovo.
Artykuł Stacje robocze Lenovo gwarantują wydajną pracę pochodzi z serwisu CRN.
]]>Artykuł UPS-y – sprawniejsze, bardziej energooszczędne i modularne pochodzi z serwisu CRN.
]]>Dominującą w sprzedaży kategorią są obecnie UPS-y o topologii line interactive, które mają wiele zalet niezwykle cennych z punktu widzenia klientów. Przede wszystkim generują dobrej jakości napięcie, a do ofert producentów coraz częściej trafiają modele zapewniające „czystą sinusoidę” na wyjściu. Droższe UPS-y tej klasy wyposażone są też w systemy automatycznej stabilizacji napięcia podczas pracy sieciowej (AVR). Dla urządzeń wrażliwych na jakość energii elektrycznej dostarczanej z sieci to niezwykle istotne rozwiązanie.
Niezawodność UPS-ów
Czas to pieniądz liczony stratami wynikłymi z nieplanowanych przestojów. Podczas eksploatacji systemu informatycznego mogą ulec awarii nie tylko chronione urządzenia, ale także same UPS-y. Warto się przyjrzeć dwóm wskaźnikom, z których jeden określa częstotliwość przestojów, a drugi czas ich trwania. Pierwszy to Mean Time Between Failure (MTBF) – średni czas bezawaryjnej pracy, a drugi – Mean Time to Repair (MTTR), czyli średni czas od momentu wystąpienia awarii do naprawy uszkodzonego urządzenia. Oczywiście idealny system psuje się jak najrzadziej
(długi okres MTBF), a jeśli już ulegnie awarii, to jego naprawa jest błyskawiczna (krótki okres MTTR). W rzeczywistości mamy do czynienia z rozwiązaniami, które stanowią wypadkową różnych kombinacji omawianych wskaźników. Z jednej strony na rynku nie brakuje zasilaczy, które psują się stosunkowo często, ale za to ich naprawa jest nieskomplikowana i szybka. Z drugiej, mamy do czynienia z UPS-ami, które cechuje duża niezawodność, ale jeśli się w końcu zepsują, przywrócenie ich do działania wymaga długiego czasu. Dla obu tych skrajnych przypadków wypadkowa, którą jest dostępność rozwiązania, może być taka sama. Warto pamiętać, że to od rodzaju chronionych aplikacji zależy, jaki wariant MTBF + MTTR będzie najlepszy do wdrożenia u klienta.
– Zasilacze klasy line interactive mają obecnie bardzo dobry stosunek jakości do ceny i stanowią ponad 50 proc. sprzedaży urządzeń do zasilania gwarantowanego – szacuje Krzysztof Jabłoński, Business Unit Manager w ABC Data Value+.
Coraz bardziej popularne stają się najbardziej zaawansowane wersje rozwiązań zasilania gwarantowanego o topologii online. Są już na rynku urządzenia, które dzięki systemowi podwójnej konwersji napięcia w czasie krótszym niż 2 milisekundy, gwarantują całkowite odizolowanie podłączonego do nich sprzętu od sieci energetycznej i doskonale chronią go przed wszelkimi zakłóceniami. Takie UPS-y stosuje się zarówno do zasilania pojedynczych serwerów, jak i większych centrów danych, gdzie ważny jest czas przełączenia na zasilanie bateryjne. Warto dodać, że zasilacze te generują wysokiej jakości napięcie wyjściowe, którego przebieg jest idealnie sinusoidalny.
>> Dostawcy o trendach technologicznych na rynku zasilania gwarantowanego
Krzysztof Jabłoński, Business Unit Manager, ABC Data Value+
Producenci wprowadzają na rynek coraz więcej modeli o wysokiej sprawności, dochodzącej nawet do 99 proc., co powoli zaczyna stawać się standardem. Wysoka sprawność energetyczna systemów, które pracują w trybie podwójnej konwersji, zapewnia znaczące obniżenie kosztów eksploatacji sprzętu i istotne oszczędności na chłodzeniu.
Adrian Pecyna, Product Manager, Eaton Electric
Modułowe rozwiązania są dzisiaj obowiązkową pozycją w portfolio producenta UPS. Jednak choć klienci oczekują podejścia typu „inwestowanie wraz z rozwojem”, to nie każdy jest skłonny wydać na początku więcej, na poczet przyszłej możliwości rozbudowy. Dlatego atutem, poza modułowością, jest skalowalność.
Sebastian Warzecha, dyrektor handlowy, Ever
Klienci zwracają uwagę na koszty eksploatacji, bo bardzo ważny stał się dla nich zwrot z inwestycji (ROI). Przy podejmowaniu decyzji biorą pod uwagę również solidność wykonania, jakość produktów, a także uwzględniają opinie na temat danej marki i jej rozwiązań. Atutem jest dla nich dobrze funkcjonujące wsparcie posprzedażowe i bardzo doceniają, gdy jest prowadzone na terenie Polski, w rodzimym języku.
Jacek Parys, dyrektor sprzedaży w dziale IT Business, Schneider Electric
Główne kierunki rozwoju są dość jasno określone: większa energooszczędność i jakość baterii. Na rozwój technologiczny UPS-ów mają istotny wpływ zmiany na rynku magazynów energii. Ostatnio do naszych urządzeń wprowadziliśmy nowy rodzaj baterii litowo-jonowych, co ma przedłużyć ich wytrzymałość.
Michał Semeniuk, dyrektor handlowy, Delta Energy Systems Poland
Wysoka sprawność jest jednym z głównych czynników technicznych, który ma decydujące znaczenie przy wyborze systemu UPS przez klienta. Coraz częściej rozwiązania modułowe wypierają te klasyczne, monoblokowe. Sprzedaż UPS-ów modułowych rośnie rok do roku o 10–15 proc. Oferta tego typu UPS-ów stale się powiększa, zarówno pod względem dostępnych rozwiązań – modułowych baterii czy zabezpieczeń, jak i zakresu mocy.
Postęp techniczny doprowadził do dużej poprawy efektywności działania UPS-ów. Ćwierć wieku temu sprawność najlepszych systemów zasilania gwarantowanego wynosiła poniżej 80 proc. Gdy zaczęły się pojawiać kolejne, coraz szybciej przełączające się urządzenia, skoczyła do ponad 90 proc. Obecnie producenci wprowadzają na rynek liczne modele o największej możliwej sprawności, dochodzącej nawet do 99 proc. Wysoka sprawność energetyczna urządzeń, które pracują w trybie podwójnej konwersji, umożliwia znaczące obniżenie kosztów eksploatacji sprzętu i chłodzenia systemu.
W projektowaniu nowych rozwiązań zasilania gwarantowanego dąży się bowiem do optymalizacji kosztów, energooszczędności i wysokiej efektywności działania. Składają się na nią m.in. bezawaryjność i możliwość łatwej, samodzielnej wymiany podzespołów przez użytkownika.
– Poza tym klienci, wybierając sprzęt, zwracają uwagę na solidność wykonania, jakość produktów, a także uwzględniają opinie na temat danej marki. Atutem jest też dobrze funkcjonujące wsparcie posprzedażowe – uważa Sebastian Warzecha, dyrektor handlowy Evera.
Wśród cech, na które integratorzy powinny zwracać uwagę klientów, producenci wymieniają także niezawodność i bezpieczeństwo działania całego systemu. Istotna jest również kompleksowa obsługa serwisowa. Obecnie specjaliści kładą też rosnący nacisk na coraz większą energooszczędność i jakość baterii. Dobrym przykładem jest niedawne wprowadzenie do UPS-ów APC nowego rodzaju baterii litowo-jonowych, co ma przedłużyć ich wytrzymałość.
– Rozwijający się rynek magazynów energii ma istotny wpływ na rozwój technologiczny UPS-ów. Możemy się spodziewać, że za jakiś czas pojawią się całkiem nowe rodzaje baterii – mówi Jacek Parys, dyrektor sprzedaży w dziale IT Business firmy Schneider Electric.
Gdy mowa o energooszczędności i ochronie środowiska, warto zwrócić uwagę na możliwość stosowania w zasilaczach superkondensatorów. Adrian Pecyna, Product Manager z Eaton Electric, twierdzi, że takie rozwiązanie jest alternatywą dla baterii kwasowo-ołowiowych, które w systemie UPS należy wymieniać średnio co trzy lata. Superkondensatory są natomiast projektowane z myślą o ciągłej pracy w okresie nawet 25 lat. Kolejnym elementem optymalizacji jest możliwość pomiaru energochłonności samej infrastruktury. Tu z pomocą przychodzą nie tylko UPS-y z opomiarowanymi wyjściami, ale również specjalne listwy PDU, które pozwalają z dokładnością do 1 proc. określić aktualne parametry elektryczne pracujących urządzeń oraz zużycie energii w kWh na każdym z gniazd.
– Wystarczy zerknąć na interfejs takiej listwy i już wiemy, które urządzenie „oddało” do szafy określoną ilość watów w postaci ciepła – wyjaśnia ekspert z Eatona.
Wysoka sprawność to nadal jeden z głównych czynników technicznych, które decydują o wyborze systemu UPS przez klienta. Dlatego rosnącą popularnością cieszą się obecnie rozwiązania modułowe, które coraz bardziej wypierają klasyczne, monoblokowe.
– Sprzedaż UPS-ów modułowych rośnie rok do roku o 10–15 proc. Oferta tego typu zasilaczy stale się powiększa, zarówno pod względem dostępnych rozwiązań (modułowe baterie, zabezpieczenia itp.), jak i zakresu mocy – mówi Michał Semeniuk, dyrektor handlowy w Delta Energy Systems.
Modułowe rozwiązania są dzisiaj obowiązkową pozycją w portfolio każdego producenta UPS-ów. Jednak choć klienci oczekują podejścia typu „inwestowanie wraz z rozwojem”, nie każdy jest skłonny przy zakupie ponieść dodatkowe koszty za możliwość rozbudowy systemu w przyszłości. Adrian Pecyna z Eatona wskazuje alternatywę – taki UPS, w którym można zwiększyć moc, zamiast inwestować w kolejne moduły mocy i/lub jednostki, które będą współpracowały równolegle.
– Taki upgrade jest znacznie tańszy niż zakup jednostki, a zasada inwestowania wraz z rozwojem zostaje zachowana – uważa ekspert.
Co warto rozważyć – wspólnie z klientem – przy wyborze systemu UPS
• Koszt rozwiązania
Im bardziej złożona będzie architektura, tym większa będzie zarówno początkowa inwestycja, jak i całkowity koszt systemu nie tylko w pierwszej fazie projektu, ale także podczas całego cyklu życiowego systemu. Inaczej mówiąc, złożona architektura to większy wskaźnik TCO.
• Dostępność i niezawodność
Na ile niezawodny powinien być system? Czy dopuszczalne jest powstanie pojedynczego punkt awarii (Single Point of Failure), czy też SPOF jest z różnych względów nie do przyjęcia? Czy będzie potrzebny jakiś rodzaj redundancji?
• Rozbudowa systemu
Jaki jest spodziewany rozwój środowiska informatycznego i jak będzie się on wiązać ze wzrostem zapotrzebowania na moc? Czy rozbudowa może, czy też nie powinna wiązać się z rekonfiguracją systemu dystrybucji zasilania?
• Modularność
Kwestia związana z poprzednim punktem, ale wydzielona, ze względu na znaczenie tej architektury. Czy potrzebne będzie rozwiązanie modularne w celu rozbudowy i redundancji?
• By-pass
Zasady budowy by-passu w architekturach scentralizowanych i rozproszonych są różne. Trzeba to wziąć pod uwagę, szczególnie gdy będzie się miało do czynienia zarówno z wolno stojącymi monoblokami, jak i urządzeniami modularnymi.
• Potrzeba monitoringu
Dotyczy to całego systemu zasilania gwarantowanego, w tym możliwości odłączania zabezpieczanych urządzeń oraz integracji z innymi systemami zarządzania, np. kontroli warunków środowiskowych (temperatury, wilgotności) w centrum danych.
• Serwis i utrzymanie
Gdy system zostanie wybrany i wdrożony, powinien być utrzymywany w optymalnej kondycji. Prace utrzymaniowe muszą być przeprowadzane w regularnych odstępach, a to powinna gwarantować umowa serwisowa. Ważne będą dostępność części zamiennych, zwłaszcza jeśli myśli się o wykorzystaniu różnego typu UPS-ów, oraz zdolność do bezpiecznego odłączenia serwisowanego podsystemu. Pomocą w zapewnieniu ciągłości pracy będzie możliwość zdalnej diagnostyki i prewencyjnego monitoringu.
• Profil obciążeń
Czy zabezpieczanych będzie klika dużych systemów czy też wiele małych (np. rozprowadzonych w kilku budynkach albo na dużym obszarze, takim jak farma wiatrowa)? Jaką autonomię będą musiały posiadać poszczególne UPS-y, jakiej szczytowej mocy należy się spodziewać?
Źródło: Emerson Network Power
Zdarza się też, że klienci pytający o rozwiązania modularne nie do końca są świadomi, czym tego rodzaju UPS-y różnią się od konwencjonalnych rozwiązań. Nie bardzo także potrafią określić swoje realne potrzeby.
– Wydaje się, że korzyści ze stosowania rozwiązań modularnych są zbyt mocno rozdmuchane marketingowo. Często klienci dużo na nie wydają, choć ich nie potrzebują i tym samym nie wykorzystują atutów tych rozwiązań – uważa Sebastian Warzecha, dyrektora handlowy Evera.
Jak dobrać sprzęt, żeby najlepiej spełniał potrzeby użytkownika, a przy tym zachęcał do kupna rozsądną (czytaj: uzasadnioną) ceną? Odpowiedź nie jest prosta. Tak jak w przypadku innych technologii wybór systemu zasilania jest złożony i obejmuje wiele czynników, które mają wpływ na jego działanie i wydajność. Zdaniem ekspertów należy zacząć od wyboru najbardziej odpowiedniej konfiguracji, inaczej mówiąc, architektury produktu. Trzeba zastanowić się, czy dla klienta odpowiedni będzie system scentralizowany, równoległy, rozproszony, redundantny, z gorącą rezerwą (hot-standby) itp.
Dokonując wyboru należy wziąć pod uwagę wiele dodatkowych zmiennych, co jeszcze bardziej komplikuje wybór. Miguel Rascon, specjalista z Emerson Network Power, twierdzi, że można sobie ułatwić sprawę, skupiając się na paru elementarnych kwestiach, m.in. dostępności i stopniu niezawodności systemu, profilu obciążeń, potrzebie monitoringu, serwisie, modularności oraz możliwościach rozbudowy. Choć nie wyczerpuje to wszystkich możliwości, z pewnością pozwoli obrać właściwy kurs.
Oczywiście, każdy wdrożeniowiec powienien także zdawać sobie sprawę, że wybór rozwiązania nie wynika wyłącznie z wewnętrznych uwarunkowań systemu zasilania, ale jest ściśle związany z rodzajem zasilanych urządzeń i chronionych aplikacji. Inne będą potrzeby przemysłu, inne administracji publicznej, szkolnictwa, instytucji finansowych, ochrony zdrowia oraz centrów danych. Trudno porównywać wdrożenie mające na celu ochronę serwerów zarządzających drukarkami w banku z przeprowadzonym w szpitalu, gdzie system zasilania gwarantowanego zabezpiecza kilka sal operacyjnych. W pierwszym przypadku w najgorszym razie po prostu przestaną działać bankowe drukarki. W drugim brak zasilania w ogóle nie może być brany pod uwagę, z wyjątkiem zaplanowanych przestojów związanych z utrzymaniem systemu.
Podsumowując, nie ma złotej reguły przy wyborze optymalnego rozwiązania dla klienta. Nie jest też możliwe dokładne oszacowanie wartości, które kryją się za dobrze znanymi skrótami ROI czy TCO oraz MTBF i MTTR (patrz ramka „Niezawodność UPS-ów”). Jednak im więcej uwarunkowań zostanie wziętych pod uwagę, tym rozwiązanie lepiej będzie spełniać rzeczywiste potrzeby klienta.
Artykuł UPS-y – sprawniejsze, bardziej energooszczędne i modularne pochodzi z serwisu CRN.
]]>Artykuł Ochrona danych ma wiele twarzy pochodzi z serwisu CRN.
]]>
Taka sytuacja jest idealna dla integratorów, którzy chcą świadczyć kompleksowe usługi. Klienci zrozumieli już bowiem, jaką wartość stanowi dla nich informacja, i coraz chętniej rozmawiają o procesach związanych z ochroną danych, a nie tylko o sprzęcie czy oprogramowaniu, które daną funkcję zapewni. W wielu przypadkach to także otwarta droga do sprzedaży usług chmurowych – backupu online i wirtualnych serwerów.
Współpraca z mniejszymi klientami ma jednak pewne charakterystyczne cechy. Zawsze trzeba pamiętać, że trzy razy oglądają każdą wydaną złotówkę. Dlatego integrator musi zagwarantować, że kupione przez klienta rozwiązanie spełni założony cel. Inaczej współpraca skończy się dość szybko. W tym przypadku bowiem znacznie trudniej ukryć własny błąd niż podczas większych projektów, gdzie odpowiedzialność często jest rozmyta. Na korzyść natomiast działa fakt, że – szczególnie w małych firmach – raczej nie ma problemów ze skalowalnością. W znakomitej większości przypadków ich potrzeby zaspokoi średniej klasy serwer NAS z kilkoma dyskami.
W ostatnich latach zmieniły się priorytety związane z przechowywaniem danych. Mimo że statystyki pokazują przyrost ilości elektronicznych informacji, z jakim nie mieliśmy nigdy do czynienia, zjawisko to nie dotyczy małych firm, lecz głównie dostawców usług i przedsiębiorstw przetwarzających dane w modelu Big Data. Zapotrzebowanie na pojemność w mniejszych podmiotach nie stanowi problemu. Niewiele z nich dysponuje biznesowymi danymi, których objętość przekracza jeden terabajt (oczywiście z wyjątkiem tych przedsiębiorstw, które przetwarzają duże pliki multimedialne). Oznacza to, że wszystkie firmowe informacje można byłoby zmieścić na jednym dysku… sprzed kilku lat.
Natomiast duża zmiana dotyczy ciągłości pracy. Zarządy firm praktycznie przestały akceptować fakt, że kluczowe dla funkcjonowania przedsiębiorstwa systemy IT mogą być niedostępne przez dłuższy czas. Co więcej, często nawet spowolnione działanie w wyniku dużego obciążenia systemów bywa przedmiotem zgłoszenia serwisowego. Zatem zapewnienie ciągłości pracy to priorytet w doborze właściwych rozwiązań. System przechowywania danych musi być bowiem skonstruowany tak, aby w przypadku awarii lub katastrofy użytkownicy w miarę możliwości w ogóle nie odczuli przestoju. Odzyskiwanie informacji z backupu powinno raczej stanowić ostateczność.
Gwarancję nieprzerwanego dostępu można uzyskać jedynie poprzez utworzenie – podobnie jak w przypadku backupu– zbioru różnych procesów i procedur. Powinny uwzględniać kilka kluczowych kwestii. Po pierwsze tę związaną z sieciami, a konkretnie ich odpowiednią przepustowością, możliwością bezprzewodowego podłączenia się czy szyfrowaniem połączeń zdalnych. Ważna jest ponadto ochrona danych przed utratą, co zapewni struktura RAID w macierzy, replikacja i backup. Wreszcie należy zadbać o szybkie przywrócenie dostępu w przypadku różnego rodzaju awarii. Pomogą w tym spisane i przetestowane procedury działania realizowane przez administratorów lub zewnętrzne firmy świadczące usługi wsparcia.
Jak już wspomnieliśmy, pojemność systemów pamięci masowych nie stanowi dla mniejszych firm tak dużego wyzwania, jak zapewnienie odpowiedniej wydajności. Między innymi z tego powodu zmuszone są do inwestowania w macierze dyskowe, w których – w dużym uproszczeniu – łączna wydajność jest sumą wydajności wszystkich aktywnych twardych dysków (o ile kontroler macierzowy nie jest wąskim gardłem). Kolejna ich zaleta to możliwość połączenia dysków w strukturę RAID, dzięki której awaria jednego lub dwóch napędów nie powoduje utraty danych.
Wojciech Kotkiewicz
Wykorzystanie dysków SSD w serwerach NAS jeszcze niedawno mogło uchodzić za ekstrawagancję, głównie ze względu na cenę tego nośnika. Jednak rozwiązania te dość szybko stały się popularne, głównie za sprawą pojawienia się układów 3D NAND TLC, w których w jednej komórce można zapisać aż trzy bity pamięci. Co prawda, niektórzy sceptycy podkreślają, że wspomniane napędy nie nadają się do zastosowań w dużych, profesjonalnych środowiskach IT, ze względu na niezweryfikowaną jeszcze w pełni niezawodność, ale w mniejszych mogą stanowić rozsądny kompromis między wydajnością i ceną.
W mniejszych firmach dużą i zasłużoną popularność zyskały wielofunkcyjne serwery NAS. Najmniejsze modele tych urządzeń (od jednego do czterech dysków) sprawdzają się u użytkowników prywatnych i w mikroprzedsiębiorstwach, ale większe dobrze radzą sobie – także pod względem wydajności – w bardziej wymagających zastosowaniach. Większość dostawców zadbała o certyfikaty zgodności przyznane przez producentów rozwiązań wirtualizacyjnych, chociaż liczba uruchomionych równocześnie wirtualnych maszyn raczej nie powinna przekraczać kilkunastu. Z drugiej strony, naprawdę niewiele małych i średnich firm potrzebuje do pracy tak wielu wirtualnych serwerów.
– W codziennej pracy odczytywana i zapisywana jest ilość danych stanowiąca nie więcej niż kilkanaście procent objętości danej wirtualnej maszyny. Poza tym serwery NAS świetnie sprawdzają się jako repozytorium backupu w środowiskach wirtualizacyjnych – przekonuje Grzegorz Bielawski, szef polskiego oddziału QNAP.
W serwerach NAS, które umożliwiają instalację ośmiu lub więcej twardych dysków, warto rozważyć zainstalowanie kilku rodzajów nośników danych. Jako miejsce do przechowywania plików można zastosować zwykłe dyski SATA. Dla danych, które ulegają ciągłym modyfikacjom – w bazach danych lub wirtualnych maszynach – można przeznaczyć dyski SSD. Natomiast do zapisywania danych z wideomonitoringu należy zastosować specjalne twarde dyski oferowane przez wszystkich trzech obecnych na rynku dostawców – Seagate’a, Toshibę i WD. Kontroler tych napędów został przystosowany do ciągłego zapisu danych i relatywnie bardzo rzadkiego ich odczytu – odwrotnie niż w przypadku tradycyjnego wykorzystania napędów dyskowych.
Ludzie dzielą się na tych, którzy backup robią, i na tych, którzy… będą go robili po utracie danych. Ta brutalna prawidłowość nadal się sprawdza. W firmach przetwarza się coraz więcej elektronicznych informacji, rośnie więc prawdopodobieństwo ich utraty. To zaś oznacza pozyskanie klienta, dla którego trzeba zaprojektować system tworzenia zapasowych kopii danych. Jaki? To zależy od rodzaju użytkownika.
Backup ratunkiem przed ransomware
Od trzech lat branżę związaną z bezpieczeństwem danych elektryzuje „ransomware” – złośliwy kod, który blokuje dostęp do wybranych zasobów komputera (najczęściej przez zaszyfrowanie danych), a za odblokowanie żąda okupu wpłaconego w bitcoinach do portfela cyberprzestępców.
Najlepszym, bo bezpłatnym, sposobem przeciwdziałania skutkom ransomware jest odzyskanie danych z kopii zapasowej. Natomiast projektując procedury backupowe, należy zwrócić uwagę na to, czy w trakcie ich realizacji oryginalne pliki nie zostaną nadpisane przez te zaszyfrowane. Sytuację komplikuje też fakt, że oprogramowanie ransomware potrafi zaszyfrować nie tylko pliki znajdujące się na lokalnym twardym dysku komputera, ale także te udostępnione przez sieć, np. z serwera NAS. W takiej sytuacji wykonywanie kopii na serwer NAS, a następnie zewnętrzny dysk niewiele pomoże.
Rozwiązania są dwa. Pierwsze to pozostawianie podczas wykonywania backupu także kopii starych wersji plików (pozwala na to większość pakietów oprogramowania do backupu). Drugim jest wykonywanie od czasu do czasu kopii zapasowej na nośniku wymiennym (zewnętrznym twardym dysku, kasecie RDX czy zwykłej taśmie LTO), odłączanym od głównego systemu przechowywania danych.
Generalnie firmy nadal interesują się wykorzystaniem taśm do backupu, bo wciąż jest to najtańszy wymienny nośnik w przeliczeniu na jednostkę pojemności (ale też wymagający najdłuższego czasu na dostęp do danych). Taśmy są też coraz bardziej popularne w systemach długoterminowej archiwizacji offline. Natomiast ich zastosowanie w małych i średnich przedsiębiorstwach nie ma sensu, ze względu na rozwijające się usługi backupu online i taniejące, proste systemy do replikacji danych.
Najważniejszym elementem środowiska do backupu w MŚP powinien być wspomniany już serwer NAS z dyskami połączonymi w strukturę RAID, co zapewnia ochronę przed skutkami uszkodzenia dysku. Zainstalowane na komputerach użytkowników oprogramowanie będzie wykonywało kopię na ten serwer zgodnie z założonym harmonogramem (najczęściej raz dziennie). Do serwera można też podłączyć, przez port USB lub eSATA, zewnętrzny dysk o dużej pojemności, aby właśnie na niego trafiała wykonywana w nocy kopia kopii (ochrona przed skutkiem awarii zasilacza lub kontrolera macierzowego serwera). Dane na zewnętrznym dysku trzeba koniecznie zaszyfrować, co uniemożliwi dostęp do nich złodziejowi napędu.
Obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych między dwoma budynkami, oddalonymi o wiele kilometrów. Dostęp do takiej funkcji zapewnia większość serwerów NAS. Wystarczy kupić dwa bliźniacze urządzenia, zainstalować w nich dyski o podobnej pojemności i skonfigurować je tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez sieć lokalną lub Internet na serwer zapasowy.
Jeżeli użytkownik firmowego laptopa często podróżuje i nie ma połączenia z lokalną siecią, można zainstalować mu oprogramowanie do backupu, które regularnie będzie wykonywało kopię najważniejszych plików na kartę SD, bo większość notebooków ma gniazdo umożliwiające jej instalację. Pojemność karty powinna być zbliżona do dwukrotności objętości zabezpieczanych danych, dzięki czemu będzie miejsce na zapisywanie także poprzednich wersji plików. Gdy awarii ulegnie laptop lub jego twardy dysk, wystarczy wyjąć kartę i włożyć ją do innego laptopa. Dzięki temu użytkownik ma dostęp do swoich danych natychmiast – nie musi ich pobierać z centralnego serwera.
Jerzy Adamiak
Podczas budowania archiwum elektronicznych danych trzeba pamiętać, że sama archiwizacja, podobnie jak backup, jest procesem, a nie konkretną czynnością. Dlatego, dobierając sprzęt i oprogramowanie, należy uwzględnić, z dużym zapasem, przyrost ilości informacji i możliwe zmiany ich charakteru. Dobrym przykładem może być to, że co parę lat znacznie zwiększa się objętość archiwizowanych treści multimedialnych – zdjęć i wideo – w związku ze wzrostem rozdzielczości matryc w aparatach i kamerach. Warto też być świadomym obowiązującego prawa, np. dotyczącego ochrony danych osobowych lub przechowywania dokumentacji księgowej, bo może ono wpływać na sposób, w jaki należy archiwizować dane.
Od niemal dekady słuszne zainteresowanie budzą usługi backupu online. Dzięki coraz szybszym łączom internetowym to idealne rozwiązanie głównie dla często podróżujących pracowników. Ponieważ jest to backup przyrostowy, operacja będzie praktycznie niezauważalna nawet przy połączeniu z Internetem przez łącze komórkowe. W efekcie użytkownik zyska dostęp do danych np. za pomocą smatrfona, jeśli jego laptop ulegnie awarii. Ale z backupu online coraz częściej korzystają także administratorzy wykonujący kopie zgromadzonych centralnie danych. Ułatwia to m.in. oprogramowanie, które obecnie jest wbudowane w większość serwerów NAS.
Proponując klientowi usługi backupu, zawsze trzeba pamiętać o restrykcjach prawnych. Dane osobowe nie powinny opuszczać Unii Europejskiej, ale więcej ograniczeń nakłada „Rozporządzenie ministra finansów z 14 lipca 2005 r. w sprawie wystawiania oraz przesyłania faktur w formie elektronicznej”. Paragraf 6.1 tego rozporządzenia nakazuje, żeby faktury wystawione lub otrzymane drogą elektroniczną były przechowywane na terytorium Polski (w przypadku przechowywania ich na terytorium państwa członkowskiego UE należy poinformować o tym właściwego naczelnika urzędu skarbowego). Dlatego, jeśli chcemy zaoferować klientowi usługę backupu online dokumentów księgowych, warto sprawdzić, gdzie znajduje się centrum danych jej operatora.
Globalnie usługi backupu online świadczone są przez tysiące firm. Nigdy jednak nie wiadomo, której można wystarczająco zaufać i gdzie znajdują się jej centra danych. Dlatego w pewnym momencie klienci zaczęli sugerować swoim zaufanym dostawcom IT, że najchętniej przechowywaliby dane w ich serwerowniach. Nie wszystkich jednak stać na budowę własnych serwerowni, dlatego wypracowano rozwiązanie kompromisowe.
– Firmy partnerskie nie muszą budować własnych serwerowni, aby móc świadczyć usługi backupu online swoim klientom – mówi Marcin Zmaczyński, dyrektor polskiego oddziału Aruba Cloud. – Mogą wykupić u jednego z dostawców usług infrastruktury w chmurze odpowiednią przestrzeń dyskową i, korzystając z komercyjnie dostępnego oprogramowania do backupu, stworzyć własną usługę o identycznej funkcjonalności jak oferowana przez tradycyjnych dostawców.
Dzięki temu integratorzy zyskują dużą swobodę zarówno w zarządzaniu technicznymi parametrami usługi, jak i finansowymi. Mogą dowolnie ustalać politykę cenową wobec swojego klienta, zapewniając mu backup online jako wartość dodaną do innych usług. Finalnie mogą też zarobić znacznie więcej, niż wynosi prowizja (ok. 10 proc.) uzyskana ze zwykłej odsprzedaży lub polecania usług backupu online świadczonych przez firmy trzecie.
Artykuł Ochrona danych ma wiele twarzy pochodzi z serwisu CRN.
]]>