Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/pami-masowa/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Mon, 14 Nov 2022 12:54:52 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Zarządzanie danymi pociągnie wydatki na infrastrukturę https://crn.sarota.dev/aktualnosci/zarzadzanie-danymi-pociagnie-wydatki-na-infrastrukture/ Mon, 14 Nov 2022 13:40:00 +0000 https://crn.pl/?p=286491 Są rozwiązania, które zapewnią ponad 50-procentowy wzrost inwestycji.

Artykuł Zarządzanie danymi pociągnie wydatki na infrastrukturę pochodzi z serwisu CRN.

]]>
Zarządzanie danymi ustrukturyzowanymi napędzało większość wydatków na systemy obliczeniowe i systemy pamięci masowej dla przedsiębiorstw w I poł. 2022 r. – według IDC.

Największą część nakładów na firmową infrastrukturę IT stanowiły te obejmujące ustrukturyzowane bazy danych oraz zarządzanie danymi. Organizacje wydały na ten cel 6,3 mld dol. – na infrastrukturę obliczeniową i pamięć masową (8,5 proc. rynku).

Jest to również jedno z najbardziej dojrzałych obciążeń korporacyjnych, które odnotowuje wzrost o 2,2 proc. rok do roku.

Bazy nieustrukturyzowane: mały segment, ale 50 proc. na plusie

Nieustrukturyzowane bazy danych i cykl życia sztucznej inteligencji to dwa obciążenia, które odnotowały największy wzrost zapotrzebowania na infrastrukturę sprzętową, przy czym wydatki wystrzeliły odpowiednio aż o 52,9 proc. i 40,2 proc. od pierwszej połowy 2021 r.

Nieustrukturyzowane bazy danych są nadal należą do najmniejszych konsumentów infrastruktury obliczeniowej i pamięci masowej z wartością 2,3 mld dol., podczas gdy obciążenie pracą cyklu życia AI, które obejmuje platformy w większości związane z zadaniami szkoleniowymi AI, odpowiada za 4,4 mld dol. obrotu.

W 2022 r. kategoria obciążeń związanych z zarządzaniem danymi (cykl życia AI, BI i analityka, ustrukturyzowana baza danych/zarządzanie danymi, analityka tekstu i mediów oraz niestrukturyzowana baza danych) będzie największa w wydatkach na produkty infrastrukturalne obejmujące moc obliczeniową i pamięć masową (41,1 mld dol.). Pozostanie też numerem 1 aż do 2026 r., poprawiając się co roku średnio o 9 proc., do 56,3 mld dol. wydatków na infrastrukturę za 4 lata.

Zarządzanie danymi najszybciej urośnie

Zarządzanie danymi będzie również najszybciej rosnącą kategorią wydatków na infrastrukturę we współdzielonej chmurze i jedną z najszybciej idących w górę w środowiskach dedykowanych. Co roku inwestycje w tym obszarze mają zwiększać się przeciętnie o 15,9 proc., do 23,5 mld dol. w 2026 r. na środowiska współdzielone, oraz o 5,3 proc. do 32,8 mld dol. na środowiska dedykowane (w tym wdrożenia infrastruktury w chmurze i poza chmurą).

Artykuł Zarządzanie danymi pociągnie wydatki na infrastrukturę pochodzi z serwisu CRN.

]]>
Wydatki na chmurowy storage urosną 3-krotnie w ciągu 5 lat https://crn.sarota.dev/aktualnosci/wydatki-na-chmurowy-storage-urosna-3-krotnie-w-ciagu-5-lat/ Thu, 04 Aug 2022 07:18:00 +0000 https://crn.pl/?p=281357 Wskazano branżę, w której wydatki pójdą w górę najszybciej.

Artykuł Wydatki na chmurowy storage urosną 3-krotnie w ciągu 5 lat pochodzi z serwisu CRN.

]]>

Rynek pamięci masowej natywnej dla chmury powiększy się z wartości 13,6 mld dol. w 2022 r. do 38,5 mld dol. w 2027 r. – według MarketsandMarkets. Roczna średnia stopa wzrostu wyniesie 23,1 proc.

Zdaniem analityków konteneryzacja napędza wdrażanie natywnych pamięci masowych w chmurze w różnych organizacjach.

Prognoza przewiduje, że w branży handlu detalicznego i dóbr konsumpcyjnych wydatki powinny iść w górę w najszybszym tempie (blisko 25 proc. co roku do 2027 r.).

Wyjaśniono to tym, iż retail inwestuje w zapewnienie klientom najlepszych doświadczeń online, a jednym z istotnych elementów jest szybkość działania strony internetowej i aplikacji.

Za pomocą natywnych pamięci masowych w chmurze sprzedawcy detaliczni mogą zwiększać i zmniejszać zasoby storage’u zgodnie z potrzebami aplikacji. Pomaga on również w przechowywaniu ogromnej ilości danych klientów.

Co do rozwiązań, to rynek jest podzielony na pamięć obiektową, blokową i masową. Przewiduje się, że wydatki na rozwiązania obiektowej pamięci masowej będą rosły najszybciej (co roku przeciętnie o 23,8 proc.), ponieważ oferują storage dla danych nieustrukturyzowanych, co eliminuje ograniczenia skalowania tradycyjnego przechowywania plików. Natywna obiektowa pamięć masowa w chmurze jest używana do zastosowań takich jak odzyskiwanie danych po awarii, tworzenie kopii zapasowych i archiwizacja.

Artykuł Wydatki na chmurowy storage urosną 3-krotnie w ciągu 5 lat pochodzi z serwisu CRN.

]]>
Storage przyspiesza w drodze do chmury. Trzy powody https://crn.sarota.dev/aktualnosci/storage-przyspiesza-w-drodze-do-chmury-trzy-powody/ Fri, 22 Jul 2022 15:12:27 +0000 https://crn.pl/?p=280878 Rynek pamięci masowej w chmurze czeka dwukrotny wzrost w ciągu najbliższych 5 lat.

Artykuł Storage przyspiesza w drodze do chmury. Trzy powody pochodzi z serwisu CRN.

]]>

Rynek pamięci masowej w chmurze w 2027 r. osiągnie wartość 183,7 mln dol., czyli ponad dwukrotnie większą niż w 2022 r. (78,6 mld dol.) – prognozuje MarketsandMarkets. Średnia roczna stopa wzrostu wyniesie 18,5 proc. Analizowane wydatki obejmują rozwiązania i usługi w chmurze publicznej i prywatnej, w tym pamięć podstawową, backup i archiwizację.

3 powody wzrostu rynku

Jak twierdzi firma badawcza, zapotrzebowanie na pamięć masową w chmurze zwiększa potrzeba zapewnienia pracownikom zdalnym dostępu do danych i plików, rosnące wolumeny danych w przedsiębiorstwach i korzyści, jak oszczędności i niski TCO (całkowity koszt posiadania).

Usługi nadadzą tempo wzrostom

Prognoza zakłada, że najszybciej będą zwiększać się przychody z usług związanych z chmurowym storage’m, ponieważ w ocenie analityków odgrywają one kluczową rolę na tym rynku, zarówno przed jak i po wdrożeniu rozwiązań. Obejmą spory zakres działań, takich jak planowanie, doradztwo i szkolenia, wdrażanie i integracja, utrzymanie i wsparcie oraz modernizacja rozwiązań pamięci masowej w chmurze.

Backup coraz bardziej w cenie

Co do rozwiązań, to segment kopii zapasowych i odzyskiwania po awarii powinien utrzymać najwyższe tempo wzrostu wydatków na rynku chmurowego storage’u.

Analitycy twierdzą, że rozwiązania te zyskują na popularności, ponieważ są bardziej niezawodne, a przedsiębiorcy unikają dzięki nim konieczności utrzymania kosztownej infrastruktury sprzętowej, potrzebnej do tworzenia kopii zapasowych i odzyskiwania po awarii.

Artykuł Storage przyspiesza w drodze do chmury. Trzy powody pochodzi z serwisu CRN.

]]>
IDC: chmura nie zwalnia tempa https://crn.sarota.dev/aktualnosci/idc-chmura-nie-zwalnia-tempa/ Tue, 06 Jul 2021 08:45:00 +0000 https://crn.pl/?p=262123 Wydatki na infrastrukturę chmurową w pierwszym kwartale 2021 r. były większe o 12,5 proc. (rok do roku), osiągając sumę 15,1 mld dol.

Artykuł IDC: chmura nie zwalnia tempa pochodzi z serwisu CRN.

]]>

Cykliczny raport IDC Worldwide Quarterly Enterprise Infrastructure Tracker: Buyer and Cloud Deployment, ocenia wydatki na produkty infrastruktury obliczeniowej i pamięci masowej dla chmury, zarówno w środowiskach dedykowanych, jak i współdzielonych. O ile w obszarze infrastruktury chmurowej wzrost był dwucyfrowy, o tyle inwestycje w infrastrukturę niezwiązaną z chmurą wzrosły w I kwartale 2021 o 6,3 proc. (rok do roku), do 13,5 mld dol. Czyli chmura nie zwalnia tempa.

Według analityków rynek powoli zaczyna wychodzić z pandemii COVID-19, a sektory gospodarki, które poniosły największy spadek dochodów, wracają do wzrostów. Trwałym wpływem na infrastrukturę IT będzie zwiększenie zależności organizacji od platform chmurowych zapewniających aplikacje komercyjne, edukacyjne i społecznościowe, a także skupienie się na ciągłości działania i zarządzaniu ryzykiem, co będzie stymulować transformację cyfrową i wykorzystanie modeli dostarczania IT as-a-service.

Wydatki na współdzieloną infrastrukturę chmurową wzrosły w I kwartale o 11,6 proc. rok do roku, osiągając 10,3 mld dol. IDC spodziewa się, że w już najbliższej przyszłości staną się one większe od kwot wydawanych na infrastrukturę niezwiązaną z chmurą. Wydatki na dedykowaną infrastrukturę chmurową wzrosły w tym czasie o 14,7 proc., do 4,8 mld dol., przy czym 45,5 proc. tej kwoty wydano na wdrożenia w siedzibie klienta.

Jeśli chodzi o dostawców, wszyscy najważniejsi producenci zwiększyli w I kwartale 2021 przychody z infrastruktury chmurowej, przy czym największe wzrosty odnotowały firmy Lenovo (38,2 proc.) i Huawei (37,9 proc.). Huawei, Lenovo i HPE/H3C zwiększyły swoje udziały w rynku w porównaniu z wynikami pierwszego kwartału ubiegłego roku.

Prognozując wielkość rynku dla całego 2021, IDC przewiduje, że wydatki na infrastrukturę chmurową wzrosną o 12,9 proc. – do 74,6 mld dol., podczas gdy sprzedaż infrastruktury niezwiązanej z chmurą ma wzrosnąć o 2,7 proc. – do 58,5 mld USD (po dwóch latach spadków).

Więcej informacji na ten temat znajduje się tutaj.

Artykuł IDC: chmura nie zwalnia tempa pochodzi z serwisu CRN.

]]>
Gdzie sprzęt się bije tam… oprogramowanie korzysta https://crn.sarota.dev/artykuly/gdzie-sprzet-sie-bije-tam-oprogramowanie-korzysta/ https://crn.sarota.dev/artykuly/gdzie-sprzet-sie-bije-tam-oprogramowanie-korzysta/#respond Mon, 24 Feb 2020 08:31:00 +0000 https://crn.pl/default/gdzie-sprzet-sie-bije-tam-oprogramowanie-korzysta/ Oferowane już od ponad 10 lat macierze all-flash miały bardzo szybko wyprzeć zwykłe dyskowe rozwiązania. Na razie chwilowym zwycięzcą tego pojedynku są systemy hybrydowe, korzystające zarówno z nośników półprzewodnikowych, jak i mechanicznych. Jednak ten model zarządzania danymi, szczególnie w małych i średnich środowiskach, być może odejdzie do lamusa. Wszystko przez coraz tańsze, mniejsze i bardziej pojemne moduły NVMe oraz oprogramowanie do zarządzania przestrzenią dyskową.

Artykuł Gdzie sprzęt się bije tam… oprogramowanie korzysta pochodzi z serwisu CRN.

]]>
Klasycznych macierzy dyskowych, wyposażonych wyłącznie w rotujące napędy, już nie ma na rynku. We wszystkich oferowanych modelach jest możliwość zainstalowania – razem ze zwykłymi dyskami – pamięci SSD w różnej postaci. Mogą to być dyski z tradycyjnym interfejsem SATA/SAS, moduły z interfejsem NVMe czy pamięć na kartach rozszerzeń PCIe. Są wykorzystywane jako zwykłe repozytorium danych na woluminach albo jako pamięć podręczna cache. Jednocześnie coraz większą popularnością cieszą się modele all-flash – te znajdują się w ofercie wszystkich producentów macierzy hybrydowych. Oprócz tego na rynku są dwie firmy – Pure Storage i Kaminario – które nigdy nie produkowały systemów współpracujących z dyskami rotującymi, ale dzięki swojej determinacji uzyskały rynkowy sukces (m.in. są wymieniane jako liderzy rynku pamięci masowych przez Gartnera).

Walka macierzy all-flash z hybrydowymi trwa. Jej nowy front otworzyło dwa lata temu kilku dostawców, którzy „obudowali” swoje rozwiązania dodatkowymi bonusami. Wówczas popularne stały się gwarancje, w ramach których producenci zapewniają uzyskanie przez klienta konkretnego współczynnika kompresji i deduplikacji. Z reguły wynosi on 3:1 lub 5:1 (w przypadku gdy gwarancja nie zostanie dotrzymana, producent zobowiązuje się do dostawy bezpłatnych dysków flash, które zapewnią brakującą pojemność). Jednak każda taka promocja jest obłożona ograniczeniami, np. dane nie mogą być zaszyfrowane lub wcześniej poddane kompresji. Niektórzy producenci gwarantują też teoretycznie bezpłatną wymianę co kilka lat kontrolera macierzy na nowszy model. Teoretycznie, bo gwarancja taka obowiązuje tylko wtedy, gdy klient regularnie korzysta z usług wsparcia, a więc rozliczając się za nie, bierze na siebie koszt wymiany kontrolera.

Według opublikowanych przez IDC w grudniu ub.r. danych wartość sprzedaży macierzy dyskowych na świecie wzrosła tylko o 1,3 proc., a sprzedana pojemność – o 6,8 proc. (ta różnica oczywiście ma związek z taniejącymi nośnikami, głównie półprzewodnikowymi). Długofalowo jest także przewidywana stagnacja, jeśli chodzi o wartość sprzedaży macierzy albo wręcz trend spadkowy. Wszystko z powodu tego, że w coraz mniejszej liczbie firm istnieje konieczność instalowania dużych, zajmujących nieraz całą szafę macierzy dyskowych, by zapewniły oczekiwaną przez działy biznesowe wydajność, np. bazy danych lub środowisk wirtualnych. Do takich zastosowań są wybierane coraz tańsze, ale przede wszystkim pojemniejsze i niepobierające tak dużo prądu pamięci flash (w macierzach all-flash lub jako najszybsza warstwa w systemach hybrydowych).

Co więcej, w celu eliminacji potrzeby budowania fizycznej sieci SAN, bazującej na protokole Fibre Channel, łączącej serwery z dyskami w macierzy, coraz częściej instalowane są nośniki o dużej pojemności bezpośrednio w serwerach. Dzięki temu droga, którą muszą pokonać dane przesyłane między dyskiem i serwerem, jest skrócona do absolutnego minimum.

 

NVMe wprowadza nowe reguły

Dużo zamieszania w 2019 r. wprowadziło pojawienie się nośników z interfejsem NVMe w macierzach dyskowych, który umożliwia połączenie kości pamięci bezpośrednio z magistralą PCIe. Co prawda prace nad nim rozpoczęto ponad 10 lat temu, by wyeliminować wprowadzające w dyskach SSD wąskie gardła interfejsy SATA i SAS, ale dopiero teraz zyskał należne mu zainteresowanie, głównie dzięki nasilonym akcjom marketingowym producentów.

Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków – w danym momencie mogą przetwarzać tylko jedno żądanie (głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie), a więc transfer danych ma charakter sekwencyjny. Dlatego też interfejsy stosowane w dyskach w ogóle nie przewidywały możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku pamięci flash – tam w jednym cyklu teoretycznie możliwe jest przetwarzanie nawet 64 tys. żądań odczytu.

Równolegle NVMe eliminuje kolejne wąskie gardło, jakim jest infrastruktura sieciowa. Chwilę po stworzeniu protokołu opisującego, jak są przesyłane dane wewnątrz urządzenia, rozpoczęto pracę nad protokołem sieciowym NVMe-oF (NVM Express over Fabrics), który jest w pełni zgodny z NVMe i gwarantuje brak ograniczeń wydajnościowych przy transmisji danych przez sieć. Obecnie sterowniki większości nowych kart sieciowych są już zgodne z nowym protokołem, więc wdrożenie go w serwerach nie powinno stanowić problemu. Niestety, nie są jeszcze gotowi wszyscy producenci macierzy dyskowych, także tych, w których są już wykorzystywane nośniki NVMe, ale rozszerzenie ich funkcjonalności to tylko kwestia czasu i nie będzie wymagało instalacji dodatkowego sprzętu (wystarczy aktualizacja oprogramowania). 

Obecnie dyski NVMe bardzo dobrze są przyjmowane jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz nośniki w zainstalowanych tam serwerach. Decyzja o ich wdrożeniu powinna być jednak podejmowana także na bazie przeprowadzonego u klienta projektu proof-of-concept. Nie zawsze bowiem na współpracę z tak szybkim nośnikiem danych gotowe są aplikacje. Zaobserwowano już przykłady, gdy nie były one w stanie przetworzyć tak dużej ilości informacji, bowiem projektanci oprogramowania założyli, że dane będą spływać relatywnie powoli, z maksymalną prędkością dostępnych w trakcie jego tworzenia twardych dysków.

Projekt proof-of-concept powinien być też przeprowadzony pod kątem sprawdzenia efektywności technik zmniejszających objętość przechowywanych danych – kompresji i deduplikacji. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które nie są zaszyfrowane lub skompresowane z natury (jak pliki multimedialne lub zdjęcia), a szczególnie w bazach danych. Deduplikacja zaś doskonale działa w środowiskach wirtualnych (głównie wirtualizacji desktopów). Problem jednak w tym, że zarówno deduplikacja, jak i kompresja wpływają negatywnie na wydajność, a więc „zabijają” główną korzyść, dla której firmy inwestują w nośniki flash.

 

Oprogramowanie zarządzi pamięcią masową

Klienci, którzy zastanawiają się nad doborem odpowiednich macierzy dyskowych do zbudowania środowiska pamięci masowych, powinni przyjrzeć się rozwiązaniom alternatywnym, w których główną rolę odgrywa nie sprzęt, ale zarządzające nim oprogramowanie. Co prawda, rozwiązania oferowane pod hasłem Software Defined Storage (SDS) zapewniają różną funkcjonalność, ale obecność na rynku ponad 30 różnych tego typu narzędzi powoduje, że praktycznie każda firma może znaleźć coś, co zaspokoi jej potrzeby w takich obszarach, jak: wirtualizacja serwerów i desktopów, tworzenie chmur hybrydowych, automatyzacja procesów zarządzania infrastrukturą IT czy obsługa elastycznych środowisk DevOps.

Początkowo rozwiązania klasy SDS zapewniały przede wszystkim wirtualizację zasobów pamięci masowych i miały stanowić konkurencję dla bardzo drogich wirtualizatorów sprzętowych, oferowanych przez długi czas wyłącznie przez IBM-a. Ich zadanie polegało na skonsolidowaniu dostępnej w firmowej infrastrukturze IT przestrzeni dyskowej (macierzy z nośnikami o różnej wydajności, napędów w serwerach, kart rozszerzeń z pamięcią flash itp.), zwirtualizowaniu jej, podziale na różne klasy wydajności i udostępnieniu serwerom w wirtualnej sieci SAN w postaci jednego zasobu z gwarantowanym czasem dostępu i transferu danych. Narzędzia te cieszyły się umiarkowanym zainteresowaniem, a przeszkodą wzrostu ich popularności okazała się szybko rosnący popyt na pamięci flash. Dziś funkcja wirtualizacji nadal jest obecna w oprogramowaniu SDS (jej zastosowanie jest konieczne do zapewnienia innych korzyści), ale nie dominująca.

W obecnych czasach klienci nie są zainteresowani konsolidacją posiadanych starszych zasobów dyskowych. Z reguły nie są one już objęte wsparciem technicznym, są wyposażone w relatywnie wolne dyski o małej pojemności, a przez to pobierają dużo prądu – mówi Jerzy Adamiak, konsultant ds. pamięci masowych w Alstor SDS.

Klasyczne wirtualizatory macierzy dyskowych oczywiście nadal są dostępne. Są w nie wyposażone niektóre modele macierzy dyskowych IBM, Hitachi Vantara, HPE i Huawei. Nadal też można do tego celu wykorzystywać wspomniane wcześniej oprogramowanie klasy SDS (instalowane bezpośrednio jako aplikacja w serwerowym systemie operacyjnym, w wirtualnej maszynie lub uruchamiane w oferowanym przez producentów specjalnym urządzeniu). Jednak głównym celem jego pracy nie jest już wirtualizacja sama w sobie.

 

Główna zaleta: wysoka dostępność

Użytkownicy narzędzi typu SDS doceniają przede wszystkim możliwość relatywnie taniego tworzenia klastrów wysokiej dostępności, dzięki którym w przypadku awarii jednego z węzłów drugi nadal pracuje i zapewnia pracownikom dostęp do danych. Rozwiązania te świetnie też sprawdzają się podczas różnego typu prac serwisowych – nie ma konieczności wstrzymywania usług przy aktualizacji oprogramowania macierzy, wymianie kontrolerów, a także podczas dodawania do infrastruktury nowych urządzeń. Łatwiejsza jest migracja danych ze starych na nowe macierze (odbywa się w tle, bez wpływu na dostępność środowiska dla użytkowników), a firmy bez problemu mogą decydować się na zakup sprzętu od innego dostawcy niż ten, z którego systemów korzystali wcześniej.

Jedyną trudnością, którą mogą napotkać przyszli użytkownicy rozwiązań SDS (i ich sprzedawcy), jest stosowany przez ich producentów w komunikacji marketingowej nieprecyzyjny język, rzadko opisujący, co dane rozwiązanie robi w rzeczywistości, ale skupiający się na korzyściach (elastyczności, obniżeniu kosztów, integracji ze środowiskiem chmurowym itd.). Dla kogoś, kto w tej dziedzinie nie jest ekspertem, może to stanowić duże utrudnienie, np. w porównaniu do konkurencyjnych produktów. Tu zatem pojawia się niełatwe i odpowiedzialne zadanie dla 
integratorów. 

Trudności mogą przysporzyć też kwestie związane z finansowaniem. Ze względu na różnorodność funkcji producenci nie wypracowali jednego uniwersalnego standardu wyceny oferowanego oprogramowania. Opłatę można uiszczać jednorazowo, wykupując licencję, a także dokonywać jej w postaci subskrypcyjnej albo płacić za zwirtualizowaną pojemność lub czas korzystania z danego rozwiązania.

Zdaniem specjalisty

Jerzy Adamiak
konsultant ds. pamięci masowych, Alstor SDS

Sytuacja na rynku pamięci masowych bardzo się zmienia dzięki rosnącej popularności dysków NVMe. Oczywiście wciąż są relatywnie drogie, ale jeśli ktoś potrzebuje bardzo szybkiej przestrzeni o dużej pojemności, to raczej będzie go stać na taką inwestycję. Zapewniają niezwykle krótki czas dostępu do danych i ich transfer sięgający gigabajtów na sekundę (kilkunastokrotnie szybszy niż dyski SSD sprzed kilku lat), są też bardzo małe, pojemne i nie pobierają wiele prądu. Dlatego bez problemu w jednym serwerze można zainstalować nośniki zapewniające kilkadziesiąt, a nawet kilkaset terabajtów przestrzeni. Odpada więc konieczność wdrażania skomplikowanych w obsłudze macierzy dyskowych, podłączanych do sieci SAN, niełatwej w konfiguracji i wymagającej ciągłego nadzoru. Jedyne, co jest zalecane, to stworzenie klastra, w którym dane zebrane w serwerze będą replikowane ze względów bezpieczeństwa.

Wojciech Wróbel
Presales Manager, Fujitsu

Macierze all-flash sprawdzają się w coraz większej liczbie zastosowań ze względu na wydajność, o kilka rzędów wielkości większą od tradycyjnych rozwiązań dyskowych. Jednak wciąż w kilku obszarach większy sens ma zastosowanie urządzeń hybrydowych. Moc systemów wyłącznie z dyskami SSD nie zostanie wykorzystana, jeśli będą stosowane do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku niewielki wzrost wydajności nie zrekompensuje znacznie wyższej ceny samego urządzenia i znajdujących się w nim nośników. Macierze all-flash zdecydowanie rzadziej stosuje się w rozwiązaniach monitoringu wideo, nie tylko z uwagi na pojemność pojedynczych dysków, gdyż obecnie wynosi ona ponad 30 TB. Innymi istotnymi czynnikami są także koszty składowania takich danych (póki co wyższe niż przy dyskach NL-SAS) oraz to, że ich zapis ma charakter ciągły i jest wykonywany w trybie sekwencyjnym, natomiast odczyt jest sporadyczny. 

 

Artykuł Gdzie sprzęt się bije tam… oprogramowanie korzysta pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/gdzie-sprzet-sie-bije-tam-oprogramowanie-korzysta/feed/ 0
Fujitsu: z klientami rozmawiajmy o projektach https://crn.sarota.dev/artykuly/fujitsu-z-klientami-rozmawiajmy-o-projektach/ https://crn.sarota.dev/artykuly/fujitsu-z-klientami-rozmawiajmy-o-projektach/#respond Tue, 03 Dec 2019 08:05:00 +0000 https://crn.pl/default/fujitsu-z-klientami-rozmawiajmy-o-projektach/ Obecne wyzwania w świecie IT spowodowały, że należy zmienić sposób, w jaki wdrażane są rozwiązania teleinformatyczne u klientów. Eksperci Fujitsu nalegają, aby w negocjacjach handlowych przestać mówić o konkretnych produktach, ale omawiać projekty z perspektywy potrzeb klientów.

Artykuł Fujitsu: z klientami rozmawiajmy o projektach pochodzi z serwisu CRN.

]]>
Przetwarzanie i przechowywanie firmowych danych jest obecnie związane z wieloma aspektami, które należy wziąć pod uwagę podczas projektowania wdrażanych u klientów rozwiązań. Tematem numer jeden na całym świecie jest ochrona informacji – zarówno przed wyciekami, jak i utratą bądź zablokowaniem dostępu do nich. Kolejnym istotnym aspektem jest  zapewnienie ciągłości działania środowisk IT dla funkcji biznesowo-operacyjnych w przedsiębiorstwie. Równie ważna jest wydajność dostarczania danych serwerom i stacjom roboczym, oraz czas potrzebny do przywrócenia środowiska do pracy po ewentualnej awarii lub planowanej przerwie serwisowej. Dlatego proponowanie klientom urządzeń wybieranych tylko według parametrów technicznych przestało mieć sens.

Staramy się przekonywać partnerów oraz ich klientów, aby myśleli o całych rozwiązaniach, a nie konkretnych produktach – podkreśla Piotr Brychczyński, Business Development Manager w Fujitsu. – Dotyczy to przede wszystkim rozwiązań do przechowywania danych oraz ich backupu. Dlatego nie zaczynamy rozmów od prezentowania poszczególnych macierzy dyskowych, bibliotek taśmowych i urządzeń do backupu. Zaczynamy od poznania potrzeb biznesowych klienta, potem zastanawiamy się, jakich konkretnych funkcji zapewnianych przez rozwiązanie IT on oczekuje, a dopiero na końcu sprawdzamy, który produkt lub ich grupa je oferuje.

Taka polityka sprawdza się szczególnie w przypadku pamięci masowych oraz systemów do backupu i archiwizacji, ponieważ „uczestniczą” one w całym cyklu życia informacji w firmie. W krytycznym momencie ułatwiają odzyskanie danych lub przywrócenie całego środowiska do pracy po awarii. Istnieje jednak wiele dodatkowych funkcji zapewnianych przez macierze dyskowe i biblioteki taśmowe, które sprawiają, że dane są udostępniane z różną wydajnością (tiering, SSD cache, quality of service) i zabezpieczane na różne sposoby (m.in. snapshoty, replikacja lokalna i zdalna, narzędzia gwarantujące integralność danych, szyfrowanie), oraz takie, które służą do redukowania ilości zajętego miejsca na nośniku (kompresja, deduplikacja). Od tego, jakie podejście poszczególni producenci mają do danej funkcji, zależy jak efektywne dla klienta będzie zawierające ją rozwiązanie. Dla przykładu, macierze Fujitsu umożliwiają wybranie woluminów, wobec których ma być stosowana deduplikacja, podczas gdy wiele konkurencyjnych rozwiązań obejmuje tym procesem wszystkie nośniki. Nie zawsze ma to sens, bo współczynnik deduplikacji dla niektórych rodzajów danych jest bardzo mały, a obciążenie procesora wykonującego tę operację dość znaczne.

Dane zawsze zabezpieczone

Fujitsu ma w swoim portfolio wszystkie (oprócz nośników optycznych) rodzaje pamięci masowych: macierze all-flash (Eternus AF), macierze hybrydowe (Eternus DX), hiperskalowalne systemy dyskowe (Eternus CD), biblioteki taśmowe (Eternus LT) oraz rozwiązania do backupu i archiwizacji (Eternus CS). Ma również podpisane umowy resellerskie z kilkoma producentami oprogramowania do zarządzania danymi i ich backupu oraz archiwizacji (m.in. FalconStor, Veeam, Commvault, Veritas).

W ubiegłym roku do oferty Fujitsu trafiło ciekawe urządzenie Eternus CS8050, które dostępne jest w dwóch wersjach, przeznaczonych do backupu lub archiwizacji danych. System ten bazuje na znajdującej się w ofercie Fujitsu od prawie 20 lat platformie Eternus CS8000, sprawdzonej w wielu centrach danych we współpracy z najpopularniejszymi na rynku pakietami do backupu i archiwizacji (m.in. firm Atempo, Commvault, Dell EMC, IBM, Micro Focus, Veeam i Veritas).

 

Eternus CS8050 może pełnić funkcję wirtualnej biblioteki taśmowej (VTL) do backupu oraz serwera plików (NAS) – te dwie wersje urządzeń różnią się preinstalowanym oprogramowaniem zarządzającym. Przeznaczone są dla firm średniej wielkości lub oddziałów dużych przedsiębiorstw, które korzystają z fizycznej i wirtualnej infrastruktury IT.

Skonfigurowany w wersji wirtualnej biblioteki taśmowej system CS8050 zapewnia stworzenie do 32 wirtualnych napędów taśmowych oraz zarządzanie do 20 tys. wirtualnych oraz 500 fizycznych taśm. Możliwa jest także asynchroniczna replikacja danych (bez konieczności zakupu licencji) do innego urządzenia z rodziny Eternus CS8050 (dodatkowa ochrona danych przechowywanych lokalnie, w siedzibie firmy) lub Eternus CS8000 (centralne przechowywanie danych z oddziałów przedsiębiorstwa). Przed przesłaniem informacje są kompresowane, co znacznie przyspiesza ich transfer.

Z kolei Eternus CS8050 w wersji NAS przeznaczony jest do pracy jako serwer plików do długoterminowej archiwizacji danych. Umożliwia przechowywanie do 200 mln plików w maksymalnie 256 udziałach NAS. Dane mogą być przesyłane z wykorzystaniem protokołów NFS lub CIFS. Dzięki funkcji kopii migawkowej (snapshot) zapewniona jest archiwizacja także poprzednich wersji zapisanych plików oraz replikacja danych do innej macierzy działającej w modelu NAS, bez obciążania łączy transferem „pełnych” danych.

W serwerze CS8050 NAS wdrożono funkcję Soft WORM (Write Once, Read Many), która gwarantuje, że przez określony przez użytkownika czas nie ma możliwości edycji lub skasowania wskazanych plików, folderów lub całych woluminów (czas retencji może być zaprogramowany nawet na 200 lat!). Dzięki temu firmy i instytucje, które muszą spełniać określone wymogi prawne związane z długotrwałą archiwizacją, mogą działać zgodnie z przepisami, nie ponosząc znaczących dodatkowych kosztów na organizację i funkcjonowanie archiwum.

Dla mniejszych firm, które zainteresowane są rozwiązaniami do backupu klasy podstawowej, Fujitsu ma w ofercie wirtualną bibliotekę taśmową Eternus CS800. Dostępna jest ona w trzech wersjach – Entry, Flex i Scale, zapewniających transfer z prędkością odpowiednio 8,4, 8,8 i 13,9 TB/s. Urządzenia funkcjonują w sieci jako serwer NAS (dostęp poprzez protokoły CIFS i NFS) i umożliwiają stworzenie od 80 do 256 wirtualnych napędów taśmowych.

Trzy pytania do…

Roberta Pakowskiego, Business Development Managera, Fujitsu

Czy istnieje podział obowiązków pomiędzy Fujitsu a partnerów podczas wdrażania oferowanych przez was rozwiązań IT?

Najważniejsze jest zrozumienie potrzeb naszego wspólnego klienta i założeń realizowanego projektu. Taki podział może zaistnieć po to, aby było pełne zrozumienie wykonywanych obowiązków, ale zawsze jest określany w ramach poszczególnych projektów. My dzielimy się z partnerami  wiedzą, ale też często korzystamy z ich doświadczenia. Czasami do różnych projektów zapraszamy nawet małych integratorów, którzy mają wprawę we wdrażaniu rozwiązań w jakiejś konkretnej branży. Jedyną postawioną przez nas granicą jest to, że w żaden sposób nie ingerujemy w istniejące relacje partnerów z klientami. Proponujemy tylko różne usługi oraz wartość dodaną, jeśli kwalifikacje integratorów nie są wystarczające. Jesteśmy w ciekawym momencie rozwoju rynku, bo wielu partnerów obecnie szuka alternatyw dla „oczywistych” i popularnych rozwiązań, statystycznie najczęściej wybieranych przez klientów. Widzą, że ci, którzy przodują w wielu rankingach, nie zawsze zapewniają taką elastyczność, jaką możemy zaoferować my, ze znacznie bardziej rozbudowaną funkcjonalnością rozwiązań i często z niższą ceną.

A jaką formułę współpracy z partnerami preferujecie?

Jeśli spojrzymy na dane liczbowe, to najpopularniejsza jest współpraca w tradycyjnym modelu resellerskim. My jesteśmy traktowani jak dostawca pudełek ze sprzętem, który reseller z wartością dodaną bądź integrator wykorzystuje do stworzenia jakiegoś rozwiązania, często nawet nie wiemy jakiego. Natomiast w dzisiejszych czasach model ten jest według nas wysoce nieskuteczny, bo integratorzy rzadko wybierają komponenty, z których można zbudować rozwiązania w pełni odpowiadające potrzebom klienta. To jest rzecz, którą chcielibyśmy zmienić, zaszczepić naszym partnerom podejście projektowe, w którym rola sprzedawcy nie jest sprowadzona tylko do wyboru parametrów technicznych urządzenia, bo 90 proc. korzyści płynie obecnie ze zintegrowanego a także oferowanego przez firmy trzecie oprogramowania.

Razem ze swoim sprzętem Fujitsu oferuje m.in. aplikacje do backupu firm Commvault, Veeam i Veritas. Jakie korzyści odnosi partner i jego klient, kupując je u was, a nie za pośrednictwem dystrybutorów rozwiązań
danego producenta?

Rzeczywiście, jest na rynku kilkunastu dostawców oprogramowania do zarządzania infrastrukturą IT oraz przetwarzanymi w niej danymi, którzy sprzedają je przez dwa kanały – swój własny oraz producentów sprzętu do centrów danych. Ten drugi model sprawdza się z kilku powodów. Przede wszystkim gwarantujemy najlepsze dopasowanie wszystkich komponentów danego rozwiązania. Gdy partner kupuje osobno składniki potrzebne do realizacji projektu w różnych miejscach istnieje ryzyko nieudanego wyboru. Jest też korzyść operacyjna – nasi inżynierowie zapewniają wsparcie także dla oprogramowania kupionego w Fujitsu, więc integrator ma tylko jeden punkt kontaktu. No i korzyść biznesowa – kupno wszystkiego w jednym miejscu powoduje, że partner zostawia u nas więcej pieniędzy, a tym samym m.in. rosną jego sumaryczne obroty i szybciej może osiągnąć wyższy status w programie partnerskim.

Artykuł Fujitsu: z klientami rozmawiajmy o projektach pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/fujitsu-z-klientami-rozmawiajmy-o-projektach/feed/ 0
Macierz HPE Primera – wydajna i łatwa w użyciu https://crn.sarota.dev/artykuly/macierz-hpe-primera-wydajna-i-latwa-w-uzyciu/ https://crn.sarota.dev/artykuly/macierz-hpe-primera-wydajna-i-latwa-w-uzyciu/#respond Tue, 26 Nov 2019 08:38:00 +0000 https://crn.pl/default/macierz-hpe-primera-wydajna-i-latwa-w-uzyciu/ Do portfolio pamięci masowych HPE trafiła nowa macierz dyskowa HPE Primera 600. Została zbudowana dzięki połączeniu trzech elementów: 20-letnich doświadczeń z bardzo wydajnej architektury macierzy HPE 3PAR, prostoty obsługi macierzy HPE Nimble Storage oraz platformy analizy predykcyjnej HPE InfoSight.

Artykuł Macierz HPE Primera – wydajna i łatwa w użyciu pochodzi z serwisu CRN.

]]>
Przy konstruowaniu macierzy HPE Primera wykorzystano najlepsze dotychczasowe doświadczenia HPE oraz sugestie klientów. W ten sposób powstało wyjątkowo wydajne rozwiązanie, charakteryzujące się łatwością obsługi. Architektura jego kontrolerów oraz system operacyjny Primera OS stanowią ewolucję rozwiązań stosowanych wcześniej w macierzach HPE 3PAR. Dzięki temu możliwa jest replikacja danych pomiędzy urządzeniami należącymi do obu rodzin.

Ważnym elementem konstrukcji macierzy są dodatkowe specjalistyczne układy ASIC (Application-Specific Integrated Circuit) szóstej generacji, zaprojektowane do pracy z nośnikami flash NVMe, współpracujące z centralną pamięcią cache i zapewniające bardzo małe opóźnienia oraz wysoką przepustowość. Powstały one w procesie rozwoju stosowanych w macierzach 3PAR układów poprzedniej generacji, przygotowanych do pracy w macierzach all-flash z rozproszoną pamięcią cache. Zastosowane w macierzach HPE układy ASIC odciążają główny procesor macierzy i przejmują na siebie większość zadań obliczeniowych związanych z przetwarzaniem przechowywanych danych, a szczególnie ich kompresji i deduplikacji. Dzięki temu procesy te są przeprowadzane bardzo szybko i efektywnie (redukcja zajmowanej przez dane pojemności nawet o 75 proc.).

Do architektury macierzy wprowadzono warstwę wirtualizacyjną, dzięki której rozbudowa urządzenia staje się znacznie łatwiejsza, a w przyszłości będzie można dodawać jeszcze bardziej wydajne dyski, karty sieciowe zapewniające łączność w nowych standardach itp. Opcja Timeless Storage pozwala na wydłużenie okresu eksploatacji macierzy dzięki aktualizacji kontrolerów do nowszych, wydajniejszych modeli – tym samym zwiększając zwrot z już poniesionej raz inwestycji. Sama aktualizacja kontrolerów nie powoduje przerwy w pracy urządzenia. Producent zadbał też, aby zarówno instalacji urządzenia, jak i jego rozbudowy mogli dokonywać pracownicy działu IT klienta.

 

 

Nieustanne wsparcie

W rodzinie macierzy HPE Primera 600 dostępnych jest sześć modeli różniących się od siebie wydajnością i pojemnością: trzy hybrydowe (C630, C650 i C670) oraz trzy all-flash (A630, A650 i A670). Modele x30 wyposażone są w dwa kontrolery, modele x50 i x70 – w dwa lub cztery. W jednej półce dyskowej można zmieścić 12 napędów 3,5-calowych lub 24 napędy 2,5-calowe. Wszystkie dyski połączone są w strukturę umożliwiającą przetrwanie jednoczesnej awarii dwóch dowolnych spośród nich, a dzięki strukturze mesh każdy wolumin z danymi ma dostęp do wszystkich dysków, kontrolerów i portów. Macierz można podłączyć do serwerów na kilka sposobów: przez tradycyjną sieć SAN, urządzenie HPE Synergy Virtual Connect FlexFabric (tzw. Flat SAN) lub bezpośrednio do kart z portami Fibre Channel, znajdujących się w serwerach. W najbliższej wersji systemu operacyjnego Primera OS pojawi się także obsługa standardu iSCSI SAN.

W cenie każdej macierzy z rodziny Primera, 3PAR i Nimble standardowo dołączane jest oprogramowanie HPE Recovery Manager Central. Do zabezpieczania danych z różnych aplikacji służą rozbudowane funkcje replikacji i wykonywania kopii zapasowych na system HPE StoreOnce lub do zapewnianych przez producenta zasobów chmurowych (HPE Cloud Bank Storage). Aplikacja ta jest bardzo wydajna, dostosowana do szybkości odczytywania danych z nośników pamięci flash i zapisywania na nich. Wbudowana funkcja Peer Copy umożliwia także asynchroniczną replikację równolegle na dwa (lub więcej) homogeniczne lub heterogeniczne systemy pamięci masowych. Jest to komplementarna funkcja do wbudowanej w wybrane macierze opcji HPE Remote Copy, zapewniającej replikację na wolniejsze systemy pamięci masowej.
Użytkownikom macierzy HPE Primera wiele dodatkowych benefitów zapewnia platforma HPE InfoSight. Firmy, które zdecydują się z niej skorzystać, mogą liczyć na świadczony przez producenta monitoring urządzenia w trybie 24×7, zdalną diagnostykę, proaktywne wsparcie, aktualizacje oprogramowania oraz automatyczną dostawę części zamiennych, gdy zauważone zostanie zwiększone ryzyko ich awarii. Analiza odbywa się z wykorzystaniem mechanizmów uczenia maszynowego i sztucznej inteligencji.

Wszystkie macierze HPE Primera, dla których wykupiono minimum 3-letni kontrakt wsparcia proaktywnego (wraz z platformą HPE InfoSight) oraz mają zainstalowane wszystkie krytyczne i rekomendowane aktualizacje systemu operacyjnego, automatycznie są objęte bezpłatnym programem stuprocentowej gwarancji dostępności danych (100 proc. Availability Guarantee). Zgodnie z jego regułami, jeśli klient doświadczy przerwy w działaniu systemu, HPE bierze na siebie odpowiedzialność za rozwiązanie problemu, a także przyzna klientowi zwrot części kosztów zakupu macierzy HPE Primera do wykorzystania przy jej rozbudowie w przyszłości.

 

Trzy pytania do …

Cezarego Biesa, Product Managera w Veracompie

Na którą z funkcji zapewnianych przez macierz HPE Primera klienci powinni szczególnie zwrócić uwagę?

W pierwszym rzędzie na deduplikację danych i korzyści jakie ona ze sobą niesie. Pomysł deduplikowania danych pojawił się już ponad dziesięć lat temu, ale klienci dopiero teraz odkrywają prawdziwe zalety tej funkcji. Cena nośników wykorzystujących pamięć flash wciąż jest znacznie wyższa niż dysków obrotowych, więc wymierną korzyść daje oszczędność przestrzeni dyskowej, ale też energii elektrycznej, bo znika potrzeba kupowania kolejnych nośników lub całej macierzy. Mamy narzędzia, które umożliwiają potencjalnemu klientowi oszacowanie współczynnika deduplikacji, ale jako dystrybutor możemy też wypożyczyć sprzęt demonstracyjny, aby zweryfikował ten parametr na swoich danych i przekonał się, ile pieniędzy może zaoszczędzić. Prowadzimy również szeroko zakrojone działania edukacyjne, dzięki którym integratorzy i klienci mogą lepiej poznać funkcje oferowanych rozwiązań oraz korzyści płynące z ich zastosowania.

Macierz HPE Primera została przedstawiona jako bardzo wydajne urządzenie all-flash, chociaż dostępny jest jeden model twardego dysku umożliwiający stworzenie warstwy z nośnikami mechanicznymi. Czy polscy klienci są już gotowi na masowe inwestowanie w systemy wyłącznie z pamięcią półprzewodnikową?

Zdecydowanie tak. Ceny pamięci flash spadają bardzo szybko, a do tego cały czas usprawniane są mechanizmy redukcji objętości danych zapisywanych na nośniku, np. kompresja czy wspomniana deduplikacja. Z finansowego punktu widzenia macierze all-flash stały się porównywalne z klasycznymi. Szczególnie, jeśli weźmie się pod uwagę także oszczędności na energii elektrycznej oraz fakt, że do uzyskania bardzo wysokiej wydajności urządzenia tylko z pamięcią flash potrzeba znacznie mniejszej liczby nośników niż w macierzach z dyskami obrotowymi. Szkoda więc marnować moc tak szybkiego kontrolera, jaki zastosowano w macierzy HPE Primera, by instalować w niej zwykłe napędy. Natomiast jeśli ktoś potrzebuje nieco mniej wydajnego urządzenia, powinien zainteresować się macierzami z rodziny HPE Nimble Storage, które zyskują w Polsce coraz większą popularność, zwłaszcza że obydwie można monitorować za pomocą tej samej platformy HPE InfoSight.

Producent macierzy Primera podkreśla, że jest ona gotowa do pracy z nośnikami flash NVMe, ale nie ma ich jeszcze w ofercie. Czy to może być jakaś przeszkoda w sprzedaży tego urządzenia?

Nie sądzę. Protokół NVMe to wciąż nie jest dojrzałe rozwiązanie. Dopiero w bieżącym roku część producentów wprowadziło do oferty macierze z nośnikami flash NVMe, ale zainteresowanie klientów jest umiarkowane, głównie ze względu na wciąż wysokie ceny przy współmiernie małym wzroście wydajności. Poza tym zauważyliśmy, że polscy odbiorcy wolą sprawdzone rozwiązania. W przypadku macierzy HPE Primera kontroler jest gotowy do obsługi tak szybkich dysków, w obudowie są wyznaczone miejsca do instalacji nośników flash NVMe, konieczny będzie jedynie upgrade firmware’u, aby umożliwić obsługę tego protokołu. Same dyski flash NVMe pojawią się w ofercie HPE w pierwszej połowie przyszłego roku.

 

Artykuł Macierz HPE Primera – wydajna i łatwa w użyciu pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/macierz-hpe-primera-wydajna-i-latwa-w-uzyciu/feed/ 0
NAS: popyt poniżej możliwości https://crn.sarota.dev/artykuly/nas-popyt-ponizej-mozliwosci/ https://crn.sarota.dev/artykuly/nas-popyt-ponizej-mozliwosci/#respond Wed, 24 May 2017 14:04:00 +0000 https://crn.pl/default/nas-popyt-ponizej-mozliwosci/ Zainteresowanie NAS-ami, jako łatwo dołączaną do firmowej sieci pamięcią masową, rośnie z roku na rok. Ale nie tak, jak – z całkiem obiektywnych względów – można by tego oczekiwać.

Artykuł NAS: popyt poniżej możliwości pochodzi z serwisu CRN.

]]>
Branża odnotowuje sporo zapytań o NAS-y, ale nie można tego nazwać ruchem masowym, który wynikałby z lepszego rozumienia tego, jakie znaczenie ma ochrona danych firmowych. Choć bez dostępu do nich biznes przestaje funkcjonować, to wciąż zbyt wielu potencjalnych klientów próbuje sobie radzić z przechowywaniem informacji, oględnie mówiąc, mało profesjonalnie.

Cześć przedsiębiorstw przechowuje dane w najprostszy sposób, a więc trzymając je na komputerach osobistych, czasami tylko kopiując ważne dokumenty na pendrive’y. „Na koniec dnia kopiujemy ważne dane na dysk zewnętrzny USB… jeśli nie zapomnimy” – tak brzmi standardowa odpowiedź właściciela małej firmy na zadane przez resellera pytanie o stosowane procedury backupu. Przy takim zarządzaniu ochroną danych nie ma mowy o zabezpieczeniach z prawdziwego zdarzenia, choćby w rodzaju RAID.

Z obserwacji Jacka Marynowskiego, prezesa Storage IT, za NAS-ami zaczynają się rozglądać klienci, którym brakuje miejsca na firmowe dane na prostych zewnętrznych nośnikach i którzy przestają panować nad kopiowaniem informacji. Jak zauważa szczeciński integrator, szczególnie zainteresowane nimi są te firmy, które na własnej skórze przekonały się, czym może być utrata danych, np. z powodu uszkodzenia dysku USB albo jego zaginięcia.

Gdy nie stosuje się profesjonalnych rozwiązań ochronnych, do utraty danych może także dojść w wyniku ataku przeprowadzonego z użyciem ransomware’u. Dlatego dobrym argumentem sprzedażowym powinna być informacja, że mechanizmy wbudowane w NAS-y ochronią użytkownika również przed tym coraz bardziej powszechnym zagrożeniem. Dane, nawet jeśli zostaną zaszyfrowane, da się odtworzyć dzięki wewnętrznym migawkom plików.

– Działa to nie tylko w teorii, bo dostajemy sygnały od klientów, że migawki faktycznie okazały się w skuteczną ochroną przed złośliwym oprogramowaniem – twierdzi Marcin Lisowski, Product Manager w EPA Systemy.

 

Przede wszystkim backup i synchronizacja danych

Zastępujący zewnętrzne dyski USB i dołączony do sieci NAS staje się centralnym miejscem przechowywania plików, umożliwiając łatwe zarządzanie współdzielonymi danymi i ich ochronę – przede wszystkim jako pamięć masowa do celów backupu. Choć zdarzają się firmy, które backupu wciąż nie stosują bądź nie testują tego procesu (co również jest niebezpieczne), to świadomość potrzeby sporządzania kopii zapasowych zdecydowanie rośnie, m.in. dzięki wysiłkowi integratorów tłumaczących klientom, jakie są współczesne wymogi ochrony danych.

 

W przypadku użycia NAS-ów jako centralnego repozytorium danych w firmie coraz popularniejsze jest wykorzystanie wbudowanych mechanizmów synchronizacji danych pomiędzy komputerami i urządzeniem pamięci. To forma tworzenia chmury prywatnej – aplikacja kliencka zainstalowana na komputerze kontroluje pliki w wybranych folderach, automatycznie synchronizując je z folderami znajdującymi się na NAS-ie.

– W ten sposób część pracy administratora jest wykonywana za niego i nie musi on pilnować, by użytkownicy zapisywali kopie swoich plików na serwerze NAS. Klienci coraz częściej o taką funkcjonalność pytają i coraz chętniej ją wykorzystują – mówi Łukasz Milic, Product Manager w Konsorcjum FEN.

Z jednej strony ułatwia to pracę grupową, bo jeśli kilku użytkowników pracuje na jednym pliku, to będzie się on synchronizował poprzez NAS na wszystkich komputerach, z drugiej zaś pracę zdalną, gdyż pliki można synchronizować przez Internet z dowolnego miejsca. W tym ostatnim kontekście klienci często pytają także o możliwość zintegrowania NAS-a z chmurą publiczną, gdy korzystają z Dropboxa czy Google Drive.

 

Do wyboru, do koloru

Producenci NAS-ów oferują bardzo wiele modeli sprzętu różniącego się konfiguracją, możliwościami rozbudowy i wydajnością. Wybór sprzętu optymalnie dostosowanego do potrzeb klienta nie jest więc problemem. Znajdą swoje rozwiązanie zarówno ci, którym wystarczy proste, dwudyskowe urządzenie, jak i ci, dla których najlepszy będzie zaawansowany 24-zatokowy serwer. Dopasowanie sprzętu do ich potrzeb wynika z ilości generowanych danych, oczekiwanego poziomu bezpieczeństwa, wymaganej wydajności, a także możliwości połączenia z siecią. Czy klient zdecyduje się zakupić wersję wolnostojącą czy też wybierze taką do montażu w szafie, zależy także od tego, z jakiego środowiska informatycznego korzysta.

Zdaniem integratora

• Jacek Marynowski, prezes Storage IT

Zainteresowanie NAS-ami wyraźnie rośnie, ale z punktu widzenia integratora nie jest jeszcze wystarczające. Nie przystaje wprost do tempa przyrostu danych i znaczenia, jakie w ostatnich latach zyskały kwestie bezpieczeństwa informacji, dotyczące przecież każdej firmy – dużej i małej. Wobec takich trendów, z przyczyn obiektywnych, zapotrzebowanie na rozwiązania NAS powinno być zdecydowanie większe, ale klientom brakuje jeszcze świadomości, a rolą resellerów jest jej budzenie.

NAS-ów zaczynają szukać klienci, którym brakuje miejsca na dane na prostych zewnętrznych nośnikach i którzy przestają panować nad kopiowaniem informacji. A już na pewno zainteresowane nimi są te firmy, które na własnej skórze przekonały się, czym może być utrata danych, np. z powodu uszkodzenia dysku USB albo jego zaginięcia.

Wybierając NAS-y, klienci biznesowi, choć wrażliwi na cenę, są bardziej elastyczni niż klienci instytucjonalni. Sektor publiczny najczęściej nawet o złotówkę nie wykroczy poza z góry ustalony, sztywny budżet, więc sprzedającemu nie pozostaje nic innego jak dopasować do niego rozwiązanie i możliwości funkcjonalne. W przypadku firm, gdy okaże się, że potrzeby są większe i trudno zmieścić się w zaplanowanej kwocie, nierzadko udaje się klientowi wytłumaczyć, że należy zainwestować więcej. Można go przekonać, zapewniając, że otrzyma dużo lepsze i bezpieczniejsze rozwiązanie, które znacznie lepiej sprawdzi się w jego przypadku.

 

Jeśli klient ma miejsce na urządzenie rackowe i wystarczy je dołożyć do szafy z działającymi serwerami, to najczęściej decyduje się na tego typu rozwiązanie. Gdy większa firma wybiera mniejsze, desktopowe rozwiązanie, zwykle jest to taki model, który nie ma swojego odpowiednika w wersji do montażu w szafie – tłumaczy Łukasz Milic.

W przypadku mniejszych firm, które nie dysponują serwerownią ani nawet pojedynczą szafą serwerową, oczywistym wyborem jest wersja wolnostojąca NAS-a. Tym bardziej jeśli gromadzone dane to w większości pliki z dokumentami, które nie wymagają dużych pojemności pamięci masowej. Trochę innym przypadkiem są mniejsze firmy zajmujące się np. grafiką komputerową czy obróbką filmów – one na swoje dane potrzebują dużej przestrzeni dyskowej. Takie przedsiębiorstwa mogą, dajmy na to, wybrać urządzenie z sześcioma albo ośmioma dyskami, desktopowe lub rackowe.

Ponieważ dla wielu klientów zakup NAS-a stanowi niemałe obciążenie dla ich budżetu, chcą oni dysponować na tyle otwartym systemem, by można go było powiększać, gdy danych będzie przybywać. NAS-y dają możliwość dokładania dysków w ramach tej samej macierzy lub dodawania jednostek rozszerzających.

– Skalowalność i możliwość rozbudowy NAS-ów to ważne kryterium. Klienci chętniej wybierają serwery, w których można z czasem zwiększyć ilość pamięci, podłączyć obudowę rozszerzającą (lub skorzystać z technologii VJBOD) czy też dołożyć dodatkowe akcesoria, jak karty sieciowe czy USB bądź graficzne czy też dyski SSD – twierdzi Grzegorz Bielawski, Country Manager w QNAP.

Zwiększyć marże, czyli od dysków po opcje gwarancyjne

Producenci NAS-ów oferują swój sprzęt bez dysków, więc w sprzedaży wiązanej razem ze sprzętem reseller powinien zaproponować klientom napędy odpowiedniej klasy – lepsze niż te wykorzystywane w komputerach. Z doświadczeń dostawców wynika, że jeśli zdarzyły się awarie dysków w sprzedanych pamięciach masowych, były to zwykle przypadki użycia napędów komputerowych nieprzystosowanych do pracy ciągłej i niewskazanych do instalowania w serwerach NAS. Dlatego coraz trudniej spotkać klientów, którym wydaje się, że jeśli dyski desktopowe sprawdzają się w pecetach, to nie powinno być z nimi problemu w urządzeniach NAS. Można zaoferować użytkownikom napędy Seagate, WD czy HGST do profesjonalnych zastosowań, zaprojektowane przez producentów z myślą o konkretnych aplikacjach (praca w sieci, obsługa monitoringu, zastosowania audiowizualne), oraz – w przypadku ochrony danych krytycznych – dyski klasy enterprise. Choć ich cena jest wyższa od wartości dysków desktopowych, to niezawodność oraz lepsze warunki gwarancyjne uzasadniają większy wydatek. Pytani przez CRN Polska przedstawiciele branży zgodnie twierdzili, że klienci to rozumieją i chętnie decydują się na zakup lepszych nośników. Starają się też stosować do list kompatybilności, by mieć pewność, że napędy będą współpracować z urządzeniem NAS.

Myśląc o zastosowaniach związanych z backupem danych, klient może zakładać wykorzystanie oprogramowania dołączonego do sprzętu, które jest nielicencjonowane i darmowe. Jednak wówczas musi się liczyć z wyraźnie ograniczonymi możliwościami oraz małą kontrolą nad procesem zabezpieczania danych. To doskonała okazja dla resellera, by zaproponował klientom zintegrowane rozwiązanie składające się z NAS-a i profesjonalnego oprogramowania do robienia kopii zapasowych. Oferowanie sprzętu wraz z zewnętrznym oprogramowaniem do backupu jest najbardziej oczywistą opcją sprzedaży rozszerzonej w wypadku NAS-ów.

– Klienci powinni docenić to, że będą mogli centralnie zarządzać politykami kopiowania zasobów i np. dystrybuować na poszczególne komputery tworzone szablony backupu

– tłumaczy Jacek Marynowski ze Storage IT.

Często klienci nie wykorzystują możliwości NAS-a, jeśli chodzi o przepustowość. Okazuje się, że używają niskiej klasy przełączników sieciowych albo nie są w stanie skorzystać z agregacji łączy pomimo tego, że NAS wyposażony w kilka kart sieciowych umożliwia połączenie o dużej przepustowości dla większej grupy użytkowników. Reseller może więc zaproponować klientowi kupno i wdrożenie nowych przełączników, nawet tych najbardziej wydajnych, bo technologia 10 GbE staje się coraz tańsza.

Warto też namawiać klientów na dodatkowe opcje serwisowe. Podstawowy wariant 24-miesięcznej gwarancji, który w momencie awarii przewiduje wysłanie urządzenia do dystrybutora i kilkudniowe oczekiwanie na naprawę, może być w wielu wypadkach niewystarczający. Gdy przechowywana na dyskach NAS informacja ma kluczowe znaczenie dla funkcjonowania małego czy średniego biznesu, zbyt długie oczekiwanie na naprawę kosztuje. Klient może więc wybrać opcję serwisu NBD, w miejscu instalacji, może też pomyśleć o wydłużeniu gwarancji.

 

W przypadku sprzętu wolno stojącego warto od razu zaproponować klientowi trochę większe urządzenie, np. czterodyskowe, w którym na początku będą zainstalowane tylko dwa nośniki, działające w konfiguracji RAID. Gdy danych będzie na tyle dużo, że dyski zaczną się w całości zapełniać, wystarczy wtedy dodać kolejne. Jeśli cztery dyski przestaną wystarczać, to część producentów oferuje możliwość dokupienia desktopowych jednostek rozszerzających. Można je dołączać za pomocą interfejsu USB albo SAS i tworzyć obejmującą wszystkie dyski konfigurację RAID.

Okazuje się, że przy wyborze mniej zaawansowanych rozwiązań wydajność nie jest kluczowa. Klienci nie poszukują więc najszybszych modeli, ale dążą do znalezienia najbardziej optymalnego w danej sytuacji. Takiego, które oferuje określone funkcje w najkorzystniejszej cenie. O ile w przypadku komputerów najbardziej wydajne podzespoły mają bezpośredni wpływ na komfort pracy użytkownika, o tyle w przypadku NAS-ów nie ma wprost takiego przełożenia.

– Przy określonych potrzebach jednostka tańsza, o słabszych parametrach, może dać podobne efekty jak droższy i wydajniejszy model – tłumaczy szef Storage IT.

 

To nie jest klasa enterprise

Coraz częściej NAS-y są wykorzystywane jako pamięć masowa dla środowisk wirtualnych. Gdy klient uruchamia kilka hostów wirtualizacji i potrzebuje wspólnej dla nich pamięci masowej, to może wybrać NAS do udostępniania przestrzeni dyskowej dla serwera, przy użyciu iSCSI. Klient skorzysta z konsolidacji usług w jednym urządzeniu, bo będzie ono mogło wtedy jednocześnie realizować zadania backupu i udostępniać inne funkcje.

Zdaniem branży

Przemysław Biel, Product Manager, AB

Łatwość użytkowania leży u podstaw popularności urządzeń NAS. Na tym polega ich największa przewaga nad opcją samodzielnego składania serwera, instalowania na nim systemu Linux oraz jego konfigurowania. Jednak w przypadku bardziej zaawansowanych rozwiązań wiedza i szkolenia są niezbędne, aby można je było optymalnie skonfigurować, dobrać i wykorzystać.

 

Robert Kot, Product Manager, ABC Data Value+

Proces sprzedaży pamięci masowych jest zwykle nieco bardziej skomplikowany i wymaga od sprzedawcy większej wiedzy o oferowanych rozwiązaniach oraz lepszego wsparcia przedsprzedażowego. Partnerzy bardzo cenią np. możliwość wypożyczenia sprzętu demo i przeprowadzenia własnych testów wydajności, dzięki czemu łatwiej przekonać klienta do wyboru konkretnego systemu.

 

Piotr Głydziak, dyrektor Działu Rozwiązań Siecio-wych, Security i Digital Signage

w Action Technologia NAS jest bardzo popularna wśród małych i średnich przedsiębiorstw. Klienci, którzy potrzebują nie tylko narzędzia do przechowywania danych, ale także platformy do oprogramowania magazynowego i fakturowania albo rozwiązania IT do monitoringu, często sięgają po NAS-y, które łączą w sobie wymienione funkcje, a przy tym są mało awaryjne i atrakcyjne cenowo. Dodatkowo, serwery NAS stosuje się też do zarządzania technologią „inteligentnego domu”.

 

Marcin Lisowski, Product Manager, EPA Systemy

 Popyt na NAS-y jest spory i rok do roku odnotowujemy kilkudziesięcioprocentowe wzrosty sprzedaży. A trzeba zdawać sobie sprawę, że wśród klientów, a nawet i samych integratorów jest jeszcze całkiem spora grupa, która nie zna tych rozwiązań, więc ten segment rynku ma jeszcze większy potencjał. Dlatego tak duże znaczenie mają wizyty u klientów i prezentacje działania NAS-ów.

 

Najbardziej zaawansowane modele NAS są dobrze przygotowane pod względem wydajności do obsługi bardziej wymagających środowisk, bo oferują porty 10GbE, a niektóre nawet 40GbE. Są przy tym sporo tańsze od „A-brandowych” rozwiązań macierzowych. Trudno jednak porównywać NAS-y z macierzami Dell EMC, NetApp czy HPE, bo – jak zauważa Przemysław Biel, Product Manager w AB – to zupełnie inna liga urządzeń, sprzedawanych przede wszystkim w ramach w dużych projektów, gdzie mają zastosowanie także innej klasy serwery.

– Jednak dość często w przypadku projektów z ograniczonym budżetem stosuje się NAS z niższej półki cenowej, który pełni rolę backupu – zauważa przedstawiciel dystrybutora.

Robert Kot, Product Manager w ABC Data Value+, zwraca z kolei uwagę, że „low-endowa” oferta liderów rynku pamięci masowych obejmuje szereg dodatkowych funkcjonalności i jest skierowana do klientów o większych, bardziej specyficznych potrzebach. W przypadku tańszych serwerów NAS, nieco mniej prestiżowych marek, nie ma zazwyczaj kompresji w locie, replikacji synchronicznej, deduplikacji danych, a ponadto nie wszyscy ich producenci oferują funkcje tieringu.

– Do tego dochodzi rozbudowana redundancja sprzętowa, a więc kontrolery, zasilacze, „główki” macierzy, jak też większe możliwości rozbudowy przestrzeni dyskowej oraz wyśrubowane poziomy wsparcia serwisowego: onsite czy kilkugodzinne SLA – tłumaczy specjalista ABC Data.

Zdaniem branży – cd.

Łukasz Milic, Product Manager, Konsorcjum FEN

Są dwa główne powody zakupu NAS-ów przez klientów. Po pierwsze chcą oni tego typu pamięć masową wykorzystać do backupu danych. Coraz częściej także ma to być centralne miejsce przechowywania plików, które pozwoli na zarządzanie współdzielonymi danymi i zabezpieczy je przed utratą na stacjach klienckich, np. w wyniku ataku ransomware. Dlatego administratorzy w firmach coraz chętniej wybierają NAS-y, szczególnie te, które są wyposażone w mechanizmy chroniące przed złośliwym oprogramowaniem potrafiącym zaszyfrować dane na komputerach.

 

Grzegorz Bielawski, Country Manager, QNAP

 Wciąż jeszcze wielu klientów szuka po prostu „maszyny do backupu/archiwizacji”. Jedyną funkcją NAS-a ma być dostarczenie użytkownikowi dostępnej w lokalnej sieci przestrzeni dyskowej. Dopiero na etapie dopasowywania rozwiązania do potrzeb klienci dowiadują się, jak wiele dodatkowych funkcji oferują urządzenia NAS, które mogą pełnić rolę kompletnej, prywatnej chmury, centrum monitoringu IP, serwera WWW/poczty, platformy wirtualizacyjnej czy domowego centrum multimediów.

 

Magdalena O`Dwyer, Product Manager, Synology

 NAS oferuje o wiele więcej niż tylko miejsce do przechowywania plików. Ważnym elementem jest kopia zapasowa czy prawidłowe zabezpieczenie się przed utratą danych oraz możliwość dostępu do serwera z każdego miejsca na świecie, chociażby w trakcie podróży służbowej. Firmy wybierają tego rodzaju rozwiązania, bo są jak robot kuchenny w świecie IT. Wiele użytecznych funkcji oraz bezpłatne pakiety i aplikacje rozszerzają możliwości serwera NAS i eliminują potrzebę zakupu dodatkowych urządzeń.

 

Z wymienionych powodów produkty oferowane przez mniejszych producentów nie stanowią bezpośredniej konkurencji dla urządzeń największych graczy. Mają jednak wiele atrakcyjnych funkcji i oferują odpowiednią wydajność za stosunkowo niską cenę. Dlatego stanowią bardzo ciekawą propozycję nie tylko dla mniejszych firm, ale także większych klientów (w ramach wdrożeń w rozproszonych w oddziałach).

 

Dodatkowe funkcje „sprzedają” NAS-y

Nie przestając pełnić swojej podstawowej roli dysków sieciowych, NAS-y w firmach coraz częściej pełnią rolę serwerów oferujących różne aplikacje i integrujących wiele usług. Ich producenci zapewniają szeroki wybór oprogramowania, dołączonego do sprzętu lub do pobrania w centrach aplikacji. Za jego pomocą użytkownicy mogą łatwo zmienić swoje urządzenia w serwery WWW, FTP, VPN, VoIP, w centrum monitoringu IP, obsługiwać bazy danych (MySQL, PostgreSQL), korzystać z CRM i aplikacji do pracy grupowej (poczta, arkusz kalkulacyjny, chat, notatki, edytor tekstów) oraz wielu innych programów.

Interesującą propozycją stały się możliwości wirtualizacyjne sprzętu, oferowane przez niektórych dostawców. W przypadku bardziej wymagających zastosowań rozwiązanie do wirtualizacji dostarczane z NAS-em może okazać się za mało wydajne, ale powinno się sprawdzić w mniejszej firmie o ograniczonych potrzebach i niewielkim systemie informatycznym. Jacek Marynowski ze Storage IT zauważa, że choć klienci nie zawsze z niego korzystają, może one wpływać na wybór tego, a nie innego produktu.

– W oczach klienta opcje wirtualizacji mogą świadczyć o tym, że ma on do czynienia z nowoczesną technologią. Co wcale nie przesądza, że zostaną przez niego użyte – mówi Jacek Marynowski.

Co ciekawe, nie tylko w najbardziej rozbudowanych rozwiązaniach NAS producenci oferują bardzo zaawansowane funkcje obsługi danych, takie jak tiering (automatyczne pozycjonowanie danych na nośnikach o różnej wydajności i cenie), wbudowana deduplikacja czy thin provisioning (dynamiczna alokacja przestrzeni dyskowej). Czy są one zbieżne z codziennymi potrzebami klientów i zwiększają ich zainteresowanie NAS-ami? Okazuje się, że chociaż nie są to funkcje, które same mogą wpłynąć na wybór takiego, a nie innego produktu, to – podobnie jak w przypadku wirtualizacji – składają się na jego obraz jako bardzo zaawansowanego rozwiązania.

 

Wobec takiego wyboru dodatkowych opcji konieczna jest praktyczna demonstracja tego, jak dołączone do NAS-a funkcje w rzeczywistości działają, jak mogą zwiększyć wydajność i zastosowanie urządzenia, co klient może dzięki nim osiągnąć etc. Ponieważ dystrybutorzy wspierają swoich partnerów w doborze rozwiązania dla klientów, w rozmowach z nimi oraz prezentacjach sprzętu, możliwości pokazania, czym są oferowane produkty, są naprawdę spore.

– Gdy klient postrzega NAS wyłącznie jako serwer plików, a my pokażemy mu wiele dodatkowych funkcji, które dostanie w tej samej cenie, to szanse na sprzedaż wyraźnie rosną – przekonuje Łukasz Milic z Konsorcjum FEN.

 

Monitoring IP… przy okazji

W przypadku NAS-ów coraz bardziej popularne stają się funkcje rejestracji CCTV. Producenci oferują dedykowane aplikacje do zarządzania nagraniami, a dodatkowo zapewniają obsługę znakomitej większości dostępnych na rynku kamer IP. Wraz z NAS-em klient otrzymuje kompletne rozwiązanie do monitoringu IP, z możliwością łatwego zwiększania liczby kamer czy rozbudowy pojemności urządzenia. Trzeba jednak mieć świadomość, że monitoring jest dla niego najczęściej atrakcyjnym dodatkiem. Gdy decyduje się na zakup NAS-a, to jest zainteresowany przede wszystkim podstawowymi funkcjami sprzętu.

Jeśli klientowi zależy wyłącznie na niedużym systemie do monitoringu IP (5–10 kamer), to porównując NAS-a z rozwiązaniami zaprojektowanymi jedynie do tego zastosowania, może uznać, że jest to dla niego zbyt kosztowna inwestycja – uważa Marcin Lisowski z EPA Systemy.

Tym bardziej że za dodatkowe licencje na obsługę większej liczby kamer IP trzeba w przypadku NAS-ów zapłacić. Inna rzecz, że wybierając NAS i wykorzystując jego możliwości wirtualizacyjne, można uruchomić wybrane przez siebie oprogramowanie do monitoringu, o większych możliwościach, niż zapewnia to dołączane bezpłatnie ze sprzętem. Takie wdrożenia u klientów też się zdarzają.

Artykuł NAS: popyt poniżej możliwości pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/nas-popyt-ponizej-mozliwosci/feed/ 0
Wirtualizacja w serwerach QNAP NAS https://crn.sarota.dev/artykuly/wirtualizacja-w-serwerach-qnap-nas/ https://crn.sarota.dev/artykuly/wirtualizacja-w-serwerach-qnap-nas/#respond Wed, 30 Mar 2016 06:05:00 +0000 https://crn.pl/default/wirtualizacja-w-serwerach-qnap-nas/ Pamięć masowa jako repozytorium wirtualnych maszyn musi zapewnić ich wysoką dostępność z oczekiwaną przez serwery i użytkowników wydajnością. Swoją ofertę dla wymagających środowisk wirtualizacyjnych nieustannie rozbudowuje QNAP.

Artykuł Wirtualizacja w serwerach QNAP NAS pochodzi z serwisu CRN.

]]>
Wiele z dostępnych na rynku modeli serwerów NAS jest przystosowanych do przechowywania i udostępniania wirtualnych maszyn. Urządzenia te zostały przetestowane przez głównych dostawców hypervisorów (Citrix, Microsoft, VMware) i wpisane na listę kompatybilności. Ale przy takiej konstrukcji wirtualnego środowiska potrzebny jest też fizyczny serwer odpowiedzialny za dostarczenie mocy obliczeniowej.

Małym firmom QNAP proponuje alternatywne rozwiązanie. Wybrane modele serwerów tego producenta zaopatrzone są w unikalną na rynku funkcję Virtualization Station, dzięki której mogą działać jako serwer wirtualnych maszyn (serwerów i desktopów) z systemami Windows, Linux i Unix, bazujący na mechanizmie KVM. Liczba maszyn, które można uruchomić na tych serwerach, zależy od mocy zainstalowanego procesora i ilości pamięci operacyjnej.

Jeżeli firma potrzebuje niewielkiej liczby wirtualnych serwerów, tego typu rozwiązanie wychodzi zdecydowanie taniej niż kupowanie klasycznego serwera i wyposażanie go w komercyjny hypervisor. Częstym scenariuszem jest wykorzystanie takiej stacji wirtualizacyjnej do obsługi starszych aplikacji, zainstalowanych dotychczas na fizycznym serwerze, który już dawno powinien być zutylizowany. Z funkcji tej często korzystają też klienci, których oprogramowanie księgowe wymaga obecności w firmowej infrastrukturze serwera MS SQL.

Grzegorz Bielawski

Country Manager, QNAP

Partnerom, którzy zarejestrują w naszym systemie swój projekt uwzględniający sprzedaż serwerów QNAP, zapewniamy do 25 proc. dodatkowego rabatu na zaawansowane modele z rodziny TDS-16489U oraz ES1640dc. Dzięki temu zyskują oni gwarancję nawet do 2,6 tys. euro dodatkowego zarobku.

 
O wirtualizacji na poważnie

W lutym br. QNAP zaprezentował nową rodzinę macierzy TDS-16489U, na którą składają się cztery 16-dyskowe modele z dwoma 6- lub 8-rdzeniowymi procesorami Intel Xeon E5–2600 v3 oraz różną ilością pamięci RAM DDR4 (od 64 do 256 GB, z możliwością rozszerzenia do 1 TB). W serwerach tych można stosować dyski SSD z interfejsem NVMe, dzięki któremu ich pamięć zostanie podłączona bezpośrednio do magistrali PCI. Pozwala to na wyeliminowanie wąskiego gardła powodowanego przez klasyczne interfejsy dysków twardych.

Ciekawostką w serwerach TDS-16489U jest możliwość zainstalowania karty graficznej Radeon R7 lub R9 (funkcja GPU Pass-through). Jej moc obliczeniowa zostanie wykorzystana do przeprowadzania obliczeń graficznych, odciążając tym samym główne procesory serwera, które operacje graficzne wykonują znacznie wolniej niż przeznaczone do tego celu procesory GPU.

Opisywane urządzenia są wyposażone w funkcję Virtualization Station z możliwością zapewnienia wysokiej dostępności zreplikowanych wirtualnych maszyn hostowanych na dwóch różnych, oddalonych od siebie serwerach (funkcja Double-Take Availability). Macierze te mogą także funkcjonować jako klasyczne repozytorium w środowisku VMware czy Hyper-V. W tym celu producent stworzył specjalnego agenta do wykonywania kopii migawkowych maszyn (jest instalowany bezpośrednio w oprogramowaniu do zarządzania hypervisorem), dzięki któremu administratorzy mają pewność, że znajdujące się na serwerze QNAP kopie zawierają spójne dane.

Ostatnio QNAP wprowadził też do oferty urządzenie ES1640dc. Jest to pierwszy model z nowej serii ES (Enterprise Storage), charakteryzujący się dwoma kontrolerami działającymi w trybie active-active. Serwer ten ma nowy system operacyjny QES, bazujący na FreeBSD, oraz system plików ZFS zaopatrzony m.in. w takie funkcje jak: deduplikacja, kompresja czy nieskończona liczba kopii migawkowych. ES1640dc nie wyposażono w funkcję Virtualization Station, ponieważ według założeń został przygotowany do przechowywania i udostępniania wirtualnych maszyn uruchamianych na zewnętrznych serwerach fizycznych. Serwer ten bez problemu współpracuje z oprogramowaniem VMware Site Recovery Management oraz Veeam Backup & Replication. Producent deklaruje, że spokojnie jest w stanie dostarczać obrazy nawet dwustu wirtualnych desktopów (VDI).

Artykuł Wirtualizacja w serwerach QNAP NAS pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/wirtualizacja-w-serwerach-qnap-nas/feed/ 0
NetApp zwolni 12 proc. załogi https://crn.sarota.dev/aktualnosci/netapp-zwolni-12-proc-zalogi/ https://crn.sarota.dev/aktualnosci/netapp-zwolni-12-proc-zalogi/#respond Thu, 18 Feb 2016 19:20:00 +0000 https://crn.pl/default/netapp-zwolni-12-proc-zalogi/ Po słabych wynikach minionego kwartału NetApp ogłosił restrukturyzację. Pracę w korporacji straci ok. 1,5 tys. osób. Zmiany mają umożliwić koncentrację firmy na rosnących obszarach rynku.

Artykuł NetApp zwolni 12 proc. załogi pochodzi z serwisu CRN.

]]>
Celem restrukturyzacji jest redukcja kosztów i usprawnienie organizacji – poinformował CEO NetAppa, George Kuran. Cięcia mają objąć oddziały na całym świecie. Program ma umożliwić inwestycje w rozwojowe segmenty, jak pamięci masowe all-flash. Technologię NetApp pozyskał przejmując ostatnio SolidFire. Firma zamierza także w większym stopniu niż dotychczas stać się dostawcą oprogramowania. Stawia zwłaszcza na platformę do zarządzania danymi Ontap.

Informacja o planowanych zmianach przychodzi po ogłoszeniu wyników finansowych III kw. finansowego 2016 (zakończył się 29 stycznia br.), które zawiodły analityków giełdowych. Zysk netto NetAppa spadł z 177 mln dol. przed rokiem do 153 mln dol. w minionym kwartale. Przychody stopniały z 1,55 mld dol. do 1,39 mld dol.

Restrukturyzacja ma zakończyć się w I kw. finansowym 2017 (czyli do lipca br.). Jej koszty 60 – 70 mln dol., głównie związane z odprawami, które obciążą przede wszystkim wynik IV kw. obrotowego 2016.

 

Artykuł NetApp zwolni 12 proc. załogi pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/netapp-zwolni-12-proc-zalogi/feed/ 0