Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/twarde-dyski/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Wed, 27 Nov 2019 07:05:00 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Flash będzie wszędzie https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/ https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/#respond Wed, 27 Nov 2019 07:05:00 +0000 https://crn.pl/default/flash-bedzie-wszedzie/ Lata twardych dysków wydają się policzone. Tak przynajmniej twierdzą producenci kości pamięci flash i trudno z nimi dyskutować. Chociaż bowiem statystycznie nośników mechanicznych wciąż instalowanych jest najwięcej, od 2014 r. widać bardzo wyraźny spadkowy trend ich sprzedaży. O dyskach SSD mówi się już, że będą wykorzystywane w każdej dziedzinie związanej z przechowywaniem danych, także w cyfrowych archiwach.

Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.

]]>
Wszyscy producenci klasycznych macierzy dyskowych mają już w ofercie modele all-flash. Na rynku są też dwie firmy – Pure Storage i Kaminario – które nigdy zwykłych macierzy nie produkowały, ale dzięki determinacji osiągnęły rynkowy sukces i są uznawane przez analityków Gartnera za liderów w swoim segmencie rynku. Rośnie także liczba zastosowań, w przypadku których świetnie sprawdzają się urządzenia wyposażone wyłącznie w dyski SSD. To efekt wydajności kilka razy większej niż ma to miejsce w przypadku tradycyjnych macierzy.

Wciąż jednak dyskusyjne jest stosowanie nośników SSD do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku wzrost wydajności nie zrekompensuje znacznie wyższej ceny zarówno urządzenia, jak i znajdujących się w nim nośników. Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach do monitoringu wideo, gdyż zapis w nich ma charakter ciągły i do tego jest wykonywany w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Jeszcze przez pewien czas zdecydowanie tańsza będzie zwykła macierz lub serwer NAS.

Pamięci flash niezmiennie charakteryzują się podstawową wadą, która w stosunkowo niewielkim stopniu dotyczy twardych dysków. Chodzi oczywiście o komórki pamięci, które podczas każdej operacji zapisu tracą elektroniczne właściwości. To sprawia, że w pewnym momencie nie są w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. Dlatego dostawcy montują w dyskach SSD specjalne kontrolery, wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku, dzięki czemu minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci. To szczególnie ważne ze względu na fakt, że kości produkowane w nowszych technologiach są wprawdzie coraz bardziej pojemne i tańsze, ale mniej trwałe – szczegóły w tabelce poniżej. Dlatego jakość zastosowanego w dysku SSD kontrolera i jego oprogramowania zaczęła być ważniejsza niż jakość samych komórek pamięci.

 

NVMe na fali

Interfejsy SATA i SAS, stosowane w dyskach SSD, wprowadzają ograniczenia związane z transferem danych, wśród których najbardziej znaczący jest limit jego prędkości. Dlatego już ponad dziesięć lat temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak i nowym interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejsy M.2 i U.2, które umożliwiły podłączenie pamięci flash bezpośrednio do magistrali PCIe.
Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków. Otóż w danym momencie przetwarzają one tylko jedno żądanie, bo głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie. Siłą rzeczy transfer danych ma w tym przypadku charakter sekwencyjny. Dlatego twórcy interfejsów stosowanych w dyskach w ogóle nie przewidzieli możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku dysków SSD – w jednym cyklu teoretycznie zapewniają wykonanie nawet 64 tys. żądań odczytu.

 

 

 

 

 

Pojawienie się nośników NVMe ujawniło kolejne wąskie gardło, którym jest infrastruktura sieciowa. Dlatego konieczne było zaprojektowanie i wdrożenie protokołu sieciowego, który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie ograniczy wydajności tych nośników. Nazwano go NVMe-oF (NVM Express over Fabrics) i obecnie sterowniki większości nowych kart sieciowych są już z nim zgodne. Tym samym wdrożenie go w serwerach nie powinno stanowić problemu, choć nie są jeszcze na to gotowi wszyscy producenci macierzy dyskowych, także tych, w których wykorzystywane są nośniki NVMe. Zastosowanie tego typu nośników przynosi ogromną korzyść przede wszystkim w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoliłyby użytkownikowi na uzyskanie bardzo krótkiego czasu dostępu do danych za ułamek ceny, którą obecnie musi zapłacić za dużą macierz z setkami dysków.

Większość znanych producentów pamięci masowych wprowadziło już nośniki NVMe do swoich macierzy. Nie mają ich jedynie urządznia firm HPE i Fujitsu (obie umożliwiają wykorzystanie ich tylko jako cache SSD), ale zapowiedziano ich premierę na przyszły rok.

Na razie dyski NVMe bardzo dobrze sprawdzają się jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyskiw zainstalowanych tam serwerach. Jednak pełnej popularyzacji dysków NVMe oraz protokołu NVMe-oF należy się spodziewać dopiero w perspektywie kilku najbliższych lat, gdy rozwiązanie to nabierze oczekiwanej w branży IT dojrzałości – mówi Jerzy Skiba, konsultant ds. pamięci masowych w Veracompie.

 

Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zostały zaprojektowane ze „świadomością”, że dane będą spływały dość wolno ze zwykłych twardych dysków. To kolejna przyczyna, z powodu której nośniki NVMe mogą osiągnąć popularność dopiero za jakiś czas.

Dane na lata

Coraz więcej regulacji prawnych wymusza na firmach konieczność długoterminowego archiwizowania cyfrowych danych – czasem nawet przez kilkadziesiąt lat. Stwarza to wiele wyzwań natury technicznej oraz proceduralnej. Trudno bowiem dziś przewidzieć, z jakiego typu nośników będziemy korzystać za dziesięć lat i czy w ogóle będziemy w stanie „zrozumieć” zgromadzone dane.
Obecnie za najbardziej ekonomiczny, a jednocześnie zgodny z wymogami prawnymi nośnik najczęściej uznawane są taśmy. Od wielu lat wróży się im naturalną śmierć, ale coraz większa liczba ekspertów i analityków branży IT zauważa, że prawdopodobnie prędzej będziemy świadkami zmierzchu twardych dysków. Taśmy mają bowiem wiele zalet i tylko jedną wadę. Do tych pierwszych zaliczyć należy z pewnością fakt, że jest to nośnik wymienny, niezintegrowany z urządzeniem przeznaczonym do jego odczytu, dzięki czemu można go wywieźć z centrum danych i zdeponować w bezpiecznym miejscu, chociażby w bankowym schowku. Tym samym posiadanie bardzo dużej ilości archiwalnych danych w żaden sposób nie wpływa na wysokość rachunku za energię.

Co więcej, chociaż taśmy uważane są przez wielu za przestarzałe rozwiązanie, cały czas technologia zapisu danych na tym magnetycznym nośniku jest rozwijana. Obecnie na jednym kartridżu w standardzie LTO-8 można zapisać 12 TB „surowych” danych (przed kompresją), ale firmy zaangażowane w rozwój standardu LTO Ultrium (HPE, IBM i Quantum) zapowiedziały już jego kolejne cztery wersje. W każdej z nich pojemność jednej taśmy ma być podwajana – LTO-9 zmieści 24 TB, a dostępny w przyszłości LTO-12 aż 192 TB.

Kolejną zaletą taśm jest bezpieczeństwo zgromadzonych danych. Każdy nośnik jest dostępny w wersji WORM (Write Once, Read Many) – po włożeniu go do napędu taśmowego blokowana jest możliwość skasowania wybranych danych lub całej taśmy. Gwarantuje to ich niezmienność, wymaganą przez wiele przepisów. Każde oprogramowanie do backupu ma także funkcję szyfrowania kopiowanych informacji, więc ewentualna kradzież nośnika nie pociąga za sobą żadnych konsekwencji.

 

 

Wadą taśm jest natomiast to, że trzeba nimi w umiejętny sposób zarządzać. Konieczne jest stosowanie oprogramowania indeksującego gromadzone dane, bo bez niego znalezienie właściwego nośnika, szczególnie gdy archiwum jest pokaźnych rozmiarów, graniczy z cudem. Również czas dostępu do danych jest dłuższy niż w twardych dyskach (trzeba znaleźć taśmę, załadować ją do napędu, przewinąć i odczytać dane), ale w przypadku danych z archiwów, do których sięga się nizbyt często, nie stanowi to wielkiego problemu.

Mimo że płyty optyczne coraz rzadziej wykorzystywane są jako nośnik danych przez użytkowników prywatnych i pracowników biur, nadal sprawdzają się w zastosowaniach archiwizacyjnych. Dla przykładu, Panasonic gwarantuje, że na produkowanych przez niego płytach Freeze-Ray można długo przechowywać dane, według przeprowadzonych symulowanych testów nawet przez 100 lat. Zapewniona jest także kompatybilność wsteczna dla odczytu, dzięki której nie ma konieczności systematycznego kopiowania danych na nośniki nowszej generacji.

Płyty to wciąż ciekawa opcja, jeśli chodzi o długoterminowe przechowywanie danych, np. medycznych. Także my daliśmy użytkownikom możliwość integracji tego typu nośników z naszymi serwerami NAS, aby rozszerzyć ich funkcjonalność – mówi Grzegorz Bielawski, Country Manager polskiego oddziału QNAP.

Niektóry producenci systemów pamięci masowych wybiegają daleko w przód, jeśli chodzi o wizje systemów archiwizacyjnych. Jak wspomnieliśmy, największym problemem związanym z pojemnymi
kośćmi pamięci flash jest ograniczona liczba cykli zapisu. Ale w przypadku archiwów wielokrotny zapis nie jest potrzebny. Dlatego teoretycznie nic nie stoi na przeszkodzie, żeby stworzyć bardzo pojemne nośniki SSD, których trwałość wystarczy np. na pięciokrotny zapis danych. Ich cena byłaby zdecydowanie niższa niż oferowanych obecnie dysków flash, a szybkość dostępu do archiwum biłaby wszelkie rekordy.

Nierozwiązana natomiast pozostaje kwestia gwarancji zrozumienia danych w plikach przechowywanych przez dziesiątki lat w cyfrowym archiwum. Oczywiście można założyć, że popularne formaty, w których przechowywana jest grafika czy dokumenty, przetrwają albo powstaną odpowiednie konwertery. Gdy jednak firma z jakiegoś powodu korzysta z własnego formatu danych, konieczne jest zapewnienie jego bardzo szczegółowej dokumentacji, aby w przypadku wycofania danego oprogramowania z użytku możliwe było stworzenie odpowiedniego konwertera.

 

Zdaniem specjalisty

Magdalena O’Dwyer, Product Manager, Synology

Widzimy nieustannie rosnące zainteresowanie macierzami all-flash. Wyzwaniem pozostaje jedynie bardzo częste pojawianie się nowych standardów zapisu w pamięciach flash, co prowadzi do wielu nieporozumień dotyczących przede wszystkim trwałości nośników. Dlatego zawsze zalecamy skrupulatną weryfikację kompatybilności nabywanych nośników z posiadanymi macierzami oraz rezygnację z kupowania  najtańszych dysków, co do trwałości których można mieć wątpliwości.

Wojciech Wróbel, Presales Manager, Fujitsu

Archiwizacja na taśmach sprawdza się przede wszystkim w przypadku bardzo dużych repozytoriów, gdzie korzyści, chociażby nie pobieranie prądu przez nośniki, są rzeczywiście odczuwalne. Widzę jednak kilka scenariuszy, w których z klasycznymi taśmami wygrają macierze dyskowe pełniące funkcję wirtualnych bibliotek taśmowych lub NAS-ów ze specjalnym oprogramowaniem wspierającym procesy archiwizacji cyfrowych danych. Ich zastosowanie ma sens tam, gdzie archiwum jest niewielkie, a klienci muszą relatywnie często uzyskiwać dostęp do danych, na przykład w celu ich analizy umożliwiającej wyciąganie wniosków pomocnych w podejmowaniu decyzji biznesowych.

Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud

Operator usług chmurowych powinien zapewniać pełne bezpieczeństwo zgromadzonych danych oraz zgodność procesów ich przetwarzania z obowiązującymi przepisami. RODO wymaga, aby nie opuszczały one Unii Europejskiej i nigdy nie były dostępne dla niepowołanych osób ani wykorzystywane w żaden niewłaściwy sposób. Dzięki temu klienci mogą bezpiecznie powierzyć integratorom wszelkie dane i zachować pewność, że nie narażą się na kary. Dodatkowym argumentem dotyczącym bezpieczeństwa jest deklaracja ze strony usługodawcy, że gwarantuje zgodność swoich praktyk z Kodeksem Postępowania CISPE, czyli Europejskiego Zrzeszenia Dostawców Usług Chmurowych.

 

 

Z centrum danych do chmury

Już od niemal dekady wzrost ilości generowanych i przechowywanych przez firmy danych nie idzie w parze ze wzrostem środków przeznaczonych na systemy pamięci masowych. Budżety są relatywnie stałe, co powoduje, że przedsiębiorcy muszą szukać sposobów redukcji objętości danych (do najpopularniejszych należą deduplikacja i kompresja) lub innych sposobów ich przechowywania. W tej dziedzinie wiele do zaoferowania mają dostawcy rozwiązań chmurowych. Ostatnie lata wyłoniły niekwestionowanych liderów tego rynku. Jako pierwszy swoje usługi Simple Storage Services (S3) zaczął oferować Amazon Web Services. Później dołączył do niego Microsoft (Azure Storage), a następnie Google z usługą Cloud Storage.

Początkowo jednak usługodawcy nie dysponowali globalną infrastrukturą, która zapewniłaby małe opóźnienia w transmisji danych, a także zgodność z regulacjami prawnymi. W efekcie mogliśmy zaobserwować pojawianie się lokalnych – polskich lub europejskich – usługodawców zapewniających, że oferują usługi pamięci masowych w chmurze. Wierzyli oni, że na powodzenie ich działalności wpłynie projektowane wówczas RODO oraz cały czas aktualizowane ustawodawstwo branży medycznej i finansowej.

Realia rynkowe zweryfikowały jednak ich ofertę i model działalności chmurowej. Naturalnie niemożliwe było osiągnięcie takiego efektu skali jak najwięksi na tym rynku, siłą rzeczy różnice cenowe też były znaczne. Trudno było także określić poziom bezpieczeństwa infrastruktury zapewniany przez rodzimych dostawców. Mocnym argumentem pozostawała zgodność z regulacjami prawnymi, ale wraz z rozszerzaniem działalności globalnych dostawców na kolejne kraje i kontynenty – w tym otwieranie lokalnych centrów danych lub podpisywanie umów partnerskich z działającymi już wcześniej niezależnymi operatorami centrów danych – przestało to mieć kluczowe znaczenie. Prawnicy największych usługodawców chmurowych dokonali wielu ekspertyz, które dowodzą, że korzystanie z ich usług w większości przypadków nie narusza lokalnego prawa. Duże koncerny zaczęły także wygrywać publiczne, lokalne przetargi. Przykładem z polskiego podwórka jest przesyłanie Jednolitych Plików Kontrolnych do Ministerstwa Finansów w usłudze Microsoft Azure. Natomiast dla przedsiębiorców koronnym argumentem – jak w przypadku większości innych decyzji związanych z infrastrukturą IT – stała się cena.

 

Bloki, pliki i obiekty

Dane w infrastrukturze chmury publicznej – podobnie jak na twardych dyskach serwerów i macierzy dyskowych w lokalnej serwerowni – mogą być przechowywane w blokach, obiektach i plikach. Model blokowy, znany przede wszystkim z sieci Storage Area Network, wykorzystywany jest głównie do udostępniania baz danych i środowisk wirtualnych. Natomiast chmurowe serwery plików służą przede wszystkim do dzielenia się nimi ze współpracownikami lub osobami z zewnątrz (partnerami biznesowymi, klientami itp.).

Jednak najpopularniejszy w chmurze i gwarantujący największą elastyczność stał się model obiektowy. Dzięki dodatkowej warstwie wirtualizacyjnej użytkownika nie obchodzi, w jaki techniczny sposób przechowywana jest dana informacja. Interesuje go jedynie konkretny obiekt – utwór muzyczny, grafika, wideo, repozytorium kopii zapasowych, zreplikowana baza danych itd. Główną zaletą takiej formy składowania danych jest ogromna skalowalność, zarówno pod względem liczby obiektów, jak i ich rozmieszczenia geograficznego (komunikujące się ze sobą serwery mogą znajdować się na różnych kontynentach i replikować między sobą dane, aby zagwarantować użytkownikowi dostęp do nich bez opóźnień).

W większości przypadków za korzystaniem z chmurowych usług przechowywania danych przemawia płatność za rzeczywiście wykorzystane zasoby. Ma to szczególne znaczenie dla mniejszych przedsiębiorstw, w których inwestycja we własne centrum danych (zarówno koszt stworzenia infrastruktury, jak i wyposażenia) stanowi istotną barierę, a w przypadku niepowodzenia biznesu bardzo szybko może sprowadzić firmę na dno. Wspomniany sposób rozliczania jest także preferowany przez partnerów – z reguły otrzymują od operatorów centrów danych comiesięczną prowizję za poleconych klientów lub współpracują z dostawcami usług w modelu white label, w ramach którego sami wykupują abonament i tworzą własne usługi z wykorzystaniem chmurowych zasobów. Tak duża swoboda i elastyczność zapewniają możliwość skupienia się na własnym biznesie i pozostawienie zarządzania infrastrukturą IT profesjonalistom.

 

Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/feed/ 0
Alstor: pamięci masowe mamy w DNA https://crn.sarota.dev/artykuly/alstor-pamieci-masowe-mamy-w-dna/ https://crn.sarota.dev/artykuly/alstor-pamieci-masowe-mamy-w-dna/#respond Mon, 19 Sep 2016 07:15:00 +0000 https://crn.pl/default/alstor-pamieci-masowe-mamy-w-dna/ Historia firmy Alstor zbiegła się w czasie z dynamicznym rozwojem systemów przechowywania danych. Dystrybutor przez prawie 30 lat istnienia na rynku wspiera swoich partnerów i ich klientów w doborze oraz wdrażaniu rozwiązań pamięci masowych gwarantujących ciągłość prowadzenia biznesu.

Artykuł Alstor: pamięci masowe mamy w DNA pochodzi z serwisu CRN.

]]>
W ofercie Alstor od samego początku znajdowały się twarde dyski. Obecnie są to zarówno popularne napędy firm Seagate i Toshiba, jak również zaawansowane dyski serwerowe marki HGST (obecnie część koncernu WD). Wśród nich szczególnie ciekawie prezentują się modele Helium. Dzięki wypełnieniu helem wnętrza obudowy zmniejszono w nich tarcie, co zapewniło zwiększenie liczby talerzy i ich pojemności, a równocześnie obniżenie zużycia energii (według deklaracji producenta – aż o 50 proc.). Obecnie w ofercie HGST można znaleźć dyski o pojemności nawet 10 TB.

Z portfolio firmy Tohisba dystrybutor poleca przede wszystkim dyski eSSD (SSD klasy enterprise) z rodziny PX Series. W jej skład wchodzi pięć modeli z interfejsem SAS przeznaczonych do zastosowań biznesowych, m.in. w serwerach poczty elektronicznej lub bazach danych, wirtualnych serwerach plików, a także macierzach dyskowych. Tak jak wszystkie rozwiązania Toshiby, modele z serii PX04 S cechuje wyjątkowa jakość i niezawodność. Wbudowane dwa porty SAS 12 GB/s zapewniają imponującą wydajność dla bloków o wielkości 4 kB (do 270 tys. IOPS podczas odczytu oraz do 125 tys. IOPS podczas zapisu).

Z kolei dyski marki LaCie są popularne przede wszystkim wśród użytkowników Maców, którzy oprócz wydajności i prostoty rozwiązań cenią również ich wygląd (urządzenia są sygnowane przez znanych projektantów, m.in. Neila Poultona). Ale wygląd to niejedyny atut produktów LaCie, bowiem marka ta jest również synonimem szybkości i niezawodności. Dyski wyposażone są w interfejs Thunderbolt o dużej przepustowości, charakteryzują się też wysoką odpornością na działanie czynników mechanicznych. Ciekawym modelem jest Rugged RAID – we wzmocnionej obudowie umieszczone są dwa dyski, które można połączyć w strukturę RAID 1 (kopia lustrzana), zwiększając bezpieczeństwo przenoszonych danych.

 

Systemy gromadzenia danych

Oferta Alstor przeznaczona dla zaawansowanych użytkowników nie ogranicza się do rozwiązań LaCie. Macierze dyskowe Promise Pegasus z powodzeniem zaadaptowała branża medialna – dzięki interfejsowi Thunderbolt trzeciej generacji można w nich uzyskać przepustowość do 40 Gb/s. To niezwykle efektywne narzędzie dla twórców i edytorów materiałów wideo i animacji, którzy pracują na ogromnych materiałach 3D czy 4K.

 

Alternatywą dla systemów z interfejsem Thunderbolt są macierze Promise z serii VTrak A-Class. W produktach tych połączono cechy i funkcje macierzy oraz systemu plików Big Data, dzięki czemu charakteryzują się m.in. łatwym dostępem do metadanych. Urządzenia zaprojektowano z myślą o profesjonalnych aplikacjach do edycji materiałów wideo wymagających wysokiej przepustowości i dużej liczby operacji I/O w czasie dostępu sekwencyjnego do dużych bloków danych. Według danych producenta dostarczają od 2 do 4 razy więcej nieskompresowanych strumieni HD niż konkurencyjne rozwiązania, bez utraty klatek. VTrak można rozbudowywać w miarę potrzeb – da się  podłączyć do niego dziewięć półek dyskowych JBOD i uzyskać pojemność przekraczającą 7 PB.

Klientom zainteresowanym macierzami dyskowymi Alstor poleca urządzenia marki Infortrend. Założona w 1993 r. firma Infortrend Corporation jest jednym z liderów rynku zaawansowanych rozwiązań pamięci masowych, a w wielu segmentach była prekursorem. Jako pierwsza wprowadziła na rynek macierz z interfejsem SATA, SAS i Fibre Channel 8 Gb/s oraz macierz z dyskami formatu 2,5”.

Dla małych i średnich firm Alstor ma w ofercie serię Infortrend EonStor DS 1000, która wyróżnia się najlepszym stosunkiem ceny do wydajności wśród dostępnych na rynku rozwiązań pamięci masowych RAID. Składające się na nią modele zostały wyposażone w cztery porty iSCSI 1 Gb/s (w każdym z kontrolerów), co ułatwia podłączenie większej niż w konkurencyjnych urządzeniach tej klasy liczby urządzeń i stworzenie rozbudowanej sieci np. monitoringu wideo. Rodzaj i liczbę interfejsów w macierzy można zwiększyć, rozbudowując ją o dodatkowe porty Fibre Channel 8 lub 16 Gb/s, iSCSI 10 Gb/s oraz SAS 6 lub 12 Gb/s.

Modele z tej serii oferowane są w różnych konfiguracjach, a elementy takie jak dyski, moduły BBU czy wentylatory można wymieniać metodą hot-swap. W standardzie są narzędzia i funkcje ochrony danych charakterystyczne dla rozwiązań klasy enterprise, takie jak: kopie migawkowe (snapshot), dynamiczne przydzielanie przestrzeni dyskowej (thin provisioning), automatyczne przenoszenie danych między warstwami nośników (automated storage tiering) oraz cache SSD.

 

Marcin Cichecki

Business Unit Director (UPS, Server & Storage), Alstor

W 1987 r., gdy powstał Alstor, wyprodukowano pierwsze dyski 10 MB o średnicy 3,5 cala. Dziś pojedyncze dyski mają pojemność nawet 10 TB, ale kwestia bezpiecznego przechowywania danych i udostępniania ich z dużą wydajnością nadal  stanowi wyzwanie. I chociaż Alstor przez te prawie trzy dekady wyspecjalizował się także w kilku innych dziedzinach, pamięci masowe wciąż stanowią trzon naszej oferty. Znajdują się w niej zarówno pojedyncze napędy, rozbudowane systemy dyskowe, jak i komponenty. Staramy się, aby każdy potencjalny klient znalazł u nas rozwiązanie dopasowane do rzeczywistych potrzeb, ale jednocześnie na tyle elastyczne, żeby późniejsza jego rozbudowa nie wiązała się z rewolucją w serwerowni.

 
Nie tylko dyski…

Poza urządzeniami dyskowymi Alstor oferuje szeroką gamę produktów taśmowych połączonych firm Overland Storage/Tandberg Data obejmującą pojedyncze napędy, zmieniacze i biblioteki taśmowe. StorageLoader to najprostsze, ekonomiczne rozwiązanie z jednym napędem LTO oraz ośmioma slotami na taśmy w obudowie 1U. Urządzenie jest kompatybilne z napędami LTO-5 i LTO-6. Dystrybutor ma w ofercie również nośniki taśmowe firm Fujifilm i Tandberg Data.

Rozwiązaniem pamięci masowej gwarantującym niezawodny i wygodny backup, idealnym dla małych i średnich przedsiębiorstw to Tandberg Data RDX QuikStor. Dzięki interfejsowi SuperSpeed USB 3.0 umożliwia osiągnięcie wydajności do 180 MB/s. Zastosowane w nim kartridże RDX łączą w sobie najlepsze cechy rozwiązań taśmowych i dyskowych. Do ich zalet należy szybki dostęp do danych, niezawodny, zautomatyzowany backup i odtwarzanie, odporna na wstrząsy i łatwa w przenoszeniu kasetka oraz czas życia archiwalnego przekraczający 10 lat.

 

Platformy serwerowe

Oprócz rozwiązań pamięci masowej, Alstor oferuje platformy serwerowe firm SuperMicro i ASRock Rack. W portfolio tego drugiego producenta znajdują się tzw. barebone’y, czyli obudowy serwerowe formatu 1U–3U z płytą główną i akcesoriami (mieszczą od 4 do 60 dysków), serwerowe płyty główne, ale również płyty główne do zaawansowanych stacji roboczych i serwerów wolno stojących.

Platformy serwerowe ASRock Rack są oferowane w wielu konfiguracjach, np. model 1U12LX-C612D4U/2T8R cechuje wysokie upakowanie dysków – w obudowie 1U mieści się ich 12. Płytę główną wyposażono w procesor z rodziny E5–1600/2600 (od 8 do 22 rdzeni), dzięki czemu uzyskano bardzo wysoką wydajność. W modelu tym zainstalowano redundantne zasilacze, co chroni urządzenia przed przestojem w wyniku awarii jednego z nich. Natomiast platforma serwerowa 3U8G-C612 umożliwia instalację aż ośmiu kart graficznych przy zainstalowanych tylko dwóch procesorach. Model ten cechuje bardzo efektywne chłodzenie, nawet przy pełnym wypełnieniu kartami PCIe. Dla wybranych platform serwerowych przewidziano dodatkową 2- lub 3-letnią gwarancję.

Kupioną platformę można przekształcić w serwer NAS za pomocą oprogramowania open source lub komercyjnych linuksowych dystrybucji autorstwa Open-E: JovianDSS i DSSv7. Zapewniają one zaawansowane funkcje, takie jak deduplikacja czy replikacja, oraz współpracę z korporacyjnymi systemami backupu. W Alstor dostępne są również kontrolery renomowanych producentów, m.in. Broadcom/Avago/LSI, Mellanox, Microsemi/Adaptec, QLogic, rozwiązania sieciowe Edimax i Silex oraz szeroka gama rozwiązań awaryjnego zasilania do pojedynczych stacji roboczych i dużych serwerowni (Eaton i Socomec).

Dodatkowe informacje:

Marcin Cichecki, Business Unit Director

(UPS, Server & Storage), Alstor,

m.cichecki@alstor.com.pl

Artykuł powstał we współpracy z firmą Alstor.

Artykuł Alstor: pamięci masowe mamy w DNA pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/alstor-pamieci-masowe-mamy-w-dna/feed/ 0