Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/kaminario/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Thu, 28 May 2020 09:42:00 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Pamięci masowe: ofensywa z Bliskiego Wschodu https://crn.sarota.dev/artykuly/pamieci-masowe-ofensywa-z-bliskiego-wschodu/ https://crn.sarota.dev/artykuly/pamieci-masowe-ofensywa-z-bliskiego-wschodu/#respond Thu, 28 May 2020 09:42:00 +0000 https://crn.pl/default/pamieci-masowe-ofensywa-z-bliskiego-wschodu/ Wprawdzie Izrael kojarzy się z nowymi technologiami, aczkolwiek rzadko firmy z tego kraju utożsamiane są z segmentem pamięci masowych. Tymczasem w Silicon Wadi działa co najmniej kilku obiecujących producentów z branży storage.

Artykuł Pamięci masowe: ofensywa z Bliskiego Wschodu pochodzi z serwisu CRN.

]]>
Obecnie na rynku pamięci masowych karty rozdają producenci ze Stanów Zjednoczonych i Azji. Niemniej warto przypomnieć, że takie systemy jak XtremIO czy Storwize wywodzą się właśnie z Izraela. Dopiero później ich rozwojem zajęły się EMC oraz IBM, które wyłożyły grube miliony dolarów na zakup obu start-upów. Uważni obserwatorzy rynku IT z pewnością spotkali się też z takimi izraelskimi produktami, jak Infinidat czy Ctera. Przy czym niewykluczone, że wkrótce nieco głośniej zrobi się o nowej fali producentów z Bliskiego Wschodu, takich jak Weebit Nano czy Lightbits Lab. W kwietniu z przedstawicielami wymienionych firm spotkałem się w wirtualnej przestrzeni (choć pierwotne plany zakładały wizytę w Tel Awiwie). Od razu warto nadmienić, że pokładają oni duże nadzieje w zmianach wywoływanych przez pandemię COVID-19.

Nie ma wątpliwości, że każda recesja przynosi ze sobą przetasowania na rynku nowych technologii. Doskonale to widać na przykładzie segmentu pamięci masowych. Nawet te przedsiębiorstwa, które znajdują się w trudnej sytuacji finansowej, nie mogą zatrzymać procesów związanych z przechowywaniem i przetwarzaniem danych. W takiej sytuacji poszukują tańszych, alternatywnych opcji. To właśnie dlatego po kryzysie finansowym 2007 –2009 nastąpił wzrost zainteresowania usługami chmurowymi. Firmy i instytucje przestały też kupować nadmiarową powierzchnię dyskową, co było normą na początku naszego stulecia. 

Moshe Yanai, CEO i założyciel Infinidat, zauważa, że w okresie recesji przedsiębiorcy dużo częściej są gotowi na podjęcie ryzyka i wybór tańszego rozwiązania, niż ma to miejsce w spokojnych czasach. W czasie wspomnianego kryzysu popyt na macierze z najwyższej półki, jak EMC VMAX czy IBM DS8000, wyraźne spadł, po czym przez cztery lata krzywe sprzedaży obu produktów pozostawały płaskie. Z kolei mało znana macierz IBM XIV, dzięki bardzo korzystnemu stosunkowi ceny TB do dolara, cieszyła się nadspodziewanym zainteresowaniem, a jej sprzedaż rosła w tempie wykładniczym. 

Trzy modele sprzedaży

Najlepiej rozpoznawalną izraelską marką na rynku storage’u jest Infinidat. Firma powstała w 2011 r., a jej założyciel to osoba doskonale znana w środowisku związanym z branżą pamięci masowych. Moshe Yanai spędził kilka lat w EMC, gdzie odpowiadał za rozwój macierzy Symmetrix. Później założył dwa startupy, Diligent Technologies oraz XIV, które zostały przejęte przez IBM. 

Infinidat oferuje rozwiązania do backupu dyskowego, replikacji, a także hybrydowe macierze dyskowe Infinibox. Te ostatnie są flagowym produktem tej marki. W ubiegłym roku na rynek trafił najnowszy model Infinibox F6300, wzorowany na pamięci masowej Bryce Canyon, opracowanej przez inżynierów Facebooka. W szafie 42U można uzyskać przestrzeń dyskową nawet do 10 PB. Infinibox wykorzystuje algorytm zarządzania pamięcią podręczną (neural cache), który w połączeniu z wydajnym układem danych zapewnia osiągnięcie wysokich przepustowości przy opóźnieniach liczonych w mikrosekundach. Jednak Moshe Yanai zdaje sobie sprawę, że w obecnych czasach, oprócz samego produktu, coraz bardziej liczy się model sprzedaży. Infinidat oferuje system w trzech opcjach: 
CAPEX, COD (Capacity on Demand) oraz FLX (OPEX).

Chcemy wesprzeć firmy, oferując im różne możliwości zakupu, począwszy od tradycyjnej formy sprzedaży, aż po sprzedaż zasobów na żądanie. Klient może zwiększyć lub zmniejszyć pojemność dyskową zgodnie z aktualnymi potrzebami, co stanowi szczególnie duży atut w czasie pandemii. W ostatnich miesiącach około 50 proc. naszych przychodów generuje model FLX – tłumaczy Dan Shprung, SVP EMEA w Infinidat.

Jak do tej pory izraelski producent sprzedał ponad 6 EB danych, z czego 3,7 EB w Ameryce Północnej, zaś 1,9 EB w regionie EMEA. To dość wyraźny progres, bowiem we wrześniu 2018 r. ilość sprzedanej powierzchni dyskowej przez Infinidat wynosiła 3,7 EB. Produkty firmy doceniają nie tylko klienci, ale również analitycy. W ubiegłym roku Infinidat znalazł się wśród liderów Magicznego Kwadrantu Gartnera, obrazującego sytuację na rynku macierzy hybrydowych oraz all-flash.

 

Kaminario ląduje w chmurze

Jeszcze kilka lat temu Kaminario konkurowało w segmencie systemów all-flash z Pure Storage, Violin Memory czy SolidFire. Jednak dwa lata temu firma zrezygnowała z produkcji sprzętu i tradycyjnego modelu sprzedaży. W ubiegłym roku Kaminario podpisało umowę z Tech Datą, na mocy której dystrybutor włączył do swojej oferty Storage as a Service usługę obsługi krytycznych aplikacji.

Przyszłość należy do multi cloudu. Z danych Gartnera wynika, że 81 proc. użytkowników usług chmurowych korzysta z oferty co najmniej dwóch dostawców. Przy czym 64 proc. firm decyduje się na taki krok ze względu na oszczędność kosztów – wylicza Dani Golan, CEO Kaminario. 

Platformę Kaminario tworzą trzy elementy: system operacyjny Vision OS, który odpowiada za optymalizację infrastruktury, narzędzie Clarity do analityki oraz Flex, realizujący zadania związane z automatyzacją i orkiestracją. Cały system jest przystosowany do współpracy z chmurami publicznymi AWS, Microsoft Azure i Google Cloud Platform. 

Rozwiązanie umożliwia zaoszczędzenie przynajmniej 30 proc. kosztów w porównaniu z usługami dostawców chmurowych. Naszą grupą docelową są klienci, którzy mają w chmurze publicznej co najmniej 100 TB danych – wyjaśnia Derek Swanson, CTO Kaminario. 

Skąd biorą się oszczędności? Firma wychodzi z założenia, że klient płaci jedynie za używane zasoby. Poza tym snapshoty, tworzone w chmurach publicznych, są pełnymi kopiami, zaś w przypadku Kaminario bazują na metadanych, a tym samym zajmują bardzo niewielką przestrzeń dyskową. Derek Swanson zwraca też uwagę, że najwięksi usługodawcy oferują rozwiązania, w których wydajność rośnie wraz z przydzieloną pojemnością, co prowadzi do zakupu nadmiarowych zasobów. Architektura Kaminario zapewnia oddzielenie pamięci masowej od mocy obliczeniowej w środowisku chmurowym, dzięki czemu klient może korzystać z usługi o bardzo wysokiej wydajności i niewielkiej powierzchni dyskowej. 

Nasz sposób postrzegania macierzy dyskowych all-flash jest inny niż jeszcze kilka lat temu. Wybraliśmy inną drogę niż Dell EMC, NetApp lub Pure Storage. To już nie jest nasza konkurencja – podkreśla Dani Golan. 

Pożegnanie z serwerem NAS

Ctera została założona w 2008 r. przez osoby wcześniej związane z Check Pointem. Ale jej założyciele postanowili rozstać się z rynkiem cyberbezpieczeństwa. Ctera od samego początku konsekwentnie stawia na hybrydowe pamięci masowe, łączące zasoby lokalne i chmurowe. W obecnej sytuacji, kiedy telepraca stała się standardem, atrakcyjność tego typu rozwiązań szybko rośnie. 

– Firmy, które chcą sobie poradzić w nowych warunkach, powinny dokonać zmian. Nadchodzi czas, w którym trzeba się pożegnać z tradycyjnymi serwerami NAS. W ich miejsce wchodzi innowacyjne oprogramowanie do obsługi plików, które łączy wydajność, a także bezpieczeństwo, począwszy od brzegu sieci aż do chmury publicznej – mówi Liran Ehsel, założyciel i CEO Ctera.

Izraelski producent opracował rozwiązanie Ctera Enterprise File Services Platform, którego rdzeń stanowi globalny system plików. Twórcy narzędzia zapewniają, że umożliwia ono ograniczenie kosztu przechowywania danych o 80 proc., w porównaniu z klasycznymi systemami NAS. Poza tym ułatwia współpracę między użytkownikami w zakresie wymiany dokumentów. Klienci nie muszą przy tym obawiać się, że pewnego dnia zabraknie powierzchni dyskowej. 
Ważnym komponentem platformy jest Ctera Portal, który odpowiada za realizacją zadań związanych z globalną koordynację działań, takich jak nadawanie praw dostępu i optymalizacja buforowanych danych. Z kolei agent Ctera Drive App, zainstalowany na komputerze lub urządzeniu mobilnym, zapewnia użytkownikom bezpieczny dostęp do nieograniczonej liczby plików w chmurze, tak jak gdyby były przechowywane lokalnie na pulpicie lub dyskach sieciowych. Trzeci element stanowi Ctera Edge Filer – brama łącząca pamięć lokalną z chmurową, a także funkcje ochrony danych. Może być oferowana w formie urządzenia fizycznego lub wirtualnego. 

 

Nowy pomysł na all-flash

Z kolei start-up Lightbits Labs powstał zaledwie cztery lata temu i od tego czasu pozyskał 55 mln dol. Na liście inwestorów znajdują się takie tuzy, jak Dell Technologies i Cisco, ale także Micron. Duże zainteresowanie ze strony wielkich koncernów może być pewnego rodzaju zaskoczeniem. Tym bardziej, że firma pracuje nad projektem związanym z systemami all-flash. Choć w tym segmencie rynku jest wyjątkowo tłoczno, Lightbits Labs włącza się do rywalizacji. Przedstawiciele start-upu twierdzą bowiem, że aż 50–85 proc. wydatków na pamięci flash to inwestycje nieuzasadnione. Lightbits Labs nie kryje fascynacji infrastrukturą IT używaną przez Amazona, Google’a czy Facebooka. Największym walorem tej architektury jest oddzielenie mocy obliczeniowej od storage’u. Takie rozwiązanie zapewnia proste i efektywne skalowanie powierzchni dyskowej, niezależnie od mocy obliczeniowej. Izraelski startup opracował LightOS – zdefiniowane programowo rozwiązanie pamięci masowej, które umożliwia przekształcenie serwera x86 z nośnikami NVMe w wydajny i skalowalny system pamięci masowej, działający jak lokalna pamięć flash. 

Zaprojektowaliśmy LightOS w taki sposób, żeby idealnie wpisywał się w potrzeby klienta. Podobnie jest z modelem biznesowym, uwzględniającym różne modele sprzedaży. Przedsiębiorstwa mogą kupić zarówno oprogramowanie, jak i SuperSSD, czyli serwer wraz z aplikacją – mówi Eran Kirzner, CEO Lightbits Labs.

SuperSSD zainstalowany jest na serwerze Dell PowerEdge R740xd 2U, który realizuje 5 mln operacji IO/s, przy opóźnieniu rzędu 150 µs. System LightOS wykorzystuje protokół NVMe-over TCP, co umożliwia zastosowanie istniejącego okablowania TCP/IP, a tym samym obniża koszty wdrożenia w porównaniu z alternatywnymi rozwiązaniami, np. przy wykorzystaniu RDMA (Remote Direct Memory Access).

Następca pamięci flash

Analitycy rynku IT już dziś zastanawiają się, jaka technologia w nieodległej przyszłości zastąpi pamięć flash. Do najpoważniejszych pretendentów zalicza się ReRAM, łączący w sobie szybkość działania RAM i możliwości zapisu oraz pojemności flash. Weebit Nano jest jednym z producentów pracujących nad rozwojem tej technologii. Ta izraelska firma powstała w 2015 r. i jest notowana na ASX – Australijskiej Giełdzie Papierów Wartościowych. 

– ReRAM bije pod kilkoma względami na głowę obecnie używane pamięci flash, będąc tysiąc razy szybsza, tysiąc razy bardziej energooszczędna i sto razy bardziej trwała – wylicza Coby Hanoch, CEO Weebit Nano. 

Technologia Weebit znajduje się w bardzo ciekawym punkcie. Półprzewodniki stanowią jeden z motorów napędowych gospodarki, każde elektroniczne urządzenie potrzebuje pamięci nieulotnej. Już wkrótce znajdą szereg zastosowań w pojazdach autonomicznych, robotyce, a także w Internecie rzeczy. 
 

Artykuł Pamięci masowe: ofensywa z Bliskiego Wschodu pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/pamieci-masowe-ofensywa-z-bliskiego-wschodu/feed/ 0
Flash będzie wszędzie https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/ https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/#respond Wed, 27 Nov 2019 07:05:00 +0000 https://crn.pl/default/flash-bedzie-wszedzie/ Lata twardych dysków wydają się policzone. Tak przynajmniej twierdzą producenci kości pamięci flash i trudno z nimi dyskutować. Chociaż bowiem statystycznie nośników mechanicznych wciąż instalowanych jest najwięcej, od 2014 r. widać bardzo wyraźny spadkowy trend ich sprzedaży. O dyskach SSD mówi się już, że będą wykorzystywane w każdej dziedzinie związanej z przechowywaniem danych, także w cyfrowych archiwach.

Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.

]]>
Wszyscy producenci klasycznych macierzy dyskowych mają już w ofercie modele all-flash. Na rynku są też dwie firmy – Pure Storage i Kaminario – które nigdy zwykłych macierzy nie produkowały, ale dzięki determinacji osiągnęły rynkowy sukces i są uznawane przez analityków Gartnera za liderów w swoim segmencie rynku. Rośnie także liczba zastosowań, w przypadku których świetnie sprawdzają się urządzenia wyposażone wyłącznie w dyski SSD. To efekt wydajności kilka razy większej niż ma to miejsce w przypadku tradycyjnych macierzy.

Wciąż jednak dyskusyjne jest stosowanie nośników SSD do przechowywania plików i ich backupu, szczególnie w typowym środowisku biurowym. W takim przypadku wzrost wydajności nie zrekompensuje znacznie wyższej ceny zarówno urządzenia, jak i znajdujących się w nim nośników. Macierze all-flash zupełnie nie sprawdzają się też w rozwiązaniach do monitoringu wideo, gdyż zapis w nich ma charakter ciągły i do tego jest wykonywany w trybie sekwencyjnym, a odczyt jest wyjątkowo rzadki. Jeszcze przez pewien czas zdecydowanie tańsza będzie zwykła macierz lub serwer NAS.

Pamięci flash niezmiennie charakteryzują się podstawową wadą, która w stosunkowo niewielkim stopniu dotyczy twardych dysków. Chodzi oczywiście o komórki pamięci, które podczas każdej operacji zapisu tracą elektroniczne właściwości. To sprawia, że w pewnym momencie nie są w stanie przechowywać danych. Ich trwałość określana jest w cyklach zapisu i kasowania. Dlatego dostawcy montują w dyskach SSD specjalne kontrolery, wyposażone w oprogramowanie, które dba o równomierne rozłożenie zapisu danych na całym nośniku, dzięki czemu minimalizowane jest prawdopodobieństwo częstego wykorzystania tych samych komórek pamięci. To szczególnie ważne ze względu na fakt, że kości produkowane w nowszych technologiach są wprawdzie coraz bardziej pojemne i tańsze, ale mniej trwałe – szczegóły w tabelce poniżej. Dlatego jakość zastosowanego w dysku SSD kontrolera i jego oprogramowania zaczęła być ważniejsza niż jakość samych komórek pamięci.

 

NVMe na fali

Interfejsy SATA i SAS, stosowane w dyskach SSD, wprowadzają ograniczenia związane z transferem danych, wśród których najbardziej znaczący jest limit jego prędkości. Dlatego już ponad dziesięć lat temu rozpoczęto prace zarówno nad nowym protokołem transmisji danych, jak i nowym interfejsem urządzeń. Dzięki temu powstał protokół NVMe (Non-Volatile Memory Express) oraz interfejsy M.2 i U.2, które umożliwiły podłączenie pamięci flash bezpośrednio do magistrali PCIe.
Protokół NVMe rozwiązuje problem powodowany przez jedno z podstawowych ograniczeń twardych dysków. Otóż w danym momencie przetwarzają one tylko jedno żądanie, bo głowica dysku nie może znajdować się w dwóch miejscach w tym samym czasie. Siłą rzeczy transfer danych ma w tym przypadku charakter sekwencyjny. Dlatego twórcy interfejsów stosowanych w dyskach w ogóle nie przewidzieli możliwości równoległego przesyłania większej ilości danych, z czym nie ma problemu w przypadku dysków SSD – w jednym cyklu teoretycznie zapewniają wykonanie nawet 64 tys. żądań odczytu.

 

 

 

 

 

Pojawienie się nośników NVMe ujawniło kolejne wąskie gardło, którym jest infrastruktura sieciowa. Dlatego konieczne było zaprojektowanie i wdrożenie protokołu sieciowego, który będzie w pełni zgodny z protokołem NVMe i w żaden sposób nie ograniczy wydajności tych nośników. Nazwano go NVMe-oF (NVM Express over Fabrics) i obecnie sterowniki większości nowych kart sieciowych są już z nim zgodne. Tym samym wdrożenie go w serwerach nie powinno stanowić problemu, choć nie są jeszcze na to gotowi wszyscy producenci macierzy dyskowych, także tych, w których wykorzystywane są nośniki NVMe. Zastosowanie tego typu nośników przynosi ogromną korzyść przede wszystkim w przypadku macierzy dyskowych. Eliminacja interfejsów i podłączenie nośników bezpośrednio do magistrali kontrolera macierzowego pozwoliłyby użytkownikowi na uzyskanie bardzo krótkiego czasu dostępu do danych za ułamek ceny, którą obecnie musi zapłacić za dużą macierz z setkami dysków.

Większość znanych producentów pamięci masowych wprowadziło już nośniki NVMe do swoich macierzy. Nie mają ich jedynie urządznia firm HPE i Fujitsu (obie umożliwiają wykorzystanie ich tylko jako cache SSD), ale zapowiedziano ich premierę na przyszły rok.

Na razie dyski NVMe bardzo dobrze sprawdzają się jako moduły pamięci masowej w rozwiązaniach infrastruktury hiperkonwergentnej oraz dyskiw zainstalowanych tam serwerach. Jednak pełnej popularyzacji dysków NVMe oraz protokołu NVMe-oF należy się spodziewać dopiero w perspektywie kilku najbliższych lat, gdy rozwiązanie to nabierze oczekiwanej w branży IT dojrzałości – mówi Jerzy Skiba, konsultant ds. pamięci masowych w Veracompie.

 

Stosowanie dysków NVMe w infrastrukturze serwerowej ma obecnie ograniczony sens także ze względu na architekturę aplikacji. Większość z nich nie jest gotowa na otrzymywanie tak dużej ilości danych w tak krótkim czasie. Zostały zaprojektowane ze „świadomością”, że dane będą spływały dość wolno ze zwykłych twardych dysków. To kolejna przyczyna, z powodu której nośniki NVMe mogą osiągnąć popularność dopiero za jakiś czas.

Dane na lata

Coraz więcej regulacji prawnych wymusza na firmach konieczność długoterminowego archiwizowania cyfrowych danych – czasem nawet przez kilkadziesiąt lat. Stwarza to wiele wyzwań natury technicznej oraz proceduralnej. Trudno bowiem dziś przewidzieć, z jakiego typu nośników będziemy korzystać za dziesięć lat i czy w ogóle będziemy w stanie „zrozumieć” zgromadzone dane.
Obecnie za najbardziej ekonomiczny, a jednocześnie zgodny z wymogami prawnymi nośnik najczęściej uznawane są taśmy. Od wielu lat wróży się im naturalną śmierć, ale coraz większa liczba ekspertów i analityków branży IT zauważa, że prawdopodobnie prędzej będziemy świadkami zmierzchu twardych dysków. Taśmy mają bowiem wiele zalet i tylko jedną wadę. Do tych pierwszych zaliczyć należy z pewnością fakt, że jest to nośnik wymienny, niezintegrowany z urządzeniem przeznaczonym do jego odczytu, dzięki czemu można go wywieźć z centrum danych i zdeponować w bezpiecznym miejscu, chociażby w bankowym schowku. Tym samym posiadanie bardzo dużej ilości archiwalnych danych w żaden sposób nie wpływa na wysokość rachunku za energię.

Co więcej, chociaż taśmy uważane są przez wielu za przestarzałe rozwiązanie, cały czas technologia zapisu danych na tym magnetycznym nośniku jest rozwijana. Obecnie na jednym kartridżu w standardzie LTO-8 można zapisać 12 TB „surowych” danych (przed kompresją), ale firmy zaangażowane w rozwój standardu LTO Ultrium (HPE, IBM i Quantum) zapowiedziały już jego kolejne cztery wersje. W każdej z nich pojemność jednej taśmy ma być podwajana – LTO-9 zmieści 24 TB, a dostępny w przyszłości LTO-12 aż 192 TB.

Kolejną zaletą taśm jest bezpieczeństwo zgromadzonych danych. Każdy nośnik jest dostępny w wersji WORM (Write Once, Read Many) – po włożeniu go do napędu taśmowego blokowana jest możliwość skasowania wybranych danych lub całej taśmy. Gwarantuje to ich niezmienność, wymaganą przez wiele przepisów. Każde oprogramowanie do backupu ma także funkcję szyfrowania kopiowanych informacji, więc ewentualna kradzież nośnika nie pociąga za sobą żadnych konsekwencji.

 

 

Wadą taśm jest natomiast to, że trzeba nimi w umiejętny sposób zarządzać. Konieczne jest stosowanie oprogramowania indeksującego gromadzone dane, bo bez niego znalezienie właściwego nośnika, szczególnie gdy archiwum jest pokaźnych rozmiarów, graniczy z cudem. Również czas dostępu do danych jest dłuższy niż w twardych dyskach (trzeba znaleźć taśmę, załadować ją do napędu, przewinąć i odczytać dane), ale w przypadku danych z archiwów, do których sięga się nizbyt często, nie stanowi to wielkiego problemu.

Mimo że płyty optyczne coraz rzadziej wykorzystywane są jako nośnik danych przez użytkowników prywatnych i pracowników biur, nadal sprawdzają się w zastosowaniach archiwizacyjnych. Dla przykładu, Panasonic gwarantuje, że na produkowanych przez niego płytach Freeze-Ray można długo przechowywać dane, według przeprowadzonych symulowanych testów nawet przez 100 lat. Zapewniona jest także kompatybilność wsteczna dla odczytu, dzięki której nie ma konieczności systematycznego kopiowania danych na nośniki nowszej generacji.

Płyty to wciąż ciekawa opcja, jeśli chodzi o długoterminowe przechowywanie danych, np. medycznych. Także my daliśmy użytkownikom możliwość integracji tego typu nośników z naszymi serwerami NAS, aby rozszerzyć ich funkcjonalność – mówi Grzegorz Bielawski, Country Manager polskiego oddziału QNAP.

Niektóry producenci systemów pamięci masowych wybiegają daleko w przód, jeśli chodzi o wizje systemów archiwizacyjnych. Jak wspomnieliśmy, największym problemem związanym z pojemnymi
kośćmi pamięci flash jest ograniczona liczba cykli zapisu. Ale w przypadku archiwów wielokrotny zapis nie jest potrzebny. Dlatego teoretycznie nic nie stoi na przeszkodzie, żeby stworzyć bardzo pojemne nośniki SSD, których trwałość wystarczy np. na pięciokrotny zapis danych. Ich cena byłaby zdecydowanie niższa niż oferowanych obecnie dysków flash, a szybkość dostępu do archiwum biłaby wszelkie rekordy.

Nierozwiązana natomiast pozostaje kwestia gwarancji zrozumienia danych w plikach przechowywanych przez dziesiątki lat w cyfrowym archiwum. Oczywiście można założyć, że popularne formaty, w których przechowywana jest grafika czy dokumenty, przetrwają albo powstaną odpowiednie konwertery. Gdy jednak firma z jakiegoś powodu korzysta z własnego formatu danych, konieczne jest zapewnienie jego bardzo szczegółowej dokumentacji, aby w przypadku wycofania danego oprogramowania z użytku możliwe było stworzenie odpowiedniego konwertera.

 

Zdaniem specjalisty

Magdalena O’Dwyer, Product Manager, Synology

Widzimy nieustannie rosnące zainteresowanie macierzami all-flash. Wyzwaniem pozostaje jedynie bardzo częste pojawianie się nowych standardów zapisu w pamięciach flash, co prowadzi do wielu nieporozumień dotyczących przede wszystkim trwałości nośników. Dlatego zawsze zalecamy skrupulatną weryfikację kompatybilności nabywanych nośników z posiadanymi macierzami oraz rezygnację z kupowania  najtańszych dysków, co do trwałości których można mieć wątpliwości.

Wojciech Wróbel, Presales Manager, Fujitsu

Archiwizacja na taśmach sprawdza się przede wszystkim w przypadku bardzo dużych repozytoriów, gdzie korzyści, chociażby nie pobieranie prądu przez nośniki, są rzeczywiście odczuwalne. Widzę jednak kilka scenariuszy, w których z klasycznymi taśmami wygrają macierze dyskowe pełniące funkcję wirtualnych bibliotek taśmowych lub NAS-ów ze specjalnym oprogramowaniem wspierającym procesy archiwizacji cyfrowych danych. Ich zastosowanie ma sens tam, gdzie archiwum jest niewielkie, a klienci muszą relatywnie często uzyskiwać dostęp do danych, na przykład w celu ich analizy umożliwiającej wyciąganie wniosków pomocnych w podejmowaniu decyzji biznesowych.

Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud

Operator usług chmurowych powinien zapewniać pełne bezpieczeństwo zgromadzonych danych oraz zgodność procesów ich przetwarzania z obowiązującymi przepisami. RODO wymaga, aby nie opuszczały one Unii Europejskiej i nigdy nie były dostępne dla niepowołanych osób ani wykorzystywane w żaden niewłaściwy sposób. Dzięki temu klienci mogą bezpiecznie powierzyć integratorom wszelkie dane i zachować pewność, że nie narażą się na kary. Dodatkowym argumentem dotyczącym bezpieczeństwa jest deklaracja ze strony usługodawcy, że gwarantuje zgodność swoich praktyk z Kodeksem Postępowania CISPE, czyli Europejskiego Zrzeszenia Dostawców Usług Chmurowych.

 

 

Z centrum danych do chmury

Już od niemal dekady wzrost ilości generowanych i przechowywanych przez firmy danych nie idzie w parze ze wzrostem środków przeznaczonych na systemy pamięci masowych. Budżety są relatywnie stałe, co powoduje, że przedsiębiorcy muszą szukać sposobów redukcji objętości danych (do najpopularniejszych należą deduplikacja i kompresja) lub innych sposobów ich przechowywania. W tej dziedzinie wiele do zaoferowania mają dostawcy rozwiązań chmurowych. Ostatnie lata wyłoniły niekwestionowanych liderów tego rynku. Jako pierwszy swoje usługi Simple Storage Services (S3) zaczął oferować Amazon Web Services. Później dołączył do niego Microsoft (Azure Storage), a następnie Google z usługą Cloud Storage.

Początkowo jednak usługodawcy nie dysponowali globalną infrastrukturą, która zapewniłaby małe opóźnienia w transmisji danych, a także zgodność z regulacjami prawnymi. W efekcie mogliśmy zaobserwować pojawianie się lokalnych – polskich lub europejskich – usługodawców zapewniających, że oferują usługi pamięci masowych w chmurze. Wierzyli oni, że na powodzenie ich działalności wpłynie projektowane wówczas RODO oraz cały czas aktualizowane ustawodawstwo branży medycznej i finansowej.

Realia rynkowe zweryfikowały jednak ich ofertę i model działalności chmurowej. Naturalnie niemożliwe było osiągnięcie takiego efektu skali jak najwięksi na tym rynku, siłą rzeczy różnice cenowe też były znaczne. Trudno było także określić poziom bezpieczeństwa infrastruktury zapewniany przez rodzimych dostawców. Mocnym argumentem pozostawała zgodność z regulacjami prawnymi, ale wraz z rozszerzaniem działalności globalnych dostawców na kolejne kraje i kontynenty – w tym otwieranie lokalnych centrów danych lub podpisywanie umów partnerskich z działającymi już wcześniej niezależnymi operatorami centrów danych – przestało to mieć kluczowe znaczenie. Prawnicy największych usługodawców chmurowych dokonali wielu ekspertyz, które dowodzą, że korzystanie z ich usług w większości przypadków nie narusza lokalnego prawa. Duże koncerny zaczęły także wygrywać publiczne, lokalne przetargi. Przykładem z polskiego podwórka jest przesyłanie Jednolitych Plików Kontrolnych do Ministerstwa Finansów w usłudze Microsoft Azure. Natomiast dla przedsiębiorców koronnym argumentem – jak w przypadku większości innych decyzji związanych z infrastrukturą IT – stała się cena.

 

Bloki, pliki i obiekty

Dane w infrastrukturze chmury publicznej – podobnie jak na twardych dyskach serwerów i macierzy dyskowych w lokalnej serwerowni – mogą być przechowywane w blokach, obiektach i plikach. Model blokowy, znany przede wszystkim z sieci Storage Area Network, wykorzystywany jest głównie do udostępniania baz danych i środowisk wirtualnych. Natomiast chmurowe serwery plików służą przede wszystkim do dzielenia się nimi ze współpracownikami lub osobami z zewnątrz (partnerami biznesowymi, klientami itp.).

Jednak najpopularniejszy w chmurze i gwarantujący największą elastyczność stał się model obiektowy. Dzięki dodatkowej warstwie wirtualizacyjnej użytkownika nie obchodzi, w jaki techniczny sposób przechowywana jest dana informacja. Interesuje go jedynie konkretny obiekt – utwór muzyczny, grafika, wideo, repozytorium kopii zapasowych, zreplikowana baza danych itd. Główną zaletą takiej formy składowania danych jest ogromna skalowalność, zarówno pod względem liczby obiektów, jak i ich rozmieszczenia geograficznego (komunikujące się ze sobą serwery mogą znajdować się na różnych kontynentach i replikować między sobą dane, aby zagwarantować użytkownikowi dostęp do nich bez opóźnień).

W większości przypadków za korzystaniem z chmurowych usług przechowywania danych przemawia płatność za rzeczywiście wykorzystane zasoby. Ma to szczególne znaczenie dla mniejszych przedsiębiorstw, w których inwestycja we własne centrum danych (zarówno koszt stworzenia infrastruktury, jak i wyposażenia) stanowi istotną barierę, a w przypadku niepowodzenia biznesu bardzo szybko może sprowadzić firmę na dno. Wspomniany sposób rozliczania jest także preferowany przez partnerów – z reguły otrzymują od operatorów centrów danych comiesięczną prowizję za poleconych klientów lub współpracują z dostawcami usług w modelu white label, w ramach którego sami wykupują abonament i tworzą własne usługi z wykorzystaniem chmurowych zasobów. Tak duża swoboda i elastyczność zapewniają możliwość skupienia się na własnym biznesie i pozostawienie zarządzania infrastrukturą IT profesjonalistom.

 

Artykuł Flash będzie wszędzie pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/flash-bedzie-wszedzie/feed/ 0
Tech Data: nowy pomysł na all-flash https://crn.sarota.dev/artykuly/tech-data-nowy-pomyl-na-all-flash/ https://crn.sarota.dev/artykuly/tech-data-nowy-pomyl-na-all-flash/#respond Mon, 15 Jul 2019 21:09:00 +0000 https://crn.pl/default/tech-data-nowy-pomyl-na-all-flash/ Wprawdzie ceny pamięci flash spadają w szybkim tempie, jednak wciąż wiele firm wstrzymuje się przed inwestycjami w macierz all-flash. Tech Data wraz z firmą Kaminario proponują alternatywę rozwiązanie - „Storage as a Service” do obsługi krytycznych aplikacji biznesowych.

Artykuł Tech Data: nowy pomysł na all-flash pochodzi z serwisu CRN.

]]>
Choć „Storage as a Service” jest usługą oferowaną przez wielu dostawców,  alians Tech Daty i Kaminario zasługuje na uwagę z  kilku powodów. Z punktu widzenia resellerów oraz integratorów szczególnie istotne jest zaangażowanie dużego dystrybutora w sprzedaż usług bazujących na rozwiązaniu szerzej nieznanego na globalnym rynku vendora. Niemniej to znak obecnych czasów. 

– Jeszcze do niedawna model funkcjonowania naszego biznesu był dość prosty.  Realizowaliśmy kontrakt, a potem wystawialiśmy fakturę na 5 mln dolarów. Aczkolwiek to zaczyna się zmieniać, coraz częściej  rozkładamy te 5 mln dolarów na kilka miesięcy albo dłuższy okres czasu. Musimy dostosowywać się do nowych realiów i budować globalny biznes bazujący na usługach. –  tłumaczył John O’Shea, Senior Vice President, Global Lifecycle Management w Tech Data.

Dystrybutor zdaje sobie sprawę z faktu, że nowe modele sprzedaży oraz usług nie zastąpią całkowicie tradycyjnych rozwiązań i  potrzeba sporo czasu na ich adaptację. John O’Shea przedstawił proces transformacji na przykładzie tzw. modelu ryby.  Każda firma wprowadzająca do oferty usługi subskrypcyjne  musi przełknąć „rybę”.  Przedsiębiorca przed uruchomieniem subskrypcji posiada ustabilizowany poziom przychodów i kosztów. Niemniej wprowadzanie zmian sprawia, że dochodzi do zachwiania  bilansu.  Rosnąca popularność oferty „as a service” powoduje spadek przychodów uzyskiwanych z tradycyjnej sprzedaży.  Jednocześnie rosną wydatki potrzebne za pozyskanie i utrzymanie subskrybentów. Poza tym trzeba dodatkowo sfinansować działanie nowego zespołu, analitykę, a czasami rozbudowę centrum danych. Koszty rosną, a do kasy wpływa mniej pieniędzy. Jeśli transformacja zakończy się powodzeniem, przedsiębiorstwo powraca do dobrej kondycji finansowej. 

 – Proces ten musi być jak najkrótszy. Powinniśmy zrobić wszystko, żeby ryba była jak najchudsza. – wyjaśniał – John O’Shea

Dlaczego Tech Data wybrała właśnię Kaminario? Dystrybutor chce odciążyć firmy technologiczne od kompleksowych usług związanych z zarządzaniem cyklem życia produktów i obsługi klientów. To pozwoli mniej znanym, aczkolwiek dobrze rokującym  producentom skoncentrować się na rozwoju produktów. 

Kaminario: firma z doświadczeniem

Kaminario nie jest nowicjuszem na rynku pamięci masowych.  Izraelska firma powstała w 2008 roku i specjalizuje się w opracowywaniu systemów all-flash. Warto zaznaczyć, że fundusze Venture Capital  wpompowały w nią  224,5 milionów dolarów.  Jeszcze do niedawna Kaminario rywalizowało z Pure Storage czy SolidFire o palmę pierwszeństwa wśród startupów projektujących macierze all flash.  Losy wymienionych firm potoczyły się różnie. Kaminario w międzyczasie zmieniło strategię, przechodząc od tradycyjnej sprzedaży sprzętu do modelu subskrypcyjnego, w którym oferuje oprogramowanie.  Umowa z Tech Datą stanowi kolejny krok na drodze ewolucji izraelskiego dostawcy. 

– Nasze rozwiązanie Storage as a Service  łączy prostotę i sprawność chmury publicznej z wydajnością systemu pamięci masowej adresowanej dla wymagających użytkowników biznesowych.  Współpraca z Tech Data pozwala nam zastosowanie elastycznego modelu sprzedaży. – mówił Dani Golan, CEO i założyciel Kaminario

Według Kaminario wiele firm wdrażających systemy pamięci masowych źle alokuje środki, przepłacając za nieużywaną powierzchnię dyskową.  W przypadku powierzchni  1,2 PB może to być nawet 55 proc. Natomiast subskrypcja pozwala na ograniczenie do minimum zbędnych wydatków. 

Kaminario zapewnia, że jego rozwiązanie jest tańsze o około 30 proc. od AWS. Dlaczego zatem firma nie chce rozpocząć bezpośredniej współpracy z Amazonem?

– Wierzymy w multi-cloud i nie zamierzamy wiązać się z jednym dostawcą usług chmurowych. Poza tym AWS nie jest we wszystkich najlepszy.  Obsługa aplikacji krytycznych nie jest ich najmocniejszą stroną – przekonywał Dani Golan. 

Platforma Kaminario składa się z trzech elementów systemu Vision OS – przeznaczonego do optymalizacji zasobów pamięci masowych, Clarity – odpowiada za analitykę i uczenie maszynowe oraz Flex – automatyzacja i orkiestracja.  Firma wychodzi z założenia, że to w obecnych czasach pierwszorzędną rolę w centrach danych odgrywa oprogramowanie.  Warto dodać, ze Kaminario i Tech Data mogą wdrożyć rozwiązanie w lokalnej serwerowni. 

Partnerzy mają na koncie pierwsze pilotażowe projekty. Niewykluczone, że za jakiś czas podobne usługi pojawią się na rodzimym rynku. 

 

 

 

Artykuł Tech Data: nowy pomysł na all-flash pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/tech-data-nowy-pomyl-na-all-flash/feed/ 0
Duży zastrzyk finansowy dla Kaminario https://crn.sarota.dev/aktualnosci/duzy-zastrzyk-finansowy-dla-kaminario/ https://crn.sarota.dev/aktualnosci/duzy-zastrzyk-finansowy-dla-kaminario/#respond Thu, 12 Jan 2017 08:02:00 +0000 https://crn.pl/default/duzy-zastrzyk-finansowy-dla-kaminario/ Kaminario, izraelski startup opracowujący macierze all-flash, otrzymał 75 milionów dolarów od funduszy venture capital.

Artykuł Duży zastrzyk finansowy dla Kaminario pochodzi z serwisu CRN.

]]>
Pozyskane środki mają pomóc m.in  w dalszym rozwoju systemu K2 oraz  ekspansji na rynek europejski. Na liście inwestorów Kaminario znajdują się takie fundusze jak: Sequoia Capitals, Globespan Capital Partners, Tenaya, Pitango i  Mitsui Global Investment. Jak do tej pory  wpompowały one w startup 218  mln dol. – Nowe środki finansowe pozwolą nam kontynuować naszą globalną ekspansję i przyspieszyć wdrażanie innowacji. Chcemy m.in zaistnieć na rynku europejskim. –  tłumacz Dani Golan, CEO i założyciel Kaminario

Flagowym produktem firmy jest macierz K2.  Maksymalną konfigurację można uzyskać poprzez połączenie czterech bloków, uzyskując pojemność 1,44 petabajta danych oraz milion operacji IOPS. 

Sprzedaż systemu wspiera program K-Assured, gwarantujący zaspokojenie potrzeb nabywców w zakresie pojemności, wydajności oraz dostępności systemu. K2 konkuruje z takimi produktami jak XtremIO, IBM Flash System czy FlashArray firmy Pure Storage.

Według prognoz IDC stopa CAGR dla globalnego rynku macierzy all-flash wyniesie w latach 2015-2020 21,4%, będąc najszybciej rosnącym segmenten rynku pamięci masowych 

Kaminario liczy, że popyt generować będą rosnąca popularność Internetu Rzeczy, cloud computing

 

Artykuł Duży zastrzyk finansowy dla Kaminario pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/aktualnosci/duzy-zastrzyk-finansowy-dla-kaminario/feed/ 0