Deprecated: Creation of dynamic property ACF::$fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields.php on line 138

Deprecated: Creation of dynamic property acf_loop::$loops is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 28

Deprecated: Creation of dynamic property ACF::$loop is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/loop.php on line 269

Deprecated: Creation of dynamic property ACF::$revisions is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/revisions.php on line 397

Deprecated: Creation of dynamic property acf_validation::$errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 28

Deprecated: Creation of dynamic property ACF::$validation is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/validation.php on line 214

Deprecated: Creation of dynamic property acf_form_customizer::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 28

Deprecated: Creation of dynamic property acf_form_customizer::$preview_fields is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 29

Deprecated: Creation of dynamic property acf_form_customizer::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-customizer.php on line 30

Deprecated: Creation of dynamic property ACF::$form_front is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-front.php on line 598

Deprecated: Creation of dynamic property acf_form_widget::$preview_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 34

Deprecated: Creation of dynamic property acf_form_widget::$preview_reference is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 35

Deprecated: Creation of dynamic property acf_form_widget::$preview_errors is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/forms/form-widget.php on line 36

Deprecated: Creation of dynamic property KS_Site::$pingback is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Site.php on line 180

Deprecated: Creation of dynamic property acf_field_oembed::$width is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 31

Deprecated: Creation of dynamic property acf_field_oembed::$height is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-oembed.php on line 32

Deprecated: Creation of dynamic property acf_field_google_map::$default_values is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-google-map.php on line 33

Deprecated: Creation of dynamic property acf_field__group::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/includes/fields/class-acf-field-group.php on line 31

Deprecated: Creation of dynamic property acf_field_clone::$cloning is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 34

Deprecated: Creation of dynamic property acf_field_clone::$have_rows is deprecated in /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php on line 35

Deprecated: Creation of dynamic property Timber\Integrations::$wpml is deprecated in /home/sarotaq/crn/wp-content/plugins/timber-library/lib/Integrations.php on line 33

Warning: Cannot modify header information - headers already sent by (output started at /home/sarotaq/crn/wp-content/plugins/advanced-custom-fields-pro/pro/fields/class-acf-field-clone.php:34) in /home/sarotaq/crn/wp-includes/feed-rss2.php on line 8
- CRN https://crn.sarota.dev/tag/sunnyvale/ CRN.pl to portal B2B poświęcony branży IT. Dociera do ponad 40 000 unikalnych użytkowników. Jest narzędziem pracy kadry zarządzającej w branży IT w Polsce. Codziennie nowe informacje z branży IT, wywiady, artykuły, raporty tematyczne Tue, 14 Jun 2022 15:37:22 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.6.2 Wielkie pieniądze na wielkie zbiory danych https://crn.sarota.dev/artykuly/wielkie-pieniadze-na-wielkie-zbiory-danych/ Tue, 28 Jun 2022 09:15:00 +0000 https://crn.pl/?p=278855 Amerykańscy inwestorzy w ostatnim czasie przykręcili kurki z pieniędzmi dla technologicznych startupów. Jednak autorzy ciekawych pomysłów nadal mogą liczyć na przychylność funduszy venture capital.

Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.

]]>
Tegoroczne miesiące nie są zbyt pomyślne dla młodych, innowacyjnych firm. Według danych zebranych przez Layoffs.fyi od stycznia blisko pięćdziesiąt amerykańskich startupów dokonało znaczących zwolnień. Oczywiście nie wszyscy mają tego typu problemy. Przykładowo Observe, startup z San Mateo, otrzymał w maju zastrzyk finansowy w wysokości 70 mln dolarów. W sumie firma o pięcioletnim stażu zdążyła zainkasować do tej pory 114,5 mln dolarów. Przy czym trzeba jednak przyznać, że nie bez znaczenia jest fakt, iż jej założycielem jest znany fundusz Sutter Hill Ventures, który ostatnimi czasy mocno wspierał Snowflake.

Observe udostępnia w modelu chmurowym narzędzia do analizy rozproszonych danych i na podstawie uzyskiwanych informacji rozpoznaje problemy związane z działaniem aplikacji oraz infrastruktury. Rozwiązanie to ma docelowo zastąpić oprogramowanie takich firm, jak Splunk, New Relic oraz Datadog.

– Wierzymy, że produkty do analizy dzienników, a także monitorowania i zarządzania wydajnością aplikacji, zostaną połączone w nowy segment rozwiązań związanych z tak zwaną obserwowalnością. Nie ma powodu, dla którego do rozwiązywania problemów z aplikacjami lub infrastrukturą mielibyśmy używać kilku oddzielnych systemów. Obecnie większość dużych firm posiada co najmniej trzy tego typu narzędzia. Problem polega na tym, że dane są pofragmentowane i trudno zobaczyć, co się z nimi dzieje – tłumaczy Jeremy Burton, CEO Observe, wcześniej dyrektor marketingu Symanteca oraz w Dell EMC.

Obserwowalność to rozszerzenie pojęcia monitoringu infrastruktury IT na wszystkie komponenty środowiska aplikacyjnego – począwszy od sprzętu, aż po warstwę użytkownika. Bazuje ona na trzech filarach: dziennikach rejestrujących zdarzenia, metrykach dostarczających najważniejsze pomiary dotyczące wydajności i śladach działania oprogramowania. W rezultacie łatwiej jest zdiagnozować problem, a także przyczyny jego zaistnienia i skutki.

– Chcemy odejść od tradycyjnego podejścia silosowego, gdzie oddzielne zespoły specjalistów śledzą swój własny odcinek. To zła metoda, bowiem w rezultacie nikt nie ma dostępu do całościowego obrazu – dodaje Jeremy Burton.

Specjaliści z Observe, aby lepiej zobrazować nowy sposób analizy, posługują się metaforą nawiązującą do awarii domowego oświetlenia. Problem można, rzecz jasna, rozwiązać poprzez kucie ścian i śledzenie przewodów aż do wykrycia źródła problemu. Jednak bardziej wydajną i łatwiejszą metodą na wykrycie usterki byłoby zebranie wszystkich danych pochodzących z całego układu elektrycznego. Jeśli system jest obserwowalny, takie podejście powinno doprowadzić do ustalenia źródła uszkodzenia.

Observe oferuje usługę w modelu chmurowym, a klient płaci wyłącznie za to, z czego korzysta. W przypadku tego startupu wszystkie informacje o zdarzeniach gromadzone są w magazynie danych Snowflake’a. Jak do tej pory Observe zarządza około 10 petabajtami danych i realizuje codziennie 2,5 miliona zapytań.

Sztuczna inteligencja jako usługa

Startup SambaNova Systems powstał pięć lat temu, a jego założycielami są Rodrigo Liang (wcześniej związany z Oracle) oraz dwóch profesorów z Uniwersytetu Stanforda: Kunle Olukotuna, jeden z ojców procesora wielordzeniowego, jak też Chris Ré, laureat prestiżowej nagrody Mac-Arthura. Wartość firmy wycenia się na 5 mld dolarów, co oznacza, że znajduje się w „klubie” jednorożców. Jak do tej pory inwestorzy zasilili startup sumą 1,1 mld dolarów.

SambaNova Systems działa w trudnym segmencie superkomputerów AI i rywalizuje na tym polu między innymi z Nvidią czy Graphcore.

– Tradycyjne jednostki CPU czy procesory graficzne bazują na przetwarzaniu transakcyjnym, zaś praca ze sztuczną inteligencją polega przede wszystkim na trenowaniu modeli za pomocą zestawów danych i obsłudze sieci neuronowych. Dlatego też GPU oraz CPU nie do końca potrafią sprostać wymaganiom AI – tłumaczy Marshall Choy, wiceprezes SambaNova Systems.

Strartup z Palo Alto opracował własną jednostkę Cardinal SN10, wykonaną przez TSMC w 7-nanometrowym procesie technologicznym. W obudowie o rozmiarach 708 mm2 mieści się niespełna 40 miliardów tranzystorów. Każdy chip Cardinal posiada sześć kontrolerów pamięci zapewniających przepustowość 153 GB/s. Co istotne, SambaNova Systems, w przeciwieństwie chociażby do Nvidii, nie sprzedaje swoich chipów samodzielnie, lecz stanowią one część kompleksowego systemu. Podstawowa konfiguracja DataScale SN10–8R bazuje na serwerze z AMD z 12 TB pamięci DDR4–3200 oraz ośmiu chipach Cardinal SN10. Serwer korzysta z dystrybucji Linuksa powiązanej z oprogramowaniem SambaNovaFlow. Co ciekawe, część działań firmy z Palo Alto koncentruje się na rozwoju oferty Dataflow as a Service (DFaaS).

– Klienci chcą się koncentrować na wynikach i celach biznesowych, a nie integracji infrastruktury IT i budowaniu wielkich zespołów zajmujących się optymalizacją, dostrajaniem i konserwacją modeli AI. Nie chcą się dodatkowo martwić o warstwę techniczną – podkreśla Marshall Choy.

Potwierdzają to wyniki badań przeprowadzonych przez SambaNova Systems. Połowa respondentów twierdzi, że największą przeszkodą w rozwoju projektów AI oraz uczenia maszynowego jest trudność związana z dostosowaniem modeli, a co czwarty wymienia złożoność architektury obliczeniowej. Z kolei 28 proc. wskazuje na brak wykwalifikowanych pracowników. Jak by zatem nie patrzeć, kalifornijski startup ma bardzo szerokie pole do popisu.

Z jego oferty DFaaS mogą korzystać chociażby placówki medyczne, a SambaNova Systems dostrzega szczególnie możliwości w zakresie diagnostyki i wykrywania nowotworów, na przykład podczas analizy obrazów medycznych. Nie mniej obiecujący jest sektor finansowy. Pod koniec ubiegłego roku startup zawarł strategiczne partnerstwo z węgierską grupą bankową OTP oraz Ministerstwem Innowacji i Technologii Węgier. Partnerzy wyznaczyli sobie bardzo ambitny cel, jakim jest stworzenie najszybszego w Europie superkomputera bazującego na sztucznej inteligencji. System ma w krótkim czasie przetwarzać ogromne ilości informacji i danych tekstowych, co pozwoli na przyspieszenie i większą personalizację usług finansowych.

Uratowali Ubera

To już niestety norma, że klienci stają się coraz bardziej niecierpliwi, a ich wymagania rosną z roku na rok. Jeśli dostawca produktu bądź usługi nie umie zaspokoić ich oczekiwań, błyskawicznie szukają alternatywy. Suresh Sathyamurthy, CMO firmy SingleStore, na potwierdzenie tej tezy przywołuje przykład Ubera. Użytkownik aplikacji, zanim wsiądzie do samochodu, otrzymuje informacje o cenie przejazdu. Jeszcze do niedawna usługodawca zastrzegał, że ostateczna opłata może się nieznacznie różnić od tej przesłanej przed rozpoczęciem kursu. To wywoływało irytację wśród części klientów, co groziło ich rychłą utratą. Szefowie Ubera, aby zażegnać problem, sięgnęli po rozwiązanie SingleStore.

Ten startup z San Francisco powstał w 2019 roku jako MemSQL i początkowo opracowywał bazy in-memory. Jednak poźniej jego produkt zaczął ewoluować w nieco innym kierunku. Obecnie SingleStore oferuje ujednoliconą bazę do obsługi obciążeń transakcyjnych i analitycznych z rozdzieleniem możliwości przechowywania i obliczeń oraz systemu zapisu. Baza uruchamia szybkie zapytania analityczne w dużych, stale zmieniających się zestawach danych. SingleStore twierdzi, że jego baza danych może przetwarzać bilion wierszy na sekundę. Startup zapewnia, że jego klienci nie potrzebują już oddzielnych operacyjnych i analitycznych systemów bazodanowych. Jednym z przykładów jest General Electric, który zrezygnował z baz danych kil-ku dostawców właśnie na rzecz SingleStore.

Wspomniany wcześniej przypadek Ubera to tylko jedno z wielu zastosowań ujednoliconej bazy danych. Rozwiązanie równie dobrze sprawdza się w mediach, gdzie potrzebna jest analiza sposobów zachowania i doświadczeń milionów użytkowników w czasie rzeczywistym, a także w świecie finansów, gdzie zapobiega różnego rodzaju oszustwom.

Na liście klientów SingleStore, oprócz wymienionych wcześniej firm, znajdują się między innymi Akamai, Comcast, Hulu czy Sony. Oprogramowanie SingleStore może być wdrażane lokalnie, w chmurach prywatnych lub publicznych i jest oferowane w modelu subskrypcyjnym. Startup w ubiegłym roku otworzył centrum innowacji w Raleigh w Północnej Karolinie, które ma mu pomóc w dalszym rozwoju. Warto też dodać, że w kwietniu do grona resellerów SingleStore dołączył IBM.

Artykuł Wielkie pieniądze na wielkie zbiory danych pochodzi z serwisu CRN.

]]>
Pamięci masowe: startupy podkręcają tempo https://crn.sarota.dev/artykuly/pamieci-masowe-startupy-podkrecaja-tempo/ Thu, 12 May 2022 08:15:00 +0000 https://crn.pl/?p=276322 Obserwując niektóre startupy z branży pamięci masowych czasami można odnieść wrażenie, że szukają dziury w całym. A jednak dopatrywanie się błędów to dobra droga do śrubowania parametrów wydajnościowych.

Artykuł Pamięci masowe: startupy podkręcają tempo pochodzi z serwisu CRN.

]]>
Macierze dyskowe pracują na ogół w serwerowniach, i w związku z tym ich twórcy nie przywiązują nadmiernej uwagi do estetyki wykonania. Tymczasem amerykański startup iodyne obrał dość zaskakujący kierunek działania, jakim jest produkcja „mobilnych” macierzy wyróżniających się oryginalną stylistyką. Firma skupia ekspertów specjalizujących się w takich obszarach, jak systemy operacyjne, elektronika i pamięci masowe. Jak dotychczas łącznie zdobyła sto patentów technologicznych.

Założyciele iodyne pracowali dla Oracle’a, AMD, Della, EMC, Intela czy DSSD. Ostatnią z wymienionych firm w 2014 r. kupiło za miliard dolarów EMC, które bazując na architekturze DSSD wprowadziło na rynek system rack-flash EMC DSSD D5. Jak na owe czasy imponował parametrami wydajnościowymi (do 10 milionów operacji wejścia-wyjścia na sekundę, pojemność 144 TB w module rack o wielkości 5U, opóźnienie na poziomie 100 mikrosekund oraz przepustowość do 100 GB/s). W 2017 r. EMC wycofało się z dalszego rozwoju tego sprzętu, ale ludzie wywodzący się z DSSD postanowili pozostać w świecie pamięci flash. Stworzyli „mobilną macierz” Pro Data, która wielkością nie odbiega od 17-calowego laptopa, a swoim wyglądem budzi skojarzenia z MacBook Pro.

– To podobieństwo nie jest przypadkowe. Wzorowaliśmy się na produktach Apple’a. Nasi projektanci opracowali około 50 prototypów, zanim zdecydowaliśmy się wybrać ten ostateczny – mówi Mike Shapiro, dyrektor generalny iodyne.

W środku „laptopa” mieści się płyta główna obsługująca maksymalnie dwanaście dysków SSD NVMe U.2 (na dzień dzisiejszy są to nośniki o pojemności 2 lub 4 TB). Cztery porty służą do podłączenia komputerów Mac (przy maksymalnej konfiguracji przepustowość wynosi 3 Gb/s, zaś w opcji z dwoma notebookami 5 Gb/s). Pro Data posiada cztery dodatkowe łącza, które można wykorzystać do podłączenia kamery, monitora, drukarki czy instrumentów muzycznych. Macierz iodyne uzyskała bar-dzo dobre wyniki w testach prowadzonych przez AnandTech. Przepustowość Pro Data przy sekwencyjnym zapisie 1128 K wynosiła 2,2 GB/s w trybie RAID 0 i 1,7 GB/s w trybie RAID 6. Wymienione wartości pozostawały niezmienne podczas całego 30-minutowego testu. Gorzej od Pro Daty spisały się pojedyncze dyski SSD. Seagate Firecuda NVMe przez minutę uzyskiwał przepustowość nieznacznie przekraczającą 1,9 GB/s, po czym nastąpił spadek do poziomu 1 GB/s, a przez pozostałe 21 minut testu zaledwie 500 MB/s.

– Te testy pokazują, że wydajność, którą chwalą się producenci nośników SSD dotyczy pamięci podręcznej, a gdy tylko ona się zapełni, prędkości spadają. Tymczasem podczas sesji zdjęciowej czy koncertu utrzymanie tej samej prędkości ma niebagatelne znaczenie – tłumaczy Mike Shapiro.

Jak się łatwo domyślić, za „mobilną macierz” trzeba dość słono zapłacić – model z 12 TB kosztuje około 4 tys. dol. Niemniej warto mieć na uwadze, iż Pro Data jest adresowana dla kreatywnych twórców – reżyserów, muzyków, projektantów, a więc ludzi z reguły nie narzekających na brak gotówki. Pro Datę można wykorzystać na planie wideo, w czasie dużych koncertów, wystaw multimedialnych czy transportu (na przykład samolotem pomiędzy dwoma filiami studia animacji).

Tygrys z Bałkanów

O ile iodyne zabiega wyłącznie o użytkowników komputerów z nadgryzionym jabłuszkiem, o tyle Tiger Technologies celuje w klientów korzystających z urządzeń obsługiwanych przez Windows. Bułgarska firma od pewnego czasu nieźle poczyna sobie za oceanem, a jednym z jej klientów jest znany międzynarodowy port lotniczy Las Vegas-McCarran. Choć Bułgarzy działają na rynku od piętnastu lat, to dopiero w 2017 r. wykonali wyraźny zwrot w kierunku chmury hybrydowej, opracowując rozwiązanie Tiger Bridge. Popularne serwisy, takie jak Box, iCloud czy Dropbox, synchronizują pliki na komputerze z kopią w chmurze. Natomiast Tiger Technology wybrało nieco inny kierunek.

– Łączymy dowolny katalog lokalny z każdą usługą chmurową. Wszystkie pliki przechowywane w chmurze odnajdujemy w folderze lokalnym, tak jakby były przechowywane na dysku komputera. Jednak w rzeczywistości ich tam nie ma, istnieje tylko symboliczny link – tłumaczy Aleksander Lefterow, CEO Tiger Technology.

Tiger Bridge sprawdza się podczas pracy z dokumentami o dużej objętości, chociażby obrazami w bardzo wysokiej rozdzielczości. Przykładowo, podczas pracy z Adobe Premiere użytkownik odczytuje plik wideo bezpośrednio z chmury publicznej, a wszelkie zmiany są rejestrowane w czasie rzeczywistym. System pobiera z chmury jedynie dane aktualnie edytowane czy też analizowane, a więc w przeciwieństwie do tradycyjnych usług synchronizacji nie pobiera całego pliku.

Tiger Technology obsługuje systemy plików Windows – NTFS i ReFS. Firma nie oferuje wersji dla Linuksa, ponieważ rzadko występuje on na stacjach roboczych. Jednak niewykluczone, że taka opcja pojawi się chociażby ze względu na NAS-y. Największym wyzwaniem stojącym przed bułgarską firmą jest zapewnienie kompatybilności Tiger Bridge z systemem operacyjnym macOS. Jak powszechnie wiadomo, komputery Apple’a bardzo często pracują przy edycji wideo. Tymczasem producent z Cupertino, przynajmniej jak na razie, nie wykazuje chęci do współpracy i wymiany informacji z Bułgarami.

Artykuł Pamięci masowe: startupy podkręcają tempo pochodzi z serwisu CRN.

]]>
Nowe pomysły na storage https://crn.sarota.dev/artykuly/nowe-pomysly-na-storage/ https://crn.sarota.dev/artykuly/nowe-pomysly-na-storage/#respond Fri, 06 Sep 2019 08:10:00 +0000 https://crn.pl/default/nowe-pomysly-na-storage/ Rynek pamięci masowych w ostatnim czasie wyraźnie się ożywił. To w dużym stopniu zasługa nowej fali producentów, którzy opracowują coraz to ciekawsze koncepcje.

Artykuł Nowe pomysły na storage pochodzi z serwisu CRN.

]]>
Prosty podział na macierze dyskowe przeznaczone dla małych i dużych przedsiębiorstw przeszedł do historii. Obecnie rynek pamięci masowych jest dużo bardziej złożony. Do tradycyjnych rozwiązań dołączyły innowacyjne urządzenia i aplikacje, wprowadzające nowy ład w tym segmencie produktów. Coraz głośniej mówi się, że nowoczesny system storage powinien łączyć wysoką wydajność z nieograniczonymi możliwościami w zakresie skalowania pojemności, co jeszcze do niedawna wcale nie było oczywiste. Ten nagły zwrot byłby niemożliwy, gdyby nie wzrost znaczenia danych, czasami określanych jako nowa waluta cyfrowej gospodarki. Niestety, na razie firmy mają spore problemy z czerpaniem profitów z posiadanych informacji. Natomiast z badań przeprowadzonych przez Data Dynamics wynika, że aż 76 proc. przedsiębiorców chce wykorzystywać potencjał cyfrowych zasobów, choć jedynie 15 proc. ma odpowiednie narzędzia do realizacji tych zamierzeń.

Jestem zszokowany, że koncerny, które wydają miliony dolarów na pamięci masowe, kompletnie nie dbają o widoczność i czytelność danych – przyznaje Piyush Mehta, CEO Data Dynamics, firmy opracowującej oprogramowanie do analizy i migracji danych.

Nie jest to kwestia trywialna, gdyż według wyliczeń dziennika „The Wall Street Journal” zwiększenie użyteczności danych o 10 proc. przyczyniłoby się do wzrostu przychodów przeciętnej firmy z listy „Fortune 1000” nawet o 2 mld dol.

Eksperci szacują, że koszty przechowywania danych spadają w ciągu roku o 25–40 proc. Niższe ceny nośników, a także zastosowanie innowacyjnych technologii umożliwiają firmom korzystanie z większej liczby aplikacji, a tym samym cyfrowych informacji. Niestety, ich nadmiar prowadzi do chaosu. Zasoby cyfrowe są przechowywane w różnych środowiskach i urządzeniach, a ich izolacja utrudnia obsługę nowoczesnych programów, analitykę czy wreszcie optymalizację kosztów. Gartner szacuje, że w przypadku przechowywania 1 PB danych na tradycyjnym serwerze NAS wartość współczynnika TCO sięga 300 tys. dol. miesięcznie, w chmurze publicznej zaś – 20 tys. dol.

 

Producenci wprowadzają rozmaite rozwiązania, które umożliwiają uproszczenie procesów związanych z przetwarzaniem cyfrowych zasobów i zarządzaniem nimi. Amerykański startup Data Dynamics oferuje oprogramowanie Storage X, składające się z modułów: analityka, archiwizacja, migracja, rozproszony system plików. Klient może wybrać pojedyncze komponenty bądź korzystać z kompleksowego rozwiązania, uiszczając opłatę w modelu abonamentowym. Przy czym Storage X współpracuje z macierzami NAS i serwerami bez wsparcia ze strony agentów czy stosowania jakichkolwiek bramek.

Piyush Mehta przyznaje, że oszczędności uzyskane dzięki oprogramowaniu sięgają setek tysięcy dolarów w skali miesiąca. Przykładowo miesięczny koszt przechowywania 4 PB danych na tradycyjnych systemach NAS wynosi 1,2 mln dol. Natomiast dzięki zastosowaniu Storage X i przeniesieniu 10 proc. zasobów do nowoczesnego systemu NAS scale-out oraz 15 proc. do chmury publicznej wydatki spadają do 960 tys. dol. Optymalizacja zaledwie jednej czwartej danych umożliwia zatem uzyskanie 20 proc. oszczędności. Warto podkreślić, że producent przywiązuje dużą wagę do aktualizacji systemu i wprowadza dwa razy do roku jego nową wersję. W grudniu odbędzie się premiera Storage 8.2, a wprowadzone innowacje związane będą z obsługą mikrousług i większą integracją z aplikacjami biznesowymi.

Na koniec bieżącego roku firma planuje zarządzać 80 PB danych. Lwia część klientów Data Dynamics pochodzi ze Stanów Zjednoczonych (aż 26 z nich figuruje na liście „Fortune 100”), ale producent przejawia coraz większe zainteresowanie Europą. Amerykanie obsługują banki we Francji, a także firmy z Niemiec oraz Wielkiej Brytanii. To bardzo perspektywiczny segment rynku, choć nadal wielu klientów postępuje nieracjonalnie.

Nierzadko spotykamy firmy, które magazynują dane na taśmach od trzech dekad i w ogóle z nich nie korzystają. Nie kasują ich, ponieważ zawsze mogą się przydać. Nie rozumiem, dlaczego mieliby zrobić z nich użytek właśnie teraz – zastanawia się Piyush Mehta.

Alternatywa dla Dell EMC Isilon i NetApp FAS

Lawinowy przyrost danych nieustrukturyzowanych to woda na młyn dla producentów serwerów NAS. Szczególnie ciekawe perspektywy rysują się przed dostawcami systemów scale-out. Analitycy z Global Market Insight prognozują, że sprzedaż tej grupy produktów w latach 2018–2024 będzie rosnąć w tempie 35 proc. rocznie. Ich odbiorcami mają być przede wszystkim instytucje finansowe, firmy ubezpieczeniowe, branża ITC, placówki ochrony zdrowia, sieci handlowe oraz segment mediów i rozrywki. Najpopularniejszym rozwiązaniem w tej klasie od kilku lat pozostaje Dell EMC Isilon, niemniej lider czuje na plecach oddech nowych graczy, takich jak Weka IO czy Qumulo. Nowicjusze przekonują, że są nie tylko tańsi, ale mają lepsze pomysły na przechowywanie danych niż doświadczeni dostawcy.

Klienci posiadający zasoby rzędu 2 PB lub większe poszukują systemów bazujących na innowacyjnych standardach. Często skarżą się, że Dell EMC Isilon czy NetApp FAS Series nie potrafią sprostać ich rosnącym wymaganiom – mówi Molly Presley, Global Product Marketing Director w Qumulo.

Co ciekawe, jednym z założycieli tego startupu jest Peter Godman, współautor sukcesu Isilona. Niemniej zarówno on, jak i pozostali decydenci Qumulo twierdzą, że popularne systemy plików ZFS czy OneFS są przestarzałe i nie najlepiej radzą sobie z obsługą petabajtów danych oraz współpracą ze środowiskiem chmury publicznej. To zdanie najwyraźniej podzielają inwestorzy, którzy do tej pory włożyli w rozwój firmy już 222,3 mln dol.

Architektura opracowana przez Qumulo otwiera duże możliwości, jeśli chodzi o wielkość i ilość tworzonych plików, również w środowiskach rozproszonych. System jest zdefiniowany programowo, co ułatwia jego rozbudowę i współpracę z zewnętrznymi platformami: AWS, Google Cloud, Dell EMC czy HPE. Rozwiązanie Qumulo realizuje funkcje analityki w czasie rzeczywistym, dostarczając na bieżąco informacje o zajmowanej przestrzeni dyskowej, wskaźnikach IOPS i najbardziej aktywnych klientach podłączonych do klastra. Platforma funkcjonuje w różnych konfiguracjach, np. all-flash lub jako rozwiązanie do archiwizacji.

Oczekiwania wobec NAS scale-out są bardzo zróżnicowane. W niektórych środowiskach istnieje zapotrzebowanie na systemy przetwarzające ogromne ilości danych, a drugorzędną rolę odgrywa przepustowość. W innych najbardziej liczy się szybkość wykonywanych operacji – tłumaczy Molly Presley.

 

Wśród klientów Qumulo znajduje się m.in. wytwórnia Walta Disneya. System wykonuje 7,7 mld operacji na godzinę i przechowuje ponad 5 mld plików. To parametry, które robią wrażenie, lecz Weka IO próbuje zawiesić poprzeczkę jeszcze wyżej. Założony pięć lat temu w Izraelu startup skupia coraz większą uwagę branżowych ekspertów, konkurentów oraz funduszy inwestycyjnych. Te ostatnie wspomogły Weka IO dotąd 66,7 mln dol. Co ciekawe, w izraelską firmę zainwestowały również m.in.: HPE, Seagate, Western Digital czy Nvidia. Sztandarowym produktem startupu jest platforma Matrix, równoległy system plików zapewniający dostęp do danych współużytkowanych przez klaster. Można go uruchamiać na serwerze lub platformie hiperkonwergentnej w sieci Ethernet bądź InfiniBand. Architektura systemu umożliwia tworzenie tysięcy rozproszonych węzłów obliczeniowych, wykonywanie milionów operacji wejścia/wyjścia na sekundę oraz obsługę petabajtów danych. Weka IO w pierwszych wersjach wykorzystywała dyski SSD z interfejsem SATA oraz SAS, niemniej począwszy od Matrix v3 bazuje na standardzie NVMe over Fabrics.

Opóźnienia w naszym systemie są dziesięciokrotnie mniejsze aniżeli w najszybszych macierzach all-flash – podkreśla Liran Zvibel, CEO i współzałożyciel Weka IO.

Weka IO sprzedaje swoje rozwiązania za pośrednictwem partnerów, w tym również w modelu OEM. Startup współpracuje z HPE, Super Micro oraz Penguin Computing.
– Nie ukrywam, że do wyboru partnerów podchodzimy selektywnie. Nie zależy nam na tym, żeby mieć ich jak najwięcej. Szukamy firm, które potrafią poruszać się w tym dość specyficznym obszarze rynku – mówi Liran Zvibel.

All-flash w modelu usługowym

W I kw. 2019 r. przychody ze sprzedaży macierzy all-flash wyniosły 2,47 mld dol., co oznacza 17,5-proc. wzrost w ujęciu rocznym. Producenci mają powody do radości, aczkolwiek nie zamierzają zwalniać tempa i próbują dotrzeć do klientów z nową ofertą w modelu subskrypcyjnym. Szczególnie ciekawa jest nowa inicjatywa Tech Daty. Dystrybutor wspólnie z firmą Kaminario wprowadził na rynek amerykański usługę Storage as a Service przeznaczoną do obsługi krytycznych aplikacji biznesowych.

Jeszcze do niedawna model funkcjonowania naszego biznesu był dość prosty. Realizowaliśmy kontrakt, a potem wystawialiśmy fakturę na 5 mln dol. To zaczyna się zmieniać, coraz częściej rozkładamy tę kwotę na kilka miesięcy albo jeszcze dłuższy okres. Musimy dostosowywać się do nowych realiów i budować globalny biznes bazujący na usługach – tłumaczył John O’Shea, Senior Vice President, Global Lifecycle Management w Tech Dacie.

Tech Data wybrała Kaminario, bo chce odciążyć firmy technologiczne od kompleksowych usług związanych z zarządzaniem cyklem życia produktów i obsługą klientów. Taka strategia umożliwi mniej znanym, lecz dobrze rokującym producentom skoncentrowanie się na rozwoju produktów. Wprawdzie marka Kaminario jest w Polsce nieznana, niemniej działa na światowym rynku od 2008 r. Producent jeszcze do niedawna rywalizował z Pure Storage czy Solid Fire o palmę pierwszeństwa wśród startupów projektujących macierze all-flash. Losy wymienionych firm potoczyły się różnie. Kaminario porzuciło tradycyjną sprzedaż sprzętu na rzecz modelu subskrypcyjnego.

Rozwiązanie Storage as a Service łączy prostotę i sprawność chmury publicznej z wydajnością systemu pamięci masowej przeznaczonej dla wymagających użytkowników biznesowych. Współpraca z Tech Datą umożliwia nam zastosowanie elastycznego modelu sprzedaży – mówi Dani Golan, CEO i założyciel Kaminario.

W podobnym kierunku jak Tech Data i Kaminario zmierza StorOne, startup założony przez Gaola Naora. Przedsiębiorca dziewięć lat temu sprzedał IBM-owi Storwize za 140 mln dol. Wyróżnikiem macierzy tej marki była funkcja kompresji zapewniająca optymalizowanie wykorzystania przestrzeni dyskowej. Gaol Naor nadal zamierza odchudzać systemy pamięci masowej, choć w nieco innym zakresie. Oprogramowanie TRU (Total Resource Utilization) ma do minimum ograniczyć liczbę urządzeń i nośników przeznaczonych do obsługi i przechowywania danych.

Poświęciliśmy na ten projekt osiem lat, uzyskaliśmy ponad 50 patentów. Ze zdziwieniem patrzę na niektóre startupy, które po 18 czy 24 miesiącach prac nad produktem ogłaszają, że mają innowacyjne rozwiązanie. To nie innowacja, lecz co najwyżej integracja – zżyma się Gaol Naor, dyrektor generalny StorOne.

Oprogramowanie TRU obsługuje fizyczne serwery oraz urządzenia wirtualne. Testy przeprowadzone przez StorOne pokazują, że użycie kilku dysków SAS SSD umożliwia uzyskanie setek tysięcy IOPS, natomiast zainstalowanie kilku modułów NVMe pozwala przekroczyć milion IOPS. Startup niedawno uruchomił sprzedaż pamięci masowej all-flash w formie usługi, instalując system w siedzibie użytkownika.

Miesięczna opłata wynosi 999 dol. za 18 TB pojemności i 150 tys. IOPS. Przy czym usługodawca korzysta z funkcji dostępnych w systemach korporacyjnych. Co więcej, wszystko wskazuje na to, że obniżymy wysokość abonamentu, ponieważ ceny pamięci flash cały czas spadają. Po sześciu latach sprzęt staje się własnością klienta – dodaje Gaol Naor.

Niewykluczone, że nowe usługi umożliwią rodzimym integratorom zdobycie klientów, którzy obecnie narzekają na zbyt wysokie ceny macierzy all-flash. Choć z drugiej strony trudno spodziewać się gwałtownej ekspansji tego modelu biznesowego – przyczynia się on bowiem do spadku przychodów z tradycyjnej sprzedaży, a także rodzi wydatki związane z pozyskaniem i utrzymaniem subskrybentów. Jednak niektórzy eksperci, w tym John O’Shea, uważają, że jest to droga, od której nie ma odwrotu.

 

Artykuł Nowe pomysły na storage pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/nowe-pomysly-na-storage/feed/ 0
Kalifornijskie podgryzanie gigantów https://crn.sarota.dev/artykuly/kalifornijskie-podgryzanie-gigantow/ https://crn.sarota.dev/artykuly/kalifornijskie-podgryzanie-gigantow/#respond Fri, 15 Feb 2019 14:33:00 +0000 https://crn.pl/default/kalifornijskie-podgryzanie-gigantow/ Oprogramowanie ułatwia przedsiębiorcom uwolnienie się od zbędnego sprzętu i drogich usług. Aplikacje nowej generacji zapewniają integratorom okazje do zaproponowania klientom wielu ciekawych inicjatyw.

Artykuł Kalifornijskie podgryzanie gigantów pochodzi z serwisu CRN.

]]>
Jeszcze do niedawna wydawało się, że rynek IT opanuje kilku graczy, wskutek czego ucierpieliby nie tylko klienci, ale również resellerzy i integratorzy. Jednak ostatnie miesiące pokazały, że nic nie jest dane raz na zawsze. Przykładowo Apple, które trzy miesiące temu wyceniano na bilion dolarów, teraz jest warte 700 mld dol. Jeden z czytelników „The Wall Street Journal” skomentował ten fakt prosto i celnie: „Ludzie nauczyli się po prostu liczyć”. W tym kontekście ciekawy przykład stanowi rynek usług chmurowych. Wprawdzie przełamanie oligopolu kilku największych dostawców usług jest (na razie?) niemożliwe, ale dzięki licznym rozwiązaniom, które pojawiają się na rynku, przedsiębiorcy nie są skazani na współpracę z jednym czy dwoma usługodawcami.

Microsoft, AWS czy Google obciążają swoich klientów nie tylko opłatami za przechowywanie danych, ale również ich transmisję. Taki model nie przetrwa w dłuższej perspektywie czasu. Potrzebne są produkty, które uwzględniają przetwarzanie na brzegu sieci. Nie można też zapominać o integratorach. Trzeba ich zachęcać do realizacji nowych projektów, a nie eliminować z rynku – mówi Timothy Harder ze wspieranego przez Cisco startupu RStor.

Firma ta zamierza realizować swój plan za pomocą platformy RStor Multicloud, która agreguje moce obliczeniowe i dane pochodzące z prywatnych serwerowni, centrów danych dostawców chmury publicznej, a także klastrów obliczeniowych HPC. Startupem kieruje Giovanni Coglitore, były szef zespołu Facebooka ds. rozwiązań sprzętowych, współautor projektu Open Compute.

Platforma RStor łączy lokalne serwerownie z centrami danych usługodawców. Dla przykładu czas opóźnienia przy połączeniu pomiędzy obiektami na wschodnim i zachodnim wybrzeżu USA wynosi 40 ms. Natomiast transfer 1 TB danych z San Francisco do Singapuru zajmuje 15 minut– mówi Timothy Harder.

Strategicznym partnerem kalifornijskiego startupu jest Equinix, aczkolwiek są prowadzone negocjacje z innymi dużymi operatorami centrów danych. Należy podkreślić, że oprogramowanie RStor działa nie tylko na serwerach z procesorami x86, ale również ARM, IBM Power, Cray czy GPU. System wykorzystuje technologiczne nowości. Mechanizm uczenia maszynowego pomaga w wyborze odpowiedniego ośrodka z mocą obliczeniową, natomiast technologia konteneryzacji umożliwia uruchamianie aplikacji i danych na różnych platformach. RStor używa kontenerów Singularity, cechujących się dużą szybkością działania, wysokim poziomem bezpieczeństwa oraz wparciem dla HPC. Warto zaznaczyć, że startup jest właścicielem firmy Sylabs IO, oferującej komercyjną wersję SingularityPRO.

 

Drugie podejście do zarządzania danymi

Innowatorzy z Doliny Krzemowej, poza  spektakularnymi sukcesami czasami muszą poznać smak porażki. Stała się ona udziałem m.in. Davida Flynna, założyciela Fusion-io, który wprowadził na rynek nośniki SSD z interfejsem PCI. W 2014 r. firmę, za ponad 1 mld dol., kupił SanDisk. Kilka miesięcy później Flynn uruchomił kolejny projekt – Primary Data. W jego ramach przez niemal cztery lata pracował nad stworzeniem platformy do zarządzania pamięciami masowymi. Jedną z twarzy tego przedsięwzięcia był Steve Wozniak, a fundusze inwestycyjne wpompowały w firmę z Los Altos aż 60 mln dol. Pomimo tak dużego wsparcia Primary Data na początku ubiegłego roku zakończyła działalność.

Jednak David Flynn nie złożył broni i kilka miesięcy temu wystartował z nowym przedsięwzięciem. Przy czym Hammerspace stanowi po części kontynuację poprzedniego biznesu. Startup wykorzystuje technologię opracowaną przez Primary Data i zatrudnia kilkunastu deweloperów z tej nieistniejącej już firmy. Oprogramowanie Hammerspace oddziela warstwę danych od sprzętu, zapewniając tym samym zarządzanie zasobami znajdującymi się na heterogenicznych systemach.

Niemniej, w przeciwieństwie do rozwiązań PrimaryDara, umożliwia współpracę ze środowiskiem chmurowym i oferuje zaawansowane mechanizmy obsługi metadanych. Co ważne, nie ograniczają się one do zamieszczenia trywialnych informacji, takich jak data powstania pliku czy wprowadzenia zmian, lecz dostarczają dodatkowe opisy, w tym słowa kluczowe ułatwiające szybką identyfikację dokumentu bez potrzeby jego otwierania. System gromadzi też metadane z chmurowych narzędzi analitycznych, chociażby z AWS Elasticsearch, AWS Macie i AWS Rekognition. Jego użytkownicy mogą we własnym zakresie decydować, gdzie umieszczać dane, lub powierzyć to zadanie dostawcy.

Nie przechowujemy danych, ale umożliwiamy ich swobodny przepływ w różnych środowiskach – podkreśla David Flynn.

Nowy startup Davida Flynna wykorzystuje telemetrię, mechanizmy uczenia maszynowego i ciągłej optymalizacji, uwzględniając wydajność urządzeń, poziom ochrony oraz koszty przechowywania zasobów. Oprogramowanie Hammerspace działa na fizycznych lub wirtualnych serwerach w siedzibie klienta lub chmurze publicznej (AWS, Microsoft Azure lub Google Cloud Platform). Aplikacja oferowana jest w modelu SaaS i pozwala maksymalnie obsługiwać cztery punkty, a w przyszłości – do 16. Cena usługi zaczyna się od 1 tys. dol. za 10 TB danych.

Pamięć obiektowa dla dewelopera

Pamięć obiektowa daje praktycznie nieograniczone możliwości w zakresie skalowania i jest stosunkowo tania. Jej potencjał bardzo szybko dostrzegł AWS, który powszechnie wykorzystuje tę metodę przechowywania danych.

Pamięć obiektowa to teatr jednego aktora, jakim jest Amazon – uważa Philippe Nicolas, doradca startupów z San Francisco.

Jednakże na dyktat firmy Jeffa Bezosa nie zgadza się Anand Babu Periasamy, który w 2014 r. utworzył startup Minio, oferujący system pamięci obiektowej dla deweloperów. Jego zdaniem twórcy aplikacji nie powinni być uzależnieni od jednego dostawcy usług.

System Minio został napisany w języku GO, stworzonym przez pracowników Google’a, i wykorzystuje licencję Apache Licence V2. Minio Server można uruchomić jako JBOD, ale również w systemach NAS, VMware VSAN bądź na platformach chmurowych Amazon AWS, BLOB Azure, IBM Cloud czy Alibaba Cloud. W bieżącym roku startup wprowadzi na rynek wersję all-flash, opracowaną wspólnie z Samsungiem. Rozwiązanie ma być wyposażone wyłącznie w dyski NVMe wykonane w technologii QLC, a jego maksymalna konfiguracja będzie składać się z ośmiu serwerów z procesorami Intel Skylake. Periasamy chce, aby ludzie inaczej niż do tej pory spojrzeli na pamięć obiektową i dostrzegli jej bliskie związki ze sztuczną inteligencją.

– W przypadku przechowywania obiektów mamy do czynienia z ogromną ilością danych, nieodzownych w procesach uczenia maszynowego czy analizach działania aplikacji – dodaje Anand Babu Periasamy.
Produkt Minio cieszy się stosunkowo dużą popularnością wśród deweloperów. Na koniec grudnia ubiegłego roku startup otrzymał 13,8 tys. gwiazdek od użytkowników GitHuba, natomiast jego konkurenci – Red Hat Ceph i Open Stack Swift – zebrali (odpowiednio): 5,3 tys. oraz 1,8 tys. gwiazdek. W projekt Periasamy’ego wierzą też inwestorzy, którzy zainwestowali w to przedsięwzięcie 23 mln dol. Co ciekawe, Minio zamierza w br. rozpocząć działania na nowych frontach i wziąć się za bary z firmą Cloudera.

Zauważamy, że od pewnego czasu nasze produkty zastępują rozwiązania bazujące na technologii Hadoop – mówi Anand Babu Periasamy.

 

Białe pudełka zamiast znanych logotypów

Coraz częściej w centrach danych zaczynają gościć rozwiązania typu whitebox. Wprawdzie ich dostawcy nie mają na tyle silnej pozycji, aby zdetronizować producentów markowych serwerów czy wyrugować z rynku przełączniki z logo Cisco, ale nie można ich lekceważyć. Tym bardziej że rozwój takich technologii jak SDN (Software Defined Networking) lub NFV (Network Functions Virtualization) zmienia zasady, które od lat obowiązują na rynku sieciowym. Oddzielenie systemu operacyjnego, płaszczyzny sterowania i funkcji sieciowych od sprzętu sprawiło, że pojawili się nowi gracze. W tej grupie znajdują się dostawcy zarówno sprzętu (Quanta, Aton, Delta), jak i oprogramowania (Big Switch, Cumulus Networks, Pica8).

80 proc. globalnego rynku przełączników sieciowych dla klientów korporacyjnych kontroluje Cisco. Do HPE należy 10 proc. Extreme Networks, Juniper Networks czy Arista mają jeszcze mniejsze udziały i nie potrafią zagrozić liderowi. Firmy te próbowały rywalizować z Cisco na polu oprogramowania, ale poległy. Większość konkurentów tego producenta z rezerwą podchodzi do otwartych rozwiązań. Klienci nie dostrzegają różnic i nie ma motywacji do tego, aby coś zmienić – podkreśla Niraj Jain, COO Pica8.

Jednak startupy działające na rynku sieciowym nie poddają się i wciąż starają się przekonać użytkowników, że rozstanie ze sprzętem Cisco może być bezbolesne, a na dodatek przynieść niemałe oszczędności.

Nowe podejście zapewnia większą elastyczność, skalowalność oraz automatyzację procesów przy jednoczesnym obniżeniu kosztów wdrażania i zarządzania aplikacjami w chmurze i środowiskach wirtualnych. Użytkownik nie jest skazany na produkty jednej marki – przekonuje Niraj Jain.

Pica8 działa na rynku od 2009 r. Od tego czasu firma pozyskała ponad tysiąc klientów, w tym takie tuzy jak: Microsoft, Sony, Verizon czy Samsung. Największa instalacja obejmuje licencję na trzy tysiące urządzeń. System operacyjny PicOS bazuje na jądrze Linuxa i jest instalowany na przełącznikach whitebox o przepustowości od 1 Gb/s do 100 Gb/s. Co ciekawe, pod koniec ubiegłego roku na rynek trafiły urządzenia Dell EMC z serii S4100-ON działające pod kontrolą PicOS. Startup z Palo Alto zamierza kontynuować swoją ekspansję.

Naszą ambicją jest zostać takim Androidem w segmencie SDN – zapowiada Niraje Jain.

20 milionów oddziałów

Transmisja danych to nieodzowny element prowadzenia jakiejkolwiek działalności biznesowej. Według Gartnera koszty związane z obsługą ruchu sieciowego stanowią ok. 10 proc. całkowitego budżetu IT. Niemniej przemiany zachodzące w segmencie nowych technologii powodują, że firmy płacą coraz wyższe rachunki za korzystanie z WAN. Liczba i skala problemów z tym związanych wzrasta wraz z rozwojem przedsiębiorstwa i otwieraniem kolejnych oddziałów.
Jeszcze do niedawna optymalnym rozwiązaniem dla użytkowników sieci WAN wydawał się protokół MPLS. Jednak standard opracowany pod koniec lat 90. zawodzi. Technologia stworzona z myślą o dystrybucji tradycyjnego ruchu sieciowego nie radzi sobie z obsługą obciążeń chmurowych. Jej mankamenty szczególnie uwidaczniają się w przypadku firm wielooddziałowych. W tego typu przedsiębiorstwach rosną wydatki na bardziej wydajne łącza, częste aktualizacje oraz dodatkowe zabezpieczenia w postaci firewalli.

Sytuacja jest poważna. Na świecie funkcjonuje około 20 mln oddziałów należących do różnych firm, banków czy instytucji rządowych. Z danych Gartnera wynika, że ponad połowa dużych przedsiębiorstw, które korzystają obecnie z usług chmurowych, zamierza do 2021 r. pozbyć się własnych centrów danych. Jednak większość z nich nie jest na to przygotowana i nie zdaje sobie sprawy z realnych kosztów migracji – tłumaczy Kumar Ramachandran, CEO CloudGenixa.

Część firm wiąże duże nadzieje z chmurą publiczną, jednak zamknięcie własnych centrów danych wcale nie musi iść w parze z ogromnymi oszczędnościami. Chce na tym skorzystać CloudGenix, startup działający od 2013 r., którego sztandarowym produktem jest rozwiązanie Software Defined WAN (SD-WAN), będące alternatywą dla popularnego standardu MPLS. Jego wdrożenie umożliwia usunięcie niepotrzebnego sprzętu sieciowego, zmniejszenie złożoności konfiguracji, a także szybsze rozwiązywanie pojawiających się problemów. Poza tym każdy z oddziałów przedsiębiorstwa może korzystać z usług kilku providerów. Autodesk, jeden z klientów CloudGenix, zmniejszył koszty użytkowania WAN o 86 proc., a jednocześnie sześciokrotnie zwiększył pojemność sieci.

Gartner spodziewa się, że do końca bieżącego roku ok. 30 proc. firm wdroży technologię SD-WAN w swoich oddziałach (w 2015 r. było ich mniej niż 1 proc.). Warto zaznaczyć, że w 2017 r. Cisco pozyskało Viptela, natomiast w ubiegłym roku Oracle przejął Talari Networks. Oba przejęte startupy to konkurenci CloudGenix.

Wciąż widzimy opór ze strony telekomów, które zarabiają duże pieniądze na sprzedaży MPLS. Niemniej myślę, że w tym przypadku będzie podobnie jak z Data Domain, która dokonała rewolucji w segmencie ochrony danych. Przyszłość należy do SD-WAN – przekonuje Kumar Ramachandran.

 

Artykuł Kalifornijskie podgryzanie gigantów pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/kalifornijskie-podgryzanie-gigantow/feed/ 0
Nowe akcenty na rynku storage https://crn.sarota.dev/artykuly/nowe-akcenty-na-rynku-storage/ https://crn.sarota.dev/artykuly/nowe-akcenty-na-rynku-storage/#respond Thu, 13 Sep 2018 08:05:00 +0000 https://crn.pl/default/nowe-akcenty-na-rynku-storage/ W branży pamięci masowych nie ma czasu na nudę.  Innowacyjne produkty dostarczane przez młode firmy czynią rynkowe zmagania barwniejszymi i wprowadzają do nich nowe akcenty.

Artykuł Nowe akcenty na rynku storage pochodzi z serwisu CRN.

]]>
Jeszcze do niedawna eksperci od pamięci masowych ekscytowali się rywalizacją producentów w segmencie macierzy all-flash. Ale to już historia. Obecnie każdy z liczących się graczy ma w swoim portfolio tego typu systemy, a ceny 1 GB na kościach pamięci flash stopniały z 15 do 1 dol. Nie dziwi więc, że od pewnego czasu mamy do czynienia z procesem konsolidacji – czego dowodzą działania Della, HPE, IBM-u czy Western Digital. Na rynku wciąż jednak pojawiają się nowi gracze, których losy układają się różnie. Niektórzy, jak Nutanix, wspinają się na szczyt i wyznaczają nowe trendy. Inni, co pokazuje najświeższy przykład Tintri, choć mają ciekawe pomysły, nie potrafią dostosować się do trudnych reguł gry rynkowej. Jednak ich niepowodzenia nie zrażają pozostałych śmiałków z Doliny Krzemowej. Zdaniem Marca Staimera z Dragon Slayer Consulting dużym ułatwieniem dla startupów jest rozwój oprogramowania open source. CentOS, Ceph, Docker, Linux, Swift czy ZFS zmniejszają bariery wejścia na rynek, ponieważ deweloperzy nie muszą zaczynać od zera.

Powtórka ze Storwize?

Czternaście lat temu Gal Naor wspólnie z Jonathanem Amitem założyli firmę Storwize, zajmującą się macierzami dyskowymi. Sześć lat później IBM wyłożył na jej zakup 140 mln dol. Wówczas unikalną wartością systemu była kompresja w czasie rzeczywistym, która umożliwiała znaczne ograniczenie kosztów przechowywania danych. Po transakcji życia Gal Naor założył firmę StorOne i zajął się przygotowaniem oprogramowania Total Resource Utilization. 

Producenci biorą udział w wyścigu, wprowadzając co kilkanaście miesięcy nowe rozwiązania. Za każdym razem próbują wmówić klientom, że są one innowacyjne. Ale czy w tak krótkim okresie można stworzyć przełomową technologię? – zastanawia się Izraelczyk, który w ten sposób daje swoim potencjalnym partnerom do zrozumienia, że woli konkrety od sloganów.

Wdrożenie aplikacji TRU umożliwia ograniczenie liczby urządzeń oraz nośników danych. Oprogramowanie obsługuje fizyczne serwery lub urządzenia wirtualne z różnymi nośnikami (SSD, HDD czy NVMe), a także zapewnia możliwość przechowywania danych w postaci plików, bloków i obiektów. Testy przeprowadzone przez StorOne pokazują, że użycie zaledwie kilku dysków SAS SSD umożliwia uzyskanie setek tysięcy IOPS, natomiast zainstalowanie kilku modułów NVMe pozwala przekroczyć milion IOPS. 

Gdyby zapytać użytkowników macierzy dyskowych, czego oczekują od swoich urządzeń, zapewne odpowiedzieliby, że bardziej wydajnego sprzętu. Ja uważam, że powinni raczej rozważyć, czy warto inwestować w bardziej złożony system pamięci masowych, żeby uzyskać, dajmy na to, 250 tys. IOPS, jeśli taki sam wynik można osiągnąć za pomocą kilku zwykłych dysków – mówi Gal Naor.

 

Trzeba przyznać, że CEO StorOne zdecydował się na odważny krok, jakim było przygotowanie aplikacji wykorzystującej potencjał procesorów oraz nośników – dwóch komponentów pamięci masowych, których parametry w ostatnich latach uległy znacznej poprawie. Większość producentów zmierza w innym kierunku, opracowując uniwersalne oprogramowanie do obsługi różnorodnych systemów, w tym także starszych modeli. W rezultacie software staje się bardziej złożony, a tym samym mniej efektywny. Czy w takim razie klienci docenią odwagę izraelskiego przedsiębiorcy? Do tej pory produkt został dostrzeżony przez inwestorów, którzy przeznaczyli na rozwój StorOne 38 mln dol.

Infrastruktura ze sztuczną inteligencją

Wizję Gal Naora podzielają założyciele firmy Datera. Ich zdaniem tempo rozwoju rynku pamięci masowych zależeć będzie od oprogramowania. Dlatego kalifornijski startup wprowadził na rynek system Data Services Platform, służący do obsługi danych w nowoczesnych hybrydowych środowiskach IT. Jednolita platforma ma zaspokajać potrzeby przedsiębiorstw w zakresie przechowywania baz danych, kontenerów czy aplikacji chmurowych. Jej twórcy przyznają, że podczas projektowania wzorowali się na hiperskalowalnych systemach chmurowych.

Oprogramowanie DSP może być uruchamiane na serwerach x86, dostarczanych bezpośrednio przez Daterę lub zewnętrznych dostawców – Cisco, Della, HPE czy Supermicro. System zapewnia m.in. deduplikację, kompresję, automatyczny tiering i migrację danych w czasie rzeczywistym. Przedstawiciele startupu podkreślają, że ich produkt bazuje na procesach uczenia maszynowego, optymalizujących efektywność i koszty pracy infrastruktury. W rezultacie wpływ czynnika ludzkiego na funkcjonowanie platformy jest zredukowany do minimum.

Elastyczność jest bardzo ważną cechą pamięci masowych, ale nie mniej istotną rolę odgrywa wydajność, o której decydują parametry sprzętu oraz inteligencja systemu – tłumaczy Hal Woods, CTO Datery.

 

Warto dodać, że firma z Santa Clara nie uwzględnia w swojej architekturze macierzy dyskowych. Zdaniem jej specjalistów im prościej, tym lepiej, bo – jak podkreślają – „złożoność IT zabija innowacje”.

Startup działa od 2013 r. i od tego czasu pozyskał od funduszy inwestycyjnych 40 mln dol. Niemniej jego szefowie liczą na kolejne zastrzyki finansowe, które mają pozwolić na promocję i ekspansję Data Services Platform w Europie. Rozwiązanie Datery doceniła redakcja amerykańskiego wydania CRN, umieszczając DSP na liście 50 najlepszych aplikacji przeznaczonych do obsługi centrów danych.

Dane w kontenerach

Kontenery w ostatnich latach zawładnęły sercami i umysłami programistów. Gartner przewiduje, że do końca 2020 r. ponad 50 proc. przedsiębiorstw będzie korzystać z tych rozwiązań. Dla porównania: w ubiegłym roku wskaźnik ten wynosił niespełna 20 proc. Według analityków z 451 Research w ciągu najbliższych dwóch lat rynek kontenerów będzie rósł w tempie 40 proc. rocznie i w 2020 r. osiągnie wartość 2,7 mld dol. 

Pojawienie się kontenerów oznacza nowe wyzwania dla działów IT. Te największe są związane z zarządzaniem i ochroną danych. Użytkownicy potrzebują pamięci masowej, która przechowywałaby dane dłużej, niż wynosi czas życia kontenerów. Są one bowiem z natury tymczasowe i mobilne, a więc potrzebują platformy storage uwzględniającej obie cechy. Takim rozwiązaniem jest oprogramowanie z rodziny PX firmy Portworx. Platforma łączy istniejące serwery, macierze SAN, NAS, DAS, a także instancje chmurowe, świadcząc usługi z zakresu obsługi danych dla kontenerów. Narzędzia PX zapewnia ją klonowanie, tworzenie migawek, replikację czy szyfrowanie danych. Oprogramowanie jest zintegrowane z Docker Swarm, Kubernetes, Rancher i Mesosphere DC/OS.

Nasz produkt powstał specjalnie z myślą o środowisku kontenerowym i realizuje niezbędne zadanie związane z przechowywaniem, zarządzaniem oraz ochroną danych, zapewniając ich trwałość, wydajność oraz wysoką dostępność. Wdrożenie PX-Series umożliwia oszczędzenie od 40 do 60 proc. kosztów związanych z obsługą pamięci masowych – tłumaczy Murli Thirumale, założyciel i CEO Portworx.

Startup z Los Altos, założony w 2014 r., może pochwalić się takimi klientami jak: Carrefour, DreamWorks, Lufthansa Systems, American Express czy Lloyds Bank. To poważny argument dla resellerów oraz integratorów, którzy rozważają sens współpracy z szerzej nieznanymi dostawcami.

Portworx pozwolił nam uruchomić w kontenerach wymagające najwyższej wydajności aplikacje, takie jak Cassandra, Postgres i Kafka. To było jedno z kluczowych zadań mających na celu modernizację naszego studia odpowiedzialnego za tworzenie software’u – wyjaśnia Ali Zaidi, Director of Platform Services w DreamWorks.

 

 

Porządkowanie zimnych danych

Kilka miesięcy temu branżowe media poinformowały o rozpoczęciu współpracy IBM-u z Komprise. Big Blue nie wybrał nowego partnera przypadkowo i niewykluczone, że w nieodległej przyszłości koncern wchłonie kalifornijski startup. Przy czym lista chętnych do zakupu młodej firmy z siedzibą w Campbell może być znacznie dłuższa, gdyż z Komprise kooperują ponadto AWS, NetApp, Dell EMC, Microsoft, Google i HPE. Nie mniej interesująco przedstawia się lista klientów wciąż młodej firmy, na której znajdują się m.in.: Electronic Arts, AIG, Yale czy Stanford University. Co sprawia, że istniejący od zaledwie czterech lat startup przyciąga gigantów ze świata IT oraz renomowanych klientów?

Otóż Komprise oferuje oprogramowanie łączące funkcje zarządzania pamięciami masowymi z zaawansowaną analityką. Software analizuje dane przechowywane zarówno w środowisku lokalnym, jak i chmurze, niezależnie od tego, czy znajdują się na systemach Dell EMC, NetApp, IBM bądź innych producentów. Administrator korzystający z rozwiązań Komprise może definiować rozmaite reguły dotyczące przenoszenia danych oraz ich archiwizacji. Oprogramowanie tworzą dwa elementy: Komprise Director oraz Komprise Observer. Pierwszy z nich administruje danymi i zazwyczaj uruchamia się go w modelu SaaS lub (rzadziej) jako maszynę wirtualną. Drugi jest „wirtualką” umieszczaną w środowisku klienta, która odpowiada za inwentaryzację pamięci masowych oraz realizację polityk zdefiniowanych przez Komprise Directora.

O ile koszty przechowywania zasobów cyfrowych nie są zbyt wielkie, o tyle ręczne zarządzanie nimi generuje poważne wydatki. Komprise automatyzuje proces przenoszenia tzw. zimnych danych (rzadko używanych) na tańsze i pojemniejsze nośniki – wyjaśnia Kumar Goswami, CEO i założyciel Komprise. 

Przykładowo Government Utilities Technology Service dzięki wdrożeniu Komprise obniżyło koszty storage’u o 70 proc., samego backupu zaś o 88 proc. 

Obsługujemy ponad 100 PB danych. Z naszych obserwacji wynika, że 76 proc. zalicza się do zimnych zasobów, ale w niektórych branżach ten wskaźnik jest wyższy od średniej. W grupie firm reprezentujących media i rozrywkę wynosi on 88 proc., a w przypadku opieki zdrowotnej aż 82 proc. Jednak najbardziej perspektywicznym obszarem wydaje się genomika, gdzie roczny przyrost zimnych danych przekracza 300 proc. – mówi Kumar Goswami.

Pamięć obiektowa z ludzką twarzą

George Dochev, CTO i współzałożyciel LucidLink, jeszcze kilka lat temu pracował w DataCore Software. Większość zadań wykonywał zdalnie ze swojego domowego biura we Francji, łącząc się z główną siedzibą na Florydzie, a także oddziałem w Bułgarii. Kod źródłowy oprogramowania SANsymphony składał się z dziesiątek tysięcy plików, a wymiana informacji pomiędzy pracownikami działającymi w różnych placówkach stała się bardzo kłopotliwa i wymagała zastosowania specjalnego sprzętu. Nie było to jednak optymalne rozwiązanie.

W 2016 r. George Dochev oraz Peter Thomson z DataCore Software założyli firmę LucidLink, która opracowała produkt przeznaczony do dystrybucji rozproszonych systemów plików. Użytkownicy przechowujący dokumenty tekstowe, zdjęcia lub filmiki w chmurze Amazona czy Dropboxie nie mają problemów z ich synchronizacją ani pobieraniem na lokalny komputer. Jednak w przypadku plików o dużej objętości oraz środowisk produkcyjnych sprawy poważnie się komplikują. Wprawdzie można korzystać z różnego rodzaju przejściówek (Nasuni, Panzura), ale nie wpływają one korzystnie na wydajność środowiska. Natomiast LucidLink umożliwia strumieniowe przesyłanie danych bezpośrednio z chmury AWS S3 bez konieczności ponownego ich pobierania lub synchronizacji. Po rozwiązanie mogą sięgać użytkownicy urządzeń działających pod kontrolą systemów Linux i nie wymaga ono instalacji jakiegokolwiek sprzętu lub aplikacji.

Promujemy nasz produkt wśród użytkowników chmury publicznej i nie musimy ich przekonywać do tego modelu. Niemniej chcemy im pokazać, że można dużo łatwiej niż dotychczas korzystać z zasobów. Automatyzacja procesów znacznie ułatwia dostęp do danych w trybie obiektowym – wyjaśnia Peter Thompson, CEO i współzałożyciel LucidLink.

LucidLink zgromadził od funduszy inwestycyjnych 5 mln dol., ale na razie nie ma na koncie spektakularnych wdrożeń. Wydaje się jednak, że przyszłość startupu rysuje się w jasnych barwach. Nietuzinkowy produkt to niejedyny atut firmy z San Francisco – nie mniej istotne znaczenie ma rosnąca popularność pamięci obiektowej.

Artykuł Nowe akcenty na rynku storage pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/nowe-akcenty-na-rynku-storage/feed/ 0
Biznes w centrum danych https://crn.sarota.dev/artykuly/biznes-w-centrum-danych-1/ https://crn.sarota.dev/artykuly/biznes-w-centrum-danych-1/#respond Wed, 14 Feb 2018 07:38:00 +0000 https://crn.pl/default/biznes-w-centrum-danych-1/ Wiele firm pogrąża się w cyfrowym chaosie. Inwestorzy zza oceanu pompują więc grube miliony w rozwiązania, które mają umożliwić przedsiębiorcom zapanowanie nad terabajtami danych.

Artykuł Biznes w centrum danych pochodzi z serwisu CRN.

]]>
Ostatnio ulubieńcami funduszy venture capital stały się startupy, które rozwijają rozwiązania powiązane ze sztuczną inteligencją, wirtualną rzeczywistością, a także Internetem rzeczy. Zdecydowanie mniej mówi się natomiast w tym środowisku o infrastrukturze sieciowej oraz pamięciach masowych. Co jednak nie oznacza, że inwestorzy zupełnie przestali interesować się tą tematyką. Według Scotta Kupora, partnera zarządzającego w funduszu Andreessen Horowitz, działy IT w firmach wciąż znajdują się na wczesnym etapie transformacji.

Dlatego zamierzamy finansować ciekawe projekty dotyczące pamięci masowych, infrastruktury sieciowej czy aplikacji dla centrów danych. Nie ulega wątpliwości, że przedsiębiorcy będą generować duży popyt na wymienione grupy produktów – mówi Andreessen Horowitz.

Warto dodać, że Scott Kupor, jeden z najbardziej uznanych funduszy w swojej branży, zaliczył korporacyjne rozwiązania infrastrukturalne do czterech najbardziej perspektywicznych obszarów IT, obok sztucznej inteligencji, wirtualnej rzeczywistości oraz usług finansowych. Zresztą nie trzeba być wielkim ekspertem, żeby dostrzec bliskie korelacje pomiędzy modnymi trendami i zapotrzebowaniem na nowoczesne narzędzia do obsługi danych. W obecnych czasach niemal każda aktywność tworzy cyfrowy ślad, a to dopiero przedsmak tego, co czeka nas w nieodległej przyszłości. Specjaliści podają na przykład, że autonomiczny samochód generuje ok. 100 GB danych na sekundę (sic!).

Eksperci z Google’a twierdzą, że firmy, które dziennie mają dziesiątki interakcji z klientami, mogą we własnym zakresie tworzyć sztuczną inteligencję przy wykorzystaniu technik uczenia maszynowego. W końcu przedsiębiorcy łakną informacji, dzięki którym udoskonalają swoje produkty, przyciągają nowych klientów, a tym samym zyskują kolejne porcje danych. W tym celu konieczne są jednak inwestycje w innowacyjną infrastrukturę oraz nowoczesne aplikacje.

– Wzrost danych to żadna nowość, wszyscy wokół o tym mówią. Tak naprawdę istotne jest, jaki rodzaj zasobów cyfrowych rośnie. W zeszłym roku przetworzono 10 zetabajtów danych krytycznych, a za osiem lat zbliżymy się do 60 zetabajtów. To sprawia, że zmieniają się wymagania wobec infrastruktury. Ważna jest nie tylko wydajność, ale również skalowalność, ekonomia i prostota – tłumaczy Ashish Gupta, CMO w Vexata.

 

Szybsi niż macierz all-flash

Firmy coraz częściej wykorzystują dane do analizy rynków, kontaktują się w czasie rzeczywistym z klientami, automatyzują procesy biznesowe. Wśród beneficjentów zmian zachodzących w świecie biznesu znajdują się m.in. dostawcy macierzy all-flash. Według danych IDC globalna sprzedaż tych urządzeń rośnie w tempie ok. 40 proc. rocznie. To imponujący wynik, gdy weźmie się pod uwagę zastój w segmencie tradycyjnych macierzy dyskowych. Jednak nie brakuje opinii, że systemy all-flash mają mankamenty, a ich zastosowanie nie zawsze przynosi pożądane efekty.

– Systemy all-flash powstały jako alternatywa dla macierzy z dyskami twardymi i spełniły swoją rolę. Niemniej zmiany na rynku są dynamiczne. W ostatnim czasie pojawiło się mnóstwo aplikacji intensywnie korzystających z danych. Dlatego potrzebne jest świeże spojrzenie na architekturę pamięci masowych – przekonuje Zahid Hussain, CEO i współzałożyciel Vexata.

Autor tej wypowiedzi nie jest żółtodziobem rzucającym słowa na wiatr. Zahid Hussain spędził wiele lat w EMC i VMware. W pierwszej z wymienionych firm był m.in. szefem Flash Products Division, a także kierował zespołem inżynierów pracujących nad rozwojem macierzy VNX oraz Isilon. Sama Vexata powstała pod koniec 2013 r., a pierwszy produkt z portfolio tej firmy – VX-100 – ujrzał światło dzienne dopiero w drugiej połowie ubiegłego roku. Startup otrzymał do tej pory 54 mln dol. od czterech funduszy, wśród których znalazł się Intel Capital.

 

Vexata kieruje swoje rozwiązanie do użytkowników aplikacji krytycznych, takich jak Oracle, MS-SQL, SAS czy KX. VX-100 łączy się z siecią za pośrednictwem protokołu Fibre Channel, umożliwiając budowę klastrów składających się z 4–16 modułów pamięci masowych. Vexata jako węzły wykorzystuje serwery kasetowe, z których każdy ma cztery dyski SSD NVMe. Za unikalne należy uznać zastosowanie w każdym z węzłów układu FPGA.

Opracowana przez startup architektura zapewnia uzyskanie wysokiego poziomu utylizacji procesora – 90 proc. Dla porównania: w macierzach all-flash współczynnik ten oscyluje wokół 30 proc. W większości przypadków im dłużej procesor czeka na odpowiedź z pamięci masowej, tym bardziej negatywnie wpływa to na jego wydajność. Macierze all-flash zazwyczaj potrzebują wysokiej klasy procesora, żeby zapewnić rozsądny poziom wydajności. Natomiast Vexata umożliwia uzyskanie dobrych wyników z wykorzystaniem tańszego układu z pojedynczym gniazdem procesora.

– Nasze rozwiązanie jest konkurencyjne cenowo wobec macierzy all-flash. Przewyższa je też pod względem parametrów. Kombinacja zastosowana w VX-100 umożliwia uzyskanie 20 razy wyższego współczynnika IOPS oraz 4 razy mniejszego opóźnienia, a także zapewnia obsłużenie 7 razy więcej użytkowników – wylicza Zahid Hussain.

 

Dla powracających z chmury

W minionych latach część gigantów rynku IT, którzy do niedawna wyznaczali reguły gry, musiała przejść do defensywy. Jedną z przyczyn takiego stanu rzeczy jest chmura publiczna. Niepośledni wpływ na rozwój wydarzeń w branży wywierają także nowe techniki open source. Cassandra, Hadoop czy Spark zmieniają nie tylko architekturę sieci, ale również wymuszają zastosowanie nowych rozwiązań sprzętowych. Zaawansowane macierze dyskowe coraz częściej są zastępowane przez serwery x86. Przykłady Amazona, Google’a czy Facebooka pokazują, że takie rozwiązania sprawdzają się zarówno pod względem funkcjonalności, jak i ekonomii. Nie można jednak zapominać, że zarządzanie rozległą i rozproszoną infrastrukturą wymaga odpowiednich kwalifikacji oraz narzędzi.

– W tradycyjnych środowiskach IT uważa się, że klaster składający się z dziesięciu węzłów jest bardzo duży. Dla odmiany nowoczesne firmy budują systemy składające się nawet z 1000 węzłów. Przy takiej skali zarządzanie pojedynczymi „pudełkami” staje się niemożliwe, należy tworzyć specjalne pule zasobów – tłumaczy Tom Lyon, Chief Scientist w DriveScale.

DriveScale to firma wywodząca się z Sunnyvale, która od 2013 r. pracuje nad autorską infrastrukturą komponowalną. Idea tego rozwiązania polega na dostarczeniu systemu wdrażanego w środowisku lokalnym, które ma charakterystyczne cechy chmury publicznej, a więc skalowalność, elastyczność oraz szybkość wdrożenia. Architektura infrastruktury komponowalnej bazuje na trzech filarach: elastycznej puli zasobów, inteligentnym oprogramowaniu oraz ujednoliconym API. W koncepcji wspomnianego startupu kluczową rolę spełnia adapter DriveScale, łączący za pomocą Ethernetu dowolny serwer bezdyskowy z macierzą JBOD wyposażoną w dyski SAS. Należy zaznaczyć, że wszystkie urządzenia zainstalowane są w pojedynczej szafie rack.

 

– Nasze rozwiązanie umożliwia skonfigurowanie klastrów obliczeniowych i pamięci masowych o różnych rozmiarach, a także rozmaitych współczynnikach obliczania i przechowywania. To przekłada się na lepsze wykorzystanie zasobów, ograniczenie zużycia energii i możliwość szybkiej reakcji na zmieniające się potrzeby użytkowników. Z naszych obliczeń wynika, że współczynnik TCO DriveScale w okresie 5 lat jest o połowę niższy aniżeli w przypadku tradycyjnych systemów – dodaje Tom Lyon.

Co ciekawe, trzon DriveScale tworzą osoby wcześniej piastujące ważne stanowiska w Sun Microsystems. Ci weterani IT stoją przed trudnym wyzwaniem, tym bardziej że część przedsiębiorstw planuje migrację do chmury publicznej.

– Rozmawiamy z wieloma klientami, którzy są rozczarowani kosztami usług chmurowych i chcą wracać do infrastruktury wdrażanej lokalnie. Zapewnimy im elastyczność, optymalizację sprzętu i duże oszczędności, nawet do 75 proc. w porównaniu z chmurą publiczną – przekonuje Tom Lyon.

Dotychczas DriveScale otrzymał od funduszy venture capital zastrzyk w wysokości 18 mln dol., a ciekawostką jest, że na liście resellerów tego startupu znajduje się m.in. Dell EMC.

 

Klienci nie mają alternatywy

Na fali popularności Hadoopa, Cassandry, a także innych nierelacyjnych baz danych (MongoDB, Redis czy Neo4j) próbuje popłynąć Datos IO. Jednak o ile DriveScale koncentruje się na kwestiach związanych z przetwarzaniem danych, o tyle startup z San Jose postawił na ich ochronę. Środowiska klastrowe cechują się dużą dostępnością oraz skalowalnością, aczkolwiek ochrona pracujących w nich aplikacji stanowi nie lada wyzwanie. Datos IO jest pierwszą firmą, która opracowała system chroniący dane w nowych środowiskach. Firmy zaczynają powszechnie korzystać z Hadoopa i Sparka, ale nikt do tej pory nie znalazł rozwiązania, które mogłoby skutecznie chronić dane i aplikacje funkcjonujące w nowych środowiskach.

– Zmierzamy w podobnym kierunku jak niegdyś Veeam. Ten producent potrafił idealnie wykorzystać rosnącą popularność wirtualizacji, wprowadzając na rynek narzędzie do backupu maszyn wirtualnych. My opracowaliśmy narzędzie do tworzenia kopii zapasowych nierelacyjnych baz danych. O ich popularności świadczy fakt, że Mongo DB oraz Redis znajdują się w pierwszej trójce najczęściej używanych baz w chmurze publicznej – wyjaśnia Tarun Thakur, menedżer stojący na czele Datos IO.

Pomimo że premiera produktu RecoverX odbyła się nieco ponad rok temu, zdążył pozyskać takich klientów jak: Barracuda, Cisco, Verizon, eBay, T-Mobile czy Macey’s.

– Dlaczego wybraliśmy Datos IO? Nie mieliśmy wyboru, żadna inna firma nie oferuje takiego rozwiązania – przyznaje Ashley Penney, dyrektor IT w firmie Maxwell Health (system RecoverX chroni w tym przypadku bazę danych MongoDB funkcjonującą w chmurze Amazona).

Póki co fundusze wpompowały w Datos IO 15,2 mln dol., a na liście inwestorów znajdują się m.in. Cisco oraz NetApp.

 

HPC dla biznesu

Systemy High-Performance Computing, umożliwiające porządkowanie i analizę ogromnych ilości danych, najczęściej utożsamiane są z dużymi ośrodkami badawczo-rozwojowymi i rozwiązywaniem poważnych problemów. Wszystko wskazuje na to, że Big Data oraz Internet rzeczy sprawią, iż grono użytkowników poszerzy się o przedsiębiorstwa produkcyjne, branżę mediów i rozrywki oraz firmy energetyczne.

– Z naszych badań wynika, że rynek HPC wzrośnie w 2018 roku o około 7 proc., a jednym z motorów napędowych będzie biznes. Ta grupa klientów szuka systemów o wysokiej wydajności i niezawodności. Nie mniej ważna jest elastyczność, umożliwiająca dostosowanie pamięci masowych do zupełnie nowych zastosowań, jak chociażby
deep learning
– wyjaśnia Addison Snell, CEO Intersect360 Research.

Do walki o nowe grupy klientów włączą się IBM Spectrum i DDN Storage – dostawcy rozwiązań HCI, a także producenci urządzeń typu scale-out NAS: Net App, Dell EMC Isilon czy HPE. Swojej szansy w tym segmencie rynku szuka też Panasas, określając własną ofertę jako „HPC commercial”.

– Trzeba się liczyć z tym, że przedsiębiorcy mogą mieć zupełnie inne oczekiwania wobec HPC niż instytucje badawcze. Rozwój sztucznej inteligencji, wirtualna rzeczywistość czy pojawienie się autonomicznych samochodów wymuszą na wielu firmach zastosowanie mocniejszych systemów obliczeniowych i składowania danych. Niezwykle istotne są kwestie związane z równoległym dostępem wielu użytkowników do danych czy osobne zarządzanie metadanymi oraz aktualnymi danymi – wylicza Jim Donovan, CMO w Panasas.

Producent, który działa na rynku od 1999 r. i ma ponad 500 klientów, w tym m.in. Airbusa, Boeinga czy NASA, dokonał kilku istotnych zmian w architekturze swojego systemu. Na pierwszy plan wysuwa się wdrożenie ASD-100, a więc serwera odpowiedzialnego za zarządzanie metadanymi i usługami klastrów. W przeciwieństwie do poprzednich wersji, jednostka jest odizolowana od węzłów, co zapewnia optymalną wydajność i przystosowanie do zmiennych wymagań infrastruktury sieciowej. Zmiany nastąpiły również w systemie operacyjnym. PanFS 7.0 bazuje na FreeBSD i ułatwia zarządzanie danymi. Czas uruchomienia klastra zawierającego 1 PB danych zajmuje około godziny, natomiast automatyczne rozpoznawanie nowych jednostek pamięci masowych upraszcza skalowalność.

– Zaczynamy powoli uniezależniać się od kilku dużych klientów rządowych. Architektura naszego produktu i jego możliwości nieco wyprzedzają czas, ale rynek zmierza właśnie w tym kierunku – zapewnia Faye Pairman, CEO Panasas.

Wszystko wskazuje na to, że w nieodległej przyszłości sprzedaż systemów HPC może być źródłem przychodów dla integratorów. Równie ciekawe perspektywy rysują się przed innowacyjnymi rozwiązaniami do budowy infrastruktury bądź ochrony danych. Czas pracuje na korzyść nowych graczy, którzy ochoczo odkrywają nieznane obszary.

Artykuł Biznes w centrum danych pochodzi z serwisu CRN.

]]>
https://crn.sarota.dev/artykuly/biznes-w-centrum-danych-1/feed/ 0