Artykuł HPE InfoSight: wysoka dostępność i oszczędności pochodzi z serwisu CRN.
]]>Mechanizm sztucznej inteligencji automatyzuje proces zbierania i analizy danych oraz definiowania działań wyprzedzających ewentualne niekorzystne wydarzenia, które mogą doprowadzić do zakłóceń w pracy aplikacji. Wiedza zebrana w ramach uczenia maszynowego jest kolekcjonowana w zarządzanym przez HPE centralnym systemie platformy InfoSight, dzięki czemu skuteczność jej proaktywnego podejścia jest zwiększana jeszcze bardziej.
Ale celem InfoSight jest nie tylko zapobieganie problemom zanim jeszcze się pojawią. Na podstawie obserwacji zachowania sprzętu formułowane są zalecenia dotyczące zarządzania nim, które – jeśli zostaną wykorzystane w dłuższej perspektywie – także przekładają się na wzrost jego żywotności. Dzięki zapewnianym przez InfoSight mechanizmom 86 proc. problemów jest identyfikowanych i rozwiązywanych w automatyczny sposób. Przekłada się to na gwarancję dostępności danego rozwiązania na poziomie 99,9999 proc.
InfoSight zarządza pamięciami masowymi
Prawa do platformy InfoSight PredictiveAnalytics zostały nabyte przez HPE wraz z przejęciem w 2017 r. jej twórcy, firmy Nimble Storage. Mechanizm ten jest niezmiennie obecny w macierzach HPE Nimble Storage, można też go znaleźć w rozwiązaniach z rodziny Primera, które zastąpiły w ofercie HPE macierze 3PAR. W każdym przypadku platforma InfoSight jest dostępna bezpłatnie, producent zaś szacuje, że dodatkowo zapewnia obniżenie o około 79 proc. kosztów operacyjnych związanych z użytkowaniem pamięci masowej.
Po zalogowaniu się do panelu Nimble Storage administrator widzi, oprócz informacji wymagających jego ingerencji, również rekomendacje działań optymalizujących system w celu zachowania ciągłości procesów albo wręcz ich przyspieszenia. W przypadku wystąpienia awarii, np. dysku twardego, InfoSight sygnalizuje o niej i sam zakłada zgłoszenie serwisowe.
Większość informacji w panelu zarządzania przedstawianych jest w postaci prostych wykresów, które można na siebie nakładać (np. porównać wydajność macierzy w czasie z maszynami wirtualnymi), aby zweryfikować, w którym momencie lub z jakiego powodu występują opóźnienia i spada wydajność. Zapewnione jest także weryfikowanie wydajności pamięci masowej dla wielu konkretnych aplikacji, takich jak: SAP, SharePoint, Oracle, SQL i innych.
Bezpieczne SimpliVity dzięki InfoSight
W 2020 r. działaniem platformy InfoSightzostały objęte także oferowane przez HPE rozwiązania hiperkonwergentne SimpliVity. W ten sposób zagwarantowana została ich nieprzerwana praca, a więc także bezpieczeństwo biznesowe korzystających z nich przedsiębiorstw. Do InfoSight dołączono też wszystkie funkcje, które we wcześniejszych wersjach SimpliVity zapewnione były przez oprogramowanie HPE OmniWatch.
Mechanizm działania platformy InfoSight jest podobny, jak w przypadku macierzy Nimble, ale zakres rozszerzony został na całą architekturę zarówno pojedynczego węzła (moc obliczeniowa, pamięć masowa, wirtualizator), jak też sieć zapewniającą klastrowanie węzłów i łączność z użytkownikami. Monitoring obejmuje wszystkie obszary działania, jak też przewiduje ryzyko wystąpienia niedoboru poszczególnych zasobów.
Administratorzy mają do dyspozycji dostarczane przez InfoSight rekomendacje stworzone na bazie kompletu danych historycznych dotyczących pracy rozwiązania SimpliVity. W automatyczny sposób tworzone są też zgłoszenia serwisowe.
Artykuł HPE InfoSight: wysoka dostępność i oszczędności pochodzi z serwisu CRN.
]]>Artykuł HPE Cloud Volumes, czyli przyszłość należy do hybryd pochodzi z serwisu CRN.
]]>– Należy mieć chociażby na uwadze, że nie wszystkie aplikacje równie dobrze działają po przenosinach do chmury. Dlatego też użytkownicy powinni koncentrować się na rozwijaniu środowiska hybrydowego, które pozwala podzielić obciążenia pomiędzy środowiskiem chmurowym a lokalnym centrum danych – tłumaczy Marcin Tymieniecki, HPE Business Development Manager w Also.
Również analitycy i inni uważni obserwatorzy rynku na ogół postrzegają przyszłość chmury hybrydowej w jasnych barwach. Według agencji badawczej MarketsandMarkets ten segment rynku wzrośnie z 44,6 mld dol. w 2018 r. do 97,6 mld dol. do roku 2023. Co oznacza, że roczna stopa wzrostu w prognozowanym okresie wyniosłaby 17 proc., zaś popyt na chmurę hybrydową mają napędzać takie czynniki jak: opłacalność, skalowalność, elastyczność i bezpieczeństwo.
Nie bez przyczyny kluczowi dostawcy infrastruktury posiadają w swoim portfolio rozwiązania, które pozwalają na połączenie środowiska lokalnego i chmury publicznej. Ciekawy przykład stanowią chociażby oferty z obszaru storage-as-a-service. Producenci systemów pamięci masowych poszukują rozwiązań umożliwiających konkurowanie z dostawcami usług chmurowych. Nie jest to łatwe zadanie, bowiem ci ostatni posiadają w swojej ofercie szeroką gamę usług, dostosowanych do potrzeb praktycznie każdego użytkownika. Jednak vendorzy nie zamierzają składać broni i rozszerzają swoją ofertę o rozwiązania budujące wartość dodaną dla klientów, a tym samym pozwalające takim dostawcom na rywalizację z takimi usługami, jak AWS, Azure czy Google Cloud Platform. Jednym z przykładów tego rodzaju rozwiązań jest HPE Cloud Volumes.
Pamięć masowa w dowolnym środowisku
Wielu klientów chciałoby połączyć korzyści, jakie niesie ze sobą chmura publiczna oraz środowisko lokalne. Z myślą o tej grupie użytkowników HPE wprowadziło na rynek HPE Cloud Volumes. Jest to pamięć masowa dostępna jako usługa świadczona z należących do HPE centrów danych. W ramach tego rozwiązania usługobiorcy mogą korzystać z takich funkcji jak spójne zarządzanie kopiami danych (niezależnie od tego czy znajdują się w środowisku lokalnym, czy w chmurze publicznej), tworzenie snapshotów czy klonowanie. System wykorzystuje mechanizmy deduplikacji oraz kompresji, żeby zagwarantować efektywny, wymagający niskiej przepustowości transfer do oraz z chmury HPE Cloud Volumes.
Korzystający z tej usługi mają również możliwość spójnej automatyzacji, dzięki różnym API, modułowi Python czy sterownikowi CSI umożliwiającymi środowiskom zarządzanym przez Kubernetes dostęp do pamięci trwałej na Cloud Volumes. Rozwiązanie HPE zapewnia klientom elastyczność w zakresie obsługi wielu chmur bez konieczności uzależnienia się od jednego, konkretnego usługodawcy. Użytkownicy mają dostęp do Azure’a, AWS-u czy Google Cloud Platform.
Dwie odsłony Cloud Volumes
Usługa HPE Cloud Volumes występuje w dwóch opcjach. Pierwsza z nich – HPE Cloud Volumes Block – służy do przechowywania, ochrony i zarządzania danymi. Użytkownicy mogą w łatwy sposób replikować dane z pamięci masowej HPE Nimble Storage i pamięci masowej HPE Nimble Storage dHCI do HPE Cloud Volumes Block. To stanowi zabezpieczenie na wypadek nieprzewidzianej awarii, zaś środowisko wraz z danymi może być odtworzone w lokalnej infrastrukturze lub w przestrzeni udostępnionej przez jednego z trzech największych dostawców usług chmurowych. Warto też dodać, że zgromadzone dane można wykorzystać do celów analityki, testowania, raportowania itp.
HPE oferuje również HPE Cloud Volumes Backup. Usługa umożliwia przenoszenie kopii zapasowych do chmury publicznej z dowolnej macierzy dyskowej lub oprogramowania do backupu, bez konieczności zmieniania i zakłócania istniejących procesów. Kopie bezpieczeństwa mogą zostać odtworzone zarówno w lokalnej infrastrukturze fizycznej, jak i w chmurze. Usługa HPE Cloud Volumes Backup zapewnia deduplikację danych na źródle, co przekłada się na wydajność i szybkość tworzenia kopii bezpieczeństwa dzięki przesyłaniu tylko unikatowych danych z serwera lub bezpośrednio z klienta backupowego do usługi HPE Cloud Volumes Backup. Oznacza to niższą utylizację sieci nawet o 95 proc. przy korzystaniu z najbardziej popularnych na rynku rozwiązań do tworzenia kopii bezpieczeństwa (Commvault, Micro Focus Data Protector, Veritas, Veeam, HPE RMC).
– HPE Cloud Volumes Backup uwalnia klientów od codziennych problemów oraz kosztów związanych z utrzymaniem infrastruktury do tworzenia kopii bezpieczeństwa. Usługa zapewnia przy tym wewnętrzny spokój, gwarantując bezpieczeństwo danych, a także ich szybkie odzyskanie po awarii lub cyberataku. Dużym atutem tego rozwiązania jest mobilność zasobów cyfrowych znajdujących się w chmurach różnych dostawców, a także w środowisku lokalnym – podsumowuje HPE Business Development Manager w Also.
HPE dysponuje ciekawym rozwiązaniem, które posiada kilka niezaprzczalnych walorów. Usługa Cloud Volumes bazuje na dojrzałych produktach pamięci masowej klasy korporacyjnej, wspieranych przez organizację technologiczną z szerokim portfolio technologii do przechowywania danych oraz doświadczonych specjalistów w dziale wsparcia.
Marcina Tymienieckiego, HPE Business Development Managera w Also
Artykuł HPE Cloud Volumes, czyli przyszłość należy do hybryd pochodzi z serwisu CRN.
]]>Artykuł InfoSight, czyli AI w centrum danych pochodzi z serwisu CRN.
]]>– W optymalnej sytuacji, zamiast zajmować się usuwaniem awarii, specjaliści IT mogliby wykonywać bardziej ambitne zadania, np. tworzyć potrzebne firmie aplikacje. To zmieniłoby nie tylko ich stosunek do pracy, lecz także sposób postrzegania działów IT przez pozostałych pracowników przedsiębiorstw. Najczęściej są one traktowane jako generatory kosztów, a przecież mają szansę stać się komórkami efektywnie zwiększającymi przewagę konkurencyjną firmy – tłumaczy Marcin Tymieniecki, HPE Business Development Manager w ALSO Polska.
Wsparciem dla zapracowanych oraz sfrustrowanych administratorów IT może być specjalistyczne oprogramowanie. Większość takich produktów służy jednak do monitorowania konkretnych rozwiązań i radzenia sobie z cząstkowymi problemami, które mają związek z jedną częścią infrastruktury. Zdecydowanie więcej możliwości w tym obszarze oferuje analityczna platforma chmurowa HPE InfoSight. System wykorzystuje mechanizmy uczenia maszynowego do prowadzenia globalnego wglądu w infrastrukturę IT (m.in. serwerów, pamięci masowych oraz zwirtualizowanych zasobów) i jej analizy.
W ciągu dekady platforma przeanalizowała dane z kilkuset bilionów punktów i pozwoliła zaoszczędzić działom IT około 1,5 mln godzin pracy. InfoSight, dzięki dostępowi do wielkiej bazy danych, znacznie upraszcza zarządzanie infrastrukturą, przewidując problemy i zapobiegając im oraz optymalizując wydajność aplikacji. Początkowo platforma była oferowana wyłącznie z macierzami dyskowymi
Nimble Storage. Począwszy od marca 2017 r., a więc daty przejęcia start-upu przez HPE, narzędzie to stało się dostępne również dla innych rozwiązań: HPE Primera, HPE SimpliVity, HPE 3PAR, HPE ProLiant DL, HPE ProLiant ML, HPE ProLiant BL, HPE Apollo Systems oraz HPE Synergy. Podłączenie platformy do posiadanego urządzenia nie jest obligatoryjne, jednak rezygnując z tej opcji, klient musi samodzielnie nadzorować system. Są to jednak rzadkie przypadki. Zwykle dotyczą instytucji sektora publicznego, realizujących restrykcyjną politykę bezpieczeństwa.
Działy IT w rozmaity sposób próbują uporać się z brakiem dostępu do aplikacji lub ich nieprawidłowym działaniem. Niezależnie od zastosowanych metod, rozwiązanie tego problemu nie jest trywialne, tym bardziej że gros przedsiębiorstw korzysta z kilku systemów pochodzących od różnych producentów. Centra danych składają się z wielu warstw sprzętu i oprogramowania, w tym sieci, serwerów, pamięci masowych, hypervisorów, systemów operacyjnych i aplikacji. W obrębie każdej warstwy może znajdować się wiele pojedynczych komponentów kilku różnych marek.
– Wiem z własnego doświadczenia, że wykrycie usterki w większości przypadków zajmuje mnóstwo czasu. Najczęściej wiąże się to ze zbieraniem i analizą logów, a następnie z wydaniem rekomendacji. Taki proces może ciągnąć się nawet dwa tygodnie, a finał jest zazwyczaj bardzo podobny. Otóż działy IT dochodzą do wniosku, że należy zwiększyć wydajność systemu przez dodanie kolejnych nośników flash i niestety, często jest to nieprawidłowa diagnoza – tłumaczy Marcin Tymieniecki.
Z badań przeprowadzonych przez specjalistów HPE wynika, że ponad 90 proc. problemów powodujących nieefektywne działanie aplikacji powstaje poza pamięcią masową. Przeczy to obiegowym
teoriom, że macierz dyskowa jest najczęstszą przyczyną nieprawidłowego działania aplikacji.
– Unikatowe podejście do gromadzenia i analizy danych HPE InfoSight wykracza poza możliwości innych narzędzi analitycznych, a także zespołów ludzkich. Zastosowanie platformy chroni przed popełnianiem błędów, a tym samym niepotrzebnymi inwestycjami w nowy sprzęt bądź nośniki. Według wyliczeń HPE koszty związane z użytkowaniem pamięci masowych spadają dzięki temu o blisko 80 proc. – wyjaśnia Marcin Tymieniecki.
Platforma rejestruje co sekundę dane telemetryczne z systemów, podsystemów i otaczającej je infrastruktury IT, działających w różnych częściach świata. HPE InfoSight cały czas uczy się na podstawie gromadzonych danych i rozumie potrzeby idealnego środowiska operacyjnego dla rozmaitych rodzajów obciążeń i dowolnej aplikacji biznesowej. Zaawansowane uczenie maszynowe udoskonala predykcyjne mechanizmy analityczne i silnik rekomendacji. Platforma wykrywa potencjalne problemy na podstawie wzorców zachowania i konfiguracji każdego systemu.
Dzięki dostępowi do danych zebranych w dużej populacji HPE InfoSight zapewnia stworzenie linii bazowej dla konkretnego środowiska, którą wykorzystuje do identyfikacji obszarów o niskiej wydajności. Co istotne, narzędzie dostarcza jednocześnie środki zaradcze. Producent nie dopuszcza do tego, by raz zdiagnozowany problem powtórzył się u innych klientów. System tworzy więc reguły mające na celu zapobieganie występowaniu określonej usterki lub przystępuje do automatycznej naprawy. Wykorzystanie zaawansowanej analizy danych i uczenia maszynowego stanowi optymalną metodę wykrywania anomalii i potencjalnych problemów występujących w centrach danych. Platforma HPE InfoSight nieustannie gromadzi informacje i wyciąga na ich podstawie wnioski, dzięki czemu użytkownicy nie tracą czasu na poszukiwanie usterek. Rozwiązanie toruje drogę autonomicznej infrastrukturze. Takiej, która samodzielnie się zarządza, leczy i optymalizuje.
Marcina Tymienieckiego, HPE Business Development Managera, ALSO Polska
Czy autonomiczne narzędzia do monitoringu i zarządzania infrastrukturą IT lepiej radzą sobie z rozwiązywaniem problemów niż pracownicy działu IT?
Użytkownicy biznesowi oczekują natychmiastowego dostępu do danych, cały czas i bez przerwy. Jednak w rzeczywistości nie zawsze można spełnić te oczekiwania. Droga danych do aplikacji potrafi być długa i skomplikowana. Wymaga stałego nadzoru i reagowania na ewentualne sytuacje awaryjne, które mają wpływ na wydajne działanie aplikacji. To zmusza działy IT do przyjęcia reaktywnej roli. Oczywiście można zatrudniać zespoły wysoce wykwalifikowanych specjalistów wyłącznie w celu poprawy poszczególnych procesów zachodzących w centrach danych. Jednak optymalizacja wydajności pozostaje wyzwaniem nawet dla najlepiej zorganizowanych działów IT. Alternatywą może być wykorzystanie analizy danych i uczenia maszynowego. Takie narzędzia, jak HPE InfoSight, zbierają dane telemetryczne z tysięcy punktów w każdym miejscu centrum danych i są zdecydowanie bardziej skuteczne aniżeli najlepsi specjaliści IT, którzy mają dostęp do małego wycinka infrastruktury.
Czy to oznacza, że świat nowych technologii stał się zbyt skomplikowany nawet dla ludzi doskonale obeznanych z branżą IT?
Centra danych składają się z wielu warstw sprzętu i oprogramowania. W obrębie każdej z nich może znajdować się wiele pojedynczych elementów. Teoretycznie wszystkie komponenty powinny być zaprojektowane w taki sposób, żeby ze sobą współpracowały. Niemniej mamy do czynienia z dużą złożonością spowodowaną ogromną liczbą składników i zachodzącymi między nimi interakcjami. Te czynniki oraz fakt, że najwolniejszy komponent ogranicza wydajność aplikacji, stanowią główną przyczynę jej nieefektywnego działania. Trudno nad tym zapanować, stosując jedynie klasyczne podejście, polegające na budowaniu wśród pracowników kompetencji dotyczących zarządzania każdym elementem składowym centrum danych – oprogramowaniem, infrastrukturą fizyczną jak i narzędziami do monitorowania.
Na ile HPE InfoSight pomaga w sprzedaży macierzy i serwerów HPE?
Żaden z producentów macierzy dyskowych nie oferuje takiego rozwiązania jak HPE InfoSight. Jego szczególnym wyróżnikiem jest rozbudowany silnik, bazujący na ogromnej ilości danych. Co ważne, klient kupujący sprzęt HPE kompatybilny z platformą analityczną, otrzymuje ją w standardzie. Atuty HPE InfoSight dostrzegają zarówno integratorzy, jak i ich klienci. Ci ostatni często korzystają z wersji demonstracyjnych, a także realizują wdrożenia typu proof of concept.
Dodatkowe informacje:
Marcin Tymieniecki,
HPE Business Development Manager, ALSO Polska,
marcin.tymieniecki@also.com
Artykuł InfoSight, czyli AI w centrum danych pochodzi z serwisu CRN.
]]>Artykuł HPE: biznes na brzegu sieci pochodzi z serwisu CRN.
]]>– Nowoczesna technologia pozwala nam zbierać, a potem wykorzystywać te dane. Na ich podstawie możemy dokonywać analizy, a następnie podejmować odpowiednie decyzje. Biznes będzie zainteresowany tym procesem z kilku powodów. Każda firma chce się rozwijać, zwiększać poziom sprzedaży i optymalizować koszty. Z kolei ludzie dążą do tego, aby ułatwiać sobie życie – tłumaczy Michał Zajączkowski.
Wprawdzie edge computing znajduje się w dość wczesnej fazie rozwoju, aczkolwiek na rynku powstają już pierwsze projekty wykorzystujące ten sposób myślenia o architekturze rozproszonej. Jednym z przykładów jest wdrożenie infrastruktury HPE na stadionie angielskiego klubu Tottenham Hotspur. Umożliwiło to nie tylko korzystanie z darmowego Wi-Fi, ale również oglądanie powtórek sytuacji, które zainteresowały kibiców, czy też zamawianie posiłków przez telefon. HPE nie zamierza koncentrować się wyłącznie na realizacji zadań związanych z przetwarzaniem na brzegu sieci. Jak wynika z danych IDC, w 2020 r. na świecie będzie przechowywanych ponad 40 zettabajtów danych. Nawet pomimo przesunięcia ciężaru w kierunku brzegu sieci centra danych nie pozostaną bezczynne.
– Naszym zadaniem jest umiejętne zbalansowanie procesów przetwarzania danych na brzegu sieci i serwerowni – podkreśla Michał Zajączkowski.
Elastyczna i komponowalna infrastruktura
Rozwiązaniem pozwalającym na zachowanie odpowiedniego balansu, a także zwiększenie elastyczności infrastruktury teleinformatycznej jest system komponowalny HPE Synergy, który składa się z serwerów, pamięci masowych oraz łączy. Niezależnie od ich fizycznego usytuowania w obrębie jednej czy kilku obudów całość jest zarządzana z poziomu jednego systemu zarządzania HPE One View.
– Z rozwiązania korzysta ponad 2500 klientów na całym świecie. Infrastrukturę komponowalną adresujemy w Polsce do wszystkich grup klientów, wśród których znajdują się m.in Bank Santander czy Zakłady Tłuszczowe Bielmar. Ofertę architektury komponowalnej jako opcjonalną kierujemy również do przedsiębiorców zainteresowanych zakupem kilku serwerów typu rack. Wówczas alternatywa w postaci rozwiązania HPE Synergy ma ekonomiczne uzasadnienie – tłumaczy Paweł Wójcik, HPE Hybrid IT Business Unit Manager.
Infrastruktura komponowalna umożliwia połączenie dwóch światów IT w ramach jednej obudowy w centrum danych – tego tradycyjnego o charakterze silosowym oraz nowe podejście – DevOps, gdzie dużą wagę przywiązuje się do elastyczności, możliwości szybkich zmian infrastruktury.
– Nie mówimy klientom: pozbądźcie się dotychczasowej infrastruktury. Na posiadanym sprzęcie mogą obsługiwać tradycyjne rozwiązania i dołożyć dodatkowe funkcje potrzebne podczas pracy z nowymi rodzajami aplikacji cloud-native – dodaje Paweł Wójcik.
Ale infrastruktura komponowalna to nie jedyna propozycja HPE, jeśli chodzi o usprawnianie funkcjonowania centrum danych. Duże możliwości w zakresie zarządzenia infrastrukturą IT dał koncernowi z Palo Alto zakup Nimble Storage. Startup powstał w 2008 r., a jednym z wyróżników jego oferty jest system InfoSight, który analizuje i agreguje dane napływające z działających macierzy. W przypadku wykrycia źródła potencjalnej awarii wysyła informacje do administratorów.
– To bardzo dobre narzędzie. Najlepiej świadczy o tym fakt, że 86 proc. problemów jest rozwiązywanych automatycznie. Bardzo rzadko zdarza się, że incydent jest unikalny, zazwyczaj ktoś wcześniej miał już podobny lub wręcz identyczny kłopot. InfoSight jest dostępny nie tylko dla użytkowników systemów HPE Nimble Storage. Już od roku nadzoruje pracę macierzy 3 PAR, a od niedawna również naszych serwerów – dodaje Wojciech Kozikowski, Storage Solution Architect w polskim oddziale HPE.
Człowiek najpoważniejszą przeszkodą
W czasie HPE Discover More 2019 zaprezentowano wyniki badań DT Global Business Consulting „Digital Transformation in CEE”. Wynika z nich, że 56 proc. przedsiębiorstw z naszego regionu uważa, iż cyfrowa transformacja wzmocni ich pozycję na rynku. Jednak 40 proc. przyjmuje postawę wyczekującą.
Zdaniem HPE o tempie cyfryzacji gospodarki decydują trzy czynniki: technologia, ludzie oraz strategie biznesowe. W przypadku technologii kluczowe kwestie wiążą się z przetwarzaniem na brzegu sieci, a także hybrydowym IT. Przy czym według Michała Zajączkowskiego chmury nie można postrzegać poprzez pryzmat miejsca, gdzie przechowywane są dane, lecz nowych możliwości, które ze sobą niesie. W obecnych czasach nikt nie chce czekać kilka miesięcy na uruchomienie nowego serwera. Moc obliczeniowa ma być dostępna od ręki. Dlatego też HPE stara się wprowadzać rozwiązania i modele sprzedaży zapewniające elastyczność oraz automatyzację procesów IT.
– Jednak technologia nie jest największą przeszkodą w cyfryzacji. Najtrudniejsze jest przekonanie ludzi do zmian. Wszyscy wiemy, co można osiągnąć dzięki technologii, ale jednocześnie boimy się konsekwencji. Trzeba wytłumaczyć, jakie wartości i przewagi zapewniają automatyzacja, sztuczna inteligencja oraz uczenie maszynowe – przyznaje Michał Zajączkowski.
Ciekawy przypadek stanowią modele biznesowe i sposób finansowania infrastruktury i rozwiązań IT. HPE zachęca swoich klientów i partnerów do korzystania z elastycznych form finansowania rozwiązań IT. Koncern oferuje rozwiązanie HPE Greenlake, które umożliwia użytkownikom płacenie za rzeczywiście zużytą moc przetwarzania oraz pojemność dyskową. Dzięki temu nie muszą kupować przewymiarowanych rozwiązań i mogą zaoszczędzone pieniądze przeznaczyć na rozwój działalności biznesowej.
Artykuł HPE: biznes na brzegu sieci pochodzi z serwisu CRN.
]]>Artykuł HPE: punkty za innowacyjność pochodzi z serwisu CRN.
]]>To dla nas bardzo dobra wiadomość. Mamy w ofercie linię produktów HPE Edge Line. Poza tym w procesie przetwarzania na brzegu sieci wykorzystuje się urządzenia Aruba Networks, które przesyłają dane do serwerowni. Współpracujący z nami integratorzy już realizują pierwsze projekty związane z edge computingiem. Wprawdzie nie mamy jeszcze do czynienia ze zjawiskiem powszechnym, ale też nie jest to melodia przyszłości. Tak czy inaczej, rozwój tego trendu nie oznacza, że centra danych będą odciążone. Zapotrzebowanie na pamięci masowe nie będzie więc spadać. Zwłaszcza że ilość wytwarzanych danych rośnie w zawrotnym tempie i nic nie wskazuje na to, że cokolwiek się w tym zakresie zmieni.
Integratorzy lubią oferować produkty, które najlepiej znają. W jaki sposób przekonać ich do sprzedaży nowinek technologicznych?
W ubiegłym roku wprowadziliśmy nowy system premii partnerskich, który nagradza partnerów HPE oferujących innowacyjne produkty. Do tej grupy zaliczamy m.in. nasze rozwiązania z serii: Nimble Storage, SimpliVity oraz Synergy. Za ich sprzedaż zaczęliśmy przyznawać dodatkowe bonusy. Jeden z integratorów, właśnie dzięki nowemu systemowi premiowania, uzyskał w tym roku status Gold. Co ciekawe, jest to nieduża firma w porównaniu z innymi przedsiębiorstwami legitymującymi się tak wysokim statusem partnerskim HPE w Polsce.
Wspomniał Pan o rozwiązaniu hiperkonwergentnym SimpliVity. Integratorzy niechętnie sprzedają tego typu produkty, ponieważ nie przynoszą one odpowiednio wysokich profitów związanych z wdrożeniem czy serwisem…
W pierwszym kwartale bieżącego roku sprzedaliśmy więcej systemów SimpliVity niż w całym ubiegłym roku. Warto przypomnieć, że HPE kupiło ten startup na początku 2017 r. Rozwiązanie jest swoistym samograjem – nie wymaga zaangażowania ze strony działu IT. Dlatego też cieszy się dużą popularnością wśród klientów MŚP. A to bardzo pojemny segment rynku dla resellerów i integratorów.
Pozostając przy temacie innowacyjnych rozwiązań, chciałbym zapytać o systemy all-flash. Jak oceniacie poziom zainteresowania tą grupą produktów wśród klientów?
Najczęściej sprzedajemy rozwiązania all-flash z rodziny 3PAR. Wprawdzie wydają się drogie, ale kiedy porównamy, na przestrzeni kilku lat, całkowite koszty funkcjonowania macierzy tradycyjnej oraz wyposażonej wyłącznie w nośniki SSD, te drugie często okazują się niższe. Wraz ze wzrostem cen energii elektrycznej szala zaczyna przechylać się na stronę macierzy all-flash. Do tej pory mało kto zwracał uwagę na tę kategorię kosztów. Jednak to się zmienia, co zauważamy szczególnie wśród menedżerów dużych centrów danych. Patrzymy też na inne rynki, m.in. Niemcy, gdzie sprzedaż systemów all-flash szybko rośnie. Uważam, że niedługo ten trend dotrze również do Polski.
Polska wciąż pozostaje w tyle za krajami Europy Zachodniej pod względem wprowadzania innowacyjnych rozwiązań teleinformatycznych. Tymczasem menedżerowie dużych koncernów, którzy odwiedzają Warszawę, chwalą nas za tempo wzrostu, a także adaptacji nowinek technologicznych. Czy to tylko kurtuazja?
Nadal trudno nam się równać z rynkiem niemieckim, brytyjskim czy francuskim, jeśli chodzi o wielkość. Co wcale nie oznacza, że jesteśmy mało innowacyjni. Przykładowo w czasie HPE Discover w Madrycie nasz partner Eskom przedstawił autorskie rozwiązanie oparte o Open Shift na platformie HPE Synergy. Poza tym w Polsce działa wiele młodych firm oferujących nowoczesne produkty. W HPE korzystamy z polskiej aplikacji Live Chat, na uwagę zasługują też rozwiązania rodzimej firmy Voice Pin, dostarczającej systemy biometrii głosowej. Tego typu przykłady można mnożyć. Polskie startupy nie powstają jedynie po to, aby działać na lokalnym rynku, lecz docierać do klientów z całego świata. Nie bez znaczenia jest fakt, że polski rynek rośnie bardzo szybko. W ubiegłym roku uzyskaliśmy dwucyfrowy wzrost sprzedaży.
Podczas tegorocznej konferencji dużo mówiło się o znaczeniu usług chmurowych. Niemniej wielu resellerów niechętnie podchodzi do ich sprzedaży, porównując ten model do kapiącego kranu. W jaki sposób przekonać ich, a także klientów do tego modelu działania?
O chmurze mówi się co najmniej od kilku lat. Jednakże poziom akceptacji tego modelu jest daleki od oczekiwań. Dlatego patrzymy na ten model biznesowy nieco inaczej niż dostawcy usług chmurowych. To dlatego wprowadziliśmy na rynek usługę HPE Green Lake, adresowaną do firm, które korzystają z mieszanego środowiska chmury prywatnej i publicznej. HPE Green Lake to usługa łącząca model ekonomiczny chmury publicznej z zaletami lokalnego IT. Nie mamy wątpliwości, że popyt na tego typu usługi będzie rosnąć, chociażby ze względu na deficyt specjalistów IT. Dlatego zamiast monitorować pracę sprzętu, powinni zająć się innymi, bardziej ambitnymi zadaniami. Największą przeszkodą w adaptacji tego modelu jest podejście do usług. Jeden z naszych klientów, austriacki service provider, przyznał, że najtrudniejsze było przekonanie pracowników technicznych, żeby przekazali swoje dotychczasowe obowiązki usługodawcy, którym w tym przypadku jest HPE.
Artykuł HPE: punkty za innowacyjność pochodzi z serwisu CRN.
]]>Artykuł Sysdig zagląda do kontenera pochodzi z serwisu CRN.
]]>– W obecnych czasach każde przedsiębiorstwo jest związane z softwarem. Wpływ na taki stan rzeczy mają nowego trendy, takie jak internet rzeczy, sztuczna inteligencja czy autonomiczne samochody. Firmy, aby lepiej spełniać potrzeby biznesu, migrują z architektury monolitycznej do mikroserwisów. Wraz z rozwojem aplikacji natywnych w chmurze rośnie zapotrzebowanie na narzędzia do monitoringu – tłumaczy Suresh Vasudevan, CEO Sysdig.
Vasudevan kieruje startupem dopiero od kwietnia 2018 roku. Nie jest to anonimowa postacią w Dolinie Krzemowej. W latach 2011-2017 zasiadał na fotelu prezesa Nimble Storage. Jednym z wyróżników macierzy Nimble Storage, obecnie należących do HPE, jest analityczne narzędzie InfoSight, monitorujące pracę systemów, a także przewidujące wystąpienie potencjalnych problemów.
– Moje doświadczenia zdobyte w poprzedniej firmie z pewnością przydadzą się w Sysdig. Tym bardziej, że nasza platforma cały czas ewoluuje, wykorzystując ogromną ilość analiz i technologię uczenia maszynowego.- mówi Suresh Vasudevan, CEO Sysdig.
Platforma składa się z czterech elementów. Sysdig Monitor odpowiada za analizę wszystkich elementów środowiska opartych na kontenerach i mikrousługach. System gromadzi, analizuje i przedstawia w czasie rzeczywistym wskaźniki wydajności. Z kolei Sysdig Secure skanuje infrastrukturę w celu identyfikacji luk w zabezpieczeniach i blokuje zagrożenia. Sysdig jest autorem m.in projektu open source Falco Narzędzie wykrywa nietypowe zachowanie zachodzące w aplikacjach, hoście, kontenerze lub w sieci. Po ujawnieniu anomalii istnieje możliwość skorzystania z Sydig Inspect w celu dokładnego zbadania systemu, sieci i danych aplikacji.
Ciekawą postacią jest Loris Degioanni, CEO i założyciel startupu. Jego dotychczasowa kariera zawodowa jest związana z tworzeniem rozwiązań do monitoringu sieci. Jego pierwsze dziecko – analizator sieciowy Wireshark, bardzo szybko stało się jednym z ulubionych narzędzi administratorów sieci i … hakerów. Potem wystartował z kolejnym projektem CACE Technologies. Startup opracował oprogramowanie do monitorowania sieci open source, a następnie został wchłonięty przez Riverbed. Sysdig powstał w 2013 roku. W ciągu pięciu lata startup pozyskał do venture capitals 121 milionów dolarów.
Artykuł Sysdig zagląda do kontenera pochodzi z serwisu CRN.
]]>Artykuł Nowy sojusz Lenovo pochodzi z serwisu CRN.
]]>Lenovo musiało zmienić sojusze, bo straciło dotychczasowych partnerów w zakresie storage'u. Chodzi o Nimble Storage oraz SimpliVity, które kupiło HPE. Teraz potrzebuje długoterminowej współpracy z firmami, które pomogą mu realizować strategię na rynku centrów danych i pamięci masowych.
Źródło: crn.com
Artykuł Nowy sojusz Lenovo pochodzi z serwisu CRN.
]]>Artykuł HPE przejmuje Nimble Storage pochodzi z serwisu CRN.
]]>Wyróżnikiem produktów Nimble Storage jest platforma InfoSight Predictive Analitics. System analizuje i agreguje dane napływające z działających macierzy, a w przypadku wykrycia źródła potencjalnej awarii, wysyła informacje do administratorów.
Firma Nimble Storage od 2013 roku jest notowana na nowojorskiej giełdzie papierów wartościowych NASDAQ. Informacja o transakcji HPE spowodowała wzrost cen akcji Nimble Storage o 45.3 procent, osiągając kurs 12.50 USD.
HPE liczy na to, że pozyskanie producenta z Sunnyvale, pozwoli zwiększyć udziały w segmencie produktów klasy midrange. Warto zauważyć, że w ostatnim kwartale przychody ze sprzedaż pamięci masowych HPE skurczyły się o 13 procent.
To już druga ciekawa transakcja HPE w 2017 roku. Wcześniej koncern poinformował o przejęciu za 650 mln USD startupu Simplivity – jednego z liderów na rynku rozwiązań hiperkonwergentnych.
Artykuł HPE przejmuje Nimble Storage pochodzi z serwisu CRN.
]]>Artykuł Connect Distribution stawia na projekty pochodzi z serwisu CRN.
]]>
Dlatego Connect Distribution zdecydował się na większą koncentrację na rozwiązaniach zarówno programowych, jak i sprzętowych, które wpasowują się w węższe, specjalistyczne nisze rynkowe. Swoją ofertę uporządkował, tworząc grupy produktowe w taki sposób, aby ułatwić partnerom o różnych specjalizacjach poruszanie się po niej. Dystrybutor za najbardziej rozwojowe uważa obecnie te grupy, które obejmują pamięci masowe, bezpieczeństwo i zarządzanie oraz wirtualizację z uwzględnieniem technologii „cienkiego klienta”. Są one bowiem adresowane do integratorów, a nie resellerów czy sklepów internetowych. Connect Distribution chce współpracować z integratorami w trybie projektowym, szukając dla nich rozwiązań odpowiadających konkretnym potrzebom klientów. Zamierza wspierać działania partnerów, proponując im np. łączenie posiadanych rozwiązań pamięci masowej w celu uzyskania wysokiej dostępności czy wymaganej przez klienta dużej wydajności przy minimalnych opóźnieniach.
Służą do tego m.in. prezentowane podczas spotkania macierze Nimble Storage – hybrydowe i all-flash. Amerykański producent stosuje w nich oprogramowanie wykorzystujące firmowe algorytmy, które optymalizują operacje zapisu i odczytu na poszczególnych typach nośników. Jak podkreślał podczas prezentacji Liam Jones, Account Executive w Nimble Storage, bardzo ważnym elementem jest zastosowana w pamięciach masowych producenta predykcyjna analityka, która usprawnia działanie macierzy, a jednocześnie ogranicza awarie.
Szansą na innowacyjny projekt dla integratorów ma być technologia SDS (Software Defined Storage) firmy DataCore, umożliwiająca wirtualizację i konsolidację zasobów pamięci masowej oraz zarządzanie nimi, niezależnie od ich producenta i architektury. Tym samym stanowi uzupełnienie i rozszerzenie najpopularniejszych rozwiązań z zakresu wirtualizacji, oferowanych przez VMware, Citrix i Microsoft. Sławomir Karpiński zwraca uwagę, że choć idea „software defined” jeszcze nie zdążyła zyskać uznania w oczach polskich przedsiębiorców (dość ostrożnie podchodzących do marketingowych nowinek), to SDS w wydaniu DataCore zostało sprawdzone i było z powodzeniem stosowane, zanim jeszcze zaczęło się mówić o infrastrukturze „definiowanej programowo”.
Spośród rozwiązań z kategorii bezpieczeństwa i zarządzania (wśród nich najważniejsze dla Connect Distribution pozostają produkty SonicWall) na spotkaniu z partnerami omówiono oprogramowanie firmy Ipswitch. Wspomaga ono administratorów IT w zapewnianiu kontroli i bezpieczeństwa transakcji biznesowych, aplikacji oraz całej infrastruktury. Zaprezentowano także rozwiązanie Acunetix do skanowania aplikacji internetowych, zaawansowanej analizy oraz wykrywania luk w zabezpieczeniach stron internetowych.
Spotkanie Partnerów 2016 firmy Connect Distribution odbyło się 14 października w Klembowie k. Radzymina.
Artykuł Connect Distribution stawia na projekty pochodzi z serwisu CRN.
]]>Artykuł Sojusz chińsko-amerykański pochodzi z serwisu CRN.
]]>Lenovo planuje również zintegrować oprogramowanie do zarządzania infrastrukturą XClarity z Nimble InfoSight. Narzędzie amerykańskiego producent bazuje na chmurze, umożliwiając monitorowanie działania systemów Nimble Storage. InfoSight wykrywa potencjalne źródła awarii, dzięki czemu administratorzy otrzymują informacje o symptomach nieprawidłowości macierzy, jeszcze zanim pojawią się rzeczywiste usterki. Zdaniem wielu ekspertów to jedno z najlepszych tego typu rozwiązań na rynku.
Obaj producenci chcą pracować razem, aby dostarczać kompletne rozwiązania dla centrów danych, obejmujące pamięć masową, moc obliczeniową.
Firma Nimble Storage powstała w 2008 roku i jest uznawana za jednego z najciekawszych producentów młodego pokolenia. W jej ofercie znajdują się macierze hybrydowe, bazujące na autorskiej technologii CASL oraz systemy all-flash. Firma jest notowana na NYSE.
Artykuł Sojusz chińsko-amerykański pochodzi z serwisu CRN.
]]>